新闻财经_财经资讯_经济发展_重庆嘻哈财经资讯网
  • 网站首页
  • 国内
  • 国际
  • 产业
  • 体育
  • 投资理财
  • 腾讯优图开源深度学习推理框架TNN 助力AI开发降

    作者:嘻哈文章来源:重庆嘻哈财经资讯网 发布时间: 2020-06-10 19:45阅读()

    北京,6月10日从学术界到工业界,“开源”已经成为人工智能领域的一个关键词。一方面,它通过“教人捕鱼”为人工智能建立了一个开放和进步的生态环境,并帮助该行业加速人工智能在地面上的应用。另一方面,在解决行业中的实际问题时,它不断更新和迭代,不断向人工智能领域传递重要的技术营养和创造力。可以说,开源是人工智能登陆和繁荣不可或缺的源动力。

    6月10日,腾讯Youtu实验室宣布,新一代移动深度学习推理框架TNN正式开源,可以部署在许多不同的平台上,性能优异,通过优化底层技术,简单易用。基于TNN,开发人员可以轻松地将深度学习算法移植到手机上以提高执行效率,开发人工智能应用程序,并真正将人工智能带到你的指尖。

    轻量级部署,TNN助力深度学习提速增效

    对深度学习计算能力的巨大需求限制了其更广泛的应用,尤其是在移动领域。由于手机处理器性能较弱,无法通过多台计算机扩展计算能力,计算时间长等因素,往往会导致发热和高功耗,直接影响应用程序和其他应用程序的用户体验。腾讯Youtu基于其技术积累的深度学习和借鉴行业主流框架的优势,推出了一款高性能、轻量级的手机推理框架TNN。

    TNN在设计之初就将移动终端的高性能融入其核心概念,并在2017年重建和升级了开源ncnn框架。通过GPU深度调谐、ARM SIMD深度汇编指令调谐、低精度计算等技术手段,性能得到了进一步提高。

    低精度计算的应用对提高TNN的性能起着重要的作用。在神经网络计算中,浮点精度已经在许多研究和商业着陆结果中被证明具有一定的冗余,而在计算和存储资源极其紧张的移动终端中,消除这种冗余是非常必要的。TNN引入了各种低精度计算支持,如INT8、FP16、BFP16等。与大多数只提供INT8支持的框架相比,TNN不仅可以灵活地适应不同的场景,还可以大大提高计算性能。TNN使用8-8位整数代替浮点进行计算和存储,这将模型大小和内存消耗减少到1/4,并将计算性能提高了50%以上。同时,介绍了臂式平台BFP16的支撑。与浮点模型相比,BFP16将模型大小和内存消耗减少了50%,并将中低端计算机的性能提高了20%左右。小龙615平台的实际测量:通用性和可移植性是TNN框架的另一个亮点。长期以来,不同框架之间的模型转换一直是人工智能项目应用落地的难点。TNN设计了一个独立于平台的模型表示,它为开发人员提供了统一的模型描述文件和调用接口,支持主流操作系统,如安卓和iOS,并适应中央处理器、图形处理器和网络处理器硬件平台。企业可以在适当的位置部署一组流程,这既简单又易于使用,并且节省了时间和人力。与此同时,TNN可以通过ONNX支持张量流、PyTorch、MXNet、Caffe和其他培训框架。目前,超过80个ONNX运营商得到支持,覆盖主流有线电视新闻网。TNN的所有运营商都是通过源代码直接实现的,不依赖于任何第三方。该界面易于使用。交换平台只需要修改呼叫参数。 腾讯优图开源深度学习推理框架TNN 助力AI开发降

    特别声明:文章内容仅供参考,不造成任何投资建议。投资者据此操作,风险自担。
    广告
    广告

    网站首页 - 国内 - 国际 - 产业 - 体育 - 投资理财

    本站不良内容举报联系客服QQ:123456789 官方微信:weixin8888 服务热线:weixin8888

    未经本站书面特别授权,请勿转载或建立镜像

    Copyright © 2002-2019 重庆嘻哈财经资讯网 版权所有