045-971042457
045-971042457
时间:2024-01-29 点击数:
,让广大AI开发者、AI应用于背后的技术团队,让他们在研发AI应用于时更为得心应手,没后顾之忧,目前主要分成三个层次:一,AI计算能力。从硬件到基础设施再行到管理系统全部覆盖面积,充分利用GPU、FPGA等新兴技术,以及云计算、大数据等现有的比较成熟期的大规模分布式系统,让AI的计算能力构建价值最大化。二,AI平台中间层。
其中还包括编程语言、各种工具包等,可供研发AI算法的人用于,为他们获取完备的研发和运营环境。三,AI算法。
获取成熟期的AI算法供应用开发者用于,例如让微软公司理解工具包CNTK与TensorFlow、Caffe等框架构建灵活性切换,在一种框架下训练好的模型,可以在另一种框架下无缝用于,并将更加多算法构建到Visual Studio中去。全栈AI平台(AI Stack)反映了微软公司的系统理念,相连底层技术和工具包必要提高开发者展开深度自学研发、模型训练的效率,但是对于开发者来说整个系统又看起来无形的、不可见的。这样的系统思路有助构建“AI普及化”,打造出一个标准化AI平台的目标。
当然,目前还必须各个层面的协同发展。(公众号:)了解到,在AI计算能力方面,英特尔、谷歌等主要发力AI芯片,微软公司则特别强调Azure智能云。
Azure智能云汇集了微软公司在人工智能领域的大量投放与技术累积,是研发、部署、运营人工智能的云平台,同时也是将智能云与智能边缘融会贯通的关键环节。微软公司仍然在扩展Azure的功能。Azure目前有四个方面:公有云Azure、混合云Azure Stack、物联网Azure IoT Edge和Azure Sphere,以这四个方面打造出原始的计算环境,反对全新应用于场景。
在AI平台中间层,微软公司有数多种工具:Project Brainwave 、ML.NET、ONNX、OpenPAI、Tools for AI、NNI等,都目的获取更加简陋、高效的人工智能开发工具。微软公司于2017年公布的Project Brainwave能利用Azure上的FPGA基础架构已完成动态的人工智能处置。
用户只必须通过动态的单一批数据,就能获得以往必须非常少的批量数据处理才能获得的结果。在Build 2018微软公司全球开发者大会上,微软公司宣告发售跨平台、开源机器学习框架ML.NET的预览版。ML.NET让任何开发者都能研发出有自己的自定义化机器学习模型,并将其带入到自己的应用于中去——开发者几乎需要不具备研发和调试机器学习模型的经验。
在随后的微软公司2018人工智能大会上,微软公司讲解了两个新的工具:Open Platform for AI(OpenPAI)和Tools for AI。OpenPAI由微软公司亚洲研究院和微软公司(亚洲)互联网工程院牵头研发,目的为深度自学获取一个深度自定义和优化的人工智能集群管理平台,其反对多种深度自学、机器学习及大数据任务,可获取大规模GPU集群调度、集群监控、任务监控、分布式存储等功能。Tools for AI也是中国团队打造出,为开发者获取了一个仅有平台、仅有软件产品生命周期、反对各种深度自学框架的研发套件。
开发者可以通过熟知的Visual Studio和Visual Studio Code开发工具,较慢研发深度自学涉及的程序。Tools for AI的一键加装功能可以协助开发者配备深度自学的研发环境,因应Visual Studio (Code)自带的Python语言研发功能,开发者可以便利地编辑和调试基于CNTK、TensorFlow、PyTorch等主流深度自学框架下建构的深度自学训练程序。除了以上早已公布的工具外,微软公司亚洲研究院资深研究员伍鸣和研究员薛卉在workshop现场展示了微软公司在人工智能系统上的创意。伍鸣展出了三种深度自学框架后末端优化路径,第一种是一种硬件网络技术RDMA网卡,目前许多以深度自学为目标应用于的GPU集群都部署了这样的网络。
为了更佳地利用如RDMA、NVLink等的高速网络硬件的能力,微软公司设计了一种零拷贝通信机制,将Tensor数据必要传输到接收端。经过在TensorFlow上的实验,该方法在一系列神经网络模型上的发散速度提升2-8倍。第二种是内核融合,其主要思路是如何自动对给定深度自学网络模型实行优化,提高单个计算出来单元运算效率,构建大约10倍左右的性能加快。
第三种是拓展TensorFlow API,使用户可以在模型脚本中必要掌控传输和分析,另一个思路是将输出数据异步拷贝到CPU中,掩饰数据拷贝的支出,这种作法必须和内核融合融合。研究员薛卉讲解了其研发的NNI。薛卉原本专门从事自然语言处置,在重新加入系统组后,从自身在上层技术领域展开科研工作的切身体会抵达,和微软公司亚洲研究院首席研究员杨懋一起研发了取名为Neural Network Intelligence(NNI)的底层框架。
NNI项目源起于传统机器学习研发的繁复流程,尤其是深度自学目前还正处于黑箱状态,研究人员往往必须花费大量的时间展开模型自由选择和超强参数调试。NNI的问世不仅可以反对有所不同的操作系统和编程语言,自动地协助使用者已完成数据分析、模型核对、参数调试和性能分析工作,还能便利使用者将模型运营在有所不同的分布式系统上。
近期,NNI就不会以开源工具包的形式对外公布,这将给研究、开发人员更加多尝试创意的可能性,减缓科研和技术发展的脚步。做到系统最重要的是易用性,微软公司以上的项目通过系统的优化、创意,需要赋能更加多科研人员、开发者和实践者。了解到,目前除了微软公司,其他巨头公司也在大力推展人工智能系统/平台,英特尔有其“人工智能全栈解决方案”,涵盖了芯片、处理器、数据库、开源软件工具等;苹果有机器学习框架Core ML、Create ML、对话式人工智能Siri。未来,人工智能时代的标志性系统到底是什么样?还必须我们之后探寻。
涉及文章:微软公司 Build 发布会总览:虽然 Windows 10 缺席,但亮点仍然很多Build 大会中的 AI:微软公司 AI 云服务全线改版微软公司并购Semantic Machines,Cortana对话式AI能力将更进一步提高微软公司并购AI创企Bonsai,探寻深度增强自学商业化一口气看完了微软公司人工智能布局和产品落地 | 微软公司2018人工智能大会原创文章,予以许可禁令刊登。下文闻刊登须知。
本文来源:开元7818网页版-www.thefreecontent.com