在线客服
客服热线
010-56293071
QQ:
服务时间:
8:30 - 18:30
>
>
>
数盾POD-深度学习硬件平台解决方案

Copyright  ©  2018   北京数盾信息科技有限公司   www.shudun.com   All Rights Reserved.

京ICP备09024756号  

新闻动态
新技术、新产品、新趋势、新应用,自主创新,引领全球。

数盾POD-深度学习硬件平台解决方案

【摘要】:
深度学习已经成为人工智能时代的入口,国内外行业巨头纷纷在语音识别、图像识别、自然语言处理等领域拓展深度学习版图。但深度学习网络模型复杂、计算量大,也对深度学习训练数据也提出了较高的要求。很多时候,即使购入了高精尖的深度学习设备,但由于难以部署,高价买回的设备只能搁置,因此深度学习成为一个效果很好但门槛很高的方向,如何落地实际应用成为关注的焦点,对此数盾科技厚积薄发的人工智能深度学习一体机,切实帮助
    深度学习已经成为人工智能时代的入口,国内外行业巨头纷纷在语音识别、图像识别、自然语言处理等领域拓展深度学习版图。 但深度学习网络模型复杂、计算量大,也对深度学习训练数据也提出了较高的要求。很多时候,即使购入了高精尖的深度学习设备,但由于难以部署,高价买回的设备只能搁置,因此深度学习成为一个效果很好但门槛很高的方向,如何落地实际应用成为关注的焦点,对此数盾科技厚积薄发的人工智能深度学习一体机,切实帮助解决深度学习应用中遇到的障碍与困境。
 
 
    除此之外,数盾POD能够通过相对低廉的硬件产品解决用户在构建深度学习相关项目时对于大量数据集高效、安全的访问、存储。使得CPU能够高效的发挥其性能。无论硬件还是软件尽量降低部署的复杂性,节约时间成本,尽量达到开箱即用,可以使用户将更多的精力放在产品的研发上,而不用花费过多的时间和精力去操心底层系统的问题,用户可以使系统提前准备好的主流的深度学习框架的容器镜像进行开发,而后重新打包镜像,直接将应用跑在容器中,使用户对于系统的管理更加的简单、清晰、明了。
 
 
    数盾POD采用一台数盾存储于一台NVIDIA DGX STATION GPU服务器,存储和GPU服务器之间使用万兆网卡进行直连,采用直连的方式在一定程度以提高网络的传输效率,直接将网络磁盘挂载到GPU服务器的某个目录下,而后容器在创建的时候将该目录与容器中的目录进行关联,使得容器中的应用可以正常的访问我们存储中的数据,另外NVIDIA 专门开发了可以使用 docker 访问GPU 资源的docker runtime,用户可以安装nvidia-docker 在启动容器时使用——runtime =nvidia参数来在容器内使用GPU资源。
 
 
    数盾POD具备超高性能、大容量存储、容器化管理、开箱即用以及成本低廉等特点。
 
1. 超高性能
使用dgx station 作为我们的计算服务器,拥有4块Telsa v100 GPU 配合NVIDIA开发的NVLINK技术突破PCIE 总线速度提高了GPU间通信的整体效率。
2. 大容量存储
使用数盾Hippo200服务器作为存储服务器,是数盾科技研制一款基于ARM架构的分布式网络存储服务器,提供近百T容量存储。
3. 容器化管理
使用nvidia 提供的nvidia docker runtime,可在容器内直接使用GPU资源,为整个项目的管理提供了极大的便利。
4. 开箱即用
架构简单,且系统内置了常用的容器镜像,无需格外配置部署,方便用户使用。
5. 成本低廉
采用数盾科技研制的Hippo200存储服务器与NVIDIA DGX STATION 进行直连,无需额外的网络设备,可节省一大部分成本。
 
    数盾科技持续秉承全球化发展战略,从全球范围考虑市场与资源分布,提高竞争力。并将继续在高性价比深度学习硬件产品方面提高品质,降低成本,把产业链予以延伸,提高企业附加值,延长产业链,以领先的科研技术赋能AI+各行业的发展,推进人工智能全球化生态建设与发展。