首页 > 行业名录 > 民营级IDC企业 > 北京 > 正文

北京海云捷迅科技有限公司

网站名称:北京海云捷迅科技有限公司
网址:www.awcloud.com
企业名称:北京海云捷迅科技有限公司
公司地址:北京市海淀区知春里28号开源商务写字楼402
邮政编码:100086
电话:15300016737
传真:
电子邮箱: 
成立时间:2010/5/1
人员规模:150人
注册资金:1000万元人民币
企业介绍:

北京海云捷迅科技有限公司(简称AWCloud海云捷迅),国内领先的企业级开源云产品、云服务提供商,专注于为企业提供开源的虚拟化、容器化、云计算、AI基础服务等产品及解决方案。总部位于北京中关村高新技术园区,拥有专业的研发、运营和服务团队。
  
AWCloud海云捷迅以开源技术为核心,推出的AWCloud云计算管理平台、GaiaStack容器管理平台、AIStack人工智能管理平台、AWSTACK超融合一体机、OpenStack的技术培训等产品和服务,为高校、科研院所、新媒体、医疗、IDC、电力、公众服务等行业提供适用的解决方案。

主营业务:

AWCloud云计算管理平台、AIStack人工智能管理平台、AWSTACK超融合一体机、AWCloud OpenStack培训

典型案例:

1.1. 平台简介
中国人工智能开放创新平台是在贵阳市人民政府与英特尔(中国)有限公司、中国人工智能产业创新联盟共同支持下建设的全国首个人工智能开放创新平台。
平台能够为全省、全国乃至全世界各类人工智能创新创业团队、企业、社会组织提供安全可靠的人工智能研发平台,解决人工智能开发资源的需求。并能够有效支撑全国人工智能创新大赛的开展,以及在2018年数博会期间举办的全国性人工智能创新大赛决赛的要求。最终满足国家提出发展新一代人工智能产业的要求,推动贵阳成为全国人工智能创新基地,以及全国人工智能发展的聚集地和发源地,助力贵州打造人工智能创新发展高地。
中国人工智能开放创新平台构建在Intel人工智能硬件平台和完整解决方案之上,包括以下几个方面:
1. 搭建人工智能硬件基础设施。
搭建包括Intel Xeon Platinum和Intel Xeon Phi融核技术的高性能服务器、Intel 100Gb OPA高速互联网络设备、Intel SSD高速闪存的存储以及安全设备等的人工智能硬件基础设施,满足大量数据访问、存储和智能化处理的需要,满足安全可靠运行的需要。
2.构建人工智能云平台。
通过采用开源开放的云平台架构包括KVM,Docker,OpenStack, Kubernetes, GlusterFS分布式存储架构,对硬件设施进行虚拟化处理,形成虚拟层面的资源池系统,按需为每一套应用系统提供基础IT资源,包括计算能力、存储能力和网络功能,从而快速适应动态变化的业务需求,实现“弹性”资源分配能力。
通过采用Intel平台优化的AI开发框架包括Intel Caffe, Tensorflow等,实现高效能,高扩展,分布式的AI训练框架,利用Intel 平台优化的人工智能库和工具包括Intel MKL, Intel MKL-DNN, Intel BigDL,最大程度的发挥硬件平台的性能。
通过统一的Web界面,可实现对整个硬件资源集中管理,包括虚拟机、资源池、网络、存储、容器、裸机、AI开发框架等,从而为AI开发提供各类软硬件资源。
3.打造人工智能开发套件环境。整合Intel FPGA开发板、Intel Movidius计算棒、开发台式机、外设等AI套件,打造人工智能开发套件环境,有效支撑开发团队开展人工智能推理端、移动和低功耗场景开发以及成果展示,为入驻平台团队等提供前端设备支持。

1.2. 技术水平
1.2.1云平台服务及功能
按照业务发展实际需要,中国人工智能开放平台总体可分为IaaS、PaaS和SaaS三层,可为我国人工智能研发团队、相关企业、社会组织提供安全可靠的人工智能硬件资源和可开发套件服务。整体架构如下图所示:

IaaS层:通过搭建高性能服务器集群和大规模分布式存储集群,使用100Gb网络高速互联,采用OpenStack、Kubernetes、GlusterFS对硬件进行统一纳管,对外提供IaaS服务,包括虚拟机、裸机、存储和网络等功能。
PaaS层:不同于传统的PaaS,人工智能开发平台需要PaaS层能服务于人工智能开发学习,因此借助底层提供的IaaS功能,形成PaaS层需要的容器、数据库、缓存、大数据服务等服务,为人工智能项目的开发构建出开发测试平台Devops,能满足人工智能开发团队的应用快速部署,测试以及打包,最终形成应用管理,让开发者更专注于应用自身,而不是开发平台的构建。
SaaS层:主要是提供开发者门户和管理员门户,方便人工智能开发团队快速申请和使用资源,同时管理员对平台进行统一的运营运维管理。
1.2.2基础设施部署架构
基础设施硬件包括用于AI工作区的Intel Xeon和Xeon Phi平台服务器,用于存储和管理节点的Intel Xeon E5平台服务器, 用于AI工作区高速互联的100G Intel OPA,用于AI部署端的Intel Arria 10 GX FPGA和Intel Movidius计算棒。
部署架构如下图所示:

图 中国人工智能开放创新平台基础架构
中国人工智能开放创新平台的基础架构分为3个区:
1.互联网接入区
主要是对外提供服务的出口,通过连接电信、联通双线链路保证访问质量,同时前端一系列的安全防护设备,保证平台的安全性。
2.AI云生产区
AI生产区分为计算资源池和存储资源池,计算资源池提供Intel Xeon Platinum和Intel Xeon Phi融核技术的高性能计算能力,存储资源池提供有效分布式容量,计算区、存储区内同时采用100Gb OPA进行高速互联,为推导学习、模型训练提供最大的带宽和最低的延时。接入层和汇聚层分别采用10Gb和40Gb进行高速互联。
3.安全管理区
安全管理区将云管理平台、防病毒系统、安全管理服务器、漏洞扫描服务器等一系列安全设备进行统一划分管理,保证生产区的安全。

1.2.3平台技术优势
1.一键完成部署 极速搭建深度学习开发环境
即使是有经验的深度学习开发者,想部署构建一套深度学习开发环境也需要大量时间完成复杂的配置工作。AI平台可一键完成云端部署,并提供应用全生命周期管理能力(创建、暂停、恢复、删除 等),助力开发者极速搭建深度学习开发环境。
2.支持 CPU、GPU 多种部署模式
支持使用 CPU、GPU 进行深度学习开发与训练,同时可根据自身需求选择单节点或分布式部署模式。
3.无缝对接对象存储 存储海量训练数据
集成对象存储命令行工具,通过配置对象存储相关参数,可便捷地从对象存储中获取海量训练数据,完成模型的训练。
4.集成主流深度学习开发框架
集成 Caffe、TensorFlow、MXnet 等主流深度学习框架和 Jupyter notebook 开发环境,助力用户快速部署深度学习开发环境。
5.预置主流科学工具包 加速深度学习开发
为加速深度学习开发与模型训练,AI平台预置有Intel(R) MLSL、Intel® MKL/Intel® DAAL/Intel® MPI、Intel® DAAL、MKL-DNN、Intel MKL等众多数据科学工具包。

落地应用结合情况
1.3. 实施效果
中国人工智能开放创新平台(一期)项目于2017年12月顺利完成系统上线,2018年1月份完成系统初验,交付客户使用。从2018年1月份至5月份,已有超过60家AI开发团队入驻平台,使用平台提供的各类物理资源、虚拟资源和AI开发软件资源。期间我司负责面向AI开发团队提供培训指导,负责系统的运维支撑,配合客户方进行系统运营和市场推广相关工作,获得了客户方和AI开发团队的一致好评。

运营数据中心
许可证:
企业荣誉:

 

Copyright©2001 - 2013 IDCQUAN.com All Rights Reserved. 京公网安备11010802011314号 京ICP备13013182号

关于我们    联系我们    Powered by CmsTop