支持(蓝叠,逍遥,雷电,OpenGL 2.0,夜神)等多种模拟器
配置类型 带宽 IP 硬盘 显存 价格
8核16G 10M独享 1个 120SSD 2G 月租499
8核32G 10M独享 1个 240SSD 4G 月租599
比以往任何时候都更重要的是,对于每个新的数据中心工作负载,IT组织必须回答的问题是在哪里运行。如今,新的企业计算工作负载是机器学习(或人工智能)的变体,无论是深度学习模型培训还是推理(使用经过培训的模型),人工智能基础设施已经有太多的选择,因此很难直接为企业找到佳的解决方案。
市场上有各种各样的人工智能硬件选项,广泛且快速增长的人工智能云服务范围,以及用于托管人工智能硬件的各种数据中心选项。Nvidia公司是机器学习基础设施生态系统中重要的一家公司,它不仅为全球的人工智能工作负载(Nvidia GPU)销售和生产大多数处理器,它还构建了大量运行在这些芯片上的软件,并销售自己的人工智能超级计算机。
行业媒体Datacenter Knowledge(DCK)与Nvidia公司的DGX人工智能超级计算机高级营销总监Charlie Boyle一起探讨了人工智能硬件发展和人工智能基础设施的发展趋势。以下是采访内容:
DCK:企业如何决定是将云计算服务用于其机器学习还是购买自己的人工智能硬件采用机器学习?
Charlie Boyle:我们的大多数客户都使用内部部署和云计算的组合。我们看到的大动态是数据所在位置决定处理它的位置。在人工智能环境中,需要处理大量数据才能得到结果。如果所有这些数据都已经存在于企业数据中心中(企业可能收集了10~30年的历史数据),那么希望将处理过程尽可能接近企业所在的位置。因此,它有利于内部部署系统。如果是一家业务从云端起步的公司,并且其所有客户数据都在云端,那么好在云平台中处理这些数据。
DCK:是因为很难将大量数据移入和移出云端吗?
Charlie Boyle:这还取决于企业如何生成数据。大多数企业的数据都是动态的,因此总是会添加数据,因此,如果他们在系统中收集所有数据,那么他们就更容易继续在内部处理它们。如果他们将大量数据聚合到云服务中,那么他们就会在云平台上处理它。
联系我时,请说是在2018信息港看到的,谢谢!