算力是推动人工智能ChatGPT破局的关键
ChatGPT的发布引起了全球的广泛关注和讨论。 根据相关数据显示,每次使用ChatGPT进行回复至少需要花费1美分。 在初始阶段,满足100多万用户的需求,公司每天至少需要10万美元的运营成本。 但当用户数量增长到数亿时,每年的成本将超过50亿美元。 算力成本高昂,限制了ChatGPT等人工智能模型的参数量、智能水平和广泛应用。
然而,随着当前算力的爆发式增长,新的算力平台正在出现,为突破算力瓶颈提供了可能。 例如,亚马逊云科技正在为此做出努力,其在服务器CPU领域的市场份额已从去年的1.6%提升至3.16%,几乎增长了一倍。 这种新型的算力平台为人工智能模型的更高级别智能水平提供了可能,也为广泛应用人工智能技术提供了更为可持续的支撑。 算力作为制约人工智能发展的最关键因素之一,其不断突破和提升,将助力人工智能技术的迅速发展。
在亚马逊云科技2022 re:Invent 全球大会上,亚马逊云科技发布了基于 Arm架构 CPU 芯片 Amazon Graviton 的增强版 Amazon Graviton3E,并计划将其用于更多的计算实例。 Amazon Graviton 不仅是 Amazon EC2 的核心组成部分,更是亚马逊云科技构建容器等托管服务的基础,为云计算提供更具性价比的算力。 在一次交流活动中,亚马逊云科技技术专家指出:“不论是智能语音、自动驾驶,还是最近热门的AI绘画,所有AI的发展都使得机器学习模型变得越来越复杂。 “ 过去几年中,机器学习模型的规模不断扩大,参数数量更是从数亿增加到数千亿,这导致许多企业,特别是小型创新公司难以承担训练和部署这些日益复杂的机器学习模型所带来的高成本,从而使它们无法进入这一领域。
亚马逊云科技在芯片设计和构建方面拥有业内顶尖的团队,已经研发出多款优秀产品,包括 Amazon Graviton 系列、Amazon Inferentia、Amazon Nitro 系统等。 其中,Amazon Inferentia是一款专为机器学习推理和驱动而设计的服务器芯片,相较于同类基于GPU的服务器,提供了更高的性价比、更快的吞吐量和更低的延迟。 为了应对模型训练复杂度不断提升的挑战,亚马逊云科技专门搭建了Trn1实例,最多可搭载16颗Amazon Trainium芯片,训练成本降低了50%。 此外,亚马逊云科技在2022 re:Invent 全球大会上还推出了基于Trn1的网络优化型实例Trn1n和新的Amazon Inferentia2芯片以及Inf2实例,其每瓦性能提升了45%,吞吐量提高了4倍,延迟只有1/10,支持GPT-3、Mask R-CNN、VIT等超大型复杂模型。 此外,Amazon Inferentia系列芯片和实例在减碳方面表现优秀,符合全球绿色可持续发展的生态要求。
Finch Computing是一家专注于让人类生成的文本具有机器可读性的软件初创公司。 然而,机器学习带来的高昂成本使得该公司不得不放缓前进的步伐。 但是,Amazon Inferentia的推出让Finch Computing的管理者看到了希望。 该公司迅速将其计算密集型模型从原有的GPU迁移到Inferentia,结果推理成本降低了80%以上。
Amazon Inferentia以低成本提供强大的性能,为客户开辟了全新的创新途径。 人工智能的普及不只是最近ChatGPT的引领,去年Midjourney平台上艺术类比赛获奖者杰森·艾伦的《太空歌剧院》是最好的例证之一。
AIGC在创意、表现力、迭代、传播、个性化等方面充分发挥技术优势,打造新的数字内容生成与交互形态。 AI绘画、AI写作以及ChatGPT等都是AIGC的表现形式之一。
AIGC将会在大量的探索和尝试之后,转向更有价值的行业应用领域,从而对经济和社会发展产生巨大的影响力。 为了实现这一目标,强大和经济的算力支撑是AIGC深入发展的必要前提。 亚马逊云科技通过在芯片、服务等方面不断创新,帮助广大客户更深入了解和探索AIGC在各个领域的实践,实现AIGC的关键趋势洞察和快速落地。
未来,更强大的人工智能服务需要解决落后的算力基础和先进的业务需求之间的矛盾。 这需要随着业务场景不断升级的持续性创新。 亚马逊云科技一直致力于利用创新的云技术推动产业发展,为数字化发展提供技术底座和驱动引擎。 亚马逊云科技广泛而深入的人工智能专属解决方案正以先进的性能、更优的性价比和全面的服务赋能千行百业,助力各个规模的企业拥抱人工智能的浪潮。