GPT大热背后,沪上信息化企业家有冷思考 大语言模型竞逐,算力才是关键 2023-04-16 来源:解放日报
字号:

  记者 李晔

  这本是一场信息化企业家协会的换届选举,部分正在全国乃至全球各地洽谈业务的企业家们本难以到场,却不惜中途赶回上海。除了要投出心目中的会长人选之外,更是冲着大会专题论坛聚焦的“GPT大语言模型的应用和机遇”主题。

  22年前作为大学生创业的联合麦通CEO陈哲敏抢到了第一个提问GPT业内大咖的机会。他的公司为世界500强企业提供客户管理服务,有着规模达3000人的外包呼叫中心。陈哲敏的着急在于,大语言模型对通用常识和专业问题的解答存在巨大差异,距离真正的专业垂直场景应用还要走多远?

  这并非陈哲敏一家的困惑。达观数据创始人陈运文也早已关注到,如果问ChatGPT一些专业问题,它的回答往往东拉西扯,说不到重点或不够深刻。但这种“一本正经胡说八道”,并不能掩盖GPT巨大的技术突破和出色表现。

  在国内,近期,多个国产大语言模型竞相官宣,包括阿里“通义千问”、商汤“日日新”、复旦“MOSS”、百度“文心一言”、清华大学“ChatGLM—6B”等。达观数据也推出了国产GPT系统“曹植”系统,面向金融、政务、制造领域推出类似微软Copilot的“达观助手”,帮助用户更好地进行文字自动化撰写、审核、排版等。

  在陈运文看来,国产大语言模型“大乱斗”反倒是好事。“大家走的技术路线相似,但用到的数据参数和规模训练方式有所差异,各家可结合业务优势,专注于构建垂直、专用领域的大语言模型。”

  GPT大热背后,沪上信息化企业家不免形成冷思考。微软(中国)一位资深专家介绍,ChatGPT看似只是聊天机器人,实为模型与算力的“肌肉展示”。目前,微软的Azure云服务已为ChatGPT构建了超过1万枚英伟达A100GPU芯片的AI计算集群,并以此为底气,签下200余家头部客户。“云计算技术界公认的一个说法是,1万枚英伟达A100GPU芯片是做好大语言模型的算力门槛,训练一个垂直的大语言模型也至少需要千枚GPU芯片。因此,现在我们更应关注国内是否有机会跑出GPU来。”这位业界大咖说。

  据记者了解,在GPT大语言模型问世前,我国几乎没有任何应用场景需要用到如此大的算力。如今,数量需求巨大且价格高企的GPU芯片,也让国内可布局类GPT的选手企业有限。据悉,支撑GPT大语言模型的GPU芯片,前有英伟达A100,单价9万元一枚;英伟达最新一代H100性能更优,但单枚价格高达25万元。这意味着,能承受如此大投入的国内选手寥寥无几。

  事实上,早在2016年,英伟达创始人黄仁勋就向OpenAI捐赠了超级计算机DGX-1。此举大大提升了OpenAI的算力,才有了如今ChatGPT的高光时刻。与会企业家们建议,能否探索商汤、阿里等国内大厂超大智算中心的算力租赁模式,从而解决中小企业布局大语言模型的算力不足痛点。

  在此次会议上,上海市信息化企业家协会完成换届,上海龙软电子集团有限公司董事长戴剑飚连任第三届理事会会长。

分享: