你的位置:财盛证券_股票炒股配资平台_在线配资平台 > 股票炒股配资平台 > 配资官方网站 价格战、商业化、AI安全 大模型圈“优等生”王小川、杨植麟、张鹏、李大海最新激辩
配资官方网站 价格战、商业化、AI安全 大模型圈“优等生”王小川、杨植麟、张鹏、李大海最新激辩
发布日期:2024-11-03 14:34    点击次数:73

  大模型发展进入中场,在经过拼资源、抢市场的先期考验后,行业格局暂时明晰。随着行业不断成熟,更多更具争议的话题也逐步显现,业界期待看到讨论,为行业发展提供多元见解。

  在2024智源大会上,百川智能CEO王小川,智谱AI CEO张鹏,月之暗面CEO杨植麟,面壁智能CEO李大海,国内4位大模型明星公司的掌舵者坐上了同一个讨论桌。针对商业模式探索、大模型价格战、AI安全问题等热点话题,4位从业者展开了深度讨论。

  ▍大模型公司CEO们如何看待价格战?

  价格战是业界普遍关注的问题之一。近期,大模型的降价潮突然被掀起,价格战在大模型厂商之间延烧。

  智谱是这一轮大模型价格战中的带头者之一。当被问及这个问题时,智谱AI CEO张鹏首先否认了外界对公司“忽悠”的质疑。在他看来,价格战是通过技术创新降低成本并推动大模型普及,这一策略可以促进AI大模型成为像水电一样的基础设施,从宏观角度看,也有利于中国AI大模型产业的发展。

  但张鹏也明确,过分关注成本削减和低价策略,可能对商业可持续性构成挑战,长期亏损运营并非良策,用户价值与商业健康之间的平衡至关重要。

  王小川则直言,“价格战对于中国发展大模型是特别好的事”。这主要体现在两个方面:一是促进了大模型技术的普及,许多企业和个人得以低成本试水,加速了市场成长;二是优化了资源配置,减少盲目投资和资源浪费。

  王小川观察到,在大模型初期,许多企业出于恐慌或对技术理解不足,纷纷涌入模型开发,试图转型为供应商,而忽略了自身核心竞争力与市场需求的匹配。价格战促使企业重新评估战略,回归理性,专注于自身优势。

  “没有价格战的压力,市场上可能会充斥着数百乃至数千个同质化严重的大模型,造成资源分散和效率低下,”王小川认为,价格战促使企业明确定位,专注于特定领域或服务,从而实现市场分层,每家企业找到适合自己的生存空间和发展路径,形成健康的市场格局。

  在杨植麟看来,长期来看,大模型的价格战最终要回归价值本身。随着技术进步,算力投入重心将从训练转向推理,推理成本有望显著下降。

  在C端市场,大模型的推理成本甚至会低于获客成本,这意味着AI服务的商业本质将与传统模式趋同,不再局限于价格竞争,而是转向价值创造。

  未来,随着AI应用普及,AI在工作流程中的占比将大幅提升,超越人类执行任务的比例,催生新的商业模式,不再是简单的B端API价格战,而是基于AI价值分层的普惠服务,形成多元化的商业模式。

  李大海则表示,所谓的价格战多多少含有营销策略的成分,未来的价格一定会比现在还要便宜。长远看,成本下降和合理利润共存才是行业健康发展的标志,这将真正促进各行各业普及和落地。

  ▍人类离AI安全风险有多远?

  随着大模型发展逐渐深入,一些安全风险也逐步显现,这个话题在大会当日同样被置于讨论桌前,从业者们对于短期的安全风险整体表现乐观的态度。

  杨植麟认为,AI安全非常重要,但不是当前最急迫的事情,AI安全需要长期布局。AI安全的挑战主要集中在两个层面:一是防范用户恶意操纵模型,例如通过prompt injection(提示注入)诱导模型执行不当行为,这要求模型设计需具备抵御此类攻击的能力;二是确保模型自身行为的可控性,即模型应遵循一套类似于“AI法律”的规则体系,无论面对何种指令或内在思考,都能坚守既定的行为边界,不偏离正轨。

  在王小川看来,AI安全需要从意识形态安全、人类文明安全及现实功能安全三方面考量。

  意识形态安全是底线,对于中国主权大模型而言,与国家发展和主流价值观保持一致是基本要求,要对民族和社会负责。

  至于AI对人类文明潜在的威胁,人类一手缔造的AI甚至反噬人类导致灭绝,“这个事情我觉得是不发生的”,王小川表示,更倾向于将AI视为服务人类文明繁荣与延续的工具,AI与人类共生,共同推动文明进步,而非设定限制。

  当下使用的AI技术,尚不具备颠覆人类的能力,其在复杂领域的表现仍有限。目前的AI风险主要体现在意识形态层面,须确保技术发展与社会价值相协调;而在长远发展中,应注重提升AI能力,使其成为人类文明的有益伙伴,不至于触及人类文明安全的边界。

  李大海则认为,现阶段,AI安全的重点集中在基础安全与内容安全两大领域,需要确保技术运行的稳定性与输出内容的合规性,随着大模型技术的演进,未来的安全挑战将更为复杂。

  比如配资官方网站,当大模型被集成至机器人等终端设备,在进行权重行动态调整时,安全风险将提升。因为动态权重更新意味着模型将拥有自我学习与进化的能力,这无疑增加了系统的不确定性和潜在风险。例如,模型可能受到外部恶意输入的影响,导致行为偏差或数据泄露;也可能在无监督的学习过程中吸收不良信息,影响内容安全。