搭车DeepSeek腾讯C端发力2025-02-20 14:27:18 来源:中国网 阅读量:15298
导读:火速接入
2月17日中午12:00,“腾讯文档正式接入DeepSeek-R1满血版”的官方推文阅读量超过6.5万,当时距离腾讯文档宣布只过了2小时16分,截至...
火速接入 2月17日中午12:00,“腾讯文档正式接入DeepSeek-R1满血版”的官方推文阅读量超过6.5万,当时距离腾讯文档宣布只过了2小时16分,截至北京商报记者发稿,该文阅读量8.6万。腾讯文档官方公众号其他文章的阅读量则普遍在1万上下。 元宝上周就接入了DeepSeek,当时提供的DeepSeek大模型仅支持联网搜索,2月17日元宝再次升级,混元+DeepSeek两大模型均支持深度思考功能。和腾讯文档一样,目前腾讯元宝内的各个模型也都覆盖公众号等腾讯生态内容及互联网信源。 此外,腾讯AI代码助手、腾讯元器、腾讯乐享、腾讯地图、腾讯云TI平台、腾讯云大模型知识引擎、腾讯云智算、腾讯云开发等产品也已经接入DeepSeek。 注重C端 今年开年,随着DeepSeek热度持续席卷全球,包括微软Azure、英伟达等海外科技巨头,以及国内阿里云、华为云、腾讯云、百度云、360数字安全等云厂商,纷纷选择了在自家的云服务平台上线DeepSeek大模型。 此次的快速跟进跟腾讯的策略不无关系。2023年5月腾讯CEO马化腾这样类比AI,“对于工业革命来讲,早一个月把电灯泡拿出来,在长的时间跨度上来看是不那么重要的。关键还是要把底层的算法、算力和数据扎扎实实做好”。 谈到腾讯系产品火速接入DeepSeek,文渊智库创始人王超向北京商报记者表示,“论改造和产品能力,没什么企业比得上腾讯。大模型最大的成本是研发投入和买算力的资金,对腾讯而言,人力和算力已经投入,边际成本很低,内部重新做好资源分配和对接就可以”。 至于万众期待的大模型应用,“有两种可能性,如果是闭源的,那可能是一个全新的应用,如果是开源的,大概率出现在现有的App当中”。王超说。 淘汰阶段 尽管大厂纷纷搭上DeepSeek快车,但在AI商业爆发前夜,在模型优化和算力利用等方面,仍面临着诸多瓶颈。有业内人士称,进入2025年,在DeepSeek率先将大模型价格降至GPT-4的1%后,国内大模型赛道就已经进入了残酷的淘汰阶段。 以GPT-4为例,其训练过程需要使用海量的数据和强大的算力,耗费了巨大的成本。虽然大厂们在模型架构设计、算法优化等方面进行了大量的尝试,但要在保证模型性能的前提下,进一步提高模型的训练和推理效率,仍是一个巨大挑战。 而在算力利用上,目前AI计算主要依赖于GPU等专用硬件,但GPU的算力利用率并不高,存在着严重的资源浪费。据相关数据,OpenAI在训练GPT-4的过程中,其算力的利用率仅为32%—36%,大模型训练的有效算力利用率往往不足50%。这不仅增加了AI研发的成本,也限制AI技术的大规模应用。 不过,最大的挑战依旧是目前AI产品的盈利模式尚不清晰,这也是商业化变现的难点之一。虽然这几年来,AI技术在很多领域都有开始落地应用,但如何将这些应用转化为实际的商业价值,仍是一个有待长期探索的问题。 声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。 下一篇:返回列表
推荐产品
![]() 经典回顾
|
||
网站地图 备案号:京ICP备19048932号-2 中国最专业的房产家居、装修建材行业资讯网络平台 本站部分资源来自网友上传,如果无意之中侵犯了您的版权,请联系本站,本站将在3个工作日内删除。 |