前Meta FAIR团队研究总监田渊栋:龙虾存在一些安全性隐患,还有很多漏洞

专题:对话奥马哈·第十一届中美投资人酒会

前Meta FAIR团队研究总监田渊栋:龙虾存在一些安全性隐患,还有很多漏洞-第1张图片

  由新浪财经主办的“对话奥马哈·第十一届中美投资人酒会 ”于当地时间5月2日在美国内布拉斯加·奥马哈市举办。 

前Meta FAIR团队研究总监田渊栋:龙虾存在一些安全性隐患	,还有很多漏洞-第2张图片

  前Meta FAIR团队研究总监田渊栋在演讲中对DeepSeek V4给予高度评价:“DeepSeek V4现在我也是用过了 ,我今天看过他们的文章,基本上开始用DeepSeek来做一些事情,我觉得V4跟V3差很远 ,有很大的突破,有很多有意思的结果 。 ”

前Meta FAIR团队研究总监田渊栋:龙虾存在一些安全性隐患,还有很多漏洞-第3张图片

  他进一步介绍 ,DeepSeek V4已能满足部分实际需求:“你用V4,再加上一些现在开源的工具,应该可以做一些简单的任务了 ,基本上很多简单的代码任务V4是可以完成的,而且完成得还不错 。”

  田渊栋指出:“其实很多基础的代码任务并不需要一个非常强的模型,这个模型足够好 ,可以解决我想要的问题,其实就已经很不错了,就像平时在学习的时候并不需要一个爱因斯坦来教你 ,你需要一个比较厉害的老师能够把任务完成其实也就可以了 ,所以我觉得V4一定程度上达到这个目标。”

  谈及DeepSeek V4对行业的影响,田渊栋表示:“V4是免费的,首先它的API很便宜 ,远远便宜于现在的OpenAI和Anthropic的价格。 ”他认为,这将推动技术平权:“如果V4很厉害的话,或者说开源模型能很快追上这种任务 ,其实可以用现在的一些开源模型来代替闭源解决方案,这样的话大家可能会更倾向于用开源和私有的模型去做他们想做的事情,技术就会非常快地平权化 。大家只需要一个够用的 ,而不是需要最强的模型来做这个事情,整个生态应该会有一些比较有意思的变化。”

  关于大模型的护城河,田渊栋给出了明确答案:“在这种情况下 ,算力、数据 、人才,应该说最重要的还是数据,特别是特殊领域的数据 ,其实是比较困难获取。”他进一步补充:“我以前也讲过 ,对AI来说最重要的是数据,然后是Infra,然后是算力和人才 ,这个路线还是在那儿 。在数据之前还有一个地方,就是制造这些数据的人更重要,因为这个人往往是专家 ,他们在某个垂直领域有自己独到的见解,这个见解很难被模仿,这些人制造出来的数据非常重要 ,有这些数据才能获得更好的结果。它的护城河在这儿。 ”同时他也强调,“当然其它的护城河也很重要,不然大模型是搞不起来的 。”

  针对“AI现在的记忆方式是否发生了本质的变化”这一问题 ,田渊栋提出了独特观点:“它既不是背书,也不是建立知识图谱,应该说背书和知识图谱都是一些比较过时的描述。 ”他解释道 ,“为什么背书的方式(数据库的方式)和知识图谱的方式 ,这两个都没有完全解决AI的问题,都没有像现在大模型那样深刻地去改变人类的进程,这是因为大模型在一定程度上来说学到了数据的一些高级的概念 ,这是非常重要的。”

  田渊栋进一步阐释:“大模型现在的能力应该说是超越了背书和知识图谱,它内部获得了一些比较深刻的表征,这个表征可以用来解决一些比较难的问题 ,这是我现在对它的一个认知,这是一个非常重要的步骤 。”他对未来充满期待:“接下来人类应该会对这个表征的理解会更深入,最终能发现媲美甚至超过人对事物认知的程度 ,现在我们还在处于一个比较初级的阶段。我们现在只是刚刚开始,也许以后会有更多的让人不可思议的发现。总有一天模型的能力应该会达到或超过人类,这个时候整个故事就完全不一样 。 ”

  对于“AI记忆的下一个瓶颈在哪里?如何放心让AI处理精密商业任务”的疑问 ,田渊栋直言这是当前AI发展的一大瓶颈 。他给出了现阶段的解决方案:“目前能做的方式就是说让它先生成一些初稿,然后让人最后把关,人是最终的决策者和执行者 ,AI给他的东西是初步的 ,能减轻大量人类的重复劳动的负担,但是人类最终还是保留承担责任的角色,所以这种情况下应该说是一个比较好的 、不改变现在的运行规律的一个方案 ,这个方案应该会维持很久。”

  他补充道,这种人机协作模式与现有行业模式相融:“首先,很多人愿意在工作岗位上继续工作 ,同时AI能够提高他们的效率。 ”对于未来的突破方向,他表示:“如果真的AI有一天能够解决这些问题,或者说我们有一些别的方法 ,比如说用一些基于数学证明的方法,或者说是一些保证它一定正确的方案的话,这整个过程可能会不一样 。比如说我出一个文件 ,这个文件能保证这个东西一定是对的,它有一些数学层面可以保证这个事情,整个流程可能会不同 ,这样的话可能之前的一些环节会完全被取代。 ”

  谈及今年热门的“龙虾热”及AI agent处理复杂任务的话题 ,田渊栋分享了自己的尝试体验:“我是尝试过了,当然了,我没有尝试多久 ,因为我觉得龙虾有一些安全性的隐患,有一些地方你是非常需要把各种各样的钥匙API都给交给他,让他去做想做的事情。”他用形象的比喻说明安全隐患:“这个安全性如果没做好的话 ,就相当于你有一个孩子,这个孩子掌握你所有的秘密,你让这个孩子上街去做一些任务 ,打酱油,但是这个孩子很容易被外面的一些坏叔叔给骗过去,坏叔叔给他一颗糖 ,让他把家里的秘密都交出来 。 ”

  田渊栋进一步分析:“现在就是龙虾也好,或者说其他agent也好,它其实处于这个状态 ,因为AI的能力现在还没有达到人的水平 ,还有很多的漏洞,那么这个漏洞一旦被人利用就会造成比较灾难性的影响,这是一个安全性的问题。”同时他也肯定了其便利性:“在便利性方向来说 ,应该说是完全跟以前是不一样的,我觉得现在有很多工作是可以自主完成的,这个跟AI coding tools给你的感觉是一样的 ,很多任务以前需要人盯着,现在不太需要人盯着了,很多事情可以放心交给它完成 ,极大加速了工作的速度和流程,我想之后变革应该会更加深化,让工作的速度和效率跟以前完全不同 ,这个是可以期待的。”

  针对“不处理复杂流程,不需要人工干预的瓶颈在哪里 ”,田渊栋分析了两大核心原因 。其一 ,主观决策难以替代:“有些地方还是需要人工干预的 ,主要还是因为需要人的决策和判断,有些时候决策和判断是非常主观的,就不存在一个标准答案 ,完全取决于个人的爱好。这种情况下,你要让AI每次都能踩中你的关键点,这个是很困难的 ,这个部分就需要人的介入,应该说很难攻克,它本身就不是一个定义良好的问题。”

  其二 ,AI工作质量有待提升:“还有一类的问题是AI自己的工作质量不好,它需要做一些反复的决策,或者说AI陷入一个无限循环 ,需要人去干预,这部分应该说是AI工作的质量问题 。”但他对未来充满信心:“我相信随着时间的变化会变得越来越强,因为这一年的发展还是一个很大的变化 ,一年前所有人的agent都是不太行的 ,但是明显从现在开始,这些agent behavior的效果是完全不一样了,很多时候可以让它长时间运行 ,不用太多烦恼去干预它。所以,这一方面我相信再过半年应该会有很多工作出来,把它做得更好。 ”

  新浪声明:所有会议实录均为现场速记整理 ,未经演讲者审阅,新浪网登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述 。