而在全球为 ChatGPT“狂飙”的背后,无极4平台总代理 是单样本学习 NLP 技术在质疑声中,超过 7 年的技术深耕。
一条饱受争议的创新之路
早在 2015 年,机器和语言的关系还相当陌生,相比于数字、声音、图片等其他数据类型,语言是计算机最不擅长理解的数据,它们的关系完全没有今天这般火热。计算机对语言的理解极度局限于非常狭窄的问题空间(如情感分析,语法分解等)。每一个具体的问题都需要大量的数据标注(俗称监督学习),以谷歌,Facebook 为代表的大量科技公司投身于大数据解决方案的行列。也造就了一批类似于Scale.ai的数据标注平台成为独角兽。
然而硅谷有一家公司,无极4平台代理 选择了完全相反的技术方向,他们相信计算机对语言理解的终极算法,应该是建立更高维度的语义代表(semantic representation),通过训练拥有高维度语义理解的神经网络模型,无极4平台代理 再通过零样本或单样本数据向低维空间投影以解决人类理解内的各类问题,达到触类旁通的效果。这家公司,就是Brain.ai。
2016 年,Brain 推出了美国工业界首个单样本学习的自然语言处理模型和世界上第一个可以执行多 App、多步任务的人工智能应用。并在业界和学术会议大量推广 SRL 技术和以它为代表的单样本学习方向。同年,Brain得到了乔布斯家族的投资,成为了乔布斯家族唯一投资的科技公司。
“简单地讲,监督学习类似于婴儿的学习方法(没有先验经验)而单样本学习类似于成人学习的过程(拥有先验经验)。”Jerry 给我们解释道 “婴儿在学习的过程中需要大量的标注数据,比如妈妈需要给孩子重复非常多遍‘这是一个门’,婴儿才可以学会这个词和它所对应的含义。而当一个成年人听到‘门没关’时,‘门’这个字则是对应到一个抽象的对应着之前见过的每一扇门的概念。这也就是为什么成人可以通过几句话和极少的数据得到快速的学习,甚至认知提升。我们在业界推出的拥有触类旁通能力的单样本学习 NLP,就是通过阅读几乎全人类数据并建立语义代表的方式让大模型获得先验经验的。”
早在 2016 年,Jerry 就在用同样他认为最简单的方式解释他们的技术方向,但在和很多机构投资人沟通的过程中,Jerry 在技术方向上得到了非常多的质疑声,VC 们问过最多的问题就是:“如果单样本学习是自然语言处理 NLP 正确的方向,为什么谷歌每年将数十亿美金投入在完全相反的科研方向?”直到2017-19 年的几个重大技术突破,Brain在业界率先在产品中先后使用 BERT 和 Transformer 作为语义代表,以及以单样本学习为基础的 GPT 模型在 2020 年的问世,行业和学界才逐渐转变态度,开始正视这项技术。截止 2022年 3 月,Brain 单样本学习 NLP 模型月访问量破千万,创造的单日收入首次突破 30万美金大关。
网友回应