用好AI的第一性原理,就是把人脑当成一种大模型!

内容转载自:策略人藏锋

人脑,是一个复杂且高度优化的“大模型”。

很多朋友问我,怎样才能用好大模型?我说你把人脑也当做一种大模型(虽然大模型本身就是在模仿人脑的运作原理),平时你是如何记忆、理解、思考和输出的,那你就会对大模型的运作机制了如指掌。

我把大语言模型当成我的外挂系统:

一是它的无限知识库,基于它数据库的无限性,弥补我知识获取的有限性。

二是它的超强计算力,调动各个板块知识的算力无限性,解决我精力有限的问题。

*这里讲的大模型专指使用大量文本数据训练的大语言模型(LLM,Large Language Model)。

大脑是有保护机制的,一旦用脑过度超出负荷,就会开始头疼宕机。

有了大语言模型,就像是钢铁侠有了贾维斯。科幻片的逻辑在于从长期角度,预测未来人的可能性,以及人与科技的关系。

人的天花板不是AI的天花板,AI的天花板更不是人的天花板,双方配合才能突破天花板。

很多人把智库系统当成搜索工具,当大模型当成小助手,这样的话可就真的大材小用了。

一个懂行业、懂领域、懂大语言模型的人,如果再利用好大语言模型这个全球级知识库和超级计算机运算能力,可想而知天花板有多高。

我们完全可以踩在巨人的肩上,拾级而上。

大模型是我的库,是我的外挂超级算力系统,是我随意可以克隆出来的巨擘,细分领域专家。只要我跟大佬的能力越近,我的行业理解越深,领域研究越深,执行能力越强,我就可以在这个基础上做指数级增长。

大语言模型涉及神经科学、数学、计算机科学、数据科学、语言学等等,这是它存在的底色。

大语言模型的本质并非文字本身,要把文字理解成特定的程序代码。你每次的问问题,都是一次敲代码。它每次的答复你,也是基于对于代码的理解。

字词就是一个个代码,关系也是一段代码,而非像人的神经元理解一样,可以做到直接调取它的语义。你可以把提示词、知识库、训练当成是代码,而非文案的逻辑。

接下来我尝试用通俗的大白话进行理解,希望对你有用。

一、知识库准备阶段

大语言模型的知识库基于机器扫描和处理,人脑的知识库基于过往工作和生活的日积月累。

1. 收集信息

大语言模型相当于是一个超级知识库,把所有公开半公开在书籍、论文、期刊、文章、网页都扫描了一遍。

在量的层面直接吊打人脑,但人脑掌握了核心的非公开资料,一是本身存在于脑子里,二是这些资料本身未公开出来。人脑是定制化的,是更深度的,是非范式的。

2. 存储信息

大语言模型记住并非是语言文字本身,而是将文字(字词为字段)转换成一个个对应的数字代码(数学的逻辑),并通过计算这些向量之间的距离来衡量语义的相似性(你可以理解为大语言模型里的知识就像无数个小格子,通过数学和概率的逻辑来调动这些小格子,以及它们的排列组合,连贯起来)。

这里要注意,它是基于庞大数据库都认可的普适性语义理解和常规式逻辑关系。

这种存储方式首先解决了成本和效率的问题,更少的存储空间和更少的并行算力调取成本,使得模型可以存储足够的信息量和快速检索和处理大量文本数据。

当然,这种记忆方式决定了很难像单个人具备的关联性和情境性,你可以把人工比喻成更专业的小模型和在这个小模型里更强的算力运转。在大模型的概率统计生成之上,带有了自己的经验和情感,而这两个恰恰是更高维的信息库。

人对信息宽度记忆有限,但对记忆的丰富度更强,加入了感官理解。

因为每次学习都会用过往的框架进行理解,调动的不是单向的,还有实践过程中得到的,这些是基于定制化的,没有反映到公开的文本环境中,而是存储在自己的大脑。

人脑是面和体的吸收,而非线性,是高维多模态,还通过图像、声音甚至肢体语言形成认知。人脑是不断在迭代的,人脑的智能化是用神经元,其实是更高级的,当然,这得是一个“思考”的人。因为思考的过程,也是训练的过程,也是迭代的逻辑。

如果把人脑和大语言模型的优势结合起来,配合起来,可想天花板有多高。

人不是简单地存储数据、单纯调用里面的小格子。神经元存储的逻辑在于,建立了一套更高维更立体的关系,这里面是加入了我们的理解。加入了我们的记忆(和消化),这些记忆是高度情境化,是强大关联性性的,可以灵活地将不同类型的记忆串联起来。

二、理解输入阶段

当你提问时,大语言模型会先分拆问题,将你的问题拆解成一个字词(字段),并提取上下文信息(狭义上是对话窗口,广义上是智能体的提示词和知识库),以此来识别你想要的答案。

1. 接收信息

比如你问“什么是人工智能?”,它其实是不能直接理解这句话的意思,因为它存储的逻辑是用数字向量的形式,而非像人一样一步到位理解语义。

于是它把你的问题分解成最小理解单元,“什么”+“是”+“人工智能”+“?”。

每个最小理解单元,甚至包括标点符号,都会被转换成一个个数字代码。你可以理解成这是它才能处理的格式。

所以我们的问题一定要足够简单,能删的部分全部都要删,保留最核心的字段。

2. 理解信息

接下来它的注意力机制就会启动,就是找到你这句话的关键词,也就是它理解的最重要的数字代码。

在这个问题中显然核心词是“人工智能”,大模型会给到这个词更高的权重,以此来回答针对性的问题。

同时它还会关注周边的影响代码,“什么”表示疑问,“是”表示定义问题。

大语言模型记住的语言模型,是字词句之间的远近关系,从而决定了输出的概率。

三、思考处理阶段

先是信息搜索,在知识库的一个个小格子之中找到和“人工智能”相关的信息。

然后是信息关联,将扫描过不同来源的信息做关联,类似与东拼西凑排列组合。

最后是信息组织,根据你问问题的方式,来决定自己的表达方式,确保回答的结构和逻辑是你想要的。

大语言模型的思考处理是依托于普适化的模式识别和概率推理。

人脑的思考一方面是自己过往形成双重决策系统,一是理性逻辑系统,二是感性的直觉经验系统。当然,这套系统不同人千差万别,上限很高,下限也很低。

四、输出回答

这是模仿人脑组织语言表达的过程。在输出回答层面,主要分为五大要点:定输出框架、定专业程度、定详细程度、定表达风格、连贯性表达。

1. 定输出框架

即使你就是简单问“什么是人工智能?”大模型也可能会做延展,不仅讲它的定义,还有技术构成、发展阶段 、应用领域、挑战与风险等。

因为在它的思考过程中,后面几个部分和定义这个格子关系很近,需要对这几个部分做产出,才能更全面理解定义。

但人脑就不一样,很清晰你知道你具体要的是什么,你就是简单要一个定义,我根本不需要进行赘述,如果你要问其他的,我才会回答。因为我知道你的语义意图,也就是更理解人本身。

2. 定专业程度

即使同样的观点,也有不同的内容输出形式。根据你的场景,看你需要小白级、入门级,还是专业级的回答。

这个时候对方调动的就是它另外的小格子,确定用什么样的方式能让你更理解。

3. 定详细程度

你可以明确告诉大语言模型的详细程度,是细化还是详述,还可以具体到多少个字、字数区间、多少字以上。

4. 定表达风格

就像写文章一样,不同的文章有不同的写作风格。是专业级还是大白话,是客观还是主观。

5. 连贯性表达

最后,模型会检查自己的回答,确保回答的逻辑性和整体性,做到重点突出、前呼后应、层次分明,让人听得明白。如果不连贯,哪怕每句话都没问题,但结合起来就会显得非常乱。

总结

开始很重要,重要的是先开始。只有在高强度使用的过程中,才能找到更多的可能性。

用好AI 的本质是理解人,当你把人脑看作大模型,并不断反思自身学习与思考的方式时,便能更好地运用 AI。

本文地址:http://mip.sunnao.cn/archives/881

以上内容源自互联网,由运营助手整理汇总,其目的在于收集传播生活技巧,行业技能,本网站不对其真实性、可靠性承担任何法律责任。如发现本站文章存在版权问题,烦请提供版权疑问、侵权链接、联系方式等信息发邮件至candieraddenipc92@gmail.com,我们将及时处理。