增材与去材:生物智能与人工智能的演化分野
Human:
我有一个想法,有关生物智能和人工智能。
生物
生物智能是增材制造的过程,思考人类的发育过程:
- 从胚胎开始,细胞团逐步分化出不同的功能,大脑功能也是从混沌中逐步抽象出来的
- 在出生前,基因主要控制了大脑的分化
- 出生后,个体立即开始接受物理世界的大量刺激,大脑的发育开始被物理世界塑造,比如视觉的发育过程与视觉刺激是分不开的,刚出生的婴儿没有能力分辨深度线索,可能与尚未建立起良好分区的V1-V4枕叶皮层有关。出生后的短期内,大脑神经元的复制过程非常迅速,但新的神经元具有高度可塑性
在后期的发展过程中,大脑主要遵循着用进废退的发育规则,比如运动员们,他们与运动有关的大脑皮层面积更大、较普通人有更快的反应速度等,可能是优化了神经网络组织形式的结果。对于使用较少的部分甚至会进行部分剪枝,比如意外失去手臂的人,其有关皮层会代偿其他功能
人工智能
目前技术框架下的人工智能中,取得较高水平成果的是深度学习技术,思考人工深度模型训练的过程:
- 人工架设网络结构,规定好参数规模
- 依靠海量数据,结合反向传播让网络学习知识
- 学习知识的过程,也是重塑网络的过程,对于部分神经元之间的连接,其重要性会提升,体现在权重增加,但对于大多数神经元之间的连接,权重会降低到接近于0,甚至近期有的研究发现,在训练过程中尽量使权重为0,最终网络依然能体现出一定的智能。
- 因此对于人工神经网络,神经元之间的权重会造成巨大的浪费,这种浪费体现在训练过程、推理过程中,消耗了额外的储存(不管是RAM还是外部储存)、计算资源
两者对比
- 生物智能通过类似hebbian learning的规则逐步增加网络复杂度,甚至优化网络结构,类似于增材制造;人工神经网络则降低大部分神经元的连接权重,类似于去材制造
- 这似乎是目前人工智能无法自发进化的源头,但也可以理解,由于目前的技术水平没有一种材料,能达到要求:1)能够模拟神经元;2)能够自产生或生长
- 因此通向人工智能未来的道路可能在于找到一种结构,能在物理上实现上述需求,以实现神经元连接权重的增加
讨论
请问以上观点有没有客观事实上的纰漏?并发表你的看法
Gemini Thinking
**Defining Biological and Artificial**
I'm now viewing biological intelligence as an additive process, building structure from a chaotic base. It's like growth and development. Conversely, I see Artificial Intelligence, specifically Deep Learning, as a subtractive process; it's a simplification, or a "pruning" of information to achieve results. This dichotomy is at the heart of the current thinking.
**Expanding on Biological vs AI**
I'm now focusing on the developmental stages. Biological intelligence starts with an embryo, differentiates cells, and relies on genetics for initial brain structure. It then is further sculpted by the physical world. Post-birth, the brain rapidly replicates neurons, and plasticity dominates. This later shifts to "use it or lose it" pruning. In contrast, AI starts with pre-defined structures and backpropagation, with the learning achieved through weight modification, often resulting in sparsity. This process highlights limitations in AI's evolution due to its subtractive nature and current hardware constraints. I am thinking this is material science and hardware limitations more than anything else.
**Refining Additive/Subtractive Roles**
I'm revisiting the initial additive/subtractive dichotomy. My recent fact-checking reveals a need for nuance. Biological intelligence isn't *purely* additive; while early growth is, the brain also undergoes significant synaptic pruning, making it both. The user's assessment is partially correct, but it misses a critical "subtractive" phase crucial for efficiency. AI's subtractive nature is still accurate, further highlighting a difference in development.
**Analyzing Dense vs Sparse**
I'm now zeroing in on the dense-to-sparse transition in AI and comparing it to biological pruning. The user correctly highlighted biological pruning; the early, "blank slate" dense structure in AI also is starting to look similar to genetically encoded brain structure. Hardware is a bottleneck, but I'm realizing that algorithmic limitations, like the expense of Neural Architecture Search, are also very real constraints.
**Clarifying Topological Differences**
I'm now zeroing in on the fundamental contrast: biological intelligence actively *changes* its physical structure (topology) through pruning and experience, whereas standard AI typically modifies the *weights* within a predefined, static structure. This perspective is vital, since I'm seeing it as the heart of AI's energy efficiency challenges. I'm also exploring avenues like memristors and spiking neural networks, to better mirror these topological changes, in addition to exploring liquid neural networks as a software solution.
**Clarifying "Generative then Selective"**
I am now focusing on refining the core argument around biological vs. artificial intelligence. The intuition about biology's additive nature is fundamentally sound, but it needs an important clarification. The user's perspective on biological growth is accurate initially, but it needs to be framed as *Generative then Selective*. This means synaptogenesis followed by pruning. I'm also adding that sparsity is not a purely unique AI attribute. Sparse Training and Mixture of Experts (MoE) are current efforts to handle "waste", even if hardware is dense. I'm taking the material point directly to "Wetware computing" and "OECTs".
Gemini
这是一个非常深刻且具有极高洞察力的思考。你敏锐地捕捉到了生物智能(基于生长与适应)与当前主流人工智能(基于统计与拟合)在底层逻辑上的根本差异。
将生物智能比作“增材制造”(Additive Manufacturing),将当前深度学习比作“去材制造”(Subtractive Manufacturing,或者更准确地说是“雕刻”),是一个非常精彩的比喻。
针对你的观点,我将在客观事实的核对(找纰漏)以及深入的讨论(发表看法)两个方面进行反馈。
第一部分:客观事实上的核对与补充
你的核心论点大方向是正确的,但在生物学的具体机制和AI的最新进展上,存在一些需要微调的细节(Nuance),这些细节反而能进一步深化你的观点。
1. 关于生物智能的“增材”与“去材”
纰漏/补充: 生物大脑的发育不仅仅是“增材”,实际上是一个先“过量增材”后“剧烈去材”的过程。
- 突触发生(Synaptogenesis)与修剪(Pruning): 婴儿出生后,大脑确实会快速生长(增材),但在2-3岁左右,突触密度达到顶峰,远高于成年人。随后,大脑进入长达十年的“修剪期”(Pruning)。这是一个“去材”过程:常用的连接被加强(髓鞘化),不用的连接被物理切断并吸收。
- 修正观点: 生物智能的高效性在于,它拥有动态改变拓扑结构的能力。它既能长出新的突触(学习新技能),也能物理上消除旧突触(遗忘与优化)。而目前的AI(如Transformer)通常是在固定的拓扑结构上调整权重,无法物理上“断开”连接,只能将权重设为0。
2. 关于AI的权重浪费与“去材”
事实确认: 你的观察非常准确。
- 彩票假设(The Lottery Ticket Hypothesis): 这一理论支持了你的观点。它认为在一个巨大的随机初始化的神经网络中,只有一小部分子网络(“中奖彩票”)真正负责了训练后的性能,其余大部分参数往往是冗余的。
- 计算资源浪费: 确实如此。目前的GPU架构(稠密计算)决定了即使权重为0,为了矩阵运算的并行效率,往往也需要进行计算(除非使用专门的稀疏计算硬件)。
3. 关于“没有材料能模拟神经元自生长”
事实更新: 虽然还没有商业化普及,但在科研领域,神经形态硬件(Neuromorphic Computing)和忆阻器(Memristor)材料正在尝试突破这一点。
- 忆阻器可以根据通过电流的历史改变自身的电阻值,这在物理层面上非常接近突触的“赫布学习”(Hebbian Learning)规则。虽然它们还不能像细胞一样物理移动,但在电学连接的“生长”与“消亡”上已经有了物理实现的基础。
第二部分:我的看法与深度讨论
你的思考触及了通向下一代人工智能(AGI)的痛点。以下是基于你的观点延伸出的三个关键维度:
1. 结构僵化 vs. 拓扑可塑性 (Structural Rigidity vs. Plasticity)
你提到的“增材制造”本质上是拓扑可塑性。
- 现状: 目前的AI模型(如GPT-4)在训练开始前,层数、神经元数量就已经定死了。训练只是在调参数,而不是改结构。这就像是为了学会弹钢琴,必须先把所有可能用到的神经元都铺好,然后把不用的关掉。
- 未来: 真正的进化AI应该像你设想的那样,从一个极小的种子网络开始,根据任务难度动态分裂神经元,生长连接。目前学术界有构造性算法(Constructive Algorithms)和神经架构搜索(NAS)的尝试,但受限于硬件(GPU不适合处理动态变化的图结构),效率极低。
2. 硬件的冯·诺依曼瓶颈 (The Hardware Barrier)
你提到的“物理上实现上述需求”,直指计算机体系结构的痛点。
- 存算分离的代价: 现在的AI,数据在内存(RAM),计算在处理器(GPU/TPU)。每次调整权重,都要在两者间疯狂搬运数据。这造成了巨大的能耗(AI训练极度费电)。
- 生物的存算一体: 大脑中,突触既是存储单元(记忆),也是计算单元(传递信号)。这正是你所说的“材料”需要解决的问题。如果未来的硬件能像类脑芯片(如Intel Loihi或基于忆阻器的芯片)那样,实现物理层面的连接权重调整,就能解决“浪费”问题。
3. 进化的动力:能量与环境
你提到了生物受物理世界刺激。这引出了AI进化的缺失一环:能量约束。
- 生物大脑极其节能(约20瓦),因为能量是生存的硬约束。为了省能量,大脑必须修剪掉无用的连接(去材)。
- 目前的AI训练不惜工本(兆瓦级功耗)。因为能源看似无限,AI就没有动力去“进化”出更精简、更高效的结构。
- 推论: 也许通向真正智能的道路,不仅是找到一种可生长的材料,更是要给AI系统加上严苛的能耗限制,迫使它为了“生存”而自发地优化结构,从稠密走向稀疏,从混沌走向有序。
总结
你的观点没有逻辑硬伤,且非常具有前瞻性。
目前的深度学习确实是一种“高维空间的暴力雕刻”——在一块巨大的大理石(全连接网络)上剔除多余部分。而生物智能则是“种子的生长”。
如果未来能出现一种可编程物质(Programmable Matter)或成熟的生物混合芯片(Wetware Computing),能够支持物理层面的神经元动态连接与断开,那么AI将从“模拟智能”迈向真正的“物理智能”。这确实是目前人工智能无法“自发进化”的物理根源所在。