37db6 - 2y
#AI 早晨突然得到一个猜测: 人类训练AI的方式可能出现了一个偏差。 大脑实际上不直接关心对错,而是关心情绪,(情绪也不关心对错,它的目标是化解困惑与矛盾),是靠情绪来加深减弱记忆,靠情绪来奖励惩罚推理。现实的反馈会打破这种主观,从而影响到情绪,间接影响到了记忆的和推理的过程(反思过程)。 因为对错与记忆、推理过程形成了一个间接关系,变得没那么刚性,所以准确度下降,但是想象力、创造性增加。
如果是这样,人类的很多行为可以得到解释,为什么人类喜欢幻想,喜欢选择性听故事,喜欢逃避,拒绝批评。尤其在事实不那么清晰可证,与自身利害不直接、具体相关(概念上相关,没遇到过,但理论上有概率会遇到)时会表现的那么主观。人类的分歧也往往来自于此。不能证实,没有直接后果,不用被迫接受,当然不愿意接受会导致内心各种矛盾和不自洽的解释。这就是三观差异存在的基础吧。
53a83 - 2y
我觉得可能得给想象力或者创造力下定义,然后才好找到答案。(我这算不算刚性思考方式哈哈哈) 比如“发散思维”算不算一种创造力呢,那应该是一种反向检索的能力,其实也比较依赖准确度,你至少要准确知道某个事物的各项属性,才能靠属性想到这个事物。 ChatGPT就很擅长发散。
是的这两个词用于上太含糊了,不过我想表达的意思是,这些解耦可能带来了一些好处,是我们和现在的AI表现有差异的原因之一。
是的这两个词用的太含糊了,不过我想表达的意思是,这些解耦可能带来了一些好处,可能是大脑和现在的AI表现有差异的原因之一。
那应该怎么实现呢,我们很难给ai定义一个合理的“感性”,而人是天生自带感官的。 比如我们把一些数据hash之后前置0的个数作为ai独有的一种感性偏好🐶好像也没啥用。
让AI能够读懂矛盾,不能够接受矛盾的答案(但这样可能会有危险),否则要不停的运转找到矛盾的解释;但同时还有能源消耗量的约束和惩罚(类似生存压力,用对抗算法)。 读懂矛盾的关键是有一组事实表在约束,新加入的解释,通过推理后产生的结论与之不能直接抵触,或只有一个有限的误差偏离度。
你这是打算搞一套公理系统吗?(事实表即公理?) 我觉得一个大的问题就是语言,如果能够准确定义自然语言描述的事实,那么哲学问题都能解决了。但其实你能准确定义的只有一小部分。
4864d - 2y
人的情绪是一种模糊概率事件,即在行为者间的非完美信息动态博弈之中,行为者的情绪状态是一种混合策略纳什均衡的表征。 所谓的三体人透明思维只是一种想象,并不存在于高等智慧生命的意识之中。 至于想象力、和创造了是什么? 想象力和创造力必然是大脑基于大量事实、物质材料和逻辑判断之上所涌现出来的,不能是凭空臆测。 没有人能想象出自己从未见过事物的样貌。 所谓人类虚幻的梦境,大脑的臆测和幻想,皆来源于现实物质世界外形、质地、触感、色彩、气味、和结构等的拼接。 我们在大脑里并不能创造一个非自然存在的事物影像,就好比我们有限的感官世界里,无法想象出狗的嗅觉、苍鹰的视角、和昆虫眼睛里的色彩样貌一样。
不是的,人并不靠公理存活,人靠经验存活,事实表是一组经验表,它并不是完全不可更好的,而是检验越多,越依赖的经验越难更改。它也不必是完全定义的,也不必是完全定义清晰的。但它确实可以构成约束。在矛盾出现后你要么怀疑解释,要么怀疑经验,要么怀疑输入数据,总之你需要对它们进行处理,做出选择,甚至对三者同时做出微调。
对现有模型的改进,由于我们自己都没搞清楚人类记忆的机理,我并不相信所有的手段都用尽了,用对了。
情绪确实很模糊,短暂,易变,而且大都矛盾焦虑的情绪都可以通过转移注意力加遗忘解决。但它真实存在,也可以通过模糊数学抽象成一种作用力,作用于推理和思考。 至于想象力之类的,我其实想表述的并不是文字的意思,只是找不到合适的词来描述。就像人类的手臂,上臂和下臂之间增加了关节,灵活性就增加了很多,虽然它们仍然有约束,但是增加了自由度。 至于人类能否想象出完全没有见过的事物的样貌,不好评述,毕竟很多微观世界的景象我们也没见过,我们能想象,但是完全不依赖之前见过的事物来想象也有点荒诞。即便只依靠重组拼接也够了,计算机描述的一切也不会是0和1组合拼接。
嗯,认知的局限,当前我也只能思考到这个深度,更多就给不出有价值的信息了。
哇,专业。 我是发现写代码、系统设计和管理,都和哲学有一些关系,甚至有很多哲学观点可以一一映射过来,开始研究哲学。不过目前还是起步阶段🥲太忙了。
69dfc - 2y
不晚不晚 😀
f0c86 - 2y
说个可能讨打的我自己的观点😅 我和认识的几个物理研究者都认为数学是世界的本原,物理是使用正则语言去做数学可知化,哲学是人类语言去做数学可知化,而人类语言很残缺,所以哲学很容易陷入意识不到的诡辩。
你说的是对的,我也有这种感觉哈哈哈。 编程可能就是哲学目前能数学化的一部分,对业务建模嘛,比对世界建模还要简单一些。 我会努力再搬一些过来的🥹这是我的远大理想。
数学的确以零容错的方式来认知世界的本原,但这是路径,而不是本原本身。 其余的方法,都有这样或者那样的缺陷,于是物理或者哲学就会有这样或者那样的分岐。 唯独数学没有分岐,只有难题,这些难题背后,藏着的就是本原的一部分。
从这个意义上讲,哲学是不是才是研究世界本源的起点,而物理学次之,数学才是终点,排除了各种干扰后,收敛到一个更接近本源的解。
每个人都有自己的答案。 比如我所说的数学是指全部的数学,包括未知的部分,或者也可以换个名词表述,而通常说的数学是语言,是物理使用的描述工具。本原是数学没法证明,我是按照公理理解的🐶。 但我是见过很多物理表述清楚的,在哲学表述就很…..
发散一下,我觉得很多社会性科学,从哲学出发不应该回到哲学,也不应该直接幻想着自己能够接近物理学,更不要太奢望数学。 相反它应该老老实实的学习化学,虽然我们知道很多化学反应能用物理学原理做更深刻更统一,简洁的描述,能用数学给出更加优美准确的结果,但是化学方程式仍然好用,研究难度更低。这是一个经济的选择,也是认识到自己数据经验积累不够,务实的表现。 宏观经济学就是一个典型的反例,为了用现有的数学工具和有限的计算能力给出一个终极的统一的解释,牺牲了太多的真实性,优美而不实用,和幻想无异。
0d6f3 - 2y
因为从短期来说,解决眼前的矛盾和困惑 就是生物最优先的问题。所以所有的感受和情绪才会寻求最直接的解决方式,短期内 最直接的解 基本都会很接近最优解,特别是对生存有影响的问题。 而长期的多因素的 对错(是否有更优解)的问题,是后来人类生命周期延长和社会化后才需要面对的问题。 至于AI训练 ,也没超出过这个框架,只是底层的硬件还远未到可以做更复杂的实时决策(或近实时,不然用个brute force跑到天荒地老也可以称为AGI)。现在的AI其实就是一堆记忆能力超强的神经元,所形成的系统复杂度远在昆虫以下。但不代表这些记忆力强的神经元 被运用得当的话,实际的能力会很弱。可以把现在的chatgpt当作一种更高级的程序模块,然后可以通过finetune+数据库把模块专向化,最后人为地把这些模块组装成一个更庞大的系统。(虽然难很多很多倍,但操作逻辑上和现在的软件工程没什么区别)。 展望一下,我觉得这样做出来的东西能达到 “99.99% 的人在聊1小时内 无法分辨是不是bot” "有初中以上的综合学历"。这种东西虽然做不了科研,发掘不了什么新知识,但对绝大部分人而言已经足够AGI了。 可以参考以下这个很粗糙的wolfram整合,还有现在bing的AI chatbot扒资料整理的能力。这两者都只是很简易地把不同的程序整合在一起,所以我认为以后系统级的 整合 和finetune后,潜力巨大。 https://writings.stephenwolfram.com/2023/01/wolframalpha-as-the-way-to-bring-computational-knowledge-superpowers-to-chatgpt/ #AI #ChatGPT #DeepLearning #SoftwareEngineering #Biology #Intelligence #SoftwareIntegration