“AI制药”时代到来,能否降低国内药价?是否存在风险?
大家好。我是夏念薇,这个AI制药我认为有利有弊。
A:AI制药的普及市面上的仿制药就多了,那么药价肯定是便宜的,特别是癌症患者收益,这将是令全国老百姓满心欢喜的一件事。
B:为什么我会认为这东西存在弊端呢原因如下。这样我想起了一件事,很多大医院现在都开始人工智能给病人配药,有人因为机器的配药过量导致死亡。这还是存在一定风险的,这就涉及一个药成分精准度的问题。想想还是挺复杂的,所以我人为还是需要有人工进行看护外一机器出错了怎么办是不是会导致人的生命危险这也是我比较疑惑的方面……
因此,我认为,有利有弊,不可能马上就能马上替代工人,但这也确实是一件造福百姓的一件好事。
我们普遍认为人类是由地球上远古的猿人经过长久的进化来的,但是有些学者认为我们人类是被 外星人 精心设计出来的。正如,人类正在努力设计AI来取代更多人工手段一样,或许人类在“出生”以前就经历过这样的“制造”过程。
人类是被设计出来的我们普遍认为人类是由地球上远古的猿人经过长久的进化来的,但是有些学者认为我们人类是被外星人精心设计出来的。正如,人类正在努力设计AI来取代更多人工手段一样,或许人类在“出生”以前就经历过这样的“制造”过程。
在俄罗斯有两位研究基因的科学家,他们从事这个研究已经有13年之久。日前,他们称有新的证据表明,人类的DNA是被设计过的,而这个设计者很有可能就是所谓的外星人。
他们发现在人类的DNA中,有一组算数模式和象形文字符号被编进了人类DNA当中,这一震惊的发现让他们肯定人类是被设计出来的,而能拥有这项技术的绝对是拥有基因改写能力的外星人。
这两位基因科学家名为Maxim A Makukov和Vladimir I Shcherbak,他们对这发现也没有藏着掖着,在2017年4月他们公开了这项研究成果。
如今我们正在制造AI机器人,换句话说,我们人类不就非常有可能是高等外星人用氧、氮、水、钙和磷做成的“肉体机器人”,只不过人类没有这项技术而想象不到而已。
他们称,设计者负责编写好“机器人”的制作程序——DNA,然后进入到有性繁殖的制作工序,他们的“工厂”便是母性的子宫。“制成品”便是有血有肉有骨架的“人类”。外星人的智慧实在是高明,这种被制造的“机器”能量的获取、工作的富有创意性等等都被设计的如此完美。
另外两位基因科学家还称,在人类DNA当中有,97%的非编码序列均来自地外生命形式的遗传密码。并且人类DNA当中还有两个译本代码,一个是巨大的结构代码,一个是简单的基本代码。这是数十亿年前地球上突然发生的一个变化,人类至今都没弄明白怎么回事。
面对这样的发现,相信大部分人都不能接受,但其中一位科学家Makukouv则称,我们早晚都要接受这样一个现实,即我们的生命中都携带着外星亲戚的遗传代码,由此所展开的进化历程,并不是达尔文所告诉我们的这样。
另一位科学家则称,或许在未来的某一天,我们的外星“亲戚”可能回来看望我们。
人类或是外星物种的获胜者两位科学家的发现实在让人震惊,而人类是被设计出来的这一说法也是非常有可能的。这不仅是科学家的最新发现,在中国的古籍上也早有记载,那就是山海经。很多人认为山海经是神话故事,但其实山海经是古书。山海经里面提到的很多情节,是真真实实存在的。
最初的地球上,不仅仅存在猴头人(也就是现在人类真正的祖先),更存在狗头人,羊头人,牛头人,马头人;都是我们的先人“龙族”制造的,还有半机械体的蚩尤族人,这些都是半成品。最后的竞争,人类胜出,获得了在地球的繁衍权。而竞争中更是出现了世界大战,现在人类的世界大战对比远古时期的世界大战,简直就是儿戏。
上古的世界大战,超核武器几乎涤荡了地球上对人类有威胁的所有其它强力生命,更有一些超级基因者,也就是伏羲、女娲、盘古等等守护者帮助,人类才得以战胜其它试验品的怪物,在这次“世界大战”中,半机械体的蚩尤族被淘汰,身形巨大的夸父族被淘汰,而一些狗头人、羊头人等其他试验品都被人族消灭,而创造我们的“先人”龙族,甚至也参与的战争,导致了培养器皿的损坏,所以龙族的女娲补天来救援人族。
将来,假设人类没有灭亡,很可能也会遭遇同样的事情,比如我们的AI设计很完美了,但是,作为载体的电脑,及机器人机体却无法获得突破,那时候的人类的脚步已经能够拓展到很远的星系了。
那么必定会排出考察队伍去其他星系进行考察,很难说不发现其他与人类不同的生命形式,比如金属生命体,有着最原始形态的金属生命,更有机械恐龙,机械鸟一类的生命,居然是土生的,自然形成的低智慧金属态生命体。于是人类就在上空安营扎寨,利用原有的机械生命体,加上AI,试验一个适合AI与原始金属生命体相结合的新“机器人类”,最后,在众多的试验品中,实行优胜劣汰的战斗,最后唯一的胜出将作为产品在当地星球繁衍。
“衣食住行加互联网”,一夜之间诞生了许多现在的互联网大厂,不过时过境迁尘埃落定之后,现在似乎已经是人工智能的时代了。但是但凡体验过若干次人工智能不那么智能的时刻,总是不免从脑海深处发出灵魂之问:人工智能?B站上的一些人工智障表现,常常有数百上千万人围观。正是因为现有的人工智能技术在大多情况下,都不能善解人意地解决实际需求,在互联网上还诞生了一批反其道而行的大发明家,他们的产品生动地展现了,“什么叫做别人家的产品要钱,他们家的人工智能产品要命”。
人工智能像极了人工智障究竟是怎么一回事,跟随我一起看看吧。
谁还记得那些年大火的“互联网+”吗……“衣食住行加互联网”,一夜之间诞生了许多现在的互联网大厂,不过时过境迁尘埃落定之后,现在似乎已经是人工智能的时代了。
但是但凡体验过若干次人工智能不那么智能的时刻,总是不免从脑海深处发出灵魂之问:人工智能?就这?
在**中,人工智能是这样的,无所不能、追求进步、感情丰富、思考着我是谁我从哪里来我到哪里去的深刻命题……然而现实中呢?机械地接受指令还常常阴差阳错,遇上一些突发情况立马整不会,更别说跟你沟通交流情感往来这些场景了。
B站上的一些人工智障表现,常常有数百上千万人围观。例如,一篇长使英雄泪满襟的《出师表》在谷歌翻译看来,那就是纵横古今三千年的跨学科大作文,充斥着偶尔点题的前言不搭后语,让人哭笑不得。
再譬如说疫情以来,得到广泛应用的智能人脸识别系统更是引起了很多争议和讨论,人们在担心自己隐私泄露和安全性问题的同时,也发现人脸识别系统常常给人以“惊喜”:
有时候化个妆或者戴个眼镜就完全识别不出来,有时将识别为真人,之前更是出现了王者荣耀的人脸识别将狗认作了人脸这种新闻。
正是因为现有的人工智能技术在大多情况下,都不能善解人意地解决实际需求,在互联网上还诞生了一批反其道而行的大发明家,他们的产品生动地展现了,“什么叫做别人家的产品要钱,他们家的人工智能产品要命”。
所以说,你是否思考过这个问题,为什么现在的人工智能存在着那么多的诟病?真的只是因为发展时间短暂赞不成熟吗?还是说从根本上就南辕北辙了呢?
01 主流人工智能为什么不“智能”?
一些人工智能之所以并不像想象起来那么智能,那是因为其实他们都只是专用人工智能,而非像人类那样能够胜任各种任务的通用人工智能系统(Artificial General Intelligence)。
目前主流AI研究所提供的产品都不属于“AGI”的范畴,例如曾经因为打败李世石与柯洁而名震天下的谷歌公司的Alpha Go,其实就是一个专用的人工智能系统。
它除了用来下围棋之外,甚至不能用来下中国象棋或是日本将棋,更别说进行医疗诊断,或是为家政机器人提供软件支持了。
虽然驱动Alpha Go工作的“深度学习”技术本身,可以在进行某些变通之后被沿用到其他人工智能的工作领域中去,但进行这种变通的是人类程序员而不是程序本身。
不妨追溯人工智能的起源,它的诞生本来就是哲学思辨的产物,很多人或许看过《模仿游戏》,主角图灵其实对于AI科学的兴起起到了至关重要的作用。
在1950年,他的一篇论文中提出了著名的“图灵测验”,并认为人造机器具备人工智能的条件,就是它的言语行为是否能够成功模拟人类的言语行为。(也就是说我们和机器对话时会误以为它是真人)。
其实从诞生时起,AI研究就要探讨,什么是“智能”?究竟是能解决具体问题,还是在行为层面和人类相似?而判断AI系统好不好,也往往取决于它能否达到设计者最初的目标,这和物理实验判断假设合理性的路径不同。
在目前AI研究进路多样的阶段中,没有哪一种获得了绝对优势,不过我们可以大致将它分为符号主义和联结主义两个进路。
不要被这些晦涩术语所吓到,所谓符号主义进路,其实就是用现代的形式逻辑进行推演,就比如在计算机编程的时候,输入一些现实的数据,然后通过逻辑进行推理达到结果。这种进路其实被广泛应用,但是它存在一些根本问题,也造成了很多灾难:
比如2019年的这场空难,它的事故源自飞机上的AI系统,这个系统自动控制飞机头和地面的角度,而且人很难找到手动控制的按钮,只能依赖AI。
它的工作原理很简单,机头有个传感器探测飞机和地面角度,之后把数据给系统,系统就自动调整直到符合标准。
然而,一个根本问题是,如果传感器本身坏了怎么办?这种AI系统无法解决这个问题,因为它的原理就是根据给定的经验数据进行机械的逻辑推演,它无法灵活根据现实环境的变化临时判断。
其实这种进路的AI系统,都是运用了现代的形式逻辑思维,虽然它也很难满足另一派基于联结主义的深度学习技术发展(想必大家在科技类新闻中常常会见到“深度学习”这一热词,尽管可能不清楚它的意思)。
但是,在真实的生活中,我们一般人经常不会采用形式逻辑思维,而且这种思维本身看似比我们的“直觉”、“想象”要更加理性、科学,但是也会造成很多问题:
比如说,形式逻辑无法检查自己处理的经验性命题本身的真假,上述中那场空难就是例子,而为了克服这一点,设计者通常预设了很多经验事实在推理中起到了真理的作用,进而将经验世界加以固化了。
人类可以轻松在变化的经验世界和不变的逻辑世界中进行切换,但是依赖形式逻辑的AI却无法做到。
又比如说,形式逻辑的语义注重刻画“边界明确”的极端情况,但是日常生活中很多表述都处于语义模糊的“灰色地带”。
一个具体例子是“张三有钱”这句话,按照现代逻辑的表述,哪怕只有一分钱属于张三,“张三有钱”这句话就是真的,但人们日常的表述显然意味着,张三的财富必须远超一般人。
而一个现实的问题是,形式逻辑不考虑经济性和可行性,只关注有效性,这意味着在实际应用到AI编程时,它不在意所需的大量公理和推理步骤。但是实际的AI编程显然要考虑成本问题和工程效率。
至于所谓的联结主义AI研究,并不关注符号层面上对人类的信息处理过程进行逻辑重构,而是注重如何以数学方式模拟人类神经网络的运作方式,并通过对于此类神经元网络的“训练”,以使其能够给出用户所期望的合格输出。
02 深度学习对人类文明有隐藏威胁
时下流行的“深度学习”技术,其前身其实就是联结主义,或者叫做“人工神经元网络”技术。
关于这一技术,有个浅显易懂的类比。假设有一个外国人跑到少林寺学武术,而且他和师父之间语言不通,那么他就先观察师父的动作,再跟着学习。
师父则通过简单的肢体交流告诉徒弟学的是否对,假如徒弟知道自己错了,他也不能通过语言知道自己究竟哪里错了,只有无限地猜测并模仿,直到师父肯定为止。
这种方式显然效率很低,但是“胡猜”却是联结主义的实质,因为这种AI系统不知道输入的信息意味着什么,它是通过一次次猜测可能的结果,如果与人类预先给定的“理想解”符合,则加以保存“记忆”,并在此基础上继续“学习”。
而所谓“深度”学习,其实并不意味着AI可以深度理解学习内容,它的原文“deep learning”翻译为“深层学习”或许更不容易引发歧义。
它的意思是通过系统技术升级,增加隐藏的单元层、中间层数量,这种方式显然依赖于硬件的提高和互联网普及所带来的大量数据。
那么,深度学习为何会对人类文明造成潜在威胁呢?
这里说的威胁,不是那种科幻式的想象,而是一种基于现实的考量。简单说来,“深度学习系统的大量运用会在短期内对特定领域内的人类工作岗位构成威胁,由此也会对人类专家的稳定培养机制构成威胁,并使得深度学习未来的智慧汲取对象变得枯竭”,由此,人类文明在耗尽了深度学习的短期红利后,可能走向衰落。
这段话究竟是什么含义?
我们从医学中的肿瘤AI诊断说起,这种新兴技术在设计深度学习框架时,必须依赖专家医生进行数据的标注,但是专家医生本人的读图能力却是数十年的学习和实践中积累的。
换言之,当这种AI技术得到推广,医学院的学生可能没有精神动力再耗费多年心血进行相关学习,从长远来看,这会造成人类医生相关能力的衰弱。
而且,由于深度学习的统计学机制会剔除偶然数据,很多罕见病例的肿瘤形态不会被标注,这种情况下,只能依赖人类医生,长远来看,AI肿瘤诊断也会对人类医生诊断罕见病例的能力产生负面影响。
徐英瑾老师认为,深度学习技术对专业领域劳动力的剥削和取代,实际上对人类文明的人文资源产生了剥削和威胁。
所谓的人文资源,包括了稳定而不僵化的知识培养体系,使得劳动力在专业技能和文化素质等方面都能有所发展,而且每个人的思想与技能水平的差异性,又使得人文资源充满丰富性和多样性,这是一个社会的人文资源能够可持续发展的重要前提。
但是现有的AI系统不能像真人那样对同一价值内容产生多样性的认识,深度学习机制实际上是收集了大量的一般性认识,并加以平均化,它无形中排除了很多个性化的认知,但是却无法产生新的历史发展可能性。
这种僵化和平均化的一个后果,是人类提出新动议时被AI所限制。比如说,喜欢创新的影视制作者提出新的方案时,如果资本方依赖深度学习所提供的信息处理方式,就会以“缺乏数据支持”为由反对这种创新,那么有想法的导演和编剧就无法得到资本界的支持来从事创新性的文艺创作。
03 对眼下的主流的AI研究的批评
传统的的AI系统需要对系统所面对的环境,或者是所要处理的任务类型给出非常清楚的界定,因此不具备那种针对开放式环境的适应性。
然而,现实生活中,即使是鸟类的自然智能,也都具有那种处理“全局性”性质的能力。譬如说,乌鸦所面临的原始环境肯定是不包含城市的,但是这并不妨碍日本东京的乌鸦成了一种高度适应城市环境的生物。
成精的日本乌鸦
此外,自然智能常常能用相对经济的方式对环境作出回应。例如我们很难想象一只猴子为了辨认出它的母亲,需要像基于深度学习的人脸识别系统那样先经受海量“脸”信息的轰炸,就像我们很难设想柯洁在获得与“Alpha Go”一决高下的能力之前,需要像它那样自我对弈几百万棋局一样。
相反,对于信息的过分榨取,已经使得当下的人工智能陷入了所谓“探索-榨取两难”,如果不去海量地剥削人类既有的知识,机器便无法表现出哪怕出于特定领域内的智能。
然而,一旦机器剥削人类既有知识“上了瘾”,就无法在任何一个领域内进行新的探索。
与之相比较,相对高级的自然智能却都具备在不过分剥削既有知识的前提下进行创新的能力(比如司马光在“司马光砸缸”这一案例中所体现的创新能力)。
因此,假使有一天一种超级AGI实现了,它的技术路径也必然与现在主流的人工智能技术非常不同。
总体来看,目前被社会各界所热炒的AI的概念,是需要一番冷静的“祛魅”操作的,这需要一定的科学知识做支撑,也需要一定的哲学剖析能力做辅助。
我国目前AI发展的基本策略,就是利用中国庞大的互联网用户所产生的数据红利,拓展缘起于美国的深度学习技术的应用范围,这就使得相关技术的发展更容易收到某些国家来自技术供应端的打压。
要从这种局面中找到出路,创新性的哲学思维就显得很重要。例如如果我们能够开拓出一种基于小数据的(而非大数据的)、并由此在原则上就不需要大量获取用户个人信息的新AI发展思路,就完全可能由此规避美国目前针对我国的大多数政策限制。
##20211026
本期活动
日常生活中,你遇到了哪些“人工智障”的事件?你对AI的前景有着怎样的理解和展望?从哲学角度来看,你觉得AI发展的未来方向在哪?欢迎在留言区聊一聊,小北将挑选2位幸运读者,送出本期主题图书《人工智能哲学十五讲》。
在人工智能时代,“通用人工智能”技术依旧遥远,未来的理想路径或许是“小数据主义”、“绿色人工智能”、“心智建模”。
点击图书封面,即可直接购书
-End-
编辑:孙嘉婧、黄泓
观点资料参考:《人工智能哲学十五讲》,徐英瑾著
BurningEmpty
越晦涩的书,读完越享受|重磅好礼
“慈禧们”没少买军舰,为什么李鸿章和北洋海军一败涂地
事不避难 义不逃责——重大古籍整理工程《儒藏》的出版
如果你也被人工智障坑害过
人工智能像极了人工智障相关阅读:
人工智能 = 人工智障
你还别说,你这个机器人怪可爱的
有一点点心动
但是“智障”起来是真的智障
特别是一个人在房间的时候
突然一下智能音响跟你搭话了
多恐怖啊,甚至空气都有一点冷了
还有扫地机器人。。。
我在启动它之前要把家里所有能挪动的障碍物都挪动一下,不然我怕卡住它
挪完了,不时还是能够听到他被卡住的声音
特别是推拉门的轨道
抱起来,它又骑上去了
抱走,它又来了
你别说它还挺有脾气
扫地机器人:你别拦着我,我今天一定给这块干平,整干净了,你放开我。”
然后我就成为了扫地机器人保姆。
人类不可能淘汰的,因为机器人需要被监督。
诶,要是有机器人可以监督扫地机器人呢?
- End -
脱文 “脱文”简称“脱”(有时作“敚”或“夺”),也叫“脱字”。这个术语专指古籍中脱落了文字的现象。例如《诗经·周南·桃夭》孔颖达疏:“此云家人,家犹夫也,犹妇也。”阮元《校勘记》:“‘犹妇’上当脱‘人’字。又如《诗经·卫风·硕人》孔颖达疏:“猗嗟云:‘颀而长兮’。孔世家云:‘颀然而长’。故为长貌。”阮元《校勘记》:“‘孔’下脱‘字’字。”
本文2023-08-07 10:10:07发表“古籍资讯”栏目。
本文链接:https://www.yizhai.net/article/42258.html