「人工智能」的各地常用別名
ArtificialFictionBrain.png
中国大陸人工智能
臺灣人工智慧
港澳人工智能
馬新人工智能、人工智慧
日韓人工知能
越南智慧人造

人工智能(英語:artificial intelligence,缩写为AI)亦稱智械機器智能,指由人製造出來的機器所表現出來的智能。通常人工智能是指通过普通電腦程式來呈現人類智能的技術。該詞也指出研究這樣的智能系統是否能夠實現,以及如何實現。同时,通過醫學神經科學機器人學統計學等的進步,常態預測則認為人類的很多職業也逐漸被其取代。[1][2]

人工智能於一般教材中的定义领域是“智慧主体(intelligent agent)的研究与设计”[3],智慧主体指一个可以观察周遭环境并作出行动以达致目标的系统[4]约翰·麦卡锡于1955年的定义是[5]「制造智能机器的科学与工程」[6]安德烈亚斯·卡普兰(Andreas Kaplan)和迈克尔·海恩莱因(Michael Haenlein)将人工智能定义为“系统正确解释外部数据,从这些数据中学习,并利用这些知识通过灵活适应实现特定目标和任务的能力”。[7] 人工智能可以定義為模仿人類與人類思維相關的認知功能的機器或計算機,如學習和解決問題。人工智能是計算機科學的一個分支,它感知其環境並採取行動,最大限度地提高其成功機會。此外,人工智能能夠從過去的經驗中學習,做出合理的決策,並快速回應。因此,人工智能研究人員的科學目標是通過構建具有象徵意義的推理或推理的計算機程式來理解智慧。人工智能的四個主要組成部分是:

  • 專家系統:作為專家處理正在審查的情況,併產生預期或預期的績效。
  • 啟發式問題解決:包括評估小範圍的解決方案,並可能涉及一些猜測,以找到接近最佳的解決方案。
  • 自然語言處理:在自然語言中實現人機之間的交流。
  • 計算機視覺:自動生成識別形狀和功能的能力 [8]

人工智能的研究是高度技术性和专业的,各分支领域都是深入且各不相通的,因而涉及範圍極廣[9]。人工智能的研究可以分为几个技术问题。其分支领域主要集中在解决具体问题,其中之一是,如何使用各种不同的工具完成特定的应用程序。

AI的核心问题包括建構能夠跟人類似甚至超卓的推理、知识、规划、学习、交流、感知、移物、使用工具和操控机械的能力等[10]。人工智能目前仍然是该领域的长远目标[11]。目前弱人工智慧已經有初步成果,甚至在一些影像辨識、語言分析、棋類遊戲等等單方面的能力達到了超越人類的水平,而且人工智慧的通用性代表著,能解決上述的問題的是一樣的AI程式,無須重新開發算法就可以直接使用現有的AI完成任務,與人類的處理能力相同,但達到具備思考能力的統合強人工智慧還需要時間研究,比较流行的方法包括统计方法,计算智能和传统意义的AI。目前有大量的工具应用了人工智能,其中包括搜索和数学优化、逻辑推演。而基於仿生學認知心理學,以及基于概率论和经济学的演算法等等也在逐步探索當中。

概論

人工智能的定義可以分為兩部分,即「人工」和「智能」。「人工」即由人设计,为人创造、制造。

關於什麼是「智能」,较有争议性。這涉及到其它諸如意識自我心靈,包括無意識的精神等等問題。人唯一瞭解的智能是人本身的智能,這是普遍認同的觀點。但是我們對我們自身智能的理解都非常有限,對構成人的智能必要元素的瞭解也很有限,所以就很難定義什麼是「人工」製造的「智能」。因此人工智能的研究往往涉及對人智能本身的研究。其它關於動物或其它人造系統的智能也普遍被認為是人工智能相關的研究課題。

人工智慧目前在電腦領域內,得到了愈加廣泛的发挥。並在機器人、經濟政治決策、控制系統仿真系統中得到應用。

發展史

年代 20世纪40年代 20世纪50年代 20世纪60年代 20世纪70年代 20世纪80年代 20世纪90年代 21世紀00年代 21世紀10年代
計算機 1945 電腦ENIAC 1957 FORTRAN語言
人工智慧研究 1953 博弈論
1956 达特矛斯会议
1977 知識工程英语Knowledge engineering宣言 1982 第五代電腦計劃開始 1991 人工神经网络 2007 深度學習
人工智慧語言 1960 LISP語言 1973 PROLOG語言
知識表達 1973 生產系統
1976 框架理論
專家系統 1965 DENDRAL英语Dendral 1975 MYCIN英语Mycin 1980 Xcon

研究課題

目前人工智慧的研究方向已經被分成幾個子領域,研究人員希望一個人工智慧系統應該具有某些特定能力,以下將這些能力列出並說明。[10]

演绎、推理和解决问题

早期的人工智慧研究人员直接模仿人类进行逐步的推理,就像是玩棋盘游戏或进行逻辑推理时人类的思考模式。[12]到了1980和1990年代,利用概率和经济学上的概念,人工智慧研究还发展了非常成功的方法处理不确定或不完整的资讯。[13]

对于困难的问题,有可能需要大量的运算资源,也就是发生了「可能组合爆增」:当问题超过一定的规模时,电脑会需要天文数量级的存储器或是运算时间。寻找更有效的演算法是优先的人工智慧研究项目。[14]

人类解决问题的模式通常是用最快捷、直观的判断,而不是有意识的、一步一步的推导,早期人工智慧研究通常使用逐步推导的方式。[15]人工智慧研究已经于这种「次表征性的」解决问题方法取得进展:实体化Agent研究强调感知运动的重要性。神经网络研究试图以模拟人类和动物的大脑结构重现这种技能。

知識表示法

本體論將知識表示為一個領域內的一組概念以及這些概念之間的關係。

知识表示是人工智能领域的核心研究问题之一,它的目标是让机器存储相应的知识,并且能够按照某种规则推理演绎得到新的知识。有许多需要解决的问题需要大量的对世界的知识,这些知识包括事先存储的先验知识和通过智能推理得到的知识。事先存储的先验知识指:人类通过某种方式告诉给机器的知识。通过智能推理得到的知识指:结合先验知识和某种特定的推理规则(逻辑推理)得到的知识。首先,先验知识可以指描述目标,特征,种类及物件之间的关系的知识, 也可以描述事件,时间,状态,原因和结果, 以及任何知识你想要机器存储的。比如:今天没有太阳,没有太阳就是阴天。那么以命题逻辑语言,这些知识可以被表示为:今天-->没有太阳, 没有太阳-->阴天。这些知识是先验知识,那么通过推理可以得到新知识:今天-->阴天。由此例子可以看出,先验知识的正确性非常重要,这个例子中没有太阳就是阴天,这个命题是不严谨的、比较笼统的,因为没有太阳可能是下雨,也可能下雪。另外如果人工智慧能看出太陽,除了該如何判斷的這件問題,在這個前提之下,應該也能判斷出陰天與晴天的差異。逻辑命题表示在知识表示中非常重要,逻辑推理规则是目前主要推理规则。可以在机器中用逻辑符号定义每一个逻辑命题,然后再让机器存储相应的逻辑推理规则,那么自然而然机器便可进行推理。目前知识表达有许多困境尚无法解决,比如:建立一个完备的知识库几乎不可能,所以知识库的资源受到限制;先验知识的正确性需要进行检验,而且先验知识有时候不一定是只有对或者错两种选择。

规划

智能Agent必须能够制定目标和实现这些目标。[16]他们需要一种方法来建立一个可预测的世界模型(将整个世界状态用数学模型表现出来,并能预测它们的行为将如何改变这个世界),这样就可以选择功效最大的行为。[17] 在传统的规划问题中,智能Agent被假定它是世界中唯一具有影响力的,所以它要做出什么行为是已经确定的。[18]但是,如果事实并非如此,它必须定期检查世界模型的状态是否和自己的预测相符合。如果不符合,它必须改变它的计划。因此智能代理必须具有在不确定结果的状态下推理的能力。[19] 在多Agent中,多个Agent规划以合作和竞争的方式去完成一定的目标,使用演化演算法和群体智慧可以达成一个整体的突现行为目标。[20]

學習

机器学习的主要目的是为了让机器从使用者和输入数据等处获得知识,从而让机器自动地去判断和输出相应的结果。这一方法可以帮助解决更多问题、减少错误,提高解决问题的效率。对于人工智能来说,机器学习从一开始就很重要。1956年,在最初的达特茅斯夏季会议上,雷蒙德·索洛莫诺夫[來源請求]写了一篇关于不监视的概率性机器学习:一个归纳推理的机器。

机器学习的方法各种各样,主要分为监督学习和非监督学习两大类。监督学习指事先给定机器一些训练样本并且告诉样本的类别,然后根据这些样本的类别进行训练,提取出这些样本的共同属性或者训练一个分类器,等新来一个样本,则通过训练得到的共同属性或者分类器进行判断该样本的类别。监督学习根据输出结果的离散性和连续性,分为分类和回归两类。非监督学习是不给定训练样本,直接给定一些样本和一些规则,让机器自动根据一些规则进行分类。无论哪种学习方法都会进行误差分析,从而知道所提的方法在理论上是否误差有上限。

自然語言處理

自然語言處理探討如何處理及運用自然語言,自然語言認知則是指讓電腦「懂」人類的語言。自然語言生成系統把計算機數據轉化為自然語言。自然語言理解系統把自然語言轉化為計算機程序更易于處理的形式。

運動和控制

知覺

機器感知[21]是指能夠使用感測器所輸入的資料(如照相機、麥克風、聲納以及其他的特殊感測器)然後推斷世界的狀態。電腦視覺[22]能夠分析影像輸入。另外還有語音識別[23]人臉辨識物體辨識[24]

社交

Kismet,一个具有表情等社交能力的机器人[25]

情感和社交技能對於一個智能agent是很重要的。首先,通过了解他們的動機和情感狀態,代理人能夠預測別人的行動(這涉及要素 博弈論、決策理論以及能夠塑造人的情感和情緒感知能力檢測)。此外,為了良好的人機互動,智慧代理人也需要表現出情緒來。至少它必須出現禮貌地和人類打交道。至少,它本身應該有正常的情緒。

創造力

一個人工智慧的子領域,代表了理論(從哲學和心理學的角度)和實際(通過特定的實現產生的系統的輸出是可以考慮的創意,或系統識別和評估創造力)所定義的創造力。相關領域的研究包括了人工直覺人工想像

倫理管理

史蒂芬·霍金比爾蓋茲馬斯克、 Jaan Tallinn 以及 Nick Bostrom 等人都對於人工智慧技術的未來公開表示憂心[26],人工智慧若在許多方面超越人類智慧水平的智能、不斷更新、自我提升,進而取得控制管理權,人類是否有足夠的能力及時停止人工智慧領域的「軍備競賽」,能否保有最高掌控權,現有事實是:機器常失控導致人員傷亡,這樣的情況是否會更加擴大規模出現,歷史顯然無法給出可靠的樂觀答案。特斯拉電動車馬斯克(Elon Musk)在麻省理工學院(MIT)航空航天部門百年紀念研討會上稱人工智能是「召喚惡魔」行為,英國發明家Clive Sinclair認為一旦開始製造抵抗人類和超越人類的智能機器,人類可能很難生存,蓋茲同意馬斯克和其它人所言,且不知道為何有些人不擔憂這個問題。[27]

DeepMind的人工智慧(AI)系統在2016年「AlphaGo」對戰南韓棋王李世乭獲勝,開發商表示在內部設立倫理委員會,針對人工智慧的應用制定政策,防範人工智慧淪為犯罪開發者。[28]

科技進步,人工智慧科技產生「自主武器」軍備競賽已悄悄展開,英國、以色列與挪威,都已部署自主飛彈與無人操控的無人機,具「射後不理」(fire-and-forget)能力的飛彈,多枚飛彈還可互相溝通,分享找到攻擊目標。這些武器還未被大量投入,但很快就會出現在戰場上,且並非使用人類所設計的程序,而是完全利用機器自行決策。 霍金等人在英國獨立報發表文章警告未來人工智慧可能會比人類金融市場、科學家、人類領袖更能操縱人心、甚至研發出人們無法理解的武器。專家恐發展到無法控制的局面,援引聯合國禁止研發某些特定武器的「特定常規武器公約」加以限制。[29]新南威爾斯大學人工智慧的沃爾什(Toby Walsh)教授認為這是一種欺騙,因為機器無區別戰敵和平民的技術。[30]

經濟衝擊

據CNN財經網數字媒體未來學家兼Webbmedia集團創始人艾米·韋伯(Amy Webb);美國在線[31]...等紛紛預測一些即將被機器人取代的職業,日本野村總合研究所也與英國牛津大學的研究學者共同調查指出,10至20年後,日本有49%的職業(235種職業)可能會被機械和人工智慧取代而消失,直接影響約達2500萬人,[32]例如:超市店員、一般事務員、計程車司機、收費站運營商和收銀員、市場營銷人員、客服人員、製造業工人、金融中間人和分析師、新聞記者、電話公司職員、麻醉師、士兵和保安、律師、醫生、軟體開發者和操盤手、股票交易員等等高薪酬的腦力職業將最先受到衝擊[33]

2017年6月份马云在美國底特律舉行「鏈結世界」(Gateway 17)產業大會,會上提出人工智慧可能導致第三次世界大戰,因為前兩次產業革命都導致兩次大戰,戰爭原因並非這些創新發明本身,而是發明對社會上許多人的生活方式衝擊處理不當,新科技在社會上產生新工作也取代舊工作,產生了新的輸家和贏家,若是輸家的人數太多將造成一股社會不穩的能量而這股能量被有心人利用可能導致各種事件。他認為各國應該強制訂定規定AI機器只能用於人類不能做的工作,避免短時間大量人類被取代的失業大潮,但馬雲沒有提出這種世界性規定將如何實現並確保遵守的細節方案。[34]

数据科学和人工智能被哈佛商業評論称为《二十一世纪最Sexy的職业》[35],人工智能需求量大,鼓励了不少大学诸如伯克利大学专门成立数据科学系。硅谷和纽约为主的《The Data Incubator英语The Data Incubator》公司於2012年成立,焦点是数据科学大数据,和人工智能企业培训,提供国际大数据培训服务。

AI對人類的威脅

此議題目前分成兩個學派:

悲觀學派

此學派的代表是天文物理學家史蒂芬·霍金(Stephen Hawking),以及特斯拉執行長伊隆·馬斯克(Elon Musk)。霍金認為AI對人類將來有很大的威脅,主要有以下理由:

  1. AI會遵循科技發展的加速度理論。
  2. AI可能會有自我改造創新的能力。
  3. AI進步的速度遠遠超過人類。
  4. 人類會有被滅絕的危機存在。

樂觀學派

主要是Google、Facebook等AI的主要技術發展者,他們對AI持樂觀看法的理由:

  1. 人類只要關掉電源就能除掉AI機器人。
  2. 任何的科技都會有瓶頸,「摩爾定律」到目前也遇到相當的瓶頸,AI科技也不會無限成長,依然存在許多難以克服的瓶頸。
  3. 依目前的研究方向,電腦無法突變、甦醒、產生自我意志,AI也不可能具有創意與智慧、同情心與審美等這方面的能力。

AI與管理

AI逐漸普及後,將會在企業管理中扮演很重要的角色,而人類的管理者應如何適度的調整自己的工作職能,有以下幾點建議:

  1. 放棄行政工作
  2. 退守分析預測的領域而強化自己的綜合判斷力。
  3. 把AI當作同事,形成協同合作的團隊。
  4. 多琢磨在創造力以及各種流程架構設計師角色。
  5. 強化自己人際網路、溝通協調、談判上的能力。
  6. 培養自身領導能力,能有效地帶領一個士氣高、團結及凝結力高的工作夥伴。

[36]

強人工智能和弱人工智能

人工智能的一個比較流行的定義,也是該領域較早的定義,是由當時麻省理工學院約翰·麥卡錫在1956年的達特矛斯會議上提出的:人工智能就是要讓機器的行為看起來就像是人所表現出的智能行為一樣。但是這個定義似乎忽略了強人工智能的可能性(見下)。另一個定義指人工智能是人造機器所表現出來的智能。總體來講,目前對人工智能的定義大多可劃分為四類,即機器「像人一樣思考」、「像人一樣行動」、「理性地思考」和「理性地行動」。這裡「行動」應廣義地理解為採取行動,或制定行動的決策,而不是肢體動作。

強人工智能

強人工智能觀點認為「有可能」製造出「真正」能推理解決問題的智能機器,並且,這樣的機器將被認為是具有知覺、有自我意識的。強人工智能可以有兩類:

  • 人類的人工智能,即機器的思考和推理就像人的思維一樣。
  • 非人類的人工智能,即機器產生了和人完全不一樣的知覺和意識,使用和人完全不一樣的推理方式。

弱人工智能

弱人工智能觀點認為「不可能」製造出能「真正」地推理解決問題的智能機器,這些機器只不過「看起來」像是智能的,但是並不真正擁有智能,也不會有自主意識。

弱人工智能是對比強人工智能才出現的,因為人工智能的研究一度處於停滯不前的狀態下,直到類神經網路有了強大的運算能力加以模擬後,才開始改變並大幅超前。但人工智能研究者不一定同意弱人工智能,也不一定在乎或者了解強人工智能和弱人工智能的內容與差別,對定義爭論不休。

就當下的人工智能研究領域來看,研究者已大量造出「看起來」像是智能的機器,取得相當豐碩的理論上和實質上的成果,如2009年康乃爾大學教授Hod Lipson 和其博士研究生Michael Schmidt 研發出的 Eureqa電腦程式,只要給予一些資料,這電腦程式自己只用幾十個小時計算就推論出牛頓花費多年研究才發現的牛頓力學公式,等於只用幾十個小時就自己重新發現牛頓力學公式,這電腦程式也能用來研究很多其他領域的科學問題上。這些所謂的弱人工智慧在神經網路發展下已經有巨大進步,但對於要如何整合成強人工智慧,現在還沒有明確定論。

對強人工智能的哲學爭論

主條目:人工智能哲學图灵测试物理符號系統皇帝新脑德雷福斯對人工智能的看法英语Hubert Dreyfus's views on artificial intelligenceAI效應英语AI effect

「強人工智能」一詞最初是約翰·羅傑斯·希爾勒針對電腦和其它信息處理機器創造的,其定義為:

「強人工智能觀點認為計算機不僅是用來研究人的思維的一種工具;相反,只要运行適當的程序,計算機本身就是有思維的。」(J Searle in Minds Brains and Programs. The Behavioral and Brain Sciences, vol. 3, 1980)

關於強人工智能的爭論,不同於更廣義的一元論二元論的爭論。其爭論要點是:如果一台機器的唯一工作原理就是轉換編碼數據,那麼這台機器是不是有思維的?希爾勒認為這是不可能的。他舉了個中文房間的例子來說明,如果機器僅僅是轉換數據,而數據本身是對某些事情的一種編碼表現,那麼在不理解這一編碼和這實際事情之間的對應關係的前提下,機器不可能對其處理的數據有任何理解。基於這一論點,希爾勒認為即使有機器通過了圖靈測試,也不一定說明機器就真的像人一樣有自我思維和自由意識。

也有哲學家持不同的觀點。丹尼爾·丹尼特在其著作《意識的解釋英语Consciousness Explained》(Consciousness Explained)裡認為,人也不過是一台有靈魂的機器而已,為什麼我們認為:「人可以有智能,而普通機器就不能」呢?他認為像上述的數據轉換機器是有可能有思維和意識的。

有的哲學家認為如果弱人工智能是可實現的,那麼強人工智能也是可實現的。比如西蒙·布莱克本英语Simon Blackburn(Simon Blackburn)在其哲學入門教材Think裡說道,一個人的看起來是「智能」的行動並不能真正說明這個人就真的是智能的。我永遠不可能知道另一個人是否真的像我一樣是智能的,還是說她/他僅僅是「看起來」是智能的。基於這個論點,既然弱人工智能認為可以令機器「看起來」像是智能的,那就不能完全否定這機器是真的有智能的。布莱克本認為這是一個主觀認定的問題。

需要指出的是,弱人工智能並非和強人工智能完全對立,也就是說,即使強人工智能是可能的,弱人工智能仍然是有意義的。至少,今日的計算機能做的事,像算術運算等,在一百多年前是被認為很需要智能的。並且,即使強人工智能被證明為可能的,也不代表強人工智能必定能被研製出來。

研究方法

目前没有统一的原理或范式指导人工智能研究。许多问题上研究者都存在争论。[37]

其中几个长久以来仍没有结论的问题是:是否应从心理神经方面模拟人工智能?或者像鸟类生物学对于航空工程一样,人类生物学对于人工智能研究是没有关系的?[38]智能行为能否用简单的原则(如逻辑优化)来描述?还是必须解决大量完全无关的问题?[39]

智能是否可以使用高级符号表达,如词和想法?还是需要“子符号”的处理?[40] 約翰·豪格兰德(John Haugeland)提出了GOFAI(出色的老式人工智能)的概念,也提议人工智能应归类为synthetic intelligence英语synthetic intelligence[41]这个概念后来被某些非GOFAI研究者采纳。[42][43]

控制论与大脑模拟

20世纪40年代到50年代,许多研究者探索神经学信息理论控制论之间的联系。其中还造出一些使用电子网络构造的初步智能,如格雷·華特(W. Grey Walter)的烏龜(turtle)和約翰霍普金斯野獸

这些研究者还经常在普林斯顿大学和英国的Ratio Club举行技术协会会议。[44]直到1960,大部分人已经放弃这个方法,尽管在80年代再次提出这些原理。

符号处理

当20世纪50年代,數位计算机研制成功,研究者开始探索人类智能是否能简化成符号处理。研究主要集中在卡内基梅隆大学斯坦福大学麻省理工學院,而各自有独立的研究风格。約翰·豪格兰德(John Haugeland)称这些方法为GOFAI(出色的老式人工智能)[45]。60年代,符号方法在小型证明程序上模拟高级思考有很大的成就。基于控制论神经网络的方法则置于次要[46]。60-70年代的研究者确信符号方法最终可以成功创造强人工智能的机器,同时这也是他们的目标。