#本文僅代表作者觀點(diǎn),不代表IPRdaily立場#
原標(biāo)題:2018年人工智能領(lǐng)域研發(fā)熱點(diǎn)回眸
引言
從2006年加拿大Hinton教授提出深度學(xué)習(xí)技術(shù)開始[1],到2012年ImageNet競賽在圖像識別領(lǐng)域帶來的突破[2],如今,人工智能的第三次發(fā)展浪潮到來。不同于80年代隨著神經(jīng)網(wǎng)絡(luò)而來的技術(shù)進(jìn)步無法走進(jìn)現(xiàn)實(shí)的困境,這一次的發(fā)展浪潮真正帶來了技術(shù)的落地,商業(yè)化道路也走得更加順暢。隨后的每一年,人工智能技術(shù)都在突飛猛進(jìn)地發(fā)展,應(yīng)用成果如雨后春筍般涌現(xiàn)。海量的數(shù)據(jù),不斷優(yōu)化的算法,以及與之匹配發(fā)展的計(jì)算機(jī)運(yùn)算能力,都為更多的發(fā)展可能性及應(yīng)用可能性提供了廣闊的舞臺。而隨著人工智能在越來越多的方面落地,人們越來越多地感受到人工智能對于生活的改變,接受程度逐漸提升。
01 人機(jī)融合智能
除了技術(shù)產(chǎn)品化的道路拓寬以外,當(dāng)下的人工智能還有許多亟待發(fā)展和研究的方向。它的以下特點(diǎn)推動它在第三次發(fā)展浪潮中前往更具突破性的階段,分別為:從人工知識表達(dá)技術(shù)到大數(shù)據(jù)驅(qū)動知識學(xué)習(xí);從處理單一的數(shù)據(jù)到跨媒體認(rèn)識、學(xué)習(xí)和推理;從追求“機(jī)器智能”到邁向人機(jī)混合的增強(qiáng)智能;從聚焦“個體智能”到基于互聯(lián)網(wǎng)絡(luò)的群體智能;從機(jī)器人到自主無人系統(tǒng)[3]。
其中,人機(jī)混合的增強(qiáng)智能即為將人類智能與人工智能進(jìn)行結(jié)合,邁向新的智能階段,此為人機(jī)融合智能。近年來,人機(jī)融合越來越成為人工智能領(lǐng)域的熱詞。2018年10月11日,美國“防務(wù)一號”網(wǎng)站發(fā)表刊文表示美國軍方高級情報員越來越擔(dān)心中國在人工智能等“提升人類效率”方面的研究[4]。美國國防情報局(DIA)局長羅伯特?阿什利(Robert Ashley)在舉行的美國陸軍協(xié)會(Association of the U.S. Army)年度會議上表示,“人機(jī)融合”是顛覆性技術(shù)的一個“關(guān)鍵領(lǐng)域”,將會影響美國的國家安全。他認(rèn)為“中國在研究神經(jīng)網(wǎng)絡(luò)和人工智能方面所作的努力是一個分階段的過程,希望最終達(dá)到‘人與機(jī)器的融合’的程度”[5]。
圖1 機(jī)器人向著人機(jī)融合的方向發(fā)展[4]
Fig. 1 Robot is developing towards the direction of human-machine fusion
在人工智能研究的領(lǐng)域,更快的計(jì)算并不是我們希望達(dá)到的最終目的,而讓計(jì)算機(jī)變得越來越與人融合,最終達(dá)到人機(jī)融合智能,才是最終的發(fā)展方向。當(dāng)前人工智能雖然普及了眾多的應(yīng)用形式,但是依然以計(jì)算為中心、難以突破意識壁壘,而能夠融合意識與計(jì)算特性的人類智能和人工智能融合智能體,即為人機(jī)融合智能。
人機(jī)融合智能研究是智能技術(shù)發(fā)展到一定程度的產(chǎn)物,它既包括人工智能的技術(shù)研究,也包括機(jī)器與人、機(jī)器與環(huán)境及人、機(jī)、環(huán)境之間關(guān)系的探索。人機(jī)融合智能研究不僅僅要考慮機(jī)器技術(shù)的高速發(fā)展,更要考慮交互主體-人類的思維與認(rèn)知方式,讓機(jī)器與人類各司其職,互相促進(jìn),這才是人工智能真正的前景與趨勢[6]。
02 群體智能
在上文中提到的人工智能發(fā)展的特點(diǎn)中,人工智能是從聚焦“個體智能”到基于互聯(lián)網(wǎng)絡(luò)的群體智能。群體智能是源于對螞蟻、蜜蜂等為代表的社會性昆蟲的群體行為的研究,最早被用在細(xì)胞機(jī)器人系統(tǒng)的描述中。它具有分布式無中心的控制,并且群體自組織性[7]。
在自然界中,集群的方式可以讓簡單的生物展現(xiàn)出驚人的復(fù)雜性、效率甚至創(chuàng)造力。在人工智能領(lǐng)域,可以通過這種方法產(chǎn)生一種新的智能,像超級專家一樣“共同思考”。通過隨機(jī)擴(kuò)散搜索、蟻群優(yōu)化、粒子群優(yōu)化等算法,群體智能已應(yīng)用在了無線通信、醫(yī)療、無人駕駛、藝術(shù)創(chuàng)作等方面[8]。
如今,Unanimous A.I.公司就在致力于研究群體智能,希望能夠?qū)?shù)百人的知識、智慧、洞察以及知覺通過算法連接起來。該公司研制的SWARM平臺等軟件可以通過實(shí)時閉環(huán)控制系統(tǒng)將分布式網(wǎng)絡(luò)組織成“人群”,能夠聚集人類參與者的集體智慧以得出意見。它成功預(yù)測了奧斯卡,超級碗比賽,以及法國大選的結(jié)果[9]。該系統(tǒng)對2017-2018賽季20周的NHL曲棍球比賽進(jìn)行了預(yù)測,得到了85%的成功率,超過了維加斯博彩市場的22%[10]。除了比賽和票選等預(yù)測活動,該群體智能方法還應(yīng)用到了醫(yī)療領(lǐng)域,其診斷肺炎的準(zhǔn)確率比單獨(dú)工作的放射科醫(yī)生團(tuán)隊(duì)高出22%[11]。
圖2 進(jìn)行肺炎診斷的ASI(人工群體智能) [11]
Fig. 2 ASI(Artificial Swarm Intelligence) in the diagnosis of pneumonia
03 認(rèn)知計(jì)算
認(rèn)知是人與世界交互的重要過程,認(rèn)知計(jì)算旨在模仿人類大腦的計(jì)算系統(tǒng),讓計(jì)算機(jī)像人一樣認(rèn)知和思考。只有實(shí)現(xiàn)了認(rèn)知計(jì)算,才能真正實(shí)現(xiàn)可以學(xué)習(xí)并與人類自然交互的系統(tǒng)。從20世紀(jì)開始,人們通過單一用途的機(jī)械系統(tǒng)指示機(jī)器的行動,此為“制表時代”;在20世紀(jì)50年代進(jìn)入了“編程時代”,人們通過編程的方式控制計(jì)算設(shè)備;從2011年起,人們就將認(rèn)知計(jì)算列為了人工智能發(fā)展的目標(biāo),開始進(jìn)入“認(rèn)知時代”。在群體智能方面,我們借鑒了螞蟻等生物的啟示,而在認(rèn)知計(jì)算里,我們依然要聚焦于生物,研究認(rèn)知的整個過程。在認(rèn)知計(jì)算中,系統(tǒng)通過大規(guī)模的學(xué)習(xí),有目的、理性、自然地與人類進(jìn)行互動。認(rèn)知計(jì)算讓機(jī)器不僅僅通過編程來執(zhí)行指令,而是通過與人類的互動以及它們對環(huán)境的體驗(yàn)來學(xué)習(xí)和推理。它能夠模擬人類的思維過程,理解世界的模糊性和不確定性。通過權(quán)衡來自多個來源的信息和想法,進(jìn)行推理并提供假設(shè)[12][13]。
IBM的Watson系統(tǒng)是其中最有名的認(rèn)知系統(tǒng)。它通過篩選大量的數(shù)據(jù)庫獲取信息,以問答的形式幫助用戶回答對復(fù)雜問題的見解。通過認(rèn)知計(jì)算的方式,它可以不斷地從用戶互動中獲取數(shù)據(jù),變得更加聰明。它目前已經(jīng)成為了一個具有認(rèn)知計(jì)算能力的生態(tài)系統(tǒng),可不斷地衍生出各種行業(yè)解決方案,被應(yīng)用于醫(yī)療、天氣預(yù)測法律顧問等方面。今年該平臺被用在了教育領(lǐng)域,瑞典的一個研究小組開發(fā)出了一個使用IBM Watson系統(tǒng)的學(xué)習(xí)并行編程的助手,在實(shí)際教學(xué)實(shí)驗(yàn)中獲得了學(xué)生的好評[14]。
認(rèn)知計(jì)算的發(fā)展需要我們不斷地對人的認(rèn)知過程進(jìn)行研究。其中,態(tài)勢感知的研究也屬于認(rèn)知計(jì)算領(lǐng)域。態(tài)勢感知將人的認(rèn)知過程分為三個獨(dú)立的層次,分別為:對環(huán)境中元素的感知,對當(dāng)前形勢的理解,對未來狀況的預(yù)測[15]。通過建模和結(jié)構(gòu)化的思想,可以將人的認(rèn)知過程量化為態(tài)勢感知程度。除此之外,人們也在不斷的通過其他方式對人類的認(rèn)知過程進(jìn)行量化,試圖通過計(jì)算機(jī)來進(jìn)行模擬和計(jì)算。認(rèn)知學(xué)可能是人工智能下一步發(fā)展的突破口。
04 情感計(jì)算
在計(jì)算機(jī)的認(rèn)知、學(xué)習(xí)、記憶和言語的水平都在逐漸提高的同時,我們也必須意識到,讓計(jì)算機(jī)具有能夠感知和理解人的情感,并且針對人的情感做出相應(yīng)合適反應(yīng)的能力,是讓計(jì)算機(jī)具有更高的、全面的智能的必經(jīng)之路。早在2006年,在Minsky的著作《情感機(jī)器》中就提出“人工智能=認(rèn)知智能+情感智能”的說法[16]。情感計(jì)算的加入能夠大大拓寬人工智能的應(yīng)用領(lǐng)域。根據(jù)手段的不同,情感計(jì)算研究主要分為基于視覺,基于語音,基于文本及基于腦補(bǔ)信息和多模態(tài)信息的情感分析。
圖3 通過多種可穿戴運(yùn)動傳感器捕捉微妙的心臟運(yùn)動[18]
Fig. 3 Capture subtle cardiac motions by multiple
wearable motion sensors
許多研究機(jī)構(gòu)及情感計(jì)算工具公司都在不斷對情感計(jì)算領(lǐng)域進(jìn)行探索,例如:麻省理工學(xué)院媒體實(shí)驗(yàn)室,Microsoft VIBE團(tuán)隊(duì),Emotient公司等。他們力求達(dá)到更精準(zhǔn)的情緒識別,并且不斷開拓新的應(yīng)用領(lǐng)域。從研究設(shè)備上,由于得到更多樣的可穿戴設(shè)備支持,今年有許多有關(guān)可穿戴設(shè)備進(jìn)行情感測量的研究涌現(xiàn),例如:通過可穿戴設(shè)備獲取運(yùn)動心率進(jìn)行情感評估[17],或進(jìn)行壓力和睡眠評估[18];還有在皮膚布置傳感器的表皮機(jī)器人作為新的可穿戴設(shè)備[19]。從技術(shù)上,深度學(xué)習(xí)也大量應(yīng)用在了情感計(jì)算上。例如:將CaltureNet方法應(yīng)用于對自閉癥兒童的面部情感識別[20];將深度卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于語音頻譜圖上進(jìn)行語音情感分析[21]。從情緒的研究上,也有更多針對心理疾病的專門研究,例如:自殺沖動的數(shù)字化表征研究[22];能夠影響和參與自閉癥治療的機(jī)器人感知研究[23]。更加多元化的研究方向,以及更加專門的應(yīng)用領(lǐng)域的研究,標(biāo)志著情感計(jì)算的發(fā)展也在不斷走向成熟。
05 智能機(jī)器人
過去幾年,波士頓動力公司一直引領(lǐng)著機(jī)器人動作控制的發(fā)展。在2017年,該公司的人形機(jī)器人Atlas已經(jīng)可以進(jìn)行完美的后空翻,而今年它又展示了令人驚嘆的跑酷特技表演[24]。在該公司今年新公布的視頻中,Atlas可以跳上多層的平臺,將重心從右腳移到左腳,在上臺階時又將重心移回左腳。除此之外,Atlas今年還可以走出倉庫,在草坪上進(jìn)行跑步動作,這證明了該機(jī)器人在不平坦地面上的平衡性,穩(wěn)定型以及導(dǎo)航能力。截止到目前,Atlas已經(jīng)可以完成拿起和放下箱子,跳過障礙物,在人類的干擾推動中保持平衡等等高難度行為[25]。
圖4 波士頓動力公司Atlas機(jī)器人 [25]
Fig. 4 Atlas of Boston Dynamics
同樣產(chǎn)生于波士頓動力公司的SpotMini曾經(jīng)是機(jī)器人領(lǐng)域最火的四足機(jī)器人,而今年,ANYbotics公司的ANYmal吸引了人們的眼球。它具有很強(qiáng)的自動移動和操作能力,能夠安全地與環(huán)境交互,適用于室內(nèi)外場所的檢查操作,在自然地形等進(jìn)行搜索或救援任務(wù),還能進(jìn)行舞臺娛樂活動[26]。今年ANYmal在位于大西洋東北部的北海的海上配電平臺進(jìn)行了為期一周的檢查實(shí)驗(yàn),它能夠進(jìn)行儀表、杠桿、油、水位,各種視覺和熱測量等檢查[27]。隨著機(jī)器人技術(shù)的發(fā)展,機(jī)器人的職業(yè)功能實(shí)現(xiàn)的越來越好,越來越多的人類工作可能會被機(jī)器人取代。同時,機(jī)器人也能夠更加準(zhǔn)確地模擬人類的動作,我們可以預(yù)見,未來將有更多的仿生機(jī)器人能夠被創(chuàng)造出來。人類與機(jī)器人共存,與機(jī)器人進(jìn)行合作甚至融合的時代,總有一天會來到。
圖5 ANYbotics公司的ANYmal機(jī)器人[26]
Fig. 5 ANYmal of ANYbotics
06 智慧城市
隨著城市體量變得越來越大,規(guī)劃和管理也變得越來越復(fù)雜,世界各地的許多城市規(guī)劃機(jī)構(gòu)都已經(jīng)開始將數(shù)字化作為解決城市問題的手段。因此人工智能技術(shù)也具有了更多的應(yīng)用場景。智慧城市的普及和建設(shè),能夠提升城市中資源運(yùn)用的效率,優(yōu)化城市管理和服務(wù),緩解“大城市病”,從整體上改善市民的生活質(zhì)量。目前,智慧城市技術(shù)和規(guī)劃已經(jīng)在新加坡,迪拜,阿姆斯特丹,巴塞羅那,紐約等各國家和城市實(shí)現(xiàn)。而在中國,從2017年黨的十九大報告中提出建設(shè)智慧社會以來,已有290個城市入選了國家智慧城市試點(diǎn)。17年底,雄安新區(qū)也與百度共同打造智能出行試點(diǎn)示范,希望共同將雄安新區(qū)打造為AI City智能城市新標(biāo)桿[28]。
在迅速發(fā)展的浪潮中,智慧城市也存在著一些問題。根據(jù)文獻(xiàn)分析和調(diào)查顯示,在智慧城市的發(fā)展規(guī)劃討論中,人們更多關(guān)注于技術(shù)的使用和實(shí)施,對于城市居民的具體情況和他們?nèi)绾螀⑴c智慧城市的發(fā)展過程等問題考慮不足[29]。在一些智慧城市的建設(shè)過程中,甚至?xí)捎趯鹘y(tǒng)的破壞而遭到當(dāng)?shù)鼐用竦姆磳?,例如墨西哥的托蘭特辛特拉[30]。有一些問題可能會由于規(guī)劃者無視城市的實(shí)際發(fā)展造成,這可能導(dǎo)致發(fā)展計(jì)劃對公民缺少吸引力。在后續(xù)更多人工智能應(yīng)用落地的過程中,需要更加腳踏實(shí)地,加強(qiáng)對居民的溝通和宣傳,更多的讓技術(shù)的實(shí)際惠及者——城市公民參與進(jìn)智慧城市的規(guī)劃和設(shè)計(jì)中,打造更高滿意度,真正提升城市效率的智慧城市。
07 人工智能醫(yī)療
在醫(yī)療領(lǐng)域,不斷進(jìn)步的模式識別技術(shù)和深度學(xué)習(xí)算法催生出了許多輔助醫(yī)療設(shè)備及技術(shù)。在很多醫(yī)療場景下,人工智能的加入都帶來了效果的提升。這些設(shè)備有一些能夠獨(dú)立進(jìn)行判斷輸出結(jié)果,有一些能夠輔助醫(yī)生進(jìn)行決策和操作。在人工智能醫(yī)療預(yù)測場景,加拿大的一項(xiàng)針對前列腺切除術(shù)后康復(fù)情況的預(yù)測實(shí)驗(yàn)中,機(jī)器學(xué)習(xí)算法比傳統(tǒng)的統(tǒng)計(jì)模型表現(xiàn)出了很好的效果,預(yù)測更準(zhǔn)確。在推行自動預(yù)測工具后,人工智能醫(yī)療可針對患者進(jìn)行個性化的治療[31]。
人工智能的應(yīng)用越來越優(yōu)化,人們開始思考和探討醫(yī)生職業(yè)的可替代性。在輔助設(shè)備的效果評價上,眾多的實(shí)驗(yàn)開始將其與人類醫(yī)生的手法進(jìn)行比較評價。不過在大部分的實(shí)驗(yàn)結(jié)果中,人類醫(yī)生的表現(xiàn)依然優(yōu)于人工智能的表現(xiàn)。在德國的一項(xiàng)實(shí)驗(yàn)中,針對皮膚鏡黑瘤識別任務(wù),包括30名專家在內(nèi)的58位皮膚科醫(yī)生中,大部分醫(yī)生的表現(xiàn)均優(yōu)于卷積神經(jīng)網(wǎng)絡(luò)。但是無論醫(yī)生的經(jīng)驗(yàn)如何,他們均能從人工智能輔助圖像分類設(shè)備中受益[32]。
在診斷、治療、醫(yī)療流程輔助、健康管理、藥物研發(fā)等方面,人工智能均有很大發(fā)展?jié)摿?。人工智能的參與能夠減輕和優(yōu)化醫(yī)生的工作,讓更多的人可以享受到更高水平的醫(yī)療。
越來越多的人工智能應(yīng)用的落地,在各個領(lǐng)域都在為人們的生活帶來可見的提升。人們對于新技術(shù)應(yīng)用的意識提高,構(gòu)建了一個更加以用戶創(chuàng)新、開放創(chuàng)新、大眾創(chuàng)新、協(xié)同創(chuàng)新為特征的創(chuàng)新生態(tài)。人工智能也依然處在飛速發(fā)展中,向著“可知”、“可控”、“可用”、“可靠”的方向發(fā)展[33]。通過未來地不斷研究,希望人與人工智能不斷融合,向著真正的強(qiáng)人工智能邁進(jìn)一步。
參考文獻(xiàn)(References)
[1] Hinton G E, Osindero S, Teh Y W. A fast learning
algorithm for deep belief nets[J]. Neural computation, 2006, 18(7): 1527-1554.
[2] Krizhevsky A, Sutskever I, Hinton G E. Imagenet
classification with deep convolutional neural networks[C]//Advances in neural
information processing systems. 2012: 1097-1105.
[3] 吳飛, 陽春華, 蘭旭光, et al. 人工智能的回顧與展望[J]. 中國科學(xué)基金, 65535(3).
[4] Patrick Tucker. Defense Intel Chief Worried About
Chinese ‘Integration of Human and Machines’[EB/OL].2018/12/26].https://www.defenseone.com/technology/2018/10/defense-intel-chief-worried-about-chinese-integration-human-and-machines/151904/.
[5]Robert Ashley [EB/OL]. 2018-10-10 [2018/12/26]https://www.ausa.org/ausa2018.
[6] 劉偉. 人機(jī)智能融合:人工智能發(fā)展的未來方向[J]. 人民論壇·學(xué)術(shù)前沿, 2017(20):32-38.
[7] Beni G, Wang J. Swarm intelligence in cellular robotic
systems[M]//Robots and Biological Systems: Towards a New Bionics?. Springer,
Berlin, Heidelberg, 1993: 703-712.
[8] Kennedy J. Swarm intelligence[M]//Handbook of nature-inspired
and innovative computing. Springer, Boston, MA, 2006: 187-219.
[9][EB/OL][2018/12/26]https://unanimous.ai/publications/
[10] Louis Rosenberg, Gregg Willcox. Artificial Swarm
Intelligence vs Vegas Betting Markets[EB/OL][2018/12/26]. https://11s1ty2quyfy2qbmao3bwxzc-wpengine.netdna-ssl.com/wp-content/uploads/2018/08/Artificial-Swarm-Intelligence-vs-Vegas-Betting-Markets-DeSE2018-f3.pdf.
[11] Rosenberg L, Willcox G, Halabi S. Artificial Swarm
Intelligence employed to Amplify Diagnostic Accuracy in Radiology[J]. EMCON
2018, 2018: 6.
[12] Thorsten Schroeer, Cognitive computing: Hello Watson
on the shop floor [EB/OL] 2017-05-09 [2018/12/26]. https://www.ibm.com/blogs/internet-of-things/iot-cognitive-computing-watson/.
[13] Kelly J E. Computing, cognition and the future of
knowing[J]. Whitepaper, IBM Reseach, 2015: 2.
[14] Memeti S , Pllana S . PAPA: A Parallel Programming
Assistant Powered by IBM Watson Cognitive Computing Technology[J]. Journal of
Computational Science, 2018:S1877750317311493.
[15] Endsley M R. Toward a theory of situation awareness in
dynamic systems[J]. Human factors, 1995, 37(1): 32-64.
[16] Minsky M. The emotion machine[J]. New York: Pantheon,
2006, 56.
[17] Hernandez J, McDuff D, Quigley K S, et al. Wearable
Motion-based Heart-rate at Rest: A Workplace Evaluation[J]. IEEE journal of
biomedical and health informatics, 2018.
[18] Sano,A., Taylor,S., Jaques,N., Chen,W.,
Lopez-Martinez,D., Nosakhare,E., Rudovic,O., Umematsu,T., and Picard,R., Mood,
Stress and Sleep Sensing with Wearable Sensors and Mobile Phone[C]// The 40th
International Conference of the IEEE Engineering in Medicine and Biology
Society (EMBC), 2018.
[19] Dementyev A, Hernandez J, Choi I, et al. Epidermal
Robots: Wearable Sensors That Climb on the Skin[J]. Proceedings of the ACM on
Interactive, Mobile, Wearable and Ubiquitous Technologies, 2018, 2(3): 102.
[20] Ferrer E C, Schuller B, Picard R W. CultureNet: A Deep
Learning Approach for Engagement Intensity Estimation from Face Images of
Children with Autism[J].
[21] Zhang S, Zhang S, Huang T, et al. Speech Emotion Recognition Using Deep Convolutional
Neural Network and Discriminant Temporal Pyramid Matching[J]. IEEE Transactions
on Multimedia, 2018, 20(6): 1576-1590.
[22] Kleiman E M, Turner B J, Fedor S, et al. Digital phenotyping of suicidal thoughts[J].
Depression and anxiety, 2018. Rudovic O, Lee J, Dai M, et al.
[23] Personalized machine learning for robot perception of
affect and engagement in autism therapy[J]. arXiv preprint arXiv:1802.01186,
2018.
[24] Sam Blum, Boston Dynamics’ Atlas Can Now Chase You Up
the Stairs [EB/OL] 2018-10-12[2018/12/26]. https://www.popularmechanics.com/technology/robots/a23725726/boston-dynamics-atlas-parkour/.
[25][EB/OL][2018/12/26] https://www.bostondynamics.com/atlas.
[26][EB/OL][2018/12/26] https://www.anybotics.com/anymal/.
[27] Péter Fankhauser, World’s First Autonomous Offshore
Robot[EB/OL] 2018-10-25 [2018/12/26] https://www.anybotics.com/2018/10/25/worlds-first-autonomous-offshore-robot/
[28]魯暢,高博,雄安新區(qū)與百度將共同打造智能出行試點(diǎn)示范[EB/OL]2018/12/26. http://www.xinhuanet.com/fortune/2017-12/20/c_1122143193.htm.
[29] Marrone M , Hammerle M . Smart Cities: A Review and
Analysis of Stakeholders’ Literature[J]. Business & Information Systems
Engineering, 2018.
[30] Madeleine Wattenbarger, The Mexican town that refused
to become a smart city [EB/OL] 2018-10-16 [2018/12/26] https://www.theguardian.com/cities/2018/oct/16/the-mexican-town-that-refused-to-become-a-smart-city.
[31] Wong N C, Lam C, Patterson L, et al. Use of machine
learning to predict early biochemical recurrence after robot‐assisted prostatectomy[J]. BJU
international, 2018.
[32] Haenssle H A , Fink C , Schneiderbauer R , et al. Man
against machine: diagnostic performance of a deep learning convolutional neural
network for dermoscopic melanoma recognition in comparison to 58
dermatologists[J]. Annals of Oncology, 2018.
[33]周琳,胡喆,林小春,“中國智,世界能”[N].浙江日報,2018/12/26,http://society.people.com.cn/n1/2018/0920/c1008-30305072.html
來源:《科技導(dǎo)報》2019
作者:劉偉 倪桑
編輯:IPRdaily趙珍 校對:IPRdaily縱橫君
“投稿”請投郵箱“iprdaily@163.com”
「關(guān)于IPRdaily」
IPRdaily成立于2014年,是全球影響力的知識產(chǎn)權(quán)媒體+產(chǎn)業(yè)服務(wù)平臺,致力于連接全球知識產(chǎn)權(quán)人,用戶匯聚了中國、美國、德國、俄羅斯、以色列、澳大利亞、新加坡、日本、韓國等15個國家和地區(qū)的高科技公司、成長型科技企業(yè)IP高管、研發(fā)人員、法務(wù)、政府機(jī)構(gòu)、律所、事務(wù)所、科研院校等全球近50多萬產(chǎn)業(yè)用戶(國內(nèi)25萬+海外30萬);同時擁有近百萬條高質(zhì)量的技術(shù)資源+專利資源,通過媒體構(gòu)建全球知識產(chǎn)權(quán)資產(chǎn)信息第一入口。2016年獲啟賦資本領(lǐng)投和天使匯跟投的Pre-A輪融資。
(英文官網(wǎng):iprdaily.com 中文官網(wǎng):iprdaily.cn)
本文來自《科技導(dǎo)報》2019并經(jīng)IPRdaily.cn中文網(wǎng)編輯。轉(zhuǎn)載此文章須經(jīng)權(quán)利人同意,并附上出處與作者信息。文章不代表IPRdaily.cn立場,如若轉(zhuǎn)載,請注明出處:“http://m.jupyterflow.com/”
文章不錯,犒勞下辛苦的作者吧