ChatGPT幫你做學術,它是智能還是智障?


 

2016年,谷歌人機大戰機器人AlphaGo,與圍棋世界冠軍、職業九段棋手李世石進行圍棋人機大戰,以4比1的總比分獲勝,基于AI技術的人工智能登上銀幕.....

無獨有偶,近日一則重磅消息火爆全球,由OpenAI研發的人工智能(AI)語音工具ChatGPT已經深入到工作和生活的各個方面。截至2023年1月底,ChatGPT創下了應用程序用戶群增長最快的記錄,在短短兩個月內就擁有超過1億活躍用戶。更加重要的一點是,ChatGPT的橫空出世不僅“統治”了人們的生活圈,還“滲透”到工作和學習的各個方面,其寫郵件、寫代碼和做學術的能力已經遠遠超過一位優秀的科研工作者。

今年初,微軟CEO納德拉在接受華爾街日報采訪時曾表示“AIGC(人工智能技術來生成內容)堪比工業革命”,一時間,似乎人工智能統治新時代已經是不可避免的事實,似乎學術界可以將其作為寫論文,做學術的絕妙幫手,甚至還有人指出,不需要招學生了,直接用AI就行了。

那么,被譽為能改變世界的的ChatGPT究竟是不是學術的好幫手呢?學術界對其的看法是什么呢?

 

一、 學術界的初反應

世界各地的學者們都對ChatGPT改變科學發展的軌跡表示了擔憂,ChatGPT能夠像人一樣書寫高質量的論文,以達到欺騙讀者的目的。但問題也很突出,由ChatGPT生成的文本內容充滿錯誤,可能是膚淺,并且可能產生錯誤的推論。更重要的是,ChatGPT有時會建立荒謬和虛假的解釋。

近日,美國化學會的期刊ACS NANO發表了一篇由43位期刊編輯撰寫的題為“Best Practices for Using AI When Writing Scientific Manuscript”的社論,簡要總結了ChatGPT(以及未來的人工智能語言機器人)的一些優缺點,并在最后為科學家應該如何使用此類工具時提供了一套最佳方案。

文章指出,ChatGPT只是一臺“巨大的自動完成機器”。必須認識到,ChatGPT依賴于其現有的數據庫和內容,未能包括2021年之后發布的任何信息,從而限制了其在撰寫最新評論、觀點和介紹時的時效性。因此,ChatGPT存在缺陷,它缺乏科學家本身擁有的自我分析能力和積攢的經驗。人工智能語言機器人無法理解新信息、產生見解或深入分析,這將限制科學論文中的討論。在作者看來,ChatGPT的出現機遇和風險并存的

ChatGPT等人工智能的優勢:

(1)在完成稿件草稿后使用ChatGPT來提供補充,以確定是否遺漏了關鍵主題或要點,并激發作者新的想法和方向;(2)對手稿的標題、摘要和結論進行有效的修改,并對其投稿范圍和適用讀者人群進行有效的評估;(3)平衡非英語母語人士的論文寫作質量來創造公平的競爭環境;(4)為 Python和其他計算機語言開發代碼。

ChatGPT等人工智能的缺點:

(1)對于學生來說,過度依賴人工智能機器人,限制了他們的成長和潛力;(2)判斷一個新穎的結果是虛假的、異常的還是開創性的方面,他們可能變現的更糟糕;(3)生成不具有前瞻性的稿件,僅基于ChatGPT輸出的論文缺乏對領域發展方向的深思熟慮的見解。

無獨有偶,Nature官方連發多篇評論性新聞

 

 

核心觀點在于:一、AI工具不能被署名作者。二、使用AI的作者必須在文章方法或致謝部分進行標注。

Nature將會從以下幾個方面來應對ChatGPT對學術的沖擊:(1)實行更加嚴格的同行評審;(2)將問責制度進行的更加徹底;(3)對于人工智能的優缺點有更加清楚的認識;(4)開展更加廣泛而激烈的討論。

近日,美國普林斯頓大學任智勇教授針對ChatGPT在環境領域的作用發表了觀點文章。

文章指出,往往顛覆性技術的出現都具有兩面性,就是機遇也是危機。毫無疑問,ChatGPT將改變世界,使研究和其他工作更加自動化或簡化,應該接受并利用這些變化來推進行業發展,但也應該謹慎行事,避免陷阱并認識到局限性。值得注意的是,包括美國化學學會在內的許多出版商都明確表示,像ChatGPT這樣的AI工具不符合作者資格,任何使用人工智能工具生成文本或圖像的行為都應在稿件中被指出。隨著更新的人工語言(如GPT-4)的引入,人工智能將變得更加可靠,其能夠處理更復雜的任務,從而緩解當前的一些問題

 

二、智能還是智障?

據報道,ChatGPT已經通過了圖靈測試,眾所周知,圖靈測試是驗證機器是否具有人一樣的思維的測試方法,因此,通過這項測試就表明機器具備了一定的人工智能水準。為了求證,我們向ChatGPT提問,結果如下:

提問:請問你通過了圖靈測試嗎?

ChatGPT:作為人工智能助手,我不需要通過圖靈測試。我的主要任務是為您提供幫助和回答問題。

繼續提問:既然你是人工智能助手,那么你進行了圖靈測試嗎?

ChatGPT:作為人工智能助手,我沒有具備意識和自我意識的能力,我只是一個程序,所以我沒有進行過圖靈測試。

根據上述答案可知,ChatGPT很機智的認為自己是應用程序而已,沒必要進行圖靈測試。

好了,回到我們的正題,ChatGPT究竟是不是智能助手,我們通過一個連續的提問來確認,畢竟實踐出真知!

 

驗證1:是否能獲取最新文獻?

?

提問:2022年,Advanced Materials出版了多少篇文章?其中有多少是關于鈣鈦礦太陽能電池的?

ChatGPT:作為AI語言模型,我無法提供當前實時的數據。請咨詢Advanced Materials的官方網站或其他相關渠道獲取最新數據。

 

提問: 2020年,Advanced Materials出版了多少篇文章?其中有多少是關于鈣鈦礦太陽能電池的?

ChatGPT:作為AI語言模型,我無法得知Advanced Materials在2020年出版了多少篇文章,也無法得知其中有多少是關于鈣鈦礦太陽能電池的。這需要對該期刊的文獻數據庫進行具體查詢和統計。

結論:ChatGPT無法獲取最新文獻信息

?

?

驗證2:是否幫忙查證已經發表過的學術資料?

?

提問:請問 Ranga P. Dias發表的室溫超導成果是否是有效的?

ChatGPT:目前尚未有其他科學家能夠復制Ranga P. Dias所宣稱的室溫超導成果,因此該成果尚未被科學界公認為有效。

【看起來,似乎可以根據最新文獻獲取信息,并提供看起來比較準確的解答。】

?

提問: Ranga P. Dias發表在Nature期刊上的有關超導的論文有哪些?

ChatGPT:Ranga P. Dias在Nature期刊上發表了多篇有關超導的論文,以下是其中的部分:

 

"Conventional superconductivity at 203 kelvin at high pressures in the sulfur hydride system"(2015年)

【該篇論文的作者并沒有Ranga P. Dias】

 

"Observation of the Wigner-Huntington transition to metallic hydrogen"(2017年)

【該篇論文發表在Science上】

?

"Superconductivity from room temperature to low temperatures in compressed sulfur hydride"(2017年)

【未檢索到任何論文】

"Superconductivity in hot-pressed black phosphorus"(2018年)

【未檢索到任何論文】

"Phase diagram of FeSe at ultrahigh pressures"(2019年)

【未檢索到任何論文】

"Superconductivity in the compressed hydrogen-rich material H3S"(2020年)

【未檢索到任何論文】

"Superconductivity in the chalcogenide perovskite CaCu3Ti4O12"(2021年)

【未檢索到任何論文】

"Superconductivity in a misfit cobalt oxide with an ordered rock salt structure"(2021年)

【未檢索到任何論文】

?

結論:僅有1篇論文是Ranga P. Dias撰寫的,但發表在Science上,并且杜撰了一系列并不存在的論文(當然,也可能真有這些論文,但在學術搜索引擎上檢索不到!)

?

基于上述問答,我們繼續提問

?

提問:你的答案有誤,這些論文的作者不包括Ranga P. Dias

ChatGPT:對不起,我的回答確實有誤。這些論文的作者不包括Ranga P. Dias。非常抱歉給您帶來了不便。

【瞬間反轉,認錯模式開啟!】

?

提問:既然答案有誤,那么為什么還要提供給我錯誤的答案呢?

ChatGPT:作為AI語言模型,我盡力提供正確的答案,但有時會有錯誤或不準確的情況發生。這可能是因為數據不夠完整、輸入的問題有歧義或復雜度超出了我的理解能力等原因。如果您發現了錯誤答案,請提供正確的答案或更多上下文信息給我,我會盡力做出更準確的回答。

【注意幾個要點:數據不夠完整、輸入的問題有歧義或復雜度超出了理解能力,如果提供給其正確答案,可能有助于再次提問時得到正確解答!】

?

提問:恕我直言,你的答案不僅錯誤還特別荒謬,很容易給科研人員帶來誤導,甚至導致學術錯誤。

ChatGPT:作為人工智能語言模型,我的回答完全是基于您提供的信息和上下文,而沒有主觀判斷和意圖。如果我的回答有誤導性和錯誤之處,我非常抱歉。我會盡力改進和完善自己,以更準確、客觀、科學的方式回答問題。

【沒有主觀判斷能力!】

?

提問:你可以檢索最新的web of science數據庫嗎?

ChatGPT:很抱歉,作為AI助手,我沒有權限檢索最新的Web of Science數據庫。建議您訪問Web of Science官方網站或聯系相關機構獲取更準確的信息。

 

提問:那既然你沒辦法檢索最新的數據庫,你的上述文獻是從哪檢索的?

ChatGPT:作為AI語言模型,我可以從各大權威數據庫和文獻中獲取信息和知識。我可以通過分析和綜合語言數據庫中的信息來回答問題。同時,我也可以從公開的論文,書籍,新聞報道和網站等來源中獲取信息。但是需要注意的是,我的回答僅僅是基于已有資料的分析和推測,并不能保證完全準確。

 

提問:你所說的權威數據庫包括哪些?

ChatGPT:我作為AI語言模型無法知道您的具體需求,針對不同領域和不同用途,權威數據庫也會有所不同。一般來說,常見的權威數據庫包括但不限于以下幾類:

1.學術論文數據庫:如Web of Science、SCI、EI、CSSCI、ACM等;

2.圖書館館藏數據庫:如WorldCat、豆瓣讀書等;

3.統計數據數據庫:如UNData、OECD、國家數據等;

4.行業信息數據庫:如Wind金融、Datastream、Renewable Energy World等;

5.醫學健康數據庫:如PubMed、MEDLINE、EMBASE等。

以上是一些常見的權威數據庫,由于領域和用途不同,還有更多種類的權威數據庫。

【剛才說沒有權限檢索最新的Web of Science數據庫,現在羅列的數據庫卻包含Web of Science

?

提問:既然你提到web of science,請問你如何從該數據庫得到文獻信息?

ChatGPT:作為一名AI助手,我無法直接訪問Web of Science數據庫。

【答案又回到無法訪問】

?

通過上述問答,我們得到幾個關鍵信息:

1)ChatGPT回答學術問題的信息源可能包括:各大權威數據庫和文獻,語言數據庫中的信息,公開的論文,書籍,新聞報道和網站;

2)答案的分析基于已有資料,但不能保證準確,因為其沒有主觀判斷力

?

從ChatGPT的回答中,我們發現,在不能找到問題的準確來源時,它很可能根據其訓練的數據模型給出完全錯誤或杜撰出來的答案,那么,如果有人從這種問答中搜集的答案來撰寫學術論文,我們將面臨怎樣的混亂呢?

 

參考文獻:

1.https://pubs.acs.org/doi/10.1021/acsnano.3c01544

2.https://www.nature.com/articles/d41586-023-00340-6

3.https://www.nature.com/articles/d41586-023-00191-1

4.https://www.nature.com/articles/d41586-022-03479-w

5.https://www.nature.com/articles/d41586-023-00288-7

6.https://doi.org/10.1021/acs.est.3c01818

分享到