學術界詐騙新手法:寫了文章,還要付錢出版? 《科學月刊》

文章推薦指數: 80 %
投票人數:10人

德國大學所協商的內容,是愈來愈普遍的新興商業模式,稱為「公開取得出版(open access publishing)」,由論文作者支付電子論文處理費用,公開之電子 ... 000文字分享友善列印000分析/評論科學傳播讀寫科學學術界詐騙新手法:寫了文章,還要付錢出版?──《科學月刊》科學月刊・2018/02/21・2864字・閱讀時間約5分鐘・SR值574・九年級+追蹤作者/林宮玄│任職於中研院物理所,兼任科學月刊副總編輯。

學術界的期刊付費高牆出版商付作者稿費在一般人看來是天經地義的事,但在學術界不見得如此。

 圖/terimakasih0@Pixabay寫文章有稿費,好像滿正常的;但是在學術界,學者會付費請出版商刊登研究成果。

大部分科學研究,主要由政府資金支持,學者也會用科研經費支付論文刊登費用。

而這些國際期刊主要也是由研究機構與大學之圖書館付費訂閱,要說學術期刊出版社的運作,主要來自學術界或政府的資金支持,一點也不為過。

近年來,學術界開始有聲浪表示出版商利潤過高、訂價策略不合理,以致於大學圖書館開始聯合抵制出版超過2500本期刊的荷蘭出版商Elsevier,抗議年年上漲的訂閱費,而臺灣眾多大專院校及中研院等研究機構,也在2016年底加入聯合抵制Elsevier這家出版社的行列。

眾多抵制聲浪中,以德國學術界最為強硬。

2017年底,德國幾百所大學聯合與Elsevier談判再次破局,並宣布2018年不訂閱Elsevier旗下所有期刊。

值得玩味的是,今年初Elsevier宣布,雖然德國幾百所大學不支付2018年訂閱費,他們仍可取得旗下電子論文。

出版商顯然很清楚,他們的利潤幾乎完全來自於學術界的資金支持,但學術界若不團結,仍有可能被各個擊破。

詳情可參閱本文末延伸閱讀。

學術期刊出版巨人Elsevier,旗下有超過2500本期刊。

 圖/Elsevier官網「公開取得出版」學術論文免費公開免費下載的論文有助於知識傳播,但這種「公開取得出版(openaccesspublishing)」的商業模式隱藏著外界所不知道的弊病。

 圖/coyot@Pixabay德國大學所協商的內容,是愈來愈普遍的新興商業模式,稱為「公開取得出版(openaccesspublishing)」,由論文作者支付電子論文處理費用,公開之電子論文內容可由大眾免費取得,不需訂閱。

通常政府所支持的科學計畫,會希望研究成果公開讓民眾可免費取得,這個商業模式有助於知識傳播。

但是一篇論文該支付多少費用,才是合理的訂價?筆者不知道,但以下數據可供讀者參考。

學術論文的權威出版商NatureSpringer期下的NatureCommunications,即為公開取得出版的電子期刊,沒有紙本,其2016年出版3526篇論文,每篇文章作者需支付美金5200元(約15萬元臺幣),故會有5.5億臺幣左右的收入。

此期刊審查較嚴,實際處理的論文可能超過1萬篇,加上有支薪的專任編輯,營運成本也許較高。

NatureSpringer旗下另一個公開取得出版的ScientificReports,2016年發表20473篇論文,每篇文章作者需支付美金1675元(約5萬元臺幣),因此約有10億元臺幣收入。

根據2012年ScientifcReports公佈的統計數據,論文接受率為55%。

公開取得出版的電子論文,除了沒有印刷成本,還有更驚人的事實。

即使不是公開取得的商業模式,學術期刊的編輯大部分由學術界學者免費兼任,也是由學術界學者免費審查內容正確性。

如果出版商有一個夠聰明的AI(人工智慧)平台,作者投稿後自動媒合到適當的免錢編輯、再由免錢的學者幫忙審查,最後由AI協助論文符合出版格式,經付錢的作者校稿後發表在電子平台。

在這個極端狀況下,營運成本可能只需要電腦主機、伺服器與電費。

也許真的太極端,但一個期刊每年若有10億臺幣收入,很難想像其利潤會不高。

支撐期刊內容的是從編輯到審查,一連串「免費高知識勞工」。

在這樣的工作模式中,出版商的營運成本可能低到難以想像。

 圖/StockSnap@Pixabay筆者提出一個公開問題:為什麼學者願意免費幫出版商做編輯與審稿工作?另一個問題筆者捫心自問:NatureCommunications是學術界普遍認定的好期刊,如果訂價高得不合理,筆者會投稿嗎?答案是:當然會。

刊登論文在公認的好期刊,能帶來學術界各種肯定,並有資金挹注支持未來研究,畢竟螳螂是沒辦法擋車的。

1萬隻螳螂聯合起來對抗,也只是一起被輾過而已。

如果利潤真的不合理,需要夠強的變形金剛出來擋車,卡通主角「波力」等級可能不夠。

掠食性出版商的騙局這個在科學界看似荒謬卻又習以為常的狀況,使「掠食性出版商(predatorypublisher)」出現。

掠食性出版商幾乎不會協助審查論文,向作者收取一篇論文5~10萬元臺幣不等的費用,協助公開發表電子論文。

是不是很好賺?更有掠食性出版商利用詐騙手法,引誘作者投稿後,要脅其支付發表費,筆者常收到並忽略這類期刊的邀稿,但最近筆者遇到新的手法而差點受騙。

掠食性出版商(predatorypublisher)」是「公開取得出版」模式下發展出的學術詐騙手法。

 圖/MonikaP@Pixabay首先,筆者收到聲稱是德國出版社的編輯邀請信,協助審查一篇介紹性科學文章,因為文章作者是筆者所認識的美國資深教授,不疑有他便答應協助審稿。

在取得筆者信任後,該編輯進一步邀請筆者也寫一篇介紹性科學文章。

筆者本著科學普及的熱誠,寫完文稿不但順從編輯要求,提供相關領域的學者清單給編輯挑選審稿者,並簽署乍看只是文章授權的合約之後,該「出版社」才表示,合約內有一個網址,其網頁內容表示提供文章,簽署者就同意支付折合臺幣約8萬元的費用給該「出版社」,之後又寄給筆者蓋有「波蘭公司章」的「律師函」,要脅筆者若不支付,就要在臺灣面對民事求償與罰金。

筆者第一時間面對這樣的心理壓力,會不會匯款?答案是有可能的。

若要從筆者口袋掏出8萬元匯款,難度當然高。

但學術界發表一篇公開取得論文的發表費,動輒5萬元以上,甚至可到15萬元臺幣。

在對方以法律威脅下,筆者若擔心怕事,很容易就會動用計劃經費,支付文章出版費用。

幸好,筆者第一時間求助許多朋友,一開始是法律專家,接著是資通訊專家,最後才確定這是一起學術詐騙事件。

其「德國出版社」背後的「波蘭公司」,在外交部駐波蘭辦事處的協助下,證實不是登記有案的公司。

事後才發現,當初該美國教授將筆者列入審查學者名單給該出版商,筆者才會收到審稿要求,並取得筆者對該「出版商」的信任。

在165反詐騙建議下,筆者就近在南港分局舊莊派出所完成快兩小時的筆錄,以「詐欺未遂」報案。

感謝協助筆錄的蔡姓員警,這起國際詐騙,沒匯款上當,牽涉金額也只有臺幣8萬元左右,是否能透過警察的國際合作破案,誰也不知道,但筆者能做的努力僅止於此。

最後,感謝所有被筆者詢問過的人,讓筆者能安然渡過這起詐騙案件。

感謝中央研究院的院方及物理所協助,特別感謝臺灣法律專家黃琦媖律師、李奕逸法官、陳伯翰律師,歐洲法律專家中研院法律所邵允鍾博士及黃松茂博士,還有臺灣IBM工程師郭澄祐及不願具名的美國Google工程師,協助保全證據、提供給警方。

延伸閱讀:楊芬瑩,〈推倒貪婪期刊付費高牆!學術界揭竿而起〉,報導者,2016年3月8日ValerieHung,〈不只台灣,德國和祕魯恐將於2017年與Elsevier學術期刊分手〉,2016年12月29日QuirinSchiermeier,GermanyvsElsevier:universitieswintemporaryjournalaccessafterrefusingtopayfees,NatureNews,2018/1/4   本文轉載自《科學月刊》2018年2月號578期,原文標題為〈詐騙未遂之冒牌出版商〉。

 台灣傑出女科學家系列專訪,持續更新中!《她是科學家》特輯持續更新中相關標籤:公開取得出版(openaccesspublishing)學術倫理期刊收費論文出版熱門標籤:大麻NASA女科學家量子力學CT值文章難易度剛好太難所有討論 0登入與大家一起討論科學月刊222篇文章・ 1647位粉絲+追蹤非營利性質的《科學月刊》創刊於1970年,自創刊以來始終致力於科學普及工作;我們相信,提供一份正確而完整的科學知識,就是回饋給讀者最好的品質保證。

RELATED相關文章當AI的「深度學習」形成偏見,法規該如何遏止傷害?核廢料放我家?高階核廢料的危險性與處理方式遲來的十月新番盤點+聽眾Q&A回覆(下集)吸血鬼馬上死/獻身給魔王伊伏洛基亞吧/福音戰士新劇場版:終遲來的十月新番盤點!藍色時期、古見同學是溝通魯蛇、陰陽眼見子…(上集)TRENDING熱門討論即時熱門五則TED演講,讓你看懂「淨零」怎麼做62小時前學術研究既燒腦又燒錢,經費從何而來?——《疫苗先鋒》316小時前面對新聞媒體,科學家該如何溝通?——《疫苗先鋒》223小時前餵飽全人類,需要她與她的科學——余淑美專訪21天前五則TED演講,讓你看懂「淨零」怎麼做62小時前相關、因果,傻傻分不清楚52022/03/15誰是地表最憂傷生物?水滴魚醜哭:我壓力山大52022/03/20世上最神秘的味道——酸的演化43天前570文字分享友善列印570分析/評論文明足跡社會群體電腦資訊當AI的「深度學習」形成偏見,法規該如何遏止傷害?科學月刊・2022/01/03・3732字・閱讀時間約7分鐘+追蹤文/廖英凱|非典型的不務正業者、興致使然地從事科普工作、科學教育與科技政策研究。

對資訊與真相有詭異的渴望與執著,夢想能做出鋼鐵人或心理史學。

TakeHomeMessageAI雖然能協助遏止違法或侵權的言論,但一般大眾卻無法得知其評斷的機制,已於無形中造成傷害。

AI的資料庫誤差,將造成演算法對文化或族群產生偏見等;而深度學習的演算法因處理龐大的資料,常使研究者或運用AI的機構無法理解與回溯AI的決策原因。

歐盟、美國、聯合國等組織已相繼研擬AI的規範與監管方式。

臺灣仍須再制定AI相關的監管辦法,以因應科技的發展及變遷。

「你今天被祖了嗎?」眾所皆知目前社群網路最大的平台臉書(Facebook),為遏阻違法或侵權的言論,會判定某些言論違反其「社群守則」而隱藏。

不可否認,違法與侵權言論在社群網路上造成了嚴重的傷害,不過有時候這些隱文的原則,似乎與政治或特定議題有關。

時不時也有朋友提到,一則再平凡不過的貼文或照片,卻莫名其妙地被宣告違反社群守則。

於是乎在去(2021)年時,網友們開始把臉書創辦人祖克柏(MarkZuckerber)的姓氏,變成了諷刺臉書封鎖文章標準混亂的話梗:你被「祖」了嗎?想當然爾如臉書等社群媒體,是仰賴著演算法自動判斷一則貼文是否違規。

除了針對文字與圖片的內容分析以外,其他例如被檢舉的數量、帳號的活躍程度、帳號的發文模式、商業價值等,都成為演算法評估一則貼文是否違規的依據,彷彿法官在定罪犯人時不只依據犯罪行為,也會權衡犯人及其社會狀態一樣。

然而,我們看得到法官的決策過程與理由,但卻從來沒有機會搞清楚,到底演算法發生了什麼事情,才會宣告一則平凡的貼文違規。

雖然大家平常遇到這種貼文被刪的情況,通常也就是重新打篇文章貼個圖發發牢騷,就這麼過去了。

但這個時不時可見的神祕隱文事件,其實就是我們生活中,人工智慧(artificialintelligence,AI)已經持續帶來隱性傷害的頻繁案例。

AI的傷害跟以往想像的不一樣自工業革命以降,人類其實蠻迅速地就提出對科技發展副作用的深層反思。

例如人類史上第一部科幻作品,1818年由英國作家雪萊(MaryShelley)所著作的《科學怪人》(Frankenstein),即是以一個具有擬人思維的人造生命為主角的科幻驚悚作品。

伴隨著機器的發展,1956年達特矛斯會議(DartmouthSummerResearchProjectonArtificialIntelligence)上,與會專家提出「artificialintelligence」一詞,認為機器的發展將可像人一般具有學習、理解、適應的能力。

隨著AI技術上的演進,人們對AI的樂觀與悲觀態度,也愈發分歧。

對於AI發展所帶來社會的影響,依其態度可以分為:對科技抱持樂觀者,相信「強AI」的問世可以使電腦與人有相同甚至超越人類的思考能力,並為人類解決大部分問題,帶來更理想的明天,在電影動畫等作品中不乏這類理想的人工智慧角色;重視科技實用者,傾向認為AI是以輔助人類的角色,解放人類的勞力工作而能開創更多科技應用的可能;重視科技發展脈絡者,則認為AI只是科技發展中的一個流行詞(buzzword),只有尚在發展中,尚未充分掌握的技術才會被視為AI。

與科技領域相對,在人文社會領域中則較常出現對AI發展的反思,例如研究AI對人類勞力取代後所創造的弱勢衝擊;或更甚者認為強AI的不受控發展,將會導致人類文明的毀滅。

這些不同立場的觀點,均揭示了人類看待AI對社會影響的多元與矛盾預測。

儘管當代影視作品和學術研究,都對AI會造成什麼樣的傷害有興趣,但AI帶來的傷害早已出現多年而默默影響著人類社會。

2018年在《自然》(Nature)期刊上的一則評論,介紹了一張身披白紗的歐美傳統新娘和印度傳統新娘的組圖,而演算法在看待兩張新娘照片時,會將前者判斷為「新娘」、「洋裝」、「女人」、「婚禮」等,但將後者判斷為「表演」和「戲服」。

在這個案例中,AI或演算法設計本身其實並沒有獨鍾哪一種文化,但因為演算法的訓練來自於既有圖庫,而圖庫中的圖片來源和圖片的詮釋註記,與真實世界的樣貌出現落差,使人工智慧就如真人一般,憑藉著片面不完整的學習資料,產生了對族群與文化的偏見(偏誤),而演算法可能更無法自覺與反思自我產生的偏見(圖一)。

延伸閱讀:人類的刻板印象,該怎樣讓人工智慧不要有樣學樣?──「AI與性別論壇」(圖一)由於AI只憑藉片面且不完整的資料進行學習,以婚紗為例,AI只能辨識出傳統歐美的婚紗裝扮(左),卻難以辨識出不同文化的婚紗樣貌,例如印度傳統服飾(右)。

(123RF)除了資料庫的誤差而導致演算法對文化或族群的偏見以外,「深度學習」(deeplearning)的演算法因處理龐大的訓練資料、分析資料,也常使研究者或使用AI服務的機構,無法理解與回溯AI決策的具體原因。

例如亞馬遜公司(Amazon.com,Inc.)仰賴演算法全自動判斷大量受僱員工的工作狀態,並以此決定他們的績效與裁員與否。

儘管這種做法能大幅縮減決策時間,並減少人資成本,但也因此發生數起亞馬遜員工因系統過失而被降低績效,或是員工績效良好卻被無故裁員,更申訴無門的矛盾事件。

這與將AI應用於人資的初衷似乎有點相悖,演算法或許可以避免人為決策時,因涉及個人喜惡偏好而作出不公允的判斷,但卻也造成了另一種不公允也無從理解緣由的傷害。

誰來規範AI?既然AI的傷害已然出現,自然也應有對AI的監管與規範機制。

例如歐盟執委會(EuropeanCommission)在2019年4月公布「值得信賴的人工智慧倫理指引」(EthicsGuidelinesForTrustworthyAI),強調人工智慧應為輔助角色,尊重人類自主、避免傷害、維護公平、具有可解釋性,且能受到監管並回溯決策過程,以避免演算法的黑箱決策,作為歐盟成員國在訂定AI相關規範的上位依據。

2019年5月,經濟合作暨發展組織(OrganisationforEconomicCooperationandDevelopment,OECD),提出AI發展的原則應有永續精神以造福人類與地球,能尊重民主與法治、人權與多元性,兼顧透明度、課責機制等原則。

美國白宮科技辦公室在2020年1月發布的「人工智慧應用的管制指引」(GuidanceforRegulationofArtificialIntelligenceApplication),也強調衡量風險避免傷害、公平無歧視、透明度、重視科學實證、立法過程應兼顧公共參與等,作為美國政府各機關在訂定與人工智慧相關規範的指導原則。

聯合國教科文組織(UnitedNationsEducationalScientificandCulturalOrganization,UNESCO)則在去年11月,發布《人工智慧倫理建議書》草案(Drafttextoftherecommendationontheethicsofartificialintelligence),作為會員國訂定AI相關法律與政策時,可依循的通用價值觀、原則和行動框架。

國際上重要的原則指引,也同等地體現在民意對AI治理的期待,臺灣師範大學教授李思賢、劉湘瑤、張瓅勻等人針對臺灣1200位民眾的調查發現,臺灣民眾對AI的應用最在意的是避免傷害,其次則是透明度與公平性,相對最不在意的是隱私。

調查亦發現民眾明確偏好以公民審議和立法機關來制定嚴格傾向的規範,這反映了民眾對新興科技的擔憂與對透明治理的期待,也呼應了國際組織的指引方向(圖二)。

(圖二)AI規範制定權則偏好。

李思賢教授等人,調查國人對AI規範制定的偏好。

發現國人無論對AI發展持保守態度或開放態度,均傾向以公民審議和立法機構來制定規範。

然而,國際上的重要指引與民調結果,卻也讓我國在相關規範的設計上略顯矛盾。

例如調查研究顯示,雖然民眾最期待以「公民審議」和「立法機構」來訂定AI相關規範,但現今國內外相關規範的研擬與討論,仍是以由產官學組成的研究與應用社群為主,例如科技部自2017年起,開展多場AI倫理議題的研究計畫與論壇工作坊等,並於2019年9月提出《人工智慧科研發展指引》,明訂AI科研的核心價值與指引,使科研人員在學術自由與創新發展的同時,也能兼顧AI發展的方向。

但科技部並非產業的主責機關,所訂定的指引僅能提供科研人員更好的方向,對已產生傷害的業界應用仍然鞭長莫及。

儘管2018年11月立法院曾通過初具AI倫理精神的《無人載具創新實驗條例》;2019年5月,時任立法委員許毓仁等人也提出《人工智慧發展基本法》修法草案,作為政府兼顧人工智慧產業發展和倫理規範的法律基礎,但該草案的相關修法討論並未被積極延續,作為國家更上位看待AI發展的治理框架,於立法體制和公民審議機制中均尚未開展高強度的討論。

AI對今日生活的便利已無遠弗屆,而AI所帶來的傷害,雖微小、難以察覺,但也已經出現,對應的倫理指引與規範在國際也蔚成趨勢,但臺灣仍在牛步,或許國家在看待AI發展時,必須開始將這些規範視為迫切的基礎建設。

如同歷史上所有科技進展一般,科技帶來的進步與災變往往是隱性與持續的,直到人們已慣於新興科技的進步,發現科技的受害者已經出現,才驚覺世界已經完全改觀。

延伸閱讀JamesZouandLondaSchiebinger,AIcanbesexistandracist—it’stimetomakeitfair,Nature,Vol.559,324-326,2018.人工智慧之相關法規國際發展趨勢與因應,https://www.ndc.gov.tw/nc_1871_31998。

《人工智慧發展基本法》草案,https://pse.is/3w9rrf。

〈本文選自《科學月刊》2022年1月號〉科學月刊/在一個資訊不值錢的時代中,試圖緊握那知識餘溫外,也不忘科學事實和自由價值至上的科普雜誌。

台灣傑出女科學家系列專訪,持續更新中!《她是科學家》特輯持續更新中相關標籤:facebook人工智慧歐盟深度學習演算法社群媒體熱門標籤:大麻NASA女科學家量子力學CT值所有討論 5登入與大家一起討論#1狐禪2022/01/04回覆訓練AI該被當成是教育問題,而非技術問題。

這是工程師的思維所達不到之處。

#2sci-12022/01/06回覆#1也許有教育專業人員加入會好一些,但可能不會有理想中的結果。

因為現實中每個人都有偏見啊,悲觀一點說,大家所知有限,必然在很多方面形成偏見而不自知。

NI(NaturalIntelligence,我瞎編的,就是人啦)接受教育後仍有很多偏見,所以AI接受訓練後,有偏見不是再正常不過了嗎?比較急迫的應該是思考被AI偏見傷害後救濟的管道。

如果能有人找到國外訴訟的案例就太好了,這裡可以許願嗎?#3狐禪2022/01/06回覆#2理想是動態而非靜態的,過去,現在,將來的理想不一樣,各族群的理想也不一樣。

但這幾乎是所有「有識之士」所不敢面對的。

所以AI的教育也不可能是畢其功於一役的,必須時時”升級”。

這個成本(軟硬體加內容),有人考慮過嗎?沒有吧。

#4sci-12022/01/07回覆#3“AI的教育也不可能是畢其功於一役的”這句說得好。

人的教育也是,雖然沒達到理想,但還是該持續進行。

阿狐(裝熟哈哈),你的想法很積極,我要學起來。

#5狐禪2022/01/07回覆#4可是現代科技廣告多半只要人口袋積極而非腦袋積極。

慎之慎之。

科學月刊6篇文章・ 7位粉絲+追蹤非營利性質的《科學月刊》創刊於1970年,自創刊以來始終致力於科學普及工作;我們相信,提供一份正確而完整的科學知識,就是回饋給讀者最好的品質保證。

RELATED相關文章當AI的「深度學習」形成偏見,法規該如何遏止傷害?核廢料放我家?高階核廢料的危險性與處理方式遲來的十月新番盤點+聽眾Q&A回覆(下集)吸血鬼馬上死/獻身給魔王伊伏洛基亞吧/福音戰士新劇場版:終遲來的十月新番盤點!藍色時期、古見同學是溝通魯蛇、陰陽眼見子…(上集)TRENDING熱門討論即時熱門五則TED演講,讓你看懂「淨零」怎麼做62小時前學術研究既燒腦又燒錢,經費從何而來?——《疫苗先鋒》316小時前面對新聞媒體,科學家該如何溝通?——《疫苗先鋒》223小時前餵飽全人類,需要她與她的科學——余淑美專訪21天前五則TED演講,讓你看懂「淨零」怎麼做62小時前相關、因果,傻傻分不清楚52022/03/15誰是地表最憂傷生物?水滴魚醜哭:我壓力山大52022/03/20世上最神秘的味道——酸的演化43天前



請為這篇文章評分?