引言
深度學習技術的突破,讓人工智能從單純工具轉變?yōu)槿祟惿鐣\轉的關鍵參與者,深度融入醫(yī)療、設計、教育、商業(yè)等領域。在創(chuàng)作領域,人機協(xié)作同樣掀起變革浪潮,從新聞撰寫到學術論文創(chuàng)作,AI參與度越來越高。這種融合帶來巨大機遇,卻也引發(fā)復雜問題,明確人機在創(chuàng)作中的權責邊界,已成為數(shù)字文明發(fā)展的核心命題。麥肯錫報告指出,全球63%的知識工作者已與AI形成共生關系,當AI涉足諾貝爾獎論文寫作、司法判決輔助等關鍵事務時,解決這些問題變得更為緊迫。
一、人與AI在合著中的角色定位
(一)人類的角色
1. 創(chuàng)意與情感驅動者:人類憑借獨特情感、豐富生活體驗與深刻的世界認知,成為創(chuàng)意的源頭。創(chuàng)作時,基于自身經歷、情感和價值觀孕育原創(chuàng)想法,為作品賦予靈魂。例如,作家創(chuàng)作小說,靈感可能源于童年回憶、社會熱點或對人性的思考,這些核心創(chuàng)意AI無法自發(fā)產生。在創(chuàng)造力與突破性思維上,人類優(yōu)勢明顯,OpenAI的GPT系列雖能續(xù)寫小說,卻難以創(chuàng)作出《百年孤獨》式具有開創(chuàng)性的魔幻現(xiàn)實主義作品 ,凸顯人類在創(chuàng)意與情感驅動創(chuàng)作方面的不可替代。從能力維度看,人類在價值判斷上優(yōu)勢顯著,聯(lián)合國教科文組織AI倫理框架強調,涉及生命權、文化認同等重大決策,人類需保留終審權,這在創(chuàng)作中體現(xiàn)為對作品價值方向的把控。
2. 價值判斷與審美塑造者:人類依據社會道德、文化傳統(tǒng)和個人審美觀念,篩選、評價與調整創(chuàng)作內容。藝術創(chuàng)作中,決定作品審美風格;學術研究里,判斷研究方向價值。MIT媒體實驗室實驗表明,AI可生成眾多建筑設計方案,但獲普利茲克獎評委認可的方案,都經過人類價值篩選與文化適配,充分彰顯人類價值判斷和審美塑造在創(chuàng)作中的關鍵作用。在醫(yī)療倫理、商業(yè)戰(zhàn)略等復雜創(chuàng)作場景中,人類負責價值權衡。某三甲醫(yī)院引入AI輔助診斷系統(tǒng)后,醫(yī)生誤診率下降18%,但面對“該不該告知患者晚期病情”這類決策,仍需人類依據倫理委員會規(guī)范,做出符合道德的價值判斷。
3. 決策與協(xié)調者:在人機合作創(chuàng)作中,人類掌握決策權,從挑選AI工具、制定創(chuàng)作目標與計劃,到決定AI生成內容的取舍、修改,均由人類定奪。同時,人類還要協(xié)調不同AI工具間協(xié)作,以及AI與其他創(chuàng)作資源的整合。以電影制作為例,導演需決定使用哪些AI特效技術,如何將AI生成的虛擬場景與實景拍攝結合,以及協(xié)調編劇、演員等團隊成員與AI的合作。參考歐盟《人工智能法案》對決策系統(tǒng)的分級,創(chuàng)作領域中,人類也應依據創(chuàng)作內容的風險程度和重要性,把握不同層級決策權。在五層協(xié)作框架的決策研討層,也體現(xiàn)人類在復雜決策中的主導地位,確保創(chuàng)作不逾越文明底線。
(二)AI的角色
1. 高效的數(shù)據處理與內容生成者:AI具備強大的數(shù)據處理能力,能快速分析海量數(shù)據,按預設算法和模型生成相應內容。新聞寫作時,AI可短時間收集整理新聞事件信息,生成簡單稿件,提升報道時效性;創(chuàng)意寫作中,能依據主題和風格要求,生成故事梗概、詩歌片段等素材與靈感。其高效性和準確性遠超人類,如Google DeepMind的AlphaFold能在數(shù)小時內預測蛋白質結構 ,AI在創(chuàng)作中處理數(shù)據和生成基礎內容的速度令人類難以企及。在分工協(xié)作層,AI負責高重復性、高算力任務,像信用卡營銷場景中,AI完成客戶篩選,為人類后續(xù)個性化服務奠定基礎。
2. 精準的技術實現(xiàn)與優(yōu)化者:AI能夠精準執(zhí)行各種技術指令,實現(xiàn)復雜技術效果和優(yōu)化功能。音樂創(chuàng)作中,通過算法生成精確的音樂旋律、和聲和節(jié)奏,還能對錄制音樂進行后期混音和效果處理,提升音樂質量;圖像設計里,實現(xiàn)圖像的智能摳圖、色彩校正和特效添加等功能,助力設計師快速完成任務,突破傳統(tǒng)技術限制,實現(xiàn)作品多樣化和創(chuàng)新。
3. 智能的輔助與啟發(fā)者:AI不僅提供具體創(chuàng)作內容和技術支持,還通過數(shù)據分析和機器學習為人類創(chuàng)作者提供新思路和啟發(fā)。它能分析大量文學作品,發(fā)現(xiàn)創(chuàng)作模式和規(guī)律反饋給作家;科研領域中,通過分析海量文獻發(fā)現(xiàn)潛在研究方向和問題。OpenAI研究顯示,程序員使用Copilot編碼時,思維焦點從語法細節(jié)轉向架構設計,認知效率提升58% ,體現(xiàn)AI在創(chuàng)作中觸發(fā)人類認知躍遷的作用。在人機協(xié)同層,AI通過實時學習人類行為優(yōu)化輸出,人類從AI的精準性中突破認知局限,形成“人機回環(huán)”閉環(huán)。
二、人與AI在合著中的權利與義務
(一)人類的權利與義務
1. 權利
創(chuàng)作主導權:人類有權決定作品的核心創(chuàng)意、主題、風格和整體架構,確保作品體現(xiàn)自身創(chuàng)作意圖和價值觀。從權力譜系重構角度看,人類保有“元創(chuàng)造力”,在創(chuàng)作中占據主導地位,AI僅起輔助作用,無權主導創(chuàng)作過程。
成果所有權:人類對最終完成的作品享有所有權,涵蓋著作權和相關經濟權益,可決定作品的發(fā)表、出版、改編和商業(yè)利用等事項并從中獲益。美國版權局明確規(guī)定,人類主導的創(chuàng)造性修改可獲保護,進一步明確人類在成果所有權方面的權利。
AI控制權:人類有權選擇、使用和管理AI工具,決定AI在創(chuàng)作過程中的參與程度和使用方式,可根據需求和創(chuàng)作習慣對AI進行參數(shù)設置、指令調整和功能優(yōu)化。
2. 義務
倫理道德責任:人類有義務確保創(chuàng)作過程和作品內容符合倫理道德規(guī)范,避免利用AI傳播虛假信息、有害思想或侵犯他人權益。需時刻關注倫理道德問題,規(guī)避價值對齊的文明鴻溝,如西方價值觀訓練的AI在東亞社會應用時出現(xiàn)的道德判斷誤差。
質量把控責任:人類要對作品質量負責,審查、修改和完善AI生成的內容,確保作品達到一定水準。學者利用AI輔助撰寫論文時,需核實AI提供的數(shù)據和分析結果,優(yōu)化論文邏輯結構和論證過程。
AI發(fā)展責任:人類有義務推動AI技術健康發(fā)展,通過合理使用和反饋,促進AI算法改進和完善,向AI開發(fā)者提供使用體驗和建議。
(二)AI的“權利”與“義務”(從技術功能和應用規(guī)范角度)
1. “權利”(非法律意義上的權利,而是功能實現(xiàn)的保障)
數(shù)據使用權:AI為實現(xiàn)功能,需獲取和使用大量數(shù)據,在合法合規(guī)和遵循用戶隱私政策前提下,有權使用授權數(shù)據進行學習和訓練。
運行環(huán)境保障權:AI需要穩(wěn)定的硬件和軟件運行環(huán)境,人類有義務提供合適的計算設備、操作系統(tǒng)和網絡條件等。
2. “義務”
數(shù)據合規(guī)使用義務:AI必須嚴格遵守數(shù)據使用的法律法規(guī)和道德準則,確保數(shù)據收集、存儲、處理和共享合規(guī),不濫用數(shù)據、不泄露用戶隱私。
創(chuàng)作輔助忠實義務:AI要忠實履行創(chuàng)作輔助功能,按人類指令和設定算法工作,不擅自改變創(chuàng)作意圖和內容方向,生成符合要求的內容。
技術安全保障義務:AI要保障自身技術的安全性和穩(wěn)定性,防止技術故障、漏洞或被惡意攻擊,AI開發(fā)者需采取有效安全措施。
三、人與AI合著應注意的問題
(一)倫理道德問題
1. 虛假信息與偏見傳播:AI生成內容可能受訓練數(shù)據中虛假信息或偏見影響,傳播不實內容或強化社會偏見,如AI生成的新聞可能虛假,招聘廣告可能存在歧視。人類使用AI時需嚴格審查,避免此類倫理問題。
2. 情感和道德誤導:AI本身無情感和道德觀念,但其生成內容可能誤導人類情感和道德觀念,一些AI生成的文學或影視作品宣揚不良價值觀,人類創(chuàng)作和傳播相關作品時要注重道德導向。
3. 價值對齊難題:不同文化背景價值觀存在差異,AI以某一種文化價值觀訓練后應用于其他文化場景,可能產生價值判斷誤差。OpenAI的憲法AI計劃在應用中,西方個人主義價值觀訓練的AI系統(tǒng)在東亞集體主義社會道德判斷誤差率達47% ,在沙特阿拉伯司法試點與當?shù)刈诮谭_突率高達33%。這要求在人機合著時,充分考慮文化差異對作品價值觀傳遞的影響。
(二)法律問題
1. 著作權歸屬:人與AI合作創(chuàng)作作品的著作權歸屬存在爭議,目前法律框架基于人類創(chuàng)作構建,難以明確界定。美國版權局雖明確AI生成內容不具著作權,但人類主導創(chuàng)造性修改可獲保護,不過復雜創(chuàng)作場景下的著作權界定仍需細化法律條文。
2. 責任認定:合作創(chuàng)作中出現(xiàn)侵權、違約等法律糾紛時,責任認定復雜。參考特斯拉自動駕駛事故催生的“三層追責體系”,在創(chuàng)作領域也可構建類似體系,明確不同層面責任主體的責任比例。
(三)技術依賴問題
1. 創(chuàng)作能力退化:過度依賴AI可能導致人類創(chuàng)作者創(chuàng)作能力退化,作家過度依賴AI生成故事梗概,可能導致構思能力下降。倫敦出租車司機長期依賴導航系統(tǒng)導致海馬體體積年均縮小1.8% ,在教育領域使用GPT - 4完成論文的學生獨立論證能力下降29%,這警示著人機合著中人類創(chuàng)作能力退化的風險。從風險規(guī)避角度看,這屬于認知惰化范疇,過度依賴AI會導致人類核心能力萎縮,需建立“人機能力評估體系”,定期檢測協(xié)作效能。
2. 技術故障風險:AI系統(tǒng)可能出現(xiàn)技術故障、算法錯誤或數(shù)據丟失等問題,影響創(chuàng)作進行。人類需建立備份機制和應急方案,降低技術依賴風險。同時,需關注算法黑箱問題,當AI輔助創(chuàng)作時,如AI輔助法官量刑引發(fā)被告對算法解釋權訴訟激增300%,而深度學習系統(tǒng)決策路徑可解釋性不足15%,這使得人類需為難以理解的AI建議擔責,在創(chuàng)作中也可能面臨類似困境。
四、未來展望
(一)教育革新
培養(yǎng)“AI素養(yǎng)”與“人性智慧”迫在眉睫。麻省理工學院推出“人機共生課程”,要求學生同時掌握算法優(yōu)化與批判性思維,2024年數(shù)據顯示,接受該訓練的創(chuàng)業(yè)者AI應用成功率提升37%。創(chuàng)作領域教育也應如此,讓創(chuàng)作者既能熟練運用AI工具,又能堅守自身獨特創(chuàng)作思維和價值判斷能力,為未來人機合著儲備人才。
(二)組織重構
從“崗位替代”邁向“角色進化”。豐田汽車將AI工程師與一線工人組成“人機共創(chuàng)小組”,既利用AI優(yōu)化生產流程,又保留工人的工藝直覺,使生產線故障率下降29%,還促進了企業(yè)文化革新,提升員工技能。創(chuàng)作組織可借鑒這一模式,讓人類創(chuàng)作者與AI技術人員緊密協(xié)作,充分發(fā)揮各自優(yōu)勢,提升創(chuàng)作效率與質量,推動創(chuàng)作領域的創(chuàng)新發(fā)展。
(三)制度創(chuàng)新
構建人機協(xié)同治理體系刻不容緩。聯(lián)合國《全球AI治理框架》提出“雙主體責任”原則,AI開發(fā)者需確保技術透明性,使用者需承擔倫理責任;中國《生成式AI服務管理暫行辦法》要求平臺建立“人類決策干預機制”。創(chuàng)作領域也應制定相應制度,明確人機合著中各方權利、義務和責任,為創(chuàng)作活動健康有序開展提供堅實保障,營造良好創(chuàng)作環(huán)境。
結語
人機協(xié)作并非零和博弈,而是文明躍遷的必由之路。人類需在“過度依賴”與“恐懼失控”間精準尋找平衡點,清晰界定角色邊界,精心構建共生生態(tài)。未來十年,有效實現(xiàn)人機協(xié)同的個體與組織,將主導下一輪技術革命紅利。在創(chuàng)作領域,人與AI合作將持續(xù)深入,創(chuàng)作出更多高質量、富有創(chuàng)新性與人文關懷的作品,推動文化、藝術和學術不斷向前發(fā)展。人類應始終堅守對生命的敬畏與對美的追求,讓技術成為實現(xiàn)人類創(chuàng)造力與價值追求的強大助力,在人機合著的新征程中,書寫輝煌篇章。(文/黨雙忍)
2025年3月22日于磨香齋。