2024年洞察報告:對人工智能的態(tài)度
一項覆蓋全球123個國家近3000名科研人員與臨床醫(yī)生的最新調(diào)查揭示,人工智能正處于一個廣泛認(rèn)知與審慎應(yīng)用并存的關(guān)鍵十字路口。數(shù)據(jù)顯示,高達(dá)96%的專業(yè)人士已對人工智能有所耳聞,但將其深度融入日常工作流程的比例尚處低位,僅有31%的受訪者表示曾出于工作目的使用過相關(guān)工具,這清晰地勾勒出從認(rèn)知到實踐的轉(zhuǎn)化鴻溝。
盡管實際應(yīng)用尚在起步階段,專業(yè)領(lǐng)域?qū)θ斯ぶ悄艿奈磥碛绊懥Ρв袠O高期望。高達(dá)72%的受訪者預(yù)見,人工智能將對其工作領(lǐng)域產(chǎn)生變革性或重大影響。其中,95%的人相信人工智能會加速知識發(fā)現(xiàn)的進(jìn)程,94%認(rèn)為它將推動學(xué)術(shù)與醫(yī)學(xué)研究成果數(shù)量的激增,而92%的人則預(yù)期機(jī)構(gòu)與企業(yè)能因此實現(xiàn)成本節(jié)約,樂觀情緒彌漫于整個專業(yè)社群。
然而,從高認(rèn)知度到深度應(yīng)用的路徑并非坦途。目前僅有11%的專業(yè)人士自認(rèn)對人工智能“非常熟悉”。在眾多工具中,ChatGPT以89%的認(rèn)知度一騎絕塵,但其工作場景使用率僅為25%。在尚未使用人工智能的群體中,49%的人將“缺少時間研究和試用”列為首要原因,這表明應(yīng)用壁壘更多源于現(xiàn)實限制而非主動抵制。
樂觀預(yù)期背后,是同樣深刻的隱憂。高達(dá)94%的受訪者認(rèn)為人工智能可能被用于制造虛假信息,86%的人擔(dān)憂其引發(fā)嚴(yán)重錯誤或意外。此外,81%的人認(rèn)為人工智能將在一定程度上侵蝕人類的批判性思維能力。對于監(jiān)管的缺失,40%的受訪者將其視為核心弊端之一,凸顯了在技術(shù)加速迭代的同時,治理框架亟待完善的緊迫性。
信任的構(gòu)建成為人工智能能否在專業(yè)領(lǐng)域行穩(wěn)致遠(yuǎn)的核心命題。報告指出,提升信任的關(guān)鍵在于確保輸出的準(zhǔn)確、道德且無害,58%的受訪者認(rèn)為這會“極大地”增強(qiáng)他們的信任。同時,使用高質(zhì)量、經(jīng)同行評審的內(nèi)容進(jìn)行模型訓(xùn)練(57%)以及默認(rèn)引用參考文獻(xiàn)以保證透明度(56%),也被視為構(gòu)建信任的基石。
展望未來,專業(yè)人士對人工智能的接納呈現(xiàn)出一種“有條件的擁抱”態(tài)勢。他們并非技術(shù)懷疑論者,而是理性的使用者,深刻理解其潛能與風(fēng)險。從廣泛認(rèn)知到深度融合的跨越,將不再僅僅依賴于算法的精進(jìn),而更多地取決于一個以信任、透明和人為本的治理生態(tài)的建立。這標(biāo)志著人工智能的應(yīng)用已進(jìn)入一個需要精耕細(xì)作、構(gòu)建規(guī)則與贏得信賴的新階段。
想了解更多網(wǎng)絡(luò)營銷的內(nèi)容,請訪問:網(wǎng)絡(luò)營銷