據(jù)報道,知情人士表示,谷歌母公司Alphabet在全球范圍內(nèi)推銷聊天機器人軟件的同時,正警告內(nèi)部員工在使用Bard等聊天機器人時應該保持謹慎。
消息稱,基于長期以來的信息保密政策,Alphabet建議員工不要將機密信息輸入聊天機器人。
包括Bard和ChatGPT在內(nèi)的聊天機器人可以用與人類類似的風格與用戶對話。它們基于生成式人工智能技術,能根據(jù)用戶輸入的提示做出回復。然而在使用聊天機器人的過程中,人工審核員可能會閱讀聊天記錄。研究人員也發(fā)現(xiàn),人工智能模型可以復制在訓練過程中接收的數(shù)據(jù),從而產(chǎn)生數(shù)據(jù)泄露風險。
一些知情人士還說,Alphabet已經(jīng)提醒工程師,避免直接使用聊天機器人去生成軟件代碼。
對于這一消息,Alphabet回應稱,Bard可能會提出不合適的代碼建議,但仍可以給程序員帶來幫助。此外,該公司的目標是對技術局限性保持透明的態(tài)度。
這一消息表明,盡管谷歌推出了自己的軟件與ChatGPT競爭,但谷歌也極力避免這樣的軟件對公司業(yè)務造成損害。谷歌正在與ChatGPT的開發(fā)者OpenAI和微軟(348.1, 10.76, 3.19%)展開競爭,新的人工智能軟件將對廣告和云計算行業(yè)造成深遠影響。
這也表明,在面對生成式人工智能技術時,企業(yè)正在制定新的信息安全標準,包括要求員工不使用公開的聊天機器人軟件。
三星、亞馬遜(127.11, 0.69, 0.55%)和德意志銀行等公司都表示,全球越來越多的企業(yè)已經(jīng)針對人工智能聊天機器人設置了“護欄”。有消息稱,蘋果(186.01, 2.06, 1.12%)也采取了類似做法。
社交網(wǎng)站FishBowl對近1.2萬名受訪者進行的一項調(diào)查顯示,截至今年1月,大約43%的專業(yè)人士正在使用ChatGPT或其他人工智能工具,并且通常不會告知他們的老板。受訪者中包括部分美國大公司的員工。
今年2月,谷歌曾對測試Bard聊天機器人的員工表示,在Bard推出之前不要向其輸入內(nèi)部信息。目前,谷歌正在180多個國家推出40多個語言版本的Bard,輔助用戶的創(chuàng)意工作。但同時,谷歌對內(nèi)部員工的警示已經(jīng)拓展到了Bard提供的代碼建議。
谷歌表示,該公司已經(jīng)與愛爾蘭數(shù)據(jù)保護委員會進行了具體的對話,正在回答監(jiān)管機構的問題。本周二有報道稱,谷歌將推遲本周在歐盟推出Bard的計劃,等待有關聊天機器人隱私問題的更多信息。
生成式人工智能技術可以起草電子郵件、文檔,甚至開發(fā)軟件本身,從而極大地加快任務的執(zhí)行速度。然而,人工智能生成的內(nèi)容中可能包含錯誤信息、敏感數(shù)據(jù),以及《哈利波特》等小說中受版權保護的段落。
谷歌在6月1日更新的隱私聲明中也寫道:“不要在與Bard的對話中包含機密或敏感信息。”
一些公司已經(jīng)開發(fā)軟件來解決這方面擔憂。例如,信息安全公司Cloudflare正在推廣一項新服務,幫助企業(yè)標記和限制數(shù)據(jù)的對外流動。
谷歌和微軟同時也在向商業(yè)客戶提供非公開的人工智能對話工具。這些工具的價格更高,但不會將數(shù)據(jù)吸收到公開的人工智能模型中。Bard和ChatGPT的默認設置會保存用戶的對話歷史,用戶可以選擇刪除。
微軟消費者業(yè)務首席營銷官優(yōu)素!み~赫迪(Yusuf Mehdi)表示,公司不希望員工在工作時使用公開的聊天機器人,這是“有道理的”。他解釋了微軟免費的必應聊天機器人與企業(yè)版軟件的不同,并表示:“公司采取適當?shù)谋J亓觯ㄆ髽I(yè)軟件)的政策要嚴格得多!
微軟拒絕回應,是否會全面禁止員工將機密信息輸入公開的人工智能軟件,包括微軟自己的軟件。不過微軟的另一名高管表示,他個人會限制對公開聊天機器人的使用。
Cloudflare首席執(zhí)行官馬修·普林斯(Matthew Prince)說,在聊天機器人上輸入機密信息就像“讓一群博士生獲得你的所有私人記錄”。