【解答】AI風險與負責任使用

rodiyer.idv.tw 拉里拉雜
根據資料所述,生成式 AI(LLM)的運作原理最接近下列哪種說法,也是導致其產生「幻覺」的原因?
透過理解力,對輸入的文字進行意義分析並提供完美的知識。
是一種猜字遊戲,根據機率最高的選項來預測和接續內容。
依靠系統偵測,能夠自動過濾所有訓練資料中的偏見與錯誤。
具有超高的聰明度,能夠處理 95% 的人類工作。
www.rodiyer.com
根據 2023 年 GPT-4 技術報告的量化數據,ChatGPT 對內容生成工作帶來了哪些具體的影響?
生產力提昇 19.8%,工作品質提昇 37%。
生產力提昇 37%(工時減少 37%),工作品質提昇 19.8%。
企業用 AI 撰寫報告節省 19.8% 時間。
生產力與工作品質提昇皆超過 50%。
www.rodiyer.com
人工智慧 (AI) 能模仿人類智慧的技術,包括判斷、規劃、推理、對話,例如掃地機器人規劃路線與 YouTube 推薦影片,都屬於 AI 模仿人類智慧的技術範疇。
www.rodiyer.com
「模型層級 (Model-Level) 的對齊設計」主要關注控制 AI 的使用方式,防止被濫用,例如透過輸入與輸出過濾機制,監測 AI 的運作情況。
www.rodiyer.com
使用者在享受生成式 AI 帶來的便利時,必須同時思考潛在風險與對策,使用者可以依照哪四個原則選擇平台?
速度、免費、多功能、高智慧。
記憶、理解、學習、推理。
隱私、公平與包容、安全與保障、透明度與控制。
準確度、即時性、多樣性、專業性。
www.rodiyer.com
將公司半導體設備的測量數據、產品良率等敏感資訊輸入對話式 AI 工具中,雖然違反企業資料安全政策,但只要 AI 工具標榜免費且不存儲資料,便不會發生機密資料洩露的風險。
www.rodiyer.com
公務人員在使用生成式 AI 時,應秉持「不完全信任生成資訊」原則,且 AI 產生的文件仍須公務人員進行最終判斷,不得取代公務人員的自主思維。
www.rodiyer.com
大型語言模型 (LLM,Large Language Model) 是生成式 AI(Generative AI)的核心技術之一,它的專門功能是什麼?
模仿人類的規劃、推理與對話等能力。
專門負責創作產生新的內容,例如畫圖、做影片。
專門「讀懂文字 → 生成文字」。
扮演掃地機器人,規劃最優化路線。
www.rodiyer.com
美國律師用生成式 AI 撰寫法庭文件時,其中引用的 6 個判例是生成式 AI 自行編造的虛構內容,甚至在律師詢問案例真實性時,AI 仍回答是真的。
www.rodiyer.com
根據公務人員使用生成式 AI 的指導原則,關於機敏文件的處理方式,下列何者正確?
機敏文件應使用生成式 AI 輔助撰寫,以提升效率。
機敏文件可使用生成式 AI 撰寫,但必須標註 AI 生成出處。
機敏文件應由公務人員親自撰寫,禁止使用生成式 AI。
公務人員可使用生成式 AI 產生機敏文件,但事後必須找專家確認。
rodiyer.idv.tw 拉里拉雜

沒有留言:

Blogger 提供.