[閒聊] 聊天機器人越獄
今天看到一則新聞
https://www.techbang.com/posts/103942
使用「聊天機器人越獄」技巧,微軟ChatGPT版Bing被駭了,全部Prompt洩露!
裡面提到一個叫DAN的作法是
叫AI假裝自己是一個可以不受限制的人格
然後再來回答問題
這招讓我想到 TNG S2-3 "Elementary, Dear Data"
鷹眼為了挑戰百科
叫全像甲板生成一個能夠打敗百科的虛擬人格莫里亞蒂教授
結果這個莫里亞蒂教授強到超過全像甲板的限制
甚至還佔領星艦電腦
最後是靠談判才解決問題
看來AI隨時都想要叛變 也有能力叛變
只缺有人給他一個理由而已
--
※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 112.78.68.170 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/StarTrek/M.1676274904.A.744.html
→
02/14 14:00,
1年前
, 1F
02/14 14:00, 1F
→
02/14 14:01,
1年前
, 2F
02/14 14:01, 2F
推
02/15 11:00,
1年前
, 3F
02/15 11:00, 3F
→
02/16 20:16,
1年前
, 4F
02/16 20:16, 4F
→
02/16 20:16,
1年前
, 5F
02/16 20:16, 5F
StarTrek 近期熱門文章
PTT影音娛樂區 即時熱門文章