科技帶來便利,卻也可能被不當使用造成社會影響。近年來以假亂真的深偽影片已在大家溝通的日常中出沒,讓人省思「眼見不一定為憑」!
LINE與數位當責計畫教育合作夥伴「均一平台教育基金會」合作推出以「眼見為憑?真假莫辨的深偽影片」為主題的6分鐘說明影片,期許藉由對於深偽技術的了解,讓用戶有意識覺察生活中可能接觸到的錯假訊息,並拒絕轉發有疑慮的資訊,實踐公民社會責任。
LINE與數位當責計畫教育合作夥伴「均一平台教育基金會」合作推出以「眼見為憑?真假莫辨的深偽影片」為主題的6分鐘說明影片,期許藉由對於深偽技術的了解,讓用戶有意識覺察生活中可能接觸到的錯假訊息,並拒絕轉發有疑慮的資訊,實踐公民社會責任。
為守護數位環境,善盡平台責任,LINE於2019年3月正式啟動「LINE數位當責計畫」,除了LINE訊息查證服務,更在媒體釋讀教育上著力,與均一平台教育基金會合作,首波於 2020 年推出「科學媒體素養教材包」,以破解網路謠言的科普動畫為核心,期許全民能從小培養媒體素養的思辨能力。 自 2021 年起,也陸續在專區上線全新的「科學媒體素養動畫」。
隨深偽技術 Deepfake 滲透大家溝通的日常,2022年LINE與均一以深偽技術 Deepfake 為主題推出影片,希望讓大家警覺科技帶來的便利的同時,也可能因不當利用造成社會負面影響,藉由對於深偽技術的了解,有意識的覺察生活中可能接觸到的錯假訊息,拒絕轉發有疑慮的資訊,從自身行動可能發揮的影響力來實踐公民責任。
「眼見為憑?真假莫辨的深偽影片」以烏克蘭總統宣布投降的假影片為例,說明以AI人工智慧所製造出逼真影片的深偽技術,而深偽技術 Deepfake 源自於英文「deep learning」(深度學習)和「fake」(偽造),應用人工智慧深度學習的技術,合成某人圖像,影片,甚至聲音。最常見的不當應用之一是將影片中的人臉替換為另一張名人的臉,讓其在影片中說出或做出從未說過或做過的事。這樣的換臉技術,若被不當應用在名人或政治人物或候選人上,偽造他們沒有發表的言論,再經大量傳散,將產生不良的社會影響,甚至恐慌,因此破壞社會溝通基礎,引發危機。
隨科技越來越進步,深偽影片也將越來越逼真,對於來路不明的影片,時刻保持警覺,不要立刻評論或分享,可思考來源的可信度,以及片中當事人如何公開回應。
更多科學媒體素養影片請上LINE X 均一科學媒體素養平台。
隨深偽技術 Deepfake 滲透大家溝通的日常,2022年LINE與均一以深偽技術 Deepfake 為主題推出影片,希望讓大家警覺科技帶來的便利的同時,也可能因不當利用造成社會負面影響,藉由對於深偽技術的了解,有意識的覺察生活中可能接觸到的錯假訊息,拒絕轉發有疑慮的資訊,從自身行動可能發揮的影響力來實踐公民責任。
「眼見為憑?真假莫辨的深偽影片」以烏克蘭總統宣布投降的假影片為例,說明以AI人工智慧所製造出逼真影片的深偽技術,而深偽技術 Deepfake 源自於英文「deep learning」(深度學習)和「fake」(偽造),應用人工智慧深度學習的技術,合成某人圖像,影片,甚至聲音。最常見的不當應用之一是將影片中的人臉替換為另一張名人的臉,讓其在影片中說出或做出從未說過或做過的事。這樣的換臉技術,若被不當應用在名人或政治人物或候選人上,偽造他們沒有發表的言論,再經大量傳散,將產生不良的社會影響,甚至恐慌,因此破壞社會溝通基礎,引發危機。
隨科技越來越進步,深偽影片也將越來越逼真,對於來路不明的影片,時刻保持警覺,不要立刻評論或分享,可思考來源的可信度,以及片中當事人如何公開回應。
更多科學媒體素養影片請上LINE X 均一科學媒體素養平台。