Từ “độ nóng” của AI
Hoàn toàn rõ ràng rằng AI (Artificial Intelligence – Trí tuệ nhân tạo) đang là một trong những từ khóa hot nhất hiện nay. Vào thời điểm tháng 9 năm 2024, tìm kiếm trên Google Search từ khóa “AI” trong 0.3 giây ghi nhận 15 tỉ 900 triệu kết quả; với từ khóa “AI tools” (các công cụ AI), trong 0.4 giây ghi nhận hơn 3 tỉ 400 triệu kết quả. Những con số khổng lồ nói lên mức độ phủ sóng, sự quan tâm đối với AI và những công cụ dựa trên nền tảng công nghệ AI trên toàn cầu.
Vào thời điểm hiện tại, đã và đang xuất hiện ngày càng nhiều công cụ AI cho các lĩnh vực đa dạng, trong đó có ngành truyền thông. Bên cạnh ChatGPT được biết đến rộng rãi, thì có nhiều ứng dụng AI được phát triển theo hướng được chuyên môn hóa, phục vụ những tác vụ chuyên biệt. Không khó để có thể liệt kê ra ở đây rất nhiều công cụ, ví dụ: Bing AI, Clause, Zapier Central cho nhóm tác vụ Chatbot; Jasper, Copy.ai, Anyword cho tác vụ sáng tạo nội dung; Descript, Wondershare, Runway cho tác vụ sản xuất và chỉnh sửa video; DALL-E3, Midjourney, Stable Diffusion cho tác vụ sáng tạo hình ảnh; Murf, AIVA cho tác vụ nội dung âm thanh v.v và mới đây thôi, gã khổng lồ Amazon cũng giới thiệu công cụ AI được họ phát triển là Video Generator và Image generator với mục đích để “truyền cảm hứng sáng tạo và mang lại nhiều giá trị hơn” như lời Phó chủ tịch mảng Quảng cáo của Amazon nhấn mạnh. Bên cạnh đó, rất nhiều ứng dụng khác như Wordsmith (nền tảng tạo ngôn ngữ tự nhiên chuyển dữ liệu thành văn bản tường thuật), Trint (công cụ phiên âm chuyển đổi tệp âm thanh và video thành văn bản), Scribbr (công cụ tạo nội dung), DeepL Translator (công cụ dịch thuật có độ chính xác cao), Adobe Podcast Studio nền tảng để ghi âm, chỉnh sửa và nâng cao âm thanh bằng AI) v.v. Vào tháng 8 năm 2022, hãng tin Reuters thông báo mua lại PLX AI – một đơn vị cung cấp dịch vụ thông tin tài chính dựa trên công nghệ AI 1.
Mặc dù các công cụ AI rất đa dạng ở quy mô hay mức độ chuyên môn hóa, thì về bản chất công nghệ đều có hai điểm chung là công cụ AI được phát triển dựa trên thuật toán và dữ liệu để “huấn luyện” công cụ AI. Ví dụ, để có thể đưa ra kết quả trả lời cho người sử dụng công cụ ChatGPT, thì công ty phát triển công cụ này là OpenAI đã phải sử dụng hàng tỉ đơn vị dữ liệu đầu vào đang không ngừng được mở rộng. Dữ liệu đầu vào cho các nền tảng AI thường là văn bản (như sách, bài viết, báo cáo); hình ảnh (như hình ảnh, tranh vẽ, hình vẽ, thiết kế); âm nhạc và video (như bài hát, video, đoạn clip, đoạn phim, đoạn âm thanh); phần mềm và cơ sở dữ liệu (như mã nguồn, cơ sở dữ liệu).
2. Đến mối lo ngại về vấn đề kiểm soát Đạo đức khi sử dụng AI trong truyền thông
Không thể phủ nhận những tiện ích mà các công cụ AI mang lại và với mức độ cập nhật công nghệ nhanh chóng, càng ngày sẽ càng có thêm nhiều công cụ AI theo hướng chuyên môn hóa đến mọi ngóc ngách, đáp ứng những tác vụ từ đơn giản đến phức tạp trong ngành truyền thông. Bên cạnh sự phát triển choáng ngợp này, xuất hiện nhiều câu hỏi đặt ra cho vấn đề kiểm soát Đạo đức trong việc phát triển và sử dụng công cụ AI trong ngành truyền thông? Điều gì sẽ xảy ra nếu thuật toán và dữ liệu của công cụ AI đó được thao túng theo hướng có hại cho cộng đồng? Ai là người đảm bảo quyền sở hữu trí tuệ cho kho dữ liệu đầu vào mà công cụ AI đó sử dụng để huấn luyện? Ai là người đánh giá mức độ gây hại của chúng?
Có hay không sự bất bình đẳng giữa nhóm người có điều kiện sử dụng và nhóm không có điều kiện sử dụng công cụ AI trong cùng một tác vụ nào đó? Thậm chí, đã có những câu hỏi được đặt ra cho khả năng tiềm tàng mức độ nguy hại mất kiểm soát đến từ các công cụ AI đặc biệt trong những lĩnh vực nhạy cảm có thể tác động đến nhiều người trên quy mô lớn như truyền thông và mạng xã hộ
Mới đây nhất, khi trận bão Yagi đã gây ra những thiệt hại vô cùng to lớn cho miền Bắc. Cả nước cùng chung tay để trợ giúp bà con nhanh chóng khắc phục hậu quả của bão lũ. Trên mạng đã lan truyền hình ảnh rất đẹp của một anh bộ đội bế cháu bé. Và VTV cũng đã xác minh đó không phải là hình ảnh thật mà là ảnh do AI tạo ra.
VTV đã xác minh đó không phải là hình ảnh thật mà là ảnh do AI tạo ra. |
Nhận thức được mối lo ngại trên, nhiều tổ chức, hiệp hội, chính phủ và thậm chí ngay cả các công ty và tập đoàn phát triển công cụ AI cũng đã lần lượt đưa ra những khuyến cáo, những thông tin giải trình, và cao hơn là những Bộ quy tắc ứng xử liên quan đến Vấn đề kiểm soát Đạo đức trong công nghệ AI. Được 193 quốc gia thông qua vào năm 2021, Tuyên bố Ethics of Artificial Intelligence -The Recommendation (tạm dịch – Khuyến nghị về Vấn đề Đạo đức trong Trí tuệ nhân tạo) của UNESCO - Tổ chức Giáo dục, Khoa học và Văn hóa của Liên hiệp quốc, ghi rõ “Sự gia tăng nhanh chóng của trí tuệ nhân tạo (AI) đã tạo ra nhiều cơ hội trên toàn cầu, từ việc hỗ trợ chẩn đoán chăm sóc sức khỏe đến việc cho phép kết nối con người thông qua phương tiện truyền thông xã hội và tạo ra hiệu quả lao động thông qua các nhiệm vụ tự động. Tuy nhiên, những thay đổi nhanh chóng này cũng làm dấy lên những lo ngại sâu sắc về mặt đạo đức.. Những rủi ro như vậy liên quan đến AI đã bắt đầu chồng chất lên các bất bình đẳng hiện có, dẫn đến tổn hại hơn nữa đối với các nhóm vốn đã bị thiệt thòi…”. Và từ đó “yêu cầu UNESCO đưa ra các công cụ hỗ trợ các quốc gia thành viên, bao gồm Phương pháp đánh giá mức độ sẵn sàng, một công cụ để các chính phủ xây dựng bức tranh toàn diện về mức độ sẵn sàng của họ trong việc triển khai AI một cách có đạo đức và có trách nhiệm cho tất cả công dân của mình..2
Trong cách tiếp cận toàn cầu của mình, UNESCO đưa ra chương trình Global AI Ethics and Governance Observatory (tạm dịch – Sáng kiến Quan sát Đạo đức và Quản trị AI Toàn cầu) trong đó nhấn mạnh Sáng kiến này “giới thiệu thông tin về mức độ sẵn sàng của các quốc gia trong việc áp dụng AI một cách có đạo đức và có trách nhiệm. Sáng kiến cũng tổ chức Phòng thí nghiệm Đạo đức và Quản trị AI, nơi tập hợp các đóng góp, nghiên cứu có tác động, bộ công cụ và các hoạt động thực hành tích cực trong nhiều vấn đề liên quan đến đạo đức AI...”3
Bên cạnh những tổ chức toàn cầu như UNESCO, nhiều hiệp hội nghề nghiệp cũng đang nỗ lực đưa ra những bộ quy chuẩn của riêng mình, ví dụ IABC - Hiệp hội Truyền thông Kinh doanh Quốc tế, một hiệp hội với hàng nghìn thành viên từ khắp nơi trên thế giới, đưa ra Bộ Nguyên tắc hướng dẫn sử dụng AI có đạo đức của các chuyên gia truyền thông, nhằm mục đích hướng dẫn các thành viên của IABC về sự liên quan của Bộ quy tắc đạo đức của IABC đối với trí tuệ nhân tạo tạo AI. Các Nguyên tắc hướng dẫn này có thể được cập nhật và bổ sung theo thời gian song song với sự phát triển của công nghệ AI. Trong Bộ Nguyên tắc này, có rất nhiều điểm cụ thể mà một chuyên gia truyền thông nên tuân thủ như:
“Các nguồn lực AI được sử dụng phải do con người điều hành để tạo ra những trải nghiệm tích cực và minh bạch, mang lại sự tôn trọng và tạo dựng lòng tin vào nghề truyền thông. Cần phải luôn cập nhật về các cơ hội và rủi ro nghề nghiệp mà các công cụ AI mang lại. Cần truyền đạt thông tin chính xác, khách quan và công bằng. Các công cụ AI có thể gặp phải nhiều lỗi, sự không nhất quán và các vấn đề kỹ thuật khác. Điều này đòi hỏi sự phán đoán của con người để xác minh độc lập rằng nội dung do AI tạo ra của tôi là chính xác, minh bạch và không đạo văn.
Bảo vệ thông tin cá nhân và hoặc thông tin bí mật của người khác và sẽ không sử dụng thông tin này nếu không có sự cho phép của họ. Đánh giá các đầu ra AI của mình dựa trên sự tham gia và hiểu biết của con người về cộng đồng mà đang hướng đến phục vụ. Loại bỏ sự thiên vị theo khả năng tốt nhất của mình và nhạy cảm với các giá trị và niềm tin văn hóa của người khác.
Phải tự mình kiểm tra thực tế và xác minh các đầu ra của mình với sự nghiêm ngặt chuyên nghiệp cần thiết để đảm bảo rằng tài liệu, thông tin hoặc tài liệu tham khảo của bên thứ ba là chính xác, có sự ghi nhận và xác minh cần thiết và được cấp phép đầy đủ hoặc có sự cho phép sử dụng. Không cố gắng che giấu hoặc ngụy tạo việc sử dụng AI trong đầu ra chuyên nghiệp của mình. Thừa nhận bản chất nguồn mở của AI và các vấn đề liên quan đến tính bảo mật, bao gồm cả việc nhập thông tin sai lệch, lừa dối hoặc gây hiểu lầm..” 4
Thế còn những công ty, tập đoàn sở hữu, phát triển và kinh doanh công cụ AI thì sao? Về bản chất công nghệ, hơn ai hết họ là những người hiểu rõ tường tận “trong chăn có rận gì”, họ biết rõ thuật toán nền tảng mà trên đó công cụ AI vận hành, những dữ liệu mà từ đó công cụ AI được huấn luyện. Bởi vậy, các công ty này cũng cần đưa ra những thông tin liên quan đến nguyên tắc Đạo đức trong phát triển AI. Thực tế, đã có những công ty quan tâm đến vấn đề này. Ví dụ, người khổng lồ BigTech là Google đã đưa ra Bộ Nguyên tắc Trách nhiệm. Trong đó Google nhấn mạnh “Mặc dù chúng tôi lạc quan về tiềm năng của AI, chúng tôi nhận ra rằng các công nghệ tiên tiến có thể đặt ra những thách thức quan trọng cần được giải quyết một cách rõ ràng, chu đáo và khẳng định. Các Nguyên tắc AI này mô tả cam kết của chúng tôi trong việc phát triển công nghệ một cách có trách nhiệm và nỗ lực thiết lập các lĩnh vực ứng dụng cụ thể mà chúng tôi sẽ không theo đuổi”5. Theo đó:
Google cam kết không phát triển các công cụ AI phục vụ các lĩnh vực “Các công nghệ gây ra hoặc có khả năng gây ra tác hại chung. Khi có nguy cơ gây hại đáng kể, chúng tôi sẽ chỉ tiến hành khi chúng tôi tin rằng lợi ích lớn hơn đáng kể so với rủi ro và sẽ kết hợp các ràng buộc an toàn phù hợp. Vũ khí hoặc các công nghệ khác có mục đích chính hoặc việc triển khai là gây ra hoặc trực tiếp tạo điều kiện gây thương tích cho con người. Các công nghệ thu thập hoặc sử dụng thông tin để giám sát vi phạm các chuẩn mực được quốc tế chấp nhận. Các công nghệ có mục đích vi phạm các nguyên tắc được chấp nhận rộng rãi của luật pháp quốc tế và nhân quyền.”5
Khẳng định các công cụ AI của mình được phát triển để “Có lợi cho xã hội. Khi chúng tôi xem xét khả năng phát triển và sử dụng các công nghệ AI, chúng tôi sẽ tính đến nhiều yếu tố xã hội và kinh tế, và sẽ tiến hành khi chúng tôi tin rằng lợi ích tổng thể có thể vượt xa những rủi ro và nhược điểm có thể lường trước được”. Và “Chúng tôi sẽ nỗ lực cung cấp thông tin chất lượng cao và chính xác một cách dễ dàng bằng AI, đồng thời tiếp tục tôn trọng các chuẩn mực văn hóa, xã hội và pháp lý tại các quốc gia nơi chúng tôi hoạt động. Và chúng tôi sẽ tiếp tục đánh giá một cách chu đáo thời điểm cung cấp các công nghệ của mình trên cơ sở phi thương mại” cũng như “Tránh tạo ra hoặc củng cố thành kiến không công bằng... Chúng tôi sẽ tìm cách tránh những tác động bất công đối với mọi người, đặc biệt là những tác động liên quan đến các đặc điểm nhạy cảm như chủng tộc, dân tộc, giới tính, quốc tịch, thu nhập, khuynh hướng tình dục, khả năng và niềm tin chính trị hoặc tôn giáo”5.
Về khía cạnh bảo mật và an toàn, Google cam kết “Chúng tôi sẽ tiếp tục phát triển và áp dụng các biện pháp an toàn và bảo mật mạnh mẽ để tránh những kết quả không mong muốn tạo ra rủi ro gây hại. Chúng tôi sẽ thiết kế các hệ thống AI của mình để thận trọng một cách thích hợp và tìm cách phát triển chúng theo các biện pháp tốt nhất trong nghiên cứu về tính an toàn của AI. Chúng tôi sẽ kết hợp các nguyên tắc bảo mật của mình vào quá trình phát triển và sử dụng các công nghệ AI của mình. Chúng tôi sẽ tạo cơ hội để thông báo và đồng ý, khuyến khích các kiến trúc có biện pháp bảo vệ quyền riêng tư và cung cấp sự minh bạch và kiểm soát phù hợp đối với việc sử dụng dữ liệu”5.
Trên mạng đã lan truyền hình ảnh rất đẹp của một anh bộ đội bế cháu bé. Và VTV cũng đã xác minh đó không phải là hình ảnh thật mà là ảnh do AI tạo ra. |
Tương tự Google, thì Microsoft cũng đưa ra tuyên bố về Bộ Nguyên tắc và cách tiếp cận công nghệ AI, trong đó nhấn mạnh “Chúng tôi cam kết đảm bảo các hệ thống AI được phát triển một cách có trách nhiệm và theo cách đảm bảo sự tin tưởng của mọi người...”5. Ngoài ra bằng cách này hay cách khác, những công ty công nghệ lớn đang đầu tư mạnh mẽ phát triển công cụ AI như Amazon, OpenAI cũng đưa ra những cam kết của riêng mình.
Lời kết
Rất nhiều ví dụ trong lịch sử đã chứng minh tính hai mặt của công nghệ, có yếu tố tích cực và song hành với nó là yếu tố tiêu cực. Suy cho cùng, dù là nền tảng công nghệ rất “hightech” nhưng AI vẫn dựa trên những thuật toán và dữ liệu được phát triển và thu thập bởi con người; đồng thời hầu hết những sản phẩm AI là một phần trong kế hoạch kinh doanh của những công ty sở hữu nó. Do vậy, luôn tiềm ẩn những rủi ro đến từ mặt kỹ thuật cũng như từ chính đội ngũ phát triển và quản lý sản phẩm. Vấn đề đặt ra ở đây là quy mô tác động có thể rất lớn của những công cụ AI đối với số đông, thậm chí trên cả bình diện kinh tế - xã hội của một cộng đồng. Việc kiểm soát Đạo đức khi sử dụng công nghệ AI được quan tâm kịp thời là một tín hiệu đáng mừng với sự vào cuộc của các tổ chức quốc tế quy mô lớn như Liên Hiệp quốc, hay các chính phủ, rồi đến Hiệp hội ngành nghề và hơn hết là ở ngay tại những đơn vị phát triển công nghệ. Mặc dù vậy, cũng như danh sách công cụ AI liên tục tung ra phiên bản mới, cái sau tinh vi và phức tạp hơn cái trước, thì những Bộ Quy tắc, Nguyên tắc hay Hướng dẫn cũng cần được cập nhật và bổ sung kịp thời, hơn thế nữa cần phải đi trước để phòng ngừa, giới hạn và kiểm soát những đơn vị phát triển sản phẩm và những người sử dụng trong khuôn khổ mà ở đó khả năng tuân thủ Kiểm soát Đạo đức trong công nghệ AI nói chung và những người làm truyền thông nói riêng đạt được hiệu quả cao nhất.
Chú thích:
1. https://www.reutersagency.com/en/media-center/reuters-welcomes-plx-ai/
2. https://www.unesco.org/en/articles/recommendation-ethics-artificial-intelligence
3. https://www.unesco.org/ethics-ai/en
4. https://www.iabc.com/About/Purpose/Ethical-Use-of-AI
5. https://ai.google/responsibility/principles/
-------------
Bài viết cùng chuyên mục: