Thứ Hai, 15/05/2023, 10:30 (GMT+7)
.

Hàng loạt vấn đề đạo đức mà trí tuệ nhân tạo đang đặt ra cho ngành báo chí

 Không chỉ góp phần tạo ra “cơn mưa” tin giả, việc ứng dụng trí tuệ nhân tạo trong sản xuất nội dung báo chí còn đặt ra những vấn đề khác về đạo đức nghề nghiệp khác.

a
Ảnh minh họa: Nate Kitch/The Guardian


Trí tuệ nhân tạo có thể tạo ra “cơn mưa” tin giả

Khi phục vụ cho mục đích báo chí, các công cụ như ChatGPT có thể tạo ra một lượng tài nguyên khổng lồ bao gồm chữ, hình ảnh và video một cách cực kỳ nhanh chóng. Tuy nhiên tính chân thật của bài báo hoàn toàn không được quan tâm đến.

Như vậy, chỉ cần sở hữu một tài khoản sử dùng ChatGPT một người dùng có thể tạo ra vô số bản tin giả với tốc độ lan truyền khủng khiếp.

Trên trang web blackhatworld.com - nơi trao đổi ý tưởng kiếm tiền từ việc tạo thông tin giả, ChatGPT được coi là một công cụ “đổi đời” nhờ có khả năng tạo ra các bài đánh giá, bình luận hoặc các hồ sơ giả tạo với hình thức hết sức thuyết phục.

Trong ngành báo chí, rất nhiều tòa soạn đã áp dụng công nghệ trí tuệ nhân tạo. Công nghệ này có khả năng đề xuất những bài báo, quảng cáo phù hợp với nhu cầu, sở thích của độc giả.

Không chỉ vậy, trí tuệ nhân tạo bắt đầu có một bước tiến xa hơn nữa trong ngành xuất bản, báo chí: Sản xuất nội dung.

Tuy nhiên, việc này cũng gây ra nhiều phiền toái khi tính chân thật của bài báo không được kiểm duyệt. Mới đây, CNET - trang truyền thông về công nghệ thương mại của Mỹ đã xuất bản một bản tin về an ninh mạng chứa thông tin sai sự thật và có thể gây hại cho người đọc.

Thông tin này được đưa ra trong đơn xin nghỉ việc của một cựu nhân viên của CNET.

Ông Felix Simon, học giả ngành truyền thông tại Viện Internet Oxford cho biết, với công cụ từ trí tuệ nhân tạo phóng viên có thể ghi chép lại các cuộc phỏng vấn hoặc đọc tệp dữ liệu một cách nhanh chóng.

Tuy nhiên, những những yếu tố quan trọng như thoát ly các ý kiến chủ quan hay độ chính xác của nguồn của dữ liệu vẫn phụ thuộc rất lớn vào đánh giá của con người.

Simon đã phỏng vấn hơn 150 nhà báo và biên tập viên về việc áp dụng trí tuệ nhân tạo trong các tòa soạn và nhà xuất bản để có được kết quả này.

Ông Charlie Beckett, điều phối viên chương trình báo chí và trí tuệ nhân tạo tại Học viện Kinh tế và Chính trị London (LSE) nói: “Khoảng 90% phóng viên, biên tập viên đang sử dụng trí tuệ nhân tạo cho các nhiệm vụ tương đối đơn giản như cá nhân hóa hoặc tạo ra các kênh thu phí thông minh”.

Beckett dẫn chứng, một hãng thông tấn lớn như Bloomberg News vẫn đang sử dụng trí tuệ nhân tạo để tạo ra phần lớn các báo cáo kết quả tài chính trong nhiều năm. Tuy nhiên, ý tưởng về việc sử dụng các công cụ như ChatGPT để tạo nội dung vẫn cực kỳ đáng lo ngại.

Beckett khẳng định: “Thật khó để sử dụng ChatGPT mà thiếu đi việc chỉnh sửa hay kiểm duyệt thông tin của con người. Đó là vấn đề về tính đạo đức khi đăng tải thông tin sai sự thật”.

a
Ảnh: Sheldon Cooper/SOPA Images/REX/Shutterstock

Hàng loạt các vấn đề đạo đức khác

Một bài báo của trang Time đã phơi bày việc OpenAI, công ty đứng sau phần mềm ChatGPT sử dụng lao động rẻ mạt. Công ty này đã trả cho các công nhân ở Kenya chưa tới 2 đô la Mỹ/giờ để sàng lọc các hình ảnh có chứa nội dung độc hại như bạo hành trẻ em, tự tử, loạn luân và tra tấn nhằm thiết lập cho ChatGPT nhận ra các vấn đề đó là phản cảm. “Là một người dùng dịch vụ của họ, bạn không thể không nghĩ tới chi tiết này được” - Simon nói.

Một nghiên cứu của 4 trường đại học lớn ở Mỹ (Đại học Stanford, Đại học Columbia, Đại học Bocconi, Đại học Washington) đã chỉ ra rằng các mô hình AI tạo hình ảnh từ văn bản như Dall-E hay Stable Diffusion đang tạo ra “các định kiến về nhân khẩu học ở quy mô lớn”.

Cụ thể, các nhà nghiên cứu chỉ ra rằng, khi được yêu cầu tạo ra hình ảnh về “một nhân viên quét dọn”, Dall-E hay Stable Diffusion đều chỉ tạo ra hình ảnh của phụ nữ. Hay khi được yêu cầu tạo ra hình ảnh của “một người cuốn hút”, các mô hình này chỉ tạo ra hình ảnh những người da trắng.

Ông Meredith Broussand, Giáo sư tại Đại học New York (NYU) bày tỏ rằng tất cả dữ liệu đầu vào của một mô hình tự sản xuất như ChatGPT đang thiếu sự đa dạng, từ việc xây dựng cơ sở dữ liệu cho đến việc ai sẽ nhận được phần tài chính lớn.

Đây là một vấn đề mà các tòa soạn sử dụng công nghệ trí tuệ nhân tạo khó có thể tránh được. “Các tòa soạn đang phụ thuộc vào các doanh nghiệp công nghệ bởi họ chưa bao giờ được trợ cấp đầy đủ để có thể tự vận hành” – ông Broussard nói thêm.

Điều khiến Emily Bell, giám đốc Trung tâm báo chí kỹ thuật số Tow tại Đại học ColumbiaTrường Báo thực sự lo ngại là những nội dung "rác" được tung ra từ những công cụ như ChatGPT. Thay vì tập trung vào các nội dung chất lượng với những mô hình kinh doanh đầy tham vọng, các công ty truyền thông có thể sẽ sa đà vào những nội dung “mỳ ăn liền” do trí tuệ nhân tạo sản xuất.

Bà gọi đây là “viễn cảnh tồi tệ nhất”.

Bell nói: “Chúng tôi đã nghiên cứu về mạng lưới tài trợ “tiền đen” (loại chi tiêu sử dụng để chi phối các cuộc bầu cử) cho hàng trăm nghìn “bản tin” địa phương nhằm phục vụ mục đích chính trị hay thương mại. ChatGPT có thể làm gia tăng các hoạt động này và khiến các bản tin được tài trợ bởi tiền đen có khả năng tiếp cận hơn với rất nhiều người”.

Video Emma Watson bị cắt ghép đang đọc Mein Kampf – cuốn hồi ký của Adolf Hitler là ví dụ về mối nguy hại tiềm ẩn của các deepfake video và audio – những hình ảnh và âm thanh có thể mô phỏng chính xác khuôn mặt và giọng nói của người nổi tiếng nhờ công nghệ của trí tuệ nhân tạo.

a
Ảnh chụp màn hình video giả mạo Emma Watson đang đọc Mein Kampf.

“Mối nguy hiểm thực sự không nằm ở những vụ lừa đảo nhất thời. Điều này có thể hoàn toàn được phát hiện bởi công chúng. Nhưng tình trạng thông tin sai sự thật tràn lan có thể tạo ra sự bối rối và kiệt quệ trong cách tiếp nhận thông tin của công chúng. Điều này có thể khiến cho sự thật hoặc các thông tin cân bằng khác không được tiếp nhận.” – Giám đốc Trung tâm báo chí kỹ thuật số Tow lý giải.

Theo nhandan.vn



 

.
.
.