Hình ảnh minh họa cho lời kêu gọi đối xử với AI như vũ khí sinh học. (Nguồn: gizmodo.com) |
Trong bài viết Hãy đối xử với AI như vũ khí sinh học, không phải vũ khí hạt nhân của Emilia Javorsky, nhà khoa học-bác sĩ, Giám đốc Viện Tương lai cuộc sống (Mỹ), tác giả cho rằng, bất chấp việc gần đây thế giới liên tục so sánh AI với bom hạt nhân, có một cách tiếp cận khác phù hợp hơn, đó là điều chỉnh loại công nghệ này như vũ khí sinh học hay công nghệ sinh học.
Tin liên quan |
Sắp nhận vũ khí Mỹ, Saudi Arabia bàn chuyện gì với Nga? |
Theo tác giả, AI có lẽ là loại công nghệ mạnh mẽ nhất trong lịch sử nhân loại mà con người ngày nay đang phát triển. Tác hại của AI, bao gồm phân biệt đối xử, đe dọa tính dân chủ và tập trung ảnh hưởng, đã được ghi chép lại đầy đủ.
Tuy nhiên, các công ty AI hàng đầu vẫn đang chạy đua để xây dựng các hệ thống AI ngày càng mạnh mẽ, làm leo thang rủi ro với tốc độ chưa từng thấy trong lịch sử loài người.
Khi lãnh đạo các nước vật lộn tìm cách ngăn chặn, kiểm soát sự phát triển của AI cũng như các rủi ro liên quan, họ cần xem xét những điều chỉnh và tiêu chuẩn mà trước đó nhân loại đã tận dụng để sáng tạo nó trong quá khứ.
Điều chỉnh và đổi mới có thể cùng tồn tại song song, đặc biệt là khi cuộc sống con người đang bị đe dọa.
Lời cảnh tỉnh từ công nghệ hạt nhân
Mặc dù năng lượng hạt nhân an toàn hơn dầu mỏ đến hơn 600 lần nếu xét về tỷ lệ tử vong và có hiệu suất khổng lồ, nhưng ít quốc gia động đến nó vì những hậu quả mà họ thấy được từ cách tiếp cận lâu nay về hạt nhân.
Thế giới biết về công nghệ hạt nhân dưới dạng bom nguyên tử và bom khinh khí. Với những loại vũ khí này, lần đầu tiên trong lịch sử, con người phát triển một công nghệ có khả năng chấm dứt nền văn minh nhân loại, là sản phẩm của một cuộc chạy đua vũ trang ưu tiên tốc độ và đổi mới sáng tạo hơn là sự an toàn và kiểm soát.
Những thất bại tiếp theo về an toàn kỹ thuật và quản lý rủi ro, nổi tiếng là nguyên nhân dẫn đến thảm họa hạt nhân tại Chernobyl và Fukushima, phá hủy mọi cơ hội khiến con người có thể chấp nhận mặt tích cực của năng lượng hạt nhân.
Bất chấp việc đánh giá rủi ro tổng thể của năng lượng hạt nhân vẫn rất thuận lợi và thời gian hàng thập kỷ các nhà khoa học vẫn nỗ lực để thuyết phục thế giới về khả năng tồn tại của nó, khái niệm 'hạt nhân' vẫn bị …vấy bẩn.
Khi một công nghệ gây ra tác hại trong các giai đoạn mới hình thành, nhận thức xã hội và phản ứng thái quá theo đó có thể làm hạn chế vĩnh viễn lợi ích tiềm năng của nó. Do những bước đi sai lầm ban đầu với năng lượng hạt nhân, con người đã không thể tận dụng nguồn năng lượng sạch, an toàn của nó, đồng thời tính trung hòa carbon và ổn định năng lượng vẫn là một giấc mơ khá viển vông.
Cách tiếp cận đúng của công nghệ sinh học
Dù vậy, trong một số lĩnh vực, con người đã làm đúng. Công nghệ sinh học là một lĩnh vực như vậy, được khuyến khích phát triển nhanh chóng trong bối cảnh nhiều bệnh nhân đang phải chịu đựng và nhiều cái chết vẫn diễn ra hàng ngày vì những căn bệnh không có phương pháp điều trị.
Đặc điểm của nghiên cứu này không phải là 'di chuyển nhanh và phá vỡ mọi thứ', mà là đổi mới nhanh nhất và an toàn nhất có thể. Con người giới hạn tốc độ đổi mới trong lĩnh vực này bởi một hệ thống quy định, đạo đức và chuẩn mực nhằm bảo phúc lợi của xã hội và cá nhân, đồng thời bảo vệ ngành công nghiệp này khỏi bị tê liệt bởi những phản ứng dữ dội có thể dẫn đến thảm họa.
Khi cấm vũ khí sinh học tại Công ước vũ khí sinh học trong Chiến tranh Lạnh, các siêu cường đối lập nhau đã thống nhất rằng việc tạo ra những vũ khí này không mang lại lợi ích cho bất kỳ ai. Các nhà lãnh đạo thấy rằng không nên coi những công nghệ khó kiểm soát nhưng rất dễ tiếp cận này là cơ chế để giành chiến thắng trong chạy đua vũ trang mà là mối đe dọa đối với chính nhân loại.
Emilia Javorsky là một trong những nhà khoa học gần đây đã ký vào bức thư ngỏ ủng hộ việc tạm dừng phát triển AI trong sáu tháng. Cô cũng ký vào tuyên bố cảnh báo rằng, AI gây ra “nguy cơ tuyệt chủng” cho nhân loại. |
Việc tạm dừng chạy đua vũ khí sinh học cho phép con người nghiên cứu phát triển nó với tốc độ có trách nhiệm. Các nhà khoa học và cơ quan quản lý áp dụng các tiêu chuẩn nghiêm ngặt đối với bất kỳ cải tiến mới nào có khả năng gây hại cho con người.
Những điều chỉnh này đã không phải trả giá mà còn thiết lập một nền kinh tế sinh học, với nhiều ứng dụng trong các lĩnh vực từ năng lượng sạch đến nông nghiệp.
Trong đại dịch Covid-19, các nhà sinh học đã áp dụng công nghệ mRNA, để cho ra đời những loại vaccine hiệu quả với tốc độ chưa từng có trong lịch sử loài người.
Một cuộc khảo sát gần đây của các nhà nghiên cứu AI cho thấy, 36% người tham gia cảm thấy rằng AI có thể gây ra thảm họa cấp độ hạt nhân. Mặc dù vậy, phản ứng của các chính phủ và các điều chỉnh đang diễn ra khá chậm. Tốc độ này không phù hợp với tốc độ áp dụng công nghệ, điển hình là ứng dụng ChatGPT hiện đã vượt quá 100 triệu người dùng.
Bối cảnh rủi ro khi AI “leo thang” nhanh chóng đã khiến 1.800 CEO và 1.500 giáo sư ở Mỹ gần đây đã ký một lá thư kêu gọi tạm dừng phát triển AI trong sáu tháng, khẩn trương bắt tay vào quá trình điều chỉnh và giảm thiểu rủi ro. Việc tạm dừng này sẽ giúp cộng đồng toàn cầu có thời gian để hạn chế những tác hại do AI gây ra và ngăn chặn nguy cơ có thể gây thảm họa không thể đảo ngược đối với xã hội của chúng ta.
Khi đánh giá rủi ro và tác hại tiềm tàng của AI, chúng ta đồng thời phải tính toán, tránh để mất những tiềm năng tích cực của công nghệ này. Nếu phát triển AI một cách có trách nhiệm ngay từ bây giờ, chúng ta sẽ khai thác được những lợi ích đáng kinh ngạc từ công nghệ này. Ví dụ, lợi ích của việc áp dụng AI trong khám phá và phát triển thuốc, cải thiện chất lượng và chi phí chăm sóc sức khỏe, đồng thời tăng khả năng tiếp cận bác sĩ và điều trị y tế.
DeepMind của Google đã chỉ ra rằng AI có khả năng giải quyết các vấn đề cơ bản trong sinh học mà từ lâu con người đã né tránh. Theo nghiên cứu, AI có thể đẩy nhanh việc đạt được mọi Mục tiêu phát triển bền vững của Liên hợp quốc, đưa nhân loại hướng tới một tương lai mà ở đó sức khỏe, công bằng, thịnh vượng và hòa bình được cải thiện.
Đây là thời điểm để cộng đồng toàn cầu xích lại gần nhau, giống như cách đây 50 năm tại Công ước vũ khí sinh học, để bảo đảm sự phát triển AI là an toàn và có trách nhiệm. Nếu không hành động sớm, chúng ta có thể sẽ hủy diệt tương lai tươi sáng với AI cũng như xã hội hiện tại của chính chúng ta.