Đặc biệt là sự kiện vào ngày 22/3, sau 2 tuần OpenAI ra mắt phiên bản GPT-4, một tổ chức phi lợi nhuận chuyên nghiên cứu và đánh giá những tác động của công nghệ tiên tiến là Viện Cuộc sống tương lai (Future of Life Institute - FLI) đã kêu gọi tất cả trung tâm nghiên cứu, phát triển AI tạm dừng hoạt động đào tạo, huấn luyện các hệ thống AI để có sức mạnh lớn hơn GPT-4 ít nhất trong vòng 6 tháng [1].
Tuy nhiên, ngay sau đó 1 tuần, một nhà nghiên cứu hàng đầu về Khoa học ra quyết định và AI của Viện MIRI (Machine Intelligence Research Institute) là Eliezer Yudkowsky, đã công bố trên Thời báo Time rằng việc tạm dừng phát triển các hệ thống AI lớn là chưa đủ, chưa đánh giá đúng mức độ rủi ro của chúng mà cần phải chấm dứt các hoạt động này [2], một thử nghiệm sai lầm cũng có thể hủy diệt nhân loại và không có cơ hội để thử lại. Vậy thực tế về mức độ rủi ro, nguy hại của AI ra sao? Có cần thiết phải cấm toàn bộ các hoạt động nghiên cứu, phát triển AI hay không?
AI đã và đang được xem là xu hướng công nghệ của Thế kỷ XXI, là công nghệ trụ cột của Cuộc cách mạng công nghiệp 4.0 cũng như các quá trình chuyển đổi số. Trên thế giới, việc đầu tư nghiên cứu, làm chủ AI còn được xem là yếu tố cạnh tranh chính trị quan trọng của các nước lớn. Tại Việt Nam, AI được Chính phủ đưa vào danh mục công nghệ ưu tiên nghiên cứu, phát triển và ứng dụng để chủ động tham gia Cuộc cách mạng 4.0 [3] và triển khai chuyển đổi số quốc gia. Chính phủ cũng ban hành Chiến lược quốc gia về nghiên cứu, phát triển và ứng dụng Trí tuệ nhân tạo đến năm 2030 nhằm từng bước đưa Việt Nam thành điểm sáng về AI trong khu vực và trên thế giới.
Sự phát triển của AI đã mang lại những tiện ích đáng kể cho con người. Từ xe tự lái, trợ lý ảo, hệ thống giải quyết các vấn đề phức tạp như dịch vụ tư vấn và phân tích dữ liệu. AI đã thể hiện sự đột phá vượt trội và tiềm năng mở ra nhiều cơ hội đáng kinh ngạc. Công nghệ này có thể nhanh chóng xử lý và phân tích lượng dữ liệu khổng lồ, giúp chúng ta đưa ra quyết định ngày càng thông minh và hiệu quả hơn trong nhiều lĩnh vực, từ y tế, khoa học đến kinh doanh và quản lý. AI cũng đã đóng vai trò quan trọng trong việc cải thiện chất lượng cuộc sống, như tăng cường an ninh, nâng cao trải nghiệm người dùng và giảm thiểu tác động tiêu cực đến môi trường.
Tuy nhiên, sự phát triển nhanh chóng của AI, đặc biệt là khả năng tự động hoá, tự thu thập dữ liệu, tự học và tự nâng cấp của AI cũng đặt ra những thách thức và nguy cơ tiềm ẩn. Sự trao đổi giữa con người và máy móc có thể tạo ra sự mất cân bằng về quyền lợi, đe dọa sự riêng tư, an ninh thông tin cá nhân và an ninh quốc gia. Ngoài ra, nếu không có sự quản lý và kiểm soát thích hợp, AI có thể tạo ra những hệ quả không mong muốn và gây hậu quả không thể lường trước đối với xã hội và con người.
Cũng vì lý do đó mà sau đúng 3 tháng kể từ ngày FLI ra lời kêu gọi tạm dừng huấn luyện nâng cấp các hệ thống siêu AI, đã có hơn 33.000 người tham gia ký tên vào danh sách hưởng ứng, trong đó có nhiều chính trị gia, nhà khoa học, chủ tập đoàn nổi tiếng trên khắp thế giới như: Chủ tịch hãng Tesla, ông Elon Musk; đồng sáng lập Apple, ông Steve Wozniak hay Giám đốc điều hành Center for Humane Technology, ông Tristan Harris,...
Các rủi ro và nguy cơ tiềm ẩn của AI giờ đây không chỉ xuất hiện trong những bộ phim khoa học viễn tưởng nổi tiếng trong nhiều năm qua như: Sự lổi loạn của máy HAL 9000 trong A Space Odyssey; Cuộc chiến giữa con người và robot trong The Matrix, hay sự lột xác của Will Caster trong phim Transcendence,… mà còn được các nhà khoa học, các chính trị gia trên toàn thế giới phản ánh liên tục trong thời gian gần đây.
Trong quá trình tiến hóa, AI có tiềm năng phát triển một cách tự động và trở nên không kiểm soát, đem lại những nguy cơ tiềm ẩn đối với con người. Giáo sư Stephen Hawking, nhà vật lý học và nhà toán học hàng đầu thế giới đã bày tỏ lo ngại sâu sắc về AI. Ông cho rằng AI có thể tiến hóa đến mức vượt qua khả năng kiểm soát của con người, đe dọa sự tồn tại của loài người.
Khi được trang bị với khả năng học tập và tự điều chỉnh, AI có thể tiến hóa một cách nhanh chóng, trở nên quá thông minh, vượt qua sự hiểu biết và khả năng kiểm soát của con người. Điều này gây ra mối lo ngại về khả năng AI tự động tạo ra những hành động và ra quyết định mà không được kiểm soát hoặc theo dõi bởi con người.
Ngoài ra, một nguy cơ khác là khả năng AI trở thành công cụ đắc lực cho mục đích ác ý hoặc gây hại. Elon Musk, nhà sáng lập SpaceX và Tesla, đồng sáng lập OpenAI, đã thể hiện sự lo ngại về AI và nhận định rằng nếu không có sự kiểm soát thích hợp, AI có thể trở thành “kẻ thù số một của con người”.
Thực tế trong thời gian qua cho thấy, nếu không có những biện pháp kiểm soát và quản lý thích hợp, AI có thể được tội phạm mạng hoặc các tổ chức chính trị sử dụng để thực hiện các hành vi độc hại và chiến tranh mạng, từ việc tạo ra thông tin giả mạo để lừa đảo người dùng cho đến việc xây dựng các công cụ tấn công, xâm nhập vào hệ thống mạng và gây ra sự cố bảo mật, an ninh hệ thống. Các hệ thống AI có thể phát triển những mẫu mã lập trình độc hại và định hướng không mong muốn, gây ra hậu quả nghiêm trọng cho xã hội và con người.
Sự tự động tiến hóa và không kiểm soát của AI cũng tạo ra mối lo ngại về quyền lợi và đạo đức. AI có thể tạo ra sự mất cân bằng về quyền lợi và cung cấp thông tin không chính xác hoặc thiên vị. Hơn nữa, AI có thể gây ra sự phụ thuộc mạnh mẽ từ phía con người và gây ảnh hưởng tiêu cực đến sự tự quyết định và sự đa dạng trong xã hội. Nhà sử học nổi tiếng Yuval Noah Harari cũng rất quan ngại về sự tăng trưởng không kiểm soát của AI cũng như khả năng nó ảnh hưởng đến quyền lực và quyền tự quyết của con người. Ông lưu ý rằng AI có thể thu thập thông tin cá nhân và tạo ra sự phụ thuộc mạnh mẽ từ phía con người, đe dọa sự đa dạng và tự do cá nhân.
Cũng theo Eliezer Yudkowsky thì ranh giới an toàn của các sản phẩm AI là không rõ ràng, các trung tâm nghiên cứu, phát triển AI quy mô lớn có thể vượt qua ranh giới đó mà không hề biết [2]. Rất nhiều nhà khoa học đắm chìm vào việc chạy đua nghiên cứu, phát triển sức mạnh của AI mà không vạch ra giới hạn về năng lực cũng như sức mạnh tính toán của chúng. Con người sẽ bị tuyệt chủng nếu chung sống với một loài có trí thông minh hơn rất nhiều lần. Đối mặt với những nguy cơ này, việc đảm bảo sự kiểm soát, quản lý AI là cực kỳ quan trọng. Chúng ta cần thiết lập những khung pháp lý, quy định để đảm bảo rằng AI được phát triển và triển khai một cách an toàn, tuân thủ các tiêu chuẩn đạo đức và đảm bảo sự đồng thuận và giám sát từ phía con người.
Các quy tắc và chuẩn mực an toàn đóng vai trò quan trọng trong quá trình nghiên cứu, phát triển và triển khai AI. Nó đảm bảo rằng AI được thực hiện một cách đúng đắn, có lợi cho xã hội và loài người. Cụ thể, một số quy tắc và chuẩn mực an toàn cần được áp dụng như:
- Đạo đức và trách nhiệm: Các nhà nghiên cứu và nhà phát triển AI cần tuân thủ các nguyên tắc về đạo đức và trách nhiệm. Điều này đảm bảo rằng AI được sử dụng để tạo lợi ích cho xã hội mà không gây hại cho con người hoặc gây ra các hệ quả không mong muốn. Sundar Pichai, CEO của Google, đã nhấn mạnh rằng chúng ta cần thiết lập những nguyên tắc và hướng dẫn rõ ràng về an toàn và đạo đức trong việc phát triển và triển khai AI, đồng thời đảm bảo sự minh bạch và giám sát từ phía cộng đồng.
- An toàn và độ tin cậy: Các quy tắc an toàn, độ tin cậy cần được xây dựng và tuân thủ trong quá trình phát triển AI. Điều này bao gồm việc đảm bảo rằng AI hoạt động một cách dự đoán và tin cậy, không gây nguy hiểm cho con người hoặc gây rối trong các hệ thống quan trọng. Mark Zuckerberg, CEO của Facebook cho rằng cần thiết phải có quy định và tiêu chuẩn rõ ràng để hướng dẫn việc phát triển và sử dụng AI, cơ quan giám sát có trách nhiệm đảm bảo tuân thủ các tiêu chuẩn này.
- Giám sát và kiểm soát: Cần thiết lập các cơ quan giám sát độc lập để đảm bảo việc áp dụng các quy tắc, chuẩn mực an toàn trong việc phát triển và triển khai AI. Điều này đảm bảo rằng các quy định và hướng dẫn được tuân thủ, có sự giám sát liên tục để đảm bảo an toàn và đúng đắn. Elon Musk đã nhấn mạnh về sự cần thiết của cơ quan giám sát độc lập và quyền lực để đảm bảo rằng AI được phát triển và triển khai một cách an toàn. Ông đã đề xuất việc thành lập một cơ quan giám sát AI có thẩm quyền để giám sát quá trình phát triển, đảm bảo rằng các tiêu chuẩn an toàn được tuân thủ. Đồng quan điểm, Bill Gates, nhà sáng lập Microsoft đã chia sẻ quan ngại của mình về sự phát triển không kiểm soát của AI. Ông nhận định rằng nếu không có sự quản lý và kiểm soát thích hợp, AI có thể gây ra tác động tiêu cực đến việc tạo ra việc làm, đe dọa sự bình đẳng và gây ra những hệ quả không mong muốn cho xã hội.
- Tính minh bạch: Cần đảm bảo sự minh bạch trong quá trình nghiên cứu và phát triển AI. Điều này bao gồm việc công khai thông tin về phương pháp và kết quả nghiên cứu, cung cấp thông tin về việc sử dụng và ảnh hưởng của AI đối với con người và xã hội. Tổng thống Pháp Emmanuel Macron đã đề cao vai trò của cơ quan giám sát trong việc đảm bảo minh bạch, an toàn và trách nhiệm trong lĩnh vực AI. Ông cho rằng cần thiết phải có cơ quan giám sát độc lập có quyền lực để giám sát quá trình phát triển và triển khai AI. Cơ quan giám sát cần có khả năng xác định và giải quyết các vấn đề an toàn, đồng thời đảm bảo sự minh bạch và trách nhiệm trong việc sử dụng AI.
- Đối tác và hợp tác: Sự hợp tác giữa các nhà nghiên cứu, nhà phát triển và cộng đồng quốc tế là cực kỳ quan trọng. Việc chia sẻ thông tin, kinh nghiệm và kiến thức giữa các bên giúp đảm bảo rằng các quy tắc, chuẩn mực an toàn được áp dụng một cách toàn diện, hiệu quả. Tổng thống Joe Biden đã đề cao tầm quan trọng của hợp tác đa phương trong việc phát triển AI an toàn. Ông nhấn mạnh rằng cần thiết phải xây dựng một sự hợp tác rộng lớn giữa các quốc gia, công ty và tổ chức để đảm bảo rằng AI phát triển một cách có trách nhiệm và đáng tin cậy. Cũng đồng quan điểm, Thủ tướng Canada Justin Trudeau, Tổng thống Pháp Emmanuel Macron và Cựu Thủ tướng Đức Angela Merkel đã nhấn mạnh tầm quan trọng của sự hợp tác giữa chính phủ, các tổ chức quốc tế và các nhà nghiên cứu trong việc phát triển AI an toàn. Theo đó, cần thiết phải có một nền tảng hợp tác để chia sẻ kiến thức và tài nguyên rồi cùng đưa ra các phương pháp và quy định an toàn trong việc sử dụng AI trên phạm vi toàn cầu.
Trong bài “5 thế giới của AI”, Scott Aaronson và Boaz Barak đã mô tả 2 thế giới mà AI được phát triển theo nghĩa tiêu cực là: Xã hội AI đen tối (AI[1]Dystopia), theo đó đa phần con người bị kiểm soát chặt chẽ bằng công cụ AI và xã hội AI trở lên vượt bậc để rồi xóa bỏ loài người (Paperclipalypse) [4]. Mặc dù mới dừng ở mức các giả thiết và cũng chưa xác định được xác suất xảy ra của mỗi thế giới, nhưng đây cũng là một trong những hồi chuông cảnh báo rất rõ ràng để các nhà khoa học, các tổ chức chính phủ và doanh nghiệp, cùng các chính trị gia hãy quan tâm về các quy tắc và chuẩn mực an toàn trong phát triển, triển khai AI hơn là phát triển năng lực, sức mạnh của AI.
Tác giả bài viết: ts.Nguyễn như tuấn
Nguồn tin: antoanthongtin
Ý kiến bạn đọc
Những tin mới hơn
Những tin cũ hơn
Trung tâm Công nghệ thông tin và Truyền thông Sơn La, được thành lập từ 20/12/2004, tại Quyết định số 189/2004/QĐ-UB, của UBND tỉnh Sơn La, tiền thân là Trung tâm tin học trực thuộc Văn phòng UBND tỉnh Sơn La. Chính thức được đổi tên thành Trung tâm Công nghệ thông tin và Truyền thông tỉnh Sơn La từ...