Chúng ta có nên lo lắng về AI Siêu trí tuệ?

Một siêu trí tuệ là một tác nhân giả thuyết sở hữu trí thông minh vượt xa trí tuệ của con người. Một quan điểm gây nhiều tranh cãi đó là một siêu trí tuệ có thể được tạo ra bởi một sự cố “bùng nổ trí tuệ” hoặc liên quan đến điểm kỳ dị của các công nghệ. Trong bài viết này, hãy cùng trituenhantao.io tìm hiểu về siêu trí tuệ AI, liệu chúng ta có nên lo ngại về những thực thể này?

Stephen Hawking là nhân vật đáng chú ý nhất chiến đấu cho quan điểm rằng nhân loại đang bị đe dọa bởi sự phát triển vượt ngoài tầm kiểm soát của AI. AI Siêu trí tuệ hay Trí tuệ nhân tạo siêu năng lực có thể trở thành thực thể quyền năng nhất trên vũ trụ, một thực thể mà con ngươi chưa bao giờ được chứng kiến. Quan điểm này không phải là không có cơ sở khi ngày nay, các thuật toán AI ngày càng trở nên thông minh, có thể ra quyết định chính xác hơn con người ở nhiều công việc khác nhau. Bên cạnh đó, các bộ phim đưa ra những giả thuyết hết sức thuyết phục cho sự tồn tại của siêu trí tuệ.

Các hệ AI ngày nay

Quay trở lại với hiện tại, các hệ thống AI ngày nay có thể được gọi là những hệ ANI – Trí tuệ nhân tạo hẹp. Các hệ thống này được lập trình hoặc trang bị khả năng học tập để thực hiện một chức năng hay một nhiệm vụ cụ thể với bài toán được xác định. Trong miền của bài toán đó, các hệ thống này có thể hoạt động nhanh và chính xác hơn con người gấp nhiều lần. Nếu xét trên một công việc cụ thể thì đây không phải là những thực thể đầu tiên vượt xa khả năng của con người. Chúng ta không thể chạy nhanh hơn ô tô, khuân vác khỏe như cần cẩu hay viết đẹp như máy in nhưng chúng ta chưa bao giờ lo lắng về vị trí thống trị của mình.

Khi nào chúng ta bắt đầu cần lo lắng?

Nhiều quan điểm cho rằng, chúng ta nên bắt đầu lo lắng khi những hệ Trí tuệ nhân tạo tổng quát (AGI) xuất hiện. Các hệ này có thể mô phỏng tốt tư duy của con người và thông minh như con người trong mọi lĩnh vực của tri thức. Nhưng khác với tư duy của con người các hệ này có tốc độ nhanh gấp hàng tỷ lần.

Một cách sinh học, não người có thể thay đổi cấu trúc để phù hợp với các nhiệm vụ tư duy cao cấp hơn. Để thực sự xây dựng được các hệ AGI, con người cần tạo ra và trao quyền cho các hệ thống khả năng tự phủ định và nâng cấp chính mình. Và đây chính xác là thời điểm mà các nhà khoa học lo lắng về sự ra đời của siêu trí tuệ (ASI). Các hệ ANI sẽ dần phát triển thành AGI và nếu không có một cơ chế kiểm soát thích hợp, sự “bùng nổ trí tuệ” sẽ diễn ra vượt khỏi sự kiểm soát của con người.

Liệu chúng ta có thể tắt nguồn của ASI?

Đây là một câu hỏi thú vị, và câu trả lời không còn phụ thuôc vào khả năng của chúng ta. Đơn giản như một virus máy tính được lập trình tốt cũng đã rất khó gỡ bỏ vì nó có những cơ chế lây lan và chiếm quyền kiểm soát. Là một thực thể cao cấp hơn con người, nếu như ASI không muốn chúng ta tắt nguồn nó, xác suất chúng ta có một lựa chọn khác là vô cùng nhỏ nhoi.

Vậy tại sao chúng ta không dừng lại với ANI?

Đây là câu hỏi rất tự nhiên mà mọi người có thể đặt ra. Vấn đề là việc phát triển ANI sẽ đạt tới giới hạn và chúng ta không thể tạo ra những hệ trí tuệ nhân tạo thông minh hơn mà không trao cho chúng quyền tự nâng cấp chính mình. Chúng ta đã chứng kiến cách AlphaGo trở thành thực thể đánh cờ vây số 1 thế giới với những nước đi mà con người không thể hiểu được. Và nếu muốn xây dựng hệ thống tương tự với các bài toán khác, chúng ta cần có cách tiếp cận tương tự, và đó là điều kiện để AGI xuất hiện.

Mọi công nghệ đều có hai mặt. Bên cạnh nguồn năng lượng dồi dào, phản ứng hạt nhân có thể tạo ra những vụ nổ kinh hoàng hoặc những vũ khí hủy diệt. AI không phải là ngoại lệ, nếu như có những người muốn thống trị thế giới thông qua những vũ khí tối tân, điều gì ngăn cản họ tạo nên ASI cho mục đích vị lợi của bản thân?

Lời kết

Mọi sự phát triển của công nghệ đều đi kèm với những rủi ro mà con người không thể lường trước. Tương tự như vậy, một khi ASI ra đời, có thể chúng ta sẽ không có cơ hội để quay ngược lại quá trình. Nhưng dù sao chúng ta vẫn có thể tin rằng bằng một cách nào đó, chúng ta có thể tạo ra những hệ ASI làm cho thế giới tốt đẹp hơn, như chúng ta đã thành công với năng lượng hạt nhân.

Nếu bạn thấy bài viết hữu ích, đừng ngại chia sẻ. Hãy thường xuyên truy cập trituenhantao.io hoặc đăng ký nhận bản tin (ở chân trang) để chúng tôi có thể kịp thời thông báo cho bạn ngay khi một hệ AGI xuất hiện! Hãy đồng hành cùng chúng tôi!

Bạn muốn trích dẫn bài này:
-----
"Chúng ta có nên lo lắng về AI Siêu trí tuệ?," Trí tuệ nhân tạo, Ngày xuất bản: 23/12/2019, URL: https://trituenhantao.io/tin-tuc/chung-ta-co-nen-lo-lang-ve-ai-sieu-tri-tue/, Ngày truy cập: 19/03/2024.