Vì sao cả Stephen Hawking, Bill Gates và Elon Musk đều e ngại trí tuệ nhân tạo và robot?
Stephen Hawking dành cả đời theo khoa học được mệnh danh là "ông hoàng vật lý", Bill Gates thì chuyên tâm về công nghệ - người giàu nhất thế giới, Elon Musk lại là một trong những người thay đổi cả thế giới. Cả 3 người họ, tại sao lại lên tiếng phản đối một thành tựu thuộc lĩnh vực chính mình phát triển nên.
Cả Stephen Hawking, Bill Gates và Elon Musk đều cùng có chung quan điểm không ủng hộ trí tuệ nhân tạo và thường xuyên phản ứng khá gay gắt về một tương lai có chúng.
Không biết lý do đằng sau là gì mà lại đủ để khiến 3 người họ - một nhà khoa học với giải Nobel danh giá trong tay và 2 tỷ phú công nghệ vĩ đại bậc nhất thế giới - lại cảm thấy không thể tin tưởng chúng?
Công nghệ đều là lĩnh vực mà cả 3 người họ hoạt động sâu sát, là những chuyên gia hàng đầu với vốn hiểu biết thâm sâu. Và giờ đây, chính họ lại đang đứng lên chống lại nó.
Họ trở nên thận trọng ngay cả khi những tính toán hiện nay cho rằng phải vài chục năm nữa các cỗ máy thông minh mới đủ tầm được phổ biến hóa, rằng con người sẽ không bao giờ ngu ngốc đến thế đâu, sao có thể giao số phận vào tay máy móc được...
Và sau đây là lý do giải thích cho nỗi sợ của 3 thiên tài này:
"Sớm muộn chúng sẽ không thể bị kiểm soát!"
Đây là nguyên văn lời phát biểu của Stephen Hawking về trí tuệ nhân tạo. Hiện tại robot và máy móc hầu như đều phụ thuộc vào việc ai sẽ là người điều khiển nó, nhưng trong tương lai, đó sẽ là "liệu con người có thể điều khiển chúng không, hay là chúng sẽ thừa sức tự xử lý tình huống".
Trí tuệ nhân tạo như một con dao hai lưỡi, có cả mặt tốt và mặt xấu. Mặt tốt thì chúng ta đã được chứng kiến nhiều, khi chúng được tích hợp vào các bộ máy tìm kiếm, trò chuyện và tương tác với người dùng. Thế còn mặt xấu thì sao, đã ai nghe đến nó nhiều chưa?
Phát biểu trước 60.000 khán giả tại đêm khai mạc Hội nghị Mạng 2017 tổ chức tại Lisbon (Bồ Đào Nha), Stephen Hawking phát biểu: "Công nghệ có thể chữa lành một số "vết thương" do công nghiệp hóa gây ra với Trái Đất, chữa lành nhiều căn bệnh và đẩy lui nghèo đói nhưng trí tuệ nhân tạo (AI) thì cần phải được kiểm soát". Trong một phát biểu khác ông nói: "Trí tuệ nhân tạo có thể là điều tồi tệ nhất lịch sử nhân loại"
Một trong những khía cạnh mà cả 3 người cảm thấy cần phải lên tiếng và cân nhắc nhiều nhất đó là ứng dụng công nghệ này trong chiến tranh. Điều gì sẽ xảy ra khi robot có quyền tự quyết định số phận mạng sống con người mà không cần chỉ thị?
Hiện chưa có luật lệ nào cấm đoán chúng cả, và đến con người đôi khi còn không thể định đoạt cuộc sống của một người khác, chẳng lẽ quyền đó lại dễ dàng trao vào tay máy móc đến thế?
"Trí tuệ nhân tạo sẽ biết tự vệ, tự tồn tại và có tham vọng, phản kháng để lên nắm quyền", Bill Gate nói.
Có một điều mà ngay các các chuyên gia cũng đang phải thừa nhận rằng họ chưa có một phương pháp dự trù nào thật sự chắc chắn hiệu quả cho tình huống bị máy móc vùng lên đấu tranh cả. Họ nghĩ rằng chúng sẽ không như thế, hoặc vẫn chỉ nằm trong vòng tay kiểm soát.
Trong một buổi tọa đàm phỏng vấn Bill Gates được đài BBC đưa tin trước đó, ông phát biểu: "Tôi cảm thấy rất lo ngại về những hệ thống máy móc và trí tuệ nhân tạo siêu thông minh.
Hiện tại thì chúng mới chỉ đang hỗ trợ trong một số ngành nghề và chưa tiên tiến đột phá, nhưng vẫn cần nằm trong vòng kiểm soát chặt chẽ. Vì chỉ cần vài thập kỷ nữa thôi, việc xem xét tiềm năng của nó sẽ là một vấn đề hệ trọng cần cân nhắc kỹ càng. Không hiểu sao có nhiều người còn coi thường và thờ ơ với chúng."
“Tôi đã từng tham gia và theo dõi nhiều dự án phát triển trí tuệ nhân tạo siêu việt. Bước đầu tiên, chúng ta có thể chế tạo những cỗ máy thay thế con người trong các dây chuyền sản xuất hoặc giúp đỡ chúng ta trong những công việc hàng ngày, chúng không phải trí tuệ nhân tạo siêu việt.
Mọi chuyện sẽ tốt đẹp nếu chúng ta có thể quản lý tốt đám máy móc này. Nhưng một vài thập kỷ sau, trí tuệ nhân tạo sẽ phát triển mạnh hơn và khiến chúng ta phải lo ngại. Tôi đồng ý với quan điểm của Elon Musk về trí tuệ nhân tạo và thật khó hiểu khi nhiều người cho rằng lời cảnh báo đó là không đáng lo ngại”.
"Tôi thực sự rất gần với những công nghệ mới của AI. Điều này khiến tôi sợ chết khiếp", Elon Musk nói.
Phát biểu tại liên hoan phim và hội nghị công nghệ SXSW hôm chủ nhật (11/3), tỷ phú Elon Musk nói 2 điều làm ông căng thẳng nhất hiện nay là những khó khăn trong sản xuất xe điện Tesla Model 3 và sự nguy hiểm của trí thông minh nhân tạo (AI).
Ông trích dẫn việc phần mềm AlphaGo của Google, có thể chơi thắng kỳ thủ số một toàn cầu trong Go - trò chơi cổ xưa của Trung Quốc đòi hỏi chiến thuật nhiều nhất thế giới - đầu năm ngoái, như bằng chứng về sự trỗi dậy của máy tính.
Musk cũng dự đoán rằng những tiến bộ trong AI sẽ cho phép xe tự động xử lý được mọi phương thức lái vào cuối 2019. Vị CEO nghĩ rằng chế độ tự động 2.0 của Tesla sẽ an toàn hơn "ít nhất 100-200%" so với xe người lái trong 2 năm tới.
Tốc độ phát triển này khiến Musk vừa hào hứng vừa lo lắng. Ông khẳng định các nước phải quản lý AI để đảm bảo sự an toàn của nhân loại. "Hãy nhớ lời tôi: AI nguy hiểm hơn hạt nhân nhiều", ông khẳng định.
Người sáng lập SpaceX đã chuẩn bị một kế hoạch dự phòng trong trường hợp chiến tranh hạt nhân hoặc AI quét sạch Trái đất: đưa một triệu người lên sao Hỏa "để mang nền văn minh trở lại và có thể rút ngắn độ dài của thời kỳ đen tối".
Trong một báo cáo phát hành mới đây, nhà sản xuất chip ARM của Anh đã cho rằng, tất cả các ngành đều sẽ chịu ảnh hưởng của trí tuệ nhân tạo, từ nông nghiệp tới tài chính, ngân hàng.
Dù không thể phủ nhận những tác động tích cực mà trí tuệ nhân tạo mang lại, như: giúp sản xuất trở nên hiệu quả, an toàn hơn, năng suất cao hơn, mức sống con người được cải thiện, song tổn thất mà nó đem lại cũng rất rõ ràng, đó là 5 triệu việc làm sẽ biến mất vào năm 2020.
Anh Phúc - ICTNews