Tại sao quân đội Mỹ muốn AI tự giải thích chính nó?

Hiểu được cách trí tuệ nhân tạo đưa ra quyết định và tại sao chúng ta nên tin tưởng nó, là một điều hiện đã vượt quá sự hiểu biết của con người. Nhưng các chuyên gia đang phát triển một hệ thống giúp AI có thể tự giải thích chính nó bằng cách đơn giản nhất.

Trí tuệ nhân tạo ngày nay đã đủ thông minh để đánh bại con người trong môn cờ vua, hiểu được tiếng nói của con người và thậm chí có thể tự lái xe.

Nhưng có một việc mà các thuật toán máy tính cũng gặp khó khăn, đó là trình bày về cách thức và lý do tại sao chúng lại đưa ra được những quyết định cụ thể.

Nếu chỉ là một trò chơi, thì mọi việc đã dễ dàng, nhưng nếu cần quyết định vào một sự việc quan trọng, thì người dùng cần phải hiểu nguyên lý hoạt động của nó trước khi có thể đặt niềm tin vào.

Nếu AI được sử dụng để đưa ra quyết định về việc bắt đầu hoặc mở rộng khoản vay ngân hàng, thì người dùng muốn đảm bảo rằng thuật toán này không học tập được sự kỳ thị chủng tộc hay giới tính từ xã hội ngoài kia.

Nếu AI được sử dụng để tự lái xe, các kỹ sư sẽ không muốn có bất cứ điểm mù nào có thể đẩy văng nó ra khỏi làn chạy.

Hay nếu AI được sử dụng để chẩn đoán bệnh, bác sĩ và bệnh nhân cần biết được những triệu chứng mà nó xem xét và dựa vào để đưa kết quả.

“Nếu bạn đến bệnh viện để khám bệnh và một bác sĩ nào đó cho biết bạn chỉ còn sống được 6 tháng nữa nhưng không đưa ra bất cứ triệu chứng nào dẫn đến kết luận đó, bạn sẽ có cảm giác không tốt.

Trường hợp AI chẩn đoán bệnh cũng vậy, nó cần phải cho bác sĩ và người bệnh biết được những triệu chứng mà nó khám được,” trợ lý giáo sư Sameer Singh ngành khoa học máy tính tại Đại học California ở Irvine cho biết.

Singh là đồng tác giả của một bài nghiên cứu được đăng tải vào năm ngoái, đề xuất cách thức giúp máy tính tự giải thích nguyên lý hoạt động của nó theo cách dễ nhất mà con người hiểu được.

Hệ thống được ông đề xuất có tên gọi là LIME, làm nổi bật lên những thông tin đầu vào có yếu tố quyết định đến kết quả đầu ra của máy tính.

Một ví dụ được thực hiện trong nghiên cứu, máy tính nhận được yêu cầu phân loại các bài viết trên một diễn đàn Kito Giáo về những người vô thần, nhưng LIME nhận thấy nhiều bài viết có hơi hướng được viết theo các mẫu quảng cáo.

Một AI có thể tự giải thích chính mình sẽ khó khăn để phát triển hơn là một AI có khả năng tự học tập. Đó là mối quan tâm ngày càng tăng của những người trong ngành thương mại, và đặc biệt ở đây là trong quân sự.

Giải thích được về cách các thuật toán đang suy nghĩ sẽ giúp các tướng lãnh dễ dàng hơn trong việc áp dụng trí tuệ nhân tạo vào lực lượng của họ.

Tháng trước, Cơ quan Nghiên cứu dự án Quốc phòng cấp cao Quốc gia Hoa Kỳ (DARPA) đã ký thỏa thuận chính thức với 10 nhóm nghiên cứu trong một chương trình 4 năm trị giá hàng tỷ đô, nhằm thiết kế hệ thống AI có thể tự giải thích hoạt động của mình qua cách thức mà con người có thể dễ dàng hiểu được.

Những AI này sẽ làm việc trên các lĩnh vực khác nhau, từ tự lái xe cho đến phân tích dữ liệu, rồi báo cáo về cách chính mình vận hành.

David Gunning, giám đốc của Văn phòng Đổi mới Thông tin của DARPA cho biết: “Hàng năm, chúng tôi sẽ có một đánh giá quan trọng mà sẽ mang lại lợi ích cho những người dùng sử dụng hệ thống này.”

Gunning cho biết thêm ông cũng đang tưởng tượng rằng vào cuối chương trình, một số dự án sẽ hoàn thành và sẵn sàng cho việc giúp phát triển nhiều hơn nữa mục đích quân sự hay các mục đích khác.

Học tập chuyên sâu, lấy cảm hứng từ mạng neuron trong não người, sử dụng các dữ liệu mẫu để phát triển những ma trận khổng lồ.

Các thuật toán sẽ sử dụng ma trận này để phân tích và phân loại dữ liệu, dù chúng đang đồng thời tìm kiếm khuôn mặt quen thuộc trong đám đông hoặc cố gắng phát hiện ra nước đi tốt nhất trên bàn cờ vua.

Thông thường, chúng xử lý thông tin đầu vào ở mức độ thấp nhất, như các điểm ảnh từ một hình ảnh hoặc các chữ cái từ một văn bản.

Ma trận sẽ cân bằng được lượng thông tin qua những thuật toán phức tạp và đưa ra kết luận sau cùng, đây là một quá trình vượt khả năng tính toán của con người.

“Bởi vì toàn bộ quá trình là không rõ ràng, nên chúng tôi cần tạo ra một thứ có thể hiểu rõ được quá trình này, những thuật toán học sâu để đưa ra kết quả quá trình phân tích giúp con người hiểu được,” Xia Ben Hu, trợ lý giáo sư về khoa học và kỹ thuật máy tính ở Texas A&M, ông cũng là trưởng dự án của một trong 10 nhóm nghiên cứu tham gia chương trình này với DARPA, cho biết.

Một nhóm khác từ nhóm nghiên cứu SRI International thuộc Đại học Standford, lên kế hoạch tạo ra hai hệ thống AI mâu thuẫn hay đối nghịch nhau.

Một AI thì tạo ra dữ liệu cho một công việc cụ thể, trong khi AI còn lại thì phân loại dữ liệu được AI kia tạo ra. Mục đích của việc này là giúp giải thích được cách thức tạo ra dữ liệu của AI cho con người dễ hiểu hơn.

Ngoài ra còn có nhóm MovieQA, họ cho phép AI tiếp cận kho dữ liệu 15.000 câu hỏi trắc nghiệm về phim ảnh và các đoạn clip ngắn có phụ đề, cùng những dạng tập tin khác.

“Bạn có rất nhiều phim kèm phụ đề, kịch bản và nội dung phụ đề là rất nhiều, nhưng hãy đặt một câu hỏi như ‘Ai là đạo diễn phim The Matrix’ cho AI thử xem sao?,” Mohamed Amer, nhà khoa học cao cấp của SRI, cho biết.

Ý tưởng lớn nhất của chương trình này không phải là đáp án chính xác được đưa ra, mà nó làm nổi bật những nguồn thông tin đầu vào được dùng để trả lời câu hỏi, từ đó cho ta biết tại sao AI lại đưa ra câu trả lời như thế.

Quang Niên (Theo fastcompany)