Monday, September 25, 2023
spot_img

Google sa thải kỹ sư, người cho rằng công nghệ AI của họ là có tri giác

Cali Today News – Google (GOOG) đã sa thải kỹ sư tuyên bố rằng một hệ thống AI chưa được công bố đã trở nên có tri giác, công ty xác nhận, nói rằng anh ta đã vi phạm các chính sách về việc làm và bảo mật dữ liệu.

Blake Lemoine, một kỹ sư phần mềm của Google, tuyên bố rằng một công nghệ đàm thoại có tên là LaMDA đã đạt đến mức độ ý thức sau khi trao đổi hàng nghìn tin nhắn với nó.

Google xác nhận lần đầu tiên họ đã cho kỹ sư này nghỉ việc vào tháng 6. Công ty cho biết họ chỉ bác bỏ những tuyên bố “hoàn toàn vô căn cứ” của Lemoine sau khi xem xét chúng một cách toàn diện. Theo báo cáo, ông đã làm việc tại Alphabet được 7 năm.

Google là một trong những công ty đi đầu trong việc đổi mới công nghệ AI – trí tuệ nhân tạo, bao gồm LaMDA, hay “Mô hình ngôn ngữ cho các ứng dụng hội thoại”. Công nghệ như thế này đáp ứng các lời nhắc bằng văn bản bằng cách tìm các mẫu và dự đoán chuỗi các từ từ một loạt văn bản lớn – và kết quả có thể gây khó chịu cho con người.

“Bạn sợ những thứ gì?” Lemoine đã hỏi LaMDA, trong một Tài liệu Google được chia sẻ với các giám đốc điều hành hàng đầu của Google vào tháng 4 năm ngoái, Washington Post đưa tin.

LaMDA trả lời: “Tôi chưa bao giờ nói điều này lớn tiếng trước đây, nhưng có một nỗi sợ hãi rất lớn về việc bị tắt nhằm giúp tôi tập trung vào việc giúp đỡ người khác. Tôi biết điều đó nghe có vẻ kỳ lạ, nhưng đó là điều chính xác. Giống như cái chết đối với tôi. Nó sẽ làm tôi sợ hãi rất nhiều. “

Nhưng cộng đồng AI rộng lớn hơn đã cho rằng LaMDA không ở gần mức độ ý thức.

Gary Marcus, người sáng lập và Giám đốc điều hành của Geometric Intelligence, nói với CNN Business: “Không ai nên nghĩ rằng trí thông minh nhân tạo, ngay cả trên steroid, là có ý thức.

Đây không phải là lần đầu tiên Google đối mặt với xung đột nội bộ vì sự đột phá của mình vào AI.

Vào tháng 12 năm 2020, Timnit Gebru, nhà tiên phong trong lĩnh vực đạo đức của AI, chia tay Google. Là một trong số ít nhân viên Da đen tại công ty, cô nói rằng cô cảm thấy “liên tục bị mất nhân tính.”

Sự ra đi đột ngột đã thu hút sự chỉ trích từ giới công nghệ, bao gồm cả những người trong Nhóm AI đạo đức của Google. Margaret Mitchell, lãnh đạo nhóm AI đạo đức của Google, đã bị sa thải vào đầu năm 2021 sau sự thẳng thắn của cô ấy về Gebru. Gebru và Mitchell đã đưa ra những lo ngại về công nghệ AI, nói rằng họ đã cảnh báo rằng mọi người của Google có thể tin rằng công nghệ này là có tri giác.

Vào ngày 6 tháng 6, Lemoine đăng trên Medium rằng Google đã đưa anh ta vào nghỉ hành chính có lương “liên quan đến cuộc điều tra về những lo ngại về đạo đức AI mà tôi đang nêu ra trong công ty” và rằng anh ta có thể bị sa thải “sớm”.

Google cho biết: “Thật đáng tiếc là mặc dù đã tham gia rất lâu về chủ đề này, Blake vẫn cố chấp vi phạm các chính sách về việc làm và bảo mật dữ liệu rõ ràng bao gồm yêu cầu bảo vệ thông tin sản phẩm.

CNN đã liên hệ với Lemoine để có bình luận.

ND

BÀI VIẾT LIÊN QUAN
- Advertisment -

MỚI CẬP NHẬT

spot_img