Y học

AI của FDA Mỹ: Nhanh nhưng đầy lỗi

Bùi Tú

Trong nỗ lực hiện đại hóa hoạt động, Cục Quản lý thực phẩm và dược phẩm Mỹ (FDA) đã triển khai một hệ thống trí tuệ nhân tạo (AI) mang tên Elsa, với kỳ vọng sẽ cách mạng hóa quy trình phê duyệt thuốc. Tuy nhiên, hệ thống này đang gây thất vọng bởi sự không chính xác.

Đằng sau những lời ca ngợi của lãnh đạo cấp cao FDA là tiếng chuông cảnh báo từ chính những người đang trực tiếp sử dụng AI này hằng ngày: "Elsa có thể nhanh, nhưng cũng rất dễ sai".

ai2.jpeg
Đưa AI vào ngành dược phẩm và y tế liệu có quá sớm?

Tham vọng với niềm tin lớn lao

Ông Marty Makary, Ủy viên FDA, không giấu được sự hân hoan khi nói về Elsa: "Những việc trước đây phải mất vài ngày, Elsa chỉ cần vài phút". Với ông, đây là bước khởi đầu quan trọng để FDA tích cực ứng dụng công nghệ hiện đại.

Elsa được thiết kế riêng cho FDA, hoạt động trong một môi trường đám mây khép kín, tuân thủ nghiêm ngặt các yêu cầu quy định. "Cô ấy" được giao nhiều nhiệm vụ quan trọng như phân tích tài liệu lâm sàng, quét và tóm tắt các nghiên cứu, so sánh nhãn thuốc và trả lời câu hỏi về tác dụng phụ. Nghe có vẻ như một trợ lý AI hoàn hảo cho ngành y tế.

Thế nhưng, thực tế lại phức tạp hơn nhiều so với những gì được quảng bá. Cuộc điều tra của CNN đã hé lộ một sự thật đáng lo ngại: khi không tìm thấy nghiên cứu phù hợp, Elsa có xu hướng... tự "sáng tạo" ra những nghiên cứu không tồn tại. Đây không chỉ là lỗi thông thường mà là hiện tượng "ảo giác" (hallucination) - một vấn đề nghiêm trọng cố hữu của các mô hình ngôn ngữ lớn (LLM) hiện nay.

Một nhân viên FDA chia sẻ với CNN: "Bất cứ thứ gì bạn không kiểm tra lại đều không đáng tin cậy. Elsa bịa chuyện - và làm điều đó một cách rất thuyết phục".

Điều đáng sợ không chỉ là AI đưa ra thông tin sai, mà nó làm điều đó với độ tự tin tuyệt đối. Trong lĩnh vực y tế, nơi mỗi quyết định có thể ảnh hưởng trực tiếp đến tính mạng con người, sự "tự tin sai lầm" này là một mối nguy hiểm thực sự.

Thực tế "phũ phàng"

Trong khi Ủy viên Makary ca ngợi Elsa như một bước đột phá về năng suất, những tiếng nói của "người trong cuộc" lại hoàn toàn khác. Các nhân viên FDA báo cáo rằng Elsa không chỉ khó sử dụng mà còn thường đưa ra những câu trả lời rỗng tuếch hoặc bịa đặt.

Một quan chức FDA giải thích thêm: "Chẳng hạn nếu Elsa tóm tắt một bài nghiên cứu 20 trang về một loại thuốc mới chỉ trong một đoạn văn, thì rất có thể phần tóm tắt đó sẽ bị diễn giải sai hoặc bỏ sót những thông tin quan trọng mà một chuyên gia kiểm duyệt cần chú ý".

Ông Makary thừa nhận rằng Elsa đôi khi đưa ra những tuyên bố sai lệch và gọi điều này là "có khả năng gây vấn đề" nhưng không phải điều bất thường đối với các mô hình AI. Tuy nhiên, ông vẫn tin tưởng vào việc con người sẽ kiểm tra lại sau đó.

Đây chính là nơi xuất hiện nghịch lý lớn nhất: thay vì tiết kiệm thời gian, việc phải kiểm tra chi tiết từng phản hồi của Elsa lại tốn nhiều thời gian hơn so với việc làm thủ công ngay từ đầu. Các nhân viên cho biết cuối cùng không hề tiết kiệm được thời gian, thậm chí còn mất nhiều thời gian hơn. Một nguồn tin nội bộ chia sẻ với CNN: "Việc phải xem xét từng chi tiết nhỏ thực sự tốn thời gian hơn".

Mặc dù ban lãnh đạo FDA tuyên bố việc sử dụng Elsa là tự nguyện, nhưng các nguồn tin của CNN cho biết rất ít người thực sự sử dụng công cụ này do không hiệu quả - một dấu hiệu đáng lo ngại về khoảng cách giữa tầm nhìn của lãnh đạo và thực tế triển khai công nghệ.

Khi những người được kỳ vọng sẽ hưởng lợi từ công nghệ lại tránh xa nó, điều này nói lên rất nhiều về chất lượng và độ tin cậy thực sự của hệ thống.

AI trong y tế liệu đã chín muồi?

Vấn đề với Elsa phản ánh một thách thức lớn hơn trong việc ứng dụng AI vào lĩnh vực y tế. Mặc dù các mô hình ngôn ngữ AI đã có nhiều khả năng ấn tượng, nhưng danh sách những hạn chế và lỗ hổng của chúng vẫn còn rất dài. Trong đó, đáng chú ý là hiện tượng ảo giác - tức là AI tạo ra thông tin không chính xác nhưng lại trình bày một cách thuyết phục; thiếu khả năng xác minh khiến người dùng khó phân biệt giữa thông tin đúng và sai nếu không có kiến thức chuyên môn sâu; độ tin cậy không nhất quán dẫn đến kết quả có thể thay đổi trong các lần truy vấn khác nhau; Khó kiểm soát chất lượng khiến việc xác minh đầu ra tốn nhiều thời gian hơn so với lợi ích mang lại.

Trường hợp của Elsa mang đến những bài học quan trọng cho việc triển khai AI trong các lĩnh vực nhạy cảm. Việc áp dụng công nghệ AI chưa hoàn thiện vào các lĩnh vực quan trọng như y tế có thể phản tác dụng, tạo thêm công việc và rủi ro thay vì cải thiện hiệu suất; cần thử nghiệm kỹ lưỡng tức là trước khi triển khai rộng rãi; minh bạch về khả năng và hạn chế của AI để có thể sử dụng chúng một cách an toàn và hiệu quả.

Mặc dù Elsa hiện tại có nhiều vấn đề, điều này không có nghĩa AI không có vai trò trong tương lai của FDA. Thay vào đó, cần có cách tiếp cận thận trọng và khoa học hơn như: phát triển các tiêu chuẩn đánh giá chất lượng AI cụ thể cho lĩnh vực y tế; tạo ra các cơ chế kiểm tra và cân bằng mạnh mẽ; đào tạo nhân viên hiểu biết về khả năng và hạn chế của AI; phát triển các công cụ AI chuyên biệt thay vì áp dụng các mô hình tổng quát.

    Nổi bật
        Mới nhất
        AI của FDA Mỹ: Nhanh nhưng đầy lỗi
        • Mặc định

        POWERED BY ONECMS - A PRODUCT OF NEKO