Eve Rittenberg, MD, MA; Roy Perlis, MD, MSc; Sharon Inouye, MD, MPH
Lược dịch bởi ThS. Nguyễn Tấn Sĩ
Trong số báo này của JAMA Internal Medicine, Bressman và cộng sự đề xuất một giả thuyết thú vị: điều gì sẽ xảy ra nếu các công cụ y khoa có tích hợp trí tuệ nhân tạo (AI) được cấp phép như các chuyên viên thực hành nâng cao, thay vì chỉ được quản lý bởi Cơ quan Quản lý Thực phẩm và Dược phẩm Hoa Kỳ (FDA)
Chiến lược này nhằm cung cấp một giải pháp thay thế hoặc bổ sung cho quy trình phê duyệt của FDA trong việc quản lý phần mềm y tế có tích hợp AI. Các tác giả cho rằng cách tiếp cận này có thể mang lại sự linh hoạt cần thiết để bắt kịp tốc độ thay đổi nhanh chóng của AI, phạm vi ứng dụng rộng lớn của mỗi mô hình, và nhu cầu đảm bảo rằng các công cụ này chứng minh được giá trị lâm sàng.
Nhiều trường hợp các ứng dụng AI chuyên biệt và đơn nhiệm có thể được quản lý đầy đủ trong các khuôn khổ hiện có. Tuy nhiên, AI tạo sinh (generative AI) có thể được triển khai trong nhiều bối cảnh khác nhau, và các mô hình có thể tiếp tục phát triển theo thời gian. Vì những mô hình này mang tính xác suất chứ không mang tính xác định, chúng có thể mắc các lỗi tương tự lỗi của con người, chẳng hạn như sai sót do thiếu kiến thức đầy đủ hoặc do phán đoán thiếu chính xác. Bressman và cộng sự cho rằng một khuôn khổ linh hoạt phù hợp cho việc chứng nhận đã tồn tại, dưới hình thức hệ thống cấp phép và giám sát dành cho các chuyên viên thực hành nâng cao.

Ảnh minh họa
Với cách tiếp cận này, mức độ giám sát sẽ tùy thuộc vào từng hoạt động cụ thể, với một số nhiệm vụ sẽ cần được giám sát chặt chẽ hơn những nhiệm vụ khác.
Đề xuất này vẫn để lại nhiều chi tiết quan trọng cần được giải quyết. Bất kỳ hệ thống cấp phép AI nào cũng sẽ cần có khả năng đánh giá và xử lý các nguy cơ gây hại cụ thể của từng mô hình trước khi được triển khai; do đó, khả năng cao vẫn cần một cơ quan quản lý trung tâm. Ngoài ra, việc xác định ai sẽ chịu trách nhiệm và giám sát các quyết định cũng như các phác đồ điều trị được tạo ra bởi AI, cũng như ai sẽ chịu trách nhiệm pháp lý khi xảy ra sai sót hoặc sự cố bất lợi, vẫn là một câu hỏi nan giải. Những cân nhắc này tương tự như các vấn đề trong cấp phép hành nghề lâm sàng, nhưng mặc dù các hội đồng y khoa có vị trí phù hợp để thực hiện việc cấp phép, mức độ mà một phương pháp tương tự có thể được phát triển với chuyên môn cần thiết cho AI trong y học vẫn còn là điều chưa chắc chắn.
Một hệ thống cấp phép dành cho AI trong y khoa, tương tự hệ thống áp dụng cho các bác sĩ, có thể mang lại một giải pháp linh hoạt hơn so với các quy trình quản lý hiện tại và cho phép việc đánh giá cũng như cập nhật diễn ra liên tục. Phạm vi rộng lớn của các công nghệ mới này có thể thúc đẩy những người chịu trách nhiệm đảm bảo an toàn và hiệu quả của chúng phải tư duy rộng mở tương xứng để đáp ứng lại.