Anjali D. Deshmukh,MD,JD;JenniferK.Wagner,JD,PhD
Lược dịch bởi Ths. Nguyễn Văn Minh
Vào ngày 6 tháng 1 năm 2025, Cơ quan Quản lý Thực phẩm và Dược phẩm Hoa Kỳ (FDA) đã công bố hướng dẫn dự thảo mới về việc sử dụng trí tuệ nhân tạo (AI) trong vòng đời sản phẩm thuốc và sinh học. Tài liệu “Các cân nhắc về việc sử dụng Trí tuệ Nhân tạo để hỗ trợ ra quyết định quy định đối với sản phẩm thuốc và sinh học” cung cấp quy trình 7 bước để thiết lập độ tin cậy của các mô hình AI, tập trung cả vào đánh giá rủi ro cũng như xác định trước và sau độ tin cậy, được minh họa bằng 2 ví dụ lý thuyết (xác định rủi ro trong các nhóm nhỏ hoặc đánh giá các thông số kỹ thuật về thể tích đóng gói).
Hướng dẫn dự thảo nhấn mạnh sự cần thiết phải hiểu các rủi ro của mô hình, kêu gọi các nhà sản xuất có các cuộc thảo luận sớm với FDA về kế hoạch đánh giá độ tin cậy được đề xuất của họ, cụ thể cho câu hỏi được đặt ra và tương xứng với rủi ro. Điều này bao gồm việc cân nhắc đóng góp của bằng chứng có nguồn gốc từ AI so với các bằng chứng đóng góp khác được sử dụng để cung cấp thông tin cho câu hỏi (ảnh hưởng của mô hình) và mức độ nghiêm trọng của hậu quả bất lợi do quyết định không chính xác (hậu quả quyết định). Việc hiểu rủi ro mô hình là quan trọng bởi vì nó có thể thiết lập kỳ vọng và xác định các thách thức tiềm ẩn từ sớm, đặc biệt vì tiềm năng sử dụng AI trong vòng đời sản phẩm thuốc đang phát triển nhanh chóng và có thể thay đổi trong suốt vòng đời của sản phẩm. Những hướng dẫn này cung cấp một khuôn khổ thích ứng cho quan hệ đối tác giữa các nhà sản xuất sản phẩm thuốc và sinh học với cơ quan quản lý, tập trung vào các câu hỏi mẫu để các nhà phát triển giải quyết thay vì các quy tắc chi tiết.
Tuy nhiên, hướng dẫn dự thảo này không trực tiếp đề cập đến các cân nhắc về đạo đức như một phần của rủi ro mô hình AI trong vòng đời sản phẩm thuốc. Các mô hình AI y tế nên lấy bệnh nhân làm trung tâm, với sự cân nhắc thích đáng đối với các thách thức đạo đức khi được sử dụng với các nhóm bệnh nhân cụ thể cùng với các rủi ro về độ tin cậy cụ thể của mô hình. Các cặp song sinh kỹ thuật số nhi khoa (DTs) minh họa cho sự cần thiết phải có hướng dẫn đạo đức cụ thể cho cả mô hình và quần thể. Việc thực hiện lời hứa rất được quảng bá về các mô hình AI y tế đòi hỏi phải tạo ra các mô hình “phù hợp với mục đích” (fit for purpose), hiểu rõ các hạn chế của dữ liệu cơ bản, và đảm bảo các dự đoán của mô hình AI “…liên kết chặt chẽ với tình trạng của bệnh nhân trong dữ liệu—nói cách khác là với cặp song sinh kỹ thuật số”. Là một loại mô hình AI, DTs—các biểu diễn ảo chi tiết của các hệ thống, qua đó vô số biến số, lựa chọn thiết kế và tùy chọn có thể được nghiên cứu thông qua phân tích tính toán tiên tiến để hỗ trợ ra quyết định tổng thể—được sử dụng rộng rãi trong nhiều ngành công nghiệp. Các ứng dụng chăm sóc sức khỏe vẫn đang ở giai đoạn sơ khai. Việc phát triển và sử dụng DTs trong chăm sóc sức khỏe gần đây đã tăng tốc, bao gồm cả việc lập kế hoạch cho các ca phẫu thuật tim mạch bẩm sinh phức tạp và tìm kiếm thuốc thông qua các bệnh nhân mô phỏng được hỗ trợ bởi AI. DTs có thể cải thiện việc ra quyết định theo quy định, cho phép các nhà sản xuất đánh giá sản phẩm trên các quần thể đa dạng hơn một cách an toàn hơn, hiệu quả hơn về chi phí trước khi thử nghiệm lâm sàng.

Hình minh họa: AI hỗ trợ quyết định y tế
Viện Hàn lâm Khoa học, Kỹ thuật và Y học Quốc gia đã ngày càng nhận ra sức mạnh biến đổi mà các DT động, theo chiều dọc có thể mang lại cho y học chính xác nếu được phát triển đầy đủ—thậm chí vượt xa khả năng mô phỏng, dự đoán và tối ưu hóa các lựa chọn chăm sóc sức khỏe trước khi can thiệp vào bệnh nhân để cải thiện kết quả chăm sóc sức khỏe. DTs và các mô hình AI khác nên được phát triển “phù hợp với mục đích”, đặc biệt khi các quy mô mô hình khác nhau (ví dụ: cấp độ tế bào, cơ quan, toàn bộ con người và cấp độ quần thể) đặt ra những cân nhắc riêng biệt. Hơn nữa, việc tạo ra các mô hình AI đáp ứng yêu cầu các nguồn tài nguyên tính toán mở rộng để tích hợp và ngoại suy nhiều nguồn dữ liệu lớn, chẳng hạn như hồ sơ y tế điện tử, ngân hàng sinh học, yêu cầu bồi thường, cảm biến thiết bị y tế thời gian thực, cảm biến môi trường gia đình và thiết bị đeo cá nhân. Mỗi nguồn dữ liệu này đều chịu các quy chế quản lý khác nhau để cân bằng các mối lo ngại về quyền riêng tư, bảo mật và độ tin cậy của bệnh nhân, do đó việc tích hợp đòi hỏi phải cân nhắc cụ thể theo mô hình để đảm bảo DTs an toàn, đáng tin cậy và được tích hợp phù hợp vào các hệ thống chăm sóc sức khỏe hiện có. Mặc dù cách tiếp cận mới của cơ quan quản lý tạo ra một khuôn khổ thích ứng có thể bắt đầu tạo điều kiện thuận lợi cho việc cân nhắc cụ thể theo mô hình và có thể hữu ích và bền vững, nhưng cần có thêm hướng dẫn về đạo đức để đảm bảo việc phát triển và sử dụng các công nghệ AI (bao gồm dữ liệu tổng hợp DT và thử nghiệm lâm sàng in silico) diễn ra theo cách thức đã được xác thực và lấy bệnh nhân làm trung tâm.
Các DTs nhi khoa minh họa tầm quan trọng của hướng dẫn cụ thể hơn theo quần thể. Các quy định nhằm giải quyết các thách thức về đạo đức có thể giúp các mô hình AI thu hẹp khoảng trống nghiên cứu thử nghiệm lâm sàng trong y học nhi khoa. Mặc dù kết quả điều trị cho trẻ em đã được cải thiện với hàng thập kỷ nỗ lực quản lý (bao gồm Đạo luật Công bằng Nghiên cứu Nhi khoa và Đạo luật Dược phẩm Tốt nhất cho Trẻ em), FDA và Học viện Nhi khoa Hoa Kỳ vẫn nhận ra nhu cầu liên tục về việc phê duyệt kịp thời các loại thuốc đổi mới cho trẻ em. Khác với y học người lớn, nơi việc tìm kiếm thuốc thường liên quan đến các thử nghiệm lâm sàng ngẫu nhiên quy mô lớn (RCTs), nhiều loại thuốc nhi khoa được kê đơn mà không có sự chấp thuận của FDA (sử dụng ngoài nhãn/off label). Khoảng trống bằng chứng này rõ ràng nhất ở đơn vị chăm sóc tích cực sơ sinh (NICU), nơi các học giả đã chứng minh rằng một tỷ lệ lớn các loại thuốc thường được sử dụng được kê đơn ngoài nhãn cũng như tỷ lệ đưa trẻ sơ sinh NICU đủ điều kiện vào thử nghiệm lâm sàng thấp đáng thất vọng.

Khi không có các RCTs quy mô lớn, các lựa chọn kê đơn thường được định hình bởi dữ liệu dược động học và dược lực học, ngoại suy từ y học người lớn, các nghiên cứu quan sát, hướng dẫn thực hành lâm sàng và kinh nghiệm lâm sàng. Mặc dù “…các bác sĩ nhi khoa đã học cách sống chung với nó…”, các mô hình AI như DT phù hợp với mục đích có thể tích hợp tốt hơn các nguồn thông tin này và các nguồn thời gian thực khác để cải thiện chất lượng bằng chứng hỗ trợ việc sử dụng thuốc mới cho trẻ em. Mặc dù DTs nhi khoa có thể giải quyết những khoảng trống tồn tại lâu dài trong việc tìm kiếm thuốc và thiết bị nhi khoa, chúng xứng đáng có thêm hướng dẫn quản lý vì tính rộng lớn của các vấn đề đạo đức cụ thể cho nhi khoa.
Chẳng hạn, sự đồng ý có hiểu biết đối với DTs nhi khoa cũng phải xem xét các thách thức về sự khác biệt trong sở thích, thời gian tồn tại và tính bền vững. Mặc dù mọi tiểu bang đều có luật cho phép cha mẹ hoặc người giám hộ của trẻ vị thành niên đồng ý cho việc chăm sóc y tế cho con cái của họ, sự đồng ý của phụ huynh đối với việc tạo ra một DT cũng phải xem xét thời gian tồn tại của DT cùng với các chức năng dự đoán của nó. DTs được tạo bằng dữ liệu của trẻ có thể tồn tại sau khi trẻ đến tuổi trưởng thành, và các dự đoán về sự tiến triển của các tình trạng không có phương pháp điều trị chữa khỏi cũng có thể kéo dài sau tuổi thơ. Nếu cha mẹ đồng ý chia sẻ dữ liệu để tạo ra một DT mang lại lợi ích cho người khác, liệu đứa trẻ có thể rút lại sự đồng ý khi trưởng thành không? Các công ty bảo hiểm có thể sử dụng kết quả được dự đoán bởi DT thời thơ ấu để phân chia hoặc giới hạn phạm vi bảo hiểm cho một tình trạng bệnh lý của người lớn không? Nếu việc bảo trì kỹ thuật một DT của trẻ bị công ty ngừng lại, liệu có quyền sửa chữa DT đó không? Bệnh nhi, cha mẹ, bệnh viện, công ty bảo hiểm hay công ty kỹ thuật sở hữu DT?. Sự đồng ý và quyền sở hữu dữ liệu là những câu hỏi quan trọng đối với việc phát triển DTs nói chung, nhưng tính bền vững và thời gian sử dụng đối với DTs khi áp dụng cho trẻ em đòi hỏi sự cân nhắc đặc biệt.
Với những tiến bộ công nghệ nhanh chóng trong DTs chăm sóc sức khỏe có khả năng tác động đến mối quan hệ bác sĩ-bệnh nhân, hướng dẫn đạo đức bổ sung cụ thể theo độ tuổi và mô hình là quan trọng. Tài liệu “Các cân nhắc về việc sử dụng Trí tuệ Nhân tạo để hỗ trợ Ra quyết định Quy định đối với Sản phẩm Thuốc và Sinh học” cung cấp các bước đầu tiên rất cần thiết hướng tới một khuôn khổ cho (1) việc xem xét các câu hỏi về sự không chắc chắn, độ chính xác, độ tin cậy và sự phù hợp để sử dụng và (2) tạo điều kiện cho việc sử dụng AI có trách nhiệm trong phát triển sản phẩm thuốc và sinh học. Vẫn cần có thêm hướng dẫn để giải quyết các vấn đề đạo đức rộng hơn, bao gồm quyền tự chủ của bệnh nhân và quyền kiểm soát đối với DTs trong và ngoài hệ thống chăm sóc sức khỏe cụ thể; tiềm năng thao túng, phụ thuộc quá mức và khai thác/thương mại hóa; và phẩm giá kỹ thuật số và các thử nghiệm thầm lặng; cùng nhiều vấn đề khác. Các hành động được thực hiện bởi Chính quyền Trump (cụ thể là Lệnh Điều hành 14148 và 14179) đặt các chính sách liên bang nhằm đảm bảo AI y sinh có trách nhiệm vào tình thế không chắc chắn. Những nỗ lực tiếp theo nhằm thúc đẩy sự phát triển AI nói chung và DTs nói riêng một cách hiệu quả, có đạo đức và công bằng sẽ rất hữu ích, vì công bằng sức khỏe kỹ thuật số xứng đáng được quan tâm trực tiếp—đặc biệt đối với trẻ em.
Tham khảo chi tiết bài viết tại Báo Jama