Google vừa chia sẻ họ đã bổ sung thêm tính năng này trên ứng dụng Lens của mình để giúp người dùng có thể phát hiện sớm những nguy cơ có thể mắc các bệnh về da của bản thân. Cách để xác định nguy cơ cũng y như cách chụp ta dùng Lens trong đời thường. Nếu bình thường chúng ta chụp cái lọ cái chai để tìm thông tin thì với tính năng mới này chúng ta chụp nốt ruồi, vết rộp hoặc chỗ nào thấy nghi có vấn đề để hệ thống trả kết quả. Tất nhiên sẽ có câu "chỉ dùng với mục đích cung cấp thông tin chứ không có giá trị lâm sàng".
Có thể nói việc sử dụng AI trong xử lý hình ảnh Google đã làm rất lâu với dòng điện thoại Pixel rồi. Với kinh nghiệm đó hồi Google I/O 2021 họ đã giới thiệu công cụ DermAssist có khả năng nhận diện các vấn đề về da, tóc và cả móng tay. Vào thời điểm đó công cụ này có thể phát hiện được 288 vấn đề và đưa ra gợi ý xử lý chính xác đến 84%. Còn vào thời điểm hiện tại công cụ đã được châu Âu cho vào danh sách thiết bị y tế Class 1, đủ để gắn mác CE và được dùng ở khu vực này. Với thị trường Mỹ thì sẽ phải đợi FDA xem xét xem có đủ điều kiện không.
Hiện tại Google đang tập trung vào việc nâng cao độ chính xác đối với những nhóm da sậm màu bởi trước đây độ chính xác của DermAssist được đánh giá là không đủ tốt ở nhóm này. Lý do bởi nhiều cơ sở dữ liệu hình ảnh được dùng để tập huấn cho hệ thống AI có quá ít hình ảnh của nhóm người có da sẫm màu. Google đã hợp tác với giáo sư Ellis Monk của trường Havard để áp dụng bộ đo lường màu da MST để huấn luyện AI. Đến giờ có thể nói kết quả nhận diện đã khá tốt, đặc biệt ở nhóm bệnh nhân da đen, với tỷ lệ chính xác lên đến 87.9%.
Đoạn video giới thiệu chức năng này ở Google I/O 21, anh em có thể coi lại ở đây
Tham khảo DermAssist, Google