PGS Lê Thanh Hà (42 tuổi) cùng cộng sự phát triển hệ thống BLife giúp bệnh nhân dùng mắt điều khiển thiết bị để giao tiếp khi không thể nói và cử động.
Chị Hà Phương (36 tuổi, Ninh Bình) từng chịu 4 năm không thể giao tiếp do mắc hội chứng ALS (xơ cứng cột bên teo cơ). Đến cuối năm 2021, nhờ thiết bị BLife, câu đầu tiên chị có thể nói với con gái: "Mẹ có thể dạy con học rồi".
Ông Đỗ Nam, bố của Phương cho biết, từ năm 2017 căn bệnh ALS khiến chị bị liệt toàn bộ cơ thể, không nói được. Suốt thời gian dài, con gái ông phải dựa hoàn toàn vào người thân nhưng cũng khó khăn vì mọi người chỉ đoán ý thông qua cử chỉ và hiểu biết về tính cách, thói quen.
Không ít lần những cuộc nói chuyện "cố để cảm nhận" khiến Phương suy sụp bởi chị tỉnh táo nhưng hoàn toàn không có khả năng truyền đạt suy nghĩ của mình. "Do không thể nói ra suy nghĩ, Phương bức xúc, khó chịu và cáu gắt", ông Nam nói. Mọi thứ thay đổi vào cuối năm 2021, khi Phương lần đầu được tiếp cận thiết bị BLife, giúp chị "nói" khi cần hỗ trợ.
Ông Nam cho biết, nhờ giao tiếp thuận lợi, tinh thần Phương phấn chấn hơn. Sau 5 tháng sử dụng, máy BLife giờ đã gắn chặt với cuộc sống của Phương. "Đợt em bị nhiễm Covid-19, nếu không có máy mọi người không biết em khó thở để hỗ trợ", Phương kể. Giờ đây, Phương và con gái có thể chuyện trò, chia sẻ. Chị cũng kết nối lại với bạn bè qua mạng xã hội.
Thiết bị chị Phương đang sử dụng được PGS Hà và nhóm nghiên cứu trường Đại học Công nghệ, ĐHQG Hà Nội phát triển, là hệ thống giao tiếp người-máy thông minh dựa trên tích hợp các công nghệ trí tuệ nhân tạo (AI), thực tại ảo (VR) và thực tại ảo tăng cường (AR).
PGS Hà cho biết ý tưởng về hệ thống giao tiếp điều khiển bằng mắt được nhóm theo đuổi từ năm 2019, khi anh chứng kiến người thầy nằm liệt giường cả năm trời. Mọi sinh hoạt cá nhân của thầy đều cần người hỗ trợ và trao đổi qua bảng chữ cái của trẻ nhỏ. Mỗi lần đến thăm, thầy chỉ cố gắng ra hiệu vài ba câu đơn giản. Điều này khiến anh trăn trở phải làm gì đó để giúp thầy giao tiếp dễ dàng hơn và kết quả là sự ra đời của BLife.
Thiết bị được thiết kế gồm xe đẩy và màn hình có thể quay các hướng. Màn hình máy gắn camera chuyên dụng có thể đọc chuyển động mắt và hiển thị tín hiệu trên màn hình, chuyển thành âm thanh ra loa. Thông qua bàn phím ảo, người bệnh có thể dùng mắt để chọn hình ảnh biểu tượng, tổ hợp ký tự tiếng Việt. Máy cũng hỗ trợ người dùng lướt web, tìm kiếm thông tin, tương tác mạng xã hội, xem video, viết email.
Hệ thống đã được nhóm nghiên cứu phối hợp với Bệnh viện Quân y 103 sử dụng trên một số bệnh nhân. Kết quả cho thấy, người bệnh chức năng mắt khỏe, có thể nhập trung bình 40-50 ký hiệu/phút, người có chức năng mắt yếu hơn, tốc độ nhập 15-20 ký hiệu/phút.
Anh Hà cho biết, cơ chế dùng mắt để điều khiển vốn là một thách thức. Lý do, mắt của con người thường được sử dụng để nhận biết môi trường thông qua ánh sáng, nay lại được sử dụng để điều khiển con trỏ màn hình, làm thay đổi chức năng tự nhiên của mắt. Do đó, nếu thiết kế không khéo sẽ khiến việc tương tác chậm, gây mệt mỏi cho người sử dụng. Chính vì vậy nhóm mất 3 tháng mới tìm ra cơ chế "gõ bằng mắt" tốt nhất, giúp người bệnh sử dụng nhanh và hiệu quả hơn.
Trên thế giới cũng có thiết bị tương tự, giá khoảng 17.000-25.000 USD, dùng ngôn ngữ tiếng Anh nên khó sử dụng cho người Việt. Trên thị trường cũng có một số thiết bị phát hiện chuyển động mắt chuyên dụng nhưng đòi hỏi kiến thức và kỹ năng công nghệ thông tin rất cao. Vì vậy nhóm của PGS Hà dự định đưa sản phẩm BLife tới người bệnh có nhu cầu với mức chi phí tối thiểu, phù hợp để người Việt có thể chi trả được và dễ sử dụng.
PGS. TS Phạm Bảo Sơn, Phó Giám đốc ĐHQG Hà Nội cho biết nhóm của PGS. TS Lê Thanh Hà đã phát triển ý tưởng và áp dụng thành công cho một bệnh nhân ALS là một tiến sĩ, giảng viên của trường. "Chúng tôi kỳ vọng sản phẩm BLife sẽ hỗ trợ được nhiều người bệnh hơn nữa, đem kết quả nghiên cứu khoa học ứng dụng nâng cao chất lượng cuộc sống", ông nói.
Đánh giá ở góc độ chuyên môn, GS.TS Nguyễn Thanh Thủy, Chủ tịch hội đồng giáo sư ngành CNTT, nguyên Phó Hiệu trưởng trường Đại học Công nghệ, ĐHQGHN cho biết, PGS Hà cùng cộng sự đã tiên phong trong nghiên cứu các công nghệ lõi, thiết kế và phát triển các hệ thống giao tiếp người-máy thông minh dựa trên tích hợp các công nghệ AI, VR và AR. Giáo sư đánh giá, giải pháp lướt web, tương tác mạng xã hội có thể dùng chung cho nhóm người bệnh ALS với các ngôn ngữ khác. BLife bước đầu giúp nâng cao chất lượng cuộc sống cho những người bệnh, giúp dễ dàng biểu lộ mong muốn, duy trì kết nối và tiếp tục đóng góp giá trị cho xã hội.
PGS Hà cho biết thêm, nhóm nghiên cứu hiện đang tiếp tục phát triển các phương pháp nhằm khai thác tín hiệu điện não để tăng tốc độ tương tác trong giao tiếp và phát triển các kỹ thuật để người bệnh có thể điều khiển thiết bị nhà thông minh như điều hòa, đèn, quạt, tivi, ... nhờ đó giảm sự phụ thuộc vào sự hỗ trợ của những người xung quanh.
Ý kiến ()