گوگل روز پنجشنبه گفت با استفاده از یک ابرو یا لبخند بالا ، افراد دارای معلولیت جسمی یا گفتاری می توانند تلفن های هوشمند خود را که اندروید دارند ، بدون دست کار کنند. دو ابزار جدید یادگیری ماشینی و دوربین های جلویی را در تلفن های هوشمند برای تشخیص حرکت صورت و چشم قرار داده است. کاربران می توانند با لبخند زدن ، بالا بردن ابروها ، بازکردن دهان یا نگاه به چپ ، راست یا بالا ، صفحه تلفن خود را اسکن کرده و یک کار را انتخاب کنند.

گوگل می گوید: “برای اینکه اندروید برای همه در دسترس تر باشد ، ابزارهای جدیدی را راه اندازی می کنیم که کنترل تلفن شما و برقراری ارتباط با استفاده از حرکات صورت را آسان تر می کند.”

مرکز کنترل و پیشگیری از بیماری تخمین می زند که ۶۱ میلیون بزرگسال در ایالات متحده با معلولیت زندگی می کنند ، که این امر باعث شده تا گوگل و رقبای اپل و مایکروسافت دسترسی محصولات و خدمات را برای آنها بیشتر کنند.

این غول فناوری در یک پست وبلاگی گفت: “مردم هر روز از دستورات صوتی مانند” Hey Google “یا دست خود برای حرکت در تلفن های خود استفاده می کنند.”

“با این حال ، این همیشه برای افرادی که دارای نقص شدید حرکتی و گفتاری هستند امکان پذیر نیست.”

این تغییرات در نتیجه دو ویژگی جدید ایجاد شده است ، یکی “Camera Switches” نام دارد که به مردم اجازه می دهد از چهره خود به جای ضربه زدن و ضربه زدن برای تعامل با تلفن های هوشمند استفاده کنند.

مورد دیگر Project Activate است ، یک برنامه جدید Android که به افراد اجازه می دهد از این حرکات برای شروع یک عمل استفاده کنند ، مانند اینکه تلفن یک عبارت ضبط شده را پخش کند ، پیام ارسال کند یا تماس برقرار کند.

گوگل می گوید: “اکنون برای هرکسی این امکان وجود دارد که از حرکات چشم و حرکات صورت متناسب با محدوده حرکتی خود برای حرکت در تلفن خود بدون دست و صدا استفاده کند.”

برنامه فعالسازی رایگان در استرالیا ، بریتانیا ، کانادا و ایالات متحده در فروشگاه Google Play موجود است.

اپل ، گوگل و مایکروسافت به طور مداوم نوآوری هایی را ایجاد کرده اند که دسترسی به فناوری اینترنت را برای افراد دارای معلولیت بیشتر می کند یا به نظر می رسد که سن کارهایی مانند خواندن را دشوارتر کرده است.

دستیارهای دیجیتالی با فرمان صوتی که در بلندگوها و تلفن های هوشمند تعبیه شده اند می توانند به افراد دارای مشکل بینایی یا حرکتی این امکان را بدهند که به رایانه ها بگویند چه کار کنند.

نرم افزاری وجود دارد که متن را در صفحات وب یا در تصاویر شناسایی کرده و سپس آن را با صدای بلند می خواند ، و همچنین تولید خودکار زیرنویس هایی که آنچه در فیلم ها گفته می شود را نمایش می دهد.

ویژگی “AssistiveTouch” که اپل در نرم افزار ساعت مچی هوشمند خود قرار داده است ، به صفحه نمایش لمسی اجازه می دهد تا با حس کردن حرکاتی مانند فشار انگشتان یا فشار دست ، کنترل شود.

اپل در یک پست گفت: “این ویژگی با VoiceOver نیز کار می کند ، بنابراین می توانید با استفاده از یک عصا یا هدایت یک حیوان سرویس دهنده با یک دست در Apple Watch حرکت کنید.”

 

 

 

منبع خبر: http://www.khabarpardaz.com/view-132095.html