.

.

Noticias SL

Noticias de San Lorenzo

Lo Último

1 de julio de 2018

Con inteligencia artificial, los celulares ya interpretan las emociones del usuario

Equipados con procesadores ultra avanzados, recolectan datos por patrones de conducta y hábitos. Mate 10, iPhone X y el Note que viene, los que marcan el rumbo. 

Cámaras, micrófonos y sensores, en el bolsillo./ Clarín

El afán por alcanzar una pantalla resplandeciente, modelar un cuerpo ergonómico y sumar varias cámaras en simultáneo, pasó a un segundo plano. Hoy la meta es lograr, a través de inteligencia artificial (IA), smartphones capaces de interpretar las emociones del portador para establecer un vínculo más sensitivo con el aparato. Las herramientas para traducir el lenguaje numérico en patrones de conducta son los algoritmos de aprendizaje automático (Machine Learning). En el camino que aspira a la humanización avanzan el iPhone X, el Mate 10 y el Galaxy Note 9, que se presentaría en agosto.

Para recabar datos fisiológicos, algunos equipos ya incorporan cámaras que captan gestos o expresiones faciales, micrófonos que analizan la entonación y sensores que miden el ritmo cardíaco o el nivel de estrés. A medida que los chips de IA clasifican estos datos, aprenden de la información recopilada para identificar estados emocionales y gestionar las respuestas adecuadas para los distintas situaciones anímicas que uno atraviesa en el transcurso del día.

“Se podría decir que estamos en el día uno de estas capacidades emocionales. Gracias a la IA, el usuario va experimentando un mayor acercamiento con su equipo y cada día que pasa, el teléfono va a ir conociendo un poco más cómo razona su dueño. A su vez, los algoritmos de Machine Learning van aprendiendo a reconocer los patrones de uso para anticiparse a las peticiones. De esta forma, la IA es capaz de asumir una 35 mil micro decisiones cotidianas”, destaca David Moheno, director de relaciones públicas de Huawei.

De acuerdo con la firma de investigación Gartner, para el 2.022 el 80% de los teléfonos estarán dotados de algún tipo de IA que ayudará al reconocimiento de emociones, entendimiento del lenguaje natural y la personalización del dispositivo. “Los smartphones serán una extensión del usuario, capaz de reconocerlo y predecir su próximo movimiento. Ellos entenderán quién está en frente, qué quiere, cuándo lo quiere, cómo lo quiere hacer y ejecutará tareas bajo su autoridad”, señaló Angie Wang, analista de investigación en Gartner.

La clave de estas facultades reside en el Machine Learning, cuyo objetivo es diseñar máquinas que pueden aprender sin la intervención de un programa que modele sus instrucciones. Dentro de la carcasa del celular, el propósito es modificar su lógica para adaptarse a la de sus propietarios y ser una extensión humana.

Esta personalización de contenidos es uno de los brazos de la llamada computación afectiva. Esta nueva área de investigación de las ciencias de la computación busca desarrollar sistemas que ayuden a reconocer, interpretar, procesar o crear emociones humanas para generar un flujo que vincule máquinas y personas.

Sin embargo, no todos los dispositivos móviles tienen la capacidad para ejecutar algoritmos de IA. Estas complejas redes neuronales que imitan al cerebro humano, emplean operaciones aritméticas que son simples, pero tan numerosas que requieren el volumen de un procesador de ocho núcleos para elaborar los resultados.

Un ejemplo de estas capacidades se ve en el iPhone X, que contiene un “motor neuronal” en el chip Bionic A11, especializado en tareas de aprendizaje automático y profundidad. Esto le sirve tanto para reconocer rostro y voz, grabar animojis e identificar lo que está enfocando la cámara. También -según la empresa- puede manejar alrededor de 600 mil millones de operaciones por segundo. Esta transformación incluye la humanización de la voz de Siri. Así, lo que se percibe desde el iPhone suena menos sintético, más mundano.

Con esta misma premisa, el Google Assistant ahora es capaz de realizar llamadas para efectuar reservas en un restaurante usando una voz que simula ser humana. Es decir, la persona que está del otro lado de la línea no será capaz de diferenciar si habló con un humano o un robot.

El Mate 10 de Huawei contiene un chip de fabricación propia con la tecnología de inteligencia emocional. Para su fabricación, los ingenieros se inspiraron en Her, el film de Spike Jone de 2013, donde un usuario se enamora de su sistema operativo.

En dos meses llega el Samsung Galaxy Note 9 y estrenará Bixby 2.0, un asistente (con versión en español) cuya premisa es comprender la conducta humana analizando emociones. “Con Bixby, Samsung brinda inteligencia para una experiencia conectada y conveniente, donde la tecnología entiende las preferencias individuales y el contexto de las situaciones para personalizar la forma en que hacemos las cosas”, explica Federico Vara, gerente de Samsung Mobile.

Clarín 

No hay comentarios :

Publicar un comentario

Print Friendly and PDF