Los futuros dispositivos informáticos se adentrarán aun más en los sentidos humanos mediante el desarrollo de capacidades para imitar la habilidad de ver, oler, tocar, gustar y oír, anunciaron jerarcas de IBM en las previsiones anuales publicadas esta semana.
El séptimo informe anual "IBM 5 en 5", una lista de innovaciones que tienen el potencial de tener impacto en los próximos cinco años, sostiene que las computadoras y otros dispositivos tecnológicos desarrollarán más capacidades para simular los sentidos humanos.
Las computadoras podrán utilizar algoritmos para determinar la estructura química precisa de los alimentos y saber por qué a las personas les gustan ciertos sabores.
"No solo harán que los alimentos saludables sean más sabrosos, también sorprenderán con combinaciones inusuales de alimentos diseñados realmente para maximizar la experiencia del gusto y el sabor", asegura el informe del gigante informático.
En el caso de personas con necesidad de dietas especiales, por ejemplo con diabetes, la máquina desarrollará sabores y recetas para mantener el nivel de azúcar regulado en sangre pero, al mismo tiempo, satisfaría su gusto por lo dulce.
Las predicciones de IBM consideran que, en los próximos cinco años, diminutos sensores integrados a las computadoras o los celulares inteligentes detectarán si alguien se está por resfriar o por adquirir una enfermedad. Lo harán mediante el análisis de los olores, los biomarcadores y miles de moléculas en el aliento del usuario.
Estas herramientas también ayudarán a los médicos a diagnosticar y vigilar la aparición de trastornos presentes en el hígado o el riñón, así como el asma, la diabetes y hasta la epilepsia, según el informe de IBM.
TACTO. En el cuerpo humano, cuando se palpa, presiona o se pasa el dedo sobre un objeto se generan impulsos eléctricos que el cerebro interpreta para crear la sensación de "tocar".
Mediante tecnologías sensibles al tacto, técnicas infrarrojas y de presión, los dispositivos móviles podrían ofrecer al usuario la percepción de sentir la textura y el tejido de una tela.
"Utilizando las capacidades de vibración del teléfono, cada dispositivo tendrá una serie única de patrones de vibración que representarán la experiencia del tacto", señala el informe.
Según Robyn Schwartz, especialista de IBM, en cinco años más la tecnología permitirá que una artesana venda sus canastos tejidos con fibras vegetales, invitando a las personas a poner sus dedos sobre la pantalla del teléfono, por ejemplo, y sentir su textura.
Así, la computación cognitiva será capaz de entender la forma en que el cerebro procesa el tacto y recrear dicha experiencia como si fuera real", dice Schwartz.
OÍR.
Un sistema de sensores inteligentes detectará elementos del sonido como las vibraciones y las ondas sonoras de diferentes frecuencias.
"Estos datos serán interpretados para predecir, por ejemplo, cuándo los árboles se caerán en un bosque o cuando un deslizamiento de tierra es inminente", señala el documento de la firma.
Esto podría tener una utilidad por demás destacable para las familias, sobre todo para los padres primerizos. Los sonidos que producen los bebés podrán ser entendidos como un lenguaje por las máquinas, lo que ayudaría a entender qué intentan decir.
"Al comprender qué significan los sonidos de los bebés, o cuándo el llanto puede indicar que tiene hambre, calor, cansancio o dolor, un sofisticado sistema de reconocimiento del habla podría correlacionar los sonidos y balbuceos con otra información sensorial o fisiológica, como el ritmo cardíaco, el pulso y la temperatura", explica el informe de IBM.
VER. Otra área clave para la innovación será la capacidad de analizar datos visuales, es decir, la capacidad de ver. Hoy las computadoras comprenden las fotos e imágenes por el texto con el que se las etiqueta o el título que se les pone; la mayoría de la información -el contenido real de la imagen- es un misterio para ellas.
En los próximos cinco años, no solo serán capaces de ver y reconocer los contenidos de imágenes y datos visuales, sino que convertirán los píxeles en significado y le otorgarán sentido de una forma similar a como lo hace el ojo humano.
Estas aplicaciones podrán ayudar a analizar imágenes de resonancias magnéticas, tomografías computarizadas y rayos X para captar información adaptada a medida.
"Al entrenar los sistemas para que puedan discriminar qué buscar y diferenciar tejidos sanos de tejidos enfermos o correlacionar la información con las historias clínicas y la literatura científica, los sistemas que puedan "ver" ayudarán a los médicos a detectar problemas con más velocidad y exactitud", reza el informe.
Así como que el cerebro interactúa con múltiples sentidos, los sistemas cognitivos traerán un mayor valor y percepción, ayudando a resolver algunos de los desafíos más complejos", concluye el informe. (FUENTES: AFP Y EL MERCURIO)
IBM "5 en 5"
En 2017 los dispositivos sumarán los cinco sentidos a sus capacidades: podrán interpretar el llanto de los bebés; predecir la caída de un árbol por el sonido de la madera o determinar el mejor momento para cosechar la fruta gracias al aroma del aire de la granja. Son las predicciones de la firma IBM, integradas en el documento "5 en 5", un trabajo que anualmente plantea cuáles serán los escenarios más posibles para el uso de la tecnología en el quinquenio que se avecina. Ahora, de cara al 2017 prevé dispositivos que puedan imitar las funciones de ver, tocar, oír, gustar y oler del ser humano. Las aplicaciones pueden beneficiar campos tan dispares como la moda o la medicina.