Publicidad

Inteligencia artificial en Uruguay: qué posición tiene en el mercado, cuánto se cobra y dónde se estudia

Andrés Gómez Caram, magíster en Ingeniería Eléctrica, responde dudas sobre el auge de chatGPT, los miedos en la industria y el futuro de esta disciplina en Uruguay.

Compartir esta noticia
La herramienta de Inteligencia Artificial ChatGPT revolucionó el sector
La herramienta de Inteligencia Artificial ChatGPT revolucionó el sector
Foto: Archivo

La inteligencia artificial (IA) ha emergido como una de las tecnologías más revolucionarias de nuestro tiempo, transformando rápidamente diversos aspectos de nuestras vidas. Desde la automatización de tareas hasta la toma de decisiones complejas, la IA ha demostrado su capacidad para impulsar la eficiencia, la innovación y el progreso en una amplia gama de industrias.

El párrafo anterior cumple con las características básicas de una “buena” introducción. Y también es el resultado de un diálogo frío que tuve hace escasos segundos.

“¿Podrías escribir la introducción de una entrevista sobre inteligencia artificial?”, le pregunté a ChatGPT. “¡Por supuesto!”, respondió y —en el tiempo que me hubiese llevado empezar a teclear el nombre de mi entrevistado— desarrolló cinco párrafos sobre luces y sombras de la IA, con una presentación sobre expertos en la materia y un desenlace muy entusiasta.

El truco ya quedó a la vista y tengo más dudas que certezas. ¿Y si llega el día en que a nadie le importe si esta entrevista es fruto de mi curiosidad o de un algoritmo? ¿Nos tendría que dar miedo si alguna vez el humano pierde el control sobre la inteligencia artificial? ¿Estamos preparados para la IA?

Recordéun artículo interesantísimo de 2020 publicado en Afuera Blog donde el ingeniero Andrés Gómez Caram —que por aquel entonces estudiaba la Maestría en Ingeniería Eléctrica— explicaba cómo funcionan los modelos de lenguaje y su aplicación a la literatura. Así que fui a la fuente para conversar sobre IA, su uso y, ya desde una mirada más local, saber qué tan bien posicionado está Uruguay respecto a este tema.

Inteligencia artificial

Andrés, ¿cuándo empezó tu interés por la inteligencia artificial?

Me introduje al área en 2020, cuando comencé a cursar la Maestría en Ingeniería Eléctrica. Es la maestría del IIE, a la que uno la orienta hacia donde quiera. En mi caso, al igual que muchos colegas, fue hacia la IA.

En 2021 me integré al equipo de Machine Learning de UruIT para luego sumarme a Cogniflow, donde trabajo desde enero de 2022 como Machine Learning Engineer. Trabajamos con audio, voz, video, texto e imagen.

¿En qué consiste tu trabajo?

Mi rol conlleva estudiar la viabilidad de un proyecto, investigar nuevos modelos y técnicas, hacer pruebas de concepto y finalmente integrarlos a nuestra plataforma para que estén disponibles para los usuarios. Tenemos clientes de empresas de retail (análisis de sentimiento de textos), e-commerce (product matching), marketing, fintech (procesamiento de cheques), industrias (detección de objetos), biología (conteo de neuronas en imágenes de microscopía confocal), medicina y muchas otras áreas, del exterior y de Uruguay.

Continuamente estamos trabajando para incorporar nuevas funcionalidades a nuestro producto y mejorando las existentes, algo inevitable en la IA. Por ejemplo, ahora estamos trabajando en nuevas funcionalidades con modelos generativos como ChatGPT.

¿Cogniflow es una empresa uruguaya?

Es una empresa fundada por uruguayos: Marcelo Martínez (CEO) y Waldemar López (CTO). El domicilio de la empresa está en USA, como suele pasar. Varios de los que trabajamos en la empresa somos uruguayos y también hay personas trabajando desde Colombia y Perú.

Reconocimiento de Amazon

En abril de 2023 Cogniflow fue una de las 20 de 1100 startups seleccionadas para el AWS Impact Accelerator Latino Founders Cohort, un programa de apoyo de Amazon. Marcelo Martínez (CEO) y Waldemar López (CTO), fundadores de la empresa, viajaron a Seattle en mayo para comenzar el programa. "Fue una noticia excelente para nosotros, dado el apoyo económico y técnico que se brinda, sin mencionar lo importante que es que un gigante como Amazon nos dé su respaldo y reconocimiento. El programa finaliza en Nueva York, donde tendremos la oportunidad de presentar a Cogniflow con potenciales clientes e inversores", contó Andrés.

Waldemar López (CTO) y Marcelo Martínez (CEO), fundadores de Cogniflow
Waldemar López (CTO) y Marcelo Martínez (CEO), fundadores de Cogniflow, en las esferas de Amazon
Foto: Cedida por Marcelo Martínez

Te quiero preguntar más por el desarrollo en Uruguay, pero creo que es importante ir primero a lo básico. Si tuvieras que explicarle a una persona que no tenga idea qué es la inteligencia artificial, ¿cómo lo harías?

Una IA debe ser capaz de emular al humano en tareas que requieran cierto grado de inteligencia. Comprender un texto, traducir, reconocer objetos en una imagen o instrumentos musicales en una canción, y así con miles de tareas. La inteligencia como concepto es muy debatible y no por casualidad ha sido revisado en los últimos años. Ahora hay distintos tipos de inteligencia humana y a quien teníamos por alguien “inteligente” no es necesariamente la misma clase de persona que hace 50 años. En el caso de la IA, por ahora al menos, podemos centrarnos más en evaluar la “inteligencia” en tareas específicas, como las señaladas más arriba a modo de ejemplo.

También es importante tener en claro que IA es un término muy general y de lo que hablamos (y usamos) habitualmente son modelos de Machine Learning (o Aprendizaje Automático, AA). En una tarea clásica de AA se entrena un modelo con determinado conjunto de datos. Según el tipo de datos (texto, audio, voz, imagen, etc) se usan distintos algoritmos y estrategias de entrenamiento. Al final del día, un modelo es un conjunto de parámetros que se ajustan durante el entrenamiento. Una vez entrenado, se espera que reciba como entrada un dato nunca antes visto y devuelva una salida, que será la clase de un objeto en una imagen, una letra, el precio de un producto a futuro, entre otra infinidad de posibilidades.

¿Tenés algún ejemplo práctico?

Tal vez lo mejor sea entrar más en detalle a un modelo de Aprendizaje Automático con un típico caso de lo que se conoce como aprendizaje supervisado. Supongamos que tenemos fotos de mascotas (nuestro conjunto de datos) y queremos entrenar un modelo capaz de reconocer si una foto es de un perro o un gato (las clases o categorías). Este es un problema de clasificación de imágenes, y como tal, es sabido que el modelo más indicado para resolverlo será alguna de las Redes Neuronales Convolucionales (CNN, por su sigla en inglés).

Una CNN es una red neuronal profunda (i.e. que tiene muchas capas de neuronas artificiales) especialmente diseñada para desenvolverse bien con imágenes. Hay distintas arquitecturas ya conocidas y probadas, a las que se les pueden hacer modificaciones si se desea. Previo a comenzar el entrenamiento, la CNN tendrá sus parámetros inicializados con cierto valor. El entrenamiento en sí se programa y se lo deja corriendo hasta completarse. El entrenamiento, como proceso, es como si le dijéramos al modelo de forma coloquial: “Bueno, ahora va una foto de un gato como entrada. Pasala por tus parámetros, fijate qué salida te da, si es más gato o más perro, y actualiza tus parámetros para que la próxima vez que te la mande sea un gato tu salida”.

El proceso fundamental que corre por “debajo” es netamente matemático y se trata de optimizar una función de costo: se quiere hacer que la diferencia entre la realidad (mis imágenes etiquetadas con sus clases) y las etiquetas predichas por el modelo sea mínima. Para eso el modelo deberá ir ajustando sus parámetros durante el entrenamiento. Este proceso se repite de forma iterativa con todos mis datos, realizándose muchísimos cálculos (de ahí la alta capacidad de cómputo requerida) hasta que se alcanza cierto resultado en una métrica. Por ejemplo, nuestro clasificador de mascotas logró un acierto del 98%, o sea que de cada 100 imágenes, en 98 logra decidir de forma correcta si se trataba de un perro o de un gato. Algo que para un humano es trivial, para una máquina no, y por ello debe entrenarse por horas, días o meses, dependiendo del problema. Al final del día el modelo fue entrenado en una computadora que solo entiende números. La ventaja de la máquina reside en que, una vez entrenado el modelo, a diferencia de un humano, podrá procesar miles de imágenes por hora, y todo eso sin cansarse. Y si es un buen modelo, probablemente lo haga equivocándose menos que una persona.

DragGAN, la inteligencia artificial de edición de imágenes.
DragGAN, la inteligencia artificial de edición de imágenes.

¿Y qué características es capaz de comprender la CNN?

Una imagen digital no es más que un conjunto de números que indican qué tanto color tiene cada píxel que la compone y la etiqueta, perro o gato, será un 1 y un 0. El modelo, la CNN en nuestro ejemplo, detectará patrones en las imágenes, relaciones entre estos números que le indicarán si se trata de un perro o un gato. Los mismos patrones que como humanos reconocemos en un gato (orejas puntiagudas, ojos felinos, hocicos con bigotes) la máquina los aprenderá.

Podríamos indicarle a una computadora que haga determinada cosa si detecta que en los píxeles tal y cuál hay un ojo de un gato o la pata de un perro. Pero serían tantas las reglas a programar, y estas variarán tanto dado que cada foto y los objetos que contiene son tan diferentes, que sería imposible. El modelo de IA en cuestión aprenderá a estas reglas, ahí la ventaja de la IA y el porqué se encaran de forma diferente respecto a un problema de programación clásico, donde lo que se hace es programar reglas, instrucciones, comandos.

Para el ejemplo dado se usó una red neuronal profunda para procesar imágenes, pero los principios generales son los mismos: se tienen datos y un modelo al que hay que ajustar los parámetros para que sea lo más “inteligente” y sea capaz de generalizar lo más posible cuando tenga que enfrentarse con datos nunca antes vistos.

Pienso ahora en la foto que se viralizó del papa Francisco con una campera inflada, que estaba generada con IA. ¿Reveló “fallos” a corregir?

Creo que en el caso de la foto del papa, a nivel estrictamente técnico, el sistema funcionó perfectamente. Ahí el debate es si fue ético o no generar esa imagen. O que sea una falta de respeto para algunas personas y para otras un chiste.

papa-campera-inteligencia-artificial.jpg
Imagen viralizada del papa Francisco que fue generada con inteligencia artificial.
Instagram: @antifallen

En los últimos meses se puso de moda el ChatGPT y competidores. ¿Qué es?¿Cómo funciona?

ChatGPT, sus competidores y otros modelos como Dall-E, son lo que se llaman modelos generativos. El primero genera texto, el segundo imágenes. Su principal capacidad es la de generar datos. Son modelos gigantescos, entrenados con cantidades astronómicas de datos y por lo tanto capaces de aprender mucha información de distintas fuentes. Para ello es necesario una capacidad de cómputo enorme, que es muy costosa y por lo tanto solo las empresas grandes y bien financiadas son capaces de llevar esto a cabo (sin mencionar el talento humano que pueden contratar).

A grandes rasgos, ChatGPT es un Large Language Model (LLM), un modelo de lenguaje grande. Los modelos de lenguaje (LM) tienen la capacidad de generar texto. Básicamente dado un carácter inicial, son capaces de generar los siguientes en base a los datos con los que fueron entrenados. Si se le da la secuencia de caracteres ‘Hol’ al LM, es de esperar que este genere una ‘a’, y así sucesivamente. Los LM existen hace mucho tiempo gracias a técnicas pre Deep Learning, pero fue gracias a éste que se comenzaron a lograr resultados sorprendentes. Y en particular luego de que hicieran aparición las arquitecturas llamadas Transformers, que fueron la evolución natural del Deep Learning. Los Transformers revolucionaron el campo del PLN allá por 2017 y están haciendo lo propio en el campo de la Computer Vision. La clave en la buena performance de los transformers está en el uso del llamado mecanismo de atención. Este “mecanismo” fortalece la capacidad del modelo a la hora de considerar el contexto de una palabra y la información que éste provee a la hora de predecir la próxima.

ChatGPT se basa en un LLM, pero incorpora otra capacidad, la conversacional, para poder interactuar con humanos. Esto fue logrado ajustando el LLM con ejemplos de conversaciones creadas por humanos y con otra técnica conocida como RLHF, o Aprendizaje por Refuerzo de Feedback Humano. Para este tipo de entrenamiento es fundamental la intervención humana. La idea detrás es que humanos contratados para ello observen chats generados por el modelo y den su opinión (feedback) de qué tan bueno es. Con estos ejemplos de chats y las calificaciones humanas, se entrena nuevamente al modelo para que aprenda a interpretar mejor las preguntas y dar mejores respuestas. De las buenas calificaciones el modelo aprenderá a imitarlas, de las malas, a evitarlas. Los modelos basados en Aprendizaje por Refuerzos aprenden de forma pavloviana: reciben una recompensa cuando toman una buena decisión y un castigo cuando pasa lo contrario. Por eso son usados en aplicaciones como robótica y videojuegos, donde se tienen agentes que deben tomar la mejor próxima acción todo el tiempo.

¿Cuál es la fortaleza del chatGPT?

El poder de ChatGPT radica en la capacidad de aprender de tres grandes fuentes: buena parte de todos los textos subidos en toda la Internet, los ajustes finos que puede hacer al enseñarle cómo es una buena conversación y a poner a humanos de carne y hueso a darle feedback a las conversaciones que genera. Podríamos decir que el conocimiento del mundo lo obtendrá de todos los textos que se le dieron como datos de entrenamiento y a comportarse lo más humanamente posible de cómo interactuar en un contexto de conversación.

ChatGPT puede completar con éxito muchas tareas, como clasificar texto, traducir, resumir, entre otras. La irrupción del modelo hizo que se haya creado ya casi un área dentro de la IA que es la de Prompt Engineering, que sería básicamente aprender un conjunto de técnicas y buenas prácticas a la hora de consultar a ChatGPT para explotar al máximo la capacidad del modelo y así obtener las mejores respuestas posibles.

ChatGPT, el chat de inteligencia artificial desarrollado por OpenAI.
Logo de ChatGPT, chat de inteligencia artificial desarrollado por OpenAI
Foto: AFP

¿Por qué si venimos desde hace años hablando de inteligencia artificial estos sistemas se volvieron tan populares ahora?

La IA como disciplina, y como tema de ciencia ficción, existe desde la posguerra. Durante la Guerra Fría, como parte de la carrera armamentística y tecnológica entre los dos bloques, hubo mucho interés en desarrollar computadoras más inteligentes. En esos años surge el concepto de neurona artificial, el PLN (mayormente centrado en la traducción) y el Procesamiento de Señales (audio, imagen, video) ya era una realidad (aunque ambas áreas más bien no eran basadas en técnicas de Aprendizaje Automático). Luego, a partir de 1970 aproximadamente, vino lo que se conoce como “El Invierno de la IA”. Fue un período donde el interés en estas tecnologías prácticamente se esfumó, dejándose de financiar proyectos tanto en la esfera privada como en la pública. Pero a mediados de los 90 la primavera fue haciendo aparición y la IA volvió a ganar momentum, hasta el año clave de 2012, cuando el Deep Learning tomó verdadero impulso al lograr resultados nunca antes vistos en áreas como el NLP y la Computer Vision. Este boom fue producto de la convergencia de tres grandes procesos: décadas de investigación académica en IA, la inmensa cantidad de datos ahora disponibles y el mayor poder de cómputo existente y accesible (junto a más y mejores herramientas de software). Estos fueron los tres pilares fundamentales que lograron desatar a la IA.

En los años siguientes cada vez más empresas fueron adoptando estas técnicas e integrando estas tecnologías en sus programas y plataformas, llegando al público general, aunque a veces ni siquiera está al tanto de que la IA está presente en lo que está usando. La mayor presencia de esta tecnología, la noción en muchas personas de que una IA sabe cosas de él o ella y “la/lo conoce”, junto a la propensión a disparar la imaginación de la gente creo que hace que la IA esté tan presente en la opinión pública. Por supuesto que mucho de este interés fue despertado también por el mercado dada la enorme cantidad de recursos volcados en esta tecnología.

La IA está cada vez más presente en nuestra vida diaria, personal y laboral, como plataformas de streaming, redes sociales o un editor de textos, entre tantas otras. Buena parte de las aplicaciones que usamos recurren a la IA y ésta también participa en procesos de toma de decisiones, aunque no lo sepamos. Decidir si otorgar un crédito o no, predecir el precio de un activo en un futuro, ingresar a un edificio que cuenta con sistemas de reconocimiento facial, etcétera.

reconocimiento facial

Por esta cada vez más ubicua presencia de la IA es que ya está siendo regulada en algunos países o en vías de en otros. Y esto sólo para usos civiles que en buena parte preocupan por cuestiones de privacidad y sesgos de toda clase. En cuanto a aplicaciones de la IA para la defensa y la vigilancia, sabemos bastante menos. Pero sin duda es algo a tener en cuenta. No es casualidad que parte importante de la escalada de tensiones entre Estados Unidos y China se deba a la carrera que llevan en el desarrollo de la IA y el hardware necesario para ésta.

De todas maneras, la clave para que el tema haya ganado tanta fuerza en los últimos meses y que todo el mundo esté hablando sobre AI, se debe principalmente a que OpenAI, gracias a ChatGPT, logró que mediante un chatbot, con quien la gente ya está acostumbrada a interactuar, pueda realizar cosas sorprendentes en muchas áreas, como el marketing, el análisis de mercado o la generación de código, entre otras (además de que es muy divertido hacerle preguntas “graciosas” al modelo). El interés que despertó la herramienta en el público general queda evidenciado en números: ChatGPT logró 1 millón de usuarios en cinco días y 100 millones en solo dos meses, convirtiéndose en la plataforma que más rápido atrajo usuarios en la historia.

¿Por qué hay cierto miedo en torno a la IA?

El miedo que se genera en torno a la IA, o cierta ansiedad más bien, no es un fenómeno desconocido. Es una reacción que se ha suscitado cada vez que una nueva tecnología irrumpe (y disrrupte) alguna industria específica. Tanto en individuos como en colectivos, esta ansiedad hasta suele disparar impulsos luditas y su deseo de destruir las máquinas, aunque ahora no son más tejedoras a vapor, sino modelos de IA. Hay dos tipos principales de temor: el de tipo apocalíptico (e.g. una IA va a enloquecer y disparar misiles nucleares al tuntún) o el más terrenal y comprensible respecto a la pérdida de trabajos por sustitución.

¿Y cuánto hay de razonable en esa ansiedad?

En cuanto al primero, parece algo más lejano aún y producto de una sobreestimación del poder de la IA y la confianza que se le puede llegar a dar para tareas tan críticas. El segundo miedo sí es más realista. Algunas tareas pueden y ya son sustituidas por la IA, en general las más repetitivas y automatizables, aunque hay formas de automatización no basadas en IA hace años ya (e.g. Robotic process automation o RPA). Pero en la mayoría de las tareas me animo a decir que la sustitución no es una opción y en todo caso la IA puede actuar de forma complementaria, con el fin de aumentar la productividad. Este fenómeno creo que será el que en un corto plazo más vamos a experimentar. Tareas que con la IA se pueden hacer más rápido y tal vez mejor.

¿Por ejemplo?

En nuestro sector ya es una realidad con herramientas como Augmented Coding o GitHub Copilot, por ejemplo. Son asistentes de programación, modelos de NLP entrenados con billones de líneas de código programadas por humanos. De esta forma son capaces de ayudar autocompletando código o directamente creándolo de cero. Ya están disponibles, en minutos se instalan en un IDE (i.e. programas para desarrollar software) y listos para programar. Impactan haciéndole la vida más fácil al programador y, evidentemente, aumentando la productividad al ser posible escribir muchas más líneas de código por hora. Estas herramientas al momento no sustituyen al programador, solo lo asisten y potencian.

También es importante tener en cuenta que estos modelos tienen lo que se llaman “alucinaciones”. Se trata de salidas que los modelos dan y que no tienen sentido. Por más bueno que sea un modelo de IA, nunca es perfecto, por lo tanto son aspectos a considerar en tareas críticas, como en la medicina, la defensa o la seguridad pública. Es de esperar que también despierten temores en la opinión pública.

Se han debatido también cuestiones éticas y morales sobre la IA, incluso en Europa y Estados Unidos ya se está hablando de crear un marco jurídico. ¿Es esa otra fuente de ansiedad?

Así es. Una fuente de ansiedad respecto a la IA ya desde hace años es el de los sesgos, ya sean de género, clase o etnia. Estos sesgos pueden estar en los datos que se usan para entrenar y/o en las personas que desarrollan y prueban estos modelos. Y para peor pueden retroalimentarse para volverse cada vez más agudos. Es un asunto tan crítico que ya es un campo de investigación dentro de la IA. No es casualidad que la gente de OpenAI le haya dado importancia a los sesgos, así como también al mal uso de la herramienta, como el discurso de odio, el cibercrimen o la generación de contenido dañino en general. Ya habrán visto casos, o experimentado directamente, donde ChatGPT se niega a responder preguntas que puedan fomentar la intolerancia o el discurso de odio, entre otros males. Es como el caso de la foto del papa con el abrigo, para muchos es una foto graciosa, para algunos una falta de respeto. Siempre surgirán cuestionamientos y ahí está en cómo reacciona la industria, la academia y el Estado.

Más allá de eso, aún se necesitan mejoras en la materia, dado que casos de lo que se conoce como “jailbreaking” se han hecho públicos y hasta viralizado. Por “jailbreaking” se entiende el manipular a la herramienta para que termine devolviendo respuestas que de otra manera se hubiera negado en un principio. Seguramente veamos en nuevas versiones de ChatGPT una mayor robustez frente a estos “ataques”. Los ataques no son novedad en la IA. Por ejemplo, son famosos los casos de “ataques adversarios” (e.g. tratar de engañar a un algoritmo de reconocimiento facial usando lentes, bigote falso y sombrero). En casos de uso sensibles es algo a considerar y por esa razón también ya es una sub-área dentro de la IA, particularmente fuerte en, por ejemplo, el desarrollo de vehículos no tripulados (e.g. engañar a los algoritmos de visión artificial con señales de tránsito falsas).

La Unión Europea (UE) y Estados Unidos anunciaron este miércoles la creación de un borrador de “código de conducta” común para la inteligencia artificial (IA), que se aplicaría de manera voluntaria por las empresas del sector.

La UE prepara un marco jurídico completo e imperativo que se aplicaría en materia de IA en unos años -como muy pronto a finales de 2025- pero el código de conducta pensado con Washington será de aplicación voluntaria, precisó Mme Vestager.

China también tiene proyectos de regulación, en especial una “inspección de seguridad” de las herramientas de la IA.

El presidente chino, Xi Jinping, y otros altos responsables del país, se pusieron de acuerdo sobre la necesidad de controlar más esta tecnología, según informó la prensa estatal y recogió la agencia AFP, para “mejorar la vigilancia de los datos de las redes y la inteligencia artificial”.

“Tenemos que prepararnos para enfrentarnos a los peores escenarios posibles y estar preparados para resistir a los vientos violentos, las aguas turbias e incluso a las tormentas peligrosas”, declararon los responsables tras una reunión entre los dirigentes del Partido Comunista Chino, según la agencia oficial Xinhua.

El sector está dominado por gigantes estadounidenses como Microsoft -principal accionista de OpenAI, la firma que opera ChatGPT-, Meta o Google.

Con esta base, volvamos al principio. ¿Dónde se puede formar alguien que quiera dedicarse a la IA en Uruguay?¿Qué enseñan?

En la Facultad de Ingeniería de la Universidad de la República (Fing-Udelar) hace décadas que hay gente trabajando en el área, investigando y dando cursos. Principalmente son equipos de investigadores y docentes del Instituto de Ingeniería Eléctrica (IIE) y del Instituto de Computación (InCo), que son las ingenierías donde surgieron estas disciplinas. En los últimos años el boom de la IA hizo que se crearan nuevos cursos y los ya existentes se volvieran notoriamente más populares. Esto pasa tanto en las carreras de grado como en las de posgrado. Hubo gente que se especializó en IA durante el grado y otros en posgrado. Ambos institutos cuentan con maestrías y doctorados en el área y desde 2020 existe un Posgrado, una Maestría Aplicada y una Maestría Académica en Ciencia de Datos. Se compone de materias y docentes del IIE, InCo e IMERL (Instituto de Matemáticas de la Fing) y está abierto a todo profesional interesado en la Ciencia de Datos. La mayoría de los estudiantes son ingenieros eléctricos y en computación, encontrándose también mucha gente de Ciencias Económicas, Ciencias y Ciencias Sociales, entre otras. Básicamente personas de disciplinas donde la Ciencia de Datos ha impactado o tiene potencial.

Por otro lado, la UTEC tiene una maestría en conjunto con el MIT; las universidades privadas, como la ORT y la UCU, tienen posgrados y maestrías en IA y Ciencia de Datos. Además, hay institutos de programación con cursos y carreras en Ciencia de Datos. Toda el área ha tomado mucho impulso en los últimos años.

Hay carreras de corte más bien académico y otras más bien aplicadas. Va en lo que quiera la persona y su background qué elegir. Por lo pronto la IA es un campo donde se necesitan personas con oficio por investigar y atacar problemas nuevos altamente abstractos y también a la vez talentos más indicados para soluciones tal vez menos complejas pero de calidad y que requieran otras habilidades más allá de lo estrictamente vinculado a la IA.

¿Se están llevando a cabo muchos proyectos locales en la materia?¿Hay suficiente personal cualificado?

Artigas inteligencia artificial

Hay numerosas empresas dedicadas a consultoría en IA. Algunas se dedican exclusivamente al área, otras no, pero tienen equipos dedicados, aunque se centran más bien en el desarrollo de software tradicional. También hay empresas centradas en producto, como nosotros en Cogniflow. Cogniflow ayuda a profesionales no-técnicos (sin conocimientos de programación) a integrar IA en sus flujos de trabajo. Ofrecemos modelos pre-entrenados que permiten hacer transcripciones de audio, extraer texto de imágenes (OCR), hacer reconocimiento facial, entre otros. También ofrecemos la posibilidad de entrenar modelos propios desde texto, imagen o audio, que nuestros clientes han utilizado para crear soluciones que permiten obtener datos de una foto de un cheque, o clasificar millones de comentarios de clientes desde Excel identificando categorías definidas por el usuario, o hasta crear un modelo de conteo de neuronas en una imagen de microscopio. Una de las nuevas funcionalidades que más ha interesado a nuestros usuarios es lo que llamamos "CogniGPT", que permite crear un chatbot del estilo ChatGPT pero que responda sobre documentos propios. Cogniflow abstrae toda la complejidad técnica, todo el entrenamiento de los modelos y la disponibilidad de ellos mediante una API siempre lista para usar o utilizando nuestras integraciones con Excel, por ejemplo.

Respecto a la disponibilidad de personal cualificado, cada vez hay más demanda, que es difícil de cubrir, como suele suceder en la industria tecnológica. Pero también cada vez hay más gente sumándose a la disciplina, no solo desde las ingenierías, sino también de otras carreras científicas o sociales; también hay autodidactas. Además, la mayor oferta curricular disponible ha incentivado a mucha gente a meterse en la IA. A eso se suma la aparición de nuevos roles, como el de Prompt Engineer, que significan nuevas oportunidades para cada vez más profesionales de diversas áreas. La misma naturaleza del área, tan cambiante y en continua evolución, va a producir constantes desafíos a la hora tanto de la generación de talento como de su reclutamiento.

¿Se contrata desde el exterior a los uruguayos que se dedican a la IA?

Sí. Las empresas uruguayas trabajan principalmente para clientes de Estados Unidos y del resto del mundo, aunque también los hay locales. Estados Unidos es el principal importador de software del mundo y en muchos casos lo van a buscar a países como el nuestro, donde pueden encontrar calidad y buen precio, por eso somos tan buenos exportando software.

La pandemia además ha facilitado y acelerado el que profesionales del área trabajen directamente para empresas del exterior. Esto no solo se ha dado en la IA, sino que en toda el área tecnológica.

También en el área académica son muchos los uruguayos que se dedican a la IA en universidades extranjeras, dando clases, investigando o cursando. Creo que hay una buena formación en la materia y en varias disciplinas, como la matemática o la programación, que pueden ser de suma importancia para que un profesional se introduzca en el área.

¿El Estado da ayudas para investigación y desarrollo en inteligencia artificial?

La Agencia de Gobierno electrónico y Sociedad de la Información y del Conocimiento (Agesic), la Agencia Nacional de Investigación e Innovación (ANII), el ministerio de Industria, la Universidad Tecnológica y la Udelar son instituciones públicas que apoyan iniciativas y proyectos de IA, pero que yo sepa no existen programas más abarcativos y extensos diseñados para el área a un nivel estratégico y con miras a largo plazo.

¿Cuánto se cobra trabajando en inteligencia artificial?

Consultado por cuánto cobra un profesional en inteligencia artificial, Gómez Caram precisó que los sueldos dependen de "la formación, el rol y sobre todo la seniority de la persona (cuántos años de experiencia en el rubro)". "Digamos que para un rol de Data Scientist o similar se paga a partir de aproximadamente US$ 20 la hora", precisó.

¿Encontraste un error?

Reportar

Te puede interesar

Publicidad

Publicidad