Al hablar de tecnologías “que aprenden” a veces mezclamos conceptos que comparten ámbitos pero que realmente tienen áreas bien diferenciadas que conviene distinguir. En este artículo intentaremos aclarar aquellas tecnologías inteligentes relacionadas con datos que son parte de la transformación tecnológica de las empresas y que, a veces, se usan indistintamente cuando realmente no son lo mismo.

Inteligencia Artificial

Es la más “antigua” de las disciplinas aunque su propia referencia ya nos lleve a pensar en ciencia ficción y mundos aún inexistentes. Ya en los años ‘50 se hablaba de esta disciplina y se coqueteaba con la “inteligencia de las máquinas”. Como pudimos leer en un artículo anterior sobre la evolución de las tecnologías, su historia ha sido de altibajos hasta que resurge en los últimos años gracias, especialmente, a la explosión del big data que le aportaba el ingrediente clave: los datos.

La inteligencia artificial (AI por su acrónimo inglés, Artificial Intelligence) viene a ser la simulación de inteligencia humana por parte de sistemas informáticos (o máquinas, más informalmente referido). En este proceso de simulación se incluye la captación de información por parte del sistema informacional, el razonamiento o aplicación de lógica en base a reglas dadas y la autocorrección en caso de que sea necesario por parte del propio sistema. De esta manera, el objetivo final de una inteligencia artificial es lograr detectar patrones y alcanzar soluciones más eficientes que los propios seres humanos.

A nivel empresarial, gracias a que las actuales tecnologías permiten procesar mayor volumen de datos y con mayor rapidez, la AI ha resurgido con más fuerza y se ha convertido en una solución tecnológica real. No obstante, lo que se está generalizando más en este momento es lo que se conoce como AI débil o reactiva, sistemas de asistencia personal como Siri, diseñada para unas tareas muy concretas y limitadas. El lograr que una máquina consiga “pensar” por sí misma, como haría un humano, es lo que se conoce como AI fuerte y es lo que asociamos más con la ciencia ficción.

En su aplicación a Negocio, la AI se está utilizando para tareas repetitivas de análisis de información o automatizando toma de decisiones en base a reglas introducidas en el sistema, por ejemplo, aplicable a múltiples sectores.

Machine Learning

Una de las claves del desarrollo de la AI es el aprendizaje, de forma que, sin necesidad de programar todas las infinitas reglas y variables posibles, el sistema pueda aprender y tomar decisiones por sí mismo en base a ese aprendizaje. Esta es la diferencia clave de las tecnologías inteligentes, ya que si requirieran programación total de todas sus variables de nada se diferenciarían de la computación como la entendemos de forma más tradicional. Este tipo de inteligencia artificial, con bastante grado de fiabilidad en sus decisiones, es lo que identificamos con el concepto machine learning.

El modelo más común hoy en día es el machine learning supervisado, que requiere de la intervención humana, proporcionándole a la máquina el histórico de información necesario para “aprender” o le indica de manera inicial qué es correcto y qué no lo es. En un momento más incipiente está el machine learning no supervisado, en el que la máquina no tiene información previa etiquetada sino que es ella misma la que “estudia” la información y genera patrones.

Su aplicabilidad real está muy relacionada con la predicción, debido a ese estudio del histórico (ya sea en el modelo supervisado o no). Abre un enorme campo de posibilidades para todas aquellas acciones que requieran de predicción de comportamiento, ya sea de personas en tendencias y consumo, de detección de fallos u optimización de procesos, por ejemplo.

El machine learning es una disciplina que será parte del progreso de muchas compañías que, indiscutiblemente, siempre tendrán entre sus objetivos la reducción de tiempos, costes y errores.

Del aprendizaje al entendimiento es el siguiente paso de las tecnologías inteligentes #machinelearning #deeplearning Clic para tuitear

Reinforcement Learning

Dentro del ámbito del aprendizaje automático, el concepto reinforcement learning cobra su importancia en determinados ámbitos en los que la optimización es relevante. A diferencia de otros modos de aprendizaje, el sistema no requiere de un histórico de datos o información del que partir para entrenar, sino que lo hace por repetición realizando la misma maniobra una y otra vez con ligeras alteraciones de sus instrucciones cada vez para conseguir de mejor manera el objetivo dado, favoreciendo, en cada ocasión, aquellas “decisiones” que identifica correctas y que le ayudan a alcanzarlo.

Un buen ejemplo de esto que comentamos es esta simulación de optimización genética desarrollada por David Bau. El programa utiliza un simple algoritmo genérico para transformar formas aleatorias de dos ruedas en coches a lo largo de generaciones, con el objetivo o la orden dada de llegar lo más lejos posible. Es un método muy asociado al aprendizaje humano de los niños, quienes acaban aprendiendo por repetición gran parte de su conocimiento motriz, por ejemplo.

A pesar de que los experimentos ya empezaron a finales de los años ‘60, actualmente es una tecnología muy limitada a juegos de simulación, por ejemplo, pero se prevé que se abrirá paso en ámbitos de la conducción automática de los coches o seleccionar configuraciones óptimas de recursos y que tendrá un impulso gracias al avance de otras tecnologías que requerirán de ella.

Si te interesa este tema, te dejamos un interesante artículo de MIT Technology Review para entender de forma más completa el concepto reinforcement learning.

Deep Learning

El campo más reciente de estas tecnologías inteligentes es el aprendizaje profundo o deep learning, también el que más se inspira, salvando las distancias, al comportamiento humano como una red neuronal. El deep learning se centra en el aprendizaje jerarquizado o aprendizaje de representación, creando formas de leer la información que aprende capa a capa de profundidad. De esta forma, la “inteligencia” es capaz de enriquecer la información que pasa a la capa siguiente aportándole información representada que ésta es capaz de mejorar. A diferencia del machine learning, que requiere de introducir información con un mínimo de procesamiento humano, el deep learning es capaz de empezar con los datos más puros y brutos, con el valor inicial del pixel de información.

El reconocimiento de imágenes es uno de los principales campos donde se está poniendo en práctica. Al igual que en el aprendizaje de un niño, aplicando deep learning la máquina es capaz de estudiar una imagen y variantes de ellas y sacar patrones comunes. Por ejemplo, estudiar una fotografía de varios tipos de perros en diferentes contextos, de manera que cada vez que vuelva a ver una imagen que comparta esos patrones, la identificará y clasificará como un perro por su propio aprendizaje. Lo importante no es que se trate del mismo tipo de perro o el mismo tamaño, sino que, a través de elementos comunes, es capaz de clasificarlo como tal.

Su aplicación requiere cada vez niveles mayores de computación y procesamiento complejo, pero su potencial es enorme y definitivo para que sistemas informacionales sean realmente inteligentes equivalente a la inteligencia humana.

Si quieres entender mejor el tema del aprendizaje por capas, te dejamos un artículo sobre cómo funciona el deep learning, un poco técnico pero interesante para ello.

Natural Language Processing

NLP o Natural Language Processing es la técnica que se aplica para extraer información, ya sea de textos o voz, para mejorar la eficacia de la comunicación entre las personas (el lenguaje humano) y las máquinas (el lenguaje computacional).

Su origen está muy vinculado a la inteligencia artificial en sus primeros experimentos, aunque no es hasta los años ‘80 cuando se desarrollaron los primeros sistemas de traducción automática.

¿Cómo funciona? Requiere un proceso de modelización matemática que permita que el ordenador, que tiene su propio lenguaje, entienda el humano. En este proceso participan dos roles importantes: los informáticos codifican utilizando lenguajes de programación (como puede ser Python) y los lingüístas computacionales adecúan el modelo para que los ingenieros informáticos lo implementen.

Con una alta aplicabilidad, la aparición de los chatbots en los últimos años ha supuesto un resurgir de su valor e importancia para avanzar en el campo de la relación de las personas con los sistemas de información, ya sea en análisis del lenguaje, reconocimiento de voz, traducción automática, extracción y recuperación de información. Se convierte en una técnica que combina computación, inteligencia artificial y lingüística, esencial para el desarrollo de casi cualquier solución tecnológica que pretenda interactuar con las personas o analizar información generada por estos.

No obstante, aún hay barreras por resolver, como la ambigüedad de las palabras, el lenguaje coloquial o el sentimiento, por ejemplo.

Aproximación al escenario de las tecnologías inteligentes y su evolución en el tiempo. Fuente: Keepler.

Algoritmos: la clave de todo

En las tecnologías anteriores hemos hablado de un elemento clave: las reglas u órdenes. Estas reglas son lo que conocemos como algoritmos. Se trata de reglas abstractas o instrucciones, que se pueden introducir a nivel humano, y permiten la autoconfiguración o autodesarrollo por parte de la máquina para solucionar un problema.

Los algoritmos son la base de toda tecnología inteligente, ya que marca los pasos que seguirá la máquina en su aprendizaje. Estos tienen un input de información (el problema) o configuración, un periodo de aprendizaje y un output (la solución). La labor del programador pasa por traducir la realidad de un problema a solucionar en un lenguaje que la máquina pueda entender, reducir la complejidad del proceso en tareas sencillas y dar las órdenes específicas para que la máquina sea capaz de estudiar, aprender y aportar la solución o respuesta con la mayor precisión posible. Su éxito suele medirse en la solución o no del problema, el tiempo, el número de operaciones que realiza y la memoria o recursos utilizados, es decir, la eficiencia.

Hablemos de algoritmos famosos, por ejemplo el de Google, ese que coloca una web en una posición u otra en el SERP, o el de Facebook o el de los trending topic de Twitter… en todo caso, se establecen para decidir mostrar un contenido sobre otro en base a unas reglas dadas que el usuario desconoce. Para que te hagas una idea, Google utiliza en su buscador más de 200 algoritmos en los que que cada año modifica sus variables más de 500 veces al año, lo que lo hace prácticamente imposible de conocer por un ser un humano. Estos niveles de complejidad son los que permiten la colaboración hombre-máquina para alcanzar mejores resultados.

Conceptos para entender las tecnologías inteligentes #tech #AI #machinelearning #deeplearning #NLP Clic para tuitear

Imagen: pexels.com | pixbay

Author

  • Adelina Sarmiento

    CMO at Keepler. "My experience is focused on corporate communications and B2B marketing in the technology sector. I work to position Keepler as a leading company in the field of advanced data analytics. I also work on a thousand other things to make Keepler a top company to work for."