El aprendizaje automático podría hacer que las computadoras "crezcan" con el tiempo | IT Masters Mag

ESPECIAL

El aprendizaje automático podría hacer que las computadoras “crezcan” con el tiempo



Dirección copiada

En general, las computadoras se ralentizan a medida que envejecen y sus procesadores luchan por trabajar con software más nuevo y exigente.

Publicado el 13 mar 2018



Chips

En general, las computadoras se ralentizan a medida que envejecen y sus procesadores luchan por trabajar con software más nuevo y exigente.

Para nadie es un secreto que Apple, incluso, ralentiza deliberadamente sus iPhones a medida que sus baterías se degradan. Es en este escenario que los investigadores de Google han publicado detalles de un proyecto que podría permitir que una computadora portátil o un teléfono inteligente aprenda a hacer las cosas mejor y más rápido con el tiempo.

Los expertos abordaron un problema común en la informática, llamado captación previa. Las computadoras procesan la información mucho más rápido de lo que pueden extraerla de la memoria para ser procesada. Para evitar los cuellos de botella, intentan predecir qué información es probable que se necesite y sacarla con anticipación. A medida que las computadoras se vuelven más poderosas, esta predicción se vuelve progresivamente más difícil.

En un documento dado a conocer por Technology Review, el equipo de Google describió el uso del aprendizaje profundo, un método de Inteligencia Artificial que emplea una gran red neuronal simulada para mejorar la captación previa. Aunque los investigadores no han demostrado lo mucho que esto acelera los procesos, el impulso podría ser grande, dado los avances que el aprendizaje profundo ha traído a otras tareas.

“El trabajo que hicimos es solo la punta del iceberg”, dice Heiner Litz de la Universidad de California, Santa Cruz, investigador del proyecto.

Litz cree que debería ser posible aplicar el aprendizaje automático a cada parte de una computadora, desde el sistema operativo de bajo nivel hasta el software con el que los usuarios interactúan.

Avances oportunos

La Ley de Moore, finalmente, se está desacelerando, mientras que el diseño fundamental de los chips de computadora no ha cambiado mucho en los últimos años.

Tim Kraska, profesor asociado del MIT que también está explorando cómo el aprendizaje automático puede hacer que las computadoras funcionen mejor, dice que el enfoque podría ser útil también para algoritmos de alto nivel.

Según él, una base de datos podría aprender automáticamente cómo manejar los datos financieros en lugar de los datos de las redes sociales, a la vez que una aplicación podría enseñar a sí misma a responder a los hábitos de un usuario, en particular, de manera más efectiva.

“Tendemos a construir sistemas y hardware de propósito general. El aprendizaje automático hace posible que el sistema se personalice automáticamente, en su núcleo, a los datos específicos y patrones de acceso de un usuario”, dice Kraska.

Ahora bien, el experto advierte que el uso del aprendizaje automático sigue siendo computacionalmente costoso, por lo que los sistemas informáticos no cambiarán de la noche a la mañana.

“Sin embargo, si es posible superar estas limitaciones, la forma en que desarrollamos los sistemas podría cambiar fundamentalmente en el futuro”, destaca.

Litz es más optimista. Para él, el gran objetivo es un sistema que se monitorea constantemente y aprende.

“Esto es realmente el comienzo de algo realmente grande”, puntualiza.

Artículos relacionados

Artículo 1 de 4