¿Producen los modelos de Aprendizaje Automático resultados confiables con datos de entrenamiento limitados? Esta nueva investigación de IA de la Universidad de Cambridge y la Universidad de Cornell lo descubre…
Nueva investigación de IA de las universidades de Cambridge y Cornell revela si los modelos de Aprendizaje Automático son confiables con datos de entrenamiento limitados.
El aprendizaje profundo se ha convertido en una técnica potente e innovadora en inteligencia artificial, con aplicaciones que van desde el reconocimiento de voz hasta sistemas autónomos, visión por computadora y procesamiento del lenguaje natural. Sin embargo, el modelo de aprendizaje profundo requiere una cantidad significativa de datos para entrenarse. Para entrenar el modelo, una persona a menudo anota una cantidad considerable de datos, como una colección de fotos. Este proceso es muy lento y laborioso.
Por lo tanto, ha habido mucha investigación para entrenar el modelo con menos datos, de modo que el entrenamiento del modelo sea más fácil. Los investigadores han intentado descubrir cómo crear modelos de aprendizaje automático confiables que puedan comprender ecuaciones complicadas en circunstancias reales utilizando una cantidad mucho menor de datos de entrenamiento de la que se anticipa normalmente.
En consecuencia, investigadores de la Universidad de Cornell y la Universidad de Cambridge descubrieron que los modelos de aprendizaje automático para ecuaciones en derivadas parciales pueden producir resultados precisos incluso cuando se les proporciona poca cantidad de datos. Las ecuaciones en derivadas parciales son una clase de ecuaciones de física que describen cómo evolucionan las cosas en el mundo natural en el espacio y el tiempo.
Según el Dr. Nicolas Boullé del Instituto Isaac Newton de Ciencias Matemáticas, entrenar modelos de aprendizaje automático con humanos es eficiente pero consume tiempo y dinero. Tienen curiosidad por aprender exactamente qué cantidad mínima de datos es necesaria para entrenar estos algoritmos y obtener resultados precisos.
- Conoce a MAmmoTH Una serie de Modelos de Lenguaje Amplios (LLMs) de...
- Técnicas de vanguardia para aplicar modelos de lenguaje grandes
- George R.R. Martin y otros autores demandan a OpenAI
Los investigadores utilizaron álgebra lineal numérica aleatorizada y teoría de ecuaciones en derivadas parciales para crear un algoritmo que recupera los operadores de solución de ecuaciones en derivadas parciales elípticas tridimensionales a partir de datos de entrada y salida, y logra una convergencia exponencial del error en relación con el tamaño del conjunto de datos de entrenamiento, con una probabilidad de éxito increíblemente alta.
Boullé, un investigador postdoctoral de la Fundación INI-Simons, dijo que las ecuaciones en derivadas parciales son como las piezas fundamentales de la física: pueden ayudar a explicar las reglas físicas de la naturaleza, como cómo se mantiene el estado estacionario en un bloque de hielo que se derrite. Los investigadores creen que estos modelos de IA son básicos, pero aún podrían ayudar a comprender por qué la IA ha sido tan efectiva en física.
Los investigadores utilizaron un conjunto de datos de entrenamiento con una variedad de cantidades aleatorias de datos de entrada y respuestas coincidentes generadas por computadora. Luego probaron las soluciones proyectadas de la IA en un nuevo conjunto de datos de entrada para ver qué tan precisas eran.
Según Boullé, depende del campo, pero en física descubrieron que se puede lograr mucho con muy pocos datos. Es sorprendente cuánta información se requiere para producir un modelo sólido. Dijeron que las propiedades matemáticas de estas ecuaciones nos permiten aprovechar su estructura y mejorar los modelos.
Los investigadores dijeron que es importante asegurarse de que los modelos aprendan el material adecuado, pero el aprendizaje automático para la física es un tema atractivo. Según Boullé, la IA puede ayudar a resolver muchos desafíos matemáticos e intrigantes de física.