Hemos actualizado las especificaciones del modelo a partir de comentarios externos y de nuestras investigaciones continuas para orientar el comportamiento deseado del modelo.
We’ve simplified, stabilized, and scaled continuous-time consistency models, achieving comparable sample quality to leading diffusion models, while using only two sampling steps.
Presentamos un subgrupo de SWE-bench validado por humanos que evalúa de forma más fiable la capacidad de los modelos de IA para resolver problemas de software del mundo real.
OpenAI y el Laboratorio Nacional de Los Álamos están trabajando para desarrollar evaluaciones de seguridad a fin de evaluar y medir capacidades biológicas y riesgos relacionados con modelos de frontera.
Anunciamos GPT-4 Omni, nuestro nuevo modelo insignia con capacidad de razonamiento en tiempo real a través de audio, imágenes y texto.
GPT-4 es el último hito en los esfuerzos de OpenAI por ampliar el aprendizaje profundo. GPT-4 es un modelo multimodal de gran tamaño (acepta entradas de imagen y texto, y genera salidas de texto) que, si bien es menos capaz que los humanos en muchas situaciones del mundo real, muestra un comportamiento similar al humano en varias pruebas de referencia profesionales y académicas.
We built a neural theorem prover for Lean that learned to solve a variety of challenging high-school olympiad problems, including problems from the AMC12 and AIME competitions, as well as two problems adapted from the IMO.
We’ve discovered neurons in CLIP that respond to the same concept whether presented literally, symbolically, or conceptually. This may explain CLIP’s accuracy in classifying surprising visual renditions of concepts, and is also an important step toward understanding the associations and biases that CLIP and similar models learn.