Google revela el proyecto SANPO, un conjunto de datos visuales de la perspectiva de un peatón, para poder entrenar a nuevas IA en la detección de obstáculos y reconocimiento de objetos, con la finalidad de ayudar a robots a moverse con más facilidad por las calles y también crear nuevos dispositivos de orientación para personas ciegas. https://blog.research.google/2023/10/sanpo-scene-understanding-accessibility.html
Google también presentó PREFACE, un modelo entrenado con antelación con cientos de miles de fotos de rostros en múltiples ángulos, que luego, al ser agregado a un workflow de NeRFs, permite transformar muy pocas fotos del rostro de una persona en un modelo 3D casi perfecto en calidad 4K. https://syntec-research.github.io/Preface/
Científicos entrenaron una IA para poder detectar diferencias en los patrones de lenguaje en pacientes que podrían sufrir de esquizofrenia, ya que el cerebro de estos pacientes asocian de forma muy diferente las memorias con las ideas, formando un mapa cognitivo que se diferencia al predecido por la IA. https://neurosciencenews.com/ai-schizophrenia-language-24929/
Adobe mostró un preview de los nuevos avances con la integración de Firefly en todos sus programas:
Generación de diseños vectorizados,
Modificación de narración en video,
Texto a template,
Ajustar estilo de imagen de IA a una imagen de referencia,
Traducción automática de textos,
Relleno generativo en video,
Boceto a diseño,
Edición de fotos con segmentación y relleno automático…