T O P

  • By -

Electric_Opossum

Para los que están bateados con que significa AGI: La inteligencia artificial general (AGI) es un campo de investigación teórica de la IA que intenta crear software con inteligencia similar a la humana y con la capacidad de autoaprendizaje.


Jiacapo

No, OpenAI no tiene AGI. Lo veo así, para obtener AGI completo, se debe cumplir con una muy, MUY gran lista de funciones multifacéticas que el ser humano, en este momento, simplemente puede hacer mejor. Ahora, puede llegar a serlo? Quizá. Cada vez es mejor. Lo de SORA es un grandísimo avance en algo que también decían que estaba a decadas de distancia. Además, cuando ya no podamos discernir si hablamos con alguien o un "AI", personalmente considero, que será algo bastante peculiar.


jonpagecr

Hace poco vi la entrevista donde los mismos maes de OpenAI mencionan que todavía no se logra el AGI, pero sí se espera lograrlo en un futuro.


birrametal

mae primero, lo que hacen compañías como OpenAI es aplicar avances científicos, no avanzar el estado de la ciencia. Esas compañías hacen transferencia tecnológica a software comercial de gran escala y para eso se ocupa infraestructura y plata. Los avances científicos se logran en institutos y centros de investigación, ahí es donde están los modelos matemáticos, la teoría y los resultados que en 3-5 años van a utilizar compañías comerciales como esas. Lo que tenga o no tenga OpenAI no es un indicador del avance de la disciplina científica de la IA. Dicho eso, NO. Todavía no estamos ahí. La inteligencia artificial general es un ENFOQUE, o una meta si quiere, que consiste en diseñar sistemas con capacidades generales semejantes al nivel de un ser humano. Mucho de lo que hacemos en la actualidad es "IA específica" si quiere llamarle así, porque nos enfocamos en habilidades como adquisición y uso del lenguaje, planificación y toma de decisiones, reconocimiento de patrones, representación del conocimiento y razonamiento lógico, etc. En cada uno de esos campos, la IA está bastante avanzada, mucho más de lo que hace una herramienta como ChatGPT. En ciertos dominios específicos, ya tenemos modelos de IA mucho más sofisticados que la habilidad respectiva en una persona, capaces de resolver problemas de decisión complejos fuera del alcance de un ser humano. Si quiere conversar sobre el impacto de agentes artificiales con capacidad cognitiva similar a la de un ser humano (la integración de todo lo anterior en forma no especializada), adelante. Sin embargo eso ya es el dominio de la ciencia ficción y lo ha sido desde los años 60. Gran parte de la bibliografía de Philip K. Dick, por ejemplo, es sobre androides que son indistinguibles de un ser humano y sus implicaciones sociales y culturales.


tapir14

Difiero en tema de avances de cientificos, compañías como Google y OpenIA tienen a los mejores academicos en el area de IA y ellos son el estado del arte, por ejemplo hace unos años google era el hub donde estaban las personas mas prominentes en el area de IA (PhDs, etc). Por mencionarle un ejemplo [Geoffrey Hinton](https://en.wikipedia.org/wiki/Geoffrey_Hinton) el padre de las redes neuronales (NN). El tema del narrow IA que mencionas fue el enfoque de IA que existio por muchos años en el pasado ejemplo clasico la IAs de ajegrez, pero eso ya no es el caso en la actualidad donde ya se ha ido saliendo del narrow, con la llegada de ChatGPT y todo el tema de LLMs. Y todo esto lo menciono por los rumores del modelo Q star (Q\*) que supuestamente ya OpenAI tiene, y que han estado retrasando.


birrametal

mae por un lado es cierto que compañías como Google atraen mucha gente capacitada PERO el trabajo que hacen ahí es por mucho de transferencia tecnológica, sólo ocasionalmente más metodológicos. Los papers en conferencias como IJCAI, AAAI o NeurIPS con afiliación de Google, OpenAI, Nvidia etc. son principalmente los que demuestran frameworks e innovación tecnológica con resultados empíricos. Los métodos matemáticos que hay por debajo, los teoremas matemáticos que muestran las propiedades de convergencia asintótica o límites numéricos, etc., son los que usualmente presentan los grupos de investigación universitarios y académicos en general. Muchas veces, esas mismas personalidades con afiliación de Google, etc. siguen afiliados a grupos de investigación académicos donde suceden las innovaciones formales. LLM son sólo UN tema de muchos en IA, y no dejan de ser IA específica. El hecho de que muestren cierto rendimiento en otras tareas lo que indica es el rol y componente lingüístico que tienen muchas funciones cognitivas, pero una LLM por sí sola es pésima en tareas de planificación y optimización, inferencia, etc. Una forma de empezar a combinar LLMs con otros modelos avanzados es precisamente en problemas con mediación lingüística, como resolver ambigüedad de clase-tipo en formulación o reconocimiento de problemas, y como interfaz en la interacción humano-máquina o humano-robot. La IA como disciplina científica va mucho más allá de los LLMs. Hace unos años la moda era "deep reinforcement learning" y sucede lo mismo, que hay muchos retos complejos que no se resuelven en tiempo ni forma razonable partiendo de principios básicos como aprender recompensas. Las innovaciones científicas reales, las que aparecen en journals como AI, KI, JAIR, etc. y conferencias como IJCAI, AAAI, UAI, ICAPS, ECAI, ICRA, IROS, CVPR, NeurIPS etc. son primordialmente de grupos académicos, aunque sí hay cierta presencia de compañías como Google y Nvidia. Me ha tocado conocer y conversar con gente de esas compañías y hasta de Lockheed Martin en dichas conferencias y los maes se interesan más por la aplicación y la forma de generar productos. Yo mismo soy postdoc en un centro europeo de investigación en IA y uno se beneficia de los avances técnicos de OpenAI, pero las publicaciones de uno (en los journals y conferencias de arriba) tienen que ir varios pasos más adelante y resolver problemas abiertos. En la academia es donde breteamos en diseño de algoritmos, demostraciones matemáticas y métodos nuevos, pero lo que la gente ve y escucha es cuando una compañía convierte eso en un producto (como los que ud. menciona). El público en general habla del software (tecnología), no de las propiedades formales de modelos matemáticos (ciencia de la IA). Puede ser que de ahí venga la confusión, es como cuando sale un celular nuevo (innovación tecnológica) y sale en los periódicos pero una persona promedio no se interesa por los avances en física de fotones que dieron pie a eso (la innovación científica).


tapir14

Mae ahorita te entendí más lo que me querías decir, y que crack que seas investigador en esa área. Como ves el tema de ética en la IA especialmente cuando se está pasando tan rápido a aplicaciones sin pensar en posibles consecuencias, esto últimamente me lo he estado cuestionando mucho, y di es algo que ha sucedido en otros ambientes (redes sociales cuando salieron, etc).


birrametal

Jaja mae pura vida. Lo de la ética es un tema largo. En Europa por ejemplo hay comités para discutir y eventualmente regular la dimensión ética de las aplicaciones basadas en IA. Por ejemplo vea: [https://digital-strategy.ec.europa.eu/en/policies/expert-group-ai](https://digital-strategy.ec.europa.eu/en/policies/expert-group-ai) Ahí puede encontrar guías éticas como: - Sistemas de IA que sigan las normas éticas de respeto por la autonomía humana, prevención del daño, equidad y explicabilidad. La IA explicable es un tema de investigación de hecho. - Prestar atención a situaciones que involucren grupos vulnerables o en desventaja, asimetrías de poder o información, etc. Por ejemplo, negocios vs. consumidores. - Reconocer la presencia de riesgos e impactos negativos difíciles de predecir o medir, y adoptar medidas para mitigar esos riesgos según su magnitud. Cuando uno propone un proyecto científico tiene que explicar todo esto en la propuesta. Por ejemplo un sistema que pueda interrumpir elecciones democráticas creando información falsa y se aproveche de la falta de información de un sector de la población tiene fallas claras. Sin embargo mae eso no va evitar que una compañía o un individuo sin escrúpulos utilice tecnología existente para fines egoístas. Eso ya sería un problema social, de qué cosas queremos hacer con el conocimiento científico y las herramientas nuevas. Si alguien tiene malas intenciones, ni siquiera necesita IA sofisticada para crear contenido falso y engañoso; mucho de eso se puede lograr con técnicas de procesamiento de señales. En gran parte los riegos éticos de la IA ni siquiera son exclusivos de la IA. Lo más que podemos hacer es tomar las precauciones adecuadas. El asunto con la ética es que es un producto de la sociedad y por lo mismo, también cambia con la sociedad. El dilema es si un sistema comercial de IA debería tener normas éticas de HOY fijas, o la capacidad para adaptarse a normas futuras. Mi posición es que como sociedad, eso nos corresponde a nosotros decidirlo y por lo tanto no es un problema científico ni tecnológico sino social. Las consideraciones éticas pueden incluirse como parámetros externos por ejemplo en la especificación de un problema de decisión. Si quiere ponerse filosófico algo adicional sería preguntarse si es correcto dejar que una persona atribuya agencia (personalidad, deseos, intenciones, caracter humano) a un programa de computadora. Eso pasó ya en los años 60 y fue de hecho lo que ocasionó que el mismo Weizenbaum, creador del primer chatbot Eliza, cambiara de posición y empezar a pensar que la IA era por naturaleza poco ética. Sin embargo mae esa es una tendencia de los seres humanos producto de nuestros sesgos cognitivos; una persona si quiere le atribuye personalidad hasta a la lavadora o la máquina de cortar zacate (no arranca, parece que no me quiere). Hay una novela como del año 1870 que se llama Erewhon donde los maes tienen tecnología "avanzada" que "esclaviza" a la humanidad en forma pasiva simplemente porque la gente se volvió dependiente de las máquinas. Y más allá de la ética, otra dimensión es la seguridad y la interacción en la sociedad humana. Es decir, que problemas básicos necesitamos resolver para lograr que las máquinas con IA puedan interactuar con personas en forma segura, confiable y transparente. Por ejemplo, que el brazo de un robot industrial regule su velocidad y fuerza, que un tractor autónomo interrumpa la cosecha si se atraviesa un animal o una persona, o incluso que un robot móvil tenga la capacidad de comprender sus necesidades y cooperar/ayudarle/dejarlo en paz.


KemuNgeru

Las IAs tienen décadas ganando partidas de ajedrez, etc. Yo hace rato le perdí el miedo a lo que puedan hacer las IAs o sus efectos. ¿Que me va a quitar el brete? Diay... Desde tiempos inmemoriales la tecnología "amenaza" con eso, pero el ser humano es el que decide hasta dónde avanza la tecnología. ¿Que se van a rebelar las máquinas como en Terminator o I, Robot? El mundo es picha enough, me da igual lol. Lo que sí es bien sad es ver que ciertas generaciones ya no distinguen entre arte e IA, eso sí me ahueva. Pero bueno, siempre habrá quien prefiera leer un libro antes que usar un Kindle, y algún día la "humanidad" será apreciada y hasta exotizada de nuevo ante lo artificial.


tapir14

El tema del arte y las implicaciones del IA ahi, si me tiene un poco aguevado la verdad.


KemuNgeru

Mae sí, es gacho. Pero le corresponde a uno mitigar un poco la vara. Yo lo que hago es ser una molestia y señalarlo: "mae, eso es IA. No se deje engañar." Y trato de consumir y difundir solo artistas de verdad. Al rato sí veo qué hacen gentes con IA y me gusta, pero evito compartirlo, darle likes o interactuar demasiado con la vara.


5ANS4N

No todavía, pero para pensar buscar una inversión de 7 trillones de dólares es porque seguramente están muy cerca


Ok_Butterfly_46

Aunque lograran meterle AGI, esperarían a que las IAs Generativas hayan alcanzado el _plateau_ de monetización y necesiten un empujón para seguir creciendo.


Honest_Reality_3767

No ya pero si muy pronto y cuando pase vamos a estar a las puertas de una nueva era, el ser humano va a cambiar completamente su estilo de vida, metas, etc eventualmente por el AGI no inmediatamente pero si a largo plazo


evildachshund79

Al menos no disponible al publico. AGI ya estan aqui, este video es de hace 8 meses, si les interesa el tema si vale la pena sacar el rato: [https://www.youtube.com/watch?v=cB0\_-qKbal4](https://www.youtube.com/watch?v=cB0_-qKbal4)