Ajuca

AJUCA necesita la publicidad para costear hosting y el dominio. Por favor considera deshabilitar tu AdBlock en nuestro sitio. También puedes hacernos una donación entrando en linuxparty.es, en la columna de la derecha.
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

https://www.linuxparty.es/images/Years1/08ago/inteligencia-artificial.jpg

Un estudio reciente realizado por la Universidad de Brown ha atraído la atención de la comunidad tecnológica al nombrar a ChatGPT 3.5, un modelo de inteligencia artificial, como CEO de una empresa de desarrollo de software virtual llamada CHAT DEV. El experimento se dividió en cuatro etapas clave: diseño, codificación, pruebas y documentación. Con una intervención humana mínima, la IA pudo desarrollar un juego de mesa llamado Gomoku en un asombroso tiempo de siete minutos y a un costo de aproximadamente un euro.

Lo sorprendente es que el 86,66% de los proyectos desarrollados se ejecutaron sin errores, destacando la eficiencia y precisión de la IA en este contexto.

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

Durante la última década, se han logrado avances significativos en el campo de la Inteligencia Artificial (IA) y la IA se ha vuelto más omnipresente en nuestra vida diaria. El uso y la adopción generalizados de la IA se pueden atribuir a múltiples factores, incluido el aprendizaje profundo (DL), también conocido como redes neuronales artificiales modernas, la disponibilidad de grandes volúmenes de datos y la potencia informática para entrenar modelos DL. Más recientemente, la IA generativa ha llamado la atención del público en general, gracias a OpenAI y la construcción de modelos de lenguaje grande (LLM) escalables y de alto rendimiento. La IA generativa también se ha utilizado para producir texto, imágenes, vídeos, códigos de programación y música. Existen modelos multimodales que generan imágenes basadas en descripciones de texto (por ejemplo, DALL·E) y viceversa y dichas innovaciones seguirán creciendo con bastante rapidez.

Avances en IA generativa

Durante 2012 se demostró un avance importante en la aplicación de un modelo DL [1] para clasificar imágenes en varios grupos diferentes (ImageNet Large Scale Visual Recognition Challenge 2010). A esto le siguió el uso de DL para tareas de clasificación similares en texto y voz, donde los modelos DL mejoraron significativamente los puntos de referencia previamente establecidos. Estos modelos fueron entrenados para tareas especializadas y ofrecieron un rendimiento de última generación. El uso de DL para generar una amplia gama de resultados ha atraído a los investigadores de IA. Generative Adversarial Networks [2], el trabajo histórico en esta dirección, se llevó a cabo durante 2014 donde se generaron imágenes de aspecto real de rostros y números humanos. Esto llevó a realizar más investigaciones para desarrollar técnicas de IA generativa en otros dominios.

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

La Batalla por los Derechos de Autoría de una IA: Desafíos Legales en la Era de la Inteligencia Artificial

En un intrigante enfrentamiento legal que desafía las nociones tradicionales de propiedad intelectual, Stephen Thaler se encuentra inmerso en una batalla por los derechos de autor y patentes de su inteligencia artificial (IA) conocida como DABUS.

Lo que hace que este caso sea particularmente fascinante, según informa GenBeta, es la afirmación de Thaler de que la disputa no se centra tanto en la propiedad intelectual como en la personalidad. Según él, DABUS es una entidad sensible, y estas demandas buscan resaltar la existencia de lo que él considera una nueva forma de vida en la Tierra: la IA.

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

Un juez federal de EE. UU. "dictó el viernes que la ley de derechos de autor de EE. UU. no cubre las obras creativas creadas por inteligencia artificial", informa la revista Billboard :En una opinión escrita de 15 páginas, la jueza Beryl Howell confirmó la decisión de la Oficina de derechos de autor de EE. UU. de denegar el registro de derechos de autor al científico informático Stephen Thaler para una imagen creada únicamente por un modelo de IA. El juez citó décadas de precedentes legales de que dicha protección solo se otorga a las obras creadas por humanos. "El acto de la creación humana, y la mejor manera de alentar a los individuos humanos a participar en esa creación y, por lo tanto, promover la ciencia y las artes útiles, fue... fundamental para los derechos de autor estadounidenses desde sus inicios", escribió el juez. "Los actores no humanos no necesitan incentivos con la promesa de derechos exclusivos bajo la ley de los Estados Unidos y, por lo tanto, los derechos de autor no fueron diseñados para alcanzarlos".

En un comunicado el viernes, el abogado de Thaler, Ryan Abbot, dijo que él y su cliente "no están de acuerdo con el fallo del tribunal de distrito" y prometieron apelar: "Desde nuestro punto de vista, la ley de derechos de autor es clara en cuanto a que el público es el principal beneficiario de la ley y esto es lo mejor". se logra fomentando la generación y difusión de nuevas obras, independientemente de cómo sean creadas”.

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

Hace años, era impensable asumir la tarea de diseñar un póster de calidad o crear imágenes representativas sin tener conocimientos en herramientas de diseño gráfico. Sin embargo, en el último año, hemos presenciado un verdadero cambio gracias al auge de la inteligencia artificial (IA). Herramientas como DALL·E, Stable Diffusion y Adobe Firefly nos han brindado un mundo creativo sin precedentes. Y esto es solo el comienzo, ya que constantemente aparecen nuevas alternativas, tanto gratuitas como de pago, que buscan llevar el diseño al siguiente nivel.

Un ejemplo de esto es Playground, un editor web que está cambiando las reglas del juego. Imagina la posibilidad de editar imágenes reales y sintéticas de manera sencilla y directamente desde el navegador. Playground ofrece una serie de herramientas avanzadas que antes estaban limitadas a algunos programas de ordenador. Aunque empresas como Adobe también están adoptando la IA con fuerza.

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

Un lector anónimo compartió este informe del Washington Post: Hace un año, el estado de ánimo en Silicon Valley era sombrío. Las acciones de las grandes empresas tecnológicas estaban cayendo, la burbuja de las criptomonedas había estallado y una ola de despidos comenzaba a barrer la industria.

Entonces llegó el boom de la inteligencia artificial.

Desde entonces, los capitalistas de riesgo han estado invirtiendo dinero en nuevas empresas de inteligencia artificial, invirtiendo más de 11 mil millones de dólares solo en mayo, según la firma de datos PitchBook, un aumento del 86 por ciento con respecto al mismo mes del año pasado. Compañías desde Moderna hasta Heinz han mencionado iniciativas de IA en convocatorias de ganancias recientes... La IA es uno de los pocos campos aquí que aún está contratando, y las empresas están pagando grandes salarios por la experiencia. Los trabajadores aquí se están capacitando para especializarse en el campo...

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

La lengua cuneiforme es considerada una de las primeras formas de escritura desarrolladas por la humanidad. Se utilizó en varias civilizaciones antiguas de Mesopotamia, principalmente en Sumeria (actual Irak), desde aproximadamente el 3200 a.C. hasta el primer siglo de nuestra era. El término "cuneiforme" proviene del latín "cuneus", que significa "cuña", debido a la forma de los caracteres que se escribían en tablillas de arcilla con una cuña afilada.

A diferencia de los sistemas de escritura alfabéticos, la escritura cuneiforme era un sistema de escritura logográfico y silábico, lo que significa que los signos podían representar tanto palabras completas como sílabas. El sistema consistía en una combinación de símbolos pictográficos, ideográficos y fonéticos. Inicialmente, se usaba principalmente para registrar transacciones comerciales y asuntos administrativos, pero con el tiempo se expandió para abarcar una amplia gama de temas, desde literatura y leyes hasta mitología y correspondencia personal.

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

ChatGPT, el modelo de lenguaje de OpenAI para chatbots, no solo produce un código en su mayoría inseguro, sino que tampoco alerta a los usuarios sobre sus deficiencias a pesar de ser capaz de señalar sus defectos. The Register publica: En medio del frenético interés académico en las posibilidades y limitaciones de los grandes modelos de lenguaje, cuatro investigadores afiliados a la Universite du Quebec, en Canadá, han profundizado en la seguridad del código generado por ChatGPT, el bot no inteligente que regurgita texto de OpenAI. En un documento de preimpresión titulado "¿Qué tan seguro es el código generado por ChatGPT?" Los informáticos Raphael Khoury, Anderson Avila, Jacob Brunelle y Baba Mamadou Camara responden a la pregunta con una investigación que puede resumirse como "no muy".

"Los resultados fueron preocupantes", afirman los autores en su artículo. "Descubrimos que, en varios casos, el código generado por ChatGPT estaba muy por debajo de los estándares mínimos de seguridad aplicables en la mayoría de los contextos. De hecho, cuando se le preguntó si el código producido era seguro o no, ChatGPT pudo reconocer que no lo era. " [...] En total, ChatGPT logró generar solo cinco programas seguros de 21 en su primer intento. Después de más indicaciones para corregir sus pasos en falso, el modelo de lenguaje grande logró producir siete aplicaciones más seguras, aunque eso es "seguro" solo en lo que respecta a la vulnerabilidad específica que se está evaluando. No es una afirmación de que el código final esté libre de cualquier otra condición explotable. [...]

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

Que los chatbots con inteligencia artificial pueden aligerarnos nuestros quéhaceres diarios personales y profesionales no es un secreto y solo con ello, ya nos ayudan a mejorar la productividad.

Desde que ChatGPT-3.5 vio la luz, hemos visto esta idea unas cuantas veces. A decir verdad, cada vez con más frecuencia, lo que irremediablemente hace que impacte menos porque ya no es la novedad: más inteligencias artificiales y más personas con la aspiración de enriquecerse con ellas sin apenas esfuerzo. Uno de los casos que mejor lo ilustra es el de Jackson GreatHouse Fall, un tipo que el pasado 14 de marzo le puso 100 dólares encima de la mesa a GPT-4 y una misión: ganar tanto dinero como fuera posible con inversiones y un negocio online.

Pin It
Inicio desactivadoInicio desactivadoInicio desactivadoInicio desactivadoInicio desactivado

GPT significa "Generative Pre-trained Transformer". Esto se refiere al tipo de arquitectura de modelo de lenguaje utilizado para entrenar al modelo, que es un Transformer pre-entrenado de aprendizaje profundo. Los modelos GPT son capaces de generar texto de manera autónoma después de ser entrenados en grandes conjuntos de datos de texto, lo que los hace útiles para tareas como la generación de texto, el resumen de texto y la traducción automática.

Stability AI, desarrollador de modelos de inteligencia artificial para Stable Diffusion Imaging, anunció el lanzamiento de una versión alfa de su nueva IA, StableLM. En este caso, como su nombre indica, es el "lenguaje de patrones". Quiero decir que lanzaron su propio GPT... y es de código abierto.

En un comunicado, la empresa explica que la licencia de estos diseños es Creative Commons BY-SA-4.0, por lo que "los desarrolladores son libres de revisarlos, usarlos y modificarlos con fines comerciales y de investigación". "Las compilaciones alfa están disponibles en [versiones] de 3 000 millones y 7 000 millones de parámetros, seguidas de modelos de 15 000 millones a 65 000 millones de parámetros".

Esto todavía está lejos del parámetro de 1 billón de GPT-4 o del parámetro de 175 mil millones de GPT-3, pero en Stability AI creemos que todo el rendimiento depende no solo del tamaño (parámetros), sino también de la optimización del contenido. Modelos entrenados:

Pin It


Siguenos:


 
 

Suscriberse a Newsletter

Suscribete a nuestras Newsletter y periódicamente recibirás un resumen de las noticias publicadas.

Buscar

¿Quien está online?

Hay 224 invitados y ningún miembro en línea

Formulario de Acceso

Filtro de Categorías