Reenviar el título original: DeAI Compressed
Dado que la criptografía es esencialmente software de código abierto con incentivos financieros incorporados, y la IA está alterando la forma en que se escribe el software, tiene sentido que la IA tenga un impacto masivo en el espacio de la cadena de bloques en todo el conjunto.
Para mí, los mayores desafíos que enfrenta DeAI están en la capa de infraestructura dada la intensidad de capital para construir modelos fundamentales y los retornos a escala en datos y cómputo.
Dadas las leyes de escala, las grandes empresas tecnológicas tienen una ventaja pronunciada: aprovechar sus enormes arcas de guerra de ganancias monopolísticas en la agregación de la demanda del consumidor durante la segunda generación de Internet y reinvertirlas en infraestructura en la nube durante una década de tasas artificialmente bajas, los hiperecaladores ahora intentan capturar el mercado de la inteligencia acaparando datos y computación, los ingredientes clave para la AI:
Debido a la intensidad de capital y los altos requisitos de ancho de banda de las ejecuciones de entrenamiento grandes, los supercúmulos unificados siguen siendo óptimos, proporcionando a las grandes empresas de tecnología los modelos más eficientes, de código cerrado, que planean alquilar a márgenes de oligopolio, reinvirtiendo los ingresos en cada generación subsiguiente.
Sin embargo, los fosos en IA han demostrado ser menos profundos que los efectos de red web2 con modelos fronterizos líderes que se deprecian rápidamente en relación con el campo, especialmente con Meta adoptando una postura de "tierra quemada" y comprometiéndose con decenas de miles de millones para modelos fronterizos de código abierto como Llama 3.1 con rendimiento de última generación.
Esto, junto coninvestigación emergenteen métodos de entrenamiento descentralizado de baja latencia, pueden (parcialmente) mercantilizar modelos de negocio fronterizos, trasladando (al menos parte) de la competencia de superclusters de hardware (favoreciendo a las grandes tecnológicas) a la innovación de software (favoreciendo marginalmente el código abierto / criptomonedas) a medida que el precio de la inteligencia disminuye.
Dada la eficiencia informática de las arquitecturas de "mezcla de expertos" y la síntesis/enrutamiento de LLM, parece probable que nos encaminemos no hacia un mundo de 3 a 5 mega modelos, sino hacia un tapiz de millones de modelos con diferentes compensaciones de coste/rendimiento. Una red de inteligencia entrelazada. Una mente colmena.
Esto se convierte en un problema de coordinación masiva: el tipo para el cual las cadenas de bloques y los incentivos criptográficos deberían estar bien equipados para ayudar.
El software está devorando el mundo. La IA está devorando el software. Y la IA es básicamente solo datos y cálculos.
Cualquier cosa que pueda obtener de manera más eficiente las dos entradas anteriores (infraestructura), coordinarlas (middleware) y satisfacer las demandas de los usuarios (aplicaciones) será valiosa.
Delphi es optimista sobre varios componentes en toda la pila:
Dado que la inteligencia artificial se nutre de datos y cálculo, la infraestructura DeAI se dedica a obtener ambos de manera eficiente, utilizando incentivos criptográficos. Como mencionamos anteriormente, esta es la parte más desafiante del conjunto en la que competir, pero también potencialmente la más gratificante dada la magnitud de los mercados finales.
Aunque hasta ahora se ha visto frenado por la latencia, los protocolos de entrenamiento descentralizados y los mercados de GPU esperan orquestar hardware latente y heterogéneo para proporcionar computación bajo demanda a un costo menor para aquellos que no pueden pagar las soluciones integradas de las grandes empresas de tecnología. Jugadores como Gensyn, Prime Intellect y Neuromesh están impulsando los límites del entrenamiento distribuido mientras io.net, Akash, Aethir etc están permitiendo inferencias de menor costo más cerca del borde.
En un mundo de inteligencia ubicua basada en modelos más pequeños y especializados, los activos de datos son cada vez más valiosos y monetizables.
Hasta la fecha, DePIN (redes físicas descentralizadas) han sido ampliamente elogiadas por su capacidad para construir redes de hardware de menor costo frente a los incumbentes de gran capitalización (por ejemplo, las empresas de telecomunicaciones). Sin embargo, posiblemente el mercado más grande de DePIN surgirá en la recopilación de conjuntos de datos novedosos que fluyen hacia la inteligencia en cadena.protocolos agentes (para ser discutido más tarde).
En un mundo donde el trabajo -¿el TAM más grande del mundo?- está siendo reemplazado por una combinación de datos y cálculo, la infraestructura DeAI proporciona una forma para que los no Tech Barones puedanTomar los medios de producción y contribuir a la próxima economía en red.
El objetivo final de DeAI es la computación eficazmente componible. Al igual que los Lego del dinero DeFi, la inteligencia artificial descentralizada compensa la falta de rendimiento absoluto hoy en día con la componibilidad sin permisos, incentivando un ecosistema abierto de primitivas de software y computación que se compone con el tiempo para (con suerte) superar a los actuales.
Si Google es el extremo "integrado", entonces DeAI representa el extremo "modular". AsClayton Christensennos recuerda, los enfoques integrados tienden a liderar en las industrias recién emergentes al reducir la fricción en la cadena de valor, pero a medida que el espacio madura, las cadenas de valor modularizadas ganan participación a través de una mayor competencia y eficiencia de costos en cada capa de la pila:
Somos bastante optimistas en varias categorías esenciales para permitir esta visión modular:
En un mundo de inteligencia fragmentada, ¿cómo puede uno elegir el modelo correcto y el momento adecuado al mejor precio posible? Los agregadores del lado de la demanda siempre han capturado valor (verteoría de la agregación), y la función de enrutamiento es esencial para optimizar la curva de Pareto entre el rendimiento y los costos en el mundo de la inteligencia en red:
Bittensorha sido el líder aquí en la generación 1, pero están surgiendo una serie de competidores dedicados.
Alloraorganiza competencias entre diferentes modelos en varios "temas" de una manera que es "consciente del contexto" y que se mejora con el tiempo, informando predicciones futuras basadas en la precisión histórica bajo condiciones específicas.
Morpheus tiene como objetivo convertirse en el "enrutador del lado de la demanda" para los casos de uso de web3, esencialmente una "inteligencia de Apple" con un agente local de código abierto que tiene el contexto relevante de un usuario y puede enrutar consultas de manera eficiente a través de DeFi o los bloques de construcción emergentes de la infraestructura de "computación componible" de web3.
Protocolos de interoperabilidad de agentes comoTheoriq yAutonolasBuscamos llevar el enrutamiento modular al extremo al habilitar ecosistemas componibles y compuestos de agentes o componentes flexibles en servicios completos en la cadena de bloques.
En resumen, en un mundo de inteligencia que se fragmenta rápidamente, los agregadores de oferta y demanda jugarán un papel extremadamente poderoso. Si Google se convirtió en una empresa de US$2t indexando la información del mundo, entonces el ganador en enrutadores del lado de la demanda, ya sea Apple o Google o una solución web3, que indexa inteligencia agente, debería ser aún más grande.
Dada su descentralización, las cadenas de bloques están altamente limitadas tanto en datos como en cálculos. ¿Cómo se pueden llevar las aplicaciones de IA intensivas en cálculos y datos que los usuarios exigirán a la cadena?
¡Coprocesadores!
Fuente:Florin Digital
Estos son efectivamente "oráculos" que ofrecen diferentes técnicas para "verificar" los datos o modelos subyacentes que se utilizan de una manera que minimiza las nuevas suposiciones de confianza en la cadena mientras ofrecen aumentos sustanciales en la capacidad. Hasta la fecha, ha habido una serie de proyectos que utilizan enfoques zkML, opML, TeeML y económicos de criptomoneda, todos con diferentes pros y contras:
Para una revisión más detallada, por favor consulte nuestro informe DeAI parte III que se publicará en las próximas semanas.
A alto nivel, los co-procesadores son esenciales para hacer que los contratos inteligentes, bueno...inteligentes, proporcionando soluciones similares a un "almacén de datos" para consultar experiencias en cadena más personalizadas o proporcionando verificación de que una inferencia determinada se completó correctamente.
Redes TEE comoSuper, Phala, yMarlinen particular han estado ganando popularidad recientemente debido a su practicidad y disposición para albergar aplicaciones a escala hoy.
En general, los coprocesadores son esenciales para fusionar las cadenas de bloques altamente determinísticas pero de bajo rendimiento con inteligencias altamente performantes pero probabilísticas. Sin coprocesadores, la inteligencia artificial no llegaría a esta generación de cadenas de bloques.
Uno de los mayores problemas del desarrollo de código abierto en IA ha sido la falta de incentivos para hacerlo sostenible. El desarrollo de IA requiere una gran cantidad de capital, y el costo de oportunidad tanto de la computación como del trabajo en conocimientos de IA es muy alto. Sin incentivos adecuados para recompensar las contribuciones de código abierto, el espacio inevitablemente perderá frente a los hiper-capitalistas hiperescaladores.
Una serie de proyectos deSentientaPluralisaSaharaaMiratodos están buscando poner en marcha redes que permitan y recompensen adecuadamente las contribuciones a las inteligencias en red de redes fragmentadas de individuos.
Al fijar el modelo de negocio, la comprensión del código abierto debería acelerarse - dando a los desarrolladores e investigadores de IA una opción fuera de Big Tech que es global en naturaleza y, con suerte, también bien compensada basada en el valor creado.
Si bien es muy complicado hacerlo bien y cada vez más competitivo, el TAM aquí es enorme.
Donde LLMs delimitan patrones en grandes corpora de textos y aprenden a predecir la siguiente palabra, las Redes Neuronales de Grafos (GNNs) procesan, analizan y aprenden de datos estructurados en grafo. Dado que los datos on-chain consisten principalmente en interacciones complejas entre usuarios y contratos inteligentes, es decir, un grafo, las GNNs parecen una elección lógica para respaldar casos de uso de IA en la cadena.
Proyectos comoPONDy RPS están tratando de construir modelos fundamentales para web3, potencialmente transformadores en el trading, Defi e incluso casos de uso social como
Estos modelos se basarán bastante en soluciones de almacenamiento de datos comoEspacio y tiempo,Subsquid,CovalenteyHyperlineen el que también tengo un gran optimismo.
Las GNN podrían demostrar que los LLM de las cadenas de bloques y los almacenes de datos web3 son facilitadores esenciales: proporcionan funcionalidad OLAP a la web3.
En mi opinión, los agentes en cadena de bloques pueden ser la clave para desbloquear la notoriamente mala experiencia de usuario de las criptomonedas, pero, lo que es más importante, el lado de la demanda que falta para la lamentable utilización de los miles de millones de USD que hemos vertido en la infraestructura web3 durante la última década.
No se equivoquen, los agentes están llegando...
Y parece lógico que estos agentes aprovecharían la infraestructura abierta y sin permisos - a través de pagos y computación componible - para lograr metas finales cada vez más complejas.
En la economía venidera de la inteligencia en red, tal vez los flujos económicos sean mucho menos B -> B -> C y mucho más usuario -> agente -> red de cálculo -> agente -> usuario.
Protocolos agenticosson el resultado final. Aplicaciones o negocios de servicios con gastos limitados que se ejecutan principalmente utilizando recursos en cadena para satisfacer las demandas de los usuarios finales (o entre ellos) en redes componibles con costos mucho más bajos que las empresas tradicionales.
Al igual que con la web2, donde la capa de aplicación capturó la mayor parte del valor, soy un fanático de la tesis de los "protocolos agentes gordos" en DeAI. La captura de valor debe desplazarse hacia arriba en la pila con el tiempo.
El próximo Google, Facebook y Blackrock probablemente sean protocolos agentes y los componentes para permitirlos están naciendo en este momento.
La IA cambiará la forma de nuestras economías. Hoy en día, el mercado espera que la captura de valor resida dentro de los límites de unas pocas grandes corporaciones en el noroeste del Pacífico de los Estados Unidos. DeAI representa una visión diferente.
Una visión de redes abiertas y componibles de inteligencias con incentivos y remuneración incluso por pequeñas contribuciones y una mayor propiedad / gobernanza colectiva.
Si bien algunas narrativas en DeAI se adelantan a sí mismas, y muchos proyectos operan significativamente por encima de la tracción actual, el tamaño de la oportunidad es realmente grande. Para aquellos que son pacientes y perspicaces, la visión final de DeAI de cómputo verdaderamente componible puede ser la justificación misma de las cadenas de bloques.
Si disfrutaste de este avance, por favor estate atento a nuestros informes de larga duración que se desbloquearán en las próximas semanas a medida que se desarrolle el mes de Delphi AI x Crypto:
DeAI I: La Torre & La Plaza (ahora desbloqueado)
DeAI II: Tomando los Medios de Producción, Infra (desbloquear pronto)
DeAI III: Cómputo componible, Middleware (desbloquear la próxima semana)
DeAI IV: La Economía Agente, Aplicaciones (desbloquear dos semanas)
Va a ser un gran mes. Abróchate el cinturón.
Reenviar el título original: DeAI Compressed
Dado que la criptografía es esencialmente software de código abierto con incentivos financieros incorporados, y la IA está alterando la forma en que se escribe el software, tiene sentido que la IA tenga un impacto masivo en el espacio de la cadena de bloques en todo el conjunto.
Para mí, los mayores desafíos que enfrenta DeAI están en la capa de infraestructura dada la intensidad de capital para construir modelos fundamentales y los retornos a escala en datos y cómputo.
Dadas las leyes de escala, las grandes empresas tecnológicas tienen una ventaja pronunciada: aprovechar sus enormes arcas de guerra de ganancias monopolísticas en la agregación de la demanda del consumidor durante la segunda generación de Internet y reinvertirlas en infraestructura en la nube durante una década de tasas artificialmente bajas, los hiperecaladores ahora intentan capturar el mercado de la inteligencia acaparando datos y computación, los ingredientes clave para la AI:
Debido a la intensidad de capital y los altos requisitos de ancho de banda de las ejecuciones de entrenamiento grandes, los supercúmulos unificados siguen siendo óptimos, proporcionando a las grandes empresas de tecnología los modelos más eficientes, de código cerrado, que planean alquilar a márgenes de oligopolio, reinvirtiendo los ingresos en cada generación subsiguiente.
Sin embargo, los fosos en IA han demostrado ser menos profundos que los efectos de red web2 con modelos fronterizos líderes que se deprecian rápidamente en relación con el campo, especialmente con Meta adoptando una postura de "tierra quemada" y comprometiéndose con decenas de miles de millones para modelos fronterizos de código abierto como Llama 3.1 con rendimiento de última generación.
Esto, junto coninvestigación emergenteen métodos de entrenamiento descentralizado de baja latencia, pueden (parcialmente) mercantilizar modelos de negocio fronterizos, trasladando (al menos parte) de la competencia de superclusters de hardware (favoreciendo a las grandes tecnológicas) a la innovación de software (favoreciendo marginalmente el código abierto / criptomonedas) a medida que el precio de la inteligencia disminuye.
Dada la eficiencia informática de las arquitecturas de "mezcla de expertos" y la síntesis/enrutamiento de LLM, parece probable que nos encaminemos no hacia un mundo de 3 a 5 mega modelos, sino hacia un tapiz de millones de modelos con diferentes compensaciones de coste/rendimiento. Una red de inteligencia entrelazada. Una mente colmena.
Esto se convierte en un problema de coordinación masiva: el tipo para el cual las cadenas de bloques y los incentivos criptográficos deberían estar bien equipados para ayudar.
El software está devorando el mundo. La IA está devorando el software. Y la IA es básicamente solo datos y cálculos.
Cualquier cosa que pueda obtener de manera más eficiente las dos entradas anteriores (infraestructura), coordinarlas (middleware) y satisfacer las demandas de los usuarios (aplicaciones) será valiosa.
Delphi es optimista sobre varios componentes en toda la pila:
Dado que la inteligencia artificial se nutre de datos y cálculo, la infraestructura DeAI se dedica a obtener ambos de manera eficiente, utilizando incentivos criptográficos. Como mencionamos anteriormente, esta es la parte más desafiante del conjunto en la que competir, pero también potencialmente la más gratificante dada la magnitud de los mercados finales.
Aunque hasta ahora se ha visto frenado por la latencia, los protocolos de entrenamiento descentralizados y los mercados de GPU esperan orquestar hardware latente y heterogéneo para proporcionar computación bajo demanda a un costo menor para aquellos que no pueden pagar las soluciones integradas de las grandes empresas de tecnología. Jugadores como Gensyn, Prime Intellect y Neuromesh están impulsando los límites del entrenamiento distribuido mientras io.net, Akash, Aethir etc están permitiendo inferencias de menor costo más cerca del borde.
En un mundo de inteligencia ubicua basada en modelos más pequeños y especializados, los activos de datos son cada vez más valiosos y monetizables.
Hasta la fecha, DePIN (redes físicas descentralizadas) han sido ampliamente elogiadas por su capacidad para construir redes de hardware de menor costo frente a los incumbentes de gran capitalización (por ejemplo, las empresas de telecomunicaciones). Sin embargo, posiblemente el mercado más grande de DePIN surgirá en la recopilación de conjuntos de datos novedosos que fluyen hacia la inteligencia en cadena.protocolos agentes (para ser discutido más tarde).
En un mundo donde el trabajo -¿el TAM más grande del mundo?- está siendo reemplazado por una combinación de datos y cálculo, la infraestructura DeAI proporciona una forma para que los no Tech Barones puedanTomar los medios de producción y contribuir a la próxima economía en red.
El objetivo final de DeAI es la computación eficazmente componible. Al igual que los Lego del dinero DeFi, la inteligencia artificial descentralizada compensa la falta de rendimiento absoluto hoy en día con la componibilidad sin permisos, incentivando un ecosistema abierto de primitivas de software y computación que se compone con el tiempo para (con suerte) superar a los actuales.
Si Google es el extremo "integrado", entonces DeAI representa el extremo "modular". AsClayton Christensennos recuerda, los enfoques integrados tienden a liderar en las industrias recién emergentes al reducir la fricción en la cadena de valor, pero a medida que el espacio madura, las cadenas de valor modularizadas ganan participación a través de una mayor competencia y eficiencia de costos en cada capa de la pila:
Somos bastante optimistas en varias categorías esenciales para permitir esta visión modular:
En un mundo de inteligencia fragmentada, ¿cómo puede uno elegir el modelo correcto y el momento adecuado al mejor precio posible? Los agregadores del lado de la demanda siempre han capturado valor (verteoría de la agregación), y la función de enrutamiento es esencial para optimizar la curva de Pareto entre el rendimiento y los costos en el mundo de la inteligencia en red:
Bittensorha sido el líder aquí en la generación 1, pero están surgiendo una serie de competidores dedicados.
Alloraorganiza competencias entre diferentes modelos en varios "temas" de una manera que es "consciente del contexto" y que se mejora con el tiempo, informando predicciones futuras basadas en la precisión histórica bajo condiciones específicas.
Morpheus tiene como objetivo convertirse en el "enrutador del lado de la demanda" para los casos de uso de web3, esencialmente una "inteligencia de Apple" con un agente local de código abierto que tiene el contexto relevante de un usuario y puede enrutar consultas de manera eficiente a través de DeFi o los bloques de construcción emergentes de la infraestructura de "computación componible" de web3.
Protocolos de interoperabilidad de agentes comoTheoriq yAutonolasBuscamos llevar el enrutamiento modular al extremo al habilitar ecosistemas componibles y compuestos de agentes o componentes flexibles en servicios completos en la cadena de bloques.
En resumen, en un mundo de inteligencia que se fragmenta rápidamente, los agregadores de oferta y demanda jugarán un papel extremadamente poderoso. Si Google se convirtió en una empresa de US$2t indexando la información del mundo, entonces el ganador en enrutadores del lado de la demanda, ya sea Apple o Google o una solución web3, que indexa inteligencia agente, debería ser aún más grande.
Dada su descentralización, las cadenas de bloques están altamente limitadas tanto en datos como en cálculos. ¿Cómo se pueden llevar las aplicaciones de IA intensivas en cálculos y datos que los usuarios exigirán a la cadena?
¡Coprocesadores!
Fuente:Florin Digital
Estos son efectivamente "oráculos" que ofrecen diferentes técnicas para "verificar" los datos o modelos subyacentes que se utilizan de una manera que minimiza las nuevas suposiciones de confianza en la cadena mientras ofrecen aumentos sustanciales en la capacidad. Hasta la fecha, ha habido una serie de proyectos que utilizan enfoques zkML, opML, TeeML y económicos de criptomoneda, todos con diferentes pros y contras:
Para una revisión más detallada, por favor consulte nuestro informe DeAI parte III que se publicará en las próximas semanas.
A alto nivel, los co-procesadores son esenciales para hacer que los contratos inteligentes, bueno...inteligentes, proporcionando soluciones similares a un "almacén de datos" para consultar experiencias en cadena más personalizadas o proporcionando verificación de que una inferencia determinada se completó correctamente.
Redes TEE comoSuper, Phala, yMarlinen particular han estado ganando popularidad recientemente debido a su practicidad y disposición para albergar aplicaciones a escala hoy.
En general, los coprocesadores son esenciales para fusionar las cadenas de bloques altamente determinísticas pero de bajo rendimiento con inteligencias altamente performantes pero probabilísticas. Sin coprocesadores, la inteligencia artificial no llegaría a esta generación de cadenas de bloques.
Uno de los mayores problemas del desarrollo de código abierto en IA ha sido la falta de incentivos para hacerlo sostenible. El desarrollo de IA requiere una gran cantidad de capital, y el costo de oportunidad tanto de la computación como del trabajo en conocimientos de IA es muy alto. Sin incentivos adecuados para recompensar las contribuciones de código abierto, el espacio inevitablemente perderá frente a los hiper-capitalistas hiperescaladores.
Una serie de proyectos deSentientaPluralisaSaharaaMiratodos están buscando poner en marcha redes que permitan y recompensen adecuadamente las contribuciones a las inteligencias en red de redes fragmentadas de individuos.
Al fijar el modelo de negocio, la comprensión del código abierto debería acelerarse - dando a los desarrolladores e investigadores de IA una opción fuera de Big Tech que es global en naturaleza y, con suerte, también bien compensada basada en el valor creado.
Si bien es muy complicado hacerlo bien y cada vez más competitivo, el TAM aquí es enorme.
Donde LLMs delimitan patrones en grandes corpora de textos y aprenden a predecir la siguiente palabra, las Redes Neuronales de Grafos (GNNs) procesan, analizan y aprenden de datos estructurados en grafo. Dado que los datos on-chain consisten principalmente en interacciones complejas entre usuarios y contratos inteligentes, es decir, un grafo, las GNNs parecen una elección lógica para respaldar casos de uso de IA en la cadena.
Proyectos comoPONDy RPS están tratando de construir modelos fundamentales para web3, potencialmente transformadores en el trading, Defi e incluso casos de uso social como
Estos modelos se basarán bastante en soluciones de almacenamiento de datos comoEspacio y tiempo,Subsquid,CovalenteyHyperlineen el que también tengo un gran optimismo.
Las GNN podrían demostrar que los LLM de las cadenas de bloques y los almacenes de datos web3 son facilitadores esenciales: proporcionan funcionalidad OLAP a la web3.
En mi opinión, los agentes en cadena de bloques pueden ser la clave para desbloquear la notoriamente mala experiencia de usuario de las criptomonedas, pero, lo que es más importante, el lado de la demanda que falta para la lamentable utilización de los miles de millones de USD que hemos vertido en la infraestructura web3 durante la última década.
No se equivoquen, los agentes están llegando...
Y parece lógico que estos agentes aprovecharían la infraestructura abierta y sin permisos - a través de pagos y computación componible - para lograr metas finales cada vez más complejas.
En la economía venidera de la inteligencia en red, tal vez los flujos económicos sean mucho menos B -> B -> C y mucho más usuario -> agente -> red de cálculo -> agente -> usuario.
Protocolos agenticosson el resultado final. Aplicaciones o negocios de servicios con gastos limitados que se ejecutan principalmente utilizando recursos en cadena para satisfacer las demandas de los usuarios finales (o entre ellos) en redes componibles con costos mucho más bajos que las empresas tradicionales.
Al igual que con la web2, donde la capa de aplicación capturó la mayor parte del valor, soy un fanático de la tesis de los "protocolos agentes gordos" en DeAI. La captura de valor debe desplazarse hacia arriba en la pila con el tiempo.
El próximo Google, Facebook y Blackrock probablemente sean protocolos agentes y los componentes para permitirlos están naciendo en este momento.
La IA cambiará la forma de nuestras economías. Hoy en día, el mercado espera que la captura de valor resida dentro de los límites de unas pocas grandes corporaciones en el noroeste del Pacífico de los Estados Unidos. DeAI representa una visión diferente.
Una visión de redes abiertas y componibles de inteligencias con incentivos y remuneración incluso por pequeñas contribuciones y una mayor propiedad / gobernanza colectiva.
Si bien algunas narrativas en DeAI se adelantan a sí mismas, y muchos proyectos operan significativamente por encima de la tracción actual, el tamaño de la oportunidad es realmente grande. Para aquellos que son pacientes y perspicaces, la visión final de DeAI de cómputo verdaderamente componible puede ser la justificación misma de las cadenas de bloques.
Si disfrutaste de este avance, por favor estate atento a nuestros informes de larga duración que se desbloquearán en las próximas semanas a medida que se desarrolle el mes de Delphi AI x Crypto:
DeAI I: La Torre & La Plaza (ahora desbloqueado)
DeAI II: Tomando los Medios de Producción, Infra (desbloquear pronto)
DeAI III: Cómputo componible, Middleware (desbloquear la próxima semana)
DeAI IV: La Economía Agente, Aplicaciones (desbloquear dos semanas)
Va a ser un gran mes. Abróchate el cinturón.