El pasado sábado hubo un 295% más de desinstalaciones de la app móvil de ChatGPT en Estados Unidos. A muchísimos usuarios les sentó fatal que OpenAI llegara a un acuerdo teóricamente poco ético con el Departamento de Defensa de EEUU para sustituir a Anthropic, y la han castigado con un movimiento "Cancel ChatGPT" en redes sociales que también ha tenido impacto en esas desinstalaciones.
Qué ha pasado. La consultora Sensor Tower, que monitoriza el estado de las tiendas de aplicaciones móviles, ha indicado que la tasa de desinstalaciones de ChatGPT se ha incrementó un 295% el sábado 28 de febrero con respecto al día anterior. Lo normal es que la tasa de desinstalaciones ronde el 9% de un día otro, pero ese día quedó claro que muchos usuarios decidieron deshacerse de la app al mismo tiempo. La razón es evidente.
El Pentágono contra Anthropic. El Pentágono llevaba meses trabajando con Claude, la IA de Anthropic, que ya se usaba en documentos clasificados. Anthropic había puesto como condición no usar su IA para espionaje masivo y para desarrollo de armas autónomas, pero el Departamento de Defensa (DoD, que ahora muchos llaman "Departamento de Guerra") quiso que Anthropic eliminase esas limitaciones. Anthropic se negó, y ahí es donde entra OpenAI.
En Xataka
La IA prometió revolucionar todos los sectores. Solo ha revolucionado la programación mientras el resto sigue esperando
Y oportunista. Sam Altman primero alabó la postura de Anthropic. Pocas horas después anunciaba que habían llegado a un acuerdo con el DoD para reemplazar a Claude con ChatGPT. Eso se ha criticado mucho por la falta de ética de OpenAI y su actitud oportunista, y dio lugar a un movimiento de "cancelación de ChatGPT" que ha tenido repercusión inmediata en las descargas y desinstalaciones de este chatbot.
Altman quiere aclarar las cosas. El anuncio de OpenAI no era demasiado claro en si realmente OpenAI imponía los mismos límites que había impuesto Anthropic, pero Altman pronto anunció que había añadido enmiendas al acuerdo para evitar cualquier confusión. Al parecer se han añadido protecciones a la vigilancia masiva, pero no se menciona nada del desarrollo de armas autónomas letales.
Castigo para OpenAI. No solo se ha desinstalado de forma notable, sino que en las opiniones de la app ChatGPT muchos usuarios han dado una sola estrella sobre cinco en una proporción altísima: esas malas opiniones crecieron en un 775% el sábado y luego un 100% el domingo según Sensor Tower. Las opiniones con cinco estrellas cayeron un 50%.
Claude ha adelantado a ChatGPT en descargas como consecuencia de los últimos acontecimientos con el Pentágono. Fuente: Appfigures.
Y Claude ya la supera en descargas. Otra consultora que monitoriza el mercado de las descargas, Appfigures, indicaba que el sábado las descargas de Claude superaron a las de ChatGPT en EEUU por primera vez. De hecho Claude se ha convertido en la app más descargada en al menos seis países fuera de EEUU: Bélgica, Canadá, Alemania, Luxemburgo, Noruega y Suiza.
Efecto Streisand. Estamos ante un caso más del efecto Streisand: intentar censurar cierta información o cierta empresa acaba siendo contraproducente. El Pentágono intentó convertir a Anthropic en la mala de la película, pero lo que ha pasado es que ahora la empresa es vista como la gran defensora de la ética y del "alineamiento de la IA". Eso ha hecho que la gente la perciba como una opción moralmente más respetable que ChatGPT.
Pero Anthropic tiene problemas. Según Reuters diversos departamentos y agencias gubernamentales estadounidenses han hecho el cambio a OpenAI y han comenzado a dejar de usar los modelos de Anthropic para su trabajo. Eso ya es un problema para Anthropic, pero lo es aún más el hecho de que su reciente ronda de inversión, en la que levantaron 60.000 millones de dólares, podría estar en peligro. Si el DoD decide etiquetar a Anthropic como "un riesgo para la cadena de suministro" sus contratos y acuerdos con decenas de empresas estarían en riesgo, y su propio futuro como empresa también. Sería una medida extraordinaria y parece improbable que EEUU llegue hasta tal punto, pero nada es seguro a día de hoy.
Imagen | Village Global
En Xataka | La guerra entre Anthropic y el Pentágono apunta a algo terrorífico: un nuevo “Momento Oppenheimer”
-
La noticia
OpenAI tenía que elegir entre ser la app estrella del ejército de EEUU y sus usuarios. Y los usuarios han elegido por ella
fue publicada originalmente en
Xataka
por
Javier Pastor
.
OpenAI tenía que elegir entre ser la app estrella del ejército de EEUU y sus usuarios. Y los usuarios han elegido por ella
El acuerdo al que OpenAI ha llegado con el Departamento de Defensa ha provocado un incremento récord de desinstalaciones de su app
El pasado sábado hubo un 295% más de desinstalaciones de la app móvil de ChatGPT en Estados Unidos. A muchísimos usuarios les sentó fatal que OpenAI llegara a un acuerdo teóricamente poco ético con el Departamento de Defensa de EEUU para sustituir a Anthropic, y la han castigado con un movimiento "Cancel ChatGPT" en redes sociales que también ha tenido impacto en esas desinstalaciones.
Qué ha pasado. La consultora Sensor Tower, que monitoriza el estado de las tiendas de aplicaciones móviles, ha indicado que la tasa de desinstalaciones de ChatGPT se ha incrementó un 295% el sábado 28 de febrero con respecto al día anterior. Lo normal es que la tasa de desinstalaciones ronde el 9% de un día otro, pero ese día quedó claro que muchos usuarios decidieron deshacerse de la app al mismo tiempo. La razón es evidente.
El Pentágono contra Anthropic. El Pentágono llevaba meses trabajando con Claude, la IA de Anthropic, que ya se usaba en documentos clasificados. Anthropic había puesto como condición no usar su IA para espionaje masivo y para desarrollo de armas autónomas, pero el Departamento de Defensa (DoD, que ahora muchos llaman "Departamento de Guerra") quiso que Anthropic eliminase esas limitaciones. Anthropic se negó, y ahí es donde entra OpenAI.
Altman quiere aclarar las cosas. El anuncio de OpenAI no era demasiado claro en si realmente OpenAI imponía los mismos límites que había impuesto Anthropic, pero Altman pronto anunció que había añadido enmiendas al acuerdo para evitar cualquier confusión. Al parecer se han añadido protecciones a la vigilancia masiva, pero no se menciona nada del desarrollo de armas autónomas letales.
Castigo para OpenAI. No solo se ha desinstalado de forma notable, sino que en las opiniones de la app ChatGPT muchos usuarios han dado una sola estrella sobre cinco en una proporción altísima: esas malas opiniones crecieron en un 775% el sábado y luego un 100% el domingo según Sensor Tower. Las opiniones con cinco estrellas cayeron un 50%.
Claude ha adelantado a ChatGPT en descargas como consecuencia de los últimos acontecimientos con el Pentágono. Fuente: Appfigures.
Y Claude ya la supera en descargas. Otra consultora que monitoriza el mercado de las descargas, Appfigures, indicaba que el sábado las descargas de Claude superaron a las de ChatGPT en EEUU por primera vez. De hecho Claude se ha convertido en la app más descargada en al menos seis países fuera de EEUU: Bélgica, Canadá, Alemania, Luxemburgo, Noruega y Suiza.
Efecto Streisand. Estamos ante un caso más del efecto Streisand: intentar censurar cierta información o cierta empresa acaba siendo contraproducente. El Pentágono intentó convertir a Anthropic en la mala de la película, pero lo que ha pasado es que ahora la empresa es vista como la gran defensora de la ética y del "alineamiento de la IA". Eso ha hecho que la gente la perciba como una opción moralmente más respetable que ChatGPT.
Pero Anthropic tiene problemas. Según Reuters diversos departamentos y agencias gubernamentales estadounidenses han hecho el cambio a OpenAI y han comenzado a dejar de usar los modelos de Anthropic para su trabajo. Eso ya es un problema para Anthropic, pero lo es aún más el hecho de que su reciente ronda de inversión, en la que levantaron 60.000 millones de dólares, podría estar en peligro. Si el DoD decide etiquetar a Anthropic como "un riesgo para la cadena de suministro" sus contratos y acuerdos con decenas de empresas estarían en riesgo, y su propio futuro como empresa también. Sería una medida extraordinaria y parece improbable que EEUU llegue hasta tal punto, pero nada es seguro a día de hoy.