Sábado, 28 de febrero de 2026 Sáb 28/02/2026
RSS Contacto
MERCADOS
Cargando datos de mercados...
Economía

'Champions' de la IA: ¿merecen ganar más o son un peligro?

'Champions' de la IA: ¿merecen ganar más o son un peligro?
Artículo Completo 2,923 palabras
El uso avanzado de la IA, ¿es un argumento para que le suban el sueldo o un motivo de conflicto peligroso con su empresa? La adopción de estas tecnologías transforma los contratos y las evaluaciones de desempeño, y genera debates nunca vistos que tienen que ver con la propiedad del conocimiento, el derecho a mejores sueldos y los riesgos del uso de herramientas no autorizadas. Leer
Tendencias'Champions' de la IA: ¿merecen ganar más o son un peligro? 27 FEB. 2026 - 12:59Costhanzo

El uso avanzado de la IA, ¿es un argumento para que le suban el sueldo o un motivo de conflicto peligroso con su empresa? La adopción de estas tecnologías transforma los contratos y las evaluaciones de desempeño, y genera debates nunca vistos que tienen que ver con la propiedad del conocimiento, el derecho a mejores sueldos y los riesgos del uso de herramientas no autorizadas.

Hace apenas quince días Financial Times explicaba que Accenture había emprendido un cambio en la relación laboral con sus profesionales al convertir la inteligencia artificial (IA) en requisito formal de progreso laboral. Según FT, la consultora vincula las promociones -especialmente en niveles sénior- a la adopción regular de herramientas internas de IA. Accenture habría recopilado datos sobre los inicios de sesión semanales individuales de algunos empleados directivos en sus herramientas de inteligencia artificial.

Por su parte el bufete británico Shoosmiths -que brinda servicios legales a empresas nacionales e internacionales- ha creado una bolsa de dinero para bonus que se reparte sólo si la plantilla alcanza un objetivo medible de adopción de IA (por ejemplo, un número mínimo de uso de prompts en sus herramientas). Es un ejemplo de "nuevas recompensas": pagar por impulsar un cambio de hábitos y productividad, no sólo por antigüedad o por resultados tradicionales.

También Deloitte está reestructurando títulos y niveles para que los puestos reflejen mejor las habilidades y las disrupciones tecnológicas, como la IA; y Reuters se refería recientemente a la fintech sueca Klarna, que afirma que la inteligencia artificial le ha permitido ahorrar costes y trabajar con más eficiencia, y que una parte de ese beneficio se ha usado para mejorar los sueldos. Según la empresa, la compensación media subió un 60% desde 2022. Esto implica repartir parte del dividendo de productividad.

Cambian las tornas...

Hace ya tiempo que hemos aceptado que dominar las herramientas de inteligencia artificial no sólo es obligatorio sino que resulta imprescindible para ser más competitivo y eficaz. Este dominio ha provocado cambios en nuestros trabajos y carreras, en nuestra productividad y también en la posibilidad de generar un nuevo valor profesional que tal vez debería ser recompensado.

Y además todo esto impulsa debates y provoca nuevas exigencias y conflictos laborales que hace apenas tres años ni imaginábamos.

Así, el concepto de "prima de IA" -acuñado por el emprendedor en serie y experto rastreador de despidos tecnológicos desde Layoffs.fyi, Roger Lee-, que lleva a pagar más a quienes demuestran un dominio de la IA y más productividad gracias a ella, es ya moneda común en el mercado laboral.

Una investigación de PwC habla de una prima salarial del 14% para los trabajos que requieren habilidades en inteligencia artificial, y añade que esta aumenta al 58% para los diseñadores y administradores de bases de datos con habilidades en IA, y al 27% para los abogados. A nivel mundial, los sectores más expuestos a la inteligencia artificial, en los que la tecnología puede usarse fácilmente para algunas tareas, han experimentado un crecimiento de la productividad 4,8 veces mayor que aquellos menos capaces de adoptar la inteligencia artificial.

En el otro lado hay expertos reconocidos que sugieren la implantación de una renta básica universal para aquellos profesionales que se queden atrás en la adopción, dominio y uso de la inteligencia artificial, no sólo porque sus trabajos y profesiones pueden desaparecer, sino porque sus habilidades (o la falta de ellas) pueden convertirlos en profesionales de segunda que lleguen incluso a tener problemas para ganarse la vida o subsistir.

La prima de IA o el subsidio para los que no quieren usar o no saben sacar provecho a la IA son dos ejemplos de una casuística cada vez más extensa de posibles conflictos laborales, exigencias profesionales nunca vistas y debates profesionales inéditos.

Nuevas recompensas...

Así, si volvemos a la cuestión de que un nuevo valor profesional generado por el uso experto de la IA podría tener una recompensa tangible (en retribución, reconocimiento profesional real o impulso de la carrera), cabe plantearse si aquellos profesionales que sean muy avanzados (y productivos) en el uso de la inteligencia artificial (sobre todo aquellos que cuenten con agentes de IA que "hacen cosas") están en condiciones de pedir aumentos de sueldo, retribuciones especiales o de modificar su relación laboral con su empresa.

Aquí caben exigencias como que le suban el sueldo o le concedan un bonus por impacto o de retención, argumentando un nuevo valor profesional. Si usted demuestra que su rol ha cambiado porque ahora hace operación o industrialización de agentes, está haciendo una reclamación potente y nueva. Esto no implica que usted pida que le paguen por conocimiento. Su exigencia sería más bien una reclasificación y un pago diferenciado porque su rol ya incluye industrialización de agentes (capacidad organizativa), con responsabilidad de calidad, integración y gobernanza.

En todo caso, hay quien sugiere la posibilidad de que el conocimiento acumulado en sus conversaciones e investigaciones con los agentes que ha creado, formado y alimentado puedan tener un valor monetario, más allá de esa prima de la IA de la que ya hemos hablado.

Hay quien piensa que esto no tiene por qué resultar extraño, si tenemos en cuenta que ya existen plataformas en las que se compran y venden prompts (y, cada vez más, workflows y configuraciones "tipo agente"). Más que una anécdota es ya una señal de que parte del "saber hacer" con inteligencia artificial se está mercantilizando como un activo digital.

Se pueden citar ejemplos como el de PromptBase, un marketplace grande de prompts para distintos modelos, que permite comprarlos y venderlos; o Promptrr.io, PromptAi Market, Etsy, PromtSea o DamePrompts (en español), para comprar y vender prompts con pagos vía Stripe.

Enrique Ceca, socio de Ceca Magán, explica que por una parte está la cuestión de la sanción: "Quien tenga que usar la IA y no lo haga, o no se adecue a las nuevas circunstancias o a las reglas, muy probablemente puede ser sancionado si hay una instrucción directa, o penalizado con no ser promocionado si no hay un uso adecuado de las herramientas de inteligencia artificial, esas que implican una inversión muy grande para las compañías. Aquí hay un punto de posible sanción por no usar la IA".

Por otra parte está la prima por uso o por desarrollo. Ceca opina que "no sería tanto por el uso de inteligencia artificial, sino más bien por productividad. Es decir, que quien use la IA y sea capaz de llegar más rápido, más profundo o mejor a determinado tipo de hitos o proyectos, lo normal es que tenga un incremento salarial o una promoción. Lo que es más remoto es el hecho de justificar una subida de sueldo simplemente porque se usa la IA".

Paula Talavera, socia de Laboral en Baker Mckenzie, cree que "cada vez más, la inteligencia artificial se va a utilizar para medir el rendimiento de los trabajadores. Eso es un hecho ya. Es una realidad que el uso de la IA pasa a ser un criterio para medir el rendimiento. Un criterio evaluable".

Talavera añade que "las empresas quieren fomentar que se utilice la inteligencia artificial. Por ejemplo, si una compañía ha comprado cien licencias de una herramienta concreta, se preocupan más de que cada uno utilice la suya, que del resultado de cómo se ha usado esa tecnología para una tarea concreta y cuántas horas de trabajo se han ahorrado'. Estamos todavía en la fase de evaluar sólo que la gente lo use, porque hay quien le tiene miedo o piensa que no va con ellos".

Además, la socia de Baker cree que "si vas a decir que en una evaluación premiarás al que más use la IA, hay que decírselo a los empleados, porque tienen que saber cómo van a ser evaluados. Es necesario ser muy claro en la forma en la que se va a medir".

Talavera añade que "no puede ser que Recursos Humanos saque un reporte diciendo quién usa esto y quién no sin que uno lo sepa, porque eso condiciona la forma en la que nos relacionamos con las herramientas. Por ejemplo, si quieren que los trabajadores creen agentes, tienen que decírselo: 'Aquí el mínimo para tener una buena evaluación es que hayas hecho un agente en los últimos seis meses'. Es necesario informar para que la gente decida si crea uno o crea diez para convertirse en un top performer".

Nuevas recompensas...

Evidentemente, estas nuevas exigencias que generan debate chocan con cuestiones no resueltas y con dilemas que plantea la adopción y el uso de las herramientas de inteligencia artificial en las empresas.

Productividad, seguridad, evaluación, gestión del tiempo, a quién pertenecen las herramientas, quién debe pagarlas y facilitarlas son sólo algunos puntos de fricción.

Enrique Ceca afirma que "lo primero que tiene que hacer una empresa es tener una reglamentación clara, publicada y conocida de lo que un empleado puede usar y de lo que no puede utilizar en inteligencia artificial. Que no exista esa reglamentación, que no esté publicada o que no se conozca puede eximir de todos esos problemas a quien use la inteligencia artificial con herramientas externas pagadas por uno mismo, que le vienen mejor que las propias de la compañía o que las que no existen en la empresa".

Román Gil, socio de Sagardoy, cree que "lo lógico es que la propia organización facilite las herramientas a sus empleados, y cuando ocurre esto queda limitada de alguna manera la posibilidad de que el empleado pueda llegar a exigencias poco habituales".

El socio de Sagardoy mantiene que "no hay una regulación legal que diga que cuando un profesional aporta un valor especial o unas herramientas, la empresa se lo debe retribuir".

Gil recuerda la existencia de políticas que se conocen como Bring Your Own Device (BYOD). Estas BYOD son el precedente directo de lo que hoy se llama BYOAI (Bring Your Own AI) o shadow AI, que tiene que ver con los empleados que usan herramientas de inteligencia artificial no aprobadas (a veces gratuitas o pagadas de su bolsillo) para trabajar. Es el uso en el trabajo de herramientas de IA públicas sin validación por parte de la organización.

Algunos expertos advierten de que prohibir sin más suele fallar. Es necesario contar con guías que permitan innovar reduciendo los riesgos.

Román Gil insiste en que en este momento no hay ningún tipo de regla que diga que el valor de lo que yo he aportado es esto, yo sé que aporto más valor y me tienen que subir el salario: "Eso no existe. Habría que negociarlo con la empresa... y se está haciendo. Este tipo de cuestiones tan sofisticadas no suelen ser parte del convenio colectivo, sino de la negociación individual.

Por su parte Enrique Ceca recuerda que el uso de inteligencia artificial no autorizado puede ser causa de despido cuando se comprometen los datos o la seguridad de la información: "Si se usa la IA fuera de los límites o herramientas autorizadas con datos de clientes, se está cometiendo una irregularidad gravísima. No se puede mandar un documento empresarial al propio Gmail para hacer una búsqueda en casa. Se compromete la seguridad de la información y la de los datos de los clientes. Y eso es sancionable".

Para Ceca, mientras no se comprometa la información y la herramienta de inteligencia artificial se use para ser más productivo, no tiene por qué haber sanción.

Paula Talavera recuerda que hay profesionales que usan la IA que les facilita la empresa, pero también hay un uso de herramientas que no están facilitadas por la compañía. La socia de Baker explica que las empresas no permiten que se utilicen herramientas externas por seguridad y confidencialidad: "Es decir, a la compañía que se ha decidido por Copilot no le vale que un trabajador por su cuenta haga algo con ChatGPT: esto suele hacerse porque las organizaciones no quieren que ningún dato relacionado con el trabajo acabe en una plataforma de la que no tiene licencia. Por ejemplo, tú puedes tener una herramienta que cada hora y media te mande un email para que te levantes y des una vuelta, porque eso beneficia que luego estés más concentrado. Esa es una herramienta de IA que se usa para trabajar, pero que no influye en la relación con la organización. Otra cosa es que uno quiera elaborar un informe y los datos se los pida a ChatGPT. Esto es lo que prohíben las empresas: 'Yo te he contratado para que hagas A, B y C con las herramientas que pongo a tu disposición'. Y esto puede limitar que un profesional argumente que es un usuario avanzado de esas otras herramientas externas".

La socia de Baker Mckenzie ve sentido a toda esta política: "La empresa tiene la obligación de ofrecer al profesional todos los medios para que haga su trabajo, y éste no puede trabajar con sus propios medios, porque no es un autónomo. Si el empleado usuario de IA le dice a la compañía que una herramienta funciona mejor, la empresa debería valorar su implementación, pero no puede permitir al profesional que la use por su cuenta porque no se pueden meter datos, sobre todo por cuestiones de confidencialidad".

Dicho esto, Talavera cree que, en general, "las empresas no están valorando ahora mismo el hecho de que puedan contar con usuarios avanzados con IA fuera de las herramientas que facilita la propia organización", y esto es un claro conflicto entre "podría ser más productivo" y "seguridad de los datos".

Lo que puede exigir a su empresa...

El uso avanzado de la inteligencia artificial y el hecho de que un profesional cree sus propios agentes que "hacen cosas" y lo convierten en mejor profesional y más productivo cambiará las relaciones laborales. Pero este cambio no puede cristalizar únicamente en "yo vendo mi conocimiento o mi agente". En todo caso, emerge un nuevo terreno de "reclamaciones" que pueden plantearse perfectamente y que cada vez son más normales.

  • Un profesional que domina la IA y, sobre todo, que crea y opera agentes que automatizan el trabajo, no está pidiendo un plus por saber hacer 'prompts'. Más bien asume un rol de plataforma, que le lleva a dejar de usar IA sólo para su productividad y pasa a construir una capacidad compartida, que es integrar agentes con sistemas, definir pruebas y monitorización, gestionar riesgos y asegurar que otros equipos puedan adoptarla y escalarla con seguridad.
  • En 2026 no habrá muchas empresas que repartan grandes subidas de sueldo. La norma será mantener presupuestos de aumentos "por mérito" bastante planos y se reservarán fondos para recompensas puntuales: bonus por resultados, pagos de retención o acciones. Aquellos profesionales que demuestren un alto impacto podrían negociar la entrada en ese grupo diferencial con argumentos sólidos.
  • En retribución se pueden plantear ciertas exigencias. La primera se refiere a que "la empresa paga los medios", y esto implica un presupuesto para herramientas y computación, y el reembolso de gastos necesarios realizados para trabajar. A cambio, el profesional debe comprometerse a operar dentro de la política de la compañía y a documentar sus resultados.

Si sus tareas ya incluyen diseñar procesos, integrar sistemas, probar y vigilar la calidad y resolver incidencias, su puesto ha subido de nivel. Puede pedir que le reclasifiquen a una categoría superior (o un ajuste salarial selectivo si no pueden aún).

Además, puede negociar pagos ligados a resultados.

  • Por lo que se refiere al desarrollo de carrera, se puede pedir un camino formal, no un reconocimiento simbólico. Es posible exigir que Recursos Humanos defina una trayectoria con competencias por nivel.
  • La redefinición del puesto exige un "contrato operativo". Pida una descripción de puesto actualizada con responsabilidades de plataforma (diseño, integración, evaluación, monitorización, gobernanza, o formación).
  • Podría proponer un plan de 90 días para escalar sus agentes con objetivos medibles: procesos en producción, horas ahorradas, reducción de errores, adopción por equipos e incidencias. Así demuestra valor y control. En la UE, además, la AI Act exige impulsar la alfabetización en inteligencia artificial, lo que respalda pedir formación, guías y procedimientos oficiales, no depender de iniciativas individuales.
Supere la frustración en una empresa que impone el 'trabajo zombi'Las 5 promesas que cumplirán los verdaderos agentes de IAFiscalizar la IA: más regulación de otro tiempo que frena el talento Comentar ÚLTIMA HORA
Fuente original: Leer en Expansión
Compartir