Algoritmos en RRHH: ¿Realidad o Ficción?

Nos guste más o menos (creo que a la mayoría nos gusta menos), los algoritmos están cada vez más presentes en nuestra vida. Tal vez sea porque me considero una persona optimista, quiero pensar en cómo estos algoritmos están aprendiendo con la práctica, e imagino entonces un futuro dónde nos beneficien más de lo que nos puedan perjudicar.

Aplicado a la empresa y en concreto a los recursos humanos, creo que la inteligencia artificial va a cambiar mucho el panorama que conocemos hoy por hoy.



Al igual que Facebook aprende sobre nuestros gustos, un algoritmo podría aprender además sobre nuestro carácter (gustos + fortalezas + debilidades) para proponernos la mejor carrera para nosotros, el mejor trabajo o el más adecuado proyecto dentro de la empresa…

Se crearía un nuevo concepto de manager, estas herramientas le proporcionarían personal específico cuya motivación, habilidades y competencias estarían garantizadas.


Y lo cierto es que en algunas empresas parte de esto ya está ocurriendo.


Según un artículo de La Vanguardia, en Manpower Group ya trabajan, por ejemplo, con algoritmos que ofrecen información adicional a los entrevistadores, como que el aspirante se muestra nervioso, por lo que es posible que esté mintiendo. O miden si está distraído durante la entrevista de trabajo o permiten la construcción de “un mapa que detecta el estado emocional de un candidato por la voz”. Sin embargo hay quien como Rubén Berrocal, director de Randstad Technologies, defiende que la decisión final sobre a quién contratar quedará siempre en manos de una persona y no de una máquina. “El factor humano es determinante. Hay un componente emocional insustituible que tiene que pesar a la hora de va­lorar el encaje ­entre un candi­dato y su responsable”.

En el mismo artículo se menciona como desde el Instituto Cuatrecasas, en su informe “Inteligencia artificial y su impacto en los Recursos Humanos y en el Marco Regulatorio de las Relaciones Laborales”, recomiendan a las compañías asegurarse “de que los algoritmos con los que opera la inteligencia artificial estén todo lo libres posible de los prejuicios que hayan podido introducir, consciente o inconscientemente, no sólo los programadores sino también los derivados de la información de la que día a día se nutre la inteligencia artificial”.



Amazon mide individual y automáticamente la productividad de cada trabajador en base al número de paquetes que éstos confeccionan cada hora. El programa, en caso de detectar empleados de baja productividad “genera automáticamente advertencias, sin la intervención de los supervisores”.


En el sistema judicial de Estados Unidos se utiliza COMPAS, un algoritmo informático para predecir la probabilidad de reincidencia de los convictos a través de un cuestionario de 137 preguntas.

BBVA junto con Das-Nano han creado Veridas, otro ejemplo de cómo los algoritmos ya aprenden con la práctica y pueden reconocer el cuerpo humano. Esta ‘joint venture’ es hoy el sistema responsable del cobro de las 2000 bandejas de comida que se consumen cada día en el restaurante de BBVA, mediante el reconocimiento del rostro de la persona que porta la bandeja y cargando el importe en su respectiva cuenta. “Con el desarrollo de las redes neuronales, el poder para resolver los problemas no está tanto en los algoritmos como en los datos”, explica Carlos Arana, CTO de Das-Nano.


La idea de que los seres humanos son organismos guiados por algoritmos y las consecuencias que siguen a ese supuesto es el tema del nuevo libro que el historiador Yuval Noah Harari ha publicado recientemente titulado “Homo Deus. Breve historia del mañana” (Debate, Buenos Aires, 2016, 496 páginas). El autor sostiene que los organismos son algoritmos y que la vida es un mero procesamiento de datos. De ahí se infiere que un algoritmo externo puede teóricamente conocerme mucho mejor de lo que yo nunca me conoceré. Un algoritmo que supervisa cada uno de los sistemas que componen mi cuerpo y mi cerebro puede saber exactamente quién soy, qué siento y qué deseo. Entonces el algoritmo será quien mejor sepa lo que me conviene, el algoritmo siempre tendrá la razón y la belleza estará en los cálculos del algoritmo”. La idea se repite en otros pasajes, como por ejemplo cuando afirma que “las emociones son algoritmos bioquímicos vitales para la supervivencia y la reproducción de todos los mamíferos”.





Otra autora, Cathy O’neil nos advierte del peligro de que los algoritmos tomen decisiones. En su libro “Armas de Destrucción Matemática”, O’Neil cita algunos algoritmos que se usan en el mercado laboral, en bancos y en compañías de seguros, y nos explica de manera muy convincente cómo se suelen diseñar a medida, en función de los motivos, valores e ideologías de sus creadores.


Adrián Todolí, profesor de Derecho del Trabajo en la Universitat de València comparte esta idea. En su blog pone de manifiesto la causa principal de la injusticia que pueden generar los algoritmos:


“Cuando un algoritmo está al mando, en general, las minorías siempre estarán en desventaja. La propia ciencia de la estadística otorga más valor a las decisiones tomadas con mayor información disponible. Eso conlleva que en las minorías –raza, religión, orientación sexual, etc.- habrá menos datos disponibles lo que implicará que el algoritmo entienda que tomar una decisión favorable a un colectivo minoritario sea más arriesgado que tomarla a favor de un colectivo mayoritario”.

En conclusión, creo que estamos en la primera infancia de la revolución digital. Aún tendremos que ver cómo la Inteligencia Artificial va madurando pero está claro que si al final el problema no solo está en los algoritmos en sí, si no en los humanos que los crean, son esos mismos humanos los que ahora están tomando decisiones teniendo en cuenta muchos menos datos en comparación.


A través de la meditación y de cursos como los que impartimos en el Instituto Leela, esas personas encargadas de decidir sobre la vida de otros o de programar un algoritmo pueden encontrarse libres del condicionamiento y los prejuicios que puedan acarrear consigo, logrando que al fin la tecnología se coloque al servicio de los humanos y no al revés.






INSTITUTO LEELA PARA EL CRECIMIENTO PERSONAL Y CORPORATIVO

 

 

Paseo de las Perdices, 73.

 

28707 Urb. Ciudalcampo.

Madrid

0034 622 631 807

  • LinkedIn
  • Instagram - White Circle
  • Facebook - White Circle