Estas cinco compañías trataron de ‘colar’ como producto de la inteligencia artificial respuestas realmente elaboradas por humanos

Se habla mucho de cuántos empleos se perderán a medida que la inteligencia artificial vaya mejorando sus capacidades, y existen incluso estudios sobre qué clase de puestos de trabajo están ya cerca de ser automatizables. Pero lo cierto es que, a veces, ni siquiera la IA que ya está en el mercado es capaz de sustituir del todo a los seres humanos.

No es sencillo desarrollar y poner en marcha una plataforma comercial online basada en inteligencia artificial; y la cosa empeora si, además, una vez puesta en marcha se comprueba que la funcionalidad no es la esperada. En ese momento muchas compañías pueden caer en la tentación de pensar que la inteligencia es inteligencia, venga de donde venga, y que al fin y al cabo es más fácil lograr que los seres humanos se comporten como bots que el que las máquinas se comporten como seres humanos.

Esta clase de fraudes son anteriores a la aparición de la misma inteligencia artificial: ya en el s. XVIII el famoso autómata ‘El Turco’ deslumbró al público europeo y norteamericano ganando a humanos al ajedrez (Napoleón Bonaparte y Benjamin Franklin entre ellos), hasta que se hizo público que era otro humano quien lo operaba desde dentro.

La técnica del Mago de Oz

Dentro de la disciplina que estudia la interacción humano-computador existe el concepto de “el experimento Mago de Oz”, que hace referencia a una técnica en la que los sujetos interactúan con un sistema computarizado que creen independiente, pero que en realidad está, total o parcialmente, controlado por un ser humano.

Por extensión, se utiliza ese mismo nombre como forma de hacer referencia a la práctica comercial, dudosamente ética, de contar con amplias plantillas de empleados humanos que puedan realizar de forma eficiente tareas que luego, de cara a clientes y medios, se atribuye a una inteligencia artificial a veces excesivamente mistificada.

Saltando un par de siglos en el tiempo desde la época de ‘El Turco’, vamos a repasar algunos de los casos más sonados de falsas IAs en estos años, en su mayoría vinculados al campo de los bots conversacionales y a los sistemas supuestamente automatizados de tratamiento de textos y mensajería:

1) SpinVox

Hace más de una década (2008) esta compañía, que ofrecía un servicio de conversión de mensajes de voz a texto, fue acusada de usar a seres humanos en call centers situados en el extranjero (en países como Sudáfrica y Filipinas) en lugar de máquinas para hacer este trabajo.

Antiguos empleados denunciaron que esta práctica era la habitual con la mayoría de los mensajes procesados por la compañía, mientras que sus directivos alegaron que este método sólo se utilizaba cuando el sistema no reconocía alguna palabra en la base de datos. Inmersa en irregularidades financieras, esta startup fue vendida un año más tarde.

2) X.ai

Amy Ingram es el nombre de la IA creada por esta startup en 2014 como asistente personal, con la misión de asumir tareas mundanas como programar reuniones y recordarlas mediante e-mail. El servicio fue muy alabado por “su tono humanizado” y sus “buenos modales”.

Pain Solution

Lo que nadie sabía es que detrás de Amy Ingram se ocultaba gente como el veinteañero Willie Calvin, que había estado encargado de entrenar a Amy hasta que la compañía decidió lanzarla al mercado sin estar aún lista, lo que obligó a que sus ‘entrenadores’ empezaran a verse obligados a supervisar directamente cómo procesaba los correos… y a tomar los mandos en algunos casos.

Hoy en día Amy sigue activa, cuenta hasta con una versión masculina (Andrew) y supuestamente ya depende en exclusiva de la potencia de su inteligencia artificial.

3) Edison Software

Esta empresa californiana desató la polémica en 2018 tras saberse que había estado recurriendo a sus empleados para revisar algunos e-mails de sus clientes y poder así contar con los datos necesarios para generar las respuestas teóricamente automatizadas. La polémica, en este caso, no provino exclusivamente del hecho de haber mentido sobre las capacidades de su inteligencia artificial, sino por sus repercusiones sobre la privacidad de sus clientes.

Los responsables de la compañía explicaron que era una medida temporal, derivada del hecho de no contar aún con suficientes datos como para entrenar a su algoritmo con garantías, y que existían estrictos protocolos para salvaguardar la privacidad en estos casos.

4) Google

No todo iban a ser startups poco conocidas: una de las compañías más poderosas de Silicon Valley (y del mundo en general) también cayó recientemente en esta clase de malas prácticas.

Google presentó al público en 2018 su servicio Google Duplex, enfocado a la automatización de reservas en sitios como restaurantes y peluquerías y que era capaz de conversar de forma sorprendentemente normal con seres humanos sin que éstos se dieran cuenta de que quienes les hablaba era una máquina.

Pero el pasado mes de mayo Google acabó confirmando al New York Times que alrededor del 25% de las llamadas se inician por parte de operadores humanos, y el 15% de todas ellas acaban necesitando intervención humana.

Google sigue hoy en día mejorando este servicio, pero lo cierto es que en su keynote de 2018 generaron unas altas expectativas en torno al mismo que no han sido capaces de cumplir, y que si no hubiera sido por el reportaje del NYT, todos seguiríamos pensando que esta IA creada por Google se situaba en un nivel tecnológico irreal.

Google Duplex

5) Engineer.ai

Por si no fuera suficiente con los ejemplos anteriores, ayer mismo se sumaba una nueva compañía a esta lista de IAs fraudulentas: Engineer.ai, una startup hindú que ofrecía servicios de automatización del desarrollo de aplicaciones y que había atraído inversiones por valor de casi 30 millones de dólares en los últimos meses, ha sido desenmascarada por el Wall Street Journal.

¿La realidad? La compañía recurre a una tropa de ingenieros humanos para desarrollar el código de las apps (prometía generar en una hora más del 80% de una app móvil). El uso de la IA se limita a utilizar el procesamiento de lenguaje natural para dar al cliente una estimación de precios y plazos, y a continuación sólo tiene que generar un ‘árbol de decisión’ para asignar tareas a los ingenieros humanos. Según fuentes mencionadas por el WSJ, el desarrollo real del producto que dicen ofrecer no comenzó hasta hace un par de meses.

Powered by WPeMatico

Bitcoin GPU Miner

AdSense