Una vez que los modelos de lenguajes están integrados en algunas apps, Google Docs está sumando nuevas funciones de escritura asistida para ayudar a los usuarios a escribir más rápido y mejor. 

Y es que, más allá de las correcciones gramaticales y ortográficas, veremos sugerencias para mejorar el estilo de nuestra escritura a medida que redactamos el texto.

La escritura asistida se está introduciendo para los usuarios de las empresa básicamente, y la función está activada por defecto. El problema reside en que no todo el mundo está siendo partidario de ser guiado por el algoritmo, y algunas personas encuentran irritante su capacidad de lenguaje inclusivo absurdo.

Qué es inteligencia artificial, Machine learning y cómo mejora tu vida

Qué es inteligencia artificial, Machine learning y cómo mejora tu vida

IAbyHuawei

Algunos ejemplos que encontramos es que palabras como “policías” pueden hacer que el modelo sugiera que se cambie por algo más neutral como “agentes de policía”. Otro caso es el del cambio de  “casero” por “propietario” o “dueño” o la eliminación automática de palabras malsonantes.

Pese a que este nuevo sistema es positivo para mejorar la escritura, ¿hasta qué punto realmente cumple esta función y no perjudica más que mejorar? 

Existe un problema de base y es que, la escritura asistida utiliza modelos de comprensión del lenguaje, que se basan en millones de frases y oraciones comunes para aprender automáticamente cómo se comunica la gente. Sin embargo, esto también significa que pueden reflejar algunos sesgos cognitivos humanos.

Se desarrolla la primera lentilla verdaderamente inteligente del mundo

Los tres primeros modelos de lentilla inteligente que llegarán al mercado

Con esto queremos decir que mientras los expertos se esfuerzan por crear un sistema inteligente perfecto, la imparcialidad en los modelos de aprendizaje automático está demostrando ser algo complicado de medir y mejorar.

Tratar de arreglar la equidad es difícil, no sólo porque la gente no se pone de acuerdo sobre lo que significa el término, sino porque las soluciones para una aplicación pueden no ser adecuadas para otra.

“Tenemos algunos problemas. Tenemos que resolver la ética. Tenemos que asegurarnos de que los errores del pasado no se repitan. Tenemos que entender la ciencia de la vida de la IA. De lo contrario, vamos a crear un monstruo. Soy muy optimista y creo que, si prestamos atención, podremos resolver todas esas cuestiones“, afirma el director general de IBM, Arvind Krishna