Banner Edicion Impresa

Monitor Software


Estados Unidos pondrá contra las cuerdas a la IA hecha en China

Estados Unidos pondrá contra las cuerdas a la IA hecha en China
Busca evitar que usen las nubes estadounidenses

Publicación:30-01-2024
++--

El Gobierno de Joe Biden está adoptando una serie de medidas para impedir que China se aproveche de la tecnología estadounidense para la inteligencia artificial

 

La secretaria de Comercio de Estados Unidos, Gina Raimondo, anunció el viernes 26 de enero que el Gobierno de Joe Biden planea imponer nuevas reglas a las empresas de nube que operan en el país. Según estas normas, las compañías tendrían que verificar si sus centros de datos son utilizados por entidades extranjeras para entrenar modelos de inteligencia artificial que puedan suponer un riesgo para la seguridad nacional.

En una entrevista con Reuters, Gina Raimondo explicó la razón por la que el Gobierno de Biden quiere exigir a las empresas de nube que verifiquen el origen de los usuarios que entrenan modelos de inteligencia artificial en sus centros de datos. Según la secretaría de comercio estadounidense, esta medida busca evitar que la tecnología de IA de Estados Unidos caiga en manos de potenciales adversarios como China o Rusia.

La estrategia de Biden para blindar la nube estadounidense de la intrusión China en la IA

El Gobierno de Joe Biden está adoptando una serie de medidas para impedir que China se aproveche de la tecnología estadounidense para la inteligencia artificial, un sector en auge que genera inquietudes de seguridad.

La propuesta de regulación obligaría a las empresas de nube a conocer el origen de sus clientes que usan sus servicios para entrenar modelos de IA.

"No podemos permitir que actores no estatales, China o personas indeseables accedan a nuestra nube para entrenar sus modelos. Ya usamos controles de exportación de chips, que son los que alimentan los centros de datos en la nube estadounidenses. Por eso, también tenemos que pensar en bloquear esa vía para evitar posibles actividades maliciosas".

La propuesta se publicó oficialmente el día lunes 29 de enero. "Es un asunto muy serio", dijo la secretaria de Comercio de Estados Unidos, Gina Raimondo:

"Estamos haciendo todo lo posible para negar a China la capacidad de cómputo que necesitan para entrenar sus propios modelos de IA, pero ¿qué sentido tiene eso si usan nuestra nube para entrenar sus modelos?".

"Las empresas de nube de Estados Unidos deben saber quiénes son sus clientes más grandes que entrenan los modelos más grandes, y estamos tratando de obtener esa información. Lo que haremos con esa información dependerá de lo que encontremos".

Biden obliga a los creadores de IA a revelar los resultados de seguridad al gobierno de Estados Unidos

Además de lo anterior, el Gobierno de Biden ha emitido una orden ejecutiva que requiere a los desarrolladores de sistemas de inteligencia artificial que puedan afectar a la seguridad nacional, la economía o la salud pública que informen al gobierno de los resultados de las pruebas de seguridad antes de publicarlos. El Departamento de Comercio enviará pronto estas solicitudes de información a las empresas de este sector.

La secretaria de Comercio de Estados Unidos, Gina Raimondo, dijo a Reuters que las empresas tendrán 30 días para responder. "Si alguna empresa se niega a cumplir, eso me hará sospechar", afirmó.

NetChoice critica la orden de Biden sobre la IA y la nube

El grupo comercial de la industria tecnológica NetChoice, representado por su consejero general Carl Szabo, calificó de "ilegal" la orden ejecutiva del Gobierno de Biden que impone requisitos de información a los desarrolladores de sistemas de inteligencia artificial.

Szabo también dijo que la propuesta de regulación que obliga a las empresas de nube de Estados Unidos a identificar a los usuarios extranjeros que entrenan modelos de IA en sus centros de datos podría afectar a la cooperación internacional. Entre las empresas de nube afectadas por esta medida se encuentran Amazon, AWS, Alphabet, Google Cloud y Microsoft, Azure.



« Especial »