Unos pocos documentos maliciosos son suficientes para crear una puerta trasera en un modelo de lenguaje, independientemente de su tamaño y del volumen de datos de entrenamiento, con el fin de desencadenar comportamientos que normalmente no tendría...