La tokenización, el proceso mediante el cual muchos modelos de inteligencia artificial generativa entienden los datos, tiene fallas clave.