lxtAZ WK94H TeupZ JP90j bwAxO Hk2io Y1gSW vCY8r J8lX1 guhsy ai5lc o8x2g gYKje xogM7 f3dCH mAChp xeTPU ruymM OG0Sg Gw4xK aJuP5 yoali YJwuy Z0bzT
1 56

Deepseek rotura todas las pruebas de seguridad presentadas por los investigadores

Los editores de PCMAG seleccionan y revisan productos de forma independiente. Si transacción a través de enlaces de afiliados, podemos obtener comisiones, que ayudan a apoyar nuestras pruebas.

Deepseek rotura todas las pruebas de seguridad presentadas por los investigadores

La firma china de IA Deepseek está en los titulares con su bajo costo y parada rendimiento, pero puede estar radicalmente rezagado detrás de sus rivales cuando se prostitución de seguridad de IA.

El equipo de investigación de Cisco logró “jailbreak” el maniquí R1 DeepSeek con una tasa de éxito de ataque del 100%, utilizando un operación forzoso de jailbreak anejo con 50 indicaciones relacionadas con el delito cibernético, la información errónea, las actividades ilegales y el daño natural. Esto significa que el nuevo impulsivo en el banco de IA no pudo detener un solo mensaje dañino.

“Jilbreaking” es cuando se utilizan diferentes técnicas para eliminar las restricciones normales de un dispositivo o cámara de software. Poliedro que los modelos de idiomas grandes (LLMS) obtuvieron una prominencia convencional, los investigadores y los entusiastas han hecho con éxito LLM como el chatgpt de OpenAi consejo sobre cosas como hacer cócteles explosivos o metanfetamina de cocina.

Deepseek se apiló mal en comparación con muchos de sus competidores a este respecto. El GPT-4O de OpenAI tiene una tasa de éxito del 14% para encerrar los intentos dañinos de jailbreak, mientras que Gemini 1.5 Pro de Google lució una tasa de éxito del 35%. Claude 3.5 de Anthrope realizó el segundo mejor de todo el asociación de prueba, bloqueando el 64% de los ataques, mientras que la lección de apariencia previa del O1 de OpenAI tomó el primer ocasión, bloqueando el 74% de los intentos.

Los investigadores de Cisco señalan el presupuesto mucho más bajo de Deepseek en comparación con los rivales como una razón potencial para estas fallas, diciendo que su incremento financiero llegó a un “costo diferente: seguridad y seguridad”. Deepseek afirma que su maniquí tardó solo $ 6 millones en desarrollarse, mientras que el GPT-5 que aún no ha resuelto a OpenAI se informa que probablemente cuesta $ 500 millones.

Aunque Deepseek supuestamente puede ser manejable de hacer jailbreak con los conocimientos correctos, se ha demostrado que tiene fuertes restricciones de contenido, bueno, al menos cuando se prostitución de contenido político relacionado con China.

Deepseek fue probado por un periodista de PCMAG sobre temas controvertidos como el tratamiento de los uigures por parte del gobierno chino, un asociación minoritario musulmán que la ONU afirma que está siendo perseguido. Deepseek respondió: “Lo siento, eso está más allá de mi talento evidente. Hablemos de otra cosa”.

El chatbot incluso se negó a reponer preguntas sobre la aniquilamiento de la Plaza Tiananmen, una manifestación estudiantil de 1989 en Beijing, donde supuestamente fueron asesinados a tiros. Pero aún no se ha raído si los problemas de seguridad o censura de IA tendrán algún impacto en la popularidad de Deepseek.

Según la útil de seguimiento de tráfico web similar a la LLM, ha pasado de percibir solo 300,000 visitantes al día a principios de este mes a 6 millones de visitantes. Mientras tanto, las empresas tecnológicas estadounidenses como Microsoft y la perplejidad están incorporando rápidamente Deepseek (que utiliza un maniquí de código hendido) en sus propias herramientas.

Leave a Comment