
Por qué la IA no puede explicarse de manera confiable (aún)
Investigadores del MIT, Technion y la Universidad de Northeastern han advertido sobre los riesgos de confiar demasiado en las herramientas automáticas de inteligencia artificial (IA) diseñadas para analizar otros sistemas de IA. En su estudio «Pitfalls in Evaluating Interpretability Agents», examinan críticamente los métodos utilizados para evaluar herramientas que buscan desentrañar cómo operan las redes neuronales y cómo influyen sus



