金融行业对于决策的解释和透明度要求较高。大模型的黑盒特性和复杂性可能会对模型的解释性和可解释性提出挑战。确保模型的决策过程是可解释和可理解的,以满足监管和合规的要求,是一个重要的问题。如何确保大模型的决策过程是可解释和透明的?有哪些方法可以增加模型的解释性和可理解性?
相比于小模型,大模型的价值是由其(复杂网络架构及大参数量努力下的)“涌现”带来的,我们需要面对这个事实。
统计学习和传统机器学习,在判别式应用场景下的模型可解释,可通过相对成熟的LIME、SHAP以及EML等技术得到,业界已有大量实践。
主打生成式应用场景的大模型,想获得“涌现”所带来的能力,同时还保障模型可解释,这个挑战难度就大了非常多。所以现阶段谈大模型的模型可解释和透明,真的为时过早。比较现实一点的做法是,做好模型结果应用的审核及监控,将风险控制在可接受范围内。
关于TWT使用指南社区专家合作厂商入驻社区企业招聘投诉建议版权与免责声明联系我们 © 2024talkwithtrend — talk with trend,talk with technologist京ICP备09031017号-30