麻省理工学院和MIT-IBM沃森人工智能实验室开发新技术可在部署基础模型
盖世汽车讯 基础模型是大规模深度学习模型,已在大量通用、未标记的数据上进行了预训练,可应用于各种任务,例如生成图像或回答客户问题。这些模型是ChatGPT和DALL-E等人工智能工具的支柱,但它们可能会提供错误或误导性的信息,在安全攸关的情况下这些错误信息可能造成严重后果。
据外媒报道,为了帮助防止出现此类错误,麻省理工学院和MIT-IBM沃森人工智能实验室(MIT-IBM Watson AI Lab)的研究人员开发出一种技术,可以在将基础模型部署到特定任务之前评估其可靠性。
研究人员考虑通过一组彼此略有不同的基础模型来实现这一目标,然后利用其算法来评估每个模型学习到的关于同一测试数据点的表示的一致性。如果这些表示一致,则意味着模型可靠。
与最先进的基线方法相比,这种技术能够更好地体现在各种下游分类任务中基础模型的可靠性。人们可以利用这种技术来决定是否可以在特定环境中应用模型,而无需在真实数据集上进行测试。当数据集可能因隐私问题而无法访问时,这可能特别有用。此外,该技术还可用于根据可靠性评分对模型进行排名,从而使用户能够为其任务选择最佳模型。
研究人员Navid Azizan表示:“所有模型都可能出错,但知道自己什么时候出错的模型更有用。对于这些基础模型来说,量化不确定性或可靠性的问题更具挑战性,因为它们的抽象表示难以进行比较。这种方法允许人们量化表示模型对于各种给定输入数据的可靠性。”
免责声明:该文章系本站转载,旨在为读者提供更多信息资讯。所涉内容不构成投资、消费建议,仅供读者参考。