当人工智能帮你决定股票投资或解答法律问题时,你是否会疑惑它为何给出这样的答案?一项名为Domaino1s的技术正试图解决这个问题——它让AI像人类一样展示思考过程,而不仅仅是抛出一个简单结论。
在股票投资、法律咨询等容错率极低的领域,人们需要的不仅是答案,更是答案背后的逻辑。当前主流大语言模型(LLMs)就像一位惜字如金的专家,往往直接给出“买”或“卖”的建议,却不解释原因。这种“黑箱”特性降低了用户信任度——毕竟,没人敢把真金白银押注在一个说不清理由的判断上。
论文中举了一个典型例子:当被问“抢劫银行是否违法”时,普通AI可能直接回答“是”,而早期思维链(Chain-of-Thought, CoT)技术可能产生荒谬推理(如“偷一分钱可能合法”)。这暴露了两个关键问题:缺乏领域专业知识,以及自我纠错能力的缺失。
Domaino1s的解决方案包含两个核心技术突破:
1. 领域特化的思维训练
研究团队构建了“CoT-stock-2k”和“CoT-legal-2k”两个数据集,分别包含金融和法律领域的2000条带推理过程的问答。通过监督微调(即用特定数据训练模型),AI学会了像领域专家那样分步骤思考。例如面对股票问题时,它会先分析财报指标,再评估行业趋势,最后给出建议——整个过程如同资深分析师的报告。
2. 树状搜索纠错机制
传统思维链是线性推理,一旦开头出错就会一错到底。Domaino1s引入了“选择性树探索”(Selective Tree Exploration),让AI像下棋时推演多种走法一样,并行生成多条推理路径。系统会评估每条路径的合理性,最终选择最优解。论文中的图示显示,针对同一个法律问题,AI会同时考虑“金额是否影响违法定性”和“法律对金额的普适规定”等分支,自动排除错误逻辑。
除了准确率,团队提出了“PROOF-Score”新指标,从三个维度评估解释质量:
逻辑连贯性:推理步骤是否环环相扣
领域适配性:是否使用专业术语和常识
可追溯性:能否追溯到支持结论的证据
在股票推荐任务中,使用Domaino1s的模型不仅预测准确率提升12%,其解释被专业投资者评为“可信”的比例达到68%,远超基线模型的23%。
对于普通用户而言,Domaino1s带来的最大改变是“可质疑的AI”。当AI展示出“因为A,所以B,进而C”的完整逻辑链时,用户能像审阅人类专家的报告一样:
发现推理漏洞(如“这个财务指标解读有误”)
理解风险点(如“建议基于对美联储政策的乐观假设”)
做出更知情的选择
目前该技术已开源,未来可能应用于医疗诊断、政策咨询等更多高风险场景。不过研究者也指出,它仍依赖高质量领域数据,且推理速度较直接输出稍慢——这就像请专家写详细分析报告必然比随口给建议更耗时,但显然更值得信赖。