国际期刊投稿平台
登录 | 注册
当前位置: 首页 > 科学研究与应用 > 论可解释人工智能(XAI)对“黑箱”的破解及其困境——基于亨普尔的科学解释模型和波普尔的“可检验性”学说
科学研究与应用

科学研究与应用

Journal of Scientific Research and Applications

  • 主办单位: 
    未來中國國際出版集團有限公司
  • ISSN: 
    3079-7071(P)
  • ISSN: 
    3080-0757(O)
  • 期刊分类: 
    科学技术
  • 出版周期: 
    月刊
  • 投稿量: 
    3
  • 浏览量: 
    281

相关文章

暂无数据

论可解释人工智能(XAI)对“黑箱”的破解及其困境——基于亨普尔的科学解释模型和波普尔的“可检验性”学说

On Explainable Artificial Intelligence (XAI) Unraveling the "Black Box" and Its Dilemmas — Based on Hempel’s Scientific Explanation Model and Popper’s "Testability" Theory

发布时间:2026-03-11
作者: 孙小涵 :辽宁大学 辽宁沈阳;
摘要: 面对智能时代生成式人工智能(Generative AI, GAI)的“黑箱”困境,可解释人工智能(Explainable AI, XAI)应运而生,其通过系统性说明AI模型的内在信息组织机制与决策逻辑,从而有效提升人工智能系统的透明度与可信度。基于科学技术哲学视角,一个真正可解释的AI系统,其决策应能从一个包含可检验的普遍律则即模型逻辑,和具体事实即输入数据的演绎论证中推导而出。这不仅满足了亨普尔所要求的解释的“合理性”,更符合波普尔所倡导的科学的“可检验性”“可证伪性”。因此,XAI的长远愿景,是使AI从“黑箱”转变为可被逻辑分析和经验检验的“白箱”模型。
Abstract: In response to the "black box" dilemma posed by Generative Artificial Intelligence (GAI) in the intelligent era, Explainable Artificial Intelligence (XAI) has emerged. By systematically elucidating the internal information organization mechanisms and decision-making logic of AI models, XAI effectively enhances the transparency and trustworthiness of artificial intelligence systems. From a philosophy of science and technology perspective, a truly explainable AI system should derive its decisions from a deductive argument encompassing testable universal laws (the model’s logic) and specific facts (the input data). This not only fulfills the "rationality" of explanation as required by Hempel but also aligns with the "testability" and "falsifiability" of science advocated by Popper. Therefore, the long-term vision of XAI is to transform AI from a "black box" into a "white box" model amenable to logical analysis and empirical testing.
关键词: 可解释人工智能;生成式人工智能;“黑箱”;逻辑演绎;可检验性
Keywords: explainable artificial intelligence; generative artificial intelligence; “black box”; logical deduction; testability

引言

“黑箱”问题在此特指人工智能模型决策过程的内部机制高度复杂且不透明,导致其推理逻辑与预测结果难以被人类用户所理解和信任。这一透明性的缺失不仅引发了关于算法公平、安全与责任的伦理关切,更从认识论层面构成了根本性挑战:当人工智能的决策无法被合理解释时,我们应基于何种理由予以采信?面对这一挑战,可解释人工智能(XAI)应运而生。国内学界,南京大学周志华教授系统论述了机器学习中“可学习性”与“可解释性”之间的内在权衡,为XAI的理论基础提供了重要支撑;清华大学张长水教授等则从“模型”与“能力”两个维度构建了XAI的系统性分类框架,强调“用户认知”在解释效果中的关键作用,推动由纯技术视角向“人机协同”视角的转变;清华大学学者刘知远与孙茂松对大语言模型技术和深度学习可解释性的开创性综述,清晰划分了“模型理解”与“决策理解”两个研究层面,为后续研究奠定了清晰的概念基础。尽管现有研究在技术实现上取得了显著进展,但对XAI解释本身的逻辑结构与哲学基础的系统性反思仍显不足。具体而言,当前研究较少从科学哲学角度审视XAI解释应满足的逻辑标准,也缺乏对解释结果是否具备科学解释应有的合理性与可检验性的深入探讨。鉴于此,本研究认为XAI的深化发展亟需建立坚实的认识论基础,回溯卡尔·亨普尔提出的演绎—律则科学解释模型与卡尔·波普尔倡导的科学“可检验性”学说,以此来构建理论分析框架。研究旨在论证,一个真正可信且可解释的AI系统,其决策应当能够被重构为包含可检验的普遍律则与具体事实的演绎论证。

1 问题的提出

生成式人工智能作为新质生产力的典型代表,深度融合数据、算法和算力三大新型生产要素,通过程序员设计的算法框架与海量数据训练,从而具备强大的知识理解和计算能力,以“数据—算法—生成”为核心链条,实现符号逻辑的自主生成。生成式人工智能的迅猛发展,正深刻地改变着社会生产与知识创造的范式,然而,其核心模型尤其是基于深度学习的大型神经网络,通常以“黑箱”形式运行,这已成为制约其在医疗诊断、自动驾驶、司法辅助等高风险、高可靠性要求场景中的深度应用与信任建立。在医疗诊断领域,AI系统或许能以超过人类专家的准确率从医学影像中识别出早期肿瘤。然而,若其无法清晰阐明诊断依据,医生将难以采信其结论,更无法将AI的“判断”整合进自己严谨的临床推理链条中。在自动驾驶领域,“黑箱”决策的直接后果更为严峻。一辆自动驾驶汽车会在突然有行人从视觉盲区闯入的关键时刻选择紧急制动而非转向避让,这一决策背后是数以亿计的参数在毫秒间计算的结果。若我们无法追溯该决策的逻辑,例如AI系统是优先考虑了乘客安全,还是行人安全;是否准确识别了障碍物属性;是否评估了转向可能导致的侧翻风险?那么事故发生后,责任将无从界定。在司法领域,人工智能在证据分析、量刑辅助、风险评估等方面的应用日益增多。但如果该算法的决策逻辑是“黑箱”,这种不透明性不仅可能掩盖并固化社会既有偏见,严重损害司法公正与平等,更使得被告人享有的接受公平审判、对判决理由提出异议的基本权利形同虚设。司法人工智能负有特殊的“可解释性义务”,这是“司法真诚”原则在智能时代的必然要求,一个无法提供合理解释的司法AI系统,其决策的正当性基础将荡然无存。

为了破解“黑箱”问题,人工智能领域的专家提出了两种技术路线:一是可解释人工智能(explainable artificial intelligence,XAI),其含义是为“黑箱”模型的决策结果提供事后解释的模型;二是可说明人工智能(interpretable artificial intelligence,IAI),其含义是决策过程与作出的解释完全一致的“白箱”模型,通常使用简单的、直观透明的模型,如线性回归和浅层决策树。诸如DeepSeek等生成式人工智能通过“深度思考模式”,将模型内部潜在的、瞬时的推理过程“外化”为一系列连续的、人类可读的思维步骤。显性的推理步骤为用户提供了对模型生成结果进行“检验”的基点。用户可以清晰审视每一步的合理性与正确性,从而评估最终结论的可信度。这在一定程度上实践了波普尔所强调的“可检验性”原则,模型的解释在此成为了一个可被审视和潜在“证伪”的对象。然而,这种“外化”的推理链在多大程度上真实、完备地反映了模型内在的计算过程,而非另一种精心构造的、迎合人类认知偏好的“叙事”,其本身仍是一个有待验证的问题。因此,“黑箱”问题本质上超越了单纯的技术障碍,它引发了关于算法公平性、安全性、归责与信任的伦理关切,并从认识论层面构成了根本性挑战:当一个系统的决策无法被人类理性所理解和追溯时,我们应基于何种理由予以采信?其输出的“知识”或“判断”能否被视为一种可靠的认知来源?现有研究在开发XAI技术工具方面已取得长足进步,但对“解释”本身应具备何种逻辑结构与哲学思考,方能承担起弥合人机认知鸿沟、建立可靠信任的重任,仍缺乏系统性的理论反思。

2亨普尔的科学解释模型在XAI的重构及其困境

亨普尔认为,一个令人满意的科学解释,必须满足两个基本要求:解释相关性要求与可检验性要求。前者指解释项(解释所依据的信息)必须为相信被解释项(待解释的现象)确实发生过或将会发生,提供有力的理由;后者则要求构成科学解释的陈述本身必须能够接受经验的检验。换言之,一个真正的科学解释,不仅要说明“为什么”现象会发生,其解释逻辑本身也必须是可被确证的。

亨普尔系统地提出了演绎—律则解释模型。该模型主张,科学解释在逻辑上应呈现为一个有效的演绎论证。在此论证中,被解释现象(E)是逻辑结论,而解释项则作为前提,包含了两类关键要素:(1)一般定律(L₁, L₂, ..., Lᵣ),这些定律陈述了自然界中普遍且必然的规律性;(2)其他断言特定事实的陈述句(C₁, C₂, ..., Cₖ),这些条件陈述了被解释现象发生时的具体情境。其标准形式可图示如下:

L₁, L₂, ..., Lᵣ(普遍定律)解释语句
C₁, C₂, ..., Cₖ(特定事实)

————————————————
E(被解释现象) 被解释语句

在此模型中,被解释现象E是从一般定律与特定事实的逻辑合取中演绎必然地推导而出。亨普尔以“当冰冻时,人行道上的水泥砂浆仍然保持液体的状态,因为它被洒了盐”这一日常解释为例进行了剖析。这一看似简单的解释,实则隐含了一个被省略的普遍定律——“盐溶于水会降低水的冰点”,以及关于当时温度、压力等特定条件。当这些隐含的前提被明确补充后,该解释便能够重构为一个符合D-N模型的演绎论证,从而使其解释力建立在坚实的逻辑与经验基础之上,而非流于直觉或叙事。

将此模型映射至XAI的语境中,一个真正具备科学严谨性的AI解释,其理想形态应当能够被重构成一个类似的演绎论证。其中,一般定律对应AI模型内部相对稳定的决策逻辑或规则;特定事实对应于模型进行此次决策时所依据的输入数据或具体情境;而被解释项则是模型最终的输出或决策结果。一个可解释的AI系统,应当能够清晰地展示其决策是如何从“模型逻辑”与“输入数据”中必然推导出来的。DeepSeek的逻辑推理模型为例,我们可以更具体地审视其与D-N模型的契合与差距。当DeepSeek在“深度思考模式”下解答“一个在匀速直线行驶的火车上垂直向上跳起的人,会落在何处?”这一问题时,其外化的推理链通常如下:

  1. 分析物理情境:火车匀速直线运动,忽略空气阻力。
  2. 调用牛顿第一定律:物体在不受外力作用时,保持静止或匀速直线运动。
  3. 应用至人与火车:人在起跳前,与火车具有相同的水平速度。
  4. 进行受力分析:人在空中时,水平方向不受外力(忽略阻力),故水平速度不变。
  5. 演绎结论:人的水平速度与火车保持一致,因此将落回起跳点。

这一系列步骤,在形式上契合亨普尔的D-N解释结构。步骤2和步骤4所依据的牛顿力学定律,为一般定律(L);步骤1和步骤3描述的具体情境,则构成了特定事实(C);而最终的结论则是被解释项(E)。由此观之,模型的输出是一个具备逻辑结构的论证,初步满足了“解释相关性要求”。亨普尔还深刻指出,“检验蕴涵是从要受检验的假说中‘导出’或‘推出’”。“在某种情况下,充当检验蕴涵的条件语句确能从假说所包含的条件陈述中演绎地推出,但通常一个检验蕴涵的‘导出’并非如此简单确凿的,在科学检验中总是依赖于一系列辅助性假说”。在XAI的检验中,这些辅助性假说可能包括:对输入数据质量与代表性的假设、对模型运行环境稳定性的假设,以及对解释生成机制本身可靠性的假设等。

亨普尔的D-N模型代表了逻辑实证主义对科学解释理解的顶峰,但正如当代美国哲学家韦斯利·萨尔蒙(Wesley C. Salmon)指出,D-N模型无法有效区分“真正解释”与“单纯预测”,因为符合逻辑推导的形式要求并不能保证解释的适当性。在XAI语境下,这一批评显得尤为尖锐:一个形式上符合D-N模型的AI解释,可能只是对统计规律的重新包装,而非对决策机制的真正揭示。其一,机器学习模型建立在统计相关性的基础上,学到的“定律”往往只是训练数据分布下的统计规律,这决定了其输出本质上是或然性的,而D-N模型要求的是逻辑必然性。其二,当代著名科学哲学家巴斯·范·弗拉森(Bas C. van Fraassen)的语用学批评进一步深化了这一困境。他认为,解释的价值不在于其逻辑形式,而在于其回答特定语境下“为什么问题”的能力。在XAI场景中,这意味着解释必须能够满足不同用户,例如开发者、监管者、最终用户,在具体使用情境中的认知需求。也就是说,面对不同主体和情景,XAI应基于不同视角给予对应的考量。然而,当前基于D-N模型框架的XAI系统往往提供“一刀切”式的标准化解释,难以实现这种精细化的语境适配。

综上所述,亨普尔的D-N模型强调要获得一个可信的解释,必须使其决策过程能够被重构为一个包含可检验的一般定律(模型逻辑)和具体事实(输入数据)的、逻辑严谨的演绎论证。DeepSeek的逻辑推理模型在形式层面迈出了重要一步,展示了将“黑箱”操作外化为拟演绎论证的可行性,为XAI的解释提供了“合理性”的判准,即逻辑上必然的理由。但D-N模型在XAI实践中的应用仍面临着深刻的解释学困境,这些困境不仅揭示了形式逻辑模型在解释复杂AI系统时的局限性,更凸显了“黑箱”问题的复杂本质,它不仅是技术层面的透明度缺失,更是认识论层面的理解危机。由此,破解“黑箱”不仅需要逻辑演绎的严谨性,更需要理解系统在具体语境中的行为模式、决策边界和失败案例。我们需要重新思考破解“黑箱”问题的战略方向,既需满足生成形式上符合哲学标准的解释,又要考虑解释与真实决策过程之间的对应关系。

3作为“可检验的演绎解释”的XAI

在亨普尔的演绎—律则模型基础上,可解释人工智能(XAI)的科学基础还可融入波普尔的科学“可检验性”原则,以构建一个动态且严谨的认识论框架。波普尔强调,科学理论的核心特征不在于其可被证实,而在于其可被证伪。“可以作为划界标准的不是可证实性而是可证伪性。换句话说,我并不要求科学系统能在肯定的意义上被一劳永逸地挑选出来;我要求它具有这样的逻辑形式:它能在否定的意义上借助经验检验的方法被挑选出来;经验的科学的系统必须有可能被经验反驳”。对于XAI而言,这意味着其终极愿景是要将AI系统本身构建为一个开放的、其核心决策逻辑能够被经验证据持续审视与潜在证伪的“科学理论体系”。

当前,实现这一目标的技术路径主要分为两类,其一是内在可解释模型,即试图将亨普尔的“一般定律(L)”直接编码为可读的结构,旨在从根本上避免“黑箱”。例如,在高风险信贷决策中,一个基于可解释的规则集合或浅层决策树的模型,其决策逻辑可以清晰地表述为:“IF(年收入 >50万且负债收入比 <0.5)THEN(授予贷款)”。在这里,“IF”部分构成了特定事实(C₁, C₂),“THEN”部分是被解释项(E),而连接两者的“且”关系,则是一条明确的、可被检验的“决策定律”。监管者可以通过输入新的、符合或不符合该条件的企业数据,来检验这条“定律”的预测是否始终成立。其二是事后解释技术,对于医疗影像诊断、自动驾驶等复杂场景中不可或缺的深度神经网络等“黑箱”模型,XAI则依赖于事后解释技术来近似重构其决策逻辑,试图从外部“照亮”黑箱内部。

在此背景下,诞生了以DeepSeek为代表的生成式人工智能“深度思考模式”,其将模型内部原本瞬时、隐性的向量计算,转译为一系列连续的、符合人类语言与逻辑习惯的显性推理步骤。人工智能深度学习算法模型的核心逻辑是通过大量的数据训练,发现并利用统计关联进行预测。其通过对人类自然语言的模仿与学习,实现自身演绎逻辑的生成。例如输入最小语元“我”,后面出现“的”的概率比“地”的概率大,经过多次重复训练,AI会自主生成“我的”的固定逻辑范式。以前文提到的“一个在匀速直线行驶的火车上垂直向上跳起的人,会落在何处?”问题为例,当DeepSeek回答物理问题时,它生成的推理链是:情境分析→定律运用→受力推导→结论,在形式上高度契合一个D-N模型论证。然而,模型之所以能输出“牛顿第一定律”这一步,是因为在其训练库中,“匀速直线运动”之后高频地出现了“牛顿第一定律”这些词汇,由此大量训练而生成了“有其一必有其二”的范式,其本质仍是一个基于统计关联的、极其复杂的模式匹配过程。从认知科学的角度看,人类的深度思考是一个基于因果模型和世界知识的、具有真正意向性的认知活动。而AI的“深度思考”,尽管在形式上与亨普尔的D-N模型惊人地契合,其推理步骤清晰地分离出“一般定律(L)”与“特定事实(C)”,并从中演绎出“被解释项(E)”,但其内核仍然是基于人类人为大规模数据训练的统计关联模型。这实际上是用一个“解释的黑箱”替代了“模型的黑箱”,问题并未得到根本解决。因此,推动XAI真正穿透“黑箱”,必须超越生成表面合理的解释,致力于建立解释与模型内部状态之间可验证的因果关联。

一个真正可信的AI系统,其解释不仅要逻辑自洽,更必须能够推导出可在现实世界中检验的预测,从而主动暴露于被证伪的风险之下,以此赢得其可信度。波普尔推翻了实证主义以“可证实性”作为划界标准的传统,提出“可证伪性”才是区分科学与形而上学的根本依据。这一观点的核心逻辑在于:科学理论的本质是全称陈述,如“所有天鹅都是白的”,而全称陈述无法通过有限的单称陈述得到证实,但可以通过单称陈述的否定,如“观察到一只黑天鹅”而被证伪。“自然定律可以和‘排斥’或‘禁止’相比拟。它们并不断言什么东西存在着或具有某种状态,而是否定它。它们坚持一定的事物或状态的不存在,可以说是排斥或禁止这些事物或状态:自然定律排除它们。正因为如此,它们是可证伪的。如果一个单称陈述断言为定律所排除的某一个事物存在,因而可以说是违反了禁令,而我们认为这个陈述是真的,那么这个定律就被反驳了”。 波普尔强调,“科学理论不可能完全得到证明或证实,然而它们是可检验的。因此我要说:科学陈述的客观性就在于它们能被主体间相互检验。”

将波普尔的“可检验性”原则深度融入XAI的构建与评估,是穿透“黑箱”迷雾的关键。它要求XAI系统提供的不仅是一个内在一致的演绎结构,更是一个能够产生可被主体间独立检验的经验预测的开放框架。一个真正可信的AI系统,应当像科学理论一样,勇敢地暴露其决策律则于被证伪的风险之下。唯有通过这种动态的、批判性的检验循环,XAI才能从提供令人安心的“叙事”转向构建经得起审视的“理论”,最终将“黑箱”转变为值得信赖的、透明的认知工具。

4 从应用伦理学角度分析XAI的潜在问题

“无论技术创新取得怎样的突破性进步,它们永远都不会没有麻烦。技术必然带来巨大的利益以及可怕的风险。”XAI在试图破解“黑箱”困境的同时,也悄然打开了新的“潘多拉魔盒”,迫使我们直面其引发的伦理困境,并探寻通往负责任的人机共生之路。波普尔的“可检验性”原则在伦理层面直接关系到责任界定。可检验性的缺失会导致责任归属的虚化,一个无法被独立检验和证伪的AI系统,其决策的责任将无从追溯。以自动驾驶面临的伦理困境为例,当系统在紧急情况下作出生死抉择时,如果其决策逻辑不可检验,那么事故后的责任归属就会陷入困境。这种责任空洞的出现,很大程度上源于“技术先行,伦理滞后”的发展模式,即“人们倾向于让伦理扮演技术发展的局外人角色”,“无论道德哲学家说些什么,无论他们提出什么警告,‘进步’照样继续。通常,技术决策放在前面,伦理可能在事后反思它们。”

此外,人机协同中也频繁出现认知卸载与责任懈怠的现象。XAI形式完美的解释反而可能使人类过度依赖AI的判断,削弱其批判性思考的能力。当医生、法官或决策者习惯于接受AI提供的“合理解释”时,他们可能不再进行独立的深度思考,或AI的“合理解释”说服他们放弃了自己思考的观点。这些伦理困境的交织引发了可能的新问题,若一味“相信”AI的解释系统,我们是否正在制造新的信任危机?由此,要求我们构建一个更加立体的治理框架,在技术上确保解释的真实性与可检验性,将波普尔的证伪原则真正内化为XAI系统的伦理标准;同时遵循“伦理先行”的原则,将伦理考量嵌入技术设计的每一个环节,在制度上建立清晰的责任链条,确保人类主体始终保有最终决策权并承担相应责任;并且还要在文化层面培育公众的算法素养与批判性思维,使人们能够清醒地使用而非被动依赖XAI工具。

苏格拉底曾言,“未经审视的人生是不值得过的”,未经人类主体批判性考察的AI决策同样不值得信赖。展望未来,XAI从“潘多拉魔盒”到人机共生的转变,需要的不仅是技术突破,更是伦理智慧的提升。唯有通过这样的深刻理解和持续努力,我们才能确保XAI真正成为增强人类能力、促进社会进步的可靠伙伴,而非又一个难以驾驭的技术魔盒,在人工智能时代实现真正意义上的人机共生与协同发展。

5结语

可解释人工智能(XAI)的探索,不仅在于技术透明度的提升,更在于它迫使我们重新审视智能时代人机关系的认识论根基与伦理边界。以亨普尔的演绎—律则模型与波普尔的证伪原则为基点,审视XAI的推理逻辑建构,不仅为“解释”赋予了科学理论的严谨形式,更在认识论层面确立了一个动态的、可批判的检验框架。然而,这一路径同时也揭示出形式上完美的演绎结构可能掩盖了统计本质与因果机制之间的本质差异,流畅的逻辑推演或许只是对训练数据中语言模式的模仿,而非对真实决策过程的映照。当前XAI面临的核心困境在于,我们既要求AI系统提供符合科学哲学标准的严谨解释,又不得不面对其内在的统计本质与语境依赖性。更深层而言,XAI的探索迫使我们重新思考一个根本问题:在智能时代,究竟需要怎样“理解”?我们既需要通过严密的检验方法来建立工具性信任,又不能放弃对人工智能的科学技术哲学本质的持续追问。在这个意义上,XAI的终极使命或许不是完全消除“黑箱”,而是构建一个足够丰富、透明和可检验的交互点,使得人类能够与AI系统开展富有成效的批判性对话。面向未来,XAI的发展需要实现从“解释生成”到“理解建构”的范式转型,从单一的事后解释,构建起“可干预、可质疑、可演化”的智能系统,能够根据不同的认知需求动态调整叙述视角,并在人机协作中不断修正和完善。同时,我们必须建立相应的技术治理体系,通过解释责任链的明确划分、第三方审计机制的制度化,将技术透明度真正转化为社会可信度。唯有如此,才能在人工智能时代实现真正意义上的人机共生。

参考文献:

  1. [1] 卡尔·G·亨普尔. 自然科学的哲学[M]. 张华夏,译. 北京: 中国人民大学出版社,2006.
  2. [2] (英)卡尔·波普尔. 科学发现的逻辑[M]. 查汝强, 邱仁宗, 万木春,译. 杭州: 中国美术学院出版社,2007.
  3. [3] 西斯·J·哈姆林克.赛博空间伦理学[M]. 李世新,译. 北京: 首都师范大学出版社,2010.
  4. [4] 卢新元, 徐安琪, 张进澳. 探寻可解释人工智能(XAI)的“解释奇点”:基于AIGC信息采纳视角[J/OL]. 数据分析与知识发现,1-18 [2026-01-22]. https://link.cnki.net/urlid/10.1478.G2.20250919.1603.004.
  5. [5] 冯玉军, 沈鸿艺. XAI背景下司法人工智能的可解释性义务研究——基于司法真诚的理论视角[J]. 北京航空航天大学学报(社会科学版),2025,38(04):29-41.
  6. [6] 陈慧敏, 刘知远, 孙茂松. 大语言模型时代的社会机遇与挑战[J].计算机研究与发展,2024,61(05):1094-1103.
  7. [7]车万翔, 窦志成, 冯岩松, 等. 大模型时代的自然语言处理:挑战、机遇与发展[J]. 中国科学:信息科学,2023,53(09):1645-1687.
  8. [8] M. P A, Fredrik S. The book of why: The new science of cause and effect[J]. Journal of the American Statistical Association,2020,115(529):482-485.
  9. [9] Rudin C. Stop explaining black box machine learning models for high stakes decisions and use interpretable models instead[J]. Nature Machine Intelligence,2019,1(05):206-215.
  10. [10] Lipton C Z. The mythos of model interpretability [J]. Communications of the ACM,2018,61(10):36-43.
  11. [11] 胡清华, 张道强, 张长水.复杂环境下的机器学习研究专刊前言[J]. 软件学报,2017,28(11):2811-2813.
  12. [12] 张长水.机器学习面临的挑战 [J]. 中国科学:信息科学,2013,43(12):1612-1623.
  13. [13] 张长水. 基于机器学习的脑机接口关键理论与方法研究. 上海市, 华东师范大学,2013-05-01.
  14. [14] 姜远, 陈兆乾, 周志华. 一种基于神经网络集成的规则学习算法 [J].计算机研究与发展,2003(10):1419-1423.
  15. [15] 张长水. 大数据机器学习[C]// 中国自动化学会.2015年中国自动化大会摘要集. 清华大学,2015.
联系我们
人工客服,稿件咨询
投稿
扫码添加微信
客服
置顶