{
  "type" : "Article",
  "id" : 73900848,
  "languageId" : 4,
  "trackingInfo" : {
    "level2" : "4",
    "page" : "<prefix>::在线报导::科技创新::DW事实核查：如何识破AI伪造语音？",
    "customCriteria" : {
      "x8" : "",
      "x9" : "20250907",
      "x10" : "<prefix>::在线报导::科技创新",
      "x1" : "1",
      "x2" : "4",
      "X14" : "",
      "x3" : "73900848",
      "x4" : "1686",
      "x5" : "DW事实核查：如何识破AI伪造语音？",
      "X15" : "",
      "x6" : "1",
      "X18" : "",
      "x7" : ""
    }
  },
  "mainContent" : {
    "id" : 60439732,
    "type" : "Image",
    "name" : "奥巴马声音的深度伪造音频",
    "description" : "奥巴马声音的深度伪造音频一度在网上疯传。",
    "sizes" : [ {
      "width" : 220,
      "height" : 124,
      "url" : "https://static.dw.com/image/60439732_301.jpg"
    }, {
      "width" : 460,
      "height" : 259,
      "url" : "https://static.dw.com/image/60439732_302.jpg"
    }, {
      "width" : 700,
      "height" : 394,
      "url" : "https://static.dw.com/image/60439732_303.jpg"
    }, {
      "width" : 940,
      "height" : 529,
      "url" : "https://static.dw.com/image/60439732_304.jpg"
    } ]
  },
  "name" : "DW事实核查：如何识破AI伪造语音？",
  "teaser" : "你知道吗？相比其他形式的信息造假，音频伪造更加隐蔽、识别难度更高。如今，公众人物的声音正被AI克隆，用来传播虚假言论，有时甚至极具破坏力。那么，我们该如何识破这些“高仿”声音呢？",
  "categoryName" : "科技创新",
  "text" : "（德国之声中文网）美国前总统奥巴马是否曾暗示，民主党人是其继任者特朗普遇刺未遂事件的幕后黑手？ 2024年11月美国大选前，网上一度流传着几段据称是奥巴马与其前顾问大卫·阿克塞尔罗德（David Axelrod）讨论大选的录音。 其中一段录音里，一个听起来像奥巴马的声音说道：“那是他们唯一的机会，而这些蠢货竟然错过了。如果他们能除掉特朗普，我们就能确保击败任何一位共和党候选人。” 但这段语音已被证实为伪造，也就是说，奥巴马从未说过这些话。实际上，这段声音是借助人工智能（AI）技术合成的。 美国的新闻与媒体监督机构NewsGuard发布了一份关于这些音频文件的分析报告。他们使用了多种AI检测工具，并采访了一位数字取证专家，最终得出结论：音频是伪造的。NewsGuard还联系了一名奥巴马的发言人，对方也确认这些录音不属实。 奥巴马并不是唯一一位遭遇语音深度伪造的政治人物。2024年初，一段AI合成、模仿时任美国总统拜登声音的音频，曾劝说选民在新罕布什尔州初选中不要投票。 而且，这类问题不仅限于美国。2023年斯洛伐克选举前夕，一段假冒自由党领袖米哈尔·希梅奇卡（Michal Simecka）的音频广为流传。在英国，伦敦市长萨迪克·汗（Sadiq Khan）也曾成为一段伪造其发表争议言论的AI录音的受害者。 语音深度伪造已成为一种严重的虚假信息威胁，特别是在政治不确定时期，比如选举期间。 制作更容易 揭穿更困难 AI生成的音频伪造在选举期间特别具有破坏力，因为它们非常容易制作和传播。 德国之声（DW）研究与合作项目团队的媒体与传播专家安娜·希尔德（Anna Schild）介绍：“与视频深度伪造相比，音频伪造所需的数据量和算力更低，却能生成几乎以假乱真的效果。” 她与同事朱莉娅·拜尔（Julia Bayer）一起研究音频深度伪造的影响，并解释了为何这种技术得以迅速普及。“它的应用非常广泛，从自动语音电话、语音消息，到视频配音，传播渠道多种多样。”希尔德如是说。 音频伪造比其他形式的信息造假更难识别。德国弗劳恩霍夫应用与集成安全研究所的机器学习工程师尼古拉斯·米勒（Nicolas Müller）告诉德国之声：“音频伪造比视频伪造更难识破，因为我们可依赖的线索更少。” “视频中，我们有图像、有声音，还有两者之间的同步性。”米勒补充道。他研究过人们识别伪造录音的能力，发现音频中可用来判断真假的线索确实更少。 那么，当用户遇到可能是AI生成的音频时，应该怎么办？一种办法是结合传统验证技巧和专门识别音频深度伪造的AI软件。 锻炼听觉辨识力 验证音频真伪的一种方法是查找可能表明AI干预的异常模式。 以奥巴马的案例为例，可以将可疑音频与他已验证的真实录音进行对比，查找与其正常语音方式可能存在的差异。这可能包括发音差异、不自然的停顿，或是不符合真实呼吸节奏的声音。 除此之外，更深入地分析可以着眼于背景噪音是否异常，或是否存在不自然的声音细节。 发现这些线索对普通听众来说较为困难，但已经有一些工具可以帮助人们练习识别此类伪造信息。 其中之一是“Digger”深度伪造检测项目，该项目由德国之声合作开发，提供了一系列实用练习，帮助用户训练批判性听力技能。 米勒所在的团队还开发了一款游戏，供用户测试自己识别音频伪造的能力。 用AI对抗AI 另一种验证方式是使用专门识别音频深度伪造的AI辅助软件。 在奥巴马合成声音的例子中，NewsGuard使用了“TrueMedia”等深度伪造检测工具。该工具搭载了一个伪造检测机器人，据称可以在社交平台X上回应用户的验证请求。 弗劳恩霍夫研究所则开发了“Deepfake Total”平台，用户可以上传可疑音频进行分析。平台会为每段音频打分，显示其“伪造程度”的概率。 不过需要强调的是，这些深度伪造检测工具并非万无一失。它们虽然可以评估一个音频是否可能是AI生成的，但并不一定准确无误。因此，我们应谨慎使用这类工具，毕竟它们只是多重验证流程中的一部分。 其他验证方式还包括浏览事实核查网站和平台，查看该音频是否已被其他事实核查人员揭穿。 一些媒体机构也开发了识别音频深度伪造的工具。例如，西班牙全球媒体公司PRISA Media推出了“VerificAudio”，旨在检测西语世界的伪造音频。 PRISA Media的何塞·古铁雷斯（Jose Gutierrez）向德国之声介绍，该工具基于两种AI引导的流程：一种是将可疑音频与该人物的真实录音进行对比，另一种是分析音频的声学特征，例如带宽、音高、频率和声音纹理。 古铁雷斯也强调，这个工具并不会给出绝对的判断结果，而是提供一个可信度的百分比。 传统验证技巧 如果上述方法听起来过于复杂或技术性太强，其实也可以借助一些传统的信息核查技巧，这些方法不仅适用于音频，同样适用于其他类型的内容验证。 德国之声研究与合作项目组建议从更宏观的角度审视这段音频，包括内容本身、信息来源以及其他相关背景信息。他们在“How to Verify”网站上列出了一些实用的验证工具。 一些有用的技巧包括：将音频内容与已知事实进行比对，查看该人物的社交媒体账号是否有相关声明，以及在可信的新闻来源中查找更多背景信息。 归根到底，关键在于综合运用多种方法。正如德国之声研究与合作项目团队所指出的：“目前还没有哪种一键式工具，能自动识别所有类型的音频伪造。” 这篇文章属于德国之声“事实核查”之提升数字素养专题。点击这里，了解更多网络防骗招数！ DW中文有Instagram！欢迎搜寻dw.chinese，看更多深入浅出的图文与影音报道。 © 2025年德国之声版权声明：本文所有内容受到著作权法保护，如无德国之声特别授权，不得擅自使用。任何不当行为都将导致追偿，并受到刑事追究。",
  "permaLink" : "https://p.dw.com/p/504zA",
  "displayDate" : "2025-09-07T09:44:19.576Z",
  "authors" : [ {
    "name" : "Thomas  Sparrow",
    "addendum" : ""
  } ],
  "body" : [ {
    "content" : {
      "type" : "Paragraph",
      "text" : "（德国之声中文网）美国前总统奥巴马是否曾暗示，民主党人是其继任者<a href=\"https://api.dw.com/api/detail/article/69664009\" rel=\"ArticleRef\">特朗普遇刺未遂事件</a>的幕后黑手？"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "2024年11月美国大选前，网上一度流传着几段据称是奥巴马与其前顾问大卫·阿克塞尔罗德（David Axelrod）讨论大选的录音。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "其中一段录音里，一个听起来像奥巴马的声音说道：“那是他们唯一的机会，而这些蠢货竟然错过了。如果他们能除掉特朗普，我们就能确保击败任何一位共和党候选人。”"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "但这段语音已被证实为伪造，也就是说，奥巴马从未说过这些话。实际上，这段声音是借助人工智能（AI）技术合成的。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "美国的新闻与媒体监督机构NewsGuard发布了一份关于这些音频文件的分析报告。他们使用了多种AI检测工具，并采访了一位数字取证专家，最终得出结论：音频是伪造的。NewsGuard还联系了一名奥巴马的发言人，对方也确认这些录音不属实。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "奥巴马并不是唯一一位遭遇语音深度伪造的<a href=\"https://api.dw.com/api/detail/article/66949622\" rel=\"ArticleRef\">政治人物</a>。2024年初，一段AI合成、模仿时任美国总统拜登声音的音频，曾劝说选民在新罕布什尔州初选中不要投票。 而且，这类问题不仅限于美国。2023年斯洛伐克选举前夕，一段假冒自由党领袖米哈尔·希梅奇卡（Michal Simecka）的音频广为流传。在英国，伦敦市长萨迪克·汗（Sadiq Khan）也曾成为一段伪造其发表争议言论的AI录音的受害者。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "语音深度伪造已成为一种严重的虚假信息威胁，特别是在政治不确定时期，比如选举期间。"
    }
  }, {
    "content" : {
      "id" : 68998700,
      "type" : "Image",
      "name" : "伦敦市长萨迪克·汗",
      "description" : "伦敦市长萨迪克·汗也曾是深度伪造语音的受害者。",
      "sizes" : [ {
        "width" : 220,
        "height" : 124,
        "url" : "https://static.dw.com/image/68998700_301.jpg"
      }, {
        "width" : 460,
        "height" : 259,
        "url" : "https://static.dw.com/image/68998700_302.jpg"
      }, {
        "width" : 700,
        "height" : 394,
        "url" : "https://static.dw.com/image/68998700_303.jpg"
      }, {
        "width" : 940,
        "height" : 529,
        "url" : "https://static.dw.com/image/68998700_304.jpg"
      } ]
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "<strong>制作更容易 揭穿更困难</strong>"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "AI生成的音频伪造在选举期间特别具有破坏力，因为它们非常容易制作和传播。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "德国之声（DW）研究与合作项目团队的媒体与传播专家安娜·希尔德（Anna Schild）介绍：“与视频深度伪造相比，音频伪造所需的数据量和算力更低，却能生成几乎以假乱真的效果。”"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "她与同事朱莉娅·拜尔（Julia Bayer）一起研究音频深度伪造的影响，并解释了为何这种技术得以迅速普及。“它的应用非常广泛，从自动语音电话、语音消息，到视频配音，传播渠道多种多样。”希尔德如是说。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "音频伪造比其他形式的信息造假更难识别。德国弗劳恩霍夫应用与集成安全研究所的机器学习工程师尼古拉斯·米勒（Nicolas Müller）告诉德国之声：“音频伪造比视频伪造更难识破，因为我们可依赖的线索更少。”"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "“视频中，我们有图像、有声音，还有两者之间的同步性。”米勒补充道。他研究过人们识别伪造录音的能力，发现音频中可用来判断真假的线索确实更少。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "那么，当用户遇到可能是AI生成的音频时，应该怎么办？一种办法是结合传统验证技巧和专门识别音频深度伪造的AI软件。"
    }
  }, {
    "content" : {
      "type" : "YouTube",
      "data" : "wwMXzySFgh4"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "<strong>锻炼听觉辨识力</strong>"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "验证音频真伪的一种方法是查找可能表明AI干预的异常模式。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "以奥巴马的案例为例，可以将可疑音频与他已验证的真实录音进行对比，查找与其正常语音方式可能存在的差异。这可能包括发音差异、不自然的停顿，或是不符合真实呼吸节奏的声音。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "除此之外，更深入地分析可以着眼于背景噪音是否异常，或是否存在不自然的声音细节。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "发现这些线索对普通听众来说较为困难，但已经有一些工具可以帮助人们练习识别此类伪造信息。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "其中之一是“Digger”深度伪造检测项目，该项目由德国之声合作开发，提供了一系列实用练习，帮助用户训练批判性听力技能。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "米勒所在的团队还开发了一款游戏，供用户测试自己识别音频伪造的能力。"
    }
  }, {
    "content" : {
      "id" : 69932047,
      "type" : "Image",
      "name" : "深度伪造检测项目Digger\n",
      "description" : "像Digger深度伪造检测这样的项目已经为用户开发了实用的练习。",
      "sizes" : [ {
        "width" : 220,
        "height" : 124,
        "url" : "https://static.dw.com/image/69932047_301.jpg"
      }, {
        "width" : 460,
        "height" : 259,
        "url" : "https://static.dw.com/image/69932047_302.jpg"
      }, {
        "width" : 700,
        "height" : 394,
        "url" : "https://static.dw.com/image/69932047_303.jpg"
      }, {
        "width" : 940,
        "height" : 529,
        "url" : "https://static.dw.com/image/69932047_304.jpg"
      } ]
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "<strong>用AI对抗AI</strong>"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "另一种验证方式是使用专门识别音频深度伪造的AI辅助软件。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "在奥巴马合成声音的例子中，NewsGuard使用了“TrueMedia”等深度伪造检测工具。该工具搭载了一个伪造检测机器人，据称可以在社交平台X上回应用户的验证请求。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "弗劳恩霍夫研究所则开发了“Deepfake Total”平台，用户可以上传可疑音频进行分析。平台会为每段音频打分，显示其“伪造程度”的概率。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "不过需要强调的是，这些深度伪造检测工具并非万无一失。它们虽然可以评估一个音频是否可能是AI生成的，但并不一定准确无误。因此，我们应谨慎使用这类工具，毕竟它们只是多重验证流程中的一部分。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "其他验证方式还包括浏览事实核查网站和平台，查看该音频是否已被其他事实核查人员揭穿。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "一些媒体机构也开发了识别音频深度伪造的工具。例如，西班牙全球媒体公司PRISA Media推出了“VerificAudio”，旨在检测西语世界的伪造音频。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "PRISA Media的何塞·古铁雷斯（Jose Gutierrez）向德国之声介绍，该工具基于两种AI引导的流程：一种是将可疑音频与该人物的真实录音进行对比，另一种是分析音频的声学特征，例如带宽、音高、频率和声音纹理。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "古铁雷斯也强调，这个工具并不会给出绝对的判断结果，而是提供一个可信度的百分比。"
    }
  }, {
    "content" : {
      "id" : 69932057,
      "type" : "Image",
      "name" : "How to Verify网站",
      "description" : "How to Verify网站列出了可以帮助核实内容、来源和相关背景信息的工具。",
      "sizes" : [ {
        "width" : 220,
        "height" : 124,
        "url" : "https://static.dw.com/image/69932057_301.jpg"
      }, {
        "width" : 460,
        "height" : 259,
        "url" : "https://static.dw.com/image/69932057_302.jpg"
      }, {
        "width" : 700,
        "height" : 394,
        "url" : "https://static.dw.com/image/69932057_303.jpg"
      }, {
        "width" : 940,
        "height" : 529,
        "url" : "https://static.dw.com/image/69932057_304.jpg"
      } ]
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "<strong>传统验证技巧</strong>"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "如果上述方法听起来过于复杂或技术性太强，其实也可以借助一些传统的信息核查技巧，这些方法不仅适用于音频，同样适用于其他类型的内容验证。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "德国之声研究与合作项目组建议从更宏观的角度审视这段音频，包括内容本身、信息来源以及其他相关背景信息。他们在“<a href=\"https://www.howtoverify.info/\" rel=\"ExternalRef\">How to Verify</a>”网站上列出了一些实用的验证工具。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "一些有用的技巧包括：将音频内容与已知事实进行比对，查看该人物的社交媒体账号是否有相关声明，以及在可信的新闻来源中查找更多背景信息。"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "归根到底，关键在于综合运用多种方法。正如德国之声研究与合作项目团队所指出的：“目前还没有哪种一键式工具，能自动识别所有类型的音频伪造。”"
    }
  }, {
    "content" : {
      "id" : 52460426,
      "type" : "Video",
      "name" : "解密深度換臉",
      "permaLink" : "https://p.dw.com/p/3Y7Lu",
      "url" : "https://api.dw.com/api/detail/video/52460426",
      "duration" : 116,
      "sources" : [ {
        "protocol" : "https",
        "format" : "mp4",
        "bitrate" : 670,
        "url" : "https://tvdownloaddw-a.akamaihd.net/Events/mp4/vdt_zh/2020/bchi200221_001_deepfake_01f_sd.mp4",
        "quality" : "medium"
      }, {
        "protocol" : "https",
        "format" : "mp4",
        "bitrate" : 2000,
        "url" : "https://tvdownloaddw-a.akamaihd.net/Events/mp4/vdt_zh/2020/bchi200221_001_deepfake_01f_hd.mp4",
        "quality" : "high"
      }, {
        "protocol" : "https",
        "format" : "HLS",
        "bitrate" : 2000,
        "url" : "https://hlsvod.dw.com/i/Events/mp4/vdt_zh/2020/bchi200221_001_deepfake_01f_,hd,sd,.mp4.csmil/master.m3u8",
        "quality" : "HLS"
      } ],
      "previewImage" : {
        "type" : "Image",
        "sizes" : [ {
          "width" : 512,
          "height" : 288,
          "url" : "https://tvdownloaddw-a.akamaihd.net/stills/images/vdt_zh/2020/bchi200221_001_deepfake_01f.jpg"
        } ]
      },
      "trackingInfo" : {
        "level2" : "4",
        "page" : "<prefix>::在线报导::科技创新::V_解密深度換臉",
        "customCriteria" : {
          "x8" : "",
          "x9" : "20200223",
          "x10" : "<prefix>::在线报导::科技创新",
          "x12" : "",
          "x1" : "201",
          "x11" : "Events/mp4/vdt_zh/2020/bchi200221_001_deepfake_01f_hd.mp4",
          "x2" : "4",
          "x3" : "52460426",
          "x4" : "1686",
          "x5" : "V_解密深度換臉",
          "x6" : "1",
          "x7" : ""
        }
      },
      "mediaTrackingInfo" : {
        "mediaType" : "Video",
        "level2" : "4",
        "playerId" : "1",
        "mediaName" : "Events/mp4/vdt_zh/2020/bchi200221_001_deepfake_01f_hd.mp4",
        "mediaDuration" : 116,
        "live" : false
      }
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "这篇文章属于德国之声“事实核查”之提升数字素养专题。<a href=\"https://api.dw.com/api/detail/article/73998392\" rel=\"ArticleRef\">点击这里</a>，了解更多网络防骗招数！"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "<em>DW中文有</em><em><a href=\"https://www.instagram.com/dw.chinese/\">Instagram</a></em><em>！欢迎搜寻</em><em>dw.chinese</em><em>，看更多深入浅出的图文与影音报道。</em>"
    }
  }, {
    "content" : {
      "type" : "Paragraph",
      "text" : "<em>© 2025年德国之声版权声明：本文所有内容受到著作权法保护，如无德国之声特别授权，不得擅自使用。任何不当行为都将导致追偿，并受到刑事追究。</em>"
    }
  } ],
  "referenceGroups" : [ {
    "name" : "DW.COM",
    "type" : "InternalContent",
    "items" : [ {
      "id" : 66949622,
      "type" : "ArticleRef",
      "name" : "事实核查: 泽连斯基跳肚皮舞的视频是假的",
      "url" : "https://api.dw.com/api/detail/article/66949622"
    }, {
      "id" : 69664009,
      "type" : "ArticleRef",
      "name" : "事实核查：特朗普遇刺未遂，枪手到底是谁？",
      "url" : "https://api.dw.com/api/detail/article/69664009"
    }, {
      "id" : 73998392,
      "type" : "ArticleRef",
      "name" : "专题：如何识别网上虚假内容",
      "url" : "https://api.dw.com/api/detail/article/73998392"
    }, {
      "id" : 60149357,
      "type" : "GalleryRef",
      "name" : "识别“深度换脸”的小窍门",
      "url" : "https://api.dw.com/api/detail/gallery/60149357"
    } ]
  }, {
    "name" : "外部链接",
    "type" : "ExternalContent",
    "items" : [ {
      "type" : "ExternalRef",
      "name" : "How to Verify网站列出了可以帮助核实内容、来源和相关背景信息的工具。",
      "url" : "https://www.howtoverify.info/"
    } ]
  }, {
    "name" : "关键词",
    "type" : "Keywords",
    "items" : [ {
      "type" : "SearchRef",
      "name" : "假新闻",
      "url" : "https://api.dw.com/api/search/global?terms=%E5%81%87%E6%96%B0%E9%97%BB&languageId=4"
    }, {
      "type" : "SearchRef",
      "name" : "深度伪造",
      "url" : "https://api.dw.com/api/search/global?terms=%E6%B7%B1%E5%BA%A6%E4%BC%AA%E9%80%A0&languageId=4"
    }, {
      "type" : "SearchRef",
      "name" : "语音",
      "url" : "https://api.dw.com/api/search/global?terms=%E8%AF%AD%E9%9F%B3&languageId=4"
    }, {
      "type" : "SearchRef",
      "name" : "音频",
      "url" : "https://api.dw.com/api/search/global?terms=%E9%9F%B3%E9%A2%91&languageId=4"
    }, {
      "type" : "SearchRef",
      "name" : "如何识别",
      "url" : "https://api.dw.com/api/search/global?terms=%E5%A6%82%E4%BD%95%E8%AF%86%E5%88%AB&languageId=4"
    }, {
      "type" : "SearchRef",
      "name" : "事实核查",
      "url" : "https://api.dw.com/api/search/global?terms=%E4%BA%8B%E5%AE%9E%E6%A0%B8%E6%9F%A5&languageId=4"
    } ]
  } ]
}