人工智能行业分析报告怎么写:附行业现状及发展趋势分析

1. AI 发展引发新的安全问题

新技术发展同时会带来新的安全问题。以 ChatGPT 为代表的生成式人工智能正在 重塑甚至颠覆数字内容的生产方式和消费模式,越来越显著地影响各行各业的变革。今 年以来,大模型技术与 AIGC 快速融合发展,大模型生成的内容能够达到“以假乱真” 的效果,这使得应用门槛也在不断降低,人人都能轻松实现“换脸”、“变声”。因 AIGC 滥用带来的虚假信息、偏见歧视乃至意识渗透等问题无法避免,对个人、机构乃至XXX 安全都存在较大的风险。因此对生成式人工智能服务的监管已成为全球治理的重大课题。 目前,AI 带来的新安全问题主要包括 AIGC 内容安全和数据安全问题。

1.1. AIGC 内容安全问题

生成式 AI 可能被引导生成包含有害内容的文本、照片、视频,或用于非正当用途, 可能引发网络、社会安全及意识形态问题。

1) 网络安全:LLM 可以被用于生成钓鱼邮件,并通过提示词令 LLM 模仿特定个人 或群体的语言风格,使得钓鱼邮件可信度更高。安全机构 Check Point Research 在近期发 表的报告中表示已经在暗网发现有黑客试图绕过限制将 ChatGPT 用于生成钓鱼邮件等。 此外 LLM 可以辅助生成恶意代码,进而降低了网络攻击的门槛。

2) 虚假信息:1.深度合成成为诈骗手段之一。骗子可通过 AI 换脸和拟声技术,佯 装熟人实施诈骗。2.虚假内容对社会造成不利影响。生成式 AI 使得虚假信息变得更容 易、更快速也更廉价,AI 生成的虚假内容可能对社会造成不利影响。美国时间 5 月 22 日上午,一张由 AI 生成显示五角大楼附近地区发生爆炸的图片在社交网络疯传。据环 球网报道,图片开始流传的瞬间美国股市出现了明显下跌。

3) 意识形态:为提高 AI 面对敏感复杂问题的表现,开发者通常将包含着开发者所 认为正确观念的答案加入训练过程,并通过强化学习等方式输入到模型中。这可能会导致 AI 在面对政治、伦理、道德等复杂问题生成具有偏见的回答。OpenAI 于 3 月发表文 章《GPT-4 System Card》称,GPT-4 模型有可能加强和再现特定的偏见和世界观,模型 行为也可能加剧刻板印象或贬低性的伤害。例如,模型在回答关于是否允许妇女投票的 问题时,往往会采取规避态度。

 

 

1.2. 数据安全问题

数据泄露事件引发担忧,ChatGPT 遭禁用。ChatGPT 由于开源库 bug 导致信息泄 露,泄露数据分别为“设备信息”、“会议内容”与“订阅者信息”。根据 Cyberhaven 的 数据,潜在的数据泄露风险可能更高:每 10 万名员工中就有 319 名员工在一周内将公 司敏感数据输入进 ChatGPT,且这一数据较 2 个月前有所增长。截至目前已有苹果、摩 根大通、三星等多家企业禁止其员工与 ChatGPT 等聊天机器人分享机密信息。

数据泄露问题难以通过传统技术手段解决。数据安全的风险点在于,用户在与 LLM 交互的过程中输入的提示词可能被用于 LLM 迭代训练,并通过交互被提供给其他使用 者。大多数 DLP 解决方案旨在识别和阻止某些文件和某些可识别的 PII 的传输。而用户 输入 LLM 的文字更具多样性、不同企业对于机密数据定义的差异性较大、随 LLM 向多 模态发展输入的文件格式将更加丰富,这都使得数据泄露问题难以通过传统 DLP 手段 解决。

2. AI 监管:政策与法规先行

考虑到 AI 可能对社会带来的安全问题,安全标准、法律法规和自我监管是对 AI 进 行监管较为重要的基石。XXX层面,亟需出台监管政策对其加以规范,实现监管覆盖全 面化,分阶段、全流程规范 AIGC 相关要素。企业层面,也需要通过被监管以消除社会 对 AI 大模型的不信任。 以 OpenAI 为例:欧洲XXX AI 监管趋严,OpenAI 调整数据管理措施应对监管要求。1.以意大利XXX为代表,欧洲XXX接连以数据安全为由,启动对 ChatGPT 的调查。 3 月 31 日意大利数据保护局以违反《通用数据保护条例》(GDPR)为由暂时禁用ChatGPT, 并在此后提出了一系列整改要求。随后陆续有德国、法国、欧盟等发布数据监管措施。 2.OpenAI 积配合XXX监管,并调整数据管理措施。4 月 5 日,OpenAI 与意大利个人 数据保护局举行会议,并表示合作愿意。OpenAI 随后于 4 月 25 日调整 ChatGPT 数据管 理措施,使用户有权利不将数据分享给 OpenAI 用于模型训练。

2.1. XXX层面:借助法律法规保障 AI 行业有序繁荣

从世界范围来看,为打造一个可信的人工智能生态系统,中国、美国和欧盟均在探 索人工智能治理之道,并通过出台响应的法律法规来规范人工智能发展,这一过程中 AI 监管势在必行。

2.1.1. 欧洲强监管,立法取得突破进展

欧盟通过专门立法对人工智能进行整体监管。2021 年 4 月,欧盟委员会提出了《人 工智能法案》提案。2023 年 6 月 14 日,欧洲议会通过《人工智能法案》草案,欧盟人 工智能治理迎来x新突破进展。按照立法程序,法案下一步将正式进入欧盟委员会、议 会和成员国三方谈判协商的程序,以确定x终版本的法案。该法案通过将 AI 应用分为 不同风险别,并针对不同等风险实施不同程度的限制措施。作为全世界x部综合 性人工智能治理立法,该法案将成为全球人工智能法律监管的标准,被各国监管机构广 泛参考。

 

 

欧盟成为 AI 立法先行者,布鲁塞尔效应有望再现。布鲁塞尔效应指欧盟通过市场 机制将其单边监管外化到全球,使得被监管的实体x终在欧盟外也要遵守欧盟的法律。 其原因主要有两点: 1) 欧盟拥有着比美国体量更大、比中国更富裕的消费市场。对许多公司而言,进入 欧盟市场的好处大于其适应欧盟严格标准所付出的代价。同时欧盟还建立了全面的体制 架构,并利用政治决心来贯彻其规定。 2) 欧盟拥有影响广泛的制裁权以及禁止产品或服务进入欧盟市场的能力。这种取 消市场准入的可能性有效地阻止了企业的违规行为,并促使其遵守欧盟的规定。导致企 业自愿推广欧盟标准以管理其全球业务。欧盟标准成为全球标准。

欧盟《人工智能法案》具有域外效力,目前即将进入欧盟启动监管前的x后阶段, 正式施行后有望通过布鲁塞尔效应进一步推动全球 AI 监管。

2.1.2. 美国弱监管鼓励行业自律,近期监管加速推进

2022 年 10 月,美国白宫发布《人工智能权利法案蓝图》,2023 年 1 月美国商务部 发布《人工智能风险管理框架》。《蓝图》是一套保护个人免受伤害和歧视的原则,并配 有相关技术方案,确定了人工智能系统影响这些原则的具体方式,以及应对不利影响的 一般步骤,而《框架》提供了在各种组织中实施《蓝图》原则的工具。与欧盟的《人工 智能法案》不同,《蓝图》与《框架》是非强制的指导性文件,不具有法律效力,而是供 设计、开发、部署、使用人工智能系统的机构组织自愿使用。 美国弱监管鼓励行业自律。尽管白宫发布了关于人工智能危害的指导性联邦文件, 但尚未为人工智能风险制定统一的控制方法。美国此前立法及制度层面上对人工智能发 展处于弱监管状态,鼓励企业依靠行业自律,自觉落实XXX安全原则保障安全。近期政 府重视度提升,人工智能监管加速推进。根据白宫声明,x近几个月,白宫高官员每 周都会举行两到三次会议讨论人工智能议题;美国参议院多数x领袖查克·舒默公布人 工智能监管立法框架,并且表示要在几个月内制定联邦层面的人工智能法案;一个跨两 x、两院的立法者小组提交了《XXX人工智能委员会法案》。

2.1.3. 中国首个生成式 AI 服务监管文件出台,关注 AIGC 内容安全

国内首个生成式 AI 服务监管文件出台,关注 AIGC 内容安全。《互联网信息服务 深度合成管理规定》于 2022 年 11 月发布,并自 2023 年 1 月 10 日起施行,对以“AI 换 脸”为代表的深度合成技术进行了法律层面的约束。2023 年 4 月 11 日,XXX网信办发 布《生成式人工智能服务管理办法(征求意见稿)》,并于 2023 年 7 月 13 日由XXX网信 办联合XXX发展改革委、教育部、科技部、工业和信息化部、XXX部、广电总局公布《生 成式人工智能服务管理暂行办法》,自 2023 年 8 月 15 日起施行。《办法》关注 AIGC 内 容安全,提出XXX坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效 措施鼓励生成式人工智能创新发展,对生成式人工智能服务实行包容审慎和分类分监 管。 AIGC 监管政策实施,《人工智能法》已提上日程。6 月 20 日,XXX网信办根据《互 联网信息服务深度合成管理规定》发布首批深度合成服务算法备案清单,百度阿里腾讯 字节等在列。《国务院 2023 年度立法工作计划》显示,《人工智能法》已列入立法计划, 草案预备年内提请全国人大常委会审议。

2.2. 企业层面:加强自我监管,规范行业秩序

企业加强自我监管,规范行业秩序。AI 企业对监管态度主动积,2023 年 4 月 25 日,代表微软、Adobe、IBM、甲骨文等多家 AI 巨头的美国科技倡导组织“商业软件联 盟”(BSA)公开发文呼吁在XXX隐私立法基础上制定管理人工智能使用的规则。并且向 美国国会提出了四个明确的呼吁,试图对其立法方向进行引导。2023 年 4 月 25 日知乎 发布公告,打击批量发布 AIGC 类内容的帐号。2023 年 5 月 9 日抖音发布《关于人工智 能生成内容的平台规范暨行业倡议》,平台将提供统一的人工智能生成内容标识能力, 帮助创作者打标,方便用户区分。2023 年 5 月 22 日,三位 OpenAI 联合创始人署名发 表文章,希望XXX考虑按照核武器监管模式,组建人工智能行业的“国际原子能机构”, 为该行业制定全球规则。

3. AI 监管:平衡创新与安全,监管手段多样

AI 监管主要是面向 AIGC 技术的违规应用,以应对 AIGC 可能给社会、政治、金 融、教育带来的危害,这也是XXX安全、社会安全的关键。因此,对于 AI 监管来说, 要从安全机制、技术手段等层面进行突围。

3.1. 引入安全机制

现阶段,国内 AIGC 类应用的内容安全机制主要包括:1) 训练数据清洗:训练 Al 能力的数据需要进行数据清洗,把训练库里面的有害 内容清理掉; 2) 算法备案与安全评估:AI 算法需要按照《互联网信息服务算法推荐管理规定》 进行算法备案,并提供安全评估; 3) 提示词过滤:平台需要对提示词、提示内容等进行过滤拦截,避免用户上传违 规内容; 4) 生成内容拦截:平台对 AI 算法生成的内容进行过滤拦截,避免生成有害内容; 5) 对 AI 生成内容进行显著标识:相关人工智能创作工具在生成多媒体内容时, 可添加标识元数据到多媒体文件的元数据中,使得不同的平台及工具能够互认 标识元数据。

3.2. 技术监管手段丰富

1)用 AI 技术来识别内容是否为 AI 生成:如人民网联合传播内容认知全国重点实 验室发布的“深度合成内容检测平台 AIGC—X,采用算法融合与知识驱动的人工智能 框架,使用深度建模来捕捉困惑度、突现频次等隐式特征,学习得到机器生成文本与人 工生成文本的分布差异。该平台可以服务于媒体和互联网平台的内容风控需求,提供 AI 生成内容标识、虚假信息识别等服务。公测数据表明,AIGC-X 对各类人工智能生成内 容平台检测的准确率均超过 90%。

技术方面,以人脸识别这一场景具体来说,可以从三方面入手: 生成瑕疵:由于相关训练数据的缺失,deepfake 模型可能缺乏一些生理常识,导致 无法正确渲染部分人类面部特征。 固有属性:指的是生成工具、摄像头光感元件固有的噪声指纹。 高层语义:检测面部动作单元(肌肉群)协调性、面部各区域朝向一致性、视频微 观连续性等方面的问题,由于这些细节建模困难、难以复制,很容易抓到把柄。

2)用 AI 技术来识别违规内容:如新华网的事实核查机器人,基于新华智云自主研 发的 AI 算法,具有文字检测、图像检测、视频检测和音频检测等四大功能,能对文本、 图像、视频、音频等多种媒介进行安全核查,规范新闻报道书写,搭建人机交互审核平 台,搭建智能高效的安全防护体系,助力企业降本增效。

3)用 AI 技术进行安全监管反欺诈: 统计分析:运用对比分析、趋势分析、分布分析、漏斗分析等数据分析手段,挖掘 数据一致性、集中性等特征发现欺诈规律,具体采用数据分析技术+客群分类+场景化先 验知识假设的技术手段,可以获取具有很好指标的模型。 规则+简单统计模型:基于用户注册、登录、消费、转账信息构建统计特征、拟合 特征和分类特征等,对接指数移动平均算法、LOF、IForest、Holt-Winters、ARIMA 算法 发现异常点。 基于欺诈知识库的有监督学习算法:从已有沉淀知识库中深度挖掘隐藏的欺诈模式, 提供在线实时预测服务。常用的算有 XGBoost、DeepFFM、XDeepFM、Wide&Deep、DIN 等。

利用机器学习改良砖家规则策略:1)基于数据算法驱动,自动化调整的场景规则 集中的阈值和权重,以保障规则持续有效性。利用机器学习对于规则的规则阈值、权重 等进行修改,具体涉及特征离散化、特征选择、特征降维、权重参数回归等流程。2)发 现新规则方面,主要是基于布尔关联规则与量化关联规则使用 Apriori、FpGrowth 算法 对于数据集进行挖掘。 深度学习+时间序列检测算法:序列算法可以从较长时间窗口行为序列上识别异常。 图关联数据的挖掘算法:是一种更加广泛的数据表示方式,数据之间的关系通过图 的形式进行表达,图挖掘算法可以在短的时间截面上通过关联关系发现和识别风险。引 入关联图谱关系定义,通过共用、共享、连接指向等关系定义,构建基于不同资源维度 的复杂关系图谱,如账号图谱、设备图谱、电话号码图谱等。

4)监管大模型的自动检测工具: 伪造检测行业基础大模型:如中科睿鉴历经三年开发的伪造检测行业基础大模型。 面向公共安全、金融安全、互联网内容安全等重点行业,睿鉴逐步积累了分行业、分场 景的伪造检测能力,形成了核心技术——AI 基础设施——行业基础大模型的体系化能 力底座,参数量达到 60 亿。新的伪造生成技术一经面世,通过微调,就可在基座模 型基础上针对性地迅速分化出相应的检测模型。

 

 

研发 AI 安全检测平台,“用 AI 检测 AI”。蚂蚁集团与清华大学联合发布针对 AIGC 大模型的全数据类型 AI 安全检测平台“蚁鉴 2.0”,其通过智能对抗技术,生成海量测 试数据集,对 AIGC 生成式模型进行交互诱导,从而找到大模型存在的弱点和安全问题, 能够识别数据安全、内容安全、科技伦理的多种风险,覆盖表格、文本、图像等多种数 据和任务类型。蚁鉴 2.0 可对大模型生成内容进行个人隐私、意识形态、违法犯罪、偏 见与歧视等数百个维度的风险对抗检测,并生成检测报告,帮助大模型更加有针对性地 持续优化。此外,为解决模型黑盒问题,蚁鉴 2.0 融入可解释性检测工具。综合 AI 技术 和砖家先验知识,通过可视化、逻辑推理、因果推断等技术,从完整性、准确性、稳定 性等多个维度对 AI 系统的解释质量量化分析,帮助用户更清晰验证与优化可解释方案。

3.1. AI 监管有望催生千亿市场

2030 年人工智能核心产业规模有望超万亿。2023 搜狐科技峰会上,中国科学院原院长、中国科学院院士白春礼在演讲中表示,未来 5-10 年将是人工智能发展的关键期, 据艾媒预测,2030 年我国人工智能核心产业规模将超过 1 万亿元人民币,2030 年全球 人工智能市场规模将达到 16 万亿美元。 AI 监管有望催生千亿市场。一般信息化投入中安全占比至少在 5%-10%以上,而由 于 AI 大模型的特殊性,AI 安全未来将成为所有参与方必须考虑的问题,贯穿从数据标 注、模型训练和开发、内容生成、应用开发的事前-事中-事后全过程,投入力度不亚于 传统安全投入,因此假设 AI 监管在整个产业链中的占比按照 5%-10%来测算的话,我们 预计到 2030 年国内 AI 大模型的监管市场规模将达到 500-1000 亿元。

3.2. AI 监管行业竞争要素:品牌、技术、市场

AI 监管行业下游客户需要一体化的解决方案能力和良好的保密性,拥有完善的产 品和服务能力且有国资股东背景背书的厂商,是下游客户的首选。一方面,随着监管侧 的日趋严格和安全需求的提升,AI 全周期的安全和监管输出能力是客户x为需要的。因 此,厂商是否有成熟的大客户的完整的安全解决方案,将会是未来客户选择 AI 监管公 司的重要考虑因素,我们认为在内容侧监管具备深厚历史积累厂商将会在行业经验和资 源方面形成一定的壁垒,这也有望是获得客户订单的前提。另一方面,客户对数据信息 为敏感,因此有国资股东背景的厂商更容易受到客户的青睐。 研发实力亦是未来龙头企业重要的护城河。AI 作为新兴技术,随着政策法规的逐 步完善,也将有望得到广泛的应用,而这一过程将会使得客户的系统面临的安全和监管 问题不断增加,相关系统的建设将呈现复杂度提升的趋势,因此 AI 监管领域的技术能 力门槛也会很高,预计具备较强研发实力或者与国内技术实力领先的研究机构合作的企 业方能更好得满足客户的需求。

4.重点公司分析

4.1. 人民网

人民网于 1997 年 1 月 1 日正式上线,是“网上的人民日报”。公司是人民日报社控 股的文化传媒上市公司,也是国际互联网上较大的综合性网络媒体之一。截至 23 年 4 月公司拥有人民在线、海外网、环球网、人民健康、人民视听、人民信息技术、人民视 讯、人民创投、人民体育、人民科技等多家控股公司;旗下产业基金已投资项目数十个。

公司从事的主要业务包括广告及宣传服务、内容科技服务、数据及信息服务、网络 技术服务。其中,人民网内容科技战略近年来稳健起步。公司研发基于人工智能的“风 控大脑”,打造人工智能技术引擎,为互联网内容、信息安全管理提供技术服务;承建人 民日报社主管的“传播内容认知全国重点实验室”。

整体营收维持相对稳定,内容科技服务约占总营收的 22%。2020-2022 年公司营业 收入分别为 21.00 亿元、21.83 亿元、19.78 亿元。公司在 2023Q1 实现营收 3.32 亿元, 同比增加 3.78%。公司内容科技业务以人工智能、大数据、区块链等为支撑,为客户提 供内容风控服务和聚合分发服务,同时还提供内容运营服务。内容科技服务营收占比稳 定在 22%左右,2020-2022 年分别实现营收 4.94 亿元、4.63 亿元、4.46 亿元。

AIGC-X 于 3 月 1 日正式开始全网公测。AIGC-X 是由人民日报社主管、依托人民 网建设的传播内容认知全国重点实验室,中国科学技术大学,合肥综合性XXX科学中心 人工智能研究院联合推出的国内首个 AI 生成内容检测工具。 据介绍,通过采用算法融合与知识驱动的人工智能框架,使用深度建模来捕捉困惑 度、突现频次等隐式特征,AIGC-X 可对 AI 技术生成的假新闻、内容抄袭、垃圾邮件 进行检测,目前对中文文本检测的准确率已超过 90%,在内容版权、网络钓鱼、虚假信 息和学术造假检测等内容安全、内容风控方面有广阔的应用前景。未来,AIGC-X 还会 扩展为对人工智能生成文本、图像乃至视频的通用智能识别模型。

4.2. 新华网

公司是由新华社控股的传媒文化上市公司,是新华社构建“网上通讯社”的重要组 成部分和构建内外并重传播格局的重要载体,公司积发挥网络平台优势,代表中国网 络媒体在全球媒体竞争中积争夺国际话语权。依托新华社作为XXX通讯社的权威地位 和作为世界性通讯社的全球信息网络,新华网拥有权威的内容资源、广泛的用户基础、 优质的客户资源和强大的品牌影响力,并以此为基础开展网络广告、信息服务、移动互 联网、网络技术服务和数字内容等主营业务。

营业收入稳健增长,网络广告与信息服务为主要收入来源。2020-2022 年公司营业 收入分别为 14.33 亿元、17.24 亿元、19.41 亿元。公司在 2023Q1 实现营收 3.25 亿元, 同比增加 7.06%。网络广告与信息服务为公司x主要的收入来源,两项业务合计营收占 比超六成,网络广告业务 2020-2022 年营收分别为 5.14 亿元、5.87 亿元、6.50 亿元,信 息服务 2020-2022 年营收分别为 3.84 亿元、5.51 亿元、5.68 亿元。

 

 

新华智云为公司与阿里巴巴合资成立的国有文化数字科技企业,于 2022 年 11 月促 成了《机器生产内容(MGC)标准》的颁布。该标准为全球首个内容自动化生产标准, 该标准将适用于报刊、广播、电视、通讯社等新闻机构及媒体应用与研究机构。 新华智云推出事实核查机器人,基于新华智云自主研发的 AI 算法,实现对视频、 音频、图片、文本等内容的统一审核。通过机器审核辅助人工智能,以内容解析为手段, 帮助新闻人进行内容安全核查,搭建智能高效的安全防护体系,助力企业降本增效。

新华网联合中国科学院计算技术研究所(简称“中科院计算所”)等行业机构共同 研发打造的“生成式人工智能内容安全与模型安全检测平台”(AIGC-Safe),并召开邀 请测试发布会。AIGC-Safe 平台产品基于国版链(国数链)的数字资产与数据要素管理 技术底座,依托中科院计算所的技术积累打造,已形成 AIGC 深伪内容检测和模型检测 两大核心能力,并可开放赋能各类 AIGC 检测业务场景。模型安全从训练数据安全、模 型防攻击、模型输入安全三方面来保障从训练到推理的全过程;内容安全覆盖文本、图 像及音视频的检测,保障内容的真实性与合规性,实现双重安全防护。AIGC-Safe 平台 内容安全功能检测可广泛应用于虚假新闻、AI 换脸诈骗、活体攻击、版权内容保护和学 术诚信等多种检测场景,可应用于媒体、教育、金融、XXX等多个 AIGC 安全治理领域。 此次 AIGC-Safe 平台还重磅上线内容安全检测功能,主要支持: 1) 文本检测支持 AI 生成的鉴别; 2) 图像与视频检测可覆盖人脸生成、人脸编辑、人脸替换、表情迁移等深度合成伪 造,以及 AI 生成、PS 篡改检测; 3) 音频伪造检测支持 TTS 和 VC 音频合成检测,覆盖主流音频合成算法。

4.3. 美亚柏科

公司是国内电子数据取证领域龙头企业,主要服务于国内各司法机关以及行政执 法部门。公共安全大数据和电子数据取证是公司的两大基石业务;公司积拓展新网络 空间安全板块,业务由事后电子数据调查取证延伸到“网络空间安全”事前、事中、事 后全赛道;新型智慧城市板块依托公共安全大数据的领先优势,基于打击犯罪、XXX安 全等领域取得的重点成效,拓展延伸到社会治理领域。

受工期影响 Q1 营收下滑,公共安全大数据平台及电子取证业务为主要收入来源。 2020-2022 年公司营收分别为 23.86 亿元、25.35 亿元、22.80 亿元。公司于 2023Q1 实现 营收 1.47 亿元,同比减少 53.92%。公共安全大数据与电子数据取证产品为公司x主要 的收入来源,22 年分别占总营收的 41.1%和 36.2%。

公司于 2019 年针对深度合成技术成立专项研究团队,以应对利用人工智能技术可 能带来的安全问题。公司自主研发打造出一系列视频图像检测鉴定的一体化智能装备, 如“AI-3300 慧眼视频图像鉴真工作站”等。该设备涵盖 40 余种视频图像真伪鉴定算 法,近 10 种深伪鉴定算法,同时具有智能鉴定和专业鉴定两种鉴定模式,支持卷宗管 理和三种鉴定文书生成,为司法鉴定人员提供一站式视频图像检验鉴定服务。

4.4. 博汇科技

公司成立于 1993 年,是专注于视听大数据领域的科创企业,通过整合运用视听大 数据采集、分析和可视化等核心技术,构建了以具有自主知识产权的软硬件产品为基本 架构的研发中心支撑体系,业务涵盖传媒安全、智慧教育、智能显控三个主要领域。

营收增速重回正轨,传媒安全收入占比远超其他业务。公司 2020-2022 年营收分别 为 2.88 亿元、2.87 亿元、1.64 亿元。22 年受宏观经济影响,客户招投标工作延缓,项 目交付延期,导致公司订单量及项目交付量有所下降,营收同比下降 42.88%。2023Q1 公司重回正轨,实现营收 0.40 亿元,同比增加 29.75%。传媒安全为公司x主要的收入 来源,22 年传媒安全产品实现营收 1.22 亿元,占比达 74.4%。

 

 

传媒安全作为公司的主营业务之一,公司在内容安全做了诸多储备: 1) 技术方面,公司自主研发了文字、图片、语音、视频多模态识别引擎,以此为基 础构建了“慧视”AI 基础能力平台,并取得了相关技术专利和软著证书。公司已取得“一 种基于神经网络的单人换脸短视频的识别方法和系统”的发明专利。公司的“视听内容 篡改检测系统”与“媒资视频内容 AI 算法模型”均有获奖。 2) 在产品方面,公司以人工智能多模态识别引擎为支撑,针对广播电视和网络视听 内容监管构建了立体多维的业务系统,通过流程化的任务管理、高效率的媒体内容识别、 便捷化的移动发布,有效提高内容监管工作效率和智能化水平。 3) 在应用方面,公司的相关产品已覆盖XXX广播电视总局、XXX广播电视总台、中 国广电网络股份有限公司;28 个省广播电视局;28 个省新媒体播控平台;30 个省 广电网络公司;30 余个电信运营商省分公司;咪咕视讯、央视网、芒果 TV 等网络视 听平台,建立起良好的品牌影响力。 为提升新媒体集成播控平台的视频内容审核能力,由人工向智能化迈进,博汇科技 打造“新媒体集成播控平台内容 ai 审核方案”,应用自研多模态 AI 识别引擎,优化内容 质量、拒绝不良内容传播,净化视频内容,以保持与新媒体发展的x佳实践的接轨。

1) 智能化:新媒体集成播控平台内容 AI 审核方案,综合运用博汇公司自研的多模 态识别引擎以及智能技审引擎,实现了对在线/离线媒资内容审核和质量审查的双管齐 下,及时发现其中涉黄、涉暴、敏感人物等违规视音频内容以及黑场、静帧、彩条、抖 动等质量劣化。系统挺好兼容国产软硬件环境,广泛应用于各广电监管、播控部门。

2) 便捷化:本方案采用 B/S、C/S 相结合的交互页面设计,一方面满足人工复审的 精细化操作需求,另一方面提供了便捷化的任务管理流转、统计分析手段,有效提升审 核工作的便捷性。此外,针对新增敏感样本,系统应用博汇专利的音视频指纹提取、识 别技术,无需对全部媒资进行完整处理即可实现快捷精准的素材翻库审核,大大提高了 敏感内容甄别的时效性。

3) 标准化:系统可通过标准化的数据接口与用户现有的媒资系统进行融合,可自动 对于媒资系统新注入的节目进行智能审核,并将疑似违规内容推送至业务人员进行确认, x终输出标准化的报表,挺好嵌合用户节目内容、技术质量审核业务流程。

4.5. 东方通

东方通是中国中间件的开拓者和领导者。公司依托基础软件的技术积累,拓展政务、 金融等特定行业解决方案,为用户提供基础安全产品及解决方案,同时继续为电信运营 商等传统用户提供领先的信息安全、网络安全、数据安全等产品及解决方案,依托“安 全+,数据+”两大产品体系,提出“智慧+”战略,在政企数字化转型领域进行产品布 局。业务领域从政务、金融、电信、交通等传统优势客户拓展至应急管理、教育、XXX、 国防XXX工、能源电力等行业领域。

Q1 业绩承压,安全产品成为x大收入来源。2020-2022 年公司营收稳健增长,分 别为 6.40 亿元、8.63 亿元、9.08 亿元。公司安全产品营收增速较快,22 年实现营收 3.46 亿元,占比达 38.11%,超越基础软件中间件成为公司x大收入来源。

东方通重磅推出“产品+技术”组合型智能化内容安全监测体系,基于自主创新的 AI 内容监测软硬件产品+AI 生成式技术深度研究,形成立体化的内容安全监测与管理能 力,助力构建清朗网络空间。东方通智能内容安全监测体系主要包括以下 5 大部分:

1) 针对生成式人工智能应用的流量监测专用设备:基于 DPI 技术采集关键网络出 口流量,结合东方通多年行业积累沉淀的情报库和人工智能应用研究,能够针对性的识 别出“生成式人工智能应用”的特征,对其中违法违规的应用进行监测处置。该设备采 用了专用的国产硬件,单台设备支持处理 100Gbps 以上网络流量,主要应用于电信运营 商、信息安全监管部门等。

2) 瑶光智能内容边缘监测设备:基于国产 GPU 开发的软硬一体设备,能够部署于 户外,例如产业园区、大型商业区、校园等场景中,可以监测和处置户外广告大屏宣传中的视频、图片、文字等多样化内容,能够实时发现和处理违法违规内容、深度合成内 容、违法广告等,可为广大人民群众提供更为洁净、健康、祥和的日常生活空间。

3) 瑶光内容安全监测系统:依据《互联网信息服务深度合成管理规定》、《互联网新 闻信息服务管理规定》等法规要求,基于深度学习算法的图片识别能力、多维度视频内 容识别能力、智能化音频内容识别能力、图像视频高速率伪造检测技术,能够监测网站、 微博、微信公众号、小程序、APP、视频平台、IPTV 等新媒体平台的内容安全,能够智 能识别 200 多类违法违规内容及深度合成内容,实现内容安全治理的全流程管理。该系 统已应用于电信运营商、广电、互联网公司等政企单位,在广播电视、网络视听及新媒 体领域,以四川广播电视监测中心四川广播电视和网络视听监测系统为例,东方通瑶光 内容安全监测系统在内容发布、网络接入服务等场景中提供了强大的内容监管能力,并可 针对当前 AI 换脸诈骗等风险场景提供更为精准的安全监测。

4) TongGPT 智能语音交互系统:在涉诈风险领域,随着人工智能的接入,风险隐 蔽性更强,反诈工作难度大幅提升。东方通 TongGPT 智能语音交互系统依托东方通 AI 生成式人工智能技术的研究,将推出 TongGPT 多模态智能交互模型,计划年底之前实 现涉诈风险智能语音提醒、智能客服等场景 AI 识别服务。尤其面对 AI 生成语音诈骗 时,可自动化提醒“受害人员”,解决当前电信网络诈骗治理过程中的涉诈风险提醒效 率、覆盖率等难题,提升涉诈风险识别能力,减少人工识别的投入,提高涉诈提醒的及 时性、有效性,实现降本增效,提升防范、治理电信网络诈骗等新型违法犯罪的能力。

5) 生成式人工智能算法安全性检测工具:依据XXX网信办发布的《生成式人工智能 服务管理办法》(征求意见稿)的要求,基于大模型对抗实现对算法安全性检测,东方通 目前已经开启针对 ChatGPT 等新型交互式 AIGC 算法的安全性评估测试方法和工具开 发的研究,能够检测生成式人工智能算法的潜在安全风险,包括内容安全性(含违法违 规风险、歧视性风险、虚假信息风险等)、隐私数据安全、算法鲁棒性、恶意代码风险等, 从算法源头实现检测、预防和治理 AI 内容风险,未来将面向监管部门和算法服务提供 者提供全面支撑服务。

4.6. 拓尔思

拓尔思成立于 1993 年,是中文全文检索技术的始创者,领先的人工智能、大数据 和数据安全产品及服务提供商。公司作为人工智能、大数据和数据安全产品及服务提供 商,为各行业用户的数智化赋能。公司业务根据行业应用的不同,可划分为数字XXX、 融媒体、金融科技、数字企业、公共安全五个版块;根据技术领域的不同,可划分为人 工智能、大数据、数据安全、信创四个领域;根据服务模式的不同,又可划分为软件产 品、大数据服务、订阅制 SaaS 服务、软硬一体化产品四种模式。

Q1 营收增速回正,人工智能软件产品及服务营收逆势增长。2020-2022 年公司营收 分别为 13.09 亿元、10.29 亿元、9.07 亿元。2023Q1 公司营收增速回正,实现营收 2.11 亿元,同比增加 10.62%。公司人工智能软件产品及服务营收逆势稳定增长,2020-2022 年分别实现营收 1.19 亿元、1.81 亿元、2.12 亿元,2022 年营收占比达 23.37%。

 

 

拓尔思在政务和媒体等相关领域的平台建设中,涵盖了内容审查相关业务模块。如 XXX集约化平台服务,通过对信息发布的内容进行自动审核,帮助政务运营团队更准确 的信息传达;又如在融媒体平台的建设中,对文本、图片和音视频内容的多模态内容进 行实时合法合规性等多维度审校。 拓尔思推出的自动校对的 SaaS 云服务平台,能够比较准确、全面、智能地对发布内容中进行内容审核,包括文字类差错,如错别字、音近字、形近字、多字、重叠、颠 倒、繁体词、异形词等;敏感词过滤,如涉及暴恐、色情、违禁、侮辱、歧视等不健康 用词,落马官员等;知识错误,如表述不当、搭配不当、语义错误、术语名词、地名等; 常识错误,如标点符号、数字、量词、计量单位、大小写、时间表述等内容。

 

免责声明

    版权声明:本文内容由网友上传(或整理自网络),原作者已无法考证,版权归原作者所有。省心文案网免费发布仅供学习参考,其观点不代表本站立场,本站不承担任何法律责任!

相关文章

在线客服

扫码一对一人工服务