Epik中国区负责人Eric Yao:风口一直在变,但人类合作的需求是永恒的
摘要: 「话事人 on Chain」第4期特别邀请到了Epik Protocol中国区负责人Eric Yao,分享知识图谱+区块链的商业逻辑和价值。
知识图谱发源于人工智能重要分支知识工程,知识图谱的发展历程最早可追溯到20世纪50年代,人工智能诞生并初步发展。20世纪70年代~90年代,人工智能领域专家认识到知识对于人工智能发展的重要性,知识工程诞生并迅速发展。在1990~2000年间,万维网Web1.0的产生为大众提供了开放平台,为互联网环境下大规模知识表示和共享奠定了基础。在2000-2012年间。万维网使得知识从封闭走向开放,从集中式变为分布式,群体智能由此出现,典型代表为维基百科,群体智能也成为以后大规模结构化知识图谱的重要前提。2012年,谷歌推出知识图谱项目产品,标志着知识图谱正式诞生,知识工程进入发展新时期。
随着科技发展进步,高效化、智能化已经成为社会发展的重要趋势。而知识图谱作为人工智能重要分支知识工程的具体应用体现,不仅能加深垂直应用领域的智能化程度,还能为用户降低运营成本、提高系统运作效率,切合社会高效化、智能化的发展需求。社会高效化,智能化的发展趋势促使社会对知识图谱技术的需求逐步提高,知识图谱行业发展空间将逐步扩大。
「话事人 on Chain」第4期特别邀请到了Epik Protocol中国区负责人Eric Yao,分享知识图谱+区块链的商业逻辑和价值。
以下为对话实录,经链得得编辑整理。
Eric:很多人都看过黑客帝国的故事,看黑客帝国的时候,有两个疑问,就是圈养人类的超级AI - 母体,它的钱和智力是从哪儿来的?如果钱是银行里的,早被人类政府冻结了,根本发展不起来,猥琐发育都不行。所以钱应该是加密货币;如果智力是Google / Baidu 提供的中心化知识图谱,那拔网线就把母体制得服服帖帖了。所以知识图谱库应该也是去中心化的。如果人工智能不是个伪命题,那去中心化的知识图谱基础设施应该是必然的趋势了,或早或晚而已。
EpiK的全称是epigraphy knowledge,代表着铭刻在石头上的知识,是致力于借助区块链技术,打造的一个去中心化的,共建共享共益的安全可信知识图谱协作平台。
主持人:很多投资者对“知识图谱”这个概念并不熟悉。请介绍一下Epik正在构建的“知识图谱”的概念和价值。
Eric:人工智能发展被分为四大阶段:计算智能、感知智能、认知智能和意识智能 。计算智能让机器能存会算;感知智能让机器能听会说、能看会认;认知智能解决机器能理解会思考的问题;意识智能让机器自学习和记忆。让机器具备认知智能,即让机器具备理解和解释能力,机器的智能离不开大规模和结构化的背景知识,
目前知识图谱是这种结构化背景知识的解决方案,机器认知智能的实现依赖于知识图谱技术。他是一种用图模型来描述知识和建模世界万物之间关联关系的大规模语义网络,是大数据时代知识表示的重要方式之一。知识图谱可以被理解为人脑神经元系统的一个仿生系统,神经元的连接就像知识图谱中节点的连接一样。
由于知识图谱富含实体、概念、属性和关系等信息,使机器理解与解释现实世界成为可能,因此知识图谱成为了人工智能理解和推演人类知识的基石。
主持人:长期来看,Epik的目标是什么?
Eric:铭识协议致力于通过去中心化的方式构建人类知识库,借助区块链技术打造共建共享共益的知识图谱协作平台,依赖于去中心化存储技术(Filecoin )提供的可信存储能力、通证经济模型(Token Economy )提供的 可信激励能力、去中心化自治组织(DAO )提供的可信治理能力和去中心化金融技术(DeFi )提供的可信金融能力,组织并激励全球社区成员将人类各领域知识梳理成知识图谱,共建共享并持续更新这一人类永恒知识库,从而将人工智能 ( AI ) 的视野拓展到更智能的未来。
主持人:“利用去中心化的方式构建知识库”,这种方式和维基百科的区别是什么?
Eric:现存大量知识的载体都是给人看的,比如书、视频、图片,包括wiki百科。但在人类进入认知智能的当下,我们需要将这些人类能看懂的知识传授给AI,这就需要一种AI能理解的知识表示方式,而目前最可行的解决方案就是知识图谱。所以EpiK构建的知识图谱库是给AI看的,是人类向Ai的一次传业受道解惑。
主持人:构建知识图谱的过程非常繁琐且复杂。按照Epik的规划,知识图谱的数据挖掘、采集、结构化均由领域专家和赏金猎人完成。如何保证他们的工作是有效、可靠的?
Eric:EPIK依据通证经济和去中心化组织DAO的理论和模型,提供了可信激励和可信治理的模型。来共同确保各个参与方在追求个人利益最大化的情况下,有序协作完成将人类知识库转变为知识图谱的宏大工程。
领域专家是知识图谱数据的组织者和验收员,也是整个系统中唯一有权利上传知识图谱数据的群体,他们通过贡献高品质的知识图谱数据获得收益。当然,作为全系统唯一有数据上传权利的群体,对于领域专家有着严格的监督机制。首先,领域专家必须由已经是领域专家的人提名产生,提名后的领域专家还需要在社区中获得社区投票的支持,每一票都意味着一个EPK被锁定。一旦领域专家票数(锁仓EPK数)少于最小阈值,则失去资格。如果领域专家上传的虚假、垃圾的数据,社区讲给予除名处罚,提名了被除名领域专家的人也将受到连带惩罚。
知识图谱数据生成任务是繁重的,领域专家难以独立完成,所以系统内还设计了赏金猎人角色,他们是知识图谱数据的采集员和标注员,他们通过完成领域专家发布的各种任务来获得收益。在接下来发布的治理白皮书中会阐述更多的细节。
主持人:构建知识图谱需要大量的数据作为支撑。除了开放链接知识库之外,难免需要非开放的数据,包括传感器、定位系统等物联网感知设备提供的数据。作为一个去中心化的项目,如何获取或积累这些数据?
Eric:EpiK的数据是由领域专家上传的,领域专家是一个很灵活的角色,他的权力可以被赋予人,也可以被赋予机器,他将充当中心化知识和去中心化知识的桥梁。他可以是大学教授,可以使贴吧吧主,可以是业务专家,可以是NLP机器人,可以是物联网设备,可以是任何形式的人类知识布道者。
主持人:互联网行业已经发展出较为成熟的知识图谱产业链,其中既有腾讯“星图”、百度“知心”、阿里商品图谱这样的综合型知识图谱,也有明略、达观、竹间这样的垂直领域知识图谱提供商。Epik如何与这些成熟的知识图谱提供商竞争?如何保证领域专家和赏金猎人制作的知识图谱对于用户有更高的水平和价值?
Eric:首先,底层的技术生态的开放是一个趋势,20年前,封闭的Windows吊打开放的Linux;10年前,封闭的IOS吊打开放的Android。现在的局面想必大家都很清晰了,封闭生态是很难战胜开放生态的成长速度的。这就是互联网巨头和EpiK的区别。
将人类以各种形式传承的知识转变为一个超大规模的高质量知识图谱并非易事,面临诸多挑战。首先,人类知识涉及的专业领域之广之深,远非一个组织、一家公司甚至一个国家能完全独立掌握。其次,在知识图谱构建过程中,包括采集、提取、消歧和融合等多个需要人工参与的环节,这意味着每个专业领域的知识图谱构建都成本不低。最后,也是最为棘手的问题是,由于知识图谱构建成本高,大多数人无法独自构建,这就意味着很多AI需要使用第三方提供的知识图谱来构建认知能力, 如果这些被依赖的第三方知识图谱数据被恶意篡改了,将直接导致众多 AI 的认知紊乱,进而失控。
因此一个不受中心化控制、能激励各方力量参与共建、数据安全可信防篡改的知识图谱数据库显得必不可少。
同时EPIK通过共建共享生成知识库的方式,不但收集数据的成本更低,同时一次生成,多次共享。对外提供数据服务数据使用成本也更低。
主持人:在应用方面,Epik主要面向哪些领域构建知识图谱?最终用户的应用场景有哪些?
Eric:我们团队的聚焦点在于构建去中心化的协作闭环,让各个领域的知识图谱都能在这样的协作网络中滚雪球滚起来。当然,我们需要showcase,目前我们的领域专家分布在语音、医疗、保险、法律、金融、电子游戏、乡村产业结构这几个方向,相关的题库会陆续在我们的知识大陆产品中跟大家见面。
用户的最终应用场景,会是私人医生帮助你智能分析病历,私人保险助理帮助你智能配置医疗保险,智能金融助理帮助你解答各种金融问题等等。
主持人:听说EpiK在近期要上线一款叫做知识大陆的游戏化知识图谱数据采集产品,能为我们提前剧透一下吗?知识大陆是一款怎样的产品?他背后的运作机制是什么?如何通过知识大陆来构建知识图谱的呢?
Eric:知识大陆是EpiK以游戏化方式落地知识图谱协作的重要生态工具产品,将枯燥繁杂的知识图谱构建工作转化为玩游戏的方式,不需要有多专业、多高端的知识储备,打破圈层限制,用户只需要按照游戏规则及提示完成任务,即可获得奖励,让更多的人参与进来。知识大陆未来将开启涉及各行业生态的知识协作项目,举例来说,当前,知识大陆推出的首个协作项目是开源语音库,具体工作流程是:领域专家梳理出语音类知识图谱结构,他们将这些知识数据细分成若干文字、图片转化语音等任务,并将这些任务分发给用户,用户只需用上下班乘车或平时零散时间就可以参与任务,会得到Token的奖励。
知识大陆可以说是EPIK生态中的普通用户的一个重要入口,每个人都可以下载知识大陆,通过游戏化的方式来在知识大陆中回答问题,标注数据来获取收益。在获得收益的过程中对知识上链这件事情会有原来越深刻的理解,实际感知到对知识库传承所做的贡献。同时知识大陆也是对接各个商业化数据场景,用来发布数据需求任务的重要平台。
主持人:Eipk代币总发行量是多少?如何进行分配?
Eric:EpiK Protocol 原生代币为 EPK,总量10亿,其中创始团队5% 基金会5% 投资人20% 挖矿70%,在主网上线后连续50年内全部释放完毕,永不增发。
主持人:Eipk代币价值如何体现?其经济模型是什么样的?如何实现社区治理?
Eric:在大方向上来看Epik的代币价值取决于他所处的数据存储领域和经济模型,链上高价值的数据自身就带有非常强的商业化价值,你要使用已经整理好的知识图谱就需要一定量的EPK做抵押。
下面简单说一下epik的经济模型
首先参与epik生态的各个参与方都是需要一定的epk抵押来做数据和资质担保的,每台矿机需要抵押最少1K个EPK,每位领域专家都需要有10W epk的抵押投票才能当选,使用Epik上的数据也是需要按数据多少抵押一定的EPK。
在DAO生态当中的5个角色分配主网上线后每天产生的EPK。
矿工拥有其中75%的EPK,领域专家拥有其中9%的EPK,投票用户分享其中1%的EPK。另外15%的EPK将会根据网络每日访问流量浮动,而这15%的部分是矿工和领域专家相互博弈的关系。
网络活跃度的评判标准就在于全网为了获取每日访问流量而抵押进来的EPK占总流通量比重(1EPK=10Mb/天),比例越高则说明数据需求量增大,这就要求矿工提升带宽质量。如果数据需求量降低,这就要求领域专家提供更高质量的数据。
这就好比图书馆里访客多了,就需要更多的座椅,即花钱让矿工提升带宽。访客少的时候,需要更多钱购买更优质的书籍吸引访客,即给赏金猎人和领域专家去生成更多优质知识图谱数据。
不同于Filecoin生态中官方和大矿工的博弈,数据的生产方和数据的存储方的博弈是生态中最重要的博弈关系。
在社区治理方面我们会进行社区分层治理,系统层人人持币投票参与治理,存储层矿工按算力投票参与治理,知识层领域专家一人一票参与治理,不同的参数仅有利益相关方参与治理,避免治理泛化,效率低下。
主持人:Eipk与Fliecoin及其代币的关系是什么?
Eric:EPIK的定位是Filecoin的二层网络,EpiK Protocol 链上数据是各个不同领域的增删查改日志数据,使用的时候,用户可以指定要哪些领域的数据,把这些日志数据下载到本地后Replay成本地数据库并对外提供API数据接口。
这样的过程我们能解耦各领域专家的工作,也能保证数据可更新但不可被篡改。
但是随着EpiK Protocol网络运行时间的增长,各领域日志文件增加,在本地Replay这些日志文件会变得耗时。
此时我们最好地选择是,定期将各领域数据的快照传到Filecoin上,当要使用某个领域数据时,只需要从Filecoin上下载最新的快照数据,然后从EpiK Protocol网络中下载最新的更新日志就可快速在本地恢复数据库进行使用。
Filecoin适合大文件的冷存储,EpiK适合小文件的热存储,相互配合,充分利用市场上的闲置硬件资源,更好地服务于知识图谱协作网络,也更好地服务去中心化存储生态。
主持人:Epik包含的可信金融服务是如何实现的?与知识图谱的关系是什么?
Eric:铭识协议的可信金融能力来自于去中心化金融技术 DeFi。数字货币发展至今,头部效应明显,大部分用户都持有着诸如 BTC/ETH 这类的主流币种。为了帮助这些用户也能顺滑地参与到去中心化知识图谱生态的协作中来,我们在铭识协议之上为其提供了去中心化借贷服务,比如一个用户持有主流币BTC资产,这首他需要使用epk来访问知识库数据或者发起投票,他可以通过铭识协议的跨链网关将 BTC兑换成 eBTC,然后通过铭识协议的借贷服务超额抵押 eBTC 借出 EPK ,然后抵押 EPK 成为矿工挖矿 EPK,或者票选自己成为领域专家获得持续性 EPK 奖励,或者抵押 EPK 下载所需的知识图谱数据。等有一天想退出知识图谱协作网络时,将抵押的 EPK 取出,在铭识协议借贷服务里归还 EPK 取回之前超额抵押的 eBTC, 然后通过跨链网关跨出拿回原生BTC。
主持人:在过去的几年当中,区块链行业的风口不断变换。DeFi、DEX、NFT等都是行业发展的热点。epik要如何不断适应这些新的风口和热点?换句话说,如何避免Epik成为一个朝生暮死的空气项目?
Eric:EpiK的底层基础设施是一个去中心化数据湖方案,每个领域专家被推选上来后,实际上就拥有了一个人人可读的小型开放数据库。热点和风口一直在变,但是人类合作维护数据的需求是永恒的。我们可以一起维护某个领域的知识图谱,也可以一起维护某个风格的NFT画作,也可以一起维护共同的回忆,也可以通过这种方式来遗传自己的数据。我们聚焦于知识图谱,但想象空间留给了社区。
评论(0)
Oh! no
您是否确认要删除该条评论吗?