AI透明度将新方法透明度问题可以归结为一个问题
来源:CPDA数据分析师网 / 作者:数据君 / 时间:2020-04-29
输入可以分析AI的工作原理以解释正在发生的事情的新程序
通常您可能会认为直接探查AI的内部将是解决此问题的方法,但是这种方法仍然难以捉摸。取而代之的是,在此示例中使用的程序(例如开源LIME)对输入图像进行了很小的更改,以查看哪些更改更改了输出。终,将雪区域更改为其他区域可以改变结果,而对狗区域进行更改则不会。得出一个结论,即AI的决定一定是基于大雪。借助LIME之类的程序,许多AI专业人员都在了解到AI经常出于我们未曾预期的原因做出决策,遗憾的是他们没有出于智力原因做出决定。
人工智能的透明性增加了开发的复杂性
但是如果开发人员知道为什么能够实现某些结果,那么人工智能会更加有效,鉴于当前的这种状况,人工智能专业人员正在认识到,当今的人工智能越来越像复杂的统计分析,而越来越不像实际的智能。为了迈向真正智能的下一步,请考虑Moravec的悖论,可以将其解释为:智力问题似乎越简单,实施起来就越困难。说“什么简单的任何三岁孩子都能做到”就是的死亡之吻。
考虑到任何孩子都可以从头开始学习语言
他们可以了解时间的流逝,并了解圆滚滚和方滚滚不知道的基本物理原理。孩子们认识到所有物体掉下来都不会掉下来,并了解因果关系。怎么样?很简单,孩子们通过多种感觉以及与物体的互动来学习。这样,孩子比人工智能具有优势,因为他或她可以在其他所有事物的背景下学习一切。一个孩子从玩积木中得知,必须先建立一个堆栈,然后堆栈才能掉落,并且积木永远不会自发地堆叠起来。这与可能自发地做很多事情的狗相反,当然人工智能没有这种情况。对于AI而言,狗或块的图像只是像素的不同排列。一个专门基于图像的程序或一个主要基于单词的程序都不会具有现实中存在的“事物”的上下文,它或多或少是性的,并且容易受到物理基本定律的影响。
具有多种感官的AI在创建理解所需的上下文方面具有显着优势
总而言之提高AI透明度将向我们展示如何改进系统,因为我们将能够更好地识别和消除培训集中的偏见,从长远来看人工智能的透明性也凸显了当今人工智能方法的局限性,为创建真正智能的新算法和方法打开了大门。
Brain Simulator II可以对多种AI算法进行实验
以创建一个端到端AGI系统,该系统具有视觉,听觉,机器人控制,学习,内部建模甚至计划,想象力和预见力的模块,直接解决认知问题的新颖独特算法是帮助AI演变为AGI的关键, Sallie是大脑模拟器的人造实体,可以在对象周围移动,查看触摸和闻香,并学会在模拟环境中理解语音。她甚至可以学会像孩子一样使用地标导航迷宫。这个新的研究项目提出了新的算法,以模拟结合高级人工智能技术的生物神经元电路。
Brain Simulator II将神经网络和符号AI技术结合在一起创造了无限可能
它创建了数百万个神经元,这些神经元通过任意数量的突触相互连接,此外,可以将任何神经元簇收集为可以执行任何所需背景编程的“模块”。
1、通过台式计算机可获得数百万个神经元;
2、从头开始或从功能库创建网络的能力;
3、语音视觉和机器人控制的20多种模块类型;
4、通用知识存储模块,能够存储任何类型的信息和突触;
6、能够以Microsoft .NET平台支持的任何语言编写模块的功能。