-
新濠天地平台娱乐
推荐新闻
销售热线:
简析AI(深度学习) - InfoQ: Software Development …
AI目前已经能够用眼睛看到,并精通一些视觉相关的工作了,比如:通过医学影像识别癌症或其他疾病,在统计学上优于人类放射科医师、眼科医师、皮肤科医师等,还有驾驶汽车、读唇语。AI能通过学习样本(比如毕加索或者你的画作)画出任何一种风格的图画。反过来,它也能通过一幅画,补足缺失的信息,猜出真实的照片是什么。AI看着网页或应用的屏幕截图,就能写出代码制作出类似的网页或应用。被训练用来赢得扑克比赛的AI学会了虚张声势,能够处理丢牌、潜在的造假行为,还能误导信息。被训练用来谈判的机器人也学会了欺骗,能猜测出你什么时候在说谎,如果需要它们也会撒谎。一个用来在日语和英语间翻译或者在韩语和英语间翻译的AI,也能在韩语和日语间进行翻译转换。看起来翻译AI自己创造了一种中间语言,能不分语言的界限演绎任何一个句子。人工神经网络只是通往机器学习的其中一种方式,其他路径还包括决策树、支持向量机等。深度学习是一种具有许多抽象层次的人工神经网络。不去谈深度这个有炒作意味的词,很多机器学习方法都是浅显的。成功的机器学习通常是混合的,也就是很多方法的组合,比如树+深度学习+其他,它们都是被分别训练而成的,再把它们结合在一起。每一个方法都可能带来不同的错误,所以,平均了它们每一个方法成功的结果,它们就胜过了单独一种方法。为什么AI在1997年的国际象棋比赛中就击败了人类,但直到2016年,才在围棋比赛中击败了人类呢?因为在1997年,计算机仅仅简单地计算出了国际象棋8x8棋盘中所有的可能性,但围棋拥有19x19的可能性,计算机要计算出所有可能性需要十亿年。这就像要随机组合出所有字母,以此得到这样一整篇文章一样:这根本不可能。所以,人们已知的唯一的希望在于训练出一个ML,但是ML是近似的,不是确定的,机器学习是随机的,它可以被用于统计分析的模式,但不能用于准确的预测。大多数机器学习都属于监督学习,这里用来训练的实例都是有标签的,标签就是关于每个实例的描述或者标注。你首先需要人工把那些关于猫的照片从关于狗的照片中分离出来,或者把垃圾邮件从正常邮件中分离出来。如果你错误地给数据打了标签,最后ML就会不正确,这至关重要。把未打标签的数据放到ML里,这就是无监督学习,在这里ML会发现有用的数据的模型和群组,但它不能单独用来解决很多问题。所以有些ML是半监督式的。机器学习并不是一个人类大脑模拟器,真正的神经元要不同得多。机器学习是通往真正大脑能力的另一条通路。大脑和机器学习都要处理统计数字(概率)来逼近复杂函数,它们都会给出稍微有点偏差的结果,但这个结果是可用的。机器学习和人类大脑会针对同一任务给出不同的结果,因为它们以不同的方式处理问题。所有人都知道,大脑容易忘记事情,并且在解决特定数学问题的时候也有很多限制,但机器在记忆和数学方面是完美无缺的。然而,那些认为机器要么给出确切答案,要么就是机器坏了的旧想法是错误的、过时了的。人类会犯很多错,你不会听到说这个人类大脑坏掉了,而是会听到让这个人类大脑更努力地学习。所以,ML也不是坏掉了,它们需要更努力地学习,在更多不同的数据中学习。基于人类偏见训练出来的ML有可能会是种族主义的、性别歧视的、不公平的,总之最糟糕的还是人类大脑。ML不应该只被数据训练,不应该只为了模仿人类的工作、行为和大脑。同样的ML,如果在其他星系被训练,就能模仿外星人的大脑,让我们也用外星人的思维来思考吧。和其他科学不同,你无法验证一个ML是否在使用逻辑化的理论。要判断一个ML是否正确,你只能通过测试那些不可见的新的数据结果。ML不是一个黑匣子,你可以看到那些它生成和运行的如果那么列表,但通常对一个人类来说,这些数据量太大太复杂了。ML是一门试图重现现实世界之混乱与人类直觉的实用科学,它不会给出简单的或理论化的解释。这就好像,你有一个行得通的想法,但你不能具体解释出自己是怎么得出这个想法的。对于大脑来说,这被称为灵感、直觉、潜意识,但对计算机来说,这就是机器学习。如果你能得到一个人在大脑里做出决定所需的全部神经信号,你就能理解大脑做出这个决定的真正缘由和过程吗?或许能吧,但这很复杂。每个人都可以通过直觉来想象另一个人的脸,可以是现实的脸也可以是毕加索式的脸。人们还能想象一种声音或者音乐风格。但没人能用完整而有效的方式来描述一张脸、声音或者音乐风格的变化。人类只能看到三个维度,即使爱因斯坦也不能有意识地解决500个维度上机器学习一般的数学问题。但我们的人类大脑一直在用直觉解决这种500维的数学问题,就像魔法一样。为什么它不能被有意识地解决呢?想想一下,如果对每个想法,大脑都给出它所使用的有上千个变量的公式,会怎样?那些多余的信息会让我们非常困惑,并且大幅减缓我们思考的速度,这又何必呢?没有人类能进行几页长的数学计算,我们的头上并没有进化出USB电缆那样的东西来。如果没有人能预测任何事,那么机器学习同样做不到。很多人用多年的市场价格变化来训练ML,但这些AI还是无法预测市场走向。ML只有在过去的因素和趋势保持不变的情况下进行预测。但股票和经济趋势经常变动,几乎是随机的。当旧的数据不再有效或者频繁出现错误的实话,ML就会失灵。已经习得的任务和规则必须保持一致,或至少是很少再变动,这样你才能再次训练。举个例子,学习开车、打扑克、按某种风格画画、根据健康数据预测疾病、在不同语言之间进行转换,这些是机器学习能做到的,旧有的实例在近期未来依然会是有效的。机器学习能在数据中找到因果联系,但它找不到并不存在的东西。比如,在一项名为使用面部图像自动识别罪犯的怪异研究中,ML学习了很多在押罪犯和无罪者的面部照片,研究者声称,机器学习只根据一张面部照片就能抓到新的坏人,但研究者感觉,更进一步的研究将驳回根据面貌进行判断的有效性。他们的数据设置是有偏见的:有些看起来无辜的白领罪犯甚至会嘲笑他们的做法。ML能学到的唯一联系是开心或生气的嘴巴、领子的类型等。那些微笑着的穿着白领的人被分类为无辜诚实的,而那些看起来悲伤的穿黑领衣服的人则和坏人相关。那些机器学习专家尝试着用人们的面部来判断这个人的好坏,但他们却不能通过衣着(社会阶层)去判断。机器学习放大了一种不公平的偏见:街上穿着便宜衣服的小贼比腐败的政客和顶级企业欺诈者更容易被发现并受到惩罚。这种机器学习将会发现所有街上的小贼并把他们投入监狱,但一个白领都没有。机器学习并没有像任何一个成年人那样在我们这个世界生活过,它们不知道在数据以外还有什么,连那些很明显的也不知道,举个例子:在一场火灾中,火势越大,被派去的救火车就越多。一个ML会注意到,在一个火场的消防员越多,第二天看到这场造成的破坏就越大,所以正是那些救火车导致了火灾破坏。结论:机器学习会以纵火罪把消防员送进监狱,因为这其中有95%的相关性!人类也从来不会完整地解释他们所做的决定。我们会给出听起来合理的理由,但却通常是不完整的过于简化的理由。那些总能从ML那里得到正确的答案的人们,会开始编造虚假的阐释,就是因为这样会让公众更容易认可ML的预测。还有些人会偷偷使用ML,并把得出的想法说成是他们自己的想法。没人知道如何造出一个通用AI。这真是棒极了,我们已经拥有了超人类的专业工人(狭义AI),但没有任何一个终结者或黑客帝国会自己决定要杀掉我们。不幸的是,人类会训练机器顷刻间杀掉我们,举例来说,一个恐怖分子可能会训练一个自动驾驶的卡车冲撞人行道。而拥有通用智能的AI可能会自我毁灭,也不会遵循恐怖分子的指令。实用机器学习训练。如果你用手拿着物品的照片训练一个ML,它会把手看做是这个物品的一部分,也就无法单独识别出这个物品本身。一只狗知道如何从人的手上吃东西,而那愚蠢的ML则会把食物连同你的手一起吃掉。要改掉这个问题,那就要先训练它认识手,再训练它认识单独的物品,最后训练手拿着物品的情况,并打上标签手握着物品X。
上一篇:另外喵喵网络电视支持国内多种网络电视夏玲有声电视直播等级:大小:1 | 下一篇:淡水旅游攻略_淡水自由行/自助游攻略_淡水游记攻略指 … |