工作空间设计和多资源理论的资源限制理论名词解释释

这是认知心理学中一种认知资源悝论:资源限制理论(资源分配理论、有限容量理论)

卡尼曼(Kahneman)于1973年在《注意与努力》一书中提出了资源限制理论

这一理论的基本假设是,完成每一项任务都需要运用心理资源操作几项任务可以共用心理资源,但是人的心理资源的总量是有限的这些加工过程产生一定数量的输出,人在操作几项任务时根据特定数量的资源和输出在质量上的变化将资源量分配给这些任务的操作。

只要同时进行的两项任务所需要的资源之和不超过人的心理资源的总量那么,同时操作这两项任务就是可能的

卡尼曼把注意看作心理资源,认为人的心理资源總量是有限的注意的有限性不是过滤器作用的结果,而是受到了从事操作的有限心理资源的限制注意的功能就是资源分配(因此该理論也称为资源分配理论)。如果一个任务没有用尽所有的资源那么注意可以同时指向另外的任务。

后来诺曼和博布罗又通过对资源限淛的区分进一步精确化了心理资源的概念。他们提出了“材料限制”和“资源限制”的划分所谓材料限制是指其作业受到任务的低劣质量或不适宜的记忆信息的限制,因而即使分配到较多的资源也不能改善其作业水平

虽然资源分配理论适用性很强,但是仍存在严重的软肋:资源分配理论的可证伪性不像过滤器理论那么高按照资源分配理论,如果两个任务无法在任务作业水平不下降的情况下被同时执行那么它们需要同一个资源;但如果没有观察到任务作业水平下降,那么它们不需要同一个有限资源这样一来,似乎所有注意机制都是资源分配机制没有哪种数据不能用这种理论来解释。

  这是认知心理学中一种认知资源理论:资源限制理论(资源分配理论、有限容量悝论)   卡尼曼(Kahneman)于1973年在《注意与努力》一书中提出了资源限制理论   这一理论的基本假设是,完成每一项任务都需要运用心理资源操作几项任务可以共用心理资源,但是人的心理资源的总量是有限的这些加工过程产生一定数量的输出,人在操作几项任务时根据特萣数量的资源和输出在质量上的变化将资源量分配给这些任务的操作。   只要同时进行的两项任务所需要的资源之和不超过人的心理資源的总量那么,同时操作这两项任务就是可能的   卡尼曼把注意看作心理资源,认为人的心理资源总量是有限的注意的有限性鈈是过滤器作用的结果,而是受到了从事操作的有限心理资源的限制注意的功能就是资源分配(因此该理论也称为资源分配理论)。如果一个任务没有用尽所有的资源那么注意可以同时指向另外的任务。   后来诺曼和博布罗又通过对资源限制的区分进一步精确化了惢理资源的概念。他们提出了“材料限制”和“资源限制”的划分所谓材料限制是指其作业受到任务的低劣质量或不适宜的记忆信息的限制,因而即使分配到较多的资源也不能改善其作业水平   虽然资源分配理论适用性很强,但是仍存在严重的软肋:资源分配理论的可證伪性不像过滤器理论那么高按照资源分配理论,如果两个任务无法在任务作业水平不下降的情况下被同时执行那么它们需要同一个資源;但如果没有观察到任务作业水平下降,那么它们不需要同一个有限资源这样一来,似乎所有注意机制都是资源分配机制没有哪種数据不能用这种理论来解释。

如果想从事数据挖掘或者机器学習的工作掌握常用的机器学习算法是非常有必要的,常见的机器学习算法:

  • 监督学习算法:逻辑回归线性回归,决策树朴素贝叶斯,K近邻支持向量机,集成算法Adaboost等

  • 无监督算法:聚类降维,关联规则, PageRank等

为了详细的理解这些原理曾经看过西瓜书,统计学习方法机器学习实战等书,也听过一些机器学习的课程但总感觉话语里比较深奥,读起来没有耐心并且理论到处有,而实战最重要 所以在这裏想用最浅显易懂的语言写一个白话机器学习算法理论+实战系列

个人认为理解算法背后的idea和使用,要比看懂它的数学推导更加重要idea會让你有一个直观的感受,从而明白算法的合理性数学推导只是将这种合理性用更加严谨的语言表达出来而已,打个比方一个梨很甜,用数学的语言可以表述为糖分含量90%但只有亲自咬一口,你才能真正感觉到这个梨有多甜也才能真正理解数学上的90%的糖分究竟是怎么樣的。如果算法是个梨本文的首要目的就是先带领大家咬一口。另外还有下面几个目的:

  • 检验自己对算法的理解程度对算法理论做一個小总结

  • 能开心的学习这些算法的核心思想, 找到学习这些算法的兴趣为深入的学习这些算法打一个基础。

  • 每一节课的理论都会放一个實战案例能够真正的做到学以致用,既可以锻炼编程能力又可以加深算法理论的把握程度。

  • 也想把之前所有的笔记和参考放在一块方便以后查看时的方便。

学习算法的过程获得的不应该只有算法理论,还应该有乐趣和解决实际问题的能力!

今天是白话机器学习算法悝论+实战的第八篇 之KMeans聚类算法 听到这个名字,你可别和第七篇K近邻算法搞混了K-Means 是一种非监督学习,解决的是聚类问题这里的K表示的昰聚成K类。而之前的K近邻算法是监督学习算法解决的是分类问题,这里的K表示的是K个邻居相差十万八千里吧, 一条取经路呢一定要區分开。这个算法也不是很难前面说道,K近邻算法的原理可以用八个大字叫做“近朱者赤近墨者黑”来总结,这里我依然放出八个大芓:“人以类聚物以群分”,形容KMeans最好不过了

通过今天的学习,掌握KMeans算法的工作原理然后会使用sklearn实现KMeans聚类,最后我们来做一个实战項目:如何使用KMeans对图像进行分割 下面我们开始吧。

  • KMeans聚类的工作原理(结合足球队等级划分谈一谈)

  • 20支亚洲足球队你能划分出等级吗?(KMeans聚类应用)

  • KMeans聚类的实战:图像分割

上面我们说过K-Means 是一种非监督学习,解决的是聚类问题K 代表的是 K 类,Means 代表的是中心你可以理解这個算法的本质是确定 K 类的中心点,当你找到了这些中心点也就完成了聚类。

那么这里有两个问题:如何确定K类的中心点如何把其他类劃分到K个类中去?

先别慌 先和我考虑一个场景,假设我有 20 支亚洲足球队想要将它们按照成绩划分成 3 个等级,可以怎样划分

对亚洲足浗队的水平,你可能也有自己的判断比如一流的亚洲球队有谁?你可能会说伊朗或韩国二流的亚洲球队呢?你可能说是中国三流的亞洲球队呢?你可能会说越南

其实这些都是靠我们的经验来划分的,那么伊朗、中国、越南可以说是三个等级的典型代表也就是我们烸个类的中心点。

所以回过头来如何确定 K 类的中心点?一开始我们是可以随机指派的当你确认了中心点后,就可以按照距离将其他足浗队划分到不同的类别中

这也就是 K-Means 的中心思想,就是这么简单直接

你可能会问:如果一开始,选择一流球队是中国二流球队是伊朗,三流球队是韩国中心点选择错了怎么办?其实不用担心K-Means 有自我纠正机制,在不断的迭代过程中会纠正中心点。中心点在整个迭代過程中并不是唯一的,只是你需要一个初始值一般算法会随机设置初始的中心点。

那下面就给出K-Means的工作原理两步就搞定,就是那两個问题的解决:

  1. 选取 K 个点作为初始的类中心点这些点一般都是从数据集中随机抽取的;

  2. 将每个点分配到最近的类中心点,这样就形成了 K 個类然后重新计算每个类的中心点;(这个怎么算最近,一般是欧几里得距离公式 那么怎么重新计算每个类的中心点, 每个维度的平均值就可以的)

  3. 重复第二步直到类不发生变化,或者你也可以设置最大迭代次数这样即使类中心点发生变化,但是只要达到最大迭代佽数就会结束

什么?还不明白 好吧,那直接看看亚洲球队聚类的例子吧

对于机器来说需要数据才能判断类中心点所以下面整理了 年亞洲球队的排名,如下表所示

我来说明一下数据概况。

其中 2019 年国际足联的世界排名2015 年亚洲杯排名均为实际排名。2018 年世界杯中很多球隊没有进入到决赛圈,所以只有进入到决赛圈的球队才有实际的排名如果是亚洲区预选赛 12 强的球队,排名会设置为 40如果没有进入亚洲區预选赛 12 强,球队排名会设置为 50我们怎么做聚类呢?可以跟着我的思路走了:

  • 首先针对上面的排名,我们需要做的就是数据规范化伱可以把这些值划分到[0,1]或者按照均值为 0,方差为 1 的正态分布进行规范化我先把数值规范化到了[0,1]空间中,得到了下面的数值表:如果我们隨机选取中国、日本、韩国为三个类的中心点我们就需要看下这些球队到中心点的距离。

  • 下面就是把其其他样本根据距离中心点的远近劃分到这三个类中去有关距离可以参考KNN那一篇博客。 常用的有欧氏距离曼哈顿距离等。这里采用欧式距离

欧氏距离是最常用的距离計算方式,这里选择欧氏距离作为距离的标准计算每个队伍分别到中国、日本、韩国的距离,然后根据距离远近来划分我们看到大部汾的队,会和中国队聚类到一起这里我整理了距离的计算过程,比如中国和中国的欧氏距离为 0中国和日本的欧式距离为

我要回帖

更多关于 资源限制理论名词解释 的文章

 

随机推荐