• 超强的视力恢复训练,缓解眼疲劳|百度云网盘

    文件有3个小视频,新眼保健操、绿色恢复视力视频以及一个3D视觉训练视频眼睛保护.jg(122.32KB,下载次数:12)下载附件保存到相册[百度云网盘]超强的视力恢复训练,缓解眼疲劳2022-4-1116:12上传...

    2022-12-11 眼疲劳 视觉训练有用吗 眼睛视觉疲劳

  • 《设计元素 罗伊娜·里德·科斯塔罗与视觉构成关系》(美)盖尔·格瑞特·汉娜著;沈儒雯译|(epub+azw3+mobi+pdf)电子书下载

    图书名称:《设计元素罗伊娜·里德·科斯塔罗与视觉构成关系》【作者】(美)盖尔·格瑞特·汉娜著;沈儒雯译【页数】166【出版社】上海:上海人民美术出版社,2013.01【ISBN号】978-7-5322-8073-5【价格】48.00【分类】艺术-设计-研究【参考文献】(美)盖尔·格瑞特·汉娜著;沈儒雯译.设计元素罗伊娜·里德·科斯塔罗与视觉构成关系.上海:上海人民美术出版社,2013.01.图书封面:图书目录:《设计元素罗伊娜·里德·科斯塔罗与视觉构成关系》内容提要:本书为设计参考图书。《设计元素罗伊娜·里德·科斯塔罗与视觉构成关系》内容试读ELEMENTSOFDESIGN设计元素“纯粹的、地道的美感,应该是现代文明的目标。”一罗伊娜·里德·科斯塔罗图书在版编目(CIP)数据设计元素[美]盖尔·格瑞特·汉娜著;沈儒雯译一上海:上海人民美术出版社,2013.01书名原文:ElemetofDeig1SBN978-7-5322-8073-51.①设..‖.①盖..2沈.Ⅲ.①艺术一设计一研究V.①J06中国版本图书馆C1P数据核字(2012)第217820号ElemetofDeig.PulihedyPricetoArchitecturalPre37EatSevethStreetNewYork,NewYork10003Forafreecatalogofook,call1.800.722.6657.Viitourweiteatwww.are.com.2002PricetoArchitecturalPreAllrightreervedRightMaager:RuyJi本书简体中文版由上海人民美术出版社独家出版。版权所有,侵权必究。合同登记号:图字:09-2011-624设计元素著者:[美]盖尔·格瑞特·汉娜译者:沈儒雯策划:姚宏翔统筹:丁雯责任编辑:姚宏翔封面设计:丁雯技术编辑:朱跃良出版发行:上海人氏美街出版社(上海长乐路672弄33号邮政编码:200040)印刷:上海丽佳制版印刷有限公司开本:710×9101/12印张14版次:2013年01月第1版印次:2013年01月第1次书号:1SBN978-7-5322-8073-5定价:48.00元设计元素一罗伊娜·里德·科斯塔罗与视觉构成关系[美]盖尔·格瑞特·汉娜著沈儒雯译上海人民头树出版社目录前言6致谢1416绪论Part1:生活和时代20Part2:基础知识4Part3:高级造型研究96Pat4:空间研究118Part5:发展136Pat6:专业作品146保拉·安东内利(PAOLAANTONELLI)纽约现代艺术博物馆建筑与设计馆馆长纯正的、地道的美国式美感经过几十年来对观念的怀疑,我们终于能够再次安心自在地使用“优美”一词。这是另一种形式的美,已经成为了人们所固有的,并为数十亿双旁观者眼中所公认。罗伊娜·里德·科斯塔罗(RoweaKotellow)的座右铭使用了诸如“纯正的”、“地道的”之类的属性来强化美的至高法则,并将其视做对人类的一种责任,承载并应和了流传数世纪之久的社会使命。在她的哲学中,美是一种极高的境界,必须通过艰辛的练习并且不断去除杂质才能达到,只有极少数愿意奉献一生致力于此的人才能做到。研究罗伊娜女士的著作就如同突然置身于一个陌生的远古时期,那时精英们的任务就是去创造美,然后向芸芸众生传播。她的法则在思维与形式上都十分清晰,强调了美国设计的精髓。美国设计就像美国文化一样,永远徘徊在平民主义与精英主义之间,就像在特百惠(Tuerware)*生产的塑料制品所表现出的创新美及实用性与马歇·布劳耶(MarcelBreuer)*设计的家具所传达的那令人惊叹的独特风格之间摇摆不定。在品牌设计与一件作品细节完善的程度上,这两个极端都能体现出其设计的卓越性。这种进退维艰在追求纯正美国设计的漫长道路中时时显现,而这种困惑正是源于这个国家强大的阶级制度。后现代主义思想家雅克·德里达、贝奇·约翰逊和佩德罗·阿尔莫多瓦(JaqueDerrida,BeteyJoho,.PedroAlmod6var)等人已经让我们了解了这样一个事实:美存在于人的意向表达、新事物、创作的作品,还有人的态度中,绝不存在于那些简单绝对的概念中,例如形式单一性。从“绝对美”这一过时观点中解放出来,是本世纪最伟大的成就之一。“设计风格大众化”这一理想一直是建筑与设计领域中反复出现的主题。当代的美是合成方式与个性化的问题,在都市时尚文化、设计与建筑中都是如此。H叩ho音乐就是基于采集并整合全新的与已存在的音乐,最后再给它们加上一个令人称奇的新鲜外表,这就是赋予当代美的一个典型的处理方式。它依赖于对各种艺术的综合与个人的才特百惠:著名塑料制品厂商,塑料这种新材料正是由其创始人首次提炼得到的。*马歇·布劳耶:家具、建筑设计师,包豪斯的第一期学生,1925年设计出了世界上第一把钢管椅子,是一位真正的功能主义者和现代设计的先驱。6前言···试读结束···...

    2022-11-30 里德助手 里德尔

  • 2022年古泡人工智能P5第5期-深度学习+计算机视觉+自然语言处理

    课程介绍课程来自于2022年古泡人工智能P5第5期课程-深度学习+计算机视觉+自然语言处理内容全面覆盖深度学习算法及其项目实战,主要应用于计算机视觉与自然语言处理两大核心领域,配套实战案例与项目全部基于真实数据集与实际任务展开。大型项目完美结合当下行业趋势,培养满足企业就业需求的中高级人工智能算法工程师。网盘截图一、什么是人工智能技术:人工智能(AritificialItelligece),英文缩写AI,人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是类人行为、类人思考、理性的思考、理性的行动。人工智能的基础是哲学、数学、经济学、神经科学、心理学、计算机工程、控制论、语言学。人工智能的发展经过了孕育、诞生、早期的热情、现实的困难等数个阶段。人工智能是计算机科学的一个分支,该领域的研究包括机器人、语音识别、图像识别、自然语言处理和专家系统等。二、人工智能技术的四大分支:1、模拟识别:是指对表征事物或者现象的各种形式(数值的文字的逻辑关系的等)信息进行处理分析,以及对食物或现象进行描述分析分类解释的过程,例如汽车车牌号的辨识涉及到图像处理分析等技术。2、机器学习:研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构是指不断完善自身的性能,或者达到操作者的特定要求。3、数据挖掘:知识库的知识发现,通过算法搜索挖掘出有用的信息,应用于市场分析、科学探索、疾病预测等。4、智能算法:解决某类问题的一些特定模式算法,例如,我们最熟悉的最短路径问题,以及工程预算问题等。三、人工智能的三种形态:1、弱人工智能:弱人工智能是擅长单个方面的人工智能,比如有能战胜象棋世界冠军的人工智能,但是它只会下象棋,你要问它怎样更好地在硬盘上储存数据,它就不知道怎么回答你了。2、强人工智能:人类级别的人工智能,是指在各方面都能和人类比肩的人工智能、人类能干的脑力活它都能干。创造强人工智能比弱人工智能要难的多。3、超人工智能:牛津哲学家,知名人工智能思想家NickBotrom把超级智能定义为ldquo在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能rdquo。文件目录文件目录1_直播课回放1_直播1:开班典礼1人工智能CVNLP高薪实战班.m42_Pycharm环境配置与Deug演示(没用过的同学必看)Pycharm环境配置与Deug演示(没用过的同学必看).m43_直播2:深度学习必备基础-神经网络与卷积网络1.深度学习必备基础-神经网络与卷积网络.m44_直播3:Traformer原理及其各领域应用分析Traformer原理及其各领域应用分析.m45_额外补充:时间序列预测额外补充:时间序列预测.m46_直播4:Iformer时间序列预测源码解读Iformer时间序列预测源码解读.m42_深度学习必备核心算法1_神经网络算法解读1-神经网络算法解读.m42_卷积神经网络算法解读2-卷积神经网络算法解读.m43_递归神经网络算法解读3-递归神经网络算法解读.m43_深度学习核心框架PyTorch1_PyTorch框架介绍与配置安装1-PyTorch框架与其他框架区别分析1.m4.m42-CPU与GPU版本安装方法解读1.m4.m42_使用神经网络进行分类任务1-数据集与任务概述2.m4.m42-基本模块应用测试2.m4.m43-网络结构定义方法2.m4.m44-数据源定义简介2.m4.m45-损失与训练模块分析2.m4.m46-训练一个基本的分类模型2.m4.m47-参数对结果的影响2.m4.m43_神经网络回归任务-气温预测神经网络回归任务-气温预测1.m4.m44_卷积网络参数解读分析1-输入特征通道分析2.m4.m42-卷积网络参数解读2.m4.m43-卷积网络模型训练2.m4.m45_图像识别模型与训练策略(重点)1-任务分析与图像数据基本处理2.m4.m42-数据增强模块2.m4.m43-数据集与模型选择1.m4.m44-迁移学习方法解读1.m4.m45-输出层与梯度设置1.m4.m46-输出类别个数修改1.m4.m47-优化器与学习率衰减1.m4.m48-模型训练方法1.m4.m49-重新训练全部模型1.m4.m410-测试结果演示分析1.m4.m46_DataLoader自定义数据集制作1-Dataloader要完成的任务分析1.m4.m42-图像数据与标签路径处理1.m4.m43-Dataloader中需要实现的方法分析1.m4.m44-实用Dataloader加载数据并训练模型1.m4.m47_LSTM文本分类实战1-数据集与任务目标分析1.m4.m42-文本数据处理基本流程分析1.m4.m43-命令行参数与DEBUG1.m4.m44-训练模型所需基本配置参数分析1.m4.m45-预料表与字符切分1.m4.m46-字符预处理转换ID1.m4.m47-LSTM网络结构基本定义1.m4.m48-网络模型预测结果输出1.m4.m49-模型训练任务与总结1.m4.m48_PyTorch框架Flak部署例子1-基本结构与训练好的模型加载.m4.m42-服务端处理与预测函数.m4.m43-基于Flak测试模型预测结果.m4.m44_MMLAB实战系列1_MMCV安装方法MMCV安装方法.m42_第一模块:分类任务基本操作1-准备MMCLS项目.m4MMCLS问题修正1.m42-基本参数配置解读.m43-各模块配置文件组成.m44-生成完整配置文件.m45-根据文件夹定义数据集.m46-构建自己的数据集.m47-训练自己的任务.m43_第一模块:训练结果测试与验证1-测试DEMO效果.m42-测试评估模型效果.m43-MMCLS中增加一个新的模块.m44-修改配置文件中的参数.m45-数据增强流程可视化展示.m46-Grad-Cam可视化方法.m47-可视化细节与效果分析.m48-MMCLS可视化模块应用.m49-模型分析脚本使用.m44_第一模块:模型源码DEBUG演示1-VIT任务概述.m42-数据增强模块概述分析.m43-PatchEmeddig层.m44-前向传播基本模块.m45-CLS与输出模块.m45_第二模块:使用分割模块训练自己的数据集1-项目配置基本介绍.m42-数据集标注与制作方法.m43-跟别预测类别数修改配置文件.m44-加载预训练模型开始训练.m45-预测DEMO演示.m46_第二模块:基于Uet进行各种策略修改1-配置文件解读.m42-编码层模块.m43-上采样与输出层.m44-辅助层的作用.m45-给Uet添加一个eck层.m46-如何修改参数适配网络结构.m47-将Uet特征提取模块替换成traformer.m48-VIT模块源码分析.m47_第二模块:分割任务CVPR最新Backoe设计及其应用1-注册自己的Backoe模块.m4.m42-配置文件指定.m4.m43-DEBUG解读Backoe设计.m4.m44-PatchEmeddig的作用与实现.m4.m45-卷积位置编码计算方法.m4.m46-近似Attetio模块实现.m4.m47-完成特征提取与融合模块.m4.m48-分割任务输出模块.m4.m49-全局特征的作用与实现.m4.m410-汇总多层级特征进行输出.m4.m48_第三模块:mmdet训练自己的数据任务1-数据集标注与标签获取.m4.m42-COCO数据标注格式.m4.m43-通过脚本生成COCO数据格式.m4.m44-配置文件数据增强策略分析.m4.m45-训练所需配置说明.m4.m46-模型训练与DEMO演示.m4.m47-模型测试与可视化分析模块.m4.m48-补充:评估指标.m4.m49_第三模块:DeformaleDetr物体检测源码分析1-特征提取与位置编码.m42-序列特征展开并叠加.m43-得到相对位置点编码.m44-准备Ecoder编码层所需全部输入.m45-编码层中的序列分析.m46-偏移量offet计算.m47-偏移量对齐操作.m48-Ecoder层完成特征对齐.m49-Decoder要完成的操作.m410-分类与回归输出模块.m411-预测输出结果与标签匹配模块.m410_第四模块:DBNET文字检测1-文字检测数据概述与配置文件.m4.m42-配置文件参数设置.m4.m43-Neck层特征组合.m4.m44-损失函数模块概述.m4.m45-损失计算方法.m4.m411_第四模块:ANINET文字识别1-数据集与环境概述.m4.m42-配置文件修改方法.m4.m43-Bakoe模块得到特征.m4.m44-视觉Traformer模块的作用.m4.m45-视觉模型中的编码与解码的效果.m4.m46-文本模型中的结构分析.m4.m47-迭代修正模块.m4.m48-输出层与损失计算.m4.m412_第四模块:KIE基于图模型的关键信息抽取1-配置文件以及要完成的任务解读.m4.m42-KIE数据集格式调整方法.m4.m43-配置文件与标签要进行处理操作.m4.m44-边框要计算的特征分析.m4.m45-标签数据处理与关系特征提取.m4.m46-特征合并处理.m4.m47-准备拼接边与点特征.m4.m48-整合得到图模型输入特征.m4.m412_第五模块:tylega2源码解读1-要完成的任务与基本思想概述.m4.m42-得到tyle特征编码.m4.m43-特征编码风格拼接.m4.m44-基础风格特征卷积模块.m4.m45-上采样得到输出结果.m4.m46-损失函数概述.m4.m413_第六模块:BaicVSR++视频超分辨重构源码解读1-要完成的任务分析与配置文件.m4.m42-特征基础提取模块.m43-光流估计网络模块.m44-基于光流完成对齐操作.m45-偏移量计算方法1.m4.m46-双向计算特征对齐.m47-提特征传递流程分析.m48-序列传播计算.m49-准备变形卷积模块的输入.m4.m410-传播流程整体完成一圈.m411-完成输出结果.m4.m414_第七模块:多模态3D目标检测算法源码解读1-环境配置与数据集概述.m42-数据与标注文件介绍.m43-基本流程梳理并进入deug模式.m44-数据与图像特征提取模块.m45-体素索引位置获取.m4.m46-体素特征提取方法解读.m47-体素特征计算方法分析.m48-全局体素特征提取.m49-多模态特征融合.m410-3D卷积特征融合.m411-输出层预测结果.m415_第八模块:模型蒸馏应用实例1-任务概述与工具使用.m42-Teacher与Studet网络结构定义.m43-训练T与S得到蒸馏模型.m44-开始模型训练过程与问题修正.m45-日志输出与模型分离.m46-分别得到Teacher与Studet模型.m47-实际测试效果演示.m416_第八模块:模型剪枝方法概述分析1-SuerNet网络结构分析与剪枝概述.m42-搜索匹配到符合计算量的模型并训练.m417_第九模块:mmactio行为识别创建自己的行为识别标注数据集.m418_额外补充在源码中加入各种注意力机制方法.m45_Oecv图像处理框架实战1_课程简介与环境配置0-课程简介2.m4.m42-Noteook与IDE环境.m4.m42-Pytho与Oecv配置安装.m4.m42_图像基本操作1-计算机眼中的图像.m4.m42-视频的读取与处理.m4.m43-ROI区域.m4.m44-边界填充.m4.m45-数值计算.m4.m43_阈值与平滑处理1-图像平滑处理.m4.m42-高斯与中值滤波.m4.m4图像阈值.m4.m44_图像形态学操作1-腐蚀操作.m4.m42-膨胀操作.m4.m43-开运算与闭运算.m4.m44-梯度计算.m4.m45-礼帽与黑帽.m4.m45_图像梯度计算1-Soel算子.m4.m42-梯度计算方法.m4.m43-charr与lakacia算子.m4.m46_边缘检测1-Cay边缘检测流程.m4.m42-非极大值抑制.m4.m43-边缘检测效果.m4.m47_图像金字塔与轮廓检测1-模板匹配方法.m4.m41-轮廓检测方法.m4.m41-图像金字塔定义.m4.m42-匹配效果展示.m4.m42-轮廓检测结果.m4.m42-金字塔制作方法.m4.m43-轮廓特征与近似.m4.m48_直方图与傅里叶变换1-直方图定义.m4.m41-傅里叶概述.m4.m42-频域变换结果.m4.m42-均衡化原理.m4.m43-均衡化效果.m4.m43-低通与高通滤波.m4.m49_项目实战-信用卡数字识别2-环境配置与预处理.m4.m43-模板处理方法.m4.m4总体流程与方法讲解.m4.m44-输入数据处理方法.m4.m45-模板匹配得出识别结果.m4.m410_项目实战-文档扫描OCR识别1-整体流程演示.m4.m42-文档轮廓提取.m4.m43-原始与变换坐标计算.m4.m44-透视变换结果.m4.m45-teeract-ocr安装配置.m4.m46-文档扫描识别效果.m4.m411_图像特征-harri1-角点检测基本原理.m4.m42-基本数学原理.m4.m43-求解化简.m4.m44-特征归属划分.m4.m45-oecv角点检测效果.m4.m412_图像特征-ift1-尺度空间定义.m4.m42-高斯差分金字塔.m4.m43-特征关键点定位.m4.m44-生成特征描述.m4.m45-特征向量生成.m4.m46-oecv中ift函数使用.m4.m413_案例实战-全景图像拼接1-特征匹配方法.m4.m42-图像拼接方法.m4.m42-RANSAC算法.m4.m44-流程解读.m4.m414_项目实战-停车场车位识别1-任务整体流程.m4.m42-所需数据介绍.m4.m43-图像数据预处理.m4.m44-车位直线检测.m4.m45-按列划分区域.m4.m46-车位区域划分.m4.m47-识别模型构建.m4.m48-基于视频的车位检测.m4.m415_项目实战-答题卡识别判卷1-整体流程与效果概述.m4.m42-预处理操作.m4.m43-填涂轮廓检测.m4.m44-选项判断识别.m4.m416_背景建模1-背景消除-帧差法.m4.m42-混合高斯模型.m4.m43-学习步骤.m4.m44-背景建模实战.m4.m417_光流估计1-基本概念.m4.m42-Luca-Kaade算法.m4.m43-推导求解.m4.m44-光流估计实战.m4.m418_Oecv的DNN模块1-d模块.m4.m42-模型加载结果输出.m4.m419_项目实战-目标追踪1-目标追踪概述.m4.m42-多目标追踪实战.m4.m43-深度学习检测框架加载.m4.m44-基于dli与d的追踪.m4.m45-多进程目标追踪.m4.m46-多进程效率提升对比.m4.m420_卷积原理与操作1-卷积效果演示.m4.m41-卷积神经网络的应用.m4.m42-卷积层解释.m4.m42-卷积操作流程.m4.m43-卷积计算过程.m4.m44-adig与tride.m4.m45-卷积参数共享.m4.m46-池化层原理.m4.m421_项目实战-疲劳检测1-关键点定位概述.m4.m42-获取人脸关键点.m4.m43-定位效果演示.m4.m44-闭眼检测.m4.m45-检测效果.m4.m46_综合项目-物体检测经典算法实战1_深度学习经典检测方法概述1-检测任务中阶段的意义.m4.m42-不同阶段算法优缺点分析.m4.m43-IOU指标计算.m4.m44-评估所需参数计算.m4.m45-ma指标计算.m4.m42_YOLO-V1整体思想与网络架构2-检测算法要得到的结果.m4.m43-整体网络架构解读.m4.m44-位置损失计算.m4.m4YOLO算法整体思路解读.m4.m45-置信度误差与优缺点分析.m4.m43_YOLO-V2改进细节详解V2版本细节升级概述.m4.m42-网络结构特点.m4.m43-架构细节解读.m4.m44-基于聚类来选择先验框尺寸.m4.m45-偏移量计算方法.m4.m46-坐标映射与还原.m4.m47-感受野的作用.m4.m48-特征融合改进.m4.m44_YOLO-V3核心网络模型1-V3版本改进概述.m4.m42-多cale方法改进与特征融合.m4.m43-经典变换方法对比分析.m4.m44-残差连接方法解读.m4.m45-整体网络模型架构分析.m4.m46-先验框设计改进.m4.m47-otfmax层改进.m4.m45_项目实战-基于V3版本进行源码解读1-数据与环境配置.m4.m42-训练参数设置.m4.m43-数据与标签读取.m4.m44-标签文件读取与处理.m4.m45-deug模式介绍.m4.m46-基于配置文件构建网络模型.m4.m47-路由层与hortcut层的作用.m4.m48-YOLO层定义解析.m4.m49-预测结果计算.m4.m410-网格偏移计算.m4.m411-模型要计算的损失概述.m4.m412-标签值格式修改.m4.m413-坐标相对位置计算.m4.m414-完成所有损失函数所需计算指标.m4.m415-模型训练与总结.m4.m416-预测效果展示.m4.m46_基于YOLO-V3训练自己的数据集与任务1-Laelme工具安装.m4.m42-数据信息标注.m4.m43-完成标签制作.m4.m44-生成模型所需配置文件.m4.m45-jo格式转换成yolo-v3所需输入.m4.m46-完成输入数据准备工作.m4.m47-训练代码与参数配置更改.m4.m48-训练模型并测试效果.m4.m47_YOLO-V4版本算法解读1-V4版本整体概述.m4.m42-V4版本贡献解读.m4.m43-数据增强策略分析.m4.m44-DroBlock与标签平滑方法.m4.m45-损失函数遇到的问题.m4.m46-CIOU损失函数定义.m4.m47-NMS细节改进.m4.m48-SPP与CSP网络结构.m4.m49-SAM注意力机制模块.m4.m410-PAN模块解读.m4.m411-激活函数与整体架构总结.m4.m48_V5版本项目配置1-整体项目概述.m4.m42-训练自己的数据集方法.m4.m43-训练数据参数配置.m4.m44-测试DEMO演示.m4.m49_V5项目工程源码解读1-数据源DEBUG流程解读.m4.m42-图像数据源配置.m4.m43-加载标签数据.m4.m44-Moaic数据增强方法.m4.m45-数据四合一方法与流程演示.m4.m46-getItem构建atch.m4.m47-网络架构图可视化工具安装.m4.m48-V5网络配置文件解读.m4.m49-Focu模块流程分析.m4.m410-完成配置文件解析任务.m4.m411-前向传播计算.m4.m412-BottleeckCSP层计算方法.m4.m413-Head层流程解读.m4.m413-1SPP层计算细节分析.m4.m414-上采样与拼接操作.m4.m415-输出结果分析.m4.m416-超参数解读.m4.m417-命令行参数介绍.m4.m418-训练流程解读.m4.m419-各种训练策略概述.m4.m420-模型迭代过程.m4.m410_EfficietNet网络第八课:EfficietNet网络模型.m4.m411_EfficietDet检测算法第十一章:EfficietDet检测算法.m4.m412_基于Traformer的detr目标检测算法1-DETR目标检测基本思想解读.m4.m42-整体网络架构分析.m4.m43-位置信息初始化query向量.m4.m44-注意力机制的作用方法.m4.m45-训练过程的策略.m4.m413_detr目标检测源码解读1-项目环境配置解读.m4.m42-数据处理与dataloader.m4.m43-位置编码作用分析.m4.m44-ackoe特征提取模块.m4.m45-mak与编码模块.m4.m46-编码层作用方法.m4.m47-Decoder层操作与计算.m4.m48-输出预测结果.m4.m49-损失函数与预测输出.m4.m47_图像分割实战1_图像分割及其损失函数概述1-语义分割与实例分割概述.m4.m42-分割任务中的目标函数定义.m4.m43-MIOU评估标准.m4.m42_卷积神经网络原理与参数解读1-卷积神经网络应用领域.m4.m42-卷积的作用.m4.m43-卷积特征值计算方法.m4.m44-得到特征图表示.m4.m45-步长与卷积核大小对结果的影响.m4.m46-边缘填充方法.m4.m47-特征图尺寸计算与参数共享.m4.m48-池化层的作用.m4.m49-1整体网络架构.m4.m410-VGG网络架构.m4.m411-残差网络Reet.m4.m412-感受野的作用.m4.m43_Uet系列算法讲解1-Uet网络编码与解码过程.m4.m42-网络计算流程.m4.m43-Uet升级版本改进.m4.m44-后续升级版本介绍.m4.m44_uet医学细胞分割实战1-医学细胞数据集介绍与参数配置.m4.m42-数据增强工具.m4.m43-Deug模式演示网络计算流程.m4.m44-特征融合方法演示.m4.m45-迭代完成整个模型计算任务.m4.m46-模型效果验证.m4.m45_U2NET显着性检测实战1-任务目标与网络整体介绍.m4.m42-显着性检测任务与目标概述.m4.m43-编码器模块解读.m4.m44-解码器输出结果.m4.m45-损失函数与应用效果.m4.m46_deela系列算法1-deela分割算法概述.m4.m42-空洞卷积的作用.m4.m43-感受野的意义.m4.m44-SPP层的作用.m4.m45-ASPP特征融合策略.m4.m46-deelaV3Plu版本网络架构.m4.m47_基于deelaV3+版本进行VOC分割实战1-PacalVoc数据集介绍.m4.m42-项目参数与数据集读取.m4.m43-网络前向传播流程.m4.m44-ASPP层特征融合.m4.m45-分割模型训练.m4.m48_医学心脏视频数据集分割建模实战1-数据集与任务概述.m4.m42-项目基本配置参数.m4.m43-任务流程解读.m4.m44-文献报告分析.m4.m45-补充:视频数据源特征处理方法概述.m4.m46-补充:R(2lu1)D处理方法分析.m4.m49_物体检测框架-MakRc项目介绍与配置0-开源项目数据集.m4.m40-Mak-Rc开源项目简介.m4.m40-参数配置.m4.m410_MakRc网络框架源码详解1-FPN层特征提取原理解读.m4.m42-FPN网络架构实现解读.m4.m43-生成框比例设置.m4.m44-基于不同尺度特征图生成所有框.m4.m45-RPN层的作用与实现解读.m4.m46-候选框过滤方法.m4.m47-Prooal层实现方法.m4.m48-DetectioTarget层的作用.m4.m49-正负样本选择与标签定义.m4.m410-RoiPoolig层的作用与目的.m4.m411-RorAlig操作的效果.m4.m412-整体框架回顾.m4.m411_基于MASK-RCNN框架训练自己的数据与任务1-Laelme工具安装.m4.m42-使用laelme进行数据与标签标注.m4.m43-完成训练数据准备工作.m4.m44-makrc源码修改方法.m4.m45-基于标注数据训练所需任务.m4.m46-测试与展示模块.m4.m48_行为识别实战1_lowfat算法知识点通俗解读1-lowfat核心思想解读.m4.m42-核心网络结构模块分析.m4.m43-数据采样曾的作用.m4.m44-模型网络结构设计.m4.m45-特征融合模块与总结分析.m4.m42_lowfat项目环境配置与配置文件1-环境基本配置解读.m4.m42-目录各文件分析.m4.m43-配置文件作用解读.m4.m44-测试DEMO演示1.m4.m45-训练所需标签文件说明.m4.m46-训练所需视频数据准备.m4.m47-视频数据集切分操作.m4.m48-完成视频分帧操作.m4.m43_lowfat源码详细解读1-模型所需配置文件参数读取1.m4.m42-数据处理概述1.m4.m43-dataloader数据遍历方法1.m4.m44-数据与标签读取实例1.m4.m45-图像数据所需预处理方法1.m4.m46-low与fat分别执行采样操作1.m4.m47-分别计算特征图输出结果1.m4.m48-low与fat特征图拼接操作1.m4.m49-reetBolock操作1.m4.m410-RoiAlig与输出层1.m4.m44_基于3D卷积的视频分析与动作识别1-3D卷积原理解读.m4.m42-UCF101动作识别数据集简介.m4.m43-测试效果与项目配置.m4.m44-视频数据预处理方法.m4.m45-数据Batch制作方法.m4.m46-3D卷积网络所涉及模块.m4.m47-训练网络模型.m4.m45_视频异常检测算法与元学习1-异常检测要解决的问题与数据集介绍.m4.m42-基本思想与流程分析.m4.m43-预测与常见问题.m4.m44-Meta-Lear要解决的问题.m4.m45-学习能力与参数定义.m4.m46-如何找到合适的初始化参数.m4.m47-MAML算法流程解读.m4.m46_视频异常检测CVPR2021论文及其源码解读1-论文概述与环境配置.m4.m42-数据集配置与读取.m4.m43-模型编码与解码结构.m4.m44-注意力机制模块打造.m4.m45-损失函数的目的.m4.m46-特征图生成.m4.m47-MetaLear与输出.m4.m47_基础补充-Reet模型及其应用实例1-医学疾病数据集介绍.m4.m42-Reet网络架构原理分析.m4.m43-dataloader加载数据集.m4.m44-Reet网络前向传播.m4.m45-残差网络的hortcut操作.m4.m46-特征图升维与降采样操作.m4.m47-网络整体流程与训练演示.m4.m49_2022论文必备-Traformer实战系列1_课程介绍课程介绍1.m4.m42_自然语言处理通用框架BERT原理解读1-BERT任务目标概述.m4.m42-传统解决方案遇到的问题1.m4.m43-注意力机制的作用1.m4.m44-elf-attetio计算方法1.m4.m45-特征分配与oftmax机制1.m4.m46-Multi-head的作用1.m4.m47-位置编码与多层堆叠1.m4.m48-traformer整体架构梳理.m4.m49-BERT模型训练方法.m4.m410-训练实例.m4.m43_Traformer在视觉中的应用VIT算法1-traformer发家史介绍1.m4.m42-对图像数据构建atch序列1.m4.m43-VIT整体架构解读1.m4.m44-CNN遇到的问题与窘境1.m4.m45-计算公式解读1.m4.m46-位置编码与TNT模型1.m4.m47-TNT模型细节分析1.m4.m44_VIT算法模型源码解读1-项目配置说明1.m4.m42-输入序列构建方法解读1.m4.m43-注意力机制计算1.m4.m44-输出层计算结果1.m4.m45_witraformer算法原理解析1-witraformer整体概述1.m4.m42-要解决的问题及其优势分析1.m4.m43-一个lock要完成的任务1.m4.m44-获取各窗口输入特征1.m4.m45-基于窗口的注意力机制解读1.m4.m46-窗口偏移操作的实现1.m4.m47-偏移细节分析及其计算量概述1.m4.m48-整体网络架构整合1.m4.m49-下采样操作实现方法1.m4.m410-分层计算方法1.m4.m46_witraformer源码解读1-数据与环境配置解读1.m4.m42-图像数据atch编码1.m4.m43-数据按widow进行划分计算1.m4.m44-基础attetio计算模块1.m4.m45-窗口位移模块细节分析1.m4.m46-atchmerge下采样操作1.m4.m47-各lock计算方法解读1.m4.m48-输出层概述1.m4.m47_基于Traformer的detr目标检测算法1-DETR目标检测基本思想解读1.m4.m42-整体网络架构分析1.m4.m43-位置信息初始化query向量1.m4.m44-注意力机制的作用方法1.m4.m45-训练过程的策略1.m4.m48_detr目标检测源码解读1-项目环境配置解读2.m4.m42-数据处理与dataloader2.m4.m43-位置编码作用分析2.m4.m44-ackoe特征提取模块1.m4.m45-mak与编码模块1.m4.m46-编码层作用方法1.m4.m47-Decoder层操作与计算1.m4.m48-输出预测结果1.m4.m49-损失函数与预测输出1.m4.m49_MedicalTraformer论文解读1-论文整体分析.m4.m42-核心思想分析.m4.m43-网络结构计算流程概述.m4.m44-论文公式计算分析.m4.m45-位置编码的作用与效果.m4.m46-拓展应用分析.m4.m410_MedicalTraformer源码解读1-项目环境配置1.m4.m42-医学数据介绍与分析1.m4.m43-基本处理操作1.m4.m44-AxialAttetio实现过程1.m4.m45-位置编码向量解读1.m4.m46-注意力计算过程与方法1.m4.m47-局部特征提取与计算1.m4.m411_商汤LoFTR算法解读1-特征匹配的应用场景.m4.m42-特征匹配的基本流程分析.m4.m43-整体流程梳理分析.m4.m44-CroAttetio的作用与效果.m4.m45-traformer构建匹配特征.m4.m46-粗粒度匹配过程与作用.m4.m47-特征图拆解操作.m4.m48-细粒度匹配的作用与方法.m4.m49-基于期望预测最终位置.m4.m410-总结分析.m4.m412_局部特征关键点匹配实战1-项目与参数配置解读1.m4.m42-DEMO效果演示1.m4.m43-ackoe特征提取模块1.m4.m44-注意力机制的作用与效果分析1.m4.m45-特征融合模块实现方法1.m4.m46-cro关系计算方法实例1.m4.m47-粗粒度匹配过程1.m4.m48-完成基础匹配模块1.m4.m49-精细化调整方法与实例1.m4.m410-得到精细化输出结果1.m4.m411-通过期望计算最终输出1.m4.m413_项目补充-谷歌开源项目BERT源码解读与应用实例tfrecord制作1.m4.m41-BERT开源项目简介1.m4.m42-项目参数配置1.m4.m43-数据读取模块1.m4.m44-数据预处理模块1.m4.m46-Emeddig层的作用1.m4.m47-加入额外编码特征1.m4.m48-加入位置编码特征1.m4.m49-mak机制1.m4.m410-构建QKV矩阵1.m4.m411-完成Traformer模块构建1.m4.m412-训练BERT模型1.m4.m414_项目补充-基于BERT的中文情感分析实战1-中文分类数据与任务概述1.m4.m42-读取处理自己的数据集1.m4.m43-训练BERT中文分类模型1.m4.m410_图神经网络实战1_图神经网络基础1-图神经网络应用领域分析.m4.m42-图基本模块定义.m4.m43-邻接矩阵的定义.m4.m44-GNN中常见任务.m4.m45-消息传递计算方法.m4.m46-多层GCN的作用.m4.m42_图卷积GCN模型1-GCN基本模型概述.m4.m42-图卷积的基本计算方法.m4.m43-邻接的矩阵的变换.m4.m44-GCN变换原理解读.m4.m43_图模型必备神器PyTorchGeometric安装与使用1-PyTorchGeometric工具包安装与配置方法.m4.m42-数据集与邻接矩阵格式.m4.m43-模型定义与训练方法.m4.m44-文献引用数据集分类案例实战.m4.m44_使用PyTorchGeometric构建自己的图数据集1-构建数据集基本方法.m4.m42-数据集与任务背景概述.m4.m43-数据集基本预处理.m4.m44-用户行为图结构创建.m4.m45-数据集创建函数介绍.m4.m46-网络结构定义模块.m4.m47-TokPoolig进行下采样任务.m4.m48-获取全局特征.m4.m49-模型训练与总结.m4.m45_图注意力机制与序列图模型1-图注意力机制的作用与方法.m4.m42-邻接矩阵计算图Attetio.m4.m43-序列图神经网络TGCN应用.m4.m44-序列图神经网络细节.m4.m46_图相似度论文解读1-要完成的任务分析.m4.m42-基本方法概述解读.m4.m43-图模型提取全局与局部特征.m4.m44-NTN模块的作用与效果.m4.m45-点之间的对应关系计算.m4.m46-结果输出与总结.m4.m47_图相似度计算实战1-数据集与任务概述3.m4.m42-图卷积特征提取模块3.m4.m43-分别计算不同Batch点的分布3.m4.m44-获得直方图特征结果.m4.m45-图的全局特征构建.m4.m46-NTN图相似特征提取.m4.m47-预测得到相似度结果.m4.m48_基于图模型的轨迹估计1-数据集与标注信息解读.m4.m42-整体三大模块分析.m4.m43-特征工程的作用与效果.m4.m44-传统方法与现在向量空间对比.m4.m45-输入细节分析.m4.m46-子图模块构建方法.m4.m47-特征融合模块分析.m4.m48-VectorNet输出层分析.m4.m49_图模型轨迹估计实战1-数据与环境配置4.m4.m42-训练数据准备4.m4.m43-Aget特征提取方法4.m4.m44-DataLoader构建图结构4.m4.m45-SuGrah与Attetio模型流程4.m4.m4...

    2022-11-25 模块配置文件 模块 配置文件是什么

  • 商业视觉设计实战班,系统提升你的商业设计能力价值5980元,百度网盘,阿里云盘下载

  • 9527 飞乐鸟手绘表达课:用视觉思维练就审美、提升效率

    资源介绍:资源大小:1.60GB简单的视觉思维手绘的图片可以直观清晰的呈现你想要表达的内容,让你随时随地整理思绪,灵感触手可及。这个颠覆传统学习模式的手绘表情课,让你练美,提高效率,同时拥有一技之长!在本视频课程中,您将获得一次就能学会的手绘技巧不同的表达方式放松和解压的工具清晰的思维逻辑五分钟就能学会构图和配色打造高级外观的技巧设计即用的小白美学小窍门教学大纲1、对称法则——画出INS之外的绿色小植物.m42、几何联想——家里的小东西都有奥秘.m43、组合作文-时尚小物展厅.m44、艺术品-定制您的私人早餐.m45、遮挡与重叠——静物结合训练方法.m46、空间原理——立体表现.m47、色彩语言——四季配色方法.m48、美术课——云中小屋的三维空间.m49。平面渐变-带有纹理颜色的绘画.m410。创意装饰——魅力瞬间.m411.情节设计——让画面更有趣的四个步骤.m412.美术课——画出你的精彩旅行.m413.情感表达——绘制情感表情包.m414、展示自己——画自己的微信头像.m415、表达你的心-温暖的手绘字体.m416、美术课-为有爱的TA画一张专属卡片.m417.和抑郁说再见——给无聊的东西赋予生命.m418.治愈-治愈心情-画Q版可爱宠物.m419.似颜画——以漫画手法展现人物性格.m420。美术课-新年全家福.m421、释放压力-用模式表达你的意识。m422、美术课-舒缓缠绕绘画.m423.满足意图的象形图-处理复杂信息的小图形.m424.美术课-手绘流程图:让对方秒懂的秘诀.m425、思想可视化——提升沟通效率.m426、美术课——让你脱颖而出的简历.m427、高效人才-视觉时间管理.m428、逆向思维法——用图表阐明思想.m429。手绘录音方法——实现高效阅读.m430。工作课——每个人都需要的学习计划.m4手绘...

    2023-02-09 播放治愈说

  • 9527 极客时间高伟《视觉笔记入门课》

    课程介绍课程来自极客时间《视觉笔记入门》[完]你会得到初学者注意绘图技巧每个人都可以学习的内容摘要常用笔记方法及具体步骤两个实用案例带你手把手记笔记课程介绍视觉笔记是一种普通人可以快速掌握的优质内容表达方式。它可以解决我们工作和生活中的许多问题。例如:想着全文看腻了,别人却不喜欢;书籍瞬间被遗忘,无法理解逻辑,无法清晰解释内容;会议冗长乏味,报告无人听,沟通不重要;…视觉笔记迎合人的视觉感官,是一种由图案和文字组成的整体笔记。它利用人脑快速理解图像的能力,将内容以视觉形式直接传递给他人,让你的内容“深入人心”。在《视觉笔记入门》中,高伟老师将通过他多年的视觉工作经验总结视觉笔记的绘制技巧,教你“几何化事物”的技巧,帮助你建立视觉笔记的绘制基础笔记。课程主体分为“技能”和“实践”两个模块。内容技巧会一一讲解如何画出视觉笔记中的基本要素,包括基础、字符、容器、图标、链接、字体、颜色、构图等。进入练习章节时,您可以掌握绘制视觉笔记的基本技巧。里面的内容实践篇将带你穿越“书籍视觉笔记”和“见面视觉笔记”两个实践,将技能篇的内容串联起来,真正将所学的视觉元素融为一体。以逻辑、结构化和层次化的方式呈现。课程的具体内容会以文字、图片和短视频为主。文字会详细解释和解释原因,图片会说明和呈现步骤,短视频让你看到真实的绘画过程。教学大纲|├──01基础知识:仅用点、线、面就能做视觉笔记.m37.38M|├──01基础:点、线、面的视觉注释.df7.11M|├──02人物:如何画出引人注目的主角?.m310.83M|├──02人物:如何画出引人注目的主角?.df8.18M|├──03动态容器:如何生动地记录对话?.m38.18M|├──03动态容器:如何生动地记录对话?.df6.08M|├──04静态容器:办公用品如何表达你的内容?.m37.07M|├──04静态容器:办公用品如何表达你的内容?.df3.72M|├──05图标(上):把现实放在你的笔记里.m36.74M|├──05图标(上):把现实放在你的笔记中.df7.08M|├──06图标(下):一切都可以可视化.m314.21M|├──06图标(下):一切都可以可视化.df7.61M|├──07链接:如何连接旅行故事?.m310.83M|├──07链接:如何连接旅行故事?.df9.44M|├──08字体:如何用文字表达信息的情感?.m39.98M|├──08字体:如何用文字表达信息的情感?.df9.01M|├──09颜色:如何让你的视觉笔记“温暖”?.m310.93M|├──09颜色:如何让你的视觉笔记“温暖”?.df10.83M|├──10抽象逻辑构图:如何根据内容关系确定构图?.m36.30M|├──10抽象逻辑构图:如何根据内容关系确定构图?.df6.07M|├──11具象与逻辑构图:如何通过视觉场景构图?.m35.96M|├──11具象与逻辑构图:如何通过视觉场景构图?.df4.07M|├──问答笔记可能没有告诉你的。m37.55M|├──问答可能不会告诉你什么.df6.69M|├──QamA.df7.04M|├──Itroductio.m35.20M|└──Itroductio.df17.59M极客时间...

    2023-02-09 极客时间 破解 极客时间app

  • 9527 极客时间《基于人因的用户体验设计课》用视觉语言做超酷的笔记

    课程介绍GeekTime《基于人因的用户体验设计课程》用视觉语言做酷笔记教学大纲|├──01什么是用户体验设计?.m317.02M|├──01什么是用户体验设计?.df4.94M|├──02如何为用户设计?.df4.02M|├──02如何为用户设计?.m312.84M|├──03重拾感受:眼见为实.m320.31M|├──03重拾感觉:眼见为实.df5.83M|├──04重新发现视觉(上):颜色有重量吗?.m318.53M|├──04重新发现视觉(上):颜色有重量吗?.df4.44M|├──05重新发现视觉(中):构图的力量.m313.60M|├──05重新发现视觉(中):构图的力量.df3.88M|├──06重新认识视觉(下):为什么空窗价格更贵?.df6.17M|├──06重新认识视觉(下):为什么越空窗越贵?.m316.28M|├──07重新思考听力:你的自然声音够自然吗?.m315.98M|├──07重新思考听力:你的自然声音够自然吗?.df4.77M|├──08重新思考触控:苹果为何放弃3DTouch?.m318.74M|├──08重新思考触控:苹果为何放弃3DTouch?.df5.39M|├──09视听触觉的协同作用:从人类感知世界的时间延迟看协同作用3.df1.44M|├──09视听触觉的协同作用:从人的感知认识协同作用到世​​界的时间延迟.m312.52M|├──09视听触觉的协同作用:从人类感知世界的时间延迟看协同作用1.df1.04M|├──09视听协同:从人类感知世界的时间延迟理解协同2.df1.88M|├──10重温记忆力和注意力:你的记忆力比你想象的还要糟糕.m316.27Mltrgt|├──10重新思考记忆力和注意力:你的记忆力比你想象的要糟糕.df4.43M|├──11重新发现情感:为快乐而设计.df4.47M|├──11重新发现情感:为快乐而设计.m313.41M|├──12理解心流:如何获得专注的沉浸式体验?.df3.38M|├──12理解心流:如何获得专注的沉浸式体验?.m312.50M|├──13认识人类的思维缺陷:非理性的我们.df3.26M|├──13认识人类的思维缺陷:非理性的我们.m319.22M|├──14理解触屏交互:触屏的大维度.m314.19M|├──14理解触摸屏交互:触摸屏的大维度.df4.43M|├──15理解语音交互:手机与你聊天的正确姿势.m317.54M|├──15理解语音交互:手机与你聊天的正确姿势.df4.18M|├──16隐私和个性化:别对我说谎.m316.51M|├──16隐私和个性化:别对我说谎.df4.46M|├──17人的社会属性:购物节背后的奥秘.df6.65M|├──17|人的社会属性:购物节背后的奥秘.m320.22M|├──18本地与全球:你的偏好是他的禁忌.df5.61M|├──18本地和全球:你的偏好是他的禁忌.m315.45M|├──简介为什么要学人因?.m312.35M|└──简介为什么要研究人为因素?.df4.40M极客时间...

    2023-02-09 用户体验设计案例 用户体验设计师是干嘛

  • 9527 2021年蓝枫平面游戏视觉PS教程(视频+素材+作业)

    课程介绍课程来自BlueMaleGrahicGameViio2021PS教程【高清画质带素材】兰峰:我很早就接触到设计了。当时还是网页游戏的鼎盛时期。那时智能手机还不普及,所以没有像今天这样的手游。我大学是学旅游的,所以大家都叫我蓝主任哈哈,但是大三的时候觉得对这个没兴趣,所以打算网上申请一个设计课程,学习一下。后来机缘巧合走上了这条路,能走走设计这条路其实是个错误。教学大纲作业和材料总结作业和材料的总结.7z课程视频家庭作业评论.m4在cla.m4之前移动第1课:游戏场景创建.m4第2课:游戏角色处理.m4第三课:字体与纹理设计.m4第4课游戏页面排版.m4第5课MOBA主题(第1部分).m4第6课MOBA专题(下).m4第7课:二维专题实践与审美提升的讲解(一).m4第8课:视觉理论(一)第二部分.m4第八课:视觉理论(一)o.m4第9课视觉理论(2)第二部分.m4视觉理论第九课(二)o.m4第10课视觉理论(3).m4第11课FPS游戏海报视觉效果(第1部分).m4第12课FPS游戏海报视觉效果(第2部分).m4常用字体常用字体.7z视觉参考.lirary.rar游戏设计...

    2023-02-09 游戏海报 视觉设计 游戏海报 视觉效果图

  • 和好莱坞动画大师杨伟珊一起学视觉语言

    课程介绍好莱坞动画大师学习视觉语言课程讲师介绍杨维山老师(中国台湾)是一名在动漫影视行业拥有超过16年经验的导演。她是HuhuStudio的前创意总监。也是第一部中新合拍动画电影《象鼻传》的创意制作人;YouTue热门网剧《彩虹独角兽》RAINBOCORNS导演;知名导演、插画师;纪录片《天使之国》讲述了在泰国难民营中坚韧不拔的灵魂获得了台湾金穗奖(金马奖除外,台湾最长电影奖)。教学大纲1-尝试课程!期待!.m42-如何学好视觉语言?你需要了解的7个元素和结构!.m43-如何学好视觉语言?如何设计深度空间和平面空间?.m44-如何学好视觉语言?如何设计有限空间、封闭空间、开放空间和屏幕分割?.m45-影视线条设计的重要性!识别线条、线条属性和线条特征.m46-造型设计对视觉语言的重要性!识别形状,形状类比,控制形状的角度来分析.m47-亮度也很重要!明度函数,控制明度,明度匹配与不匹配,明度对比。m48-正确感知颜色的功能!颜色:色相VS色值VS饱和度.m4lt/gt9-视觉运动设计(一):物体运动分析.m410-视觉运动设计:摄影计算机运动原理及视点运动要素.m411-视觉也讲究节奏?节奏:节奏变化,节奏,作曲,运动.m412-情节结构与视觉语言(一):故事结构与视觉分析.m413-情节结构与视觉语言(二):用视频案例总结回顾视觉语言的7个要素.m4...

    2023-02-09

  • 周少龙2022年平面新视觉商业视觉大师班(带素材)

    课程介绍课程出自周少龙2022图文新视野商业视野大师班(附教材)文件目录课程资料材料.zi00.OeCamLive.m4第01课个人审美发展.m4第02课第02课战略简介、设计要求、创意可视化.m4策略简介、设计要求、创意可视化.m4下的第02课第02课战略简介、设计要求、创意可视化.m4直播评论,大作业的第二次深度解说.zi第03课有趣的图形构图.m4第四课第04课:矢量iert.m4的个人风格探索与开发第04课.m4矢量插入的个人风格探索与发展第04课矢量iert的个人风格探索与开发.m4结业典礼暨表彰大会.m4Leo05TextHierarchyArragemet.m4第06课第6课图形排版.m4第06课图形字体设计.m4第07课多文字、多图布局设计.m408课活动海报主视觉布局设计.m4第08课:活动海报主视觉布局设计.m4第09课新消费品牌的视觉分析与设计逻辑.m4第10课第10课.m4系列海报的设计逻辑海报系列设计逻辑第10课.m4第10课:系列海报的设计逻辑.m4第11课:社会福利、文化和实验海报的多角度分析.m4第12课第12课视觉图像系统规范.m4第12课视觉识别系统规范.m4第13课第13课扩展设计.m4第13课扩展设计o.m4第14课工作包.m4...

    2022-10-29 矢量插画大师 矢量魔法师

  • 《全天候机器人视觉》田建东著|(epub+azw3+mobi+pdf)电子书下载

    图书名称:《全天候机器人视觉》【作者】田建东著【丛书名】智能制造与机器人理论及技术研究丛书【页数】259【出版社】武汉:华中科技大学出版社,2020.07【ISBN号】978-7-5680-6131-5【分类】机器人视觉【参考文献】田建东著.全天候机器人视觉.武汉:华中科技大学出版社,2020.07.图书封面:图书目录:《全天候机器人视觉》内容提要:本书依托国家自然科学基金“共融机器人基础理论与关键技术研究”重大研究计划培育项目-面向室外复杂光照与气象条件的共融机器人多模感知系统撰写而成。复杂多变的光照环境与气象条件给机器人的自主作业及主动安全带来了诸多问题,降低了其算法的鲁棒性及环境自适应性。寻求该问题的有效解决方案一直是机器人视觉及相关学科的重要研究方向。不同于目前单纯基于图像数据处理的研究方式,我们从大气物理与光学成像的角度去研究和解决问题,形成了研究特色及理论体系,取得了一系列原创性成果。本书将以这些理论成果为基础,详细系统地论述复杂光照与恶劣环境下机器人视觉系统的环境感知、建模及图像预处理技术。这些技术将图像与环境相关联,为研究机器人环境智能感知提供了理论基础,对于提高机器人的自主环境感知能力研究具有积极的科学意义。《全天候机器人视觉》内容试读滋第1章绪论1.1机器人视觉简述机器人视觉系统指为机器人提供视觉感知的系统,它广泛应用于海陆空天各种机器人,如图1-1所示。机器人视觉系统通常以相机为工具,以图像为媒介,兼备视觉信息输入和对输入的视觉信息进行处理的功能,能够提取出有用的信息提供给机器人,使之实现定位导航、路径规划、避障、理解环境与检测目标等功能,进而具有自主适应环境和作业的能力。就像眼睛对于人的意义一样,机器人视觉系统在机器人系统组成中占有非常重要的地位。图1-1机器人视觉系统应用领域示例·1全天候机器人视觉机器人视觉技术经过几十年的发展已经取得了卓越的成果,但其所面临的问题也是不容忽视的,其中一个重要的问题就是如何在复杂的光照和气象条件下提高机器人视觉系统的稳定性及可靠性在室外复杂的自然光照与气象条件下,图像质量不稳定。光照和天气的变化将改变图像的像素值分布,影响机器人视觉算法的根基,进而影响机器人的一些基本能力,如VSLAM(视觉即时定位与地图构建)、自主导航、环境理解及作业能力。机器人视觉系统往往不能人工控制光照环境,通过好的照明条件获取清晰的图像,并克服阴影和反光等问题,而需要面对动态非结构化的自然环境,面对各种复杂的自然光照和天气状况。这些也是本书主要关注的内容。1.2复杂光照及恶劣天气对机器人视觉的影响光是地球上万物生长之源,光的存在给人类带来了丰富多彩的世界和五彩斑斓的图像。不同天气不同时刻下光照将会呈现不同颜色,如光在晴天中午的时候接近白色,而在日出或者日落的时候呈现金黄色。这些光源或光照的变化给人类世界带来了形态各异的图像,如图1-2所示。一些光照现象,如阴影和高光等,也是由不同的光照条件或光源所引起的。这些复杂的光照变化会极大影响场景中物体的外观,给计算机视觉的研究与应用带来许多负面影响。以人脸为例,Adii等人(1997)曾用实验证明,不同光照下同一人脸的差异有时比同一光照下不同人脸的差异还大。图1-3所示为同一场景在不同光照和气象条件下的拍摄图像示例。可以看出,同一场景在不同光照和气象条件下的拍摄图像差异也非常大。图1-2不同光照下拍摄的一系列图像·2第1章绪论图1-3同一场景在不同光照和气象条件下的拍摄图像示例光照和天气变化会影响图像质量,改变图像的像素值,进而影响后续的特征提取、目标分割与识别、场景理解等算法的鲁棒性和环境自适应能力,将会极大影响基于图像特征的目标识别、跟踪等算法的鲁棒性(Cucchiaraetal.,2003Nadimietal..,2004)。目前,虽然图像处理和机器人视觉的研究在面向具体任务(如识别和导航等)的上层算法方面取得了长足进步,但是在光照、天气变化等条件下及特殊环境下的作业问题仍然没有得到很好的解决。比如,在目标表面存在阴影、反光,光照变化及恶劣天气等条件下,现有的方法仍缺乏鲁棒性和自适应性。目前,尚没有一种通用的视觉算法能够适用于所有场景光照条件,这使得视觉任务的可靠性难以满足复杂多变的光照变化。因此,不同光照和天气条件下的图像变化的建模与处理仍是计算机视觉领域亟需解决的关键问题。该问题的解决将会促进计算机视觉和相关学科的发展,使之具有广阔的应用前景。根据作用范围的不同,图像上的光照变化可以分为全局光照变化和局部光照变化。全局光照变化处理方法主要包括颜色恒常和本征图像分解。局部光照变化的处理对象主要是阴影和反光。在实际应用中,尤其是室外环境作业中,因场景中光照稳定(如室外日光),故图像中较少出现偏色等现象。与全局光照变化相比,现实应用中更为常见和棘手的是图像上的局部光照变化(如阴影和反光等)。这就有必要对室外光源(日光和天空光)进行建模与计算,以分析它们的光谱分布特性。除了光源变化,图像中的光照现象还与反射光谱及相机响应特性有关。本书对光照处理的研究从室外光照建模、反射光谱计算和相机响应特性三个方面入手,提出了新的室外光源光谱计算方法及图像光照处理·3·全天候机器人视觉算法。对于机器人视觉系统,人们还要求其在坏天气下也能正常工作。坏天气一般分为两类:静态坏天气(雾霾天气)和动态坏天气(雨雪天气)。静态坏天气通常由飘浮于空中的小颗粒造成,它们主要会降低图像的清晰度,如图1-4()所示。动态坏天气下图像清晰度的降低通常由运动的大颗粒造成,它们使图像部分被遮挡,如图1-4()所示。所以静态坏天气条件下图像的复原工作主要是提高图像的清晰度,而动态坏天气条件下图像的复原工作主要是补全被颗粒遮挡的部分。(a)()图1-4坏天气降低了图像质量(a)雾霾天气:()雨雪天气室外场景图像的分析与处理一直是机器人视觉及其相关领域(如图像分割、特征提取、目标识别、目标跟踪、场景理解等领域)的研究重点之一。图像是视觉算法的基础,图像的颜色和亮度等像素信息,以及在此基础上衍生的各种图像特征(如角点、边缘、梯度、纹理等)是机器人视觉领域处理问题的根本。光照和天气的变化将改变图像的像素值分布(见图1-5()和1-5(c)对比),从而影响机器人视觉算法的根基。因此,如何提高复杂光照和恶劣天气下的机器人视觉能力是一个亟待解决的科学问题,也是实际应用中的一个瓶颈问题,许多视觉算法都要涉及对光照和天气的分析与处理。对此,学术界和工业界已有共识,如著名机器人专家HerikI.Chritee教授及其团队20l5年发表在机器人领域著名刊物IEEERooticadAutomatioMagazie上的关于机器人视觉的评述性文章Whereareweafterfiveeditio?:RootViioChallege,aCometitiothatEvaluatefortheViualPlaceClaificatioProlem多次强调,光照和天气条件是机器人视觉中的挑战性问题。近年来,随着深度学习技术的飞速发展,视觉中面向具体任务(如视觉伺4第1章绪论服、目标识别、跟踪、图像理解等)的研究已经取得了显著进展。然而,需要注意的是这些视觉算法都是针对质量好、光照条件稳定的图像(见图1-5(c)开发的。实际上,机器人经常需要工作在复杂、动态、非结构化的环境中,在室外复杂的自然光照与气象条件下,图像质量不稳定(见图1-5())。在这种情况下,机器人视觉系统的表现往往难以尽如人意,缺乏对环境的自适应能力及鲁棒性。因此针对该问题的图像预处理(如图1-5()经预处理得到图1-5(c)对机器人视觉具有重要意义。M-H(a环境(c)图像处理(得到光照均匀、能见度高的理想图像)()图1-5机器人视觉系统对复杂图像的处理()机器人:()复杂光照与恶劣天气下的场景图像;(c)理想的机器人视觉输入图像笔者认为,光照及气象条件作为一种自然条件,其成因和特性与光源、反射、传输、成像等物理因素有关。如果仅从图像数据的角度去考虑问题,则不易抓住问题的本质,因此本书从大气物理与光学成像的角度去研究和解决机器人视觉中的光照和气象问题。本书中的主要模型与算法均建立在物理光学理论基础之上,有着明确的物理解释,并且图像特征也将具有物理意义,这是本书的主要特色。·5全天候机器人视觉1.3颜色匹配函数与场景复现基础本书从大气物理与光学成像的角度分析复杂光照和天气变化如何影响图像,并在此基础上开发相应的图像处理算法,这些算法涉及场景复现计算和成像要素分析。本节首先对颜色匹配函数和场景复现的基本原理进行简要说明。颜色是人脑对进入人眼的光线形成的知觉,它不是物理量,涉及视觉生理学与视觉心理学,较为复杂。为了能够对颜色进行度量与计算,科研人员做了大量的工作。在颜色科学中,最为著名的是格拉斯曼(Grama)颜色相加定律与国际照明委员会(CommiioIteratioaledel'Eclairage,CIE)颜色匹配实验。它们为近代颜色科学提供了理论基础,奠定了以三刺激值为基础的颜色科学体系。格拉斯曼颜色相加定律可表述为:若(A)=(B)及(A)=(B),那么(A)十(A1)=(B)十(B,)。其中“=”表示视觉效果相等。颜色匹配实验是利用三原色光的混合达到与被匹配光的颜色视觉感知相同的实验。如图1-6所示,最左面是一块白色屏幕,红、绿、蓝三原色光(波长分别为700m、546.1m、435.8m)照射在白色屏幕的上半部分,待匹配色光源照射在白色屏幕的下半部分,人眼视场角约为2°。若用(R)、(G)、(B)代表产生混合色光的红、绿、蓝三原色光的单位量,R、G、B代表匹配出待匹配色光所需要的红、绿、蓝三原色光的单位数(又称为三刺激值),当混合色光与C个单位的待匹配色光(C)颜色感知相同时,则有下式成立:C(C)=R(R)+G(G)+B(B)(1-1)颜色匹配实验的结果就是得到颜色匹配函数(colormatchigfuctio,CMF),如图1-7所示,图中“1931”表示对应的颜色空间建立于1931年。颜色匹配函数代表匹配出水平刻度标示的波长的单色光的颜色所需要的三原色光单位数。匹配函数出现负值表示在被匹配颜色色度饱和的情况下,用三原色无法实现匹配,需要在被匹配颜色处加色。需要指出的是,颜色匹配实验和颜色匹配函数依赖于三原色的选取。三原色的选取原则除了每种原色不能由其他两种原色混合产生之外并无其他。原色的不同会造成匹配函数的不同,进而产生不同的颜色系统。仅RGB颜色系统就有多种,比如CIERGB、AdoeRGB、RGB、AleRGB等。·6····试读结束···...

    2022-10-21

  • 《工业机器人视觉应用》邓奕主编|(epub+azw3+mobi+pdf)电子书下载

    图书名称:《工业机器人视觉应用》【作者】邓奕主编【丛书名】普通高等学校新工科校企共建智能制造相关专业系列教材【页数】202【出版社】武汉:华中科学技术大学出版社,2020.10【ISBN号】978-7-5680-6692-1【价格】39.00【分类】工业机器人-机器人视觉【参考文献】邓奕主编.工业机器人视觉应用.武汉:华中科学技术大学出版社,2020.10.图书封面:图书目录:《工业机器人视觉应用》内容提要:本书在讲述图像处理技术的基本原理和方法的基础上,全面、系统地介绍了HALCON软件在图像处理技术方面的应用,以HALCON作为编程工具,介绍了各种图像处理方法的理论和应用实例,使读者能更好地学习和掌握数字图像处理的HALCON程序实现方法。全书分为10章,内容包括:视觉硬件系统介绍、HALCON介绍、HALCON的开发环境、图像处理基础及HALCON入门基础、HALCON图像处理实例、HALCON模板匹配实例等。《工业机器人视觉应用》内容试读第1章机器视觉概述随着信号处理理论和计算机技术的发展,人们试图用摄像机获取环境图像并将其转换成数字信号,用计算机实现对视觉信息处理的全过程,这样就形成了一门新兴的学科—计算机视觉。计算机视觉的研究目标是使计算机具有通过一幅或多幅图像认知周围环境信息的能力。这使计算机不仅能模拟人眼的功能,更重要的是使计算机完成人眼所不能胜任的工作。机器视觉则是建立在计算机视觉理论基础上,偏重于计算机视觉技术工程化应用。与计算机视觉研究的视觉模式识别、视觉理解等内容不同,机器视觉重点在于感知环境中物体的形状、位置、姿态、运动等几何信息。本章首先介绍机器视觉的基本概念及系统构成,然后讲解机器视觉常见的软件开发工具,最后对机器视觉的应用领域和面临的问题进行了介绍。(工业机器人视觉应用《1.1什么是机器视觉视觉是我们最强大的感知方式,它为我们提供了关于周围环境的大量信息:从而使得我们可以在不需要进行身体接触的情况下,直接和周围环境进行智能交互。离开视觉,我们将丧许多有利条件,因为通过视觉,我们可以了解到:物体的位置和一些其他的属性,以及,物体之间的相对位置关系。因此,不难理解为什么几乎自从数字计算机出现以后,人们就不断地尝试将视觉感知赋予机器。机器视觉技术是通过计算机模拟生物外显或宏观视觉功能的技术,它包含传感器技术、图像处理技术、智能控制技术、机器工程技术、电光学成像技术等,因此它是一项综合性的技术。只有将这些技术进行协调组合运用才能构成一个工业机器视觉应用系统。人类视觉系统的识别能力是有限的,而机器视觉技术则能精确定量感知,并且在不可见物体和危险场景的感知方面体现了其优越性。机器视觉系统是基于机器视觉技术为机器或自动化生产线建立的一套视觉系统。机器视觉是一门新兴的发展迅速的学科,20世纪80年代以来,机器视觉的研究已经历了从实验室走向实际应用的发展阶段。从简单的二值图像处理到高分辨率多灰度的图像处理,从一般的二维信息处理到三维视觉机理以及模型和算法的研究都取得了很大的进展。随着计算机工业水平的凯苏提高以及人工智能、并行处理和神经元网络等学科的发展,进一步促进了工业机器人视觉系统的实用化和许多复杂视觉问题的研究。机器视觉技术主要有三大功能应用:第一是定位功能,能够判断物体的位置信息,用于全自动装配和生产;第二是测量功能,能够自动测量产品的外观尺寸:第三是缺陷检测功能,能够检测产品表面的相关信息。目前机器人视觉技术和视觉系统正越来越广泛地应用于视觉检测、视觉引导和自动化装备领域中。特别跟读者说明一下,在很多文献中,计算机视觉(comuterviio)和机器视觉(machieviio)两个术语是不加以区分的,但其实这两个术语是既有区别又有联系的计算机视觉是采用图像处理、模式识别、人工智能技术相结合的手段,着重于一幅或多幅图像的计算机分析。图像可以由单个或多个传感器获取,也可以是单个传感器在不同时刻获取的图像序列。分析是对目标物体的识别,确定目标物体的位置和姿态,对三维景物进行符号描述和解释。在计算机视觉研究中,经常使用几何模型、复杂的知识表达,采用基于模型的匹配和搜索技术,搜索的策略常使用自底向上、自顶向下、分层和启发式控制策略。机器视觉则偏重于计算机视觉技术工程化,能够自动获取和分析特定的图像,以控制相应的行为具体地说,计算机视觉为机器视觉提供图像和景物分析的理论及算法基础,机器视觉为计算机视觉的实现提供传感器模型、系统构造和实现手段。因此可以认为,一个机器视觉系统就是一个能自动获取一幅或多幅目标物体图像,对所获取图像的各种特征量进行处理、分析和测量,并对测量结果做出定性分析和定量解释,从而得到有关目标物体的某种认识并做出相应决策的系统。机器视觉系统的功能包括物体定位、特征检测、缺陷判断、目标识别、计数和运动跟踪。第1章机器视觉概述《1.2机器视觉的工作原理机器视觉系统的目的就是给机器或自动生产线添加一套视觉系统,其原理是由计算机或图像处理器以及相关设备来模拟人的视觉行为,完成得到人的视觉系统所得到的信息机器视觉工作原理如图1-1所示。机器视觉系统采用工业相机将被检测的目标转换成图像信号,然后将图像信号传送给图像采集卡,根据像素分布和亮度、颜色等信息,转变成数字化信号,图像处理系统对这些信号进行各种运算来抽取被检测目标的特征,如面积、数量、位置、长度,再根据预设的允许度和其他条件输出结果,包括尺寸、角度、个数、合格/不合格、有/无等,实现自动识别功能,进而根据识别的结果通过控制器控制现场的执行机构动作。工业图像采相机集卡控制器执行机构图1-1机器视觉系统工作原理框图1.3机器视觉常见软件开发工具◆机器视觉常用的软件包括:Halco、Oecv、Pytho、Laview以及Matla等等。其中Halco在工业机器人方面应用的比例是相当高的,所以本书以Halco为平台来讲解机器视觉的相关应用Halco其实就是一个算法开发包,里面集成了很多丰富的算子,包括二维的和三维的,方便开发人员可以快速进行设计,而且它有自己的开发环境和语言,用户可以在开发环境下进行程序设计,它所支持的算子也是很丰富的,包括了数组操作、一维码二维码识别、模板匹配、相机标定、三维重建,or字符识别、光度立体、特征检测提取、测量、通信、文件操作、形态学处理等,所涉及的领域也是非常广的,包括了半导体、机械、化工、医疗、航空、监控安防、食品、印刷、制药等各大行业,在实际项目开发中,Halco可以导出丰富的语言方便用户项目集成,如导出C+,C#、VB等各种编程语言,然后在用户的开发环境下进行集成开发以及U1设计,同时Halco也支持多种操作系统,如widow、Liux等,同时对于相机设备接口这块也提供了丰富的支持,对以太网接口、USB接口,Gige接口相机都有良好的支持,另外在Halco开发环境下提供了很多助手工具,可以方便开发人员进行快速仿真,如测量工具、相机标定工具、相机图像实时采集工具、OCR训练工具等。Halco在实际应用中涉及以下六个方面。(1)连通城1o分析,这块可以说是很多处理中经常使用的,主要是确定阈值大小以及特征的选取,从而从图像中分割出感兴趣的区域(2)模板匹配,主要是基于在图像中选取的模板进行灰度、轮廓、相关性等多种方式的全局或者局部匹配定位,从而得到目标的位置坐标以及角度值。(3)一维码、二维码以及ocr光学字符识别系列。(4)机器人双目以及多目立体视觉的标定、三维重建、三维匹配等系列。3《工业机器人视觉应用(5)基于Halco在工业上的通信、并行处理、错误处理等。(6)激光三角测量以及光度立体法。41.4工业机器人视觉系统的应用机器视觉在国民经济、科学研究及国防建设等领域都有着广泛的应用。视觉的最大优点是与被观测的对象无接触,因此对观测与被观测者都不会产生任何损伤,这是其他感觉方式无法比拟的。另外,视觉方式所能检测的对象十分广泛,人眼观察不到的范围,机器视觉也可以观察,例如,红外线、微波、超声波等人类就观察不到,而机器视觉则可以利用这方面的敏感器件形成红外线、微波、超声波等图像。因此可以说是扩展了人类的视觉范围。另外,人无法长时间地观察对象,机器视觉则不知疲劳,始终如一-地观测,所以机器视觉可以广泛地用于长时间恶劣的工作环境。机器视觉技术正处于一个快速发展的阶段。1.4.1机器视觉的应用领域机器视觉的应用领域非常广泛,下面只列举一些机器视觉的主要应用领域。(1)工业自动化生产线应用。产品检测、工业探伤、自动流水线生产和装配、自动焊接PCB印制板检查,以及各种危险场合工作的机器人等。将图像和视觉技术用于生产自动化,可以加快生产速度,保证质量的一致性,还可以避免人的疲劳、注意力不集中等带来的误判。例如:在制药行业,如图1-2所示,机器视觉可以用于药品的漏装以及药品的误装的检测。NotOKyePreRu(F5)tocotiue图1-2药品检测应用(2)各类检验和监视应用。标签文字标记检查,邮政自动化,计算机辅助外科手术,显微医学操作,石油、煤矿等钻探中数据流自动监测和滤波,在纺织、印染业进行自动分色、配色,重要场所门廊自动巡视,自动跟踪报警等。例如:在颜色检测方面,机器视觉可以用于区别不同颜色的模块,从而对模块进行分类以及搬运等操作,如图1-3所示。(3)视觉导航应用。巡航导弹制导、无人驾驶飞机飞行、自动行驶车辆、移动机器人、精确制导及自动巡航捕获目标和确定距离。既可避免人的参与及由此带来的危险,也可提高精度和速度。例如:在运动检测方面,机器视觉可以用于对移动物体的标定以及追踪,如图1-4所示。//4第1章机器视觉概述》Red10APreRu(F5)tocotiue图13颜色检测应用图1-4运动检测应用(4)图像自动解释应用。对放射图像、显微图像、医学图像、遥感多波段图像、合成孔径雷达图像、航天航测图像等的自动判读理解。由于近年来技术的发展,图像的种类和数量飞速增长,图像的自动理解已成为解决信息膨胀问题的重要手段。例如:在医学行业,机器视觉可以用于对药品的液位检测,自动判断药品是否用完,如图1-5所示。(5)人机交互应用。人脸识别、智能代理等。同时让计算机可借助人的手势动作(手语)、嘴唇动作(唇读)、躯干运动(步态)、表情测定等了解人的愿望要求而执行指令,这既符合人类的交互习惯,也可增加交互方便性和临场感等。(6)虚拟现实应用。飞机驾驶员训练、医学手术模拟、场景建模、战场环境表示等,它可帮助人们超越人的生理极限、“亲临其境”、提高工作效率。1.4.2机器视觉面临的问题对于人的视觉来说,由于人的大脑和神经的高度发展,其目标识别能力很强。但是人的视觉也同样存在障碍,例如,即使具有敏锐视觉和高度发达头脑的人,一旦置身于某种特殊环境(即使曾经具备一定的先验知识),其目标识别能力也会急剧下降。事实上,人们在这种环境下面对简单物体时,仍然可以有效而简便地识别;而在这种情况下面对复杂目标或特殊背景时,则5《工业机器人视觉应用2BADNGPreRu(F5)tocotiue图1-5药品液位检测应用在视觉功能上发生障碍。两者共同的结果是导致目标识别的有效性和可靠性的大幅度下降将人的视觉引人机器视觉中,机器视觉也存在着这样的障碍。它主要表现在三个方面:一是如何准确、高速(实时)地识别出目标;二是如何有效地增大存储容量,以便容纳下足够细节的目标图像;三是如何有效地构造和组织出可靠的识别算法,并且顺利地实现。前两者相当于人的大脑这样的物质基础,这期待着高速的阵列处理单元,以及算法(如神经网络、分维算法、小波变换等算法)的新突破,用极少的计算量及高度的并行性实现功能。另外,由于当前对人类视觉系统和机理、人脑心理和生理的研究还不够,目前人们所建立的各种视觉系统绝大多数是只适用于某一特定环境或应用场合的专用系统,而要建立一个可与人类的视觉系统相比拟的通用视觉系统是非常困难的。/M6···试读结束···...

    2022-10-21 epub出版物 epub 图书

  • 《学习障碍返回抑制研究 以初中生视觉搜索为视野》杨宇然|(epub+azw3+mobi+pdf)电子书下载

    图书名称:《学习障碍返回抑制研究以初中生视觉搜索为视野》【作者】杨宇然【丛书名】中国社科研究文库【页数】161【出版社】北京:中国社会出版社,2021.07【ISBN号】978-7-5087-6590-7【价格】85.00【分类】初中生-学习障碍-研究【参考文献】杨宇然.学习障碍返回抑制研究以初中生视觉搜索为视野.北京:中国社会出版社,2021.07.图书封面:图书目录:《学习障碍返回抑制研究以初中生视觉搜索为视野》内容提要:美国心理学之父威廉·詹姆斯在他的著作《心理学原理》中曾提出:注意是最值得研究的心理学问题,它关系着我们所有的心理活动。本书以“返回抑制”现象作为切入点,通过对比的视角,研究学习障碍初中生视觉搜索过程的注意特征和导致其注意缺陷的原因。“返回抑制”是指在视觉搜索过程中,通过注意发挥作用的一种抑制现象:当靶刺激出现在曾经线索化的位置时,对它作出反应的时间大于其出现在在未被线索化的位置时所需的反应时间。文章在回顾前人关于返回抑制问题研究的基础之上,围绕“特征”与“机制”两个重点,通过实证性研究,全面分析了学习障碍初中生返回抑制的时程、空间特征,并对返回抑制形成机制问题进行探讨。《学习障碍返回抑制研究以初中生视觉搜索为视野》内容试读第一篇视觉搜索成长中的返回抑制理论探讨.第一章视觉搜索过程中的返回抑制第一节返回抑制的概念在日常生活中,“找东西”是人们再熟悉不过的事情,如在杂乱的桌面上找到车钥匙,或者在书架上寻找《心理学》教材,注意会为我们搜索并定位目标提供帮助。那么,注意仅仅是帮助我们发现目标吗?或者是在搜索目标的同时对于已经搜索过的位置设置屏障,防止重复搜索以提高效率呢?视觉返回抑制的研究讨论的就是这一问题。Poer和Cohe在1980年研究视觉搜索的过程中发现,当靶刺激出现在线索曾出现的位置时,“人们对于靶刺激的反应时比它出现在非线索化位置时的反应时要长,线索不仅没有帮助视觉搜索,反而降低对于出现在线索化位置的靶刺激的反应速度。为什么会出现这种和常规推理相反的实验现象呢?接下来两位研究者对这种现象进行了更为深人、系统的研究,并于1984年联名发表题为“Comoetofviualo-3ltlt时的靶刺激称为“非线索化靶刺激”。在以上研究程序中,将靶刺激与线索位置关系作为自变量,要求被试当靶刺激出现时进行按键反应,反应时间作为因变量,结果发现:当靶刺激出现在未曾线索化的位置时,反应时间更短:当靶刺激出现在曾经线索化的位置,反应时间长。Poer和Cohe认为这种现象反映了人类视觉搜索的一个重要特性:视觉注意在返回曾经停留过的位置时会出现一定的延迟,表现出对已加工过的位置进行自动化的抑制,“返回抑制”称谓的来源正是基于这种解释。值得一提的是,在Poer和Cohe(1984)的研究中,采用的是单线索程序:仅对某一个外周位置进行一次线索化。但此后有研究者提出,既然返回抑制是注意从中央注视点返回外周位置时表现出的延迟现象,那么必须保证在靶刺激出现时,注意是在中央注视点,因此对单线索程序进行了改进,加人中央注视点线索化过程,将单线索程序改良为双线索程序,保证注意脱离外周位置回到中央注视点。尽管Poer等人在最初研究中采用单线索程序观察到了返回抑制现象,但后来的研究者通过对比单线索程序和双线索程序发现,在相同的SOA(Stimuluoetaychroy,线索呈现到靶子呈现的时间间隔)条件下,单线索程序产生了提示效应,而双线索程序产生了返回抑制(Luiaezetal,1997)。由于双线索程序更符合返回抑制的理论假设,因此目前进行返回抑制研究时,普遍采用双线索程序。此外,还有一点需要说明,关于返回抑制的研究中,除了通过对比靶子出现在线索化位置的反应时(RTcued)与靶刺激出现在非线索5学习障碍返回抑制研究gtgtgt化位置的反应时(RTucued)的大小来确定是否存在返回抑制:RTcuedgtRTucued,说明存在返回抑制;反之,RTcued抑制量绝对值的大小可以说明提示或抑制效应的明显程度,绝对值越大,说明抑制(提示)效应越明显。将“返回抑制量”与“0”进行比较,或直接比较RTcued与RTucued是否存在显著性差异,可以确定返回抑制量(提示量)是否具有显著性意义(Kei,2000)。第二节注意视觉搜索过程中的作用:选择与抑制美国心理学之父威廉·詹姆斯(WilliaJame)在他的著作《心理学原理》中曾提出:注意是最值得研究的心理学问题,它关系着我们所有的心理活动。但遗憾的是在此后的近百年中,由于方法的局限,对于注意的研究始终难以深人。直到20世纪50年代,随着认知心理学的兴起,对注意问题的研究才取得了一些突破性的成绩,关于视觉注意提出了特征整合理论(Treima,1988Treimaetal,1980)、引导搜索理论(Wolfe,1994Wolfeetal,1989)和决策整合假说(Palmeretl,2000)。在这三个理论中都提到,在视觉搜索过程中不仅有对于目标的选择与定位,同时存在另一种非常重要的现象:抑制现象。Treima的注意特征整合理论认为,注意作为一种有限性资源,当6···试读结束···...

    2022-10-20

  • 《I FIND 视觉大发现 欢乐运动会 大图搜索2.0版》B.M动漫工作室编著|(epub+azw3+mobi+pdf)电子书下载

    图书名称:《IFIND视觉大发现欢乐运动会大图搜索2.0版》【作者】B.M动漫工作室编著【页数】44【出版社】北京:中国纺织出版社,2015.01【ISBN号】978-7-5180-0985-5【价格】19.80【分类】智力开发-学前教育-教学参考资料【参考文献】B.M动漫工作室编著.IFIND视觉大发现欢乐运动会大图搜索2.0版.北京:中国纺织出版社,2015.01.图书封面:《IFIND视觉大发现欢乐运动会大图搜索2.0版》内容提要:“IFIND·视觉大发现”系列是针对3-7岁儿童的智力发展特点和认知水平,由B.M动漫工作室设计创作的一个“魔术宝库”,可以让宝宝们一边玩游戏、一边认知世界、一边激发潜能。“IFIND·视觉大发现”系列中的每一张图画都是一幅绚丽的艺术品,无论是充满欢乐的运动会、色彩缤纷的地球村、自由快乐的假期、梦想腾飞的欢乐谷,还是炫丽多彩的嘉年华……既方便爸爸妈妈们陪宝宝讲故事、做游戏,还可以吸引宝宝的注意力,丰富他的视觉体验,给予他艺术的熏陶。宝宝专心寻找答案的过程,就是培养他细致、专注地观察和敏捷、缜密地思考。本系列图书还可以培养宝宝遇到问题不退缩的勇气和解决问题的能力,从而使他的心智潜能得到全面激发。让粗心的宝宝变得细心,让好动的宝宝变得专注;让害羞的宝宝学会交往,让聪明的宝宝品尝成功。《IFIND视觉大发现欢乐运动会大图搜索2.0版》内容试读适宝宝为316岁宝宝观察小细节,发现大不同FIND大图瘦索2.0版视觉大发玖讲故事,玩游戏,提升专注力!M动海工作室欢乐运动会PictureRiddle路中国份阳出岛部你发现它们3吗2了纪念冯拉松战役的胜利和表彰菲迪皮荧的功绩,1896年雅典人在第一届奥林匹克运动会上设立马拉松赛跑项目。★★★★★★★这两个小伙系数伴在哪里呢?●你能从图中找出几处人行横道呢?Page03你发现它们3吗2霸比尔熊来到帆船比赛的场地中,当它看到参赛选手们正在激烈地角逐,只觉得热血澎湃…自己也想上去比一比。+书、★★★☆★★★难这两个小伙系数伴在哪里呢?●》你能从图中找出几只帆板呢?Page05···试读结束···...

    2022-10-20 epub百度百科 epub编辑器

  • 《I FIND 视觉大发现 梦想欢乐谷 大图搜索2.0版》B.M动漫工作室编著|(epub+azw3+mobi+pdf)电子书下载

    图书名称:《IFIND视觉大发现梦想欢乐谷大图搜索2.0版》【作者】B.M动漫工作室编著【页数】44【出版社】北京:中国纺织出版社,2015.01【ISBN号】978-7-5180-0988-6【价格】19.80【分类】智力开发-学前教育-教学参考资料【参考文献】B.M动漫工作室编著.IFIND视觉大发现梦想欢乐谷大图搜索2.0版.北京:中国纺织出版社,2015.01.图书封面:《IFIND视觉大发现梦想欢乐谷大图搜索2.0版》内容提要:观察小细节,发现大不同。亲子小课堂:注意力是指人的视觉、听觉以及其他心理活动集中于某一特定事物或活动的能力。注意力分为无意注意力和有意注意力。其中,有意注意力持续时间的长短对孩子的学习能力和自我控制能力有着巨大的影响。(1)3-4岁孩子的有意注意时间在2分钟以内。他需要父母陪伴和引导下来玩“IFIND”系列游戏。在这个过程中,父母要通过绘声绘色地讲故事,教他逐渐学会初步观察、分辨事物的能力。(2)4-5岁孩子的有意注意时间约为3分钟。在玩游戏的时候,书中鲜亮的全景图画、各种可爱的动物形象以及父母讲述的故事都能引起孩子的注意,进而激发他主动玩游戏的兴趣。(3)5-6岁孩子的有意注意时间为5-8分钟。他对于事物细节的观察仍然较弱,这就需要父母多运用书中的导读语和小游戏,来引导孩子对游戏细节的关注,进而培养他主动玩游戏、学知识的兴趣。(4)6-7岁孩子的有意注意时间在10分钟左右。他开始尝试主动阅读和玩游戏了,而“IFIND”系列游戏书正好能满足他的需求。这时,父母在陪伴孩子阅读时,可以尝试让他用自己的语言来描述每个全景游戏大图中的细节和故事,以帮助他持续集中注意力。每天的温馨时刻,让宝宝感受到父母的爱!《IFIND视觉大发现梦想欢乐谷大图搜索2.0版》内容试读适合宝。3~6岁宝宝观察小细节,发现大不同FIND大图搜索2.0版视觉大发现讲故事,玩游戏,提升专注力!B-M梦想欢乐谷PictureRiddle路中国份阳出A社你发现它M30g?游艺会开始了,比尔熊和它的伙伴们都参与了进来。小朋友,你能帮大议找找看魔镜中的小伙伴在哪里吗?会这两个小伙伴在哪里呢?魔镜进语青黄袄,包银条,弯弯两头翘,吃着好味道。(打一水果)★★★★★☆★难度系数2你能从上面小熊兄弟的画像中找出不同的地方吗?Page03你发现它M3吗2设e有此尔来,这里有风位调皮的小伙伴在和它玩躲猫猫。小朋友,:请你帮忙找找吧!0.刻★★★★☆☆★难度这两个小伙系数伴在哪里呢?M你能从图中找出大白鹅和吃糖葫芦的小兔子吗?Page05···试读结束···...

    2022-10-20 即兴演讲河流编著电子书 书电子书编写

学习考试资源网-58edu © All Rights Reserved.  湘ICP备12013312号-3 
站点地图| 免责说明| 合作请联系| 友情链接:学习乐园