机器人视觉测量与控制的重点在哪?

计算机视觉水很深,图像处理可谓是包络信息处理的万象了,算法多如牛毛
那么机器人视觉测量与控制的重点是什么呢?
已邀请:

伤心爱

赞同来自:

就现在机器人视觉而言,算法重点往往在于精确性,但实现起来的困难主要是实时性。

对机器人测量和估计,往往解决两点:
1.自己的姿态位置状况
2.周围环境的位置情况

最理想的状况是两者都可以告诉同步实现,近似连续的,这也符合我们世界宏观上的运动方式。但是实际实现上,两者在算法上是先后实现的。这就导致了一个问题,所有的测量和估计都是离散的,而且相对于采样频率来说,计算的频率更低。

而且这种计算还受制于环境的情况,比如说一个动态的环境,单单测量环境就需要很复杂的计算和时间消耗。

海阔天空

赞同来自:

机器视觉用在机器人中基本还处于研究阶段。先说说难点吧:

1、采样速率不够。在复杂背景下用双目相机进行目标点位置测量,加速到极致,估计也就做到5Hz左右。而对于一些需要快速反馈和运算的机器人系统,如UVA,如柔性臂,这个采样频率远远低于要求。

2、识别目标的复杂状况。在实际应用里,识别对象以及其所处环境的高度复杂,使得视觉处理的难度进一步增大。甚至于对于位置环境,还找不到合适的识别算法。

3、操作状况的不稳定。既然是视觉机器人,那么摄像头是安装在机器人上的,那么机器人自身的运动也会对视觉测量产生影响。

这些因素耦合在一起,使得实际中机器视觉的应用还停留在非常基本的阶段。

至于重点。。。。随便找两篇论文看看他们怎么吹牛逼的就行了吧。。。

小女人

赞同来自:

不知道你想问什么?看了他人的答案,偏理论偏学术。我们在评估视觉项目时,关心的是检测速度和精度要求。这个精度是系统精度,除了算法之外,还要考虑运动机构的精度,机械手的精度等。大部分视觉算法可以做到1/10甚至几十分之一的亚像素精度,再配合大分辨率相机,不考虑运动机构的话,纯从图像角度来说,基本都能搞定。但是一旦考虑机构的运动精度,很多项目基本做不了,或者得用算法去补偿,很吃力很不稳定。
n或许答非所问,仅供参考。

小傲娇

赞同来自:

你的问题不是很规范,我没有准确了解你关心的内容,泛泛说几句。计算机视觉是AI的重要分支,热了很多年,吸引了大量聪明的头脑,文献浩如烟海,确如您所说,水很深,不过“图像处理”只是计算机视觉中的一个前端环节,简单说还有图像分割、特征提取、分类识别、三维重建、场景理解、目标行为分析等很多事情,计算机视觉是应用驱动的,不同应用的要求千差万别(说到测量,也有通过视觉进行环境测量的,如双目立体视觉可以测量目标的空间位姿)。计算视觉中采用大量机器学习算法(如近来很热的deep learning),可以认为分类器的研究是这个领域的重点之一吧。前面有人提到你是否指“视觉伺服”(一种把图像特征作为反馈信号的闭环控制方法),我觉得应该不是(如果知道视觉伺服,你会把问题提得更清楚些)。

尝甜头

赞同来自:

关于采样频率和上面的专家请教一下,我对此比较外行,有些想法不知可不可行。采样的时候能不能采用高低分辨率交叉的方式进行,先用一个正常采样,经过分析关键区域之后下一次就用低分辨率采样探测场景的变化,然后多次对关键区域进行高分辨率采样,这样可以大幅减少需要处理的数据。
全部过程就是多次对关键区域进行小范围的高分辨率采样,中间夹杂少量低分辨率大范围的采样,极少量的插入高分辨率大场景的采样。

魂梦凉

赞同来自:

刚看到一个招聘,是做了一点如下要求:
具有计算机视觉测量软件开发经验,熟悉结构光检测技术者优先

要回复问题请先登录注册