CN116829428A - 计算机眼睛 - Google Patents
计算机眼睛 Download PDFInfo
- Publication number
- CN116829428A CN116829428A CN202280012439.9A CN202280012439A CN116829428A CN 116829428 A CN116829428 A CN 116829428A CN 202280012439 A CN202280012439 A CN 202280012439A CN 116829428 A CN116829428 A CN 116829428A
- Authority
- CN
- China
- Prior art keywords
- television camera
- image
- tracking
- monitor screen
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000000007 visual effect Effects 0.000 claims abstract description 22
- 238000005259 measurement Methods 0.000 claims description 224
- 238000000034 method Methods 0.000 claims description 157
- 230000000875 corresponding effect Effects 0.000 claims description 143
- 230000007246 mechanism Effects 0.000 claims description 138
- 238000003860 storage Methods 0.000 claims description 46
- 238000004364 calculation method Methods 0.000 claims description 44
- 238000012544 monitoring process Methods 0.000 claims description 33
- 230000002596 correlated effect Effects 0.000 claims description 20
- 238000004088 simulation Methods 0.000 claims description 19
- 238000001514 detection method Methods 0.000 claims description 16
- 230000000295 complement effect Effects 0.000 claims description 14
- 239000002131 composite material Substances 0.000 claims description 14
- 230000001133 acceleration Effects 0.000 claims description 9
- 230000001276 controlling effect Effects 0.000 claims 1
- 230000010485 coping Effects 0.000 claims 1
- 241000282414 Homo sapiens Species 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 130
- 230000002441 reversible effect Effects 0.000 description 94
- 238000010191 image analysis Methods 0.000 description 79
- 238000003466 welding Methods 0.000 description 76
- 239000000463 material Substances 0.000 description 51
- 238000003384 imaging method Methods 0.000 description 45
- 210000003128 head Anatomy 0.000 description 28
- 238000012790 confirmation Methods 0.000 description 26
- 230000015572 biosynthetic process Effects 0.000 description 21
- 230000006870 function Effects 0.000 description 18
- 238000005755 formation reaction Methods 0.000 description 17
- 238000012937 correction Methods 0.000 description 14
- 238000007689 inspection Methods 0.000 description 12
- 239000003550 marker Substances 0.000 description 12
- 230000002194 synthesizing effect Effects 0.000 description 12
- 238000004458 analytical method Methods 0.000 description 11
- 230000003287 optical effect Effects 0.000 description 10
- 238000003754 machining Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 9
- 238000002955 isolation Methods 0.000 description 8
- JTJMJGYZQZDUJJ-UHFFFAOYSA-N phencyclidine Chemical compound C1CCCCN1C1(C=2C=CC=CC=2)CCCCC1 JTJMJGYZQZDUJJ-UHFFFAOYSA-N 0.000 description 8
- 230000005236 sound signal Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 7
- 238000004422 calculation algorithm Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 239000004189 Salinomycin Substances 0.000 description 4
- 241001425726 Vindula arsinoe Species 0.000 description 4
- 238000011161 development Methods 0.000 description 4
- 230000001678 irradiating effect Effects 0.000 description 4
- 238000003786 synthesis reaction Methods 0.000 description 4
- 241001544487 Macromiidae Species 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 238000011049 filling Methods 0.000 description 3
- 238000000465 moulding Methods 0.000 description 3
- 239000004575 stone Substances 0.000 description 3
- 239000000725 suspension Substances 0.000 description 3
- 238000007514 turning Methods 0.000 description 3
- 239000008207 working material Substances 0.000 description 3
- 241000251468 Actinopterygii Species 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000011068 loading method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 108091008695 photoreceptors Proteins 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 238000004441 surface measurement Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 239000005695 Ammonium acetate Substances 0.000 description 1
- 239000001741 Ammonium adipate Substances 0.000 description 1
- NLXLAEXVIDQMFP-UHFFFAOYSA-N Ammonium chloride Substances [NH4+].[Cl-] NLXLAEXVIDQMFP-UHFFFAOYSA-N 0.000 description 1
- 239000004190 Avilamycin Substances 0.000 description 1
- 108010005721 B 581 Proteins 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 235000015243 ice cream Nutrition 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000000123 paper Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000011435 rock Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
- 229910000679 solder Inorganic materials 0.000 description 1
- 125000006850 spacer group Chemical group 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/66—Tracking systems using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Traffic Control Systems (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
用计算机的视觉作业代替大多数人类的视觉作业。从计算机的许多视觉作业中学习。通过将电视摄像机拍摄的图像识别和跟踪激光测距仪与计算机连接,使计算机具有图像识别的视觉判断,从而连续地识别移动的三维空间的展开,从而在人的视觉作业中,能够进行在困难的三维展开的空间的作业。例如,在取得停车行驶数据的车辆中,识别跟踪电视摄像机系统指示的图像,得到所指示的图像的距离,一边分析与模拟行驶的连接,一边使车辆后退,使其向前停车行驶,以向前的停车行驶数据进行停车。
Description
技术领域
计算机软件、数控技术、图像处理技术、互联网连接技术、数控数值运算技术、电视摄像机操作技术、激光测距仪、插值运算。
背景技术
图像识别、测距和数控的相关方法
现有技术文献
专利文献
日本发明专利第5508308号
日本发明专利第5547605号
日本发明专利第5547670号
非专利文献
日本发明专利申请特愿2018-39078号
[未公开的相关技术1]
日本发明专利申请特愿2018-174323号
[公开未的相关技术2]
实施本发明的形态
数控驱动激光测量仪和数控驱动电视摄像机的研制
发明内容
将电视摄像机拍摄的画面设置为监视器画面上的被摄体的图像可识别图像。测量电视摄像机拍摄画面的监视器画面上被摄体的距离。识别电视摄像机拍摄画面的监视器画面上被摄体的位置。识别电视摄像机拍摄画面的监视器画面上被摄体的声音。将这些取得的信息存储在计算机中进行运算。通过给计算机提供眼睛的信息,使计算机做出与根据人类视觉的判断相同的判断。将计算机视觉判断的优秀功能转变为人的视觉判断并加以利用。由于计算机拥有眼睛和耳朵,可以代替人类获得计算机的无限可能性。
发明要解决的技术问题
变成人的视觉判断,利用计算机视觉判断的优秀功能,使基于人的视觉判断的学习,变成计算机视觉判断的学习。
发明的效果
用计算机的视觉作业代替人类的视觉作业。从计算机的很多视觉操作中进行学习。电视摄像机拍摄的图像识别和跟踪激光测距仪连接到计算机,计算机通过让机器人进行图像识别的视觉判断,可以连续识别移动的三维空间的展开,由此,在人类进行视觉作业时,很难进行的三维展开空间的作业成为可能。
附图说明
图1是安装在自动驾驶数据获取车上,让精通该汽车驾驶的驾驶员手动停车行驶,获取停车行驶操作数据的跟踪电视摄像系统的说明图。
图2是向停车场分析基于跟踪电视摄像系统的图像识别与图像识别的图像之间的距离的同时使车辆向前停车行驶,取得向前停车行驶数据的说明图。
图3是向停车场分析基于跟踪电视摄像系统的图像识别与图像识别的图像之间的距离的同时使车辆向后停车行驶,取得向后停车行驶数据的说明图。
图4是向停车场分析基于跟踪电视摄像系统的图像识别与图像识别的图像之间的距离的同时使车辆向后停车行驶,取得向后停车行驶数据的说明图。
图5是识别由跟踪电视摄像系统指示的图像,在测量与指示图像的距离的同时使车辆向后停车行驶,取得向前停车行驶数据的说明图。
图6是识别由跟踪电视摄像系统指示的图像,在测量与指示图像的距离的同时使车辆向前停车行驶,取得向后停车行驶数据的说明图。
图7是识别由跟踪电视摄像系统指示的图像,在测量与指示图像的距离的同时使车辆向前停车行驶,取得向前停车行驶数据的说明图。
图8是在取得停车行驶数据的车辆中,使之识别由跟踪电视摄像系统指示的图像,一边解析与指示图像的距离,一边使车辆向前行驶到停车行驶范围,用向后停车行驶数据进行停车的说明图。
图9是获取了停车行驶数据的车辆,一边分析基于跟踪电视摄像系统的图像识别与图像识别的图像之间的距离,一边使车辆向前修正停车行驶位置行驶,用向后停车行驶数据进行停车的说明图。
图10是获取停车行驶数据的车辆,通过跟踪电视摄像系统识别指示的图像,在分析与指示图像的距离和模拟行驶的连接的同时使车辆后退,使之向前停车行驶,用向前停车行驶数据进行停车的说明图。
图11是在公共停车场,一边分析基于跟踪电视摄像系统的图像识别和图像识别到的车辆间的图像距离,一边使车辆向后行驶到停车行驶位置,以向前停车行驶数据进行停车行驶的说明图。
图12是在公共停车场,使之识别由跟踪电视摄像系统指示的图像,一边解析与指示图像的距离,一边使车辆向前停车行驶,用向后的停车行驶数据进行停车的说明图。
图13是在公共停车场中,使之识别由跟踪电视摄像系统指示的图像,一边解析与指示图像的距离,一边使车辆行驶到向后模拟行驶的位置,用向后停车行驶数据进行停车的说明图。
图14是在公共停车场,使之识别由跟踪电视摄像系统指示的图像,在解析与指示图像的距离的同时使车辆行驶到向前的模拟范围,以向前的模拟行驶,行驶到停车行驶数据范围,以向后停车行驶数据进行停车的说明图。
图15是在公共停车场,使之识别由跟踪电视摄像系统指示的图像,一边解析与指示图像的距离,一边用向前停车行驶数据使车辆停车的说明图。
图16、图173是在公共停车场,使之识别由跟踪电视摄像系统指示的图像,并显示识别到的情况,一边分析与指示图像的距离,一边通知识别到的情况,用向前停车行驶数据进行停车的说明图。
图17是在公共停车场,根据跟踪电视摄像系统所识别出的图像的形状,测量已经停放的车辆间,使其向能够停车的位置行驶,在解析与图像识别出的形状之间的距离的同时,用向后停车行
图18是在公共停车场,根据利用跟踪电视摄像系统的图像识别出的形状,测量已经停放的车辆间,在分析图像识别出的形状的距离的同时,用向前停车行驶数据使车辆停车的说明图。
图19是在公共停车场,根据由跟踪电视摄像系统识别出的图像的形状,测量已经停放的车辆间,在分析图像识别出的形状的距离的同时,用向后停车行驶数据使车辆停车的说明图。
图20是用于获取用于避免被摄体碰撞的停止数据的说明图。该操作驱动装置的驱动数值是通过手动操作从行驶路的几个距离开始在被摄体的跟前停止运行,并通过内插运算的运算方法取得驱动驱动装置的驱动数值,该驱动驱动装置的驱动数值是从该停止运行的所有距离开始停止运行的,该操作驱动装置的驱动数值是通过内插运算的运算方法取得的。
图21是通过利用跟踪电视摄像系统的图像识别和测距来获取避免碰撞操作方法的避免操作数据的说明图。
图22是为了取得最大限度的避让驾驶的数据,取得以最大限度的避让驾驶操作而运转的避让驾驶的数据的说明图。
图23是表示避让驾驶的数据获取行驶中的数据获取位置的图。避让驾驶的数据取得行驶是为了取得最大限度的避让驾驶的数据,取得以最大限度的避让驾驶操作持续驾驶的避让驾驶的数据。
图24是测量在手动操作中判断为进行回避操作的距离、从开始回避操作的位置到回避操作的位置的操作的数据取得位置和操作位置的说明图。
图25是在避让驾驶数据的取得驾驶中,判断为通过手动操作进行回避操作的距离和开始回避操作的距离的说明图。
图26是在避让驾驶数据的取得驾驶中,判断为通过手动操作进行回避操作的距离和开始回避操作的距离的说明图。
图27是在避让驾驶数据的取得驾驶中,判断为通过手动操作进行回避操作的距离和开始回避操作的距离的说明图。
图28是在避让驾驶数据的取得驾驶中,判断为通过手动操作进行回避操作的距离和开始回避操作的距离的说明图。
图29是在避让驾驶数据的取得驾驶中,判断为通过手动操作进行回避操作的距离和开始回避操作的距离的说明图。
图30是在避让驾驶数据的取得驾驶中,判断为通过手动操作进行回避操作的距离和开始回避操作的距离的说明图。
图31是在避让驾驶数据的取得驾驶中,判断为通过手动操作进行最大限度的回避操作的距离和开始最大限度的回避操作的距离的说明图。
图32是在避让驾驶数据的取得驾驶中,取得不使不同行驶速度的行人感到危险的手动驾驶的数据的说明图。
图33是在避让驾驶数据的取得驾驶中,通过行驶路A的手动驾驶取得事故避让驾驶数据的说明图。
图34是在避让驾驶数据的取得驾驶中,通过行驶路B的手动驾驶取得事故避让驾驶数据的说明图。
图35是在避让驾驶数据的取得驾驶中,通过行驶路C的手动驾驶取得事故避让驾驶数据的说明图。
图36是在避让驾驶数据的取得驾驶中,通过行驶路D的手动驾驶取得事故避让驾驶数据的说明图。
图37是在避让驾驶数据的取得驾驶中,通过行驶路E的手动驾驶取得事故避让驾驶数据的说明图。
图38是在避让驾驶数据的取得驾驶中,通过行驶路F的手动驾驶取得事故避让驾驶数据的说明图。
图39是在避让驾驶数据的取得驾驶中,通过所有行驶路的手动驾驶取得事故避让驾驶数据的说明图。
图40是在与从右出发的行驶车的避让驾驶数据取得驾驶中,通过按行驶速度的动驾驶取得事故避让驾驶数据的说明图。
图41是在跟踪电视摄像系统车辆前面的位置安装视角较宽的固定电视摄像机,将跟踪电视摄像系统的跟踪激光测距仪和跟踪电视摄像机朝向在该大的摄影范围中拍摄的检测到的被摄体的位置的方向,识别该图像识别到的被摄体,对事故避让驾驶数据进行避让驾驶的说明图。
图42是安装在跟踪电视摄像系统车辆正面不同位置的、通过麦克风行驶声音的相位差,确定行驶声音的水平方向,将跟踪激光测距仪和数控电视摄像朝向该确定的方向,测量距离,对行驶车辆进行图像识别,对应于该行驶车辆的事故避让驾驶数据的避让驾驶的说明图。
图43是获取避让驾驶数据安装在运转的车辆的正面和背面的位置的像素测距跟踪电视摄像机的跟踪电视摄像机系统中行驶的避免碰撞的事故避让驾驶数据的避让驾驶的说明图。
图44是在超车行驶的数据取得运转中,通过所有的行驶路的手动运转取得超车行驶的数据的说明图。
图45是一种汽车行驶路上的自动驾驶的说明图,该自动驾驶图由设置了获取事故避免数据的跟踪电视摄像系统的车辆进行。
图46是在一种汽车行驶路上,由取得了事故避免数据的设置了跟踪电视摄像系统的车辆,在通过图像识别的行驶路上有停放的车辆时,通过图像识别的图像,测量在该车辆位置的行驶路上是否有能够通过的余地的宽度的说明图。
图47是计算在一种汽车行驶路上的、取得事故回避数据的、设置了跟踪电视摄像系统的车辆的回避准备的自动驾驶的说明图。
图48是在一种汽车行驶路上,通过设置了获取事故回避数据的跟踪电视摄像系统的车辆进行回避预测的自动驾驶的说明图。
图49是在一种汽车行驶路上,通过设置了获取事故回避数据的跟踪电视摄像系统的车辆,预测最大限度的事故回避的自动驾驶的说明图。
图50是在一种汽车行驶路上,通过设置了获取事故回避数据的跟踪电视摄像系统的车辆进行回避的自动驾驶的说明图。
图51是在一种汽车行驶路上,通过设置了获取事故回避数据的跟踪电视摄像系统的车辆进行最大限度回避的自动驾驶的说明图。
图52是在一种汽车行驶路上,通过设置了跟踪电视摄像系统的车辆取得了事故避免数据,在夜间行驶中,通过跟踪激光测距仪扫描电视摄像图像识别困难的暗的被摄体,将跟踪电视摄像朝向测量出的反射光的方向,以相当于测量出的距离的视角和焦距拍摄被摄体,进行图像识别,并进行相应的自动驾驶的说明图。
图53是自动驾驶的说明图,在一种汽车行驶路上,通过设置了跟踪电视摄像系统的车辆,仅对道路周边的固有事物进行图像识别,并在GPS的位置信息的行驶位置上附加记忆来行驶。
图54是在有障碍物的汽车行驶路上,通过取得了事故回避数据、设置了跟踪电视摄像系统的车辆,对电视摄像图像识别到的障碍物进行运算,使之展开到轮胎的位置,避开该障碍物行驶的说明图。
图55是在有障碍物的汽车行驶路上的、由取得了事故回避数据的、设置了跟踪电视摄像系统的车辆,使电视摄像图像识别到的障碍物与行驶同步,使该障碍物在演算后的轮胎位置展开,不避开该障碍物而行驶的说明图。
图56是通过在有障碍物的汽车行驶路上取得了事故避免数据的、设置了跟踪电视摄像系统的车辆,图像识别并存储电视摄像机所拍摄的行驶路前方的障碍物,假设行驶到障碍物,根据改变了与障碍物接触的车辆前轮轮胎的位置和该行驶的、在该方向和距离上的该存储图像的位置的障碍物的图像,预先分析车辆前轮轮胎所受到的冲击,并预先调整为与该冲击对应的悬架的说明图。
图57是利用取得了在有障碍物的步行路上的事故回避数据的、设置了跟踪电视摄像系统的四脚步行的滚筒,对电视摄像机所映的步行路前方的障碍物进行图像识别并记忆,在展开该记忆的图像的位置,在4条脚不与障碍物接触的位置上步行4条脚的说明图。
图58是由取得了在有障碍物的步行路上的事故回避数据的、设置了跟踪电视摄像系统的四脚步行的机器人,对电视摄像中所反映的步行路前方的台阶进行图像识别并记忆,从该记忆的台阶的图像中,为了避免4条脚与台阶的接触,在事先进行图像解析并展开图像的图像中,4条脚在台阶的位置上行走4条脚的说明图。
图59是在通过跟踪电视摄像系统取得行驶数据和取得事故避免数据的车辆行驶中,始终一边分析由跟踪电视摄像系统进行的图像识别和与图像识别的图像之间的距离一边行驶的说明图。
图60是在通过获取数据的跟踪电视摄像系统进行的车辆行驶中,由于总是一边分析通过跟踪电视摄像系统进行的图像识别和图像识别的图像之间的距离一边行驶,所以进行回避时的最佳避让行驶的说明图。
图61是在通过获取数据的跟踪电视摄像系统进行的车辆行驶中,由于总是一边分析通过跟踪电视摄像系统进行的图像识别和图像识别的图像之间的距离一边行驶,所以选择回避时的最佳避让行驶的说明图。
图62是在通过获取数据的跟踪电视摄像系统的车辆行驶中,始终一边分析跟踪电视摄像系统的图像识别与图像识别的图像之间的距离一边行驶,在回避数据行驶时也持续进行最佳避让行驶的说明图。
图63是在通过获取数据的跟踪电视摄像系统进行的车辆行驶中,始终一边分析通过跟踪电视摄像系统进行的图像识别和图像识别的图像之间的距离一边行驶,并运算事故避免的手段而行驶的说明图。
图64是在获取数据的、利用跟踪电视摄像系统的车辆行驶中,始终一边分析利用跟踪电视摄像系统的图像识别与图像识别的图像之间的距离一边行驶的车辆,一边测量前方行驶路的宽度一边行驶的说明图。
图65是在获取数据的、利用跟踪电视摄像系统的车辆行驶中,始终一边分析利用跟踪电视摄像系统的图像识别和图像识别的图像之间的距离一边行驶的车辆,一边测量前方对向车和行驶路的宽度一边行驶的说明图。
图66是在汽车专用的行驶路中,在通过取得数据的跟踪电视摄像系统进行的前车辆的跟踪行驶中,存储前车辆的图像识别与图像识别的图像之间的距离,在该行驶位置展开后跟踪行驶的说明图。
图67是在汽车专用的行驶路上,在取得数据的、利用跟踪电视摄像系统的车辆行驶中,始终一边测量利用跟踪电视摄像系统的对向行驶车的图像识别与图像识别后的图像之间的距离,一边进行跟踪行驶的说明图。
图68是在汽车的行驶路中,为了作为辅助机修正GPS的位置信息,对行驶路附近的固有物进行图像确认,将与该固有物的距离和方向与GPS的位置信息建立关联,从而在GPS的位置信息中补充行驶路的方向的说明图。
图69是根据汽车行进的行驶路的路缘的方向和距离,计算汽车行驶该距离的位置上的汽车与路缘的距离,计算汽车的行驶位置的说明图。
图70是对汽车行驶方向的前车进行集中图像确认,确认对抗车道上没有接近车辆,用超线行驶数据进行超线行驶的说明图。
图71是用于通过跟踪激光测距仪测量机器人的作业位置的距离的说明图。
图72是使用跟踪电视摄像机拍摄机器人的作业位置的图像的说明图。
图73是利用跟踪激光测距仪和跟踪电视摄像机测量机器人的作业位置的图像和距离的说明图。
图74是利用由固定电视摄像机拍摄的固定电视摄像机监视器画面上的机器人的作业位置、跟踪激光测距仪和跟踪电视摄像机测量机器人的作业位置的图像和距离,并对该作业位置进行图像识别的说明图。
图75是利用电视摄像机测距仪的测量距离,使LED发光元件在图像元件的图像检测到的位置的图像元件的位置的LED发光元件发光,测量从图像反射光的时间并测量该距离的说明图。
图76是使LED发光元件对固定电视摄像机监视器画面上的机器人的作业位置发光,将平行光照射到机器人的作业位置,以测量反射光的距离调整图像元件的视场角和焦距,并由跟踪电视摄像机对图像元件进行拍摄的说明图。
图77是利用跟踪电视摄像机跟踪拍摄在机器人的作业位置附近工作的作业人员,利用跟踪电视摄像机拍摄的图像对作业人员进行图像识别,通过测量作业人员的距离,察觉到作业人员的位置接近机器人的作业位置,在避免与作业人员接触的距离的位置使机器人工作的说明图。
图78是将测量了机器人的作业位置的距离的机器人的工作在其跟踪电视摄像机监视器的画面上显示测量距离,进行该机器人的工作操作的说明图。
图79是利用像素测量电视摄像机测距仪测量机器人的作业位置的距离,根据该测量方向和该距离,调整图像元件跟踪电视摄像机拍摄的视角和焦距,识别跟踪电视摄像机监视器画面上的机器人拍摄的作业位置和图像元件跟踪电视摄像机拍摄的图像的说明图。
图80用电视摄像机拍摄机器人的几个驱动机构的工作,并用跟踪激光测距仪在放映该图像的几个电视摄像机监视器画面上测量该机器人的几个驱动机构的作业位置的距离。测量了机器人的作业位置的距离的机器人的工作、该机器人的几个驱动机构的工作、经由互联网、在该几个固定电视照摄像机监视器的画面上、该机器人的几个驱动机构的工作操作的说明图。
图81用几个电视摄像机拍摄机器人的几个驱动机构的工作,并放映其图像,分别放映图像,在该电视摄像机监视器画面上,用跟踪激光测距仪测量机器人的几个驱动机构的作业位置的距离。测量机器人作业位置距离的机器人作业,在其几个固定电视摄像机监视器的画面上,进行该机器人的几个驱动机构的作业。通过互联网,在那几个固定电视摄像机监视器的画面上,操作那个机器人的几个驱动机构的工作的说明图。
在图82中,利用跟踪激光测距仪测量固定电视摄像机监视器画面上的被摄体的距离。
以与测量的距离相当的视角和焦距对跟踪电视摄像机拍摄的被摄体进行图像确认,将安装有条形码读取器的数控机器人移动到图像确认的被摄体的位置,并读取对条形码显示进行图像确认的被摄体中记载的条形码的说明图。
图83检测固定电视摄像机监视器画面上的形状物,用激光测距仪测量其检测位置的距离。测量该距离的检测位置,用跟踪电视摄像机,在测量的距离上结合视角和焦距,拍摄其形状物。图像识别拍摄的电视摄像机监视器画面上的该形状物的图像中的图像信息显示的记载,用安装在数控机器人上的数控电视摄像机读取该形状物的显示信息的说明图。
图84确认固定电视摄像机监视器画面上的机器人的作业位置,用跟踪激光测距仪测量其作业位置的距离。测量固定电视摄像机拍摄方向上的二维画面显示和其距离的三维画面显示的说明图。
图85是在将固定电视摄像机监视器画面上的机器人的作业位置设定在由与该固定电视摄像机相关联的另一电视摄像机拍摄的画面上的作业位置,进行机器人的工作的说明图。
图86是确认固定电视摄像机监视器画面上的机器人的作业位置,用多个跟踪激光测距仪测量其作业位置的距离,对精度高的机器人的作业位置的说明图。
图87是确认固定电视摄像机监视器画面上的机器人的作业位置,用安装在该作业位置的像素测量电视摄像机测距仪确认图像并测量距离的说明图。
图88是机器人焊接工作的说明图。焊接作业的空间编入共同的架台,每次用跟踪电视摄像机进行图像确认,确认的图像用跟踪激光测距仪进行测量,焊接作业的空间是测量的空间的说明图。
图89是焊接支援机器人将加工材料A带入焊接作业空间,焊接支援机器人支援加工材料A的图像确认作业、加工材料A的测量和适当的形状确认的说明图。
图90中,由于焊接工作的空间是测量的空间,因此将加工材料A设置在工作台上。通过设置在工作台上的加工材料A的再次跟踪电视摄像机进行图像确认,以及通过跟踪激光测距仪进行测量的说明图。
图91是焊接支持机器人将加工材料B带入焊接工作空间,并通过焊接支持机器人将加工材料B的图像确认工作和加工材料B的测量分别设置在适当位置的说明图。
图92是将加工材料A临时放置在加工材料B上、由跟踪电视摄像机进行图像确认和由跟踪激光测距仪进行测量的说明图。
图93是通过用于固定加工材料B的点焊接,通过点处的跟踪电视摄像机确认图像并通过跟踪激光测距仪测量加工材料A的光焊的说明图。
图94是在焊接完成后由跟踪电视摄像机进行图像确认和由跟踪激光测距仪进行测量的说明图。
图95是通过加工材料B的焊接,通过跟踪电视摄像机确认焊接处的图像和通过跟踪激光测距仪测量加工材料A的焊接工作的说明图。
图96是焊接工作后由跟踪电视摄像机进行图像确认和由跟踪激光测距仪进行测量的说明图。
图97是焊接支援机器人将焊接加工完成的成品用焊接支援机器人在焊接作业的空间中抬起,焊接支援机器人分别进行成品的图像确认作业和成品的测量的最佳位置的说明图。
图98是焊接辅助机器人将焊接加工完成的成品通过焊接辅助机器人带入焊接作业的空间,焊接辅助机器人分别进行成品的图像确认作业和成品的测量的最佳位置的说明图。
图99是可动台架的机器人焊接作业的说明图。焊接作业的空间编入共同的可动式架台,每次用跟踪电视摄像机进行图像确认,确认的图像用跟踪激光测距仪进行测量,通过可动式架台进行焊接作业的空间是每次测量的空间的说明图。
图100用固定电视摄像机拍摄在上空飞行的无人机,将安装了激光测距仪的跟踪电视摄像机对准与该固定电视摄像机监视器画面上的位置相当的方向。根据激光测距仪测量的距离,对跟踪电视摄像机在视场角和焦距上拍摄的,安装在测绘仪上的测距用反射镜进行图像识别。测距用反射镜的图像识别位置是以激光测距仪的位置作为测量距离的说明图。
图101操作跟踪电视摄像机,拍摄安装在上空飞行的无人机上的测距用反射镜,将跟踪激光测距仪对准识别该反射镜图像的方向,测量上空无人机的距离。
图102是通过从三处的概知的位置和一处未知的位置同时测量安装在上空的三台无人机上的测距用反射镜的距离,通过将这三个测距用反射镜与概知的位置相关联来测量未知位置的说明图。
图103是在跟踪电视摄像机测距系统中,在三处的大概位置和一处未知位置测量安装在无人机上的光源的发光时间,将未知位置与大概位置相关联,在几个不同的无人机位置进行测量,从而测量未知位置的说明图。
图104是能够通过从三处大概的位置同时测量安装在无人机上的测距用反射镜的距离,将同时测量该测距用反射镜的距离的测距用汽车的行驶方向的位置连续地与大概的位置相关联的说明图。
图105是示出通过指示与电视摄像机监视器画面上的视窗冲浪器的位置相当的方向,根据激光测距仪测量的距离,调整跟踪电视摄像机的视场角和焦点并进行拍摄的说明图,该方向反映用安装在无人机中的激光测距仪安装的跟踪电视摄像机的广角拍摄的图像。
图106安装了数控电视摄像机、跟踪电视摄像机和跟踪激光测距仪,这些设备集成在一架在上空飞行的具有通信功能的无人机中。反映数字电视摄像机拍摄的图像,指示电视摄像机监视器画面上的窗口冲浪运动员的位置,将跟踪电视摄像机和跟踪激光测距仪朝向与该画面上指示相当的方向,根据跟踪激光测距仪测量的距离,根据跟踪电视摄像机的视角和焦距,对窗口冲浪运动员进行图像识别,对窗口冲浪运动员进行跟踪拍摄的说明图。
图107是实测高空无人机照射的可见光激光的照射位置和概知的位置,修正高空无人机位置的说明图。
图108通过从3处概知的位置同时测量安装在上空飞行的无人机上的测距用反射镜的距离,可以将同时测量该测距用反射镜距离的测距用汽车的行驶位置和行驶方向设为概知的位置。从测距用汽车中,为了使所有行驶车辆共享图像识别事物的测量位置信息,记忆绝对位置信息,发送到互联网,接收后共享该绝对位置信息的说明图。
图109是根据多个大概的场所和行驶的汽车测量上述说明的在其上空飞行的多个无人机的位置,根据该行驶的汽车测量道路周边,测量道路的行驶方向和道路周边事物的位置的说明图。
图110是通过跟踪电视摄像机测距系统,从行驶中的测距用汽车测量在上空飞行的无人机位置,通过跟踪电视摄像机测距系统测量行驶中的测量被摄体车辆的距离和方向,测量从测距用汽车到测量被摄体车辆的距离和方向的说明图。
图111是从固定电视摄像机所拍摄的被摄体的图像,向与位置相当的方向跟踪拍摄检测到图像的固定电视摄像机监视器画面的图像,并以与激光测距仪所测量的距离相当的视场角和焦距拍摄该跟踪电视摄像机能够确认图像的被摄体的说明图。
图112是根据固定电视摄像机拍摄的画面,分别使数控的电视摄像机从检测到几个图像的固定电视摄像机监视器画面上向相当于显示几个图像的位置的方向跟踪并拍摄,向相当于显示该图像的位置的方向跟踪跟踪电视摄像机,在安装在跟踪电视摄像机上的跟踪激光测距仪测量的距离上,从跟踪电视摄像机拍摄的图像取得个人的图像信息的说明图。
图113是根据多个跟踪激光测距仪的扫描根据距离和测量位置的变化测量的被摄体,使跟踪电视摄像机沿着该方向跟踪,根据将视角和焦点对准跟踪激光测距仪测量的距离而拍摄的图像,取得个人的图像信息的说明图。
图114是跟踪激光测距仪根据距离和测量位置的变化测量运动体的被摄体,跟踪电视摄像机跟踪,通过互联网对根据跟踪激光测距仪测量的距离拍摄的图像进行图像确认,获取个人图像信息的说明图。
图115是从固定电视摄像机所拍摄的图像向与检测到图像的固定电视摄像机监视器画面的图像的位置相当的方向安装跟踪激光测距仪,由跟踪电视摄像机进行跟踪拍摄,经由互联网获取多个个人的图像信息,并再次由跟踪电视摄像机进行跟踪拍摄,该跟踪激光测距仪所测量的距离,由跟踪电视摄像机拍摄的图像。
图116是从固定电视摄像机所拍摄的图像中获取在个人多面方向上的图像信息的说明图,所述个人多面方向上的图像信息的说明图,所述个人多面方向上的图像信息由跟踪电视摄像机进行跟踪拍摄,所述跟踪激光测距仪在与检测到已确认图像的固定电视摄像机监视器画面的图像的位置相对应的方向上处于不同的拍摄方向。
图117示出跟踪激光测距仪从由像素跟踪固定电视摄像机拍摄的图像转向与检测到图像确认的像素跟踪固定电视摄像机监视器画面的图像的位置相当的方向,测量距离,并将焦点对准图像元件的范围进行拍摄。该图像确认的图像的位置,传达给从几台不同的方向拍摄的像素跟踪电视系统,各个像素跟踪电视系统测量距离,以相当于该距离的焦距,将焦点对准图像元件的范围进行拍摄的说明图。
图118是将具有激光测距和条形码读取功能的测量仪朝向由固定电视摄像机拍摄的、在监视器画面上检测出图像的图像的位置的方向,测量被摄体的图像的条形码显示附近的距离,以相当于测量距离的聚光和扫描速度进行读取的说明图。
图119中,条形码读取器的读取范围被设置为具有跟踪激光测距和条形码读取功能的测量仪和具有跟踪电视摄像机功能的设备。对跟踪电视摄像机以广角拍摄的电视摄像机监视器画面上的条形码显示图像的位置测量条形码显示的距离,与测量的距离一致,读取跟踪电视摄像机以窄角拍摄的图像确认的图像的位置的条形码显示的说明图。
图120将条形码读取器的读取范围设置为像素跟踪电视摄像机、具有跟踪激光测距和条形码读取功能的测量仪。像素跟踪测量由电视摄像机拍摄的电视摄像机监视器画面上的条形码显示图像的位置和条形码显示附近的距离,并读取条形码显示的说明图。
图121是使跟踪条形码读取器和激光测距仪朝向与固定电视摄像机监视器画面上所显示的被摄体的位置相当的方向,解码条形码显示,同时,将从各个方向拍摄的跟踪电视摄像机所拍摄的图像和固定电视摄像机的图像与条形码显示相关联地存储在各方向上拍摄的固定电视摄像机的图像的说明图。
在图122中,跟踪激光测距和跟踪电视摄像机朝向检测到固定电视摄像机监视器画面上的图像的位置,并且根据跟踪激光测距所测量的距离,对跟踪电视摄像机拍摄的图像进行图像识别。将安装在机器人上的条形码读取器和激光测距仪对准该图像识别位置的固定电视摄像机监视器画面上检测图像的位置,以激光测距仪测量的距离解读条形码显示,将跟踪电视摄像机拍摄的图像、图像识别和固定电视摄像机的图像与条形码显示相关联存储的说明图。
图123是使机器人的工作机靠近固定电视摄像机监视器画面5上所反映的作业人员所具有的形状物的位置,通过安装在机器人上的电视摄像机和跟踪激光测距仪,对作业人员所具有的形状物进行图像识别,将形状物的图像信息的工作作为机器人的工作进行的说明图。
图124是使机器人的工作机靠近固定电视摄像机监视器画面上的工作人员的手的位置,通过安装在机器人上的电视摄像机和跟踪激光测距仪,对工作人员的手进行图像识别,将手的图像信息的工作作为机器人的工作进行的说明图。
图125是安装在小型飞机上的跟踪电视摄像机系统,在跑道着陆时,通过跟踪激光测距仪测量固定电视摄像机拍摄的跑道图像检测到的图像,并通过跟踪电视摄像机对图像进行图像识别。根据图像识别的位置和距离,计算小型飞机的着陆状态,用手动操纵或自动操纵对应的说明图。
图126利用跟踪电视摄像系统从小型飞机用机场的跑道的横向拍摄。固定电视摄像机对跑道上着陆态势的小型飞机进行图像检测,在与检测到的位置相当的方向上,分析跟踪电视摄像机拍摄的图像,与跟踪电视摄像机的驱动数值相关联,修正小型飞机的驱动操纵数值的说明图。
图127是用于从小型飞机用机场的跑道的前方对着陆态势在跑道上的小型飞机进行修正的说明图,其中,跟踪电视摄像机和跟踪激光测距仪朝向与固定电视摄像机检测图像、检测到图像的位置相当的方向,将跟踪电视摄像机拍摄的驱动数值与预先通过图像识别取得的跟踪电视摄像机的驱动数值进行比较,以修正跟踪电视摄像机的驱动数值的方式修正小型飞机的驱动数值。
图128是安装在船舶上的跟踪电视摄像机系统的说明图,其将跟踪激光测距仪朝向固定电视摄像机拍摄的、相当于由固定电视摄像机监视器画面检测到图像的其他船的画面位置的位置方向,测量与该图像检测到的其他船的距离,由跟踪电视摄像机对该图像检测到的其他船进行拍摄并图像识别。
在图129中,在安装在船舶上的跟踪电视摄像机系统中,将跟踪激光测距仪朝向固定电视摄像机所拍摄的、与固定电视摄像机监视器画面中检测到图像的固定电视摄像机监视器画面的位置相当的方向,测量与检测到图像的巡洋舰之间的距离。通过持续测量拍摄巡洋舰的图像,预测巡洋舰的行驶方向和前进位置,在预测发生碰撞时,进行避免船舶碰撞操作的说明图。
图130是安装在船舶上的跟踪电视摄像机测距系统72,在数控电视摄像机拍摄的大范围海域中,将跟踪激光测距仪朝向用数控电视摄像机监视器画面检测到图像的数控电视摄像机监视器画面上的位置和数控电视摄像机的驱动数值的那个方向,测量与图像检测到的船舶的距离。在固定电视摄像机监视器画面和数控电视摄像机监视器画面上的方向和距离的位置重叠图像合成的监视器画面上显示跟踪电视摄像机以该测量的距离拍摄的船舶图像的说明图。
图131是安装在船舶上的雷达探测器将跟踪电视摄像机朝向检测到的被摄体的方向和距离,以与该距离相当的视角和焦距持续地拍摄并监视检测到的被摄体的说明图。
图132是安装在船舶上的跟踪电视摄像机测距系统,将跟踪激光测距仪和跟踪电视摄像机朝向固定电视摄像机拍摄的、在固定电视摄像机监视器画面中检测出图像的、相当于其他船画面位置的位置方向,测量与对该跟踪电视摄像机拍摄的图像进行图像识别的其他船之间的距离。图像识别的各船舶合成展开距离的行进方向画面的说明图。
图133是利用跟踪测距的方法,用多个反射镜跟踪的电视摄像机同时拍摄棒球运动员,确认击球家的说明图。
图134是用放映滑冰运动员的固定电视摄像机监视器画面上的位置和跟踪激光测距仪测量的距离,根据滑冰运动员的行驶方向和距离拍摄滑冰运动员的滑冰位置的说明图。
在图135中,在拍摄足球运动员带球的足球的固定电视摄像机监视器画面上,利用跟踪电视摄像机拍摄足球图像识别位置的方向和利用跟踪激光测距仪测量其面上的位置的距离。确认从不同方向拍摄的足球图像,练习足球运球的说明图。
图136跟踪安装有固定电视摄像机的数控驱动架的驱动位置,以保持在拍摄足球运动员带球的足球的固定电视摄像机监视器画面上图像识别足球的位置的方向和跟踪激光测距仪测量的距离。用跟踪电视摄像机拍摄足球,练习足球运球的说明图。
图137是将用安装在驱动架上的跟踪电视摄像机拍摄足球运动员运球练习的图像显示在足球运动员的眼前,随着足球运动员的运球运动而移动,目视足球的图像进行练习的说明图。
图138是用跟踪电视摄像机拍摄足球运动员在头球的训练中触球时对头部的感觉、球的位置、头的位置和球的行驶方向,并拍摄足球运动员的头部附近的说明图,以便通过图像详细确认并进行训练。
图139是在足球运动员头球的练习中,配合足球运动员的行进,使安装了跟踪足球运动员行进的足球杆投影机、跟踪的电视摄像机和电视摄像机监视器画面的数控驱动架配合足球运动员的行进进行驱动的说明图。
图140是足球运动员的跑步直接踢法练习,使安装了跟踪电视摄像系统的数控驱动架随着足球运动员的跑步而驱动。用数控的投影机以相同的驱动数值投影足球,足球运动员用可穿戴的图像接收器识别直接踢腿练习的说明图。
图141是利用跟踪电视摄像机系统拍摄由电视摄像机拍摄的、被数控驱动的机器人的工作范围,并在经由互联网连接的不同场所,在电视摄像机监视画面上操作所拍摄的图像和机器人的操作数据的说明图。
图142是在合成画面上分担工作的情况下通过互联网来操作如图35所述的机器人的工作操作的说明图,并且在不同的地方通过互联网来操作电视摄像机监视器画面上的转换器的设想的3D形成物的图像
图143是用跟踪电视摄像系统拍摄剧场的舞台,通过互联网在放映该舞台的固定电视摄像监视器画面中操作跟踪电视摄像,欣赏喜欢的舞台的表演者的画面的说明图。
图144是利用跟踪电视摄像机系统拍摄剧场的舞台,经由互联网在固定电视摄像机监视器画面中使所喜欢的舞台的表演者进行图像识别,使跟踪电视摄像机对该识别图像进行跟踪,从而鉴赏所喜欢的舞台的表演者的说明图。
在图145中,通过多个跟踪电视摄像机系统拍摄剧场的舞台,通过互联网,在各个固定的电视摄像机监视器画面上操作各个跟踪电视摄像机,以欣赏喜欢的舞台的各个表演者的画面。多个跟踪电视摄像机监视器画面中,将观众的声援,通过网络传达给舞台的说明图。
在图146中,通过多个跟踪电视摄像机系统拍摄剧场的舞台,并通过互联网在多个固定电视摄像机监视器画面上操作各个跟踪电视摄像机,以欣赏喜欢的舞台的表演者的画面。在固定电视摄像机监视器画面中,操作各个跟踪指向性麦克风,欣赏喜欢舞台的表演者的台词的说明图。
图147是通过在该画面上指示将全体爵士乐演奏者映出爵士现场表演的舞台的跟踪电视摄像机监视器画面的各爵士乐演奏者,从而向与跟踪电视摄像机监视器画面上的位置相当的被指示的爵士乐演奏者的方向驱动跟踪电视摄像机,以与安装在跟踪电视摄像机上的激光测距仪所测量的距离相当的视角和焦距,对该爵士乐演奏者进行摄影的说明图。
图148是通过将跟踪摄像机拍摄的图像连接到互联网网络,能够通过互联网来挑选并观看爵士现场表演舞台上的演奏者的说明图。
图149是通过多个跟踪电视摄像系统拍摄爵士乐现场的舞台,通过将各个跟踪电视摄像系统的操作连接到互联网,通过互联网,通过智能喇叭的画面操作应用操作爵士乐现场的舞台的演奏者的演奏,用各个跟踪电视摄像机进行拍摄,鉴赏各个图像的说明图。
图150是通过将跟踪电视摄像机系统设置在总公司事务所和分公司事务所中,根据需要,利用经由互联网连接的固定电视摄像机拍摄的画面的固定电视摄像机监视器画面操作跟踪电视摄像机,通过互联网在跟踪电视摄像机监视器画面上看该跟踪电视摄像机拍摄的画面的说明图。
图151是在著名的美术品上安装鉴赏用的跟踪电视摄像系统,通过互联网,通过跟踪电视摄像系统的固定电视摄像监视器画面上的操作,通过互联网,通过智能喇叭的画面操作应用来操作跟踪电视摄像所拍摄的图像,由跟踪电视摄像进行拍摄,鉴赏该图像的说明图。
图152是在足球场的儿童比赛场地设置多台跟踪电视摄像系统,通过互联网,通过跟踪电视摄像系统的固定电视摄像监视器画面上的操作,通过互联网观看跟踪电视摄像所拍摄的比赛的说明图。
图153在足球场的俯仰上部设置跟踪电视摄像机系统,在鱼眼镜头固定电视摄像机监视器画面和显示俯仰的CG画面的合成画面上,指示编入各跟踪电视摄像机系统的跟踪电视摄像机的拍摄方向。各跟踪电视摄像机拍摄画面的足球图像识别,跟踪足球。从拍摄足球附近的各跟踪电视摄像机的图像中,挑选最佳图像观看比赛的说明图。
图154中,在跟踪电视摄像机系统的鱼眼镜头固定电视摄像机监视器画面与显示俯仰的CG画面的合成画面上,指示各数控电视摄像机的摄影方向。跟踪激光测距仪测量与数控电视摄像机所拍摄画面上的足球图像识别位置相当的方向上的距离,以与该距离相当的视角和焦距,用跟踪电视摄像机拍摄足球的说明图。
图155是在足球场的俯仰上部设置跟踪电视摄像机系统的移动用的线跟踪驱动系统,在固定电视摄像机监视器画面和显示俯仰的CG画面的合成画面上驱动线跟踪驱动系统,使跟踪电视摄像机的视场角和焦距对准与嵌入在跟踪电视摄像机系统中的数控电视摄像机拍摄的画面上的对足球进行图像识别的位置相当的方向,来拍摄足球的说明图。
图156是通过在固定电视摄像机监视器画面和显示了俯仰的CG画面的合成画面上指示跟踪电视摄像机系统的驱动位置,以在指示的位置预先取得的各线驱动机构的驱动数值驱动线驱动机构,在该指示的位置由跟踪电视摄像机系统拍摄的说明图。
图157是根据设置在会场中央的、由鱼眼镜头固定电视摄像机拍摄的固定摄像机摄像机监视器画面上的指示,指示由线驱动机构支撑的跟踪电视摄像机系统拍摄的位置的移动和数控电视摄像机拍摄的方向,在由数控电视摄像机拍摄的、数控电视摄像机监视器画面上的图像识别到的位置,由跟踪电视摄像机拍摄该方向的说明图。
图158是对安装在跟踪电视摄像系统车辆正面不同位置的数控定向麦克风的声音进行语音分析,将数控定向麦克风朝向该分析的声音方向,测量其距离,对应于该声音的行进车辆的事故避让驾驶数据的避让驾驶的说明图。
具体实施方式
描述事项的说明
对于本申请,本申请的专利是与本申请人已经获得的日本发明专利第55476870、专利第55476005、专利第5508308、专利第6719494、特申请2018-174323相关的专利,以及其相关专利的衍生专利申请。因此,在本申请的实施说明中,省略上述已获得专利和公开的日本专利申请特愿2018-174323号中记载的说明。上述专利第6719494号,已提交PCT国际申请的国际申请号为PCT/JP2019/036238,特愿2018-174323也已提交PCT国际申请的国际申请号PCT/2019/004491。在本申请的实施说明中,为了清楚地说明,将说明以本申请专利实施上述已申请专利的方式。根据上述专利申请中记载的说明书,利用电视摄像机拍摄通过数控驱动的驱动机构,在该电视摄像机监视器画面上的所有位置,使用通过插值运算取得的驱动数值,在该电视摄像机监视器画面上的所有位置,对该驱动机构进行驱动操作。驱动该驱动机构的位置的驱动数值是相关的。根据上述已申请专利中记载的说明书,通过测量通过数控驱动的驱动机构的激光测距仪所照射的位置,并将该照射位置设为通过上述取得专利中记载的数控驱动的驱动机构的驱动位置,该照射位置能够在该电视摄像机监视器画面上的所有位置上操作通过数控驱动的驱动机构的激光测距仪所照射的位置。
因此,在电视摄像机监视器画面上的所有位置,都可以用激光测距仪测量距离。可以测量电视摄像机拍摄的图像的位置。根据上述专利中记载的说明书,通过使用另一数控驱动的电视摄像机以测量的距离拍摄由电视摄像机拍摄的图像的位置,可以对该拍摄图像进行图像识别。电视摄像机所拍摄的电视摄像机监视器画面上的位置可以与数控驱动的激光测距仪所测量的距离和激光测距仪的驱动数值、数控驱动的电视摄像机所拍摄的图像、图像识别和数控驱动的电视摄像机的驱动数值相关联。该电视摄像机监视器画面上的所有位置关联的数值和名称,通过与计算机连接并存储,作为计算机演算用的数值。将具有目的的数控器的驱动数值与连接在计算机上的电视摄像机监视器画面上的位置数值相关联,使用激光测距仪的测量距离及其驱动数值、数控电视摄像机所拍摄的位置及其图像识别及其数控电视摄像机驱动数值进行运算并进行驱动。数字控制的机器人代替人类的工作,用电视摄像机检测图像检查,用数字控制的电视摄像机和数字控制的激光测距仪对图像识别和位置进行测量,数字控制的机器人对应图像识别,或者对应图像识别的图像识别。本发明是通过在电视摄像机监视器画面上的所有位置对驱动机构的操作位置进行图像识别,并通过激光测距仪对该图像识别的操作位置进行测距而派生的相关专利。
在测距方面,已经申请的日本发明专利申请特愿2018-174323同样可以实施本发明,但是本发明的实施例主要描述一种已知的专利6719494的PCT国际申请号PCT/JP2019/036238中的激光测距仪的方法。固定电视摄像机用于建立由驱动数值驱动的设备之间的位置关系,在本发明的固定电视摄像机拍摄的画面上建立位置关系。在固定电视摄像机拍摄的画面上的所有位置,通过数值驱动机构的驱动位置及其驱动数值、数值驱动机构的电视摄像机的拍摄位置和拍摄图像的图像识别及其驱动数值、数值驱动机构的激光测距仪的测量位置及其测量距离及其驱动数值、测量麦克风声音方向的距离,建立与声音源的位置关系。实施例中记载的事项是一般性的事例,为了简化说明,下面记载的事项在事前进行说明。作为省略了固定电视摄像机监视器画面、数控电视摄像机监视器画面、跟踪电视摄像机监视器画面上的操作的图纸,说明了可以得到电视摄像机监视器画面上的位置的数值。数控电视摄像机和跟踪电视摄像机拍摄的图像是图像识别的可能画面,通过调整图像的视场角和焦距进行拍摄。数控电视摄像机、跟踪电视摄像机、激光测距仪、数控机器人、数控仪器都是用驱动数值驱动的,被驱动的驱动位置用控制器来把握。跟踪电视摄像机系统的激光测距仪的测量距离、固定电视摄像机监视器画面、数控电视摄像机监视器画面、跟踪电视摄像机监视器画面等画面上的全部位置,作为位置的数值来避免把握。跟踪电视摄像系统的激光测距仪的测量距离可以实现工厂堆场内数控机器人的移动作业。自动驾驶的车辆,设定有跟踪电视摄像系统,自动驾驶的数据是通过手动操作自动驾驶的车辆内安装的数值驱动机构来获取的。自动驾驶的车辆的自动驾驶是通过取得的数据和计算机运算后的数值驱动数值驱动机构行驶。在说明图中描述并在说明书中描述的各“电视摄像机监视器画面”中,由于本发明描述了将以驱动数值驱动的驱动显示在电视摄像机监视器画面上,并将该驱动与之相关联的说明,因此,虽然不一定需要安装各电视摄像机监视器画面。
(获取自动泊车数据)
实施例:安装在通过图1的跟踪电视摄像系统646的数控行驶的自动驾驶数据获取车670上,将前进停车行驶数据取得范围890,让精通该汽车的驾驶的驾驶员手动停车行驶,并使其侧向停车,该停车行驶的自动驾驶数据获取车670的数控的行驶操作数据取得。跟踪电视摄像系统646中,编入了拍摄行驶方向的固定电视摄像机1,数控驱动的跟踪激光测距仪3,数控驱动的跟踪电视摄像机80。放映固定电视摄像机1拍摄的画面,放映固定电视摄像机监视器画面5上图像检测到的被摄体,将相当于该位置的方向,将跟踪激光测距仪3对准其测量与固定电视摄像机1图像识别到的被摄体的距离。固定电视摄像机1和跟踪激光测距仪3和跟踪电视摄像机80,安装在用数控驱动的汽车上的跟踪电视摄像系统646。
相当于该跟踪激光测距仪3测量的与被摄体的距离的视角和焦距,用跟踪电视摄像机80拍摄其方向,详细确认拍摄的图像并分析图像。该图像确认的被摄体从其方向和距离,可以从自动驾驶数据获取车670识别该图像识别的停车上的停车位置角A 886、B 887、C888和停车预定位置889。反映由固定电视摄像机1拍摄的画面,固定电视摄像机监视器画面5上的图像检测出的所有被摄体的图像确认和被摄体位置的距离,跟踪电视摄像机80拍摄的前进停车行驶数据取得开始位置的固定电视摄像机监视器画面中反映的停车位置角A895,B 896,C 897可以识别。
在下面的描述中,描述了描述所需的图像识别。
实施例:将图2所示的跟踪电视摄像系统646安装在自动驾驶数据获取车670的前面,将图像识别后的前进停车行驶数据取得范围890,让精通该汽车驾驶的驾驶员手动停车行驶,并取得侧向停车后的停车行驶的行驶操作数据。在前进停车行驶数据取得开始位置881,跟踪电视摄像系统646的固定电视摄像机1进行拍摄,固定电视摄像机1监视器画面891上的图像检测前进停车行驶数据取得开始位置的固定电视摄像机监视器画面中所反映的停车位置角A 892,B 893,C 894,将该跟踪激光测距仪3朝向相当于该画面上的位置的方向,测量其距离。
按照该测量的距离,以该视角和焦距,对跟踪电视摄像机80拍摄的跟踪电视摄像机监视器画面92上的前进停车行驶数据取得开始位置的跟踪电视摄像机监视器画面上所映的停车位置角A 895,B 896,C 897的图像分别进行图像识别,并将前进停车行驶数据取得开始位置881的停车行驶前的行驶驱动机构的驱动数值与该测量距离和各自的摄影方向相关联地存储。
在前进停车行驶数据取得位置883,由停车行驶中的跟踪电视摄像系统646的固定电视摄像机1拍摄,在固定电视摄像机1监视器画面891上,检测前进停车行驶数据取得开始位置的固定电视摄像机监视器画面上所映的停车位置角A 892,B 893,C 894,将跟踪激光测距仪3朝向相当于该画面上的位置的方向,测量其距离。
按照测量的距离,在其视场角和焦距下,跟踪电视摄像机80拍摄的跟踪电视摄像机监视器画面92上的前进停车行驶数据取得位置893的跟踪电视摄像机监视器画面92上所映的停车位置角A 898、B 899、C 900的图像,在各自的图像识别后的测量距离和各自的摄影方向上,将前进停车行驶数据取得位置A 883与停车行驶中A的行驶驱动机构的驱动数值相关联,进行存储。前进停车行驶数据取得位置B 884的89固定电视摄像机1监视器画面上,检测前进停车行驶数据取得开始位置的固定电视摄像机1监视器画面891上显示的停车位置角A 892,B 893,C 894,将其跟踪激光测距仪3对准相当于该画面上的位置的方向,测量其距离。
根据测量的距离,在其视场角和焦距下,跟踪电视摄像机80拍摄的跟踪电视摄像机监视器画面92上的前进停车行驶数据取得的位置的跟踪电视摄像机监视器画面92上显示的停车位置角A 901、B 902、C 903的图像被识别为各自的图像,在其测量距离和各自的摄影方向上,前进停车行驶数据取得位置B 884与停车行驶中B的行驶驱动机构的驱动数值相关联,存储。
前进停车行驶数据取得位置C 885在停车行驶中C的固定电视摄像机1监视器画面891上,检测前进停车行驶数据取得开始位置的固定电视摄像机1监视器画面891上所反映的停车位置角A 892,B 893,C 894,将其跟踪激光测距仪3朝向相当于该画面上的位置的方向,测量其距离。按照测量的距离,在其视场角和焦距上,跟踪电视摄像机80所拍摄的跟踪电视摄像机监视器画面92上的前进停车行驶数据取得位置885的跟踪电视摄像机监视器画面92上所反映的停车位置角A 904,B 905,C 906的图像,在各自的图像识别后的测量距离和各自的摄影方向上,将前进停车行驶数据取得位置C 885与停车行驶中C的行驶驱动机构的驱动数值相关联,进行存储。
在停车预定位置889的固定电视摄像机1监视器画面891上检测前进停车行驶数据取得开始位置的固定电视摄像机监视器画面上所反映的停车位置角A 892,B 893,向相当于该画面上的位置的方向,将跟踪激光测距仪3对准,测量其距离。按照其测量的距离,在其视场角和焦距上,将跟踪电视摄像机80所拍摄的跟踪电视摄像机监视器画面92上的前进停车行驶的停车预定位置889的停车位置角A 907,B 908的图像,分别识别图像后的测量距离和各自的摄影方向,与停车预定位置的停车预定位置889的行驶驱动机构的驱动数值相关联,进行存储。
类似地,将从前进停车运行数据获取范围890的几个不同位置获取的停车运行数据的几个相关联地存储。将上述前进停车行驶数据取得范围890内的图像检测出的固定电视摄像机监视器画面上的前进停车行驶数据取得开始位置的固定电视摄像机监视器画面中所反映的停车位置角A 892,B 893,C 894的跟踪电视摄像系统646中图像识别出的图像与其距离和方向相关联,从该行驶驱动机构的驱动数值中,从前进停车行驶数据取得范围890的所有位置开始停车行驶的该行驶驱动机构的驱动数值,通过插值法的演算或者模拟的演算取得并存储。
实施例:将图3所示的跟踪电视摄像系统646安装在自动驾驶数据获取车670的汽车的后表面上,倒车停车行驶数据取得范围915由精通该汽车驾驶的驾驶员手动停车行驶,后向停车,取得该停车行驶的行驶操作数据。与上述说明相同,将倒车停车行驶数据取得范围915内的图像检测出的倒车停车行驶数据取得开始位置的固定电视摄像机监视器画面上的倒车停车行驶数据取得开始位置的固定电视摄像机监视器画面916上所反映的停车位置角A 917、B 918、C 919,与跟踪电视摄像系统646中图像识别出的图像及其距离和方向相关联,通过内插法的运算或者模拟的运算,从该行驶驱动机构的驱动数值中获取并存储从倒车停车行驶数据取得范围915的所有位置开始停车行驶的该行驶驱动机构的驱动数值。
将图4所示的跟踪电视摄像系统646安装在自动驾驶数据获取车670的汽车的后表面上,倒车停车行驶数据取得范围915由精通该汽车驾驶的驾驶员手动停车行驶,并行停车,以同样的方法取得停车行驶的行驶操作数据。
将图5所示的跟踪电视摄像系统646安装在自动驾驶数据获取车670的汽车的后表面上,倒车停车行驶数据取得范围915由精通该汽车驾驶的驾驶员手动停车行驶并向前停车,以同样的方法取得停车行驶后的行驶操作数据。
将图6的跟踪电视摄像系统646安装在自动驾驶数据获取车670的汽车的前面,将前进停车行驶数据取得范围890让精通该汽车的驾驶的驾驶员手动停车行驶后向停车,以同样的方法取得该停车行驶的行驶操作数据。
将图7所示的跟踪电视摄像系统646安装在自动驾驶数据获取车670的汽车的前面,将前进停车行驶数据取得范围890由精通该汽车驾驶的驾驶员手动停车行驶,以同样的方法取得前向并行停车后的停车行驶的行驶操作数据。
将图8的跟踪电视摄像系统646安装在自动驾驶数据获取车670的汽车的前表面和后表面上,将固有的前进停车行驶数据取得范围890和后退停车行驶数据取得范围915由精通该汽车驾驶的驾驶员手动停车行驶,倾斜前方停车,以同样的方法取得该固有的停车行驶的行驶操作数据。
除了该固有的前进停车行驶数据取得范围890的前进停车行驶数据取得开始位置881之外,还从几个地点以同样的方法取得该固有的停车行驶的行驶操作数据。通过安装在前面的跟踪电视摄像系统646,分别对图像进行识别,在各自的测量距离和各自的摄影方向上,将其各自的停车行驶的行驶驱动机构的各自的驱动数值相关联并进行存储。固有的倒车停车行驶数据取得范围915的前进停车行驶数据取得前进路线882的倒车停车行驶数据取得开始位置910的倒车停车行驶数据取得开始位置910之外,从几个地点,用同样的方法取得固有的停车行驶的行驶操作数据。安装在后面的跟踪电视摄像系统646,分别对图像进行识别,在各自的测量距离和各自的拍摄方向上,将各自停车运行的运行驱动机构的驱动数值相关联并进行存储。
上述的前进停车行驶数据获取范围890内的前进停车行驶数据获取前进路线882和后退停车行驶数据获取范围915内的倒车停车行车数据取得前进路线911中,图像检测到的固定电视摄像机监视器画面上的图像前进停车行驶数据取得开始位置的固定电视摄像机监视器画面中放映的停车位置角A 892,B 893,前进停车行驶数据取得开始位置的固定电视摄像机监视器画面中放映的停车预定位置909,跟踪电视摄像系统646中图像识别的图像与其距离和方向相关联,从该行驶驱动机构的固有驱动数值中,从固有的前进停车行驶数据取得范围890的前进停车行驶数据获取前进路线882和后进停车行驶数据取得范围915的倒车停车行车数据取得前进路线911的全部位置中,从固有的停车行驶的行驶驱动机构的驱动数值,通过内插法的演算或者模拟的演算取得并存储。
实施例:图9的固有的前进停车行驶数据取得范围890的前进停车行驶数据获取前进路线882由精通该汽车的驾驶的驾驶员手动停车行驶,倾斜前方停车的该固有的停车行驶的行驶操作数据,在自动驾驶数据获取车670的前面安装取得跟踪电视摄像系统646。固有的前进停车行驶数据取得范围890的前进停车行驶数据取得除了开始位置881以外,从几个开始位置,用同样的方法取得固有的停车行驶的停车行驶操作数据。分别进行图像识别,在各自的测量距离和各自的摄影方向上,将其各自的停车行驶的行驶驱动机构的各自的驱动数值关联起来进行存储。
实施例:上述在固有的前进停车行驶数据取得范围890中的图像检测出的固定电视摄像机监视器画面5上的图像前进停车行驶数据取得开始位置的固定电视摄像机监视器画面中放映的停车位置角A 892,B 893,前进停车行驶数据取得开始位置的固定电视摄像机监视器画面中放映的前进停车行驶数据取得从开始位置的固定电视摄像机监视器画面中放映的停车预定位置909的跟踪电视摄像系统646中图像识别的图像与其距离和方向相关联,从该行驶驱动机构的固有驱动数值中,通过内插法的运算或者模拟的运算取得并存储从固有的前进停车行驶数据取得范围890的所有位置开始停车行驶的该行驶驱动机构的驱动数值。为了修正所取得的演算数值,将想要修正的前进停车行驶手动进行前进停车行驶,使用该行驶驱动机构的驱动数值,通过插值法的修正演算,用同样的方法取得想要修正的前进停车行驶的行驶驱动数值。
实施例为了从图10的模拟行驶路968连接到前进停车行驶数据取得范围890的停车行驶,让精通该汽车的驾驶的驾驶员手动后进行驶,在自动驾驶数据获取车670的后面安装取得与该固有的行驶操作数据连接的模拟数据。从各个模拟行驶路968,向前进停车行驶数据取得范围890行驶,从其几个后进模拟取得开始位置910进行模拟行驶,停车行驶向折返位置983进行几个前进停车行驶的模拟行驶数据,用跟踪电视摄像系统646演算选择。停车位置角A 886,B 887,C 888和停车预定位置889,分别用5固定电视摄像监视器画面对倒车停车行驶数据取得开始位置的固定电视摄像机监视器画面中所映的停车位置角A 917,B918,倒车停车行驶数据取得开始位置的固定电视摄像机监视器画面中所映的停车预定位置934进行图像识别,从各自的测量距离和各自的摄影方向的图像识别中,像模拟行驶路和前进停车行驶数据与前进停车行驶数据的电视监视器画面966的倒车停车行车数据行车路与模拟行车路967那样,模拟行驶1051数据与前进停车行驶数据获取前进路线882相连接的数据与该停车行驶车的行驶驱动机构的将每个驱动数值相关联地从已经存储的存储器中进行选择。
在模拟行驶路和前进停车行驶数据行驶路的电视监视器画面966上,通过选择倒车停车行车数据行车路与模拟行车路967,与前进停车行驶数据获取前进路线882连接,以模拟行驶1051行驶到停车行驶折返位置983。在此期间,对固定电视摄像机监视器画面5上的前进停车行驶数据取得开始位置的固定电视摄像机监视器画面中显示的停车位置角A892,B 893,和前进停车行驶数据取得的停车预定位置942进行图像识别,在CG合成画面中显示后退停车行驶数据行驶路和模拟行驶路的接合位置965并进行确认。
在模拟行驶1051中行驶到停车行驶折返位置983,将倒车停车行驶的车辆960的驱动数值替换为前进停车行驶的车辆949的驱动数值,在固有的前进停车行驶数据取得范围890的位置,将跟踪电视摄像系统646安装在自动驾驶数据获取车670的前面;对固定电视摄像监视器画面5上的前进停车行驶数据取得开始位置的固定电视摄像监视器画面中所反映的停车位置角A 892,B 893和前进停车行驶数据取得的停车预定位置942进行图像识别;前进停车行驶数据获取前进路线882进行前进停车行驶,停车预定位置889停车。对停车预定位置进行图像识别,该停车数据通过模拟运算直到行驶到能够行驶的范围为止的行驶数据,通过模拟后的行驶数据进行行驶,可以实现从多种位置自动驾驶到多种停车位置的停车。
测量已经识别了图11的跟踪电视摄像机监视器画面上的图像的、在跟踪电视摄像机监视器画面上显示的停放车辆的图像分析位置的距离和角度的运算画面上的停放车辆之间的距离。同样,在跟踪电视摄像机监视器画面中所反映的停放车辆的图像分析位置和停车场所的演算画面977上的图像进行识别的几个正向停车中的车辆间进行测量。倒退停车行驶数据取得开始位置的跟踪电视摄像机监视器画面中显示的停车位置角A 920和倒退停车行驶数据取得开始位置的跟踪电视摄像机监视器画面中显示的停车位置角B 921之间的距离进行测量,判断可以停车。
从安装在倒车停车行驶的车辆960后面的跟踪电视摄像系统646的跟踪电视摄像所拍摄的倒车停车行驶的车辆960的位置,计算模拟行驶路968。从倒车停车可行驶范围974到倒车停车行驶数据向可行驶范围975的该位置的连接为止,用模拟的方法演算出的,用演算出的驱动机构的驱动数值的数值行驶。倒车停车行驶数据在行驶路和模拟行驶路的接合位置965,拍摄跟踪电视摄像系统646的后行驶方向,通过跟踪电视摄像机80拍摄的画面进行图像识别,通过跟踪激光测距仪3测量距离。该场所正向停车中的车辆间停车位置角A886和停车位置角B 887的测量距离,判断再次可以停车,倒车停车行驶的车辆960,倒车停车行驶数据行驶路978的倒车停车行驶数据行驶并停车。
实施例测量安装在图12的前进停车行驶的车辆949前面的跟踪电视摄像系统646的固定电视摄像机1拍摄到的固定电视摄像机监视器画面5上的图像检测到的固定电视摄像机1监视器画面左手深处的停放车辆侧面的图像位置951由跟踪电视摄像机80拍摄到的前进停车行驶的跟踪电视摄像机监视器画面中所反映的深处的停车预定位置948的方向和距离。为了与已经取得的前进停车行驶数据行驶路987中的任一个的停车行驶开始位置和该车辆驱动机构的驱动数值相匹配,从前进停车行驶的车辆949位置开始,用模拟运算,向倒车停车行驶数据行驶区域的模拟行驶964,向倒车停车行驶数据行驶路和模拟行驶路的接合位置965折返,向倒车停车行驶数据行驶路978倒车停车行驶,向预定停车位置889停车。
利用画面上的图像识别检测安装在实施例图13的倒车停车行驶的车辆960后面的跟踪电视摄像系统646的固定电视摄像机1拍摄到的、固定电视摄像机监视器画面5上的倒车停车行驶的固定电视摄像机监视器画面上所映的后面的停车位置980,将其跟踪激光测距仪3朝向相当于该检测到的或选出的位置的方向,测量与该图像的距离。将相当于测量的距离的视场角和焦距合在一起,用跟踪电视摄像机80拍摄检测到的或选出的图像,跟踪电视摄像机监视器画面92上的图像进行图像识别。该图像是倒车停车行驶数据取得的停车预定位置938,跟踪电视摄像机监视器画面92上的倒车停车行驶的跟踪电视摄像机监视器画面中显示的后面的停车位置981,通过声音或者图像进行确认。
跟踪电视摄像机监视器画面92上的倒车停车行驶的跟踪电视摄像机监视器画面上显示的修正在跟踪电视摄像机监视器画面92上修正停车位置982,为了使该画面的停车位置在跟踪电视摄像机监视器画面92中央显示,改变跟踪激光测距仪3和跟踪电视摄像机80的测量方向和摄影方向。通过再次的图像确认和测距,通过确认从倒车停车行驶的车辆960到倒车停车行驶数据取得的停车预定位置938的方向和距离,测量跟踪电视摄像系统646已经取得的向前并列停车预定位置的倒车停车行驶数据取得的停车预定位置938的倒车停车行驶数据取得的停车预定位置的距离。
倒车停车行驶数据行驶路978的倒车停车行驶数据行驶到行驶范围973的倒车停车行驶数据行驶路和模拟行驶路的接合位置965,以及共享的该驱动机构的驱动数值,使用测量的数值计算后的数值,向倒车停车行驶数据行驶区域的模拟行驶964。倒车停车行驶数据行驶到行驶范围973后,在倒车停车行驶数据行驶路978停车行驶,在倒车停车行驶数据取得的停车预定位置938停车。
安装在实施例图14的前进停车行驶的车辆949的前面的跟踪电视摄像系统646的固定电视摄像机1所拍摄的、固定电视摄像机监视器画面5上的前进停车行驶的固定电视摄像机监视器画面972上所反映的里面的停车位置,检测画面上的图像,跟踪激光测距仪3朝向相当于该检测出的位置的方向,测量与该检测出的图像的距离。将相当于测量的距离的视场角和焦距合在一起,用跟踪电视摄像机80拍摄检测到的图像,跟踪电视摄像机监视器画面92上的图像进行图像识别。识别该图像并测量其距离,判断为可以后向停车,在识别该图像的位置停车,向显示模拟行驶的数据取得范围998的固定电视摄像机监视器画面5的模拟行驶数据取得范围984行驶,寻找能够对模拟行驶的停放车辆进行运算的位置行驶。
固定电视摄像机监视器画面5上的倒车停车行驶的固定电视摄像机监视器画面上显示的里面的停车位置980按照画面上的图像识别能够检测出来的方式行驶,跟踪激光测距仪3朝向相当于检测出的位置的方向,测量与检测出的图像的距离。确认其图像,在可以测量其距离的位置上,进行向倒车停车行驶数据行驶区域的模拟行驶964的演算。将相当于测量的距离的视场角和焦距合在一起,用该跟踪电视摄像机80拍摄检测选出的图像,对跟踪电视摄像机监视器画面92上的图像进行图像识别。
从倒车停车行驶数据行车路与模拟行车路的接合位置965,在倒车停车行驶数据行驶路978倒车停车行驶。配合倒车停车行驶,将安装在前进停车行驶的车辆949前面的跟踪电视摄像机80拍摄的跟踪电视摄像机监视器画面92上的图像,与跟踪电视摄像系统646测量的位置和行驶方向位置进行变换。该变换后的跟踪电视摄像机监视器画面92与确认的停车位置的图像的停车行驶相匹配,将图像变换后的画面显示在监视器画面上。
实施例:利用画面上的图像识别检测安装在实施例图15的前进停车行驶的车辆949的前面的跟踪电视摄像系统646的固定电视摄像机1拍摄到的、固定电视摄像机监视器画面5上的固定电视摄像机监视器画面中所映的停车位置986,指示该检测到的位置,将跟踪激光测距仪3朝向相当于该位置的方向,测量与该检测到的图像的距离。结合相当于测量距离的视角和焦距,用跟踪电视摄像机80拍摄检测到的图像,跟踪电视摄像机监视器画面92上图像的停车位置进行图像识别。识别其图像并测量其距离,通过跟踪电视摄像机80拍摄的图像对其停车位置的周边进行图像识别,通过跟踪激光测距仪3测量其距离,根据过去学习的停车位置,判断可以并列停车,选出在该图像识别位置停车的前进停车行驶数据行驶路987进行行驶并停车。记忆其停车行驶,并追加到其学习中。
实施例:利用画面上的图像识别检测安装在实施例图16的前进停车行驶的车辆949的前面的跟踪电视摄像系统646的固定电视摄像机1所拍摄的、固定电视摄像机监视器画面5上的固定电视摄像机监视器画面所反映的停车位置986,将跟踪激光测距仪3朝向相当于该检测到的位置的方向,测量与该检测到的图像的距离。结合相当于测量距离的视角和焦距,用跟踪电视摄像机80拍摄检测到的图像并进行图像识别,显示跟踪电视摄像机监视器上的停车模拟画面988。
通过在跟踪电视摄像机监视器中显示的停车模拟画面988上确认停车预定位置978,或者修正该画面中显示的停车位置,在跟踪电视摄像机监视器画面中显示的停放车辆的图像分析位置上显示停车场所的演算画面977。通过确认其停车位置,修正向倒车停车行驶数据行驶区域的模拟行驶964,选择在倒车停车行驶数据行驶路与模拟行驶路的接合位置965折回的停车行驶,在倒车停车行驶数据行驶路978行驶中停车。向跟踪电视摄像系统646发出停车指示,跟踪电视摄像系统646对停车位置进行图像识别,确认该画面的显示,或者通过修正确认遵从该指示的画面,前进停车行驶的车辆949在其停车预定位置889停车行驶并停车。
实施例:通过安装在实施例图17的倒车停车行驶的车辆960的后正面的跟踪电视摄像系统646的固定电视摄像机1所拍摄的、反映固定电视摄像监视器画面中所反映的停车位置986的画面上的图像识别进行检测,将跟踪激光测距仪3朝向相当于该检测出的位置的方向,测量与该检测出的图像的距离。结合相当于测量距离的视角和焦距,用跟踪电视摄像机80拍摄检测到的图像,跟踪电视摄像机监视器画面92上图像的停车位置进行图像识别。
识别其图像并测量其距离,对其停车位置的周边进行跟踪电视摄像机80拍摄的跟踪电视摄像机监视器画面92的停放车辆后部的图像分析用A 989,B 990,C 991,D 992的图像进行图像识别,用跟踪激光测距仪3测量其距离并计算停放车辆间的距离,从过去学习的停放车辆间判断可以进行前进列停车,在模拟行驶中,在倒车停车行驶数据行驶路和模拟行驶路的接合位置965折返,在该图像识别的前进停车行驶的跟踪电视摄像机监视器画面中显示的深处停车预定位置948停车。跟踪电视摄像系统646在其停车预定位置的周边行驶时,多次测量跟踪电视摄像机80所拍摄的跟踪电视摄像机监视器画面92的图像识别及其距离。
实施例:安装在实施例图18的前进停车行驶的车辆949的正面的跟踪电视摄像系统646的固定电视摄像机1所拍摄的、固定电视摄像机监视器画面所反映的停车位置986的画面上,检测并图像识别固定电视摄像机监视器画面的左手前方的停放车辆的侧面的图像位置950、固定电视摄像机1监视器画面的左手后方的停放车辆的侧面的图像位置951、固定电视摄像机监视器画面的中央的停车留路缘的图像位置952、固定电视摄像机监视器画面的右手后方的停放车辆的侧面的图像位置953、固定电视摄像机监视器画面的右手前方的停放车辆的侧面的图像位置954的多个图像。将跟踪激光测距仪3朝向相当于多个检测位置的各个方向,测量与该检测出的多个图像的距离。
结合相当于多个测量距离的视角和焦距,用跟踪电视摄像机80拍摄检测出的多个图像,对跟踪电视摄像机监视器画面92上前进停车行驶的跟踪电视摄像机监视器画面上显示的左手前的停放车辆的侧面955,前进停车行驶的跟踪电视摄像机监视器画面上显示的左手后的停放车辆的侧面956,前进停车行驶的跟踪电视摄像机监视器画面上显示的停车留路缘957,前进停车行驶的跟踪电视摄像机监视器画面上显示的右手后的停放车辆的侧面958,前进停车行驶的跟踪电视摄像机监视器画面上显示的右手前的停放车辆的侧面959的多个图像进行图像识别和存储。
根据识别该图像并测量其距离的前进停车行驶的车辆949的位置,通过测量跟踪电视摄像机80拍摄其停车位置周边的左手前方的停放车辆的侧面943、左手内侧的停放车辆的侧面944、停车留缘945、右内侧的停放车辆946的侧面、右手前方的停放车辆的侧面947的位置和各自的距离,可以掌握前进停车行驶数据获取前进路线882中停车预定位置889的位置停车。取得前进停车行驶数据根据前进道路的停车行驶的过去学习的停车方法判断后向停车合适,根据前进停车行驶数据行驶路987的该行驶数据停车行驶,在停车位置停车。记忆各自识别的图像,作为下次以后的停车行驶图像识别的参考。
安装在实施例图19的倒车停车行驶的车辆960的后正面的跟踪电视摄像系统646的固定电视摄像机1所拍摄的固定电视摄像机监视器画面中显示的停车位置986,检测固定电视摄像机监视器画面的左手前方的停放车辆的侧面的图像位置950、固定电视摄像机1监视器画面的左手后方的停放车辆的侧面的图像位置951、固定电视摄像机监视器画面的中央的停车留路缘的图像位置952、固定电视摄像机监视器画面的右手后方的停放车辆的侧面的图像位置953、固定电视摄像机监视器画面的右手前方的停放车辆的侧面的图像位置954的多个图像,并进行图像识别。
三个跟踪激光测距仪朝向相当于多个检测到的位置的各个方向,测量与多个检测到的图像之间的距离。结合相当于多个测量距离的视角和焦距,用跟踪电视摄像机80拍摄检测出的多个图像,对跟踪电视摄像机监视器画面92上前进停车行驶的跟踪电视摄像机监视器画面上显示的左手前方的停放车辆的侧面955,前进停车行驶的跟踪电视摄像机监视器画面上显示的左手后方的停放车辆的侧面956,前进停车行驶的跟踪电视摄像机监视器画面上显示的停车留路缘957,前进停车行驶的跟踪电视摄像机监视器画面上显示的右手后方的停放车辆的侧面958,前进停车行驶的跟踪电视摄像机监视器画面上显示的右手前方的停放车辆的侧面959的多个图像进行图像解析和存储。
根据识别该图像并测量其距离的倒车停车行驶的车辆的位置960,通过测量跟踪电视摄像机80拍摄的左手前方的停放车辆的侧面943、左手内侧的停放车辆的侧面944、停车留缘945、右内侧的停放车辆946的侧面、右手前方的停放车辆的侧面947的位置及其距离,可以把握倒车停车行驶数据取得的停车预定位置938的空间。向取得倒车停车行驶数据的停车预定位置938,把握其空间,用过去学习的停车方法判断前向停车合适,倒车停车行车数据取得前进路线911停车行驶,在停车位置停车。存储各自识别的车辆图像,作为下次以后的停车行驶图像识别的参考。
(避免事故)
实施例图20的自动驾驶数据获取670是一种用于获取对应避免碰撞的被摄体674不感到恐惧的停止方法的停止数据的方法。在行驶路C 713上,以相同速度行驶,从自动驾驶数据获取车辆位置A 671,B 672,C 673的距离到停止为止,取得各行驶操作的数据。同样,在行驶路A 710,B 711,C 713,D 715,E 716,F 718以相同的速度行驶,从自动驾驶数据获取车辆位置A 671,B 672,C 673的距离到停止为止,取得各行驶操作的数据。
以该行驶速度,在该行驶路的所有位置,将不感到该恐惧的停止方法与自动驾驶数据获取车670的数控的驱动机构的作为该行驶数据的驱动数值,作为在该停止运转开始的位置取得的行驶数据相关联,从该行驶路的所有位置,通过内插法等的运算取得在该停止运转开始的位置取得的停止的行驶数据。即使在不同的速度下也同样,通过插值法的演算取得在该行驶路的所有位置上,该所有速度的停止行驶数据。
实施例图21的自动驾驶数据获取670是一种获取对应避免碰撞的被摄体674不感到恐惧的回避方法的避让驾驶数据的方法。在行驶路C 715上,以相同速度行驶,从自动驾驶数据获取车辆位置A 671,B 672,C 673的距离开始避让驾驶,获取各行驶操作的数据。同样,在行驶路A 710,B 711,D 716,E 718,以相同速度行驶,从自动驾驶数据获取车辆位置A671,B 672,C 673的距离开始避让驾驶,获取各行驶操作的数据。
自动驾驶数据获取车670数控驱动机构的作为该避让行驶数据的驱动数值与从该避让驾驶开始的位置获取的避让行驶数据相关联,并通过内插法的运算获取在该行驶路径的所有位置开始避让驾驶的避让行驶数据。即使在不同的通常速度下也一样,通过插值法的演算取得该行驶路的所有通常速度的、不会让人感到恐惧的避让驾驶的避让行驶数据。
实施例图22中的自动驾驶数据获取670是一种以最大限度的避让驾驶获取侧向通过驾驶数据674的方法。在行驶路C 715上,以相同速度行驶,从自动驾驶数据获取车辆位置A 671,B 672,C 673开始,以最大限度的避让驾驶通过应该回避碰撞的被摄体674的侧面进行驾驶,取得各行驶操作的数据。同样,在行驶路A 710,B 711,D 716,E 718上以相同速度行驶,从自动驾驶数据获取车辆位置A 671,B 672,C 673的距离开始,以最大限度的避让驾驶,通过侧面驾驶,取得各行驶操作的数据。
将侧面通过驾驶方法与侧面通过驾驶开始的位置和获取的行驶数据相关联,并通过内插法的运算获取在该行驶速度下,在行驶路的所有位置,通过最大限度的避让驾驶来避免与应避免碰撞的被摄体674的碰撞的行驶数据,该侧面通过驾驶方法在行驶路的所有位置,通过最大限度的避让驾驶来避免与应避免碰撞的被摄体674的碰撞。即使在不同速度下也一样,在其最大限度的避让驾驶开始位置的所有位置,通过内插法的演算,取得在该行驶路的所有速度的最大限度的避让驾驶中回避与应该回避碰撞的被摄体674的碰撞驾驶的行驶数据。
实施例:图23的自动驾驶数据获取670是一种以最大限度地避免驾驶的方式获取驾驶数据的方法,其中车辆不与应避免碰撞的被摄674体发生碰撞。在行驶路C 715中,以相同速度行驶,从自动驾驶数据获取车辆位置A 671,避免碰撞驾驶数据获取A 679,避免碰撞驾驶数据获取B 680,避免碰撞驾驶数据获取C 681,避免碰撞驾驶数据获取D 682,避免碰撞驾驶数据获取E 683,避免碰撞驾驶数据获取F 684,避免碰撞驾驶数据获取G 685,通过在各位置上最大限度的避免驾驶而不与应避免碰撞的被摄体674碰撞,获取各行驶操作的数据。
同样地,在行驶路A 710、B 712、D 715、E 716、F 718的行驶路上,以相同的速度行驶,避免碰撞驾驶数据获取以A 679、B 680、C 681、D 682、E 683、F 684、G 685最大限度的避让驾驶的方法通过驾驶,每一次行驶操作的最大限度的避让碰撞,都是在熟悉驾驶该行驶车辆的操作者处获取避让数据,因此考虑到其最大限度的避让碰撞的结果。即使在不同的正常速度下也是如此,各行驶操作的最大限度避免碰撞,是通过熟悉该行驶车辆驾驶的操作者获取避免数据,因此也考虑到了最大限度避免碰撞的结果。
实施例:图24的避让驾驶数据获取设置在自动驾驶的汽车上的跟踪电视摄像系统646检测拍摄在固定电视摄像机监视器上的被摄体的图像,该固定电视摄像机监视器将行进方向远处的被摄体拍摄到固定电视摄像机1监视器画面上的自动驾驶车辆686,该固定电视摄像机监视器拍摄到固定电视摄像机监视器画面5上的自动驾驶车辆686,跟踪激光测距仪3朝向相当于该检测到的画面上的位置的方向,测量与该检测到的图像的距离,跟踪电视摄像机80以与该距离对应的视场角和焦距拍摄该检测到的图像。通过所拍摄的跟踪电视摄像机监视器画面92上的687自动驾驶车辆上安装的跟踪电视摄像机监视器所显示的图像分析,识别应该回避的被摄体的图像,并进行图像分析。
该像析图像识别为应该避让驾驶的亲子行人,通过尽量不让该亲子感到恐惧的避让驾驶和尽量不让该汽车的乘员感到恐惧的避让驾驶,让精通该汽车驾驶的驾驶者行驶,取得行驶的行驶操作数据。避免碰撞驾驶数据获取路面678的对于应避免碰撞的被摄体674,自动驾驶数据获取车670在测量其距离的同时获取避免驾驶数据的方法。其获取方法是,让精通该汽车驾驶的驾驶员行驶,作为其装载的跟踪电视摄像系统的图像解析和回避判断的学习数据来获取。
实施例:在图25中的避免碰撞驾驶数据获取路面678是自动驾驶数据获取车670在判断为避免与应避免碰撞被摄体674发生碰撞的避免驾驶开始位置A 688处的避免碰撞,并执行避免驾驶A 689的避免驾驶数据取得操作。
实施例:图26的避免碰撞驾驶数据获取路面678是自动驾驶数据获取车670在避免与应避免碰撞被摄体674发生碰撞的避免驾驶开始位置B 690判断为避免碰撞,进行避免驾驶B 691的避免驾驶获取驾驶。
实施例:图27的避免碰撞驾驶数据获取路面678是自动驾驶数据获取车670在为了避免与应避免碰撞被摄体674发生碰撞的避让驾驶开始位置C 692处判断为避免碰撞,进行避让驾驶C 693的避让驾驶数据取得驾驶。
实施例:图28的避免碰撞驾驶数据获取路面678是自动驾驶数据获取车670在避免与应避免碰撞的被摄体674发生碰撞的避免驾驶开始位置D 694判断为避免碰撞,并进行避免驾驶D 695的避免驾驶取得驾驶。
实施例:图29的避免碰撞驾驶数据获取路面678是自动驾驶数据获取车670在避免与应避免碰撞的被摄体674发生碰撞的避免驾驶开始位置E 696处判断为避免碰撞并进行避免驾驶E 697的避免驾驶数据取得驾驶。
实施例:图30的避免碰撞驾驶数据获取路面678是自动驾驶数据获取车670辆在避免与应避免碰撞的被摄体674发生碰撞的避免驾驶开始位置F 698处判断为避免碰撞,并执行避免驾驶F 699的避免驾驶数据获取驾驶。
实施例:图31的避免碰撞驾驶数据获取路面678是自动驾驶数据获取车670在为了避免与应避免碰撞的被摄体674的碰撞的避让驾驶开始位置G 700处判断为避免碰撞,进行避让驾驶G 701的避让驾驶数据取得驾驶。
实施例:图32的避免碰撞驾驶数据获取路面678上的自动驾驶数据获取车670判断为避免与应避免碰撞的被摄体674的碰撞在避免驾驶开始位置H 702处避免碰撞,取得避免驾驶H 703的最大限度的避免驾驶数据,取得测量其冲击的加减速传感器和冲击传感器的数值。
实施例:图33中的避免碰撞驾驶数据获取路面678的道路A 710上行驶的自动驾驶数据获取车670取得避免驾驶数据驾驶,仅为了避免与应避免碰撞的被摄体674发生碰撞。其避让驾驶数据是自动驾驶数据获取车670的驾驶相关的机构的驱动位置、其测量的距离和方向、加减速传感器和冲击传感器。
实施例:图34的避免碰撞驾驶数据获取路面678的711取得行驶路B的自动驾驶数据获取车670仅为了避免与应避免碰撞的被摄体674的碰撞而进行了最大避让行驶B 712的避让驾驶数据取得驾驶。
实施例:图35的避免碰撞驾驶数据获取路面678的行驶路C 713上行驶的自动驾驶数据获取车670仅为了避免与应避免碰撞的被摄体674的碰撞而进行最大避让行驶C 714的避让驾驶数据取得驾驶。
实施例:图36的避免碰撞驾驶数据获取路面678的取得行驶路D 715的自动驾驶数据获取车670仅为了避免与应避免碰撞的被摄体674的碰撞而进行了最大避让行驶D 719的避让驾驶数据取得驾驶。
实施例:图37的避免碰撞驾驶数据获取路面678的716行驶路E上行驶的自动驾驶数据获取车670仅为了避免与应避免碰撞的被摄体674的碰撞而进行最大避让行驶E717的避让驾驶数据取得驾驶。
实施例:图38中的避免碰撞驾驶数据获取路面678的行驶路F 718上行驶的自动驾驶数据获取车670的取得操作仅为了避免与应避免碰撞的被摄体674发生碰撞。
实施例:图39的避免碰撞驾驶数据获取路面678的在行驶路A 710、B 711、C 713、D715、E 716、F 718上行驶的自动驾驶数据获取车670取得避免驾驶数据驾驶,仅为了避免与应避免碰撞的被摄体674发生碰撞。向应避免碰撞的被摄体674方向以相同速度行驶自动驾驶数据获取车670使用从避让驾驶操作开始的位置到避让驾驶操作结束的数据,碰撞避让驾驶数据获取路面678的所有位置向应避免碰撞的被摄体674方向行驶自动驾驶数据获取车670的避让驾驶操作数据,通过内插法的演算获取并存储。
实施例:图40所示的避免碰撞驾驶数据获取路面678的行驶路上行驶的自动驾驶数据获取车670在20公里行驶的自动驾驶汽车704中,在避免碰撞驾驶数据获取路面678的行驶路上行驶的20公里的避让行驶和最大避让行驶705中取得数据。60km行驶自动驾驶汽车706,在碰撞避让驾驶数据获取路面678的行驶路上行驶,60km行驶的避让行驶和最大避让行驶707的数据。100km行驶自动驾驶汽车708,在碰撞避让驾驶数据获取路面678的行驶路上行驶,100km行驶的避让行驶和最大避让行驶709的数据。在不同的行驶速度下,通过上述方法,从几个行驶速度下取得的、根据行驶速度的避让行驶数据中,通过插值法的演算取得通常行驶的所有速度行驶下的避让行驶数据,并使其存储。
实施例:在图41的碰撞回避驾驶数据取得路面678的行驶道路上行驶,向安装在组装有跟踪电视摄像机系统646的自动驾驶数据取得车670的前面的、与鱼眼镜头固定电视摄像机251拍摄的鱼眼镜头固定电视摄像机监视器画面501上的图像检测出的车辆的位置相当的方向,将跟踪激光测距仪3和跟踪电视摄像机80对准。
跟踪激光测距仪3测量从其左侧到前方右侧车720的距离。根据测量的距离,在视场角和焦距上反映跟踪电视摄像机80拍摄的画面,跟踪电视摄像机监视器画面92用图像分析器224进行图像分析,根据图像识别的图像分析信号225的图像信息、其方向和测量的距离,分析前方右侧车720的位置。比较判断该图像识别的图像信息的重要性,按跟踪电视摄像机80的拍摄方向继续跟踪。跟踪激光测距仪3每次测量其跟踪的跟踪电视摄像机80的方向的距离。
根据测量的方向和距离的测量差,预测前方右侧车720测量的方向和距离,从事先取得的回避数据中选择在该预测的位置和方向上的最佳避让驾驶,预知避让驾驶。测量该图像信息和该方向的周边,确认避让驾驶范围。通过演算该行驶车的移动侧度,设想其行驶位置,作为避让驾驶范围,从已经取得的避让驾驶的数据中选择能够对应避让驾驶的数据,进行避让驾驶。取得避让驾驶的各数据,加入到避让驾驶的学习中。
实施例:图42的自动驾驶数据获取车670的前面,存储由间隔安装的麦克风A 229、B 238分别拾取的声音信号。用语音分析器232对存储的语音进行语音分析,通过该拾音信号的相位差,计算该拾音声源的水平方向。跟踪电视摄像系统646的跟踪激光测距仪3和数控电视摄像机35,朝向其演算的方向。在该演算方向上,数控电视摄像机35拍摄的图像中,检测出从左开始的前方右侧车720的图像,数控电视摄像机监视器画面37上显示的相当于检测出图像的车辆241位置的方向,将跟踪激光测距仪3对准从左开始的行驶车辆的距离进行测量。根据测量的距离,对数控电视摄像机35拍摄的图像进行图像识别。
根据所测量的方向和距离的图像识别的行驶车的图像,测量该行驶车的位置、其行驶方向和移动速度,预测该行驶车的方向和距离,从事先取得的避让数据中选择在该预测位置的最佳避让驾驶,进行避让驾驶。该图像识别出的图像信息、数控电视摄像机监视器画面37上显示的图像检测出的车辆241位置、跟踪激光测距仪3测量出的距离、从该声音信号中计算出的行驶方向、该计算出的测量距离、该汽车驱动机构的驱动数值和该声音信号。从这些记忆的数值中获取能够对应避让驾驶的数据,记忆避让驾驶并加入学习。通过记忆并学习安装在汽车行驶方向上的麦克风拾音的声音信号,从该声音信号中设想行驶车辆的位置,从已经取得的避让驾驶数据中选择能够对应避让驾驶的数据,进行避让驾驶。
通过在行驶汽车的行驶方向的前面安装多个具有方向性的超声波发生器1072,附加发送该行驶汽车的行驶速度的信息等,可以对该行驶汽车的该发送进行接收器,在接收该信号的位置上,计算该行驶汽车的行驶方向和行驶速度。在接收该信号的汽车上,通过多个超声波发生器进行接收,可以计算该汽车和其行驶汽车之间的行驶速度,以及该位置的方向和距离。在超声波的传播处,能够迅速感知靠近的行驶汽车的方向,将数控电视摄像机35和跟踪激光测距仪3对准该方向,进行早期的图像检测和测量靠近的行驶汽车的距离。
实施例:安装在图43的在避免碰撞驾驶数据获取路面678的行驶路上行驶的自动驾驶数据获取车670前后的像素测距跟踪电视摄像系统。像素测距跟踪电视摄像机B 753拍摄的LED发光元件107发光,该LED发光元件107位于与像素测距跟踪电视摄像机B 753的图像元件在检测到像素测距跟踪电视摄像机监视器画面B 757上的被摄体的图像的位置处的位置,并且光通过像素测距跟踪电视摄像机B 753的光学透镜照射被摄体。测量被照射的反射光的反射时间,测量与被摄体的距离。
将相当于所测量的距离的像素测距跟踪电视摄像机B 753的像素子的范围缩小到检测到的位置的像素测距跟踪电视摄像机B 753的图像元件的位置,用图像分析器对被摄体的像素测距跟踪电视摄像机监视器画面B的放大画面762进行图像分析,根据图像识别的图像信息、其方向和所测量的距离,分析被摄体前方右侧行驶车辆的位置。比较判断该图像识别的图像信息的重要性,在像素测距跟踪电视摄像机B 753的拍摄方向上继续跟踪。跟踪的像素测距每次测量跟踪电视摄像机B 753的方向的距离。根据测量的方向和距离的测量差,预测前方右侧行驶车辆测量的方向和距离,从事先取得的回避数据中选择在该预测的位置和方向上的最佳避让驾驶,预知避让驾驶。
自动驾驶数据获取车670测量安装在车辆前后的像素测距跟踪电视摄像机系统的像素测距跟踪电视摄像机A 752、B 753、C 754、D 755拍摄的像素测距跟踪电视摄像机画面A 756、B 757、C 758、D 759的图像信息和该方向的周边进行测量,确认避让驾驶范围。通过演算该行驶车的移动速度,设想其行驶位置,作为避让驾驶范围,从已经取得的避让驾驶的数据中选择能够对应避让驾驶的数据,进行避让驾驶。取得避让驾驶的各数据,加入到避让驾驶的学习中。虽然尚未商品化,但像素测距跟踪电视摄像系统没有驱动机构,体积小,安装在自动驾驶数据获取车的各位置,能够获取来自各位置的避让驾驶数据。
实施例:图44的超越行驶驾驶数据取得路面1063的在行驶路A 710、B 711、C 713、D 715、E 716、F 718上行驶的自动驾驶数据获取车670为了避免与前车316的接触而进行超越行驶驾驶数据取得驾驶。跟踪激光测距仪3测量的距离,测量自动驾驶数据获取车670和前车316的距离之间的速度差。以相同的超车速度向前车316方向行驶,自动驾驶数据获取车670,使用从超车驾驶操作开始的位置到超车驾驶操作结束的数据,超越行驶驾驶数据取得路面1063的所有位置,为了避免316与前车的接触,从前车316的后方行驶,自动驾驶数据获取车670的超越行驶驾驶数据,通过内插法的演算取得并存储。
在前车316的几个不同行驶速度下,取得相同的超限行驶运行数据,在所有速度下,自动驾驶数据获取车670通过内插法的运算获取车辆的超限行驶运行数据,并进行存储。在超车行驶中,每次设定超车可能范围,在该范围内,对超车行驶驾驶数据进行优先顺序,进行超车行驶。由于超车行驶因状况而异,在用超车行驶驾驶数据开始超车行驶之前,在用跟踪电视摄像机测距系统测量周边行驶的相关车辆的方向和距离以及拍摄周边行驶的相关车辆的电视摄像机监视器画面上的位置,用模拟演算能够与超车行驶驾驶数据的数值相连接的行驶数据,能够用能够连接的Saymullishion的演算数值来执行超车行驶。
(获取普通道路运行数据)
实施例:图45的跟踪驾驶系统行驶车308的汽车安装了安装在取得跟踪驾驶系统309事故避免数据的自动驾驶汽车上的跟踪电视摄像机测距系统791,在一般机动车道349上行驶。跟踪驾驶系统309的固定电视摄像机1拍摄并检测出图像的被摄体,固定电视摄像机监视器画面5上,跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出的前方车辆803、人行道上的儿童804、对向车805、中央车道806的图像。
固定电视摄像机监视器画面5上的各个图像,跟踪激光测距仪3分别朝向检测出的图像的位置方向,测量其距离,按照各个测量出的距离调整视角和焦距,在跟踪电视摄像机80拍摄出各个被摄体的跟踪电视摄像机监视器画面92上,跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的对向车807,前方车辆808,中央车道809,人行道上的儿童810一边进行图像识别一边行驶。
由于测量了跟踪驾驶系统行驶车308的汽车的方向和距离,因此识别了图像识别的被摄体的位置,在确认该汽车在已经取得的碰撞范围之外的同时行驶。分析图像识别的位置,预测其碰撞范围的行驶。跟踪驾驶系统固定电视摄像机拍摄范围766的可行驶范围811内的行车道800范围内的行驶。
实施例:图46的跟踪驾驶系统309的固定电视摄像机1拍摄到的固定电视摄像机监视器画面5上,跟踪驾驶系统固定电视摄像机监视器画面上的图像检测到的行驶方向左侧的停放车辆833、行驶方向右侧的中央分离带标志834的图像。固定电视摄像机监视器画面5上的各个图像向检测出的图像位置方向,分别将跟踪电视摄像机80和跟踪激光测距仪3测量出各个距离,按照各个测量出的距离调整视角和焦距,在跟踪电视摄像机80拍摄的各个跟踪电视摄像机监视器画面92上,对跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别出的右侧路缘835,行驶方向的中央隔离带标记824,左侧停放车辆836,停放中的车辆,右侧的中线788进行图像识别。
为了确认汽车的行驶路线,有必要尽可能地把握行驶路线前方的状况。固定电视摄像机1检测到图像的被摄体,由于在对方有距离,将跟踪电视摄像机80和跟踪激光测距仪3朝向各个图像检测到的图像位置的方向,用跟踪激光测距仪3测量与该检测到的被摄体之间的距离,与该距离一致,缩小跟踪电视摄像机80的视角,在该距离上对准焦距,制成与该被摄体形状一致的视角的图像,进行图像识别。通过确认该图像的跟踪电视摄像机监视器画面92上拍摄被摄体图像的位置,跟踪电视摄像机80拍摄的方向和视角,跟踪激光测距仪3测量到该被摄体的距离和位置的数值,可以详细分析该被摄体的形状。
用该分析的数值,在跟踪电视摄像机监视器画面92上的跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的行驶方向的中央隔离带标记824和跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的左侧停放车辆836之间,演算并测量跟踪电视摄像机监视器画面上的停放中的车辆和右侧中线788的距离,跟踪驾驶系统行驶车308的汽车确认能够通过行驶后行驶。这些图像识别的图像是测量跟踪驾驶系统行驶车308从汽车开始的方向和距离,因此是一边认知识别图像的位置一边行驶的。
跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出的行驶方向左侧的停放车辆833、行驶方向右侧的中央隔离带标志834的图像检测出的各个图像的图像识别和测量各自的位置和形状。将各个距离的图像形状识别与大概的形状图像进行比较,识别可以通过的形状图像和图像,从测量各个图像的位置开始,演算各个图像间的距离,作为可以通过继续运行。继续其运行,直到接近各自的图像为止的几次,使各自图像的识别和各自图像间距离的演算精度良好地运行并通过。识别该图像,预测从图像中可能发生的行驶,设置其回避范围行驶。记忆该行驶操作。该图像识别并存储分析后的图像。
实施例:图47中的跟踪驾驶系统行驶车308的汽车安装了安装在获得跟踪驾驶系统309的事故避免数据的自动驾驶汽车上的跟踪电视摄像机测距系统791,以设定上限的速度行驶在一般机动车道349上。跟踪驾驶系统309的固定电视摄像机1拍摄并检测出图像的被摄体,固定电视摄像机监视器画面5上,跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出的前方车辆803、人行道上的儿童804、对向车805、中央车道806的图像。
固定电视摄像机监视器画面5上的各个图像向检测出的图像位置的方向,分别朝向跟踪电视摄像机80和跟踪激光测距仪3测量距离,按照各个测量的距离调整视角和焦距,在跟踪电视摄像机80拍摄的跟踪电视摄像机监视器画面92上,分别识别跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别车道上的儿童813,对面的车814,车道上的儿童815,行驶方向的儿童816,行驶方向的儿童817作为回避被摄体的图像。
这些图像识别后的图像,测量了跟踪驾驶系统行驶车308从汽车开始的方向和距离,因此是一边识别图像识别后的位置,一边确认该汽车在已经演算取得的碰撞范围之外的行驶。认知识别该图像的位置,在预测其碰撞范范围的行驶中,对识别的该图像是什么的判断,提前进行大概的了解,通过让其从记忆中学习,放大该图像的回避范围,集中于该图像的图像识别和距离的测量。
将儿童在该车道上的状况加上日期和时间,通过GPS的方位测量,通过互联网共享作为其固有位置的已经图像识别的位置的记忆,安装在取得跟踪驾驶系统309事故避免数据的自动驾驶汽车上的跟踪电视摄像机测距系统791的车辆,可以按照该图像的图像识别位置的记忆,在相同的状况下行驶,追加以相同方法取得的该位置的记忆,通过该取得的该图像的图像识别位置记忆,作为该互联网共享的位置记忆,通过该记忆进行学习。
实施例:图48的跟踪驾驶系统行驶车308的汽车安装了安装在取得跟踪驾驶系统309事故避免数据的自动驾驶汽车上的跟踪电视摄像机测距系统791,以设定上限的速度行驶在一般机动车道349。跟踪驾驶系统309的固定电视摄像机1拍摄的固定电视摄像机监视器画面5上跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出对向车的图像793。
固定电视摄像机监视器画面5上的该图像向检测出的图像位置的方向,面向跟踪电视摄像机80和跟踪激光测距仪3测量其距离,根据测量出的距离调整视角和焦距,将该被摄体集中到跟踪电视摄像机80拍摄的跟踪电视摄像机监视器画面92上跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的对向车794,对向车的周边795,对向车的周边的球796,对向车的周边的儿童797,对向车的周边的儿童的飞出798的学习预测,集中图像识别。通过事先对与该图像识别的图像相关的已学习预测的图像进行大概了解,或者让其学习,为了回避其冲突,集中对该图像的图像识别和距离的测量。
实施例:图49的跟踪驾驶系统行驶车308的汽车安装了安装在取得跟踪驾驶系统309事故避免数据的自动驾驶汽车上的跟踪电视摄像机测距系统791,在一般机动车道349上行驶。跟踪驾驶系统309的固定电视摄像机1拍摄并检测出图像的被摄体,固定电视摄像机监视器画面5上,跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出的前方车辆803、中央车道806、越过中央车道的对向车744、对方中央线512、儿童513的图像。
将跟踪电视摄像机80和跟踪激光距离测量机3分别朝向固定电视摄像机监视器画面5上的各个图像检测出的图像的位置的方向测量其距离,根据各个测量出的距离调整视场角和焦距,跟踪电视摄像机80拍摄各个被摄体。在其拍摄的跟踪电视摄像机监视器画面92中,跟踪驾驶系统一边识别跟踪电视摄像机监视器画面上图像识别的中央车道746,越过中央车道的对向车745,中央车道809,前方车辆808,车道上的儿童813一边行驶。
这些图像识别的图像,测量了跟踪驾驶系统行驶车308的汽车的方向和距离,因此在早期识别越过中央线行驶的对向车520,确认该汽车在已经演算取得的最大限度避免碰撞范围内的同时行驶。跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别车道上的儿童813,以最优先的回避图像碰撞的模拟行驶。其是预测越过中央线行驶过来的对向车520的图像识别,从认识到对向车的位置开始,用模拟演算并设想回避其碰撞的行驶。
实施例:图50的跟踪驾驶系统行驶车308的汽车安装了安装在获得跟踪驾驶系统309事故避免数据的自动驾驶汽车上的跟踪电视摄像机测距系统791,以设定上限的速度行驶在一般机动车道349上。跟踪驾驶系统309的固定电视摄像机1拍摄的固定电视摄像机监视器画面5上跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出车道上儿童799的图像。
固定电视摄像机监视器画面5上的该图像向检测到的图像位置方向跟踪电视摄像机80和跟踪激光测距仪3测量距离,根据该测量的距离调整视角和焦距,跟踪电视摄像机80拍摄到该被摄体,跟踪电视摄像机监视器画面92上,跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别到的车道上的儿童813作为儿童进行图像识别,连续地对该车道上的儿童进行图像识别。跟踪驾驶系统行驶车308的汽车行驶的方向和儿童的位置和行驶方向作为儿童进行运算并进行预测。
为了避免与该儿童的碰撞,跟踪驾驶系统行驶车308使用事先取得的避让行驶数据,从固定电视摄像机1拍摄到的固定电视摄像机监视器画面5上的该图像检测到的图像的位置,向没有能够检测回避方向图像的图像的方向,跟踪激光测距仪3朝向该方向测量距离。根据测量的距离调整视角和焦距,识别跟踪电视摄像机80拍摄的被摄体,跟踪电视摄像机80拍摄的跟踪电视摄像机监视器画面92上没有回避方向的图像,使用事先取得的避让行驶数据计算回避范围。为了避免与该儿童的碰撞,使用包含取得的最大限度的避让驾驶的避让驾驶数据进行行驶。
实施例:图51的跟踪驾驶系统行驶车308的汽车安装了安装在获得跟踪驾驶系统309事故避免数据的自动驾驶汽车上的跟踪电视摄像机测距系统791,以设定上限的速度行驶在一般机动车道349上。跟踪驾驶系统309的固定电视摄像机1拍摄的固定电视摄像机监视器画面5上跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出车道上儿童799的图像。
固定电视摄像机监视器画面5上的该图像检测到的图像位置的方向上,将跟踪电视摄像机80和跟踪激光测距仪3朝向该方向测量距离,根据测量的距离调整视角和焦距,由跟踪电视摄像机80拍摄该被摄体。跟踪电视摄像机监视器画面92中,跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别对行驶方向的儿童817进行图像识别。再次对该车道上的儿童进行图像识别,计算跟踪驾驶系统行驶车308的汽车行驶方向和该儿童的位置和行驶方向并进行预测。根据测量的距离调整视场角和焦距,在跟踪电视摄像机监视器画面92上,对其几个图像进行图像识别,计算其行驶方向和位置。
在该运算的位置,为了避免与该儿童的碰撞,选择包括事先取得的最大限度的避让驾驶在内的该避让驾驶数据行驶。跟踪驾驶系统行驶汽车308取得的最大限度的避让驾驶数据是熟悉该汽车驾驶的驾驶员实施的,但由于1般汽车行驶路上的状况不同,在寻找该回避方向的方法中,参考过去学习的记忆。将其多样的避让驾驶方法作为学习数据,学习并取得避让驾驶数据。
实施例:设置有取得了图52事故回避数据的追踪电视摄像机系统的追踪驾驶系统行驶车的汽车设置安装在取得了追踪驾驶系统309的事故回避数据的自动驾驶的汽车上的追踪电视摄像机测距系统791,以设定上限的速度在一般机动车道349上行驶。跟踪驾驶系统309的固定电视摄像机1拍摄了行驶方向的固定电视摄像机监视器画面5上,没有检测出图像的画面范围。
固定电视摄像机监视器画面5上的图像检测不到的位置方向,将跟踪激光测距仪3和跟踪电视摄像机80对准测距和跟踪电视摄像机80的广延视角进行拍摄。跟踪激光测距仪3的测量用激光光线的从行驶路前方左侧黑暗停放车辆839的被摄体接收反射光,测量出其距离,相当于跟踪激光测距仪3的驱动数值,固定电视摄像机监视器画面5上的跟踪驾驶系统跟踪电视摄像机80朝向相当于固定电视摄像机监视器画面上的图像检测出的困难的暗的左侧停放车辆840的位置的方向。以相当于该测距到的距离的视角,将焦距与该测距到的距离相匹配,拍摄检测到的图像困难的被摄体。
跟踪电视摄像机监视器画面92上,跟踪驾驶系统识别跟踪电视摄像机监视器画面上的图像识别车道上的黑暗被摄体842。使跟踪激光测距仪3朝向跟踪电视摄像机监视器画面92上检测出图像的被摄体的位置,再次测量与该被摄体的距离。将跟踪电视摄像机80朝向再次测量距离形成的方向,以相当于再次测量距离的视角和焦距,提高跟踪电视摄像机80的灵敏度来拍摄被摄体。跟踪电视摄像机80拍摄到的,跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别行驶路前方黑暗的停放车辆843进行图像识别。
实施例:设置有取得了图53事故回避数据的追踪电视摄像机系统的追踪驾驶系统行驶车308的汽车设置安装在取得了追踪驾驶系统309的事故回避数据的自动驾驶的汽车上的追踪电视摄像机测距系统791,以设定上限的速度在一般机动车道349上行驶。跟踪驾驶系统309的固定电视摄像机1拍摄的固定电视摄像机监视器画面5上跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出行驶方向的左侧缘石822,跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出行驶方向的中央隔离带标记823等几个图像。
固定电视摄像机监视器画面5上的各个图像向检测出的图像的位置方向,分别将跟踪电视摄像机80和跟踪激光测距仪3测量出各自的距离,按照各自测量出的距离调整视角和焦距,在各自的跟踪电视摄像机监视器画面92上,跟踪运转系统跟踪电视摄像机监视器画面上的图像识别行驶方向的中央分离带标记824、左侧路缘825,跟踪运转系统跟踪电视摄像机监视器画面上的图像识别演算通过方向的中央分离带标记826,跟踪运转系统跟踪电视摄像机监视器画面上的图像识别演算通过方向的左侧缘石828的固有图像进行图像识别。
这些固有图像识别的图像是测量跟踪驾驶系统行驶车308从汽车开始的方向和距离,因此是一边认知识别了固有图像的位置一边行驶的。认知并记忆这些图像识别的位置,在认知与这些图像识别的连续的固有图像识别位置的同时运行。测量各个固有位置的图像跟踪驾驶系统行驶车308的汽车位置可以作为GPS测量的位置。该汽车的GPS所测量的位置其行驶方位与所测量的位置和时间相关联。多个跟踪驾驶系统行驶车308的汽车,通过在互联网上共享并记忆与其相关联的相关数值来学习,通过将GPS和时间的位置信息,以及测量的位置作为共享的表示,跟踪驾驶系统行驶车308的汽车,可以一边跟踪确认已经取得的适当的图像一边行驶。
实施例:设置有取得了图54事故回避数据的追踪电视摄像机系统646的追踪驾驶系统行驶车308的汽车设置安装在取得了追踪驾驶系统309的事故回避数据的自动驾驶的汽车上的追踪电视摄像机测距系统791,以设定了一般机动车道349上限的速度行驶。跟踪驾驶系统309的固定电视摄像机1拍摄的固定电视摄像机监视器画面5上,跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出的行驶路上的障碍物A 848,B 849,C 850,D 851的图像。
固定电视摄像机监视器画面5上的各自的图像向检测出的图像的位置方向,跟踪电视摄像机80和跟踪激光测距仪3分别测量各自的距离,按照各自测量出的距离调整视角和焦距,拍摄行驶方向310的行驶路上的障碍物A 844、B 845、C 846、D 847,跟踪电视摄像机监视器画面92上,跟踪驾驶系统对跟踪电视摄像机监视器画面上的图像识别出行驶路上的障碍物A 852、B 853、C 854、D 855进行图像解析。
通过知道在跟踪电视摄像机监视器画面92上进行图像解析的行驶地的障碍物的形状和其行驶方向、位置和距离,可以计算跟踪驾驶系统行驶车308的行驶方向310上,在以其测量的距离和方向展开的跟踪驾驶系统跟踪电视摄像机监视器画面860上各自的障碍物配置,跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别演算的行驶方向通过的障碍物A 856、通过的障碍物B 857、预定通过的障碍物C 858、通过方向的障碍物D 859的位置。跟踪驾驶系统行驶车308使用事先取得的避免碰撞的行驶数据,在避开这些障碍物的跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别后的演算行进路861画面上行驶。
实施例:图55的跟踪驾驶系统行驶车308的汽车安装了安装在取得跟踪驾驶系统309的事故避免数据的自动驾驶汽车上的跟踪电视摄像机测距系统791,以设定的上限速度行驶在一般机动车道349上。跟踪驾驶系统309的固定电视摄像机1拍摄的固定电视摄像机监视器画面5上,跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出的行驶路上的障碍物A 848,B 849,C 850,D 851的图像。
固定电视摄像机监视器画面5上的各自的图像向检测出的图像位置的方向,将跟踪电视摄像机80和跟踪激光测距仪3分别对各自的距离进行测量,按照各自测量的距离调整视角和焦距,拍摄各自的障碍物,在该跟踪电视摄像机监视器画面92上,对跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别出的行驶路上的障碍物A 852、B 853、C 854、D855进行图像解析。
在跟踪电视摄像机监视器画面92上进行图像解析的行驶地的障碍物,通过对该行驶地的方向、位置和距离进行图像识别,将各个障碍物的配置按其测量的距离和方向展开显示跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别演算画面860上的各个配置,跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别演算的行驶方向通过的障碍物A856、通过的障碍物B 857、预定通过的障碍物C 858、通过方向的障碍物D 859的位置,作为连续的演算画面进行图像识别。
跟踪驾驶系统行驶车308在其行驶中,预先取得其行驶目的地的图像识别到的障碍物的图像,跟踪驾驶系统通过跟踪电视摄像机监视器画面上的图像识别到的图像的方向和位置的转换器866,配合该汽车的行驶位置,以其测量的距离和方向显示该行驶目的地的图像识别到的障碍物的图像位置。跟踪驾驶系统跟踪电视摄像机监视器画面上的图像安装了识别图像的方向和位置的转换器866的跟踪驾驶系统行驶车308,一边展开先前取得的行驶位置的障碍物的图像,一边在该行驶位置展开该障碍物的图像,一边按照测量的距离和方向进行行驶。在此之前,由于该图像识别障碍物的图像已经掌握并分析了其位置、形状以及物品,跟踪驾驶系统行驶车308的汽车轮胎受到的悬架的冲击,其掌握的该障碍物的位置以其测量的距离来到该轮胎的位置,通过该转换器改变该障碍物的图像位置的图像从分析的障碍物的图像来看,障碍物在该汽车行驶时,根据该轮胎位置上的冲击,使用降低该冲击的行驶方法,吸收该障碍物的冲击,越过该障碍物行驶。
实施例:设置有取得了图56事故回避数据的追踪电视摄像机系统的追踪驾驶系统行驶车308的汽车设置安装在取得了追踪驾驶系统309的事故回避数据的自动驾驶的汽车上的追踪电视摄像机测距系统791,以设定上限的速度在一般机动车道349上行驶。
跟踪驾驶系统行驶车308的固定电视摄像机1拍摄的固定电视摄像机监视器画面5上跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出行驶路上的障碍物A 848,B849,C 850,D 851的图像。固定电视摄像机监视器画面5上的各个图像向检测出的图像位置方向,分别将跟踪电视摄像机80和跟踪激光测距仪3测量各自的距离,按照各自测量的距离调整视角和焦距,用跟踪电视摄像机80分别进行拍摄。
跟踪电视摄像机监视器画面92上,分析跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的行驶路上的障碍物A 852,B 853,C 854,D 855。
跟踪驾驶系统行驶车308的汽车,在图像识别位置207进行图像确认;跟踪电视摄像机监视器画面92上的跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的行驶路上的障碍物D 855,将该汽车的跟踪驾驶系统行驶车的左侧车轮的轮胎995上行驶路上的障碍物D 847的状态,从图像识别位置207到行驶路上的障碍物D 847的该图像的位置为止的该行驶方向和该行驶距离为止,跟踪电视摄像机的图像的方向和位置的转换器866,根据其测量的距离和方向,分析该登上的该障碍物的图像的形状,由此可以确认跟踪驾驶系统行驶车的左侧车轮的轮胎995上行驶路上的障碍物D 847的该图像,因此可以提前确认该形状的障碍物的形状可以应对形状上的冲击吸收。
实施例:图57的四脚驱动行驶机829中设置跟踪电视摄像机的图像位置的展开系统863,使用驱动脚在有障碍物的行走道路上行走。四脚驱动行驶机829的固定电视摄像机1拍摄的固定电视摄像机监视器画面5上,跟踪驾驶系统固定电视摄像机监视器画面上的图像检测识别障碍物A 848,B 849,C 850,D 851的图像。
固定电视摄像机监视器画面5上的各个图像向检测出的图像的位置方向,朝向跟踪电视摄像机80和跟踪激光测距仪3测量距离。根据测量的距离,调整视角和焦距,用跟踪电视摄像机80进行拍摄。在其拍摄的跟踪电视摄像机监视器画面92上,分析跟踪驾驶系统跟踪电视摄像机监视器画面上的图像分析障碍物A 852,B 853,C 854,D 855的图像。
通过跟踪电视摄像机的图像方向和位置的转换器866,对在跟踪电视摄像机监视器画面92上解析的行驶目的地的障碍物进行展开图像位置的处理,在跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别演算画面860的行驶路目的地进行显示。从四脚驱动行驶机829行驶的方向拍摄的障碍物的跟踪电视摄像机监视器画面92上的跟踪驾驶系统跟踪电视摄像机监视器画面上的图像解析的障碍物A 852,B 853,C 854,D 855的图像,通过跟踪电视摄像机的图像的方向和位置的转换器866,作为从四脚驱动行驶机829行驶的行驶方向看的位置,以测量方向和其测量的距离进行图像处理。其展开的假想画面跟踪驾驶系统跟踪电视摄像机监视器画面上的图像可以表示为解析的行驶方向通过的障碍物A 856,通过的障碍物B 857,通过方向预定通过的障碍物C 858,预定通过的障碍物D 859的位置。
跟踪电视摄像机图像位置的展开系统863的图像处理四脚驱动行驶机829使用驱动脚行驶的躯体正下方的、悬挂在行驶路上的障碍物A 844上的驱动脚,通过跟踪驾驶系统跟踪电视摄像机监视器画面上的图像解析的行进方向通过的障碍物A 856的画面上的位置和跟踪驾驶系统跟踪电视摄像机监视器画面上的图像解析的障碍物A 852的图像解析的信息,避让行驶路上的障碍物A 844行驶。跟踪驾驶系统根据跟踪电视摄像机监视器画面上的图像识别的行驶路上的障碍物A 852的解析信息和跟踪激光测距仪3测量的方向和距离,通过跟踪电视摄像机图像的方向和位置的转换器866继续展开该障碍物的位置,避开根据四脚驱动行驶机829的行驶位置展开的该障碍物的位置,四脚驱动行驶机829可以驱动脚行驶。
固定电视摄像机1拍摄四脚驱动行驶机829步行行进方向的行走路上的障碍物,固定电视摄像机监视器画面5上检测该障碍物的图像,跟踪激光测距仪3和跟踪电视摄像机80朝向该障碍物图像的方向,测量与该障碍物的距离,根据该测量的距离,将跟踪电视摄像机80的视角和焦距合起来拍摄的图像,在跟踪电视摄像机监视器画面92上进行图像解析。被图像解析的障碍物,配合四脚驱动行驶机829步行行进的方向,在跟踪激光测距仪3测量的方向和距离的位置,将该障碍物作为跟踪电视摄像机80拍摄的跟踪电视摄像机监视器画面92上展开的空间位置继续展开。跟踪电视摄像机监视器画面92的2维画面,通过附加跟踪激光测距仪3测量的正确距离,作为三维空间正确展开障碍物的位置。跟踪电视摄像机80拍摄的二维的跟踪电视摄像机监视器画面92上的障碍物,作为计算机设想的三维空间障碍物的位置被展开。
跟踪电视摄像机的图像方向和位置的转换器866的计算机设想的三维空间,根据跟踪电视摄像机80拍摄的方向展开,根据四脚驱动行驶机829步行位置的跟踪电视摄像机80拍摄方向的驱动数值和跟踪激光测距仪3测量的距离展开。同时,配合跟踪电视摄像机80拍摄画面的展开,在四脚驱动行驶机829的跟踪电视摄像机的图像位置的展开系统863的计算机设想的三维空间也展开的空间,四脚驱动行驶机829的驱动脚的驱动位置,在其三维空间也展开,在四脚驱动行驶机829的计算机设想的三维空间中,其驱动脚的驱动位置可以避开障碍物进行驾驶。四脚驱动行驶机829躯体正下方的障碍物,是在此之前由跟踪电视摄像机80拍摄到并展开到三维空间的障碍物,随着四脚驱动行驶机829的步行,将包含该障碍物的几个图像的位置,在跟踪激光测距仪3测量的方向和距离的位置,将包含该障碍物的几个图像持续展开到三维空间,从而识别躯体正下方的障碍物,设定驱动脚的驱动位置。
说明图57所记载的位于四脚驱动行驶机829的躯干正下方的障碍物844,在步行到该位置之前,固定电视摄像机1拍摄,固定电视摄像机监视器画面5上检测图像,图像识别到的该障碍物的位置跟踪激光测距仪3测量距离,以该测量的距离跟踪电视摄像机80拍摄,跟踪电视摄像机监视器画面92上图像解析的该障碍物和该测量的距离,跟踪电视摄像机的图像的方向和位置的转换器866的计算机在设想的三维空间展开。跟踪电视摄像机图像位置的展开系统863的计算机设想的三维空间展开,是在四脚驱动行驶机829的步行和跟踪电视摄像机80拍摄方向的画面上展开的。四脚驱动行驶机829的步行,通过跟踪电视摄像机80拍摄的画面和跟踪激光测距仪3测量的方向和距离的数值,三维空间的展开将持续更新。跟踪电视摄像机80拍摄方向的跟踪电视摄像机80的数控机构的驱动数值的值,四脚驱动行驶机829的驱动机构行进的行进方向862的,跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别演算画面860的跟踪驾驶系统跟踪电视摄像机监视器画面上的图像解析了行进方向通过的障碍物A 856,通过的障碍物B 857,通过方向预定通过的障碍物C 858,通过方向的障碍物D 859,展开驱动脚的步行。
行驶路上的障碍物A 844,B 845,C 846,D 847通过跟踪电视摄像机图像位置的展开系统863在计算机设想的三维空间展开跟踪驾驶系统跟踪电视摄像机监视器画面上的图像解析的行驶方向通过的障碍物A 856,通过的障碍物B 857,预定通过的障碍物C 858,通过方向的障碍物D 859展开的位置四脚驱动行驶机829的前左驱动机构869,前右驱动机构870,后左驱动机构871,后右驱动机构872的驱动脚的驱使位置在计算机设想的三维空间展开,四脚驱动行驶机829的驱动脚的驱使位置,行驶路上的障碍物A 844,可避开B 845、C846、D 847。四脚驱动行驶机829使用事先用该位置的转换器变换图像位置后的该位置的图像,使用前左驱动机构869、前右驱动机构870、后左驱动机构871、后右驱动机构872的驱动脚,选择没有障碍物的位置降下驱动脚行走。在跟踪电视摄像机80拍摄方向上,计算机设想的三维空间的展开,按照跟踪电视摄像机80拍摄方向在三维空间展开,四脚驱动行驶机829的驱动脚的驱动位置,按照跟踪电视摄像机80的驱动机构拍摄方向的驱动数值,跟踪激光测距仪和跟踪电视摄像机的图像位置系统展开863的三维空间,避开行驶路上的障碍物A844,B 845,C 846,D 847。
实施例:安装了图58的跟踪电视摄像机的图像位置展开系统863、跟踪激光测距仪3和跟踪电视摄像机80的四脚驱动行驶机829使用驱动脚在有障碍物的行走道路上行走。四脚驱动行驶机829中,安装在脚驱动行驶机上的跟踪电视摄像机测距系统827的跟踪电视摄像机80拍摄的跟踪电视摄像机监视器画面92上的图像识别的图像,四脚驱动行驶机829移动后,其拍摄的图像识别的图像展开为方向和位置发生变化的图像跟踪电视摄像机图像的方向和位置的转换器866。
在四脚驱动行驶机的位置A 218,在行进路的台阶868的位置,在固定电视摄像机1拍摄的固定电视摄像机监视器画面5上,检测固定电视摄像机监视器画面上的台阶250的图像。将跟踪电视摄像机80和跟踪激光测距仪3朝向固定电视摄像机监视器画面5上的该图像检测出的图像位置方向测量其距离,根据测量出的距离调整视角和焦距,在跟踪电视摄像机80所拍摄的跟踪电视摄像机监视器画面92上,对跟踪驾驶系统跟踪电视摄像机监视器画面上的图像所识别的行驶路上的障碍物的台阶996进行图像解析。
四脚驱动行驶机进行移动的四脚驱动行驶机的位置B 219处的固定电视摄像机1进行拍摄,固定电视摄像机监视器画面5上检测出新的图像。对该新检测出的图像,在跟踪电视摄像机监视器画面92上移动的该位置上,进行新的图像解析。在四脚驱动行驶机的位置B 219,在其新图像识别图像的位置和方向,在四脚驱动行驶机的位置A 218确认图像的该图像识别图像,使用跟踪电视摄像机的图像方向和位置转换器866进行图像转换。在四脚驱动行驶机829移动到四脚驱动行驶机的位置B 219的位置,对在四脚驱动行驶机的位置A218确认图像的图像,从其移动的距离和方向的位置,对使用四脚驱动行驶机的位置A 218的图像转换器866展开图像的图像进行图像确认。
对四脚驱动行驶机829的驱动脚的、与图像转换后的监视画面A 748一致的前左驱动机构行走位置877、与图像转换后的监视画面B 749一致的前右驱动机构行走位置878、与图像转换后的监视画面C 750一致的后左驱动机构行走位置879、与图像转换后的监视画面D 751一致的后右驱动数值行走位置880的该图像进行图像确认,前左驱动数值计算器873、前右驱动数值计算器874、后左驱动数值计算器875、后右驱动数值计算器876驱动了各个驱动脚的驱动机构的行进路的台阶868以驱动脚的步行进行行进。四脚驱动行驶机将事先取得的障碍物的图像,在步行的该障碍物的位置219将该障碍物的图像展开到该步行位置进行识别,将前左驱动机构869、前右驱动机构870、后左驱动机构871、后右驱动机构872的驱动脚,按照与其展开的图像位置一致的驱动方法进行行进。
(避免事故驾驶)
实施例:图59的取得跟踪驾驶系统309的事故避免数据的安装在自动驾驶汽车上的跟踪电视摄像机测距系统791跟踪驾驶系统行驶车308以设定上限的速度行驶在一般机动车道349。自动驾驶汽车上安装的跟踪电视摄像机测距系统791的固定电视摄像机1拍摄的固定电视摄像机监视器画面5上,检测自动驾驶车辆上安装的固定电视摄像机监视器所反映的被摄体686的图像。向检测出固定电视摄像机监视器画面5上的该图像的图像位置方向,跟踪激光测距仪3朝向该方向测量其距离。根据测量的距离调整视角和焦距,对跟踪电视摄像机80拍摄的跟踪电视摄像机监视器画面92上自动驾驶车辆上安装的跟踪电视摄像机监视器上显示的图像分析后的被摄体687进行图像识别。
由于测量了跟踪驾驶系统行驶车308从汽车的方向和距离,因此识别了该图像识别的位置,确认该汽车已经取得的避让区732是跟踪驾驶系统309的事故回避数据范围内的方向和距离。同时使用跟踪电视摄像机测距系统72,在对该图像进行图像识别之前,对已经取得的避让区732附近的图像进行图像分析。在该图像分析中,与应该避免碰撞的被摄体674的最大限度的避免碰撞,由于是由熟悉行驶车辆驾驶的操作者取得避免数据,因此考虑到了最大限度的避免碰撞的结果。
为了将避免碰撞的结果与最敌人进行避免碰撞,在开始避免操作的时刻,决定避免碰撞的方法,因此跟踪驾驶系统309始终扫描跟踪驾驶系统行驶车308的车辆周围的图像。检测到的图像,由跟踪驾驶系统309测量该图像的方向和距离,对该图像的被摄体进行图像识别,对图像识别的被摄体进行分析,一边设定该汽车的行驶区733和躲避区734一边行驶。图像分析器224进行图像解析的应避免碰撞的被摄体674进行图像解析的跟踪电视摄像机监视器画面92上的位置的,与安装在自动驾驶车辆上的跟踪电视摄像机监视器上的图像解析被摄体对应的图像分析器设定回避区域。分析图像分析器A 1001分析的应避免碰撞被摄体674的图像分析的跟踪电视摄像机监视器画面A 360上的位置的自动驾驶车辆上安装的跟踪电视摄像机监视器上的图像分析后的被摄体687。
设定与在由图像分析器B 1002进行图像解析的不存在应避免碰撞的被摄体674的情况下、显示在安装在跟踪电视摄像机监视器画面上的位置B 361的自动驾驶车辆上的跟踪电视摄像机监视器上的图像解析的被摄体687对应的1006行驶区域。设定由图像分析器C1003进行图像分析的应避免碰撞的被摄体674进行图像分析的362跟踪电视摄像机监视器画面上的位置C处的与安装在自动驾驶车辆上的跟踪电视摄像机监视器上的图像分析后的被摄体687相对应的保存区域1007。由图像分析器D 1004进行图像分析的应避免碰撞的被摄体674进行图像分析的跟踪电视摄像机监视器画面上的位置C 363,设定与安装在自动驾驶车辆上的跟踪电视摄像机监视器上的图像分析后的被摄体687对应的最大避让行驶区1008。
实施例:图60的取得跟踪驾驶系统309的事故避免数据的自动驾驶的汽车上安装了跟踪电视摄像机测距系统791的跟踪驾驶系统行驶车308,以设定上限的速度行驶在一般机动车道349上。安装在自动驾驶汽车上的跟踪电视摄像机测距系统791中,固定电视摄像机1拍摄的固定电视摄像机监视器画面5上,自动驾驶车辆上安装的固定电视摄像机监视器上拍摄的被摄体686和跟踪驾驶系统固定电视摄像机监视器画面上的图像检测到的对向车805的检测出应避免碰撞的被摄体674和对向车731的图像。安装在自动驾驶车辆上的固定电视摄像机监视器中拍摄的被摄体686的方向和跟踪驾驶系统固定电视摄像机监视器画面上的图像检测到的对向车805的方向,跟踪激光测距仪3测量该距离,与该方向和测量的距离一致,分析跟踪电视摄像机80应避免碰撞的被摄体674和对向车731,由图像解析器224在跟踪电视摄像机监视器画面92上安装在自动驾驶车辆上的跟踪电视摄像机监视器中的图像解析后的被摄体687和安装在自动驾驶车辆上的跟踪电视摄像机监视器中的在对抗车道上行驶的应避让的对向车1013的位置图像,并进行判断。
在图像分析器A 1001的分析中,跟踪电视摄像机监视器画面A 360上的判断为绝对回避与应避让的被摄体1005的碰撞,在图像分析器B 1002的分析中,分析为跟踪电视摄像机监视器画面B 361上的行驶区域1006的行驶中无法回避,在图像分析器C 1003的分析中,跟踪电视摄像机监视器画面E 362上的最大避让行驶区域A 1011和图像分析器D 1004的分析中,跟踪电视摄像机监视器画面F 363上的最大避让行驶区域B 1012的跟踪电视摄像机监视器画面左前方的行道树1000映出,在与道路旁边的行道树735激烈碰撞的行驶中,在与应该回避碰撞被摄体674的碰撞,熟悉该汽车驾驶的驾驶员的回避碰撞驾驶的虽然实施了回避数据,但进行回避判断运行。
图像分析器E 1009进行了图像解析的行驶路前方的应避免碰撞的被摄体674进行图像解析的跟踪电视摄像机监视器画面92上的位置分析安装在自动驾驶车辆上的跟踪电视摄像机监视器上的图像解析后的被摄体687跟踪电视摄像机监视器画面92上的最大避让行驶区域A 1011和图像分析器F 1016进行图像解析后的应避免碰撞的被摄体674进行图像解析的跟踪电视摄像机监视器画面92上的位置分析安装在自动驾驶车辆上的跟踪电视摄像机监视器上的图像解析后的被摄体687跟踪电视摄像机监视器画面92上的最大避让行驶区域B 1012。图像分析对最大避让行驶区域A 1011和最大避让行驶区域B 1012进行比较分析,选择碰撞受害较少的避让行驶A 739,与道路旁的行道树735进行碰撞。存储该避让行驶A 739的跟踪驾驶系统309的事故回避数据和安装在跟踪驾驶系统309上的加减速传感器和冲击传感器1064的测量数值和分析图像。
实施例:图61的取得跟踪驾驶系统309的事故避免数据的安装在自动驾驶汽车上的跟踪电视摄像机测距系统791跟踪驾驶系统行驶车308以设定上限的速度行驶在一般机动车道349上。检测出跟踪驾驶系统309的固定电视摄像机1拍摄的固定电视摄像机监视器画面5上出现的、行驶路前方应避免碰撞的被摄体674在固定电视摄像机监视器画面5上出现的、安装在自动驾驶车辆上的固定电视摄像机监视器上出现的被摄体686的图像。同时,将行驶路左侧的道路旁的行道树735反映在固定电视摄像机监视器画面5上,检测出固定电视摄像机监视器画面左前方的行道树1015的图像。
检测出固定电视摄像机监视器画面5上的该图像,将跟踪激光测距仪3朝向该方向测量距离,根据测量出的距离调整视场角和焦距拍摄出的画面,用图像分析器224,在其跟踪电视摄像机监视器画面92上,对自动驾驶车辆上安装的跟踪电视摄像机监视器所反映的图像分析后的被摄体687和跟踪电视摄像机监视器应回避的行道树1018进行图像分析。图像分析器A 1001分析应避让的被摄体1005的避让区732,图像分析器B 1002分析行驶区域1006,由此分析为如果继续行驶,应避免碰撞的被摄体674将发生碰撞,并选择回避数据操作。
图像分析器E 1009在跟踪电视摄像机监视器画面E 362上选择避让驾驶区1010,在跟踪电视摄像机监视器画面E 364上,检测出安装在自动驾驶车辆上的跟踪电视摄像机监视器所反映的对抗车道上行驶的应该避让的对向车1013的图像。跟踪电视摄像机监视器画面F 365上,检测出安装在自动驾驶车辆上的跟踪电视摄像机监视器中的左侧行道树1014的图像。图像解析器224进行图像解析的为了避开对向车731或道路旁的行道树735的碰撞,选择图像解析器F 1016解析的跟踪电视摄像机监视器D 363上的最大避让行驶区域C1017。图像解析的最大避让行驶区域C 1017的受害较少的避让行驶B 740,图像识别墙738的与倾斜碰撞的墙1062进行碰撞。在选择已经取得的最大避让行驶中,加减速传感器和冲击传感器测量的数值的基础上,选择最大避让行驶后冲击较小的回避方法。
存储该加减速传感器和冲击传感器的测量数值。
实施例:图62的取得跟踪驾驶系统309的事故避免数据的安装在自动驾驶汽车上的跟踪电视摄像机测距系统791跟踪驾驶系统行驶车308以设定上限的速度行驶在一般机动车道349上。跟踪驾驶系统309的固定电视摄像机1拍摄的固定电视摄像机监视器画面B125上,检测出固定电视摄像机监视器画面上应该回避的被摄体1018的图像。跟踪激光测距仪3朝向固定电视摄像机监视器画面B 125上检测出该图像的图像位置方向,测量与该被摄体的距离,根据该测量出的距离调整视场角和焦距,在该跟踪电视摄像机监视器画面F 365上,对在安装在自动驾驶车辆上的跟踪电视摄像机监视器上显示的对抗车道上行驶的应回避父子1022进行图像识别。在回避被摄体驾驶中,在固定电视摄像机监视器画面A 124上,图像识别固定电视摄像机监视器画面上应回避的对向车道的行进车辆1020。向固定电视摄像机监视器画面A 124上检测出该图像的图像位置方向,将跟踪激光测距仪3朝向该方向,测量与该行进车辆的距离,根据该测量出的距离调整视场角和焦距,在该跟踪电视摄像机监视器画面F 364上,对在安装在自动驾驶车辆上的跟踪电视摄像机监视器中反映的对抗车道上行驶的应回避的对向车1021进行图像识别。
由于图像分析器224设定应避免碰撞的被摄体674,因此设定对安装在由图像分析器A 1023进行图像解析的自动驾驶车辆上的跟踪电视摄像机监视器上的图像解析后的被摄体687的父子进行图像解析的跟踪电视摄像机监视器画面A 360上的避难区1027。图像分析器B 1024进行图像分析的应避免碰撞的被摄体674的父子进行图像分析的跟踪电视摄像机在监视器画面B 361上的位置设定限行区1028,进行避让行驶A 739的避让行驶。在该父子的避让驾驶中,固定电视摄像机监视器画面A 124上,通过图像识别固定电视摄像机监视器画面上应该回避的对向车道的行进车辆1020,跟踪激光测距仪3朝向固定电视摄像机监视器画面124上检测出该行进车辆1020的图像位置的方向测量其距离,根据与该测量的行进车辆的距离调整视角和焦距,跟踪电视摄像机监视器画面E 264上,跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的行进车辆1021进行图像识别。图像分析器224解析跟踪电视摄像机监视器画面92上,解析安装在自动驾驶车辆上的跟踪电视摄像机监视器所反映的对抗车道上行驶的应回避的对向车1021。图像分析器C 1025在图像解析的对向车731的跟踪电视摄像机监视器画面C 362上的避让行驶区域D 1029的最大避让行驶的避让行驶B 740中避让行驶。
为了避免图像分析器C 1025进行了图像解析的、避让行驶区域D 1029的避让行驶中的、图像分析器D 1026进行图像解析的与对向车731的碰撞,设定最大避让行驶区域E1030,进行避让行驶C 741的避让行驶。在对面对向车731的避让驾驶中,固定电视摄像机监视器画面125上,通过对固定电视摄像机监视器画面左前方的行道树1015进行图像识别,将跟踪激光测距仪3朝向固定电视摄像机监视器画面125上的道路旁的行道树735检测出的图像位置的方向,测量其距离,根据与测量出的行道树的距离调整视角和焦距,在跟踪电视摄像机监视器画面G 366上,分析跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别出的行道树793。在图像分析器224分析的跟踪电视摄像机监视器画面G 366上,为了避免与安装在1014自动驾驶车辆上的跟踪电视摄像机监视器中的左侧行道树的道路旁的行道树735发生碰撞,设定新的最大避让行驶区域进行避让行驶。
通过分析了在安装在自动驾驶车辆上的跟踪电视摄像机监视器中反映的对抗车道上行驶的应回避的对向车1021,为了避免与图像分析器D 1026进行图像解析的对向车1031的碰撞,设定最大避让行驶区域E 1030,进行避让行驶C 741的避让行驶。避让行驶C741的避让行驶中,固定电视摄像机监视器画面125上检测出固定电视摄像机监视器画面左前方的行道树1015,因此跟踪电视摄像机监视器画面92上跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别到的行道树793的图像位置,跟踪驾驶系统行驶车308与避让行驶A739,B 740,C 741的行驶方向改变后的方向和位置相对应展开,道路旁的行道树735的位置由跟踪电视摄像机监视器画面G 366上的跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别到的行道树793把握,设定最大避让行驶区域E 1030避让行驶C 741准备好了。
最大限度地避免与应避免碰撞的被摄体674发生碰撞的避免驾驶和最大限度地避免与对向车道上的行进车发生正面碰撞的避免驾驶,由于是由熟悉驾驶该行驶车辆的驾驶员取得避免数据,因此甚至考虑到了其最大限度地避免碰撞的结果。在避让行驶A 739和避让行驶B 740和避让行驶C 741之后的避让行驶中,存储加减速传感器和冲击传感器测量1064的数值和识别的图像。由于这些事例多种多样,所以最好的回避方法也多种多样,需要从多个事例中学习。
实施例:图63的取得跟踪驾驶系统309的事故避免数据的安装在自动驾驶汽车上的跟踪电视摄像机测距系统791跟踪驾驶系统行驶车308以设定上限的速度行驶在一般机动车道349上。跟踪驾驶系统309的固定电视摄像机1拍摄的十字路口1067在固定电视摄像机监视器画面5上跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出十字路口1065的图像。
固定电视摄像机监视器画面5上检测出该图像的十字路口图像的各位置方向,跟踪激光测距仪3面向各自的角测量距离,根据测量出的距离调整视角和焦距,跟踪电视摄像机监视器画面92上,跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别出的十字路口1066进行图像解析。图像分析器224进行图像解析的跟踪驾驶系统假定在跟踪电视摄像机监视器画面上的图像识别的十字路口1066与行进车辆的碰撞,在图像分析器A 1023进行回避图像解析的跟踪电视摄像机监视器画面A 360上的位置设定可行驶区域A 1007。
结合向该十字路口的接近,在图像分析器224进行了图像分析的跟踪驾驶系统跟踪电视摄像机监视器画面1066上的图像识别的十字路口1067上假定与行进车辆的碰撞,对回避进行了图像分析的图像分析器B 1024对回避进行了图像分析的跟踪电视摄像机监视器画面B 361上的位置,预先设定可行驶区域B 1035。进一步接近该十字路口,在图像分析器224进行图像分析的跟踪驾驶系统跟踪电视摄像机监视器画面1066上的图像识别的十字路口1067上假定与行进车辆的碰撞,对回避进行图像分析的图像分析器B 1024对回避进行图像分析的跟踪电视摄像机监视器画面C 362上的位置上设定可行驶区域C 1036。图像分析器1025进行图像解析的跟踪驾驶系统在跟踪电视摄像机监视器画面1066上的图像识别的十字路口1067上的假定与行进车辆的碰撞,对回避进行图像解析的跟踪电视摄像机监视器画面D 363上的位置设定行驶可能区域D 1037,一边行驶。
实施例:图64所示的跟踪驾驶系统309的事故避免数据被获取的自动驾驶的汽车上安装了跟踪电视摄像机测距系统791的跟踪驾驶系统行驶车308以设定上限的速度行驶在一般机动车道349上。在跟踪驾驶系统309的固定电视摄像机1拍摄从远方接近行驶的接近前方的对抗车辆1031的固定电视摄像机监视器画面5上,检测出安装在自动驾驶车辆上的固定电视摄像机监视器所反映的对向车1033的图像。5跟踪激光测距仪3朝向检测到固定电视摄像机监视器画面上的该图像的图像位置方向测量距离,根据该测量的距离调整视角和焦距,跟踪电视摄像机80拍摄的跟踪电视摄像机监视器画面92上跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的对向车794未被图像识别时,图像分析器A 1023设定不限行范围1046。
跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的对向车794被识别为接近的图像的情况,在自动驾驶车辆上安装的跟踪电视摄像机监视器所反映的对向车位置B1043的行驶中的范围内,图像分析器B 1024设定到限行至对抗车道的行驶范围1047。跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别了接近的对向车794的图像识别的情况,在安装在自动驾驶车辆上的跟踪电视摄像机监视器所反映的对向车位置C 1044的行驶中的范围内,图像分析器C 1025设定禁止进入对抗车道的行驶范围1048。
在安装在自动驾驶车辆上的跟踪电视摄像机监视器中显示的对向车位置D 1045的情况下,图像分析器D 1026设定本车道的有限制的行驶范围1049。用图像分析器224跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的与对向车794的事故回避的手段,配合该对向车的行驶位置和行驶速度,计算跟踪电视摄像机监视器画面92上的行驶方法。
实施例:图65的取得跟踪驾驶系统309的事故避免数据的安装在自动驾驶汽车上的跟踪电视摄像机测距系统791跟踪驾驶系统行驶车308以设定上限的速度行驶在一般机动车道349上。从行驶位置A 1081到跟踪驾驶系统309的固定电视摄像机1拍摄的接近位置A1085的对向车的图像固定电视摄像机监视器画面5上,自动驾驶车辆上安装的固定电视摄像机监视器上显示的远方接近的车辆1019和跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出的行驶方向的中央隔离带标记823和跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出的行驶方向的左侧缘石822。
对检测出固定电视摄像机监视器画面5上的该图像的图像位置的方向,跟踪激光测距仪3朝向各自的方向测量距离,根据测量出的距离调整视场角和焦距,跟踪电视摄像机80进行拍摄,跟踪电视摄像机监视器画面E 364上,跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别对对向车794进行图像解析。在跟踪电视摄像机监视器画面F 365上,跟踪驾驶系统对跟踪电视摄像机监视器画面上的图像识别的行驶方向的中央分离带标记824进行图像解析。跟踪电视摄像机监视器画面G 366上,跟踪驾驶系统对跟踪电视摄像机监视器画面上的图像识别右侧路缘835进行图像解析。
通过跟踪激光测距仪3测量的距离和角度,对从行驶位置B 1082出发的固定电视摄像机1拍摄到的接近位置B 1086,在接近的对向车位置1041,图像识别到的对向车794和中央分离带标记824和右侧路缘835之间的距离进行演算,确认可以擦肩而过行驶。同样,从行驶位置C 1083、D 1084到接近位置C 1087,D 1088的固定电视摄像机1拍摄到接近的对向车位置1041的固定电视摄像机监视器画面B,C(149,150)上,检测到接近车辆1039、1040和中央分隔带标记823和左侧缘石822。在跟踪电视摄像机监视器画面E 364、F 365、G 366上,对对向车794进行图像解析,对中央隔离带标记824进行图像解析,对右侧路缘825进行图像解析,测量距离和角度,确认可以擦肩而过行驶。
跟踪驾驶系统行驶车308在没有中央隔离带的一般机动车道上行驶时,需要始终持续监视接近的被摄体的运动。固定电视摄像机1拍摄接近的对向车位置1041,固定电视摄像机监视器画面5上检测到的接近车辆1019用跟踪激光测距仪3测量距离和方向,以该测量距离对跟踪电视摄像机80拍摄的图像进行图像解析,判断有必要继续监视。在跟踪电视摄像机监视器画面364上的对向车794的图像,通过跟踪电视摄像机图像的方向和位置的转换器866的展开,根据跟踪驾驶系统行驶车308辆的行驶方向和行驶距离,在计算机的三维空间展开把握对向车794的图像位置,确认可以安全地擦肩而过行驶。
(跟踪驾驶)
设置了取得了实施例图66的事故避免数据的跟踪电视摄像系统的跟踪驾驶系统行驶车308的汽车,设置了取得了跟踪驾驶系统309的事故避免数据的跟踪电视摄像系统,以设定上限的速度行驶在一般机动车道349上。跟踪驾驶系统对固定电视摄像机拍摄范围766内的前车按行驶方向310无异常地通过一般机动车道349进行图像检测。
该前车在对向行驶车A,B,C,D(314,315,317,318)的各个位置的行驶图像由跟踪驾驶系统309的固定电视摄像机1拍摄,跟踪驾驶系统固定电视摄像机监视器画面上的图像检测到的前车A,B,C,D(325,326,327,328)的跟踪驾驶系统在通过固定电视摄像机监视器画面319上的各个位置,用跟踪激光测距仪3测量各自的距离,跟踪电视摄像机80拍摄到的跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别到的前方车辆808的画面由跟踪驾驶系统图像识别并连续存储在跟踪电视摄像机监视器画面A,B,C,D(320,321,322,323)中。
跟踪驾驶系统行驶车308行驶,根据固定电视摄像机1拍摄的方向和其行驶距离使其连续存储的画面与其跟踪行驶的位置相当,展开跟踪驾驶系统跟踪电视摄像机监视器画面A、B、C、D(320、321、322、323),跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别运算画面860上显示的画面对前车后部331进行图像识别后跟踪行驶。跟踪行驶的跟踪驾驶系统,在跟踪距离和跟踪方向上将跟踪汽车的数控的驱动数值,通过其补充法的演算使之相关联的数值进行跟踪行驶。在运输用车辆等的跟踪行驶中,使用适合其图像识别的显示标志。
实施例:安装了取得了实施例图67的事故避免数据的跟踪电视摄像系统的跟踪驾驶系统行驶车308的汽车,安装了取得了跟踪驾驶系统309的事故避免数据的跟踪电视摄像系统,在一般机动车道349上以设定上限的速度行驶。跟踪驾驶系统309的固定电视摄像机1拍摄的跟踪驾驶系统固定电视摄像机监视器画面319上,跟踪驾驶系统固定电视摄像机监视器画面803上的图像检测出的前方车辆,跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出的对向车805的图像。
跟踪驾驶系统固定电视摄像机监视器画面319上的各个图像检测出的图像,通过跟踪驾驶系统309的跟踪激光测距仪3测量距离,按照测量出的距离,调整视角和焦距,跟踪电视摄像机监视器画面A 360中在前车前面先行行驶车的后左,B 361中在前车前面先行行驶车的后右,C 632中在前车行驶车的后左侧的道路缘,D 363中在前车行驶车的后右侧的道路缘,一边进行图像识别一边行驶。
测量前车行驶路上的位置,时刻确认驾驶无异常。通过该驾驶没有异常,在跟踪电视摄像机监视器画面E 364的前车后部331进行图像跟踪行驶。安装在对向行驶车A 314上的跟踪驾驶系统行驶车308取得的与行驶相关的信息中,添加时间并传达给周边的车辆。察觉到前车的异常,迅速切换到对应驾驶。根据从过去行驶时的多数图像识别时的该汽车行驶控制的驱动数值中学习到的,该图像识别的图像和该行驶控制的操作程度,以及图像识别图像的危险性程度,来调整该图像识别的次数。
实施例:设置了取得了实施例图68的事故避免数据的跟踪电视摄像系统的跟踪驾驶系统行驶车308的汽车,设置了取得了跟踪驾驶系统309的事故避免数据的跟踪电视摄像系统,在一般机动车道349上以设定上限的速度行驶。跟踪驾驶系统309的固定电视摄像机1拍摄的跟踪驾驶系统固定电视摄像机监视器画面319上,检测固定电视摄像机监视器画面上的标志塔765,石佛767,右道路旁边的行道树764的图像。
跟踪驾驶系统固定电视摄像机监视器画面319上的各个图像检测出的图像,由跟踪驾驶系统309的跟踪激光测距仪3分别测量出各自的距离,根据测量出的各个距离,调整视角和焦距,作为跟踪电视摄像机监视器画面A 360的跟踪电视摄像机监视器画面上的图像识别出的右侧行道树768、跟踪电视摄像机监视器画面B 361的跟踪电视摄像机监视器画面上的图像识别出的左侧标志塔771、跟踪电视摄像机监视器画面C 362的跟踪电视摄像机监视器画面上的图像识别出的左侧石佛770的固有位置的图像识别行驶。
作为固有位置,图像识别的树、标志、石佛、测量的各个距离、跟踪驾驶系统行驶车308的该汽车的行驶方位、GPS的定位、跟踪驾驶系统行驶车308的行驶速度、该汽车行驶的行驶操作的驱动机构的驱动数值相关联,存储位置。通过在互联网上共享作为其固有位置的图像识别的位置和其固有名称的记忆,设置了跟踪驾驶系统309的车辆,可以按照该位置的记忆,在相同的地方行驶,追加用相同的方法取得的该位置记忆,通过该取得的该位置记忆,可以学习该互联网上共享的位置记忆。
实施例:设置了取得了实施例图69的事故避免数据的跟踪电视摄像系统的跟踪驾驶系统行驶车308的汽车,设置了取得了跟踪驾驶系统309的事故避免数据的跟踪电视摄像系统,以设定上限的速度行驶在一般机动车道349上。跟踪驾驶系统309的固定电视摄像机1拍摄的跟踪驾驶系统在固定电视摄像机监视器画面319上,检测左侧路缘1056、左侧远方路缘1057、右侧路缘1058的图像。
固定电视摄像机监视器画面319上的各自的图像检测出的图像,通过跟踪驾驶系统309的跟踪激光测距仪3测量各自的距离,按照测量出的距离,调整视角和焦距,通过跟踪电视摄像机80拍摄出,跟踪电视摄像机监视器画面A 360的跟踪驾驶系统固定电视摄像机监视器画面上的图像演算后的左侧面的路缘1059,跟踪电视摄像机监视器画面B 361的跟踪驾驶系统固定电视摄像机监视器画面上的图像演算后的左远方的路缘1060,跟踪电视摄像机监视器画面C 362的跟踪驾驶系统固定电视摄像机监视器画面上的图像演算后的右侧路缘1061,作为行驶路侧面的路缘和中央线的图像识别来行驶。
根据该图像识别的路缘和中央线的方向及其测量的距离,计算并确认跟踪驾驶系统行驶车308的汽车继续行驶,通过该图像识别侧面的路缘和中央线的地方的行驶路位置上,该路缘和中央线和跟踪驾驶系统行驶车308的汽车之间的距离。其左侧面的路缘,其中央线,其右侧的路缘,其测量的行驶路宽,GPS测量的位置,其行驶方向的方位,以共有的名称表示并存储。
实施例:设置有取得了实施例图70的超越行驶数据的跟踪电视摄像系统的跟踪驾驶系统行驶车308的汽车,设置有取得了跟踪驾驶系统309的超越行驶数据的跟踪电视摄像系统,在一般机动车道349上以设定上限的速度行驶。跟踪驾驶系统309的固定电视摄像机1拍摄的跟踪驾驶系统固定电视摄像机监视器画面319上,跟踪驾驶系统固定电视摄像机监视器画面上的图像检测到的前车A 325,和遥远的自动驾驶车辆上安装的固定电视摄像机监视器上所显示的远方靠近的车辆1019的图像进行检测。
固定电视摄像机监视器画面319上的图像检测出的图像,跟踪驾驶系统309的跟踪激光测距仪3在该方向上与检测图像的距离和对向车道的对面对向车792的行驶速度。根据测量的距离,调整视角和焦距,在跟踪电视摄像机80拍摄到其方向的跟踪电视摄像机监视器画面A 360上跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别左侧路缘769的图像识别位置上测量距离。跟踪电视摄像机监视器画面B 361跟踪驾驶系统在跟踪电视摄像机监视器画面上的图像识别的前方车辆808的图像识别位置测量距离。
跟踪电视摄像机监视器画面C 362上,跟踪驾驶系统在跟踪电视摄像机监视器画面上的图像识别中央车道809上的图像识别位置测量距离。跟踪电视摄像机监视器画面D363跟踪驾驶系统在跟踪电视摄像机监视器画面上的图像识别的对向车807的图像识别位置测量距离。在安装在自动驾驶车辆上的固定电视摄像机监视器所显示的远方接近车辆1019的图像识别位置测量距离,确认对向车是遥远的远方。在与固定电视摄像机监视器的合成画面993上,计算并设定超车行驶范围503。跟踪电视摄像机监视器画面A、B、C、D(360、361、362、636)按照各个图像解析的被摄体,配合跟踪驾驶系统行驶车308的行驶方向310,在跟踪驾驶系统行驶车308的计算机的三维空间的行驶位置前后展开。在其三维空间的展开范围内,使用跟踪驾驶系统309的超越行驶数据加速,超过对向行驶车318行驶。
(机器人的空间作业位置)
利用实施例图71中的数控驱动的跟踪激光测距仪3,通过操作控制台7来测量数控机器人288与机器人作业位置289之间的距离。其测量的距离及其测量方向和数控的跟踪激光测距仪3的其驱动数值和数控机器人288的其机器人作业位置289和数控机器人288的其驱动数值和机器人的工作空间177可以用数值定位。
将机器人作业位置289的数控机器人288的驱动数值与通过数控驱动机器人作业位置289的跟踪激光测距仪3测量的方向和距离相关联,使用这些相关联的数值,通过内插运算等方法计算并获取机器人作业位置289的所有工作的数控机器人288在所有作业位置的驱动数值、在所有作业位置的跟踪激光测距仪3测量的方向和距离以及跟踪激光测距仪3的驱动数值之间的关联。或者,通过与几个测量的数值相关联的模拟运算来取得。多台三跟踪激光测距仪测量距离,可以更准确地关联该机器人的机器人作业位置289。
实施例:在图72所示的跟踪电视摄像机的拍摄范围179中,数控机器人288的机器人作业位置289被跟踪电视摄像机80拍摄。在跟踪电视摄像机80拍摄的画面中,机器人作业位置289的图像,在跟踪电视摄像机监视器画面92的中心,操作控制台7拍摄其方向、视角和焦距等。可以定位为数控的跟踪电视摄像机80的驱动数值及其拍摄的图像和焦距、数控机器人288的机器人作业位置289操作的控制台7的操作数值、数控机器人288的驱动数值和机器人的工作空间177。
将数字控制机器人288在若干作业位置的数控机器人288在若干作业位置的驱动数值、若干控制台7的操作数值、若干跟踪电视摄像机80拍摄的图像与若干跟踪电视摄像机80的驱动数值相关联,并且通过内插运算等方法计算和获取数控机器人288在所有机器人作业位置289的驱动数值、以及该驱动数值在所有作业位置的跟踪电视摄像机80拍摄的图像与跟踪电视摄像机80的驱动数值之间的关联。
实施例:在通过数控驱动的跟踪激光测距仪3中,操作控制台7来测量实施例图73中的数控机器人288的机器人作业位置289的距离。同时,用数控驱动的跟踪电视摄像机80,拍摄数控机器人288的机器人作业位置289。用跟踪电视摄像机80拍摄的机器人作业位置289,像在跟踪电视摄像机监视器画面92的中心那样,操作控制台7拍摄其方向、视角和焦距等。跟踪激光测距仪3的测量光被照射到机器人作业位置289,在跟踪电视摄像机监视器画面92的中心,在与跟踪电视摄像机监视器画面上的作业位置295相同的位置,在跟踪电视摄像机监视器画面上的激光照射位置1069,对控制台7进行操作。
跟踪电视摄像机监视器画面上的作业位置295上出现激光照射,可以关联数控机器人288的机器人作业位置289、数控机器人288的驱动数值、其测量的距离、其测量方向、跟踪激光测距仪3的驱动数值、跟踪电视摄像机80的驱动数值、其拍摄的图像。在几个数控机器人288的机器人作业位置289,根据数控机器人288的几个驱动数值、其测量的几个距离、其测量的几个方向、数控的跟踪激光测距仪3的几个驱动数值、跟踪电视摄像机80的几个驱动数值、其拍摄的几个图像的关联,用内插运算等方法运算并获取全部机器人作业位置289、全部数控机器人288的驱动数值、全部测量的距离、全部测量的方向、以及全部跟踪电视摄像机80拍摄的画面。
实施例:将跟踪激光测距仪3对准与固定电视摄像机1所拍摄的固定电视摄像机监视器画面5上所显示的固定电视摄像机监视器画面上的作业位置293相当的位置,以测量机器人作业位置289的距离。调整与测量的距离相当的视角和焦距,80操作跟踪电视摄像机拍摄,跟踪电视摄像机监视器画面92,机器人作业位置289可以放映该图像。在数控机器人288不同的几个机器人作业位置289上,用连接的控制台7进行同样的操作。
数控机器人288的机器人作业位置289,在该机器人作业位置289,将数控机器人288驱动到车间位置的驱动机构的驱动数值、测量机器人作业位置289的距离的距离数值、照射测量用激光束的驱动机构的驱动数值、为了拍摄机器人作业位置289而拍摄机器人作业位置289的方向的跟踪电视摄像机80的驱动机构的驱动数值、将跟踪电视摄像机80的视场角和焦距合在一起的跟踪电视摄像机80的驱动机构的驱动数值、跟踪电视摄像机80拍摄的图像识别后的图像和跟踪电视摄像机监视器画面92上的位置全部与固定电视摄像机监视器画面5上的位置相关联,通过内插法等方法进行运算,取得驱动数值。在与之相关联的所有固定电视摄像机监视器画面上的位置上,其驱动机构的驱动数值、测量距离和方向可以与跟踪电视摄像机监视器画面92的位置和图像识别的被摄体等的所有位置联动进行操作。
实施例:图75的焦距,发行像素测量电视摄像机测距仪145拍摄的图像素测量电视摄像机测距仪监视器画面143的图像单元测量电视摄像机测距仪监视器画面144上的机器人作业的位置,进行图像检测的图像素测量电视摄像机测距仪监视器画面143的图像元件单元1089的图像元件142的相同位置的LED发光元件单元1090的LED发光元件107,利用感光器1091接收照射到被摄体的机器人作业位置289的反射光,通过该反射光的相位差,测量到机器人作业位置289为止的距离。
数控机器人288几个机器人作业位置289、该数控机器人288的驱动机构驱动的几个驱动数值、该图像素测量电视摄像机距离测量仪145测量的几个测量的距离、及图像素测量电视摄像机距离测量仪145的图像检测将与该几个图像元件142位置相同位置的LED发光元件107的位置与该像素计测电视摄像机距离测量仪145的像素计测电视摄像机计测距离器监视器画面143上的该几个位置相关联在像素测量电视摄像机测量距离器监视画面143上的所有位置,通过插值法等方法运算并取得数值控制机器人288的机器人作业位置289所驱动的数值和该图像素测量电视摄像机距离测量仪145所测量的位置的数值。通过共享该取得的数值,可以将上述关联的机器、其位置和映像图像识别的被摄体等、以及其位置关联起来进行操作。
实施例:在图76的固定电视摄像机1拍摄的固定电视摄像机监视器画面5上,将数控像素测量电视摄像机测距仪1070朝向数控机器人288的机器人作业位置289的图像检测方向,其图像素测量电视摄像机测距仪监视器画面1092的图像元件单元的该图像所显示的图像元件的位置的数控的像素测量电视摄像机测距仪的LED发光元件的LED发光元件290发出的光通过其光学透镜照射到机器人作业位置289,其反射光通过其光学透镜,由数控的像素测量电视摄像机测距仪的受光元件291接收并测量,测量该光的飞行时间,测量数控机器人288的机器人作业位置289的距离。与测量的距离相当的数控像素测量电视摄像机测距仪1070的图像元件142的视角和光学镜头的焦距合起来,用跟踪电视摄像机80拍摄数控机器人288的机器人作业位置289。
实施例:图77的固定电视摄像机1拍摄的固定电视摄像机监视器画面5上所映的固定电视摄像机监视器画面的作业人员110进行图像检测,跟踪激光测距仪3朝向相当于该画面上的位置的方向,测量与作业人员108的距离。按照测量的距离,视场角和焦距,对跟踪电视摄像机80拍摄的跟踪电视摄像机监视器画面上所映位置的作业人员108进行图像识别。固定电视摄像机1拍摄的固定电视摄像机监视器画面5上的检测固定电视摄像机监视器画面上的作业位置293,将跟踪激光测距仪3对准相当于该画面上位置的方向,测量与机器人作业位置289的距离。
通过使视角和焦距服从测量的距离,图像识别反映在跟踪电视摄像机80拍摄的跟踪电视摄像机监视器画面的范围与CG画面的范围合成的画面112上的位置的跟踪电视摄像机监视器工作画面上的作业位置292。测量数控机器人288的机器人作业位置289的作业范围,在固定电视摄像机监视器画面5上作为CG作业合成画面1093进行演算并显示。固定电视摄像机监视器画面5上,通过显示被测量的作业人员108,同样被测量的机器人作业位置289接近作业人员108时,机器人作业位置289移动或停止,使其离开。
图像识别计算出的CG工作合成画面1093和由跟踪电视摄像机80拍摄的画面的跟踪电视摄像机监视器画面与CG工作合成画面1093的范围重叠的合成画面112上的跟踪电视摄像机拍摄画面上的作业位置292。在跟踪电视摄像机监视器画面的范围内合成CG作业合成画面1093的范围合成画面112上,跟踪电视摄像机监视器画面的机器人工作区域111,跟踪电视摄像机80拍摄的画面上,对作业人员的接近进行图像识别,改变数控机器人288的机器人作业位置289进行作业。
实施例:利用由图78中的跟踪激光测距仪3测量的跟踪电视摄像机80拍摄的跟踪电视摄像机的广角拍摄的监视器画面129上的所有数控机器人288的机器人作业位置289、其距离和方向,以及数控机器人288的机器人作业位置289的驱动数值被掌握。跟踪电视摄像机80以广角拍摄数控机器人288的机器人作业位置289。用图像分析器224检测出跟踪电视摄像机广角拍摄的监视器画面129上的数控机器人288的机器人作业位置289的跟踪电视摄像机监视器画面上的作业127,用跟踪激光测距仪3测量相当于跟踪电视摄像机监视器画面上的作业127进行图像分析的位置的方向的距离。测量距离显示在跟踪电视摄像机的广角拍摄的监视器画面129和跟踪电视摄像机的窄角拍摄的监视器画面130上。
以相当于该测量距离的视角和焦距,利用图像分析器224检测跟踪电视摄像机80拍摄的、跟踪电视摄像机窄角拍摄的监视器画面130上显示的数控机器人288的机器人作业位置289的作业,在跟踪电视摄像机窄角拍摄的监视器画面130上的跟踪电视摄像机监视器画面上的作业位置128画面上的作业位置,进行机器人作业位置289的作业。在跟踪电视摄像机监视器画面上的作业位置128的画面上显示测量的距离,77显示跟踪电视摄像机监视器画面上的显示距离。跟踪电视摄像机的窄角拍摄的监视器画面130的跟踪电视摄像机监视器画面上的作业位置128的操作,使用跟踪电视摄像机监视器画面上的显示距离77的数值,在操作台7上进行操作。
实施例:掌握由实施例图79的像素测量电视摄像机测距仪145拍摄的像素测量电视摄像机测距仪监视画面143上的数控机器人288的全部机器人作业位置289、其距离和数控机器人288的驱动数值。像素跟踪电视摄像机575用广角镜头拍摄;图像元件跟踪电视摄像机测距仪的广角图像元件的拍摄范围131拍摄;放大图像跟踪电视摄像机监视器画面183上的该图像元件的范围检测图像;图像元件跟踪电视摄像机监视器画面上的作业位置185的像素子的位置相当的方向使像素测量电视摄像机测距仪145中的图像元件跟踪电视摄像机监视器画面上的作业位置185的LED发光元件107发光,通过光接收器157接收来自检测出该图像的被摄体的反射光,测量相位差,计算距离。
在相当于测量的距离的像素跟踪电视摄像机575所拍摄的该跟踪摄影范围的图像元件跟踪电视摄像机测距仪的窄角图像元件的摄影范围132内拍摄的、缩小图像元件的范围检测图像的像素测量电视摄像机测距仪的放大画面133上的图像元件跟踪电视摄像机监视器画面中所反映的作业位置185,通过测量其方向及其距离到图像元件跟踪电视摄像机监视器画面的中心187,使用数控机器人288已经取得的驱动数值,将机器人作业位置289移动。
实施例:通过图80的跟踪激光测距仪3测量的、反映固定电视摄像机1拍摄的画面的所有固定电视摄像机监视器画面A 124、固定电视摄像机监视器画面B 125、互联网668,将固定电视摄像机监视器画面C 126上的数控机器人288的机器人作业位置289及其距离和方向、数控机器人288的机器人作业位置289的驱动数值相关联。
放映固定电视摄像机1拍摄数控机器人288的机器人作业位置289的画面,通过固定电视摄像机监视器画面A、B(124、125)、互联网668,在固定电视摄像机监视器画面C 126上,在各自的固定电视摄像机监视器画面上的位置,分别通过固定电视摄像机监视器画面上的位置、数值驱动机构A 527、数值驱动机构B 528、互联网668,用数值驱动机构C 529来操作数控机器人288各自的驱动机构,分担复杂的机器人操作进行操作。
实施例:通过对固定摄像机121拍摄到的固定摄像机监视画面A 124上的数值驱动机构A527的位置的操作,对图81的数控机器人288的机器人作业位置1076进行数值控制机器人288的驱动机构的机器人作业位置A 1076的作业。通过在固定电视摄像机监视器的画面125上的数值驱动机构B 528的位置的操作,进行数控机器人288的驱动机构的机器人作业位置B 1077的作业,该操作反映固定电视摄像机122拍摄了数控机器人288的机器人作业位置1077的画面。将固定电视摄像机123拍摄了数控机器人288的机器人作业位置1078的画面,经由电感器网络668,通过对固定电视摄像机监视画面C126上的数值驱动机构C529的位置的操作,进行数控机器人288的驱动机构的机器人作业位置C1078的作业。
将数控机器人288的机器人作业位置1076、1077、1078,放映固定电视摄像机A、B(121、122)拍摄的机器人作业位置,固定电视摄像机监视器画面A、B(124、125)和通过互联网668放映固定电视摄像机C 123拍摄的画面,固定电视摄像机监视器画面C 126上的数值驱动机构A 527、B 528、C 529的位置、用跟踪激光测距仪243、244、245测量该机器人作业位置的距离和方向、数控机器人288的机器人作业位置1076、1077、1078的驱动数值相关联。通过互联网,可以进行电视摄像机监视器画面上的操作,分担复杂的机器人操作进行操作。
实施例:固定电视摄像机1拍摄图82中的数控机器人288的机器人工作范围119。在固定电视摄像机的监视器画面5上检测出形状物,在相当于检测出该形状物的位置的方向上,用跟踪激光测距仪3测量距离。调整相当于测量距离的视场角和焦距,在跟踪电视摄像机80拍摄的跟踪电视摄像机广角拍摄的监视器画面129上,对跟踪电视摄像机监控工作画面上的形状位置338的图像进行图像解析。
在该位置缩小跟踪电视摄像机80拍摄的视角,在跟踪电视摄像机的窄角拍摄的监视画面130上,图像识别跟踪电视摄像机监视工作画面上的条形码位置312的图像。跟踪在数控机器人288的机器人作业位置289移动安装的条形码读取器120,读取条形码显示230,该读取器是在能够读取反映电视摄像机窄角拍摄的监视器画面130上的拍摄范围的画面上正确图像的条形码显示的距离的位置上,读取条形码显示230。
实施例:图83的数控机器人288的机器人的工作范围119、固定电视摄像机1拍摄的图像、形状位置分析器342、固定电视摄像机监视器画面5上的34固定电视摄像机1监视器画面上的信息位置的形状物、跟踪激光测距仪3测量与检测出该形状物的个固定电视摄像机监视器画面上的形状位置337相当的方向的距离。通过调整与测量的距离相当的视场角和焦距,在跟踪电视摄像机的窄角拍摄的监视器画面130上,通过形状分析器343,对形状物的图像信息显示311记载的图像进行图像识别。
将安装在安装在数控机器人288的机器人作业位置289的机器人上的数控电视摄像机299移动到识别了图像的图像信息显示311的位置,将焦距对准测量的距离,对安装在机器人上的电视摄像机监视器画面336上的图像信息显示339进行拍摄,并利用信息分析器344读取该图像信息。
实施例:图84中的固定电视摄像机1所拍摄的、固定电视摄像机拍摄范围2内的数控机器人288的机器人作业位置289的3D成型机的作业位置的合成电视监视器画面171的转换器的设想的3D形成物的位置396是跟踪激光测距仪3能够测量距离的位置。数控机器人288的机器人所形成的作业机398的3D成型机的作业位置作为合成电视监视器画面171的位置进行二维操作的合成画面。
数控机器人288的机器人工作范围119是,在固定电视摄像机1拍摄的二维平面上,通过跟踪激光测距仪3测量距离,可以设想三维空间的位置。将计算机所设想的3D形成物的侧面399的三维空间的图像与计算机所设想的3D形成物的侧面的图像合成的画面。控制器设想的3D形成物侧面399的图像的设想的3D画面114的位置是作为数控机器人288的机器人形成的工作机398的位置,识别为三维空间的位置的CG画面的位置。因此,通过跟踪由数控机器人288的机器人形成的工作机398的3D成型机的作业位置所设想的3D画面114的位置,可以在计算机9所设想的三维空间的位置形成3D形成物。
实施例:通过跟踪激光测距仪3和跟踪电视摄像机80测量各被摄体的位置和形状,对由图85的固定电视摄像机1的固定电视摄像机监视器画面5上的图像检测出的被摄体进行图像识别。将数控电视摄像机35对准用于收纳被摄体的装填用纸箱387的方向数控电视摄像机拍摄监视器画面37。用跟踪激光测距仪3测量装填用纸箱387的距离,识别外形。测量该纸箱,从已经图像识别的收纳被摄体中,按照优先顺序,计算收纳在该测量被摄体的纸箱中的、图像识别的收纳被摄体的收纳物。
计算后选择的要收纳的被摄体的收纳位置被显示在数字控制电视摄像机监视器画面37上的纸板画面上计算后的放置位置313。通过将固定电视摄像机监视器画面5上的图像检测到的被摄体、通过跟踪电视摄像机80测量各被摄体的位置和形状的图像识别到的被摄体的位置、通过数字控制电视摄像机监视器画面37中显示的纸板画面上的计算后的放置位置313建立关联,可以识别固定电视摄像机监视器画面5上的要收纳的被摄体的收纳物,作为数控机器人288的机器人作业位置289,进行要收纳的被摄体的收纳物的收纳工作。
通过在固定电视摄像机监视器画面5上的图像检测到的被摄体和数控电视摄像机监视器画面37上显示的装填用纸箱387画面上,预先关联计算后的放置位置313,能够识别固定电视摄像机监视器画面5上的该收纳的被摄体,作为数控机器人288的机器人作业位置289,进行装填用纸箱387的收纳工作。在数控机器人288的固定电视摄像机监视器画面5上的位置,取得其图像识别收纳的被摄体的收纳物,将其移动的作业位置收纳在数控电视摄像机监视器画面37上放映的纸板画面的计算后的放置位置313。
用跟踪激光测距仪3和跟踪电视摄像机80对计算收纳的位置进行图像分析,测量并确认收纳位置。反映数控机器人288的机器人作业位置289,固定电视摄像机监视器画面5的固定电视摄像机监视器画面上的填塞用纸箱的位置391,数控电视摄像机35拍摄的数控电视摄像机监视器画面37上的纸箱的位置和形状通过图像识别并建立关联,配合该纸箱的形状,演算其周围的图像识别形状物的收纳方法,收纳到该纸箱中。
实施例:当跟踪激光测距仪A、B、C(243、244、245)不能测量图86中的机器人加工位置246时,从机器人作业位置289的三个方向测量。将机器人作业位置289作为概知的位置,间接地测量机器人加工位置246。用固定电视摄像机1拍摄安装在数控机器人288的机器人作业位置289上的图像素测量电视摄像机测距仪145。固定电视摄像机监视器画面5上的安装在固定电视摄像机监视器画面上的作业位置293上的图像素测量电视摄像机测距仪145的位置,从跟踪激光测距仪A,B,C(243,244,245)的三个方向进行测量。图象素测量通过从三个方向测量电视摄像机测距仪145的位置,可以达到精度高的概知的位置。
同样,像素测量电视摄像机画面测量仪监视器B 116上显示的像素测量电视摄像机测距仪78的监视器画面上的作业位置和像素测量电视摄像机画面测量仪监视器C 117上显示的像素测量电视摄像机测距仪78的监视器画面上的作业位置,从这三个方向测量机器人工作范围119内的机器人作业位置289的距离。机器人作业位置289可以设为精度高的概知的位置。安装在机器人作业位置289的图像素测量电视摄像机测距仪145从不同位置拍摄;从图像素测量电视摄像机测距仪78的概知的三个方向测量机器人作业的加工位置79。
像素测量电视照摄像机测距仪78监视器画面上的作业位置,从三个方向用跟踪激光测距仪测量距离,像素测量电视照摄像机测距仪监视器画面上的加工位置79,从那三个方向用像素测量电视照摄像机测距仪145测量距离。从反映高精度的概知的位置的像素测量电视摄像机测距仪78监视器画面上的作业位置,可以测量像素测量电视摄像机测距仪监视器画面上的加工位置79的机器人加工位置246的高精度概知的位置。根据测量的三处概知的距离,可以进行数控机器人288的机器人作业位置289的高精度加工操作。
实施例:在图87中的固定电视摄像机1的固定电视摄像机拍摄范围2内,拍摄在机器人工作范围119内的机器人288所形成的工作机398位置。数控机器人288的机器人形成的作业机398用固定电视摄像机1拍摄并放映,固定电视摄像机监视器画面5上的固定电视摄像机监视器画面上的作业位置293,从跟踪激光测距仪A,B,C(243,244,245)三个方向,分别测量机器人工作范围119内的机器人形成的工作机398精度高的位置的距离。该测量的机器人形成的工作机398的位置设为精度高的位置,从安装在机器人形成的工作机398的位置的图像素测量电视摄像机测距仪145拍摄的图像素测量电视摄像机测距仪监视器画面所拍摄的图像元件单元143的像素测量电视摄像机测距仪78监视器画面上的作业位置,从精度高的位置测量数控机器人形成的3D形成物397的位置的像素测量电视摄像机测距仪142的测量距离。
(焊接机器人)
实施例:在图88的收纳架193的工作空间中设置焊接机器人445和辅助机器人446,在该工作空间中,用跟踪控制器8总括地操作多个跟踪电视摄像机测距系统72。该作业空间事先由两台及根据需要由多台跟踪电视摄像机测距系统72进行测量,包括进行该作业的机器人的驱动机构在内,作业空间的图像识别图像的被摄体由跟踪控制器8进行总括性把握。作为作业空间的图像识别,固定电视摄像机1拍摄的固定电视摄像机监视器画面5,向相当于检测图像识别图像的位置的方向,跟踪激光测距仪3,测量与检测图像的距离,在该测量距离上调整视角和焦距,跟踪电视摄像机80拍摄的画面。
在固定电视摄像机监视画面5中检测出图像的图像位置,跟踪激光测距仪3测量距离,在该测量距离上调整视角和焦点距离,跟踪电视摄像机80拍摄的画面,跟踪电视摄像机监视器画面A 360,跟踪电视摄像机监视器画面上的工作台的测量449,跟踪电视摄像机监视器画面B,C,D,E(361,362,363,364)的跟踪电视摄像机监视器画面上的工作台的测量431,是跟踪电视摄像机80拍摄的图像识别,图像调节器400选择图像确认的画面。跟踪电视摄像机监视器画面B,C,D,E(361,362,363,364)的图像识别画面中,测量其工作台447的位置,图像识别其形状是否是概知的形状。
实施例:图89的辅助机器人446是焊接辅助机468,将加工材料A 450带入上述工作空间,用跟踪激光测距仪3测量加工材料A 450,通过图像识别确认跟踪电视摄像机80或拍摄的图像是否为规定形状。跟踪电视摄像机监视器画面A 360作业空间中的跟踪电视摄像机监视器画面上的加工材料A 453的外形,跟踪电视摄像机监视器画面B,C,D,E(361,362,363,364)的跟踪电视摄像机监视器画面上的加工材料A的检查547中确认形状和测量。
实施例:图90中的辅助机器人446是焊接辅助机468,在跟踪电视摄像机监视器画面A 360的位置,加工材料A 450设置在上述工作空间的工作台447上。在跟踪电视摄像机监视器画面B,C,D,E(360,361,362,363)中,对设置在上述作业空间的工作台447上的工作台的加工材料A 454在作业空间的位置进行跟踪电视摄像机监视器画面上的工作台的加工材料的角456的形状确认和测量。
实施例:图91的辅助机器人446在焊接辅助机468中将加工材料B 451带入上述工作空间,用跟踪激光测距仪3测量加工材料B 451,通过图像识别确认跟踪电视摄像机80或拍摄的图像是否具有规定的形状。跟踪电视摄像机监视器画面A 360中作业空间中的跟踪电视摄像机监视器画面的跟踪电视摄像机监视器画面上的加工材料B 458的形状,跟踪电视摄像机监视器画面B,C,D,E(361,362,363,364)的跟踪电视摄像机监视器画面上的加工材料B 435进行形状确认和测量。
实施例:图92中的辅助机器人446是焊接辅助机468,其中加工材料B 451设置在上述工作空间的工作台的加工材料A 454上,并且在工作台的加工材料A上临时装配加工材料B 459。用跟踪激光测距仪3进行测量,通过图像识别分别确认跟踪电视摄像机80所拍摄的图像是否为规定的形状。在跟踪电视摄像机监视器画面A 360的上述作业空间中,跟踪电视摄像机监视器画面上的临时组461的位置,跟踪电视摄像机监视器画面B,C,D,E(361,362,363,364)的跟踪电视摄像机监视器画面上的临时组检查433中,确认和测量位置的形状。
实施例:图93的辅助机器人446的焊接辅助机468支持加工材料B 451和工作台的加工材料A 454的临时组合,同时焊接机器人445在工作台的加工材料A上临时装配加工材料B 459,并通过焊接机469点焊并固定。跟踪电视摄像机监视器画面A 360作业空间中的跟踪电视摄像机监视器画面上的点焊作业474,跟踪电视摄像机监视器画面B,C,D,E(361,362,363,634)的在跟踪电视摄像机监视器画面上的点焊点463处确认形状并进行测量,同时进行点焊接。
实施例:检查和测量由图94的辅助机器人446的焊接辅助机468和焊接机器人445的焊接机469点焊接并固定的临时装配作业。在跟踪电视摄像机监视器画面A 360的作业空间中,跟踪电视摄像机监视器画面上的加工检查475,跟踪电视摄像机监视器画面B,C,D,E(361,362,363,364)的跟踪电视摄像机监视器画面上的点焊接检查546中进行形状确认和测量。
实施例:在图95的辅助机器人446的焊接辅助机468中,支持加工材料B 451和加工材料A 450的临时组,同时在焊接机器人445中,通过焊接机469在工作台的加工材料A上临时装配加工材料B 459。跟踪电视摄像机监视器画面A 360中作业空间中的跟踪电视摄像机监视器画面上的焊接作业476,跟踪电视摄像机监视器画面B,C,D,E(361,362,363,364)的跟踪电视摄像机监视器画面上的焊接作业476的形状确认和测量。
实施例:检查并测量在图96中的446辅助机器人的焊接辅助机468和焊接机器人445的焊接机469中完成焊接的加工产品。在跟踪电视摄像机监视器画面A 360的作业空间中,对跟踪电视摄像机监视器画面上的焊接进行检查477,对跟踪电视摄像机监视器画面B,C,D,E(361,362,363,364)的跟踪电视摄像机监视器画面上的焊接进行检查477和形状确认及测量。
实施例:用焊接辅助机468抬起图97中完成的加工品,对完成的加工品的规定检查处进行图像确认和测量。在跟踪电视摄像机监视器画面A 360的工作空间中,进行跟踪电视摄像机监视器画面上的完成检查549,跟踪电视摄像机监视器画面B 361的外侧焊接形状、检查和位置测量550,跟踪电视摄像机监视器画面C 362的曲面测量551,跟踪电视摄像机监视器画面D 363的内侧焊接形状、检查和位置的测量552,跟踪电视摄像机监视器画面E 364的外形的测量的形状确认和测量553。
实施例:通过焊接辅助机468倾斜图98所示的已完成加工品,对已完成加工品的规定检查点进行图像确认和测量。在跟踪电视摄像机监视器画面A 360的工作空间中,跟踪电视摄像机监视器画面上的加工测量507,跟踪电视摄像机监视器画面B(361,362,363,634)的跟踪电视摄像机监视器画面上的左位置的测量C 508的跟踪电视摄像机监视器画面上的前位置的测量D 509的跟踪电视摄像机监视器画面上的右位置的测量E 510的跟踪电视摄像机监视器画面上的位置的测量511和接点检查等形状确认和测量。必要时,可在辅助机器人上安装电视摄像机或跟踪激光测距仪,用上述跟踪电视摄像机测距系统72的跟踪激光测距仪测量该跟踪激光测距仪的位置,从位置精度较高的位置测量该成品工件的规定检点。
实施例:是图99的移动式机器人的焊接作业的说明图。焊接作业空间473的共通工作台447上的跟踪电视摄像机测距系统72中,每次都对焊接作业空间进行图像确认,确认的焊接作业空间为粗略的测量空间。在具有焊接加工材料的焊接作业空间中,移动可移动收纳架472,该收纳架装配有焊接机器人445和辅助机器人446的加工机和多个跟踪电视摄像机测距系统72。移动到该作业空间的多个跟踪电视摄像机测距系统72和焊接机器人445和辅助机器人446的加工机,由跟踪控制器8进行总括性操作。
事先和根据需要,由跟踪电视摄像机测距系统72测量的、包括机器人作业在内的作业空间的图像识别图像的被摄体,由跟踪控制器8全面掌握。作为作业空间的图像识别,固定电视摄像机1拍摄的固定电视摄像机监视器画面5,分析图像检测或图像识别的图像的位置,跟踪激光测距仪3测量距离,在测量距离上调整视角和焦点距离,跟踪电视摄像机80拍摄的画面上进行图像识别。
同样,将固定电视摄像机监视器画面5中图像检测到的图像位置,跟踪激光测距仪3测量距离,用该测量距离偏离调整视场角和焦距,跟踪电视摄像机80拍摄的画面,跟踪电视摄像机监视器画面A 360的跟踪电视摄像机监视器画面上的可动收纳架的工作场所的测量478,跟踪电视摄像机监视器画面B 361的跟踪电视摄像机监视器画面上的工作台角A的形状和位置的测量158,跟踪电视摄像机监视器画面C 362的跟踪电视摄像机监视器画面上的工作台角B的形状和位置的测量159,跟踪电视摄像机监视器画面D 363的跟踪电视摄像机监视器画面上的工作台C的形状和位置的测量160,跟踪电视摄像机监视器画面E 364的跟踪电视摄像机监视器画面上的工作台D的形状和位置的测量161。
在识别了跟踪电视摄像机监视器画面B 361、跟踪电视摄像机监视器画面C 362、跟踪电视摄像机监视器画面D 363、跟踪电视摄像机监视器画面E 364的图像的画面中,从可移动收纳架472测量了其工作台447的位置,其形状是跟踪电视摄像机测距系统72概知的图像识别的形状。测量加工材料的可动式架台的距离,可以用从该加工材料测量的、从不同位置展开的位置的数值来进行焊接作业。将工厂堆场内设置的固定电视摄像机1拍摄的画面,将跟踪电视摄像机监视器画面F 365上显示的机器人作业位置289移动到跟踪激光测距仪3测量的位置,可移动收纳架472,以跟踪激光测距仪3测量的距离,进行焊接机器人445和辅助机器人446的加工机的焊接作业。通过数控驱动可移动收纳架472,使大范围的机器人焊接作业成为可能。
(无人机)
实施例:固定电视摄像机1拍摄在图100的上空飞行的无人机606的方向,固定电视摄像机监视器画面5上的画面检测固定电视摄像机监视器画面上的测量用无人机199的图像。检测出该图像,朝向相当于固定电视摄像机监视器画面5上的位置的方向,对准装有激光测距仪3的跟踪电视摄像机80,拍摄无人机606。确认拍摄到无人机606,用激光测距仪167测量与无人机606的距离。
根据测量的距离,调整跟踪电视摄像机80所拍摄的视场角和焦距,预先使跟踪电视摄像机监视器画面92中所映的测距用反射镜进行图像识别,使该测距用反射镜的图像反映在跟踪电视摄像机监视器画面92的中央,使跟踪电视摄像机80进行跟踪驱动,再次用其激光测距仪167测量与无人机606的距离。将测量的反射光的光量的最大放置的测量位置作为与该测距用反射镜的距离。
实施例:操作图101中的跟踪电视摄像机,以使跟踪电视摄像机80的视角为广角的方式拍摄在上空飞行的无人机606。拍摄跟踪电视摄像机监视器画面92中反映的跟踪电视摄像机监视器画面中反映的测距用反射镜630,识别该反射镜的图像,跟踪电视摄像机监视器画面92上,识别该反射镜的图像的位置,事先设定好,跟踪电视摄像机监视器画面92中心部反映的那样,跟踪电视摄像机80和跟踪激光测距仪3联动驱动。根据跟踪激光测距仪3测量的距离,以视角和焦距为单位,对跟踪电视摄像机拍摄到的安装在无人机上的反射镜进行图像识别。用跟踪激光测距仪3测量跟踪电视摄像机80图像识别方向附近的反射镜的距离,将跟踪激光测距仪3的反射光的最大值作为测量距离。
实施例:从图102地上的概要位置的概要测量场所A、B、C(772、773、774)和未知测量场所的跟踪电视摄像机距离测量系统790的位置,使跟踪拍摄安装在由跟踪电视摄像机80在上空飞行的无人机A、B、C(42、43、44)上的距离测量用反射镜使用由跟踪电视摄像机80跟踪拍摄的驱动数值,用跟踪激光距离测量器3测量与无人机的距离测量用反射镜的距离。与无人机A 42的位置与概知测量地点A 772,B 773,C 774和未知测量地点同时用测量距离系统790关联,与无人机B 43的位置与概知测量地点A 772,B 773,C 774和未知测量地点同时用测量距离系统790关联,与无人机C 44的位置与概知测量地点A 772,B 773,C 774和未知测量地点同时用测量距离系统790关联。
从未知测量地点和概知测量地点A 772、B 773、C 774的跟踪电视摄像机测距系统790中,通过分别与无人机A、B、C(42、43、44)的测距用反射镜的测量距离,可以将未知测量地点的位置作为概知测量地点790的位置。通过将近似测量地点A 772,B 773,C 774相关联的无人机A,B,C(42,43,44)的测距用反射镜的测量位置与未知测量地点近似的3台跟踪电视摄像机测距系统790的位置相关联,将无人机A,B,C(42,43,44)的测距用反射镜的测量位置与每个无人机相关联,可以将未知测量地点的跟踪电视摄像机测距系统790的未知测量地点同时与近似测量地点A 772,B 773,C 774相关联,将未知测量地点的位置作为近似测量地点776的位置。
实施例:在图103上空飞行,利用跟踪电视摄像机距离测量系统的跟踪电视摄像机的图像识别方法对无人机位置的距离测量用反射镜进行跟踪并拍摄,通过与该跟踪联动的跟踪激光距离测量机,继续测量与该反射镜的距离从若干已知位置和来自未知位置的、在高空飞行的无人机的若干位置之间的距离的计算,将未知位置与已知位置的位置相关联。
在上空飞行的无人机位置A 45,同时测量概知测量地点A 772、B 773、C 774跟踪电视摄像机测距系统与未知测量地点的跟踪电视摄像机测距系统776之间的距离,测量距离1A、1B、1C、1D(48、49、50、51)。在无人机位置B 46,同时测量概知测量地点A 772,B 773,C774跟踪电视摄像机测距系统和未知测量地点的跟踪电视摄像机测距系统776之间的距离,测量距离2A,2B,2C,2D(52,53,54,55)。在无人机位置C 47,同时测量概知测量地点A 772,B773,C 774跟踪电视摄像机测距系统和未知测量地点的跟踪电视摄像机测距系统776之间的距离,测量距离3A,3B,3C,3D(56,57,58,59)。
测量上空的45架无人机的位置测量距离从1A,1B,1C,1D(48,49,50,51)到未知测量地点776的概知的距离,测量另外上空的46架无人机的位置测量距离从2A,2B,2C,2D(52,53,54,55)到未知测量地点776的概知的其他距离,进而测量另外上空的47架无人机的位置,测量距离从3A,3B,3C,3D(56,57,58,59)到未知测量地点776的概知的进一步的距离。通过与上空的概知的无人机A、B、C(45、46、47)的距离成为概知,能够概知未知测量场所的位置776。通过将概知测量地点A 772,B 773,C 774和上空飞行的无人机位置A,B,C(45,46,47)作为概知的位置,通过将无人机位置A,B,C(45,46,47)到未知测量地点776的距离作为概知的位置,可以将未知测量地点776作为概知的位置进行计算。
实施例:图104中的概知测量地点A 772、B 773、C 774的跟踪从电视摄像机测距系统的位置跟踪在上空飞行的无人机A、B、C(42、43、44)和无人机A、B、C之间的距离,同时以相同的时间进行测量。通过从概知的多个场所的测距,无人机A、B、C(42、43、44)可以与概知的场所相关联。安装在测距车634上的、安装在行驶中的自动驾驶上的3台跟踪电视摄像机测距系统789,在使汽车行驶的同时,跟踪电视摄像机测距系统A,B,C(66,67,68),分别与无人机A,B,C(42,43,44)的距离连续测量其位置,测距车634行驶的道路的位置,与其概知测量地点A 772,B 773,C 774与跟踪电视摄像机测距系统789的位置相关联,进行连续测量。
实施例:通过安装了167激光测距仪的80跟踪电视摄像机,安装在606无人机中,具有在图105的比赛中的609冲浪板选手的上空飞行的通信功能,以广角拍摄被摄体的609冲浪板选手的方式飞行。激光测距仪167和跟踪电视摄像机80的操作信号以及测量距离和图像信号,通过数据收发器607的数据收发信号608与地面的跟踪电视摄像机测距系统相连。冲浪板运动员609在跟踪电视摄像机监视器画面92上的中央,冲浪板运动员609在操作台上进行操作。安装在跟踪电视摄像机80上的激光测距仪167测量与冲浪板运动员609的距离。根据测量距离,缩小跟踪电视摄像机80的视角,调整焦距,对跟踪电视摄像机监视器画面92上的冲浪板运动员609拍摄的图像进行图像识别。
跟踪电视摄像机监视器画面上的冲浪板运动员631通过图像识别,跟踪电视摄像机监视器画面92上的中央图像识别的位置映像那样,在测量的距离上的跟踪电视摄像机80进行跟踪拍摄。由数据收发器607发送并入到无人机606中的跟踪电视摄像机80拍摄的图像信号102,并由具有操作功能的数据收发信号608接收。对跟踪电视摄像机80的驱动信号和对跟踪电视摄像机80的跟踪的驱动信号,通过数据收发信号608发送,由无人机606的数据收发器607接收。
实施例:装配在具有在图106的上空飞行的通信功能的无人机606中的跟踪电视摄像机测距系统72,通过数控电视摄像机35手动操作拍摄比赛中的冲浪板运动员609。在数控电视摄像机监视器画面37上,对数控电视摄像机监视器画面中的冲浪板运动员610进行图像识别。图像识别该冲浪板运动员,为了使该图像识别画面上的位置反映在数控电视摄像机监视器画面37中央,使数控电视摄像机35进行跟踪驱动。与数控电视摄像机35拍摄的该冲浪板运动员所反映的图像识别位置方向相关联,对准跟踪激光测距仪3,测量与冲浪板运动员609的距离。
在其数控电视摄像机35跟踪驱动的方向上,根据跟踪激光测距仪3测量的距离,调整其视角和焦距的跟踪电视摄像机80放大的跟踪电视摄像机,拍摄显示器画面中出现的冲浪板运动员631。数控电视摄像机35的图像识别数控电视摄像机监视器画面中出现的冲浪板运动员610,图像识别后继续进行跟踪拍摄,为了在跟踪电视摄像机监视器画面92中央图像识别位置上出现,跟踪驱动电视摄像机80的拍摄方向进行拍摄。
实施例:通过安装有组装在图107的概要和距离测量预定地的上空飞行的无人机A42中的可见光的激光距离测量器167的跟踪电视摄像机80,以广角拍摄其概要和距离测量预定地。安装在跟踪电视摄像机80上的激光测距仪167测量其概知和测距预定地的距离。根据其测量距离,调整跟踪电视摄像机80的视角和焦距,拍摄其概知和测距预定地。
在该拍摄到该概要和距离计测预位置的画面上,在跟踪电视摄像机监视画面A、B、C、D(622、623、624、777)中映出的激光的照射光的照射位置,在跟踪电视摄像机监视画面中映出的照射的距离计测激光A、B、C、D(619、620、621、618)在跟踪电视摄像机监控画面上放映出概知测量场所A、B、C、D(626、627、628、625)。
将图像记录在图像存储介质中,其与图像距离无人机42测量的距离以及方向和方向相关联。在该地上概知的测距预定地,再生该录像并观看图像,在地上实测跟踪电视摄像机监视器画面A 622中反映的跟踪电视摄像机监视器画面中反映的概知测量地点A 626与跟踪电视摄像机监视器画面中反映的照射的测距激光A 619的位置相当的地上的概知测量地点A 611到概知测量地点A附近照射的测距激光615的位置之间的距离。
在地面上实测跟踪电视摄像机监视器画面B 623中反映的跟踪电视摄像机监视器画面中反映的概知测量地点B 627与跟踪电视摄像机监视器画面中反映的照射的测距激光B 620的位置相当的地上的概知测量地点B 612到概知测量地点B附近照射的测距激光616的位置之间的距离。跟踪电视摄像机监视器画面C 624中反映的跟踪电视摄像机监视器画面中反映的概知测量地点C 628和跟踪电视摄像机监视器画面中反映的照射的测距激光C621的位置与地上的概知测量地点C 613到概知测量地点C附近照射的测距激光617的位置之间的距离在地上进行实测。通过将激光测距仪167的照射位置与该近似测量地点的场所相关联,在测距预定地上空飞行的无人机A、B、C(42、43、44)的位置,可以与该近似测量地点的场所相关联。与概知测量地点的场所相关联的,从在其上空飞行的无人机A,B,C(42,43,44)的位置照射的,测量预定场所附近照射的测距激光614的位置,通过实测与该概知测量地点的场所相关联。
跟踪电视摄像机监视器画面D 777中显示的跟踪电视摄像机监视器画面中显示的测量预定场所625和跟踪电视摄像机监视器画面中显示的照射测距激光618的位置,在地面上实际测量从待测地点505到测量预定场所附近照射的测距激光614的位置之间的距离。待测地点505与该概知测量地点的概知测量地点A 611,B 612,C 613相关联。同样的测量,通过在不同概知的位置上空飞行的无人机A,B,C(42,43,44)进行,可以提高待测地点505的测量精度。如果将概知测量地点和测距预定地作为跟踪电视摄像机80所拍摄的被摄体的图像,图像识别的被摄体和发光的被摄体的话,通过跟踪电视摄像机80的图像识别的跟踪功能,就可以省略其地上的测距激光的位置的实测。
实施例:安装在图108的概知的绝对位置的场所的各跟踪激光测距系统633和安装在行驶中的测距用汽车上的跟踪电视摄像机测距系统636,与安装在该无人机上的LED的发光同步地测量安装在其上空的无人机606上的测距用反射镜629、93、94、95跟踪激光测距基点A、B、C和测距车634的99跟踪激光测距预定基点的测距A 781、B 782、C 783、D 784的距离。
安装在行驶中的测距用汽车上的跟踪电视摄像机测距系统636所测量的测距D784是测距车634行驶中的测量预定距离。该上空无人机606的位置,可以通过从各跟踪激光测距系统633的93,94,95跟踪激光测距基点A,B,C的各自测量距离和摄影方向和方位的数值进行运算。该测距车634是从99跟踪激光测距预定基点连续测量飞行中的无人机606的位置,其测距D 784和65跟踪电视摄像机测距系统的跟踪电视摄像机80和跟踪激光测距仪3,通过其拍摄方向和方位的数值进行运算,测量行驶中的位置进行行驶。
安装在行驶中的测距用汽车上的65跟踪电视摄像机测距系统636,通过反射镜跟踪激光测距仪166测量行驶路周边的固定电视摄像机1图像检测到的被摄体的方向,通过相当于该测量距离的视角和焦距,对反射镜跟踪电视摄像机168拍摄到的图像进行图像识别,通过从测距车634行驶中的大概位置的距离的数值,计算该图像检测到的被摄体、到该被摄体的距离、测量方向和方位,并将该固定电视摄像机1图像检测到的图像识别被摄体的位置作为大概位置进行测量。
镜像跟踪电视摄像机168拍摄图像识别的被摄体,镜像跟踪电视摄像机监视器画面180,镜像跟踪电视摄像机监视器画面中显示的标志塔637,左手前十字路口角638,左后十字路口角639,中央隔离带显示640,右后十字路口角,右手前十字路口角642,是以测距车634行驶方向的行驶路附近的道路左侧的标志塔644,道路左侧十字路口的前角495,道路左侧十字路口的后角496,道路右侧十字路口的后角497、641,道路右侧十字路口的前角498等路面的图像识别的几个被摄体的位置作为大致知道的位置进行测量的。测量的几个图像识别被摄体的位置作为绝对位置信息存储,由数据收发器607发送,作为绝对位置信息存储并共享。
实施例:在图109的上述说明中,同时测量从上述说明的多个概知绝对位置的93、94、95跟踪激光测距基点A、B、C的位置在上空飞行的多个无人机A、B、C(42、43、44)的位置,并将每个无人机设为概知位置。安装在测距车634上的跟踪电视摄像机测距系统的跟踪电视摄像机测距系统A,B,C(66,67,68)分别在无人机C,B,A(44,43,42)之间的距离的59,55,51测量距离3D,2D,1D进行测量。用与无人机A,B,C(42,43,44)的距离数值来测量行驶中的测距车634的位置。
总是测量测距车634的位置,是概知的位置,安装在测距用汽车上的跟踪电视摄像机测距系统636,根据镜像跟踪电视摄像机监视器画面180上的位置,镜像跟踪电视摄像机监视器画面上的标志塔637位置的行驶路旁的道路左侧的标志塔644,左手前十字路口位置的行驶路旁的道路左侧十字路口的前角495、638,左后十字路口位置的道路左侧十字路口的后角496、639,中央隔离带显示640位置的中央车道802,右后十字路口位置的道路右侧十字路口的后角497、641,右手前十字路口位置的道路右侧十字路口的前角498、642,按照镜像跟踪电视摄像机监视器画面180上的位置,安装在测距用汽车上的跟踪电视摄像机测距系统636中跟踪激光测距仪A,B和C(243,244,245)分别跟踪和测量图像识别图像的距离。
从连续测量在上空飞行的无人机A,B,C(42,43,44)的概知的位置的测距车634的概知的行驶位置,将行驶路周围的图像识别的事物作为概知的位置。通过从行驶中的测距车634的位置开始的三个方向的测距,测距车634的位置可以作为绝对位置的概知来特定,因此通过进一步测量从该位置开始的三个方向的距离,可以将各个图像识别的图像的位置作为绝对位置的概知来特定。由于该特定图像的位置是根据多个大概的绝对方位和该汽车的行驶方向的跟踪激光测距基点A,B,C(93,94,95)测量的位置,所以道路左侧的标志塔644,道路左侧十字路口的前角495,道路左侧十字路口的后角496,中央车道802,道路右侧十字路口的后角497,道路右侧十字路口的前角498是绝对方位的位置。因此,测量的绝对方位的位置可以共享,因此存储为绝对位置信息,并由数据收发器607发送,存储为绝对位置信息,然后共享。用所有的测距车634测量行驶路旁大概的绝对位置信息,通过追加存储新的行驶路旁的绝对位置信息,使用该新的绝对位置信息的所有测距车634都可以用新的绝对位置信息行驶。
实施例:利用跟踪激光测距系统633的固定电视摄像机1从图110的行驶中的测距车634拍摄在上空飞行的无人机606位置,并在其固定电视摄像机监视器画面5上显示,固定电视摄像机监视器画面上检测测量用无人机199的图像,将跟踪电视摄像机80和跟踪激光测距仪3朝向相当于固定电视摄像机监视器画面5的位置,将与跟踪激光测距仪3测量的无人机606之间的距离加上视角和焦距,对跟踪电视摄像机80拍摄的跟踪电视摄像机监视器画面92上的69跟踪图像的无人机606进行图像识别,该识别的无人机606的69跟踪图像在跟踪电视摄像机监视器画面92的中央显示,用跟踪电视摄像机80跟踪拍摄6架无人机。从测距车634开始,测量跟踪电视摄像机监视器画面92上的69跟踪图像的跟踪拍摄方向跟踪激光测距仪3与无人机606的距离。
嵌入无人机606的数据收发器607和嵌入跟踪激光测距系统633的数据收发器607通过数据收发信号608连接。安装在无人机606上的数控电视摄像机35和安装激光测距仪167的跟踪电视摄像机80,为了拍摄86要测量的行驶汽车,放大数控电视摄像机35的视角,放大数控电视摄像机监视器画面37的拍摄范围。在数控电视摄像机监视器画面37上,手动操作86显示想要测量的行驶汽车。数控电视摄像机监视器画面37上,数控电视摄像机监视器画面上想要测量的行驶车辆70被映出,86为了使想要测量的行驶汽车成为能够识别图像的图像,调整数控电视摄像机35的视角。
使想要测量的行驶汽车86跟踪数控电视摄像机35,使得在作为跟踪图像69的图像为数控电视摄像机监视画面37的数控电视摄像机监视画面71上的想要测量的放大的行驶车辆映在中央。跟踪数控电视摄像机35,根据驱动数值,对安装了激光测距仪167的跟踪电视摄像机80进行跟踪驱动。显示跟踪电视摄像机80拍摄的画面,跟踪电视摄像机监视器画面92的数控电视摄像机监视器画面71上想要测量的放大的行驶车辆,为了使其成为能够识别图像的图像,激光测距仪167测量无人机606和行驶中的想要测量的行驶汽车86之间的距离。根据测量的距离,调整跟踪电视摄像机80拍摄的视场角和焦距,使其图像识别的图像反映在跟踪电视摄像机监视器画面92上的中心,跟踪驱动跟踪电视摄像机80。
跟踪电视摄像机80跟踪拍摄,运行中的用激光测距仪167测量想要测量的行驶汽车86和无人机606之间的距离。测距车634的跟踪电视摄像机80跟踪拍摄的无人机606的位置上行驶中的测距车634的距离也可以测量。跟踪激光测距系统633通过与测量的无人机606的位置相关联,可以从行驶中的测距车634中持续测量所要测量的行驶汽车86的方向和距离。
(安全)
实施例:图111中,对固定电视摄像机拍摄范围2,对固定电视摄像机1拍摄的画面进行映像,对固定电视摄像机监视器画面5上的图像进行检测,、通过安装有激光测距仪167的跟踪电视摄像机80对相当于固定电视摄像机画面上被摄体1(202)所映的位置的位置进行跟踪拍摄;通过该激光测距仪167测量的测量距离,通过跟踪电视摄像机80对其进行跟踪拍摄,以使视场角与焦距一致,通过图像分析电视摄像机监视器画面显示确认了被摄体的图226像的图像分析后的图像227。
实施例:图112中,在固定电视摄像机监视画面5上检测到几个被摄体的图像170,该固定电视摄像机监视画面5放映固定电视摄像机拍摄范围2的拍摄画面。用数控电视摄像机35检测到若干图像的、与固定电视摄像机画面上的被摄体1(202)和固定电视摄像机画面上的被摄体2(203)的两处被摄体所反映的位置相对应的方向,并拍摄这两处被摄体。
用装有激光测距仪167的跟踪电视摄像机80分别测量反映这两处图像的数控电视摄像机监视器画面37上的与数控电视摄像机监视器画面上的被摄体1、2(220、221)相当的位置,并分别进行跟踪拍摄。其激光测距仪167测量的测量距离,调整其视场角和焦距等,跟踪电视摄像机80分别拍摄被摄体。通过图像分析器224对各拍摄的图像进行图像识别,在跟踪电视摄像机监视器画面A 360上显示图像分析后的图像1(226)和跟踪电视摄像机监视器画面B 361上显示图像分析后的图像2(227)。
实施例:为了拍摄图113的夜间的暗的被摄体,用多个反射镜跟踪激光距离计测机166检索跟踪电视摄像机80的拍摄范围,用与距离计测激光的通常不同的距离的反射光,检测被摄体并计测其距离。向检测到被摄体的方向,缩小跟踪电视摄像机80的视角,根据测量的距离,调整焦距,提高拍摄灵敏度,拍摄跟踪电视摄像机监视器画面92。通过跟踪拍摄的图像,获取并存储个人图像的信息。
实施例:用反射镜跟踪激光距离测量机166搜索图114的反射镜跟踪激光距离测量机208的测量范围,用与通常不同的反射光检测被摄体并测量其距离。按照检测被摄体的方向的测量距离,调整跟踪电视摄像机80的视角和焦距,拍摄跟踪电视摄像机监视器画面92。拍摄的图像,通过互联网668,在别的地方进行图像对照分析。
实施例:图115中,将固定电视摄像机拍摄范围2反映在固定电视摄像机1拍摄的画面中,通过固定电视摄像机监视器画面5上的图像、检测到该图像的图像,由安装有激光测距仪167的跟踪电视摄像机80通过互联网668对相当于互联网上的固定电视摄像机监视器画面282上的互联网固定电视摄像机监视器画面的图像识别的位置A、B、C、D、E(277、278、279、280、281)的位置进行跟踪拍摄,该激光测距仪167测量的计距与跟踪电视摄像机80拍摄的视角和焦距一致,进行跟踪拍摄。
通过互联网668,将跟踪电视摄像机监视器画面A、B、C、D、E(360、361、362、363、364)的图像存储在图像存储介质287中。跟踪电视摄像机在监视器画面A、B、C、D、E(360、361、632、633、364)上,选择预先设定的拍摄方法,以使跟踪电视摄像机80拍摄的被摄体能够进行图像识别,操作其方向、视角和焦距,进行能够进行图像识别的跟踪拍摄,进行图像确认并存储。通过互联网668,将各个不同区域的图像与保存在图像存储介质287中的图像进行图像对照。
实施例:使用多个电视摄像机跟踪系统A、B、C(196、197、198)的跟踪电视摄像机80进行跟踪拍摄,以各个激光距离测量器167测定的测量距离,追踪各个跟踪电视摄像机80拍摄的视场角和焦距,在跟踪电视摄像机监视画面A 360中追踪被摄体的正面,在跟踪电视摄像机监视画面B 361中追踪被摄体的后部在跟踪电视摄像机监视器画面C362的被摄体的侧面的画面中,将图像解析后的画面在各自测量的距离和方向上展开,在跟踪电视摄像机监视器画面A、B、C(360、361、362)的合成画面中显示。
在跟踪电视摄像机监视器画面A、B、C(360、361、362)上的所有画面上的位置中,由电视摄像机跟踪系统A、B、C(196、197、198)的跟踪电视摄像机80跟踪拍摄的驱动数值的数值与固定电视摄像机监视器画面5上的位置相关联。通过上述任何一个跟踪电视摄像机监视器画面上的操作,使其具有关联,通过各个跟踪电视摄像机的数值驱动的数值,使各个跟踪电视摄像机从不同的方向,使其操作具有关联进行摄影。通过将从多个被摄体170拍摄的图像与图像存储介质相关联地存储在图像存储介质287中,可以改善图像识别的识别度。跟踪电视摄像机在监视器画面A、B、C(360、361、362)上的位置,预先设定适合图像识别的拍摄方法,根据该设定,修正该拍摄方法,用各个跟踪电视摄像机进行拍摄。在拍摄的图像上附加拍摄信息,用能够分类的数值进行存储。
实施例:利用像素跟踪电视摄像机575、A 576、B 577、C 578从几个不同方向拍摄图117中相同的摄影范围,并且利用反射镜跟踪激光测距仪166的预先共享其驱动数值的数值,在像素跟踪电视摄像机监视器画面579、A 580、B 581、C 582上检测像素跟踪电视摄像机监视器画面上的被摄体598、A 587、B 588、C 589的图像,检测像素跟踪电视摄像机监视器画面上的被摄体598、A 587、B 588、C 589的图像将每个反射镜跟踪激光测距仪166朝向相当于图像位置的方向。
通过测量从各个反射镜跟踪激光距离测量机166位置到被摄体170的距离,根据该测量的距离,缩小各个像素跟踪电视摄像机、A、B、C(575、756、757、758)的图像元件的范围,使焦点距离与该测量距离一致可以拍摄被摄体170的像素跟踪电视摄像机监视器像素跟踪画面、A、B、C(594、595、596、597)的图像元件的跟踪画面。像素跟踪电视摄像机系统A、B、C(575、576、577、578)中的任意一个检测到图像,可以拍摄能够在多个画面中对被摄体170进行图像识别的画面。在其中一个像素跟踪电视摄像机系统A、B、C(575、576、577、578)检测到图像,能够测量与被摄体170间距离,像素跟踪电视摄像机系统A、B、C(575、576、577、578)在图像检测到的图像元件的位置使LED发光元件发光来测量距离的测量方法的情况下由于能够同时进行距离测量,所以能够瞬间进行图像识别。
(跟踪条形码读取器和测距仪)
检测在图118固定电视摄像机1拍摄了大范围的固定电视摄像机监视画面5上标记了固定电视摄像机监视画面341上的信息位置的被摄体的图像,向与该画面上的被摄体的图像的检测出的位置相当的方向将具有距离测量功能和条形码读取功能的数控条形码读取器激光距离测量机442朝向,测量与该被摄体的距离,与该被摄体的测量距离一致,以条形码读取器激光距离测量机442的条形码读取器用激光的扫描速度照射读取器光。取得用与条形码标记位置440的距离一致的激光在被摄体上标记的条形码。
实施例:利用具有测距功能和条形码读取功能的数控条形码读取器激光测距仪442和跟踪电视摄像机80拍摄图119中的条形码读取器读取范围439。将跟踪电视摄像机80拍摄的视角设为广角,将条形码读取器442和激光测距仪442对准检测到跟踪电视摄像机监视器画面92上条形码标记形状444的被摄体的图像的位置,测量与该被摄体的距离,跟踪电视摄像机80以相当于该测量距离的视角和焦距再次进行拍摄,对检测到该被摄体的图像进行图像识别。跟踪电视摄像机80的拍摄,图像识别的图像,为了使跟踪电视摄像机监视器画面92上的中央映像,驱动跟踪电视摄像机80。驱动条形码读取器激光测距仪442,再次测量距离,再次将条形码读取器的焦点对准该距离,读取条形码显示,该条形码读取器和激光测距仪442在该驱动位置拍摄的跟踪电视摄像机监视器画面92上跟踪电视摄像机监视器画面上的条形码标记形状444进行图像识别。将跟踪电视摄像机80拍摄的跟踪电视摄像机监视器画面上的识别图像的图像附加到条形码显示上进行存储。
实施例:具有测距功能和条形码读取功能的数控条形码读取器激光测距仪442和具有像素跟踪电视摄像机575的功能的电视摄像机的设备被设置为实施例图120中的条形码读取器读取范围439。将像素跟踪电视摄像机575拍摄的像素设为广角,将条形码读取器激光测距仪442对准像素跟踪电视摄像机监视器画面579上检测到被摄体的图像的位置,测量与被摄体的距离,像素跟踪电视摄像机575以相当于测量到的距离的像素的视场角和焦距再次进行拍摄,并对像素跟踪电视摄像机监视器画面579上检测到被摄体的图像进行图像识别。像素跟踪电视摄像机监视器画面579的图像识别到条形码标记位置440,将其距离对准条形码读取器激光测距仪442再次测量距离,将该距离再次测量到条形码读取器的焦点,读取条形码标记形状443。像素跟踪电视摄像机监视器画面579上的跟踪电视摄像机监视器画面上的条形码标记形状444的识别图像的图像附加条形码显示并进行存储。
实施例:安装有多个激光测距仪167的跟踪电视摄像机A、B、C、D、E(355、356、357、358、359)在图121中的固定电视摄像机1的固定电视摄像机监视器画面5上拍摄检测固定电视摄像机监视器画面上的图像的形状的位置的方向,由激光测距仪167分别测量与该形状的距离,以与该测量距离相当的视角和焦距从该方向拍摄该形状,分析各图像,并对该图像进行图像识别。图像识别从图像中识别条形码标记形状443,将跟踪条形码读取器353对准条形码标记位置440,按照与该位置相当距离的扫描速度读取条形码369显示。
同时,通过重量计777测量图像识别的形状的重量。固定电视摄像机1拍摄的固定电视摄像机监视器画面上的检测图像形状的位置370的图像,跟踪电视摄像机A、B、C、D、E(355、356、357、358、359)进行拍摄并识别图像的跟踪电视摄像机监视器画面A、B、C、D、E(360、361、362、363、364)的图像,以及重量计777测量的重量测量数据778,与读取条形码369显示的数值信息相加,将数据存储在图像存储介质367中。
实施例:将跟踪激光测距仪3和跟踪电视摄像机80朝向图122中的固定电视摄像机1画面上的标有图像检测到的信息数据的被摄体的位置,以与跟踪激光测距仪3测量的距离相当的视角和焦距,由跟踪电视摄像机80拍摄标有该信息数据的被摄体的被摄体信息数据368,并进行图像识别。在数控机器人288的作业位置安装数控电视摄像机35,跟踪电视摄像机80将图像识别的被摄体驱动到跟踪激光测距仪3测量的可解读位置,数控电视摄像机35解读被摄体信息数据368。跟踪电视摄像机80拍摄的图像将检测出的被摄体的图像与取得的解读信息数据进行对照。
拍摄了宽集聚所的固定电视摄像机拍摄范围2,固定电视摄像机1监视器画面上的图像检测到的被摄体的位置,跟踪激光测距仪3测量距离,以相当于测量的方向和距离的视角和焦距,跟踪电视摄像机80拍摄到的该被摄体进行图像识别,在该被摄体的位置上,以相当于安装在数控机器人288的作业位置上的数控电视摄像机35测量的距离的焦距,拍摄被摄体信息数据368并解读该信息数据。作为条形码读取器进行了说明,破译的信息数据也可以是其他QR码等被摄体信息数据。被摄体信息数据368表记形状的表记信息与固定电视摄像机1监视器画面上的图像检测到的位置、跟踪电视摄像机80拍摄到的图像识别到的图像、测量到的位置、数控机器人228的驱动数值相关联。
实施例:将安装在安装在数控机器人288的作业位置的机器人上的跟踪激光测距仪374和安装在机器人上的数控电视摄像机299驱动到与指示在图123中的固定电视摄像机1拍摄到的固定电视摄像机监视器画面5上的8固定电视摄像机1监视器画面中显示的被摄体的工作人员所持有的机器人的工作场所的工作人员所持有的指示器372的图像检测到的位置相当的位置。
通过安装在机器人上的跟踪激光测距仪374,测量与指示个机器人工作场所的作业人员所持指示器372的距离,以相当于测量距离的视角和焦距,解读安装在机器人上的数控电视摄像机299拍摄的指示个机器人工作场所的作业人员所持指示器372的指示显示,进行作业人员所持加工品图像识别内容的机器人22的作业。
实施例:将安装在机器人上的跟踪激光距离测量机374和数控电视摄像机299安装在图124的固定电视摄像机1所拍摄的固定电视摄像机监视画面5上的固定电视摄像机监视画面81上,驱动数控机器人288的作业位置到检测到拍摄对象的作业员的手的位置。用安装在机器人上的跟踪激光测距仪374测量作业者指示190的位置的距离,以相当于该测量距离的视角和焦距,对安装在数控电视摄像机299拍摄的机器人上的电视摄像机监视器画面指示191的位置进行图像识别,对该图像识别内容进行分析的作业进行数控机器人288的机器人22的作业。
(机场)
实施例:图125中,飞机着陆状态的小型飞机599作为在小规模的机场的跑道600着陆时的支援图像安装在小型飞机上,在检测组装在跟踪电视摄像机激光距离测量系统635中的1固定电视摄像机所拍摄的、映在固定电视摄像机监视画面604上的跑道的标识的图像的方向上将跟踪激光测距仪3和跟踪电视摄像机80朝向,根据该计测的距离,调整视角和焦距,对在跟踪电视摄像机监视器画面92中映出的在跟踪电视摄像机监视器画面605中映出的跑道上的标记进行详细的图像识别。与事先取得的相同状况下的图像识别的详细图像相比较,显示其跟踪电视摄像机80拍摄的详细跟踪电视摄像机监视器画面上所显示的跑道标记605与该图像的差异。
在架着陆态势的小型飞机599上,显示与图像的不同之处为:其一固定电视摄像机拍摄的方向,其三跟踪激光测距仪的距离,与测量的距离相对应的跟踪电视摄像机80拍摄的驱动数值,以及跟踪电视摄像机监视器画面92上显示的位置。固定电视摄像机1的拍摄方向2为了修正固定电视摄像机拍摄范围的中央,修正该架着陆态势小型飞机599的飞行方向。驱动操纵该架着陆态势的小型飞机599,为了修正驱动机构的驱动数值,为了使与该图像的差异的显示与事先取得的该图像一致,将该跟踪电视摄像机80拍摄的驱动数值,向与事先取得的该驱动数值一致的驱动数值的方向展开显示,修正驱动操纵架着陆态势的小型飞机599的该驱动机构的驱动数值。
实施例:图126中,飞机着陆状态的小型飞机599在小型机场的跑道600上着陆时的支持图像,跟踪电视摄像机激光测距系统635在跑道侧面设置的地面上拍摄飞机着陆状态的小型飞机599在跑道600上着陆的飞机着陆状态的小型飞机699。跟踪电视摄像机激光测距系统635的固定电视摄像机1拍摄的5固定电视摄像机监控画面上60固定电视摄像机1监控画面上显示的滑着陆态势小型飞机的图像,将跟踪电视摄像机80和跟踪激光测距仪3对准与检测位置相当的方向,测量架着陆态势小型飞机599之间的距离,以与该距离相当的视角和焦距,对跟踪电视摄像机80拍摄的跟踪电视摄像机监控画面92的图像进行图像识别。
将在跟踪电视摄像机监视器画面上显示的具有滑动着陆姿态的小型飞机602的着陆姿态的图像识别的图像与事先通过图像识别获得的类似着陆姿态的图像进行比较。跟踪电视摄像机80所拍摄的驱动数值和跟踪激光测距仪3所测量的该距离的位置,为使其与固定电视摄像机1所拍摄的画面的位置相关联的架着陆态势的小型飞机599进行驱动操纵,将该驱动机构的驱动数值发送给架着陆态势的小型飞机599,修正驱动操纵,使其成为拍摄相同着陆态势图像的跟踪电视摄像机80所拍摄的该驱动数值和跟踪激光测距仪3所测量的该距离的位置。
实施例:图127中,飞机着陆状态的小型飞机599在小型机场的跑道600上着陆时的支持图像,跟踪电视摄像机激光测距系统635从跑道端安装的地面拍摄飞机着陆状态的小型飞机599在跑道600上着陆的飞机着陆状态的小型飞机699。跟踪电视摄像机激光测距系统635的固定电视摄像机1拍摄的固定电视摄像机监控画面5上检测固定电视摄像机监控画面上显示的滑着陆态势的小型飞机601的图像,将跟踪电视摄像机80和跟踪激光测距仪3朝向与检测到的位置相当的方向,测量架着陆态势的小型飞机599之间的距离,以与该距离相当的视角和焦距,对跟踪电视摄像机80拍摄的跟踪电视摄像机监控画面92上的图像进行图像识别。
跟踪电视摄像机拍摄监视器画面中显示的滑动着陆态势的小型飞机602的着陆态势的图像,该图像识别出的着陆态势的图像,跟踪电视摄像机80的驱动数值与事先通过图像识别获取的相同着陆态势的图像,跟踪电视摄像机80的驱动数值进行比较,驱动操作个着陆态势的小型飞机599,以使所拍摄的跟踪电视摄像机80的驱动数值与所获取的80个拍摄的跟踪电视摄像机80的驱动数值相匹配,该驱动机构的驱动数值发送到着陆态势的小型飞机599,并修正驱动操作。
(船舶)
实施例:在安装在图128船舶上的距离测量用跟踪电视摄像机距离测量系统635的跟踪电视摄像机激光距离测量系统中,使跟踪电视摄像机80和跟踪激光距离测量机3朝向与固定电视摄像机1拍摄的、在固定电视摄像机监视器画面5上检测到图像的位置相当的方向根据跟踪激光距离计测机3计测的距离,调整跟踪电视摄像机80的摄影的视场角、焦距和照度,对该船舶401进行摄影。跟踪电视摄像机80拍摄的船舶,即使在自己船前进摇晃的时候,拍摄船舶401的图像也要像跟踪电视摄像机监视器画面92的中央那样,跟踪拍摄船舶401的图像。
固定电视摄像机1拍摄的固定电视摄像机监视器画面5上对船舶401进行图像检测,船舶401的行进和摇晃被显示,因此跟踪电视摄像机80拍摄的方向、视角和焦距摇晃,跟踪电视摄像机80的驱动机构被跟踪修正,跟踪电视摄像机监视器画面92上,跟踪电视摄像机监视器画面上的船舶的位置375被稳定地显示。对于周期性的本船的摇晃,可以进行修正监视器画面上的显示位置的画面显示。船舶401通过跟踪电视摄像机80调整视角、焦距和照度进行拍摄,可以识别该船舶的图像。其跟踪分析电视摄像机监视器画面上的船舶位置375,与已存储的船舶图像进行比较,对该船舶进行图像识别。
实施例:在安装在图129的本船上的跟踪电视摄像机激光测距系统635中,将跟踪激光测距仪朝向与固定电视摄像机1拍摄的、固定电视摄像机监视器画面5固定电视摄像机监视器画面上的巡洋舰163的图像、固定电视摄像机监视器画面5的位置相当的方向,测量与检测到图像的巡洋舰162的距离。通过持续测量拍摄固定电视摄像机监视器画面上巡洋舰163的图像,可以预测巡洋舰162的行驶方向和本船的前进位置,固定电视摄像机监视器画面5上可以预测预计碰撞位置195时,进行船舶碰撞的回避操作。
显示跟踪电视摄像机80拍摄的画面,跟踪电视摄像机监视器画面92的跟踪电视摄像机监视器画面上船舶位置375的图像可以图像确认。将拍摄跟踪电视摄像机80并存储的巡洋舰162的位置,按照测量的距离和方向在固定电视摄像机监视器画面5的行进方向展开,通过在同一画面上显示本船行进的方向和巡洋舰162行进的方向,可以决定本船的行进方向。
实施例:图130中,在安装在本船后方的固定电视摄像机1拍摄的画面上检测从本船后方行进来的船舶401,用数控电视摄像机35拍摄与该画面上的位置相当的方向,用数控电视摄像机监视器画面37检测图像。将跟踪激光距离测量机3和跟踪电视摄像机80朝向在数控电视摄像机监视器画面37中检测到图像数控电视摄像机35的驱动数值和与该画面上的位置相当的方向,测量船舶401的距离。
在与测量的距离相当的视角和焦距下,对跟踪电视摄像机80拍摄的跟踪电视摄像机监视器画面92上的检测图像进行图像识别。与已经取得的识别船舶的图像识别进行比较,对该船舶进行图像识别。将拍摄自船后方的数控电视摄像机35的图像显示在数控电视摄像机监视器画面37上,数控电视摄像机画面的测距监视器画面上的船舶135位置上,跟踪电视摄像机80拍摄的该船舶行进的图像信息显示311上。
在安装在本船后方的固定电视摄像机1拍摄的画面上,按照跟踪电视摄像机80拍摄的该船舶的图像所测量的距离和方向展开合成的重复合成电视摄像机监视器画面137的行进方向进行显示。对于数控电视摄像机监视器画面37上的船舶,通过将其拍摄的位置按照测量的距离展开并持续显示,可以对其图像检测出的船舶的行进路线进行模拟。本船行驶方向的模拟航路,其图像识别船舶的模拟航路,在重复合成电视摄像机监视器画面上的碰撞范围141内时,重复合成电视摄像机监视器画面上的碰撞回避变更路139。
实施例:安装在图131中的船舶上的船舶用雷达412探测器通过结合在船舶用雷达监视器画面415上检测到的几艘船舶的方向和距离来调整的视场角、焦距和照度,并通过图像调节器400对跟踪电视摄像机80拍摄的图像进行图像识别。将其图像识别的几个近距离快艇的跟踪电视摄像机监控画面416、远距离集装箱船的跟踪电视摄像机监控画面417、进行跟踪图像操作的远距离集装箱船的跟踪电视摄像机监控画面418,根据需要注意的程度,将其距离和图像识别的信息显示为近距离快艇的跟踪电视摄像机监控画面416、远距离集装箱船的跟踪电视摄像机监控画面417、进行跟踪图像操作的远距离集装箱船的跟踪电视摄像机监控画面418。附加被摄体的图像识别信息和需要注意的程度,在跟踪电视摄像机监视器画面船舶用雷达监视器画面415、416、417、418上进行图像信息显示311。
实施例:利用安装在图132的本船上的跟踪电视摄像机激光测距系统635的固定电视摄像机1,对固定电视摄像机摄影范围2的被摄体船1、2、3、4(402、403、404、405)进行摄影并检测图像。在固定电视摄像机监视器画面5上检测到图像的固定电视摄像机监视器画面上的被摄体船1、2、3、4的位置406、407、408、409,固定电视摄像机监视器画面5上的位置的方向,跟踪激光测距仪3测量距离,跟踪电视摄像机80测量该方向,根据测量的距离调整视角和焦距,跟踪电视摄像机监视器画面上的被摄体船1、2、3、4(212、213、214、215)的图像,并进行存储。
对各个图像进行图像解析,与已经取得的图像识别的船舶进行比较,掌握该船舶的信息。在固定电视摄像机监视器画面和图像调整画面的合成画面410上,加上图像识别的该船舶的跟踪电视摄像机的驱动数值,加上该船舶的信息进行显示。在该合成画面上其所反映的位置,可以用跟踪电视摄像机拍摄该船舶。该跟踪电视摄像机在监视器画面上的被摄体船上的位置,可以用跟踪电视摄像机拍摄该船舶。根据跟踪电视摄像机激光测距系统635持续测量的距离,在固定电视摄像机监视器画面和图像调整画面的合成画面410上显示模拟后的各船舶的行驶方向及其距离。通过显示各个船舶的模拟行驶方向和各个船舶的跟踪电视摄像机监视器画面,来避免自身船舶的行驶和碰撞事故。
(运动)
实施例:图133中,为了抓取和修正棒球运动员的击球家,为了同时详细确认主要抓取和修正的地方,利用多个镜跟踪电视摄像机168拍摄主要地方的快速运动。为了与正式比赛进行比较,在正式比赛可以设置的地方设置跟踪镜电视摄像机激光测距系统1079。由于在正式比赛中可以设置的场所与棒球运动员34的击球位置有一定的距离,为了限定数控电视摄像机35的拍摄范围,固定电视摄像机1的固定电视摄像机监视器画面5上,指示其固定电视摄像机监视器画面上被摄体33的棒球运动员34的位置,将反射镜跟踪激光测距仪166对准相当于其固定电视摄像机监视器画面5上的位置的方向,测量与棒球运动员34的距离。
根据固定电视摄像机监视器画面上被摄体33的棒球运动员的位置的指示,将视角和焦距与测量的距离一致,驱动数控电视摄像机35,对数控电视摄像机拍摄范围36的棒球运动员34进行拍摄。为了把握和修正棒球运动员34的主要部位,拍摄清楚其主要部位的图像和详细了解的图像,根据测量的距离,调整视场角和焦距等,用反射镜跟踪电视摄像机A563,B 564,C 565拍摄该方向的棒球运动员34。测量与棒球运动员34的距离,调整反射镜跟踪电视摄像机A 563,B 564,C 565所拍摄的视场角和焦距等进行拍摄。
在其数控电视摄像机监视器画面37上,指示其数控电视摄像机监视器画面上棒球运动员的球棒39的位置、握把40的位置、右脚41的位置,驱动其拍摄棒球运动员34的镜像跟踪电视摄像机A 563、B 564、C 565。拍摄棒球运动员34的主要把握和修正之处是,事先在数控电视摄像机监视器画面37上,根据图像的位置确认图像,可以跟踪拍摄反射镜跟踪电视摄像机画面A 566,B 567,C 568的图像。
实施例:图134中,为了掌握和修正个滑冰运动员541的滑冰跳跃,为了同时详细确认主要部位的掌握和修正部位,利用跟踪电视摄像机拍摄主要部位的快速动作。为了比较宽阔溜冰场上的滑冰跳跃,在宽阔溜冰场可以设置的地方,设置跟踪镜电视摄像机激光测距系统1079。宽阔的溜冰场可以设置的场所是,由于滑冰运动员541的滑冰跳跃处是移动的,为了限定数控电视摄像机35的拍摄范围,在固定电视摄像机1的广角拍摄的固定电视摄像机监视器画面5上,指示其固定电视摄像机监视器画面上被摄体33的滑冰运动员541,将跟踪激光测距仪3朝向相当于其固定电视摄像机监视器画面5上的位置的方向,测量与滑冰运动员541的距离。
数控电视摄像机35向与固定电视摄像机监视器画面5上的位置相当的方向驱动数控电视摄像机,将视角和焦距与所测得的距离一致,数控电视摄像机35拍摄数控电视摄像机拍摄范围36的滑冰运动员541,数控电视摄像机监视器画面37上,数控电视摄像机监视器画面上的滑冰运动员的图像指示位置542指示滑冰运动员541,驱动拍摄滑冰运动员541的跟踪电视摄像机80。
拍摄滑冰运动员541的主要把握和修正之处是,通过事先在数控电视摄像机监视器画面37上对数控电视摄像机监视器画面上放映的滑冰运动员的图像指示位置542的图像进行图像确认,可以拍摄跟踪电视摄像机监视器画面上放映的滑冰运动员的滑冰边缘图像543、着冰图像544、跳跃前图像545。延迟各个图像,为了能够同时确认而进行显示。为了把握和修正滑冰运动员541的滑冰跳跃的主要部位,拍摄出其主要部位的清晰图像和详细的图像,需要对跟踪电视摄像机80拍摄的方向、移动位置、视角和焦距等进行调整。在保留滑冰运动员的滑冰跳跃触感的短时间内,通过看到该滑冰跳跃的主要部位的清晰图像和详细了解的图像,滑冰运动员可以把握状况。
实施例:图135中,为了把握和修正图37的足球练习场中的足球运动员32的运球运动的足球530的运动,在由固定电视摄像机1拍摄的固定电视摄像机监视器画面5上指示固定电视摄像机监视器画面上的被摄体33的足球运动员32,将跟踪激光测距仪3朝向相当于固定电视摄像机监视器画面5上的位置的方向,测量与足球运动员32的距离。将测量的距离和方向缩小,跟踪电视摄像机A 514,B 515,C 516的视角,拍摄足球运动员32。
反映固定电视摄像机1拍摄的足球运动员32,固定电视摄像机监视器画面5上的图像中足球运动员32的踢足球530的脚的钉子被图像识别的位置,用跟踪激光测距仪3测量距离,与测量的距离相当的方向、视角和焦距,从跟踪电视摄像机A 514、B 515、C 516的不同位置的方向缩小视角,跟踪拍摄该钉子。
选择拍摄足球运动员32的图像,拍摄踢出的脚钉的图像,以及拍摄被踢出的足球530运动的图像,同时详细观察来自不同方向的图像,不看踢出足球530的足球运动员32的脚钉,通过观察跟踪电视摄像机监视器画面A,B,C中的足球532,533,534确认足球530的运动,反复练习运球行驶进行修正。
实施例:在图136中,足球场647的尺寸很大,足球运动员32运球的足球530运动的把握,固定电视摄像机1拍摄的足球运动员32,固定电视摄像机监视器画面5上的图像53固定电视摄像机1监视器画面上的足球被图像识别后的位置,用反射镜跟踪激光测距仪166测量距离,用该位置的方向和焦距,用数控电视摄像机35拍摄,数控电视摄像机监视器画面37上的图像,用足球运动员32踢的数控电视摄像机监视器画面上的足球556被图像识别后的位置,用高速跟踪的反射镜跟踪激光测距仪166测量距离,用该位置的方向、视角和焦距,用高速跟踪的镜像跟踪电视摄像机A 563、B 564,C 565跟踪拍摄足球530。
以该位置的方向及其测量的距离,驱动数值驱动收纳架535以与足球运动员的行进相匹配,维持567镜跟踪电视摄像机B电视摄像机监视器画面上的镜跟踪电视摄像机的电视摄像机564监视画面上的足球248的位置及其测量的距离和方向。反射镜跟踪电视摄像机A 563,B 564,C 565拍摄的反射镜跟踪电视摄像机A 566,B 567,C 568的电视摄像机监视器画面的反射镜跟踪电视摄像机监视器画面上的足球247,248,249从不同方向进行映像。
数值驱动收纳架535按照足球运动员32的行进位置等距离和等角度进行跟踪驱动。反射镜跟踪电视摄像机A 563,B 564,C 565拍摄的反射镜跟踪电视摄像机A 566,B567,C 568的电视摄像机监视器画面的反射镜跟踪电视摄像机监视器画面上的足球247,248,249,从不同的方向跟踪拍摄画面,该足球运动员32拍摄其踢出的脚钉的图像和拍摄其踢出的足球530运动的图像,同时比较多个图像,详细地观看运球运动的练习,而不是直接观看踢出该足球530的脚钉的感觉,用图像确认该足球530的运动,进行运球行驶的练习和修正。
实施例:图137中,足球场的尺寸很大,为了掌握足球运动员32的运球运动中足球530的运动,多个跟踪电视摄像机测距系统72和多个跟踪电视摄像机监视器画面92被安装在数值驱动收纳架535上并被驱动。跟踪电视摄像机测距系统72的固定电视摄像机1拍摄的足球运动员32,固定电视摄像机画面5上的图像53固定电视摄像机1画面上的足球位置,跟踪激光测距仪3测量距离,与测量的距离相当的该位置的方向、视角和焦距,跟踪电视摄像机B 515跟踪拍摄足球530。以该足球运动员在固定电视摄像机监视器画面5上所显示的位置的方向及其测量的距离,驱动数值驱动收纳架535,使其与足球运动员的行驶相一致,保持该方向及其距离,跟踪电视摄像机A 514、B 515、C 516拍摄的从不同方向跟踪拍摄在跟踪电视摄像机监视器画面A、B、C中显示的足球532、533、534,并在多个跟踪电视摄像机监视器画面92上标记。
从数值驱动收纳架535的位置拍摄的跟踪电视摄像机A 514、B 515、C 516拍摄的跟踪电视摄像机监视器画面A、B、C中所反映的足球532、533、534从不同方向进行跟踪拍摄的画面,在足球运动员32进行运球运动之前,通过多个跟踪电视摄像机监视器画面92显示。足球运动员32,将拍摄踢出的脚钉的图像和拍摄被踢出的足球530的运动图像,同时比较多个图像,在详细连续的运球行驶中观看练习,不直接看踢出该足球530的脚上的运动,而是通过从踢出该足球530的脚钉传来的感觉,通过图像确认该足球530的运动,进行运球行驶的练习和修正。分析存储该图像的图像,把握该运动员的倾向。通过将节距固定摄像机1094拍摄的固定电视摄像机监视器画面上所显示的数值驱动收纳架535的位置与数值驱动收纳架535的驱动数值通过上述相关方法相关联,可以在拍摄节距的画面上将数值驱动收纳架535驱动到指示位置。
实施例:图138中的足球投射器538是用于足球运动员32进行头球比赛练习的数控投射器,足球运动员32根据足球运动员32的行进以相同的驱动数值将足球530投递到其行进位置,足球运动员32进行头球练习。反映固定电视摄像机1拍摄的足球运动员32,固定电视摄像机监视器画面5上的图像中足球运动员32对足球530进行图像识别的位置,用跟踪激光测距仪3测量距离,相当于测量距离的方向,用其视角和焦距,用跟踪电视摄像机B 515对足球进行跟踪拍摄。
固定电视摄像机在监视器画面5上的图像中识别足球运动员32的头部的位置,用跟踪激光测距仪3测量距离,在相当于测量距离的方向和位置上,用事先取得投影数值的数控的足球投射器538,投射足球530。以足球运动员32跑步的位置的方向和测量的距离,从靠近足球运动员32的不同位置的方向,对跟踪电视摄像机A 514,B 515,C 516拍摄的跟踪电视摄像机监视器画面A,B,C中的足球532,533,534进行跟踪拍摄。
为了不看足球530和足球运动员32的头部打点,进行比赛头部的头球感觉的反复练习,拍摄足球运动员32的头部附近。重复足球投射器538的同一投射球,足球运动员32同时观看多张图像的方法,练习足球运动员32头部打点比赛重复练习的感觉,该足球530在头球方向的跟踪画面和足球运动员头部打点比赛的跟踪画面。
实施例:图139中,在数值驱动的收纳架535上设置足球投射机538、多个跟踪电视摄像机距离测量系统72和多个跟踪电视摄像机监视器画面92来驱动。反映足球运动员32的跟踪电视摄像机激光测距系统,为了能够在足球运动员32的行进方向上,拍摄固定电视摄像机1拍摄的固定电视摄像机监视器画面5上,固定电视摄像机监视器画面531上反映足球图像的位置,用跟踪激光测距仪3测量距离和方向,以等方向和等距离驱动数值驱动收纳架535。安装在数值驱动储物架535上的足球投射器538是足球运动员32为头球的比赛练习而进行的数控的投射机,根据足球运动员32的行进,以相同的驱动数值从等方向和等距离投射足球530,由足球运动员32进行头球练习。
安装在数值驱动收纳架535上的固定电视摄像机1拍摄的足球运动员32,固定电视摄像机监视器画面5上的固定电视摄像机监视器画面531上的足球图像识别后的位置,跟踪激光测距仪3测量距离。足球运动员32在相当于测量距离的方向上行驶,其行驶位置和行驶方向以及测量的距离,跟踪电视摄像机A 514、B 515、C 516拍摄的从靠近足球运动员32的不同位置的方向跟踪拍摄在跟踪电视摄像机监视器画面A、B、C中所映的足球532、533、534。
安装在数值驱动收纳架535上的跟踪电视摄像机激光测距系统拍摄的画面显示的多个跟踪电视摄像机监视器画面92上,跟踪电视摄像机监视器画面A、B、C中的足球532、533、534和参考画面显示也显示在足球运动员32行进前的视线位置上。存储设定好的图像识别的图像,确认该图像,用数控的投影机进行练习用的投影,配合该投影的球,驱动数值驱动收纳架535和跟踪电视摄像机激光测距系统,用跟踪电视摄像机A 514跟踪拍摄该投影的球,用跟踪电视摄像机B 515、C 516跟踪拍摄足球运动员32的头球的位置。为了规划足球运动员32的头球练习,足球运动员32配合跟踪电视摄像机激光测距系统的驱动进行练习。
实施例:图140中,足球投射器538、多个跟踪电视摄像机测距系统72、多个跟踪电视摄像机监视器画面92和多个图像收发器536被设置在数值驱动收纳架535上进行驱动。为了掌握和修正踢了足球选手32跑去直接踢球的足球530的踢球动作,将组装在数值驱动的收纳架535中的跟踪电视摄像机激光距离测量系统、发送由数值驱动的收纳架535的跟踪电视摄像机系统拍摄到的图像的图像收发器536、以相同的驱动数值投射足球530的足球投射机538组装在由数值控制驱动的数值驱动的收纳架535中。
反映固定电视摄像机1拍摄的足球运动员32的固定电视摄像机监视器画面5上的图像中,足球运动员32踢足球530的脚的钉子,或足球530的图像识别的位置,用跟踪激光测距仪3测量距离,在相当于测量距离的方向上,结合视角和焦距,用跟踪电视摄像机A 514、C516将该钉子作为图像识别的图像位置进行跟踪拍摄。同时驱动数值驱动收纳架535,使其在测量的距离和方向上与足球运动员32保持间隔。
跟踪电视摄像机B 515跟踪足球530作为图像识别的图像的位置,使得视场角和焦距对准与测量的距离相当的方向。足球运动员32通过图像收发器536发送该图像,并在图像接收器的可穿戴监视器521的屏幕上同时详细地观看该图像,而不是直接观看足球530的可穿戴式脚踏车,而是在留下从足球530的可穿戴式脚踏车传来的触感的同时,识别该足球530的运动,反复练习跑步直踢式脚踏车,并进行修正。
(连接互联网的机器人操作)
实施例:图141中,利用固定电视摄像机1拍摄机器人工作范围119的数控机器人288的机器人作业位置289,将其图像信号16经由互联网668映在固定电视摄像机监视器画面5上。在固定电视摄像机监视器画面5上放映的对固定电视摄像机监视器画面上的作业位置293进行操作。通过画面位置信号14,通过互联网668,将跟踪电视摄像机80和跟踪激光测距仪3对准机器人作业位置289,测量距离。跟踪激光测距仪3测量的距离相当,在视角和焦距上,跟踪电视摄像机80拍摄机器人作业位置289。
通过互联网668对跟踪电视摄像机80拍摄的102图像信号进行映像,在跟踪电视摄像机监视器画面92上操作跟踪电视摄像机监视器画面上的作业位置295的画面工作。通过其14操作位置信号,通过互联网668,进行数控机器人288的机器人作业位置289的工作。各个操作位置的操作,也可以转换为手动操作和编程操作。通过互联网668在别的地方进行映像,跟踪电视摄像机监视器画面92上的跟踪电视摄像机监视器画面上的作业位置295的画面作业的操作,通过互联网668进行映像,在多个跟踪电视摄像机监视器画面92上也可以进行该操作。
在智能喇叭A 257屏幕上的智能喇叭操控A 570中的固定电视摄像机监控画面5上,操作数控机器人288的机器人作业位置289,在智能喇叭操控B 571中的跟踪电视摄像机监控画面92上的作业位置,操作跟踪电视摄像机监控画面上的作业位置295。智能喇叭B258中的跟踪电视摄像机监视器画面92上的智能喇叭操作C 572中的跟踪电视摄像机监视器画面92上的跟踪电视摄像机监视器画面上的作业位置295的工作操作。通过互联网668连接的,接口A 228,B 229的应用程序,分别对数控机器人288的机器人作业位置289进行操作。
实施例:图142中,固定电视摄像机1拍摄机器人工作范围119的数控机器人288的跟踪数控的3D形成机23,将其图像信号16经由互联网668映在固定电视摄像机监视器画面5上。操作固定电视摄像机监视器画面5上的数控机器人288的固定电视摄像机监视器画面上的3D形成机25的驱动位置。通过画面位置信号14,通过互联网668,将跟踪激光测距仪3对准机器人作业位置289的个机器人3D形成的工作机398,测量距离。
跟踪摄像机80以与跟踪激光距离测量机3测量的距离相当的视场角和焦距拍摄机器人作业位置289的机器人398的3D形成的作业机。通过跟踪激光测距仪3和跟踪电视摄像机80,通过图像识别图像的位置和图像分析,机器人作业范围119可以被概括。机器人3D形成的工作机398的位置也每次都被图像识别,测量机器人工作范围119的位置。这些图像识别和位置信息也可以通过互联网668,由计算机9接收。
从计算机9接收到的机器人工作范围119中,计算机9设想的3D成型物的图像在跟踪电视摄像机监视器画面92上显示,跟踪电视摄像机监视器画面27上的控制器设想的3D成型物的图像在合成画面上显示。通过计算机9大致了解机器人工作范围119,在跟踪电视摄像机80拍摄的2维画面位置上,在表现三维画面位置的投影机所设想的侧面图像554画面上,用计算机9所设想的三维投影机所设想的3D形成物的侧面399图像和计算机9所设想的三维28投影机所设想的侧面的跟踪电视摄像机监视器画面上所设想的3D形成物图像的合成画面来显示。
跟踪电视摄像机监视器画面92上的位置和投影机设想的侧面图像554的位置作为机器人工作范围119的位置,是可以大致知道或测量的位置,因此跟踪电视摄像机监视器画面92上的二维画面位置和投影机设想的侧面图像554画面上的三维画面位置,可以经由互联网668操作跟踪数控的3D形成机23、机器人作业位置289和机器人的3D形成的工作机398。
(互联网)
实施例:图143中,利用固定电视摄像机1拍摄剧场舞台667,将其图像信号16经由互联网668映在固定电视摄像机监视器画面5上。固定电视摄像机监视器画面5上放映的互联网固定电视摄像机监视器画面指示位置666,通过互联网668,可以在固定电视摄像机监视器画面5上操作跟踪电视摄像机80。利用相当于通过互联网668操作固定电视摄像机监视器画面5上操作的画面位置信号14的驱动信号11,朝向操作跟踪激光测距仪3和跟踪电视摄像机80的位置,利用跟踪激光测距仪3测量与互联网固定电视摄像机监视器画面上的指示位置666相当的表演者之间的距离,以相当于该测量距离的视角和焦距,由跟踪电视摄像机80拍摄该表演者。其跟踪电视摄像机80拍摄的图像信号,可以通过互联网668,跟踪电视摄像机监视器画面92的画面来欣赏。
实施例:在图144中,利用固定电视摄像机1拍摄剧场舞台667,将该固定电视摄像机图像信号16经由互联网668映在固定电视摄像机监视器画面5上。通过经由因特网网668对跟踪电视摄像机A355操作在固定电视摄像机监视器画面5上放映的多个表演者的因特网固定电视摄像机监视器画面的指示位置666的表演者522的位置和图像识别的位置,能够对跟踪电视摄像机B 356进行跟踪摄影的操作。跟踪摄像机A、B(355、356)和跟踪激光距离测量机A、B(243、244)朝向与在固定电视摄像机监视器画面5上操作的位置相当的方向,朝向各自的表演者的位置的方向。
用各自的跟踪激光测距仪分别测量互联网固定电视摄像机监视器画面上的被摄体的指示位置666和固定电视摄像机的图像识别被摄体522所对应的表演者的位置之间的距离,以相当于该测量距离的视角和焦距,跟踪电视摄像机A、B(355、356)分别对各个表演者进行摄影。
通过互联网668,可以在接口216、接口C、D、E、F(523、524、525、526)的固定电视摄像机监视器画面5或跟踪电视摄像机监视器画面A、B(360、361)的画面上分别欣赏跟踪电视摄像机A、B(355、356)拍摄的图像信号。
实施例:图145中,利用跟踪电视摄像机系统收纳架654的多个跟踪电视摄像系统646拍摄剧场舞台667,将该固定电视摄像机的图像信号网217、跟踪电视摄像机图像信号网648、驱动位置信号网653和驱动信号网652,经由互联网668,将映在固定电视摄像机监视器画面5上的多个表演者画面上的指示的位置,经由互联网668,将该指示选择的跟踪电视摄像系统646的跟踪电视摄像机80和跟踪激光测距仪3,朝向相当于该固定电视摄像机监视器画面5上的指示的位置的方向,跟踪激光测距仪3测量与该表演者的距离。该跟踪电视摄像系统646的跟踪电视摄像机80在相当于测量的距离的视角和焦距上拍摄表演者。
该摄影的图像信号通过互联网668,与指示表演者的固定电视摄像机监视器画面5相关联,通过跟踪电视摄像机监视器画面92进行观赏。用麦克风655收集对表演者的声援,通过互联网668,在剧场舞台667上设置的扬声器658将声援传达给表演者。跟踪电视摄像系统收纳架654上的多数的各个观剧者在跟踪电视摄像系统646中,用各自的方法来欣赏剧场舞台667上的各个表演者,并传达声援和声援表示。
实施例:图146中,利用跟踪电视摄像机系统收纳架654的多个跟踪电视摄像系统646拍摄剧场舞台667,将该多个跟踪电视摄像系统646的固定电视摄像机的图像信号网217、跟踪电视摄像机图像信号网648、驱动位置信号网653和驱动信号网652经由互联网668、经由多个接口映在多个固定电视摄像机监视器画面5上。通过互联网668,将多台被指示的多台跟踪电视摄像系统646的多台跟踪电视摄像机80和多台跟踪激光测距仪3朝向相当于多台画面上指示位置的方向,该多台跟踪激光测距仪3测量与多台表演者的距离。
在相当于多数测量距离的视场角和焦距上,多个跟踪电视摄像机80对表演者进行拍摄。通过互联网668,在指示多个表演者的多个跟踪电视摄像机监视器画面92上,分别欣赏多个拍摄的图像信号。剧场舞台667的多数表演者的映像,通过互联网668,多数的观赏者可以分别选择欣赏各个表演者的表演。
实施例:图147中,爵士现场演奏室253是安装有激光距离测量器167的、以跟踪电视摄像机A355的视场角为广角,对所有爵士演奏者进行拍摄,在该拍摄到的跟踪电视摄像机监视画面B361上放映的各演奏者的画面上的跟踪电视摄像机监视画面(485、486、487、488)上的长号演奏者通过指示钢琴演奏者、小号演奏者、基础演奏者的位置,用激光距离测量器167测量该演奏者的方向和距离。使用该测量的距离,调整跟踪电视摄像机A 355的视场角、焦距和摄影方向,用最佳画面拍摄该测量的演奏者。将调整后拍摄的视场角、焦距和拍摄方向的驱动数值与各演奏者相关联,进行存储。
根据爵士乐演奏的状况,使用将各个演奏者与该演奏者相关联存储的、在该最佳画面中拍摄的驱动数值,将跟踪电视摄像机A 355拍摄的跟踪电视摄像机监视器画面B 361中放映的的长号演奏者485、钢琴演奏者486、小号演奏者487、贝斯演奏者488在跟踪电视摄像机B 356拍摄的画面中放映长号演奏者490、钢琴演奏者491、小号演奏者492、贝斯演奏者493。爵士乐直播间253的纸牌上的长号演奏者481,钢琴演奏者482,小号演奏者483,贝斯演奏者484的演奏者,在跟踪电视摄像机B 356的那个最佳画面中拍摄,跟踪电视摄像机监视器画面上的长号演奏者490,钢琴演奏者491,小号演奏者492,贝斯演奏者493的跟踪电视摄像机的最佳画面中放映。
根据爵士乐演奏的状况,将用跟踪电视摄像机B 356拍摄的图像在跟踪电视摄像机监视器画面355上,将其最高的演奏调整为其最高的摄影方法,拍摄各个演奏者的长号演奏者490、钢琴演奏者491、小号演奏者492、贝斯演奏者493。根据爵士乐演奏的状况,事先调整跟踪电视摄像机A 355和跟踪电视摄像机B 356之间的视场角、焦距和拍摄方向,用画面拍摄该驱动数值的最佳记忆。该驱动数值的记忆通过进一步操作方法的演奏进行更新。
实施例:图148中,将爵士实况录音室253以安装有激光距离测量器167的跟踪电视摄像机A355拍摄的视场角为窄角,拍摄该爵士演奏者的各演奏者,确认各演奏者的图像。将跟踪电视摄像机A 355拍摄的视角设为广角,对跟踪电视摄像机监视器画面A 360的所有爵士乐演奏者进行拍摄,对各演奏者进行图像识别。用跟踪电视摄像机A 355的窄角拍摄各爵士乐演奏者的跟踪电视摄像机监视器画面A,B,C,D(361,362,363,364)画面中的驱动数值,与用该广角拍摄全体演奏者的跟踪电视摄像机监视器画面A 360的各爵士乐演奏者的图像确认位置相关联。
在以该广角拍摄的跟踪电视摄像机监视器画面360上显示的各演奏者画面上的位置的操作中,以该窄角拍摄并识别图像,在跟踪电视摄像机监视器画面上的长号演奏者485、钢琴演奏者486、小号演奏者487、贝斯演奏者488的位置,用安装在跟踪电视摄像机B,C,D,E(356,357,358,359)上的激光测距仪167,测量各演奏者的方向和距离。使用该测量的距离,调整跟踪电视摄像机A 355的视场角、焦距和摄影方向,用最佳画面对该测量的各演奏者进行摄影。将调整后拍摄的视角、焦距和拍摄方向的驱动数值,与各演奏者进行图像识别并相关联存储。
用图像调节器400附上各演奏者和主唱演奏者、最佳图像等信息,通过互联网668,在电视摄像机监视器画面上选择并欣赏。根据爵士乐演奏的状况,将各个演奏者和该演奏者在最佳画面中与摄影相关联进行记忆,使用该图像识别,用跟踪电视摄像机B,C,D,E(356,357,358,359)进行摄影,跟踪电视摄像机监视器画面B,C,D,E(361,362,363,364)中出现,跟踪电视摄像机监视器画面上的长号演奏者485,钢琴演奏者486,小号演奏者487,贝斯演奏者488的图像通过互联网668,在电视摄像机监视器画面中选择并欣赏。
根据爵士乐演奏的状况,在跟踪电视摄像机监视器画面B,C,D,E(361,362,363,364)上的跟踪电视摄像机监视器画面上的位置,调整用各个演奏者的跟踪电视摄像机B,C,D,E(356,357,358,359)拍摄的图像。根据爵士乐演奏的状况,预先更新跟踪电视摄像机A355的视场角和焦距和摄影方法其最佳画面图像识别,存储并更新拍摄了该图像的驱动数值。
爵士乐直播间的情况下,其演奏者的动作、技法和声音,加入到最佳的图像识别中。
跟踪电视摄像机A、B、C、D、E(355、356、357、358)的图像信号,通过接口216连接的互联网668,跟踪电视摄像机监视器画面的所有乐队演奏者489、长号演奏者490、钢琴演奏者491、小号演奏者492、贝斯演奏者都能欣赏到。各欣赏者选择适应该最佳图像识别的演奏者的画面。
利用跟踪电视摄像机系统收纳架654的多个跟踪电视摄像系统646拍摄实施例图149的爵士乐直播间253,将该跟踪电视摄像系统646的固定电视摄像机的图像信号16的固定电视摄像机图像信号网217经由互联网668作为固定电视摄像机监视画面,经由互联网668以各自的显示画面放映。将作为固定电视摄像机监视器画面出现在画面上的多个表演者画面上的指示位置用驱动位置信号网653和驱动信号网652,通过互联网668,将其选择的跟踪电视摄像系统646的跟踪激光测距仪朝向相当于该画面上的指示位置的方向,测量与表演者的距离。
在相当于测量距离的视角和焦距下,用跟踪电视摄像机拍摄表演者。通过跟踪电视摄像机图像信号网648的互联网668,指示表演者,在相当于跟踪电视摄像机监视器画面92的画面上欣赏该跟踪电视摄像机拍摄的图像信号。在爵士乐直播间253中拍摄演奏的演奏者,固定电视摄像机拍摄的画面操作信号及其图像信号,跟踪电视摄像机系统收纳架654的各跟踪电视摄像系统646拍摄的该操作信号及其图像信号,驱动位置信号网653和驱动信号网652通过接口216连接到互联网668。
通过在智能喇叭A、B(257、258)中嵌入与其操作及其图像信号相对应的应用程序,操作跟踪电视摄像系统646中的任何一个跟踪电视摄像,并将跟踪电视摄像的图像显示在智能喇叭A、B、C、D(257、258、259、260)上。通过在网络跟踪电视摄像系统B261中加入与该操作和该图像信号相对应的应用程序,操作相当于固定电视摄像机1拍摄的固定电视摄像机监视器画面的网络跟踪电视摄像系统B 261,将通过智能喇叭用应用程序界面569连接的跟踪电视摄像系统646中的任一个跟踪电视摄像机的图像显示在画面操作电视摄像机监视器262画面和跟踪电视摄像机监视器画面92上。
实施例:图150中,总公司办公室426、分公司办公室427中设置的跟踪电视摄像机系统的总公司办公室426的12固定电视摄像机1A、分公司办公室427的固定电视摄像机B122分别拍摄办公室。将用固定电视摄像机B 122拍摄分公司办公室427的图像信号,通过接口216连接的互联网668通过接口216连接,显示在总公司办公室426的固定电视摄像机监视器C 150的画面上。总公司办公室426由固定电视摄像机A 121拍摄的图像信号通过接口216连接的互联网668,在接口216连接的分公司办公室427的固定电视摄像机监视器A,B(148,149)画面上显示。
通过对总公司办公室426的固定电视摄像机监视器C 150画面上的固定电视摄像机监视器画面指示位置240的操作,通过与接口216连接的互联网668,驱动分公司办公室427的跟踪激光测距仪B 244和跟踪电视摄像机B 356,配合跟踪激光测距仪B 244测量的距离,跟踪电视摄像机B 356拍摄的图像信号,通过由接口216连接的互联网668,显示在总公司办公室426的跟踪电视摄像机监视器画面B 361上。
同样地,操作总公司办公室426的跟踪电视摄像机A 355,被显示在分公司办公室427的跟踪电视摄像机监视器画面A 360上。通过在智能喇叭A 257中嵌入与其操作及其图像信号相对应的应用程序,通过同样的操作,能够显示总公司办公室426的跟踪电视摄像机A 355、分公司办公室427的跟踪电视摄像机B 356所拍摄的图像。通过在个人计算机254中编入与该操作及其图像信号相对应的应用程序,通过同样的操作,可以显示总公司办公室426的跟踪电视摄像机A 355、分公司办公室427的跟踪电视摄像机B 356所拍摄的图像。
实施例:图151中,设置对山门的金刚力士像进行景观摄影的互联网跟踪电视摄像机系统A、B(256、261),通过该固定电视摄像机将金刚力士像的摄影画面通过其接口连接到互联网668。通过在智能喇叭A、B(257、258)中加入与其操作及其图像信号相对应的应用程序,通过互联网网络操作互联网跟踪电视摄像系统A 256的该跟踪电视摄像,通过互联网,智能喇叭257或通过接口216连接互联网网络的互联网跟踪电视摄像监视器画面A 273观看互联网跟踪电视摄像系统A 256的跟踪电视摄像机80所拍摄的图像。
通过接口216与互联网连接的固定电视摄像机监视器A 148画面上的互联网的固定电视摄像机监视器画面指示位置B 270的操作通过接口216与互联网连接的互联网跟踪电视摄像机系统B 261的跟踪激光测距仪3和跟踪电视摄像机80朝向互联网固定电视摄像机监视器画面指示位置B 270的操作的方向,测量其距离,以相当于该距离的视角和焦距,通过接口216将跟踪电视摄像机80拍摄的图像发送到连接互联网。连接到接口216的互联网跟踪电视摄像机在监视器画面B 274上欣赏。在互联网跟踪电视摄像机监视器画面B 274上观看的同时,通过固定电视摄像机监视器A 148画面上的互联网固定电视摄像机监视器画面指示位置B 270的操作位置的修正操作,在修正互联网跟踪电视摄像机监视器画面B 274的画面上观看。
实施例:图152中,在儿童足球比赛会场242设置互联网跟踪电视摄像系统A 256、B261、C 1052、D 1053,该系统的图像信号和操作信号通过接口连接到互联网668。将该信号连接到互联网668上,通过接口216,通过互联网跟踪电视摄像机系统的固定电视摄像机监视器A,B,C(148,149,150)画面上的操作,拍摄儿童足球比赛会场242的比赛。
固定电视摄像机监控A 148画面上踢足球的球员互联网固定电视摄像机监控画面指示位置A 269,互联网跟踪电视摄像机系统A 256的跟踪电视摄像机A 355和跟踪激光测距仪3测量与踢足球的球员之间的距离,根据该距离,以跟踪电视摄像机A 355的视角和焦距拍摄踢足球的球员,通过互联网668,能够在互联网跟踪电视摄像机监控画面A 273看到踢足球的球员。
固定电视摄像机监视器B 149图像识别画面上的足球的互联网固定电视摄像机监视器在画面指示位置B 270,互联网跟踪电视摄像机系统B 261的跟踪电视摄像机B 356和跟踪激光测距仪3测量与足球的距离,根据该距离,以跟踪电视摄像机B 356的视角和焦距拍摄足球,通过互联网668,可以在互联网跟踪电视摄像机监视器画面B 274看到足球和踢球的球员。网络跟踪电视摄像系统C 1052,设置多个跟踪电视摄像机C,D(357,358),固定电视摄像机监视器150画面上的足球进行图像识别在网络固定电视摄像画面指示位置C,D(271,272),网络跟踪电视摄像系统C 1052的跟踪电视摄像C,D(357,358)的跟踪激光测距仪3测量与足球的距离,根据该距离,以跟踪电视摄像C,D(357,358)的视角和焦距,拍摄足球,通过网络,跟踪电视摄像画面C,D(275,256)可以看到与足球踢球的运动员。
通过在跟踪电视摄像机监视器画面C 275中观察那个足球和踢的球员,可以在网络固定电视摄像机监视器画面指示位置D 272中,跟踪电视摄像机D 358和跟踪激光测距仪3测量那个足球和那个足球被抢的球员之间的距离,根据那个距离,以那个跟踪电视摄像机D 358的视角和焦距,拍摄那个足球被抢的球员,通过网络,可以在跟踪电视摄像机监视器画面D 276中观察那个足球被抢的球员。
通过将与智能喇叭A 257的操作和图像信号相对应的应用程序集成到智能喇叭A257中,在连接到智能喇叭A 257的互联网跟踪电视摄像系统D 1053的固定电视摄像监视器画面上、比赛显示画面上的比赛图像识别图像中已经指定的图像识别足球的位置,跟踪电视摄像机E 359和跟踪激光测距仪3测量与足球的距离,根据该距离以跟踪电视摄像机359的视角和焦距拍摄足球,并通过互联网网络在智能喇叭A 257的画面上看到足球周围的球员。从多个网络跟踪电视摄像机系统拍摄的各个图像中,选择由图像调节器400进行图像识别的几个最佳图像,通过网络,可以在电视摄像机监视器画面中选择这几个图像进行观看。
实施例:图153中,在足球场647的间距的上部,在跟踪电视摄像机固定线650上设置多个跟踪电视摄像机系统646。在该间距上部的中央,在安装在跟踪电视摄像机固定线650上的、安装在跟踪电视摄像机系统252上的鱼眼镜头固定电视摄像机拍摄的、该固定电视摄像机监视器画面5和显示了该间距的CG画面的CG足球场合成画面663上通过指示跟踪摄像机系统428的CG监视器画面的指示位置,设置有多个的跟踪电视摄像机系统646朝向该指示的方向,以该距离及其视场角的焦距拍摄该足球。
跟踪电视摄像系统646拍摄的、使之对足球进行图像识别,使之选择拍摄了反映足球的最佳画面的跟踪电视摄像系统的跟踪电视摄像的图像,在图像信号切变跟踪电视摄像监视画面651上进行显示。在各跟踪电视摄像机监视器画面上,用跟踪激光测距仪,测量与该足球波的距离,根据该距离,用该跟踪电视摄像机的视角和焦距拍摄该足球。通过各跟踪电视摄像机拍摄的画面,使其对足球进行图像识别,跟踪电视摄像机学习对足球进行图像识别的位置,进行跟踪拍摄。
利用图像信号切变器649切换图像,通过图像信号切换跟踪电视摄像机监视器画面651观看各跟踪电视摄像机系统拍摄的、包括足球波在内的足球运动员的最佳比赛画面。跟踪电视摄像机通过监视器画面651上的画面操作,调整反映该画面的跟踪电视摄像机,也可以调整该跟踪激光测距仪再次测量的、以该距离反映该画面的跟踪电视摄像机。
实施例:图154中,由安装在图153中的足球场647的中心的上部的体育场跟踪电视摄像机系统252上的鱼眼镜头固定电视摄像机251,对整个体育场球场进行拍摄。在体育场跟踪电视摄像系统252上安装的鱼眼镜头用固定电视摄像机251拍摄了整个俯仰,该固定鱼眼电视摄像机监控画面和显示俯仰的CG画面在固定鱼眼电视摄像机画面和CG合成监控画面663上的位置,指示在各固定线架的跟踪电视摄像系统206的每个悬挂位置上预先用体育场俯仰画面设置的数控电视摄像机35拍摄的方向。
在由鱼眼透镜固定电视摄像机251拍摄并与画面和竞技场俯仰画面合成固定鱼眼电视摄像机画面和CG合成监视器画面面663上的跟踪摄像机系统的CG监视器画面的指示位置428,由各固定线架206的跟踪电视摄像机系统的数控电视摄像机35拍摄在跟踪摄像机系统664的数控电视摄像机监视器画面上,进行跟踪摄像机系统669的数控电视画面的球的图像识别的位置或手动指示。各固定线架的跟踪电视摄像系统206内的数控电视摄像机35拍摄的跟踪电视摄像系统数控电视摄像监视器画面664上的跟踪摄像系统数控电视画面的球的图像识别位置669或手动指示的方向,对准跟踪激光测距仪3,测量足球运动员32踢的足球530的距离,根据测量的距离调整跟踪电视摄像机80的视场角和焦距,用跟踪电视摄像机80拍摄跟踪摄像系统的跟踪电视摄像机监视器画面665。
实施例:图155中,测量设置在足球场647的间距的中央上空的鱼眼透镜固定电视摄像机251拍摄的、该固定电视摄像机监视器画面5和显示间距的CG画面的合成画面的监视器画面237上的测量位置的高度的距离。在相当于固定电视摄像机监视器画面5上的监视器画面上的测量位置237的足球场647的俯仰位置,固定线架的跟踪电视摄像系统206和跟踪激光测距仪3朝向正下方,取得测量与该俯仰高度的测量值。在所测量的足球场647的所有位置206上保持其高度的距离,驱动操作线数值驱动机构系统A、B、C、D、E、F(263、264、265、266、267、268)并将其各数值驱动机构的驱动数值与固定电视摄像机监视器画面5上的监视器画面上的测量位置237和其所测量的高度的距离相关联;固定电视摄像机监视器画面5上的监视器画面上的几个不同的测量位置237和其所测量的高度的距离与线数值驱动机构系统A、B、C、D、E、F(263、264、265、266、267、268)并将其各数值驱动机构的驱动数值相关联,5.在固定电视摄像机监视器画面上的所有位置,通过补充法等方法,将以测量的高度的距离,关联各数值驱动机构的驱动数值的数值相关联。
监视器画面上的几个不同的测量位置237与线数值驱动机构使用与驱动操作系统A、B、C、D、E、F(263、264、265、266、267、268)的各个数值驱动机构的驱动数值相关联的数值,5通过补充方法等方法,将固定电视摄像机监视器画面5上的所有位置处的各个数值驱动机构的驱动数值与固定电视摄像机监视器画面5上的所有位置处的各个数值驱动机构的驱动数值相关联的数值相关联。
通过内插法的运算,计算并存储鱼眼镜头固定电视摄像机251拍摄的画面上的所有位置、CG画面上的所有位置、足球场647的间距位置、测量的高度与驱动线驱动系统F(263、264、265、266、267、268)的驱动机构的驱动数值之间的关联。在相当于合成画面上的所有位置的足球场647的所有位置上,线数值驱动机构系统A、B、C、D、E、F(263、264、265、266、267、268)的驱动机构可以用其驱动数值驱动固定线架的跟踪电视摄像系统206的位置。
实施例:图156中,相当于设置在足球场647间距的中央上空的鱼眼透镜固定电视摄像机251拍摄的、该固定电视摄像机监视器画面5和显示了间距的CG画面的合成画面的固定鱼眼电视摄像机画面663和CG合成监视器画面面上的跟踪摄像机系统428的CG监视器画面的指示位置为了向足球场647间距的位置移动到固定线架206的跟踪电视摄像机系统的位置,通过上述说明的补充法等的运算已经取得驱动线驱动系统的驱动机构的驱动数值,测量距地面的高度并维持距离在来自各方向的线驱动系统662的支撑下移动。
结合在固定线架的跟踪电视摄像系统206中的数控电视摄像机35对指示的方向进行拍摄。按照该指示方向,指示数控电视摄像机35拍摄的、数控电视摄像机监视器画面37上显示的、跟踪摄像系统数控电视画面指示位置660上足球的位置。数控电视摄像机监视器画面37上显示的跟踪摄像机系统的数控电视画面指示位置660上的相当于对足球进行图像识别的位置,将跟踪激光测距仪3对准,测量其距离。根据测量的距离,在176跟踪摄像系统的数控电视摄像画面的位置,对数控电视摄像监视器画面37上显示的足球的位置进行图像识别。
从固定线架的跟踪电视摄像系统206被驱动的位置,向相当于176跟踪摄像系统的数控电视摄像画面上的图像识别其足球的位置的方向,面向跟踪激光测距仪3和跟踪电视摄像机80,跟踪激光测距仪3测量其与足球530的距离,根据测量的距离,跟踪电视摄像机80结合视角和焦距,拍摄跟踪摄像系统的跟踪电视比摄像监控画面665上的足球的图像。
实施例:图157中,足球场647的间距的上部中央的安装在跟踪电视摄像系统252中的鱼眼镜头固定电视摄像所拍摄的、该固定电视摄像监视器画面与显示间距的CG画面之间的CG足球合成画面663上的位置,驱动并入该跟踪电视摄像系统中的线驱动机构263、264、265、266、267、268,移动到最佳拍摄方向的位置。
在CG足球的合成画面663上的跟踪摄像机系统的CG监视器画面的指示位置428,指示数控电视摄像机35的拍摄方向。数控电视摄像机35拍摄跟踪摄像系统数控电视摄像机监控画面664上的跟踪摄像系统数控电视画面球的图像识别位置669或手动指示位置方向,将其数控线架跟踪电视摄像系统1080内的跟踪激光测距仪3和跟踪电视摄像机80对准足球运动员32踢的足球530的距离,根据测量的距离,调整跟踪电视摄像机80的视场角和焦距,用跟踪电视摄像机80拍摄跟踪摄像系统的跟踪电视比摄像机监控画面665。CG足球合成画面663上映出的球的图像的检测位置上事先设定好的,以跟踪电视摄像机80的最佳距离和视角进行拍摄。
实施例:图158中,自动驾驶数据获取车670辆的整个区域安装了能够通过数控改变拾音方向的和数控定向麦克风A 1073和B 1074。比较各麦克风拾音的各频段的声音相位差,驱动数控定向麦克风A 1073和B 1074向该相位较早的方向。按照数控定向麦克风A1073和B 1074的驱动机构的驱动数值进行驱动,跟踪激光测距仪3和跟踪电视摄像机80,以相当于测量的距离的数值,将跟踪电视摄像机80的视角和焦距合起来拍摄的画面的该声音源的图像跟踪电视摄像机监视器画面92上对右侧行驶的车辆747进行图像识别。
产业上的可利用性
电视卫星台、互联网视频网站、图像多样化、图像识别与安保、运动教育、体育场地、旅游设施、测量仪器、数据地图、机器人简易操作、工业机器人多样性、步行机器人、汽车自动驾驶、汽车事故避免、汽车驾驶技能检测、农作用机器人、物流辅助机器人、个人移动机械、安全辅助设备、生产现场辅助设备。
附图标记说明
1固定电视摄像机;2固定电视摄像机拍摄范围;3跟踪激光测距仪;4激光照射的场所;5固定电视摄像机监视器画面;6激光照射位置;7控制台;8跟踪控制器;9计算机;10操作信号;11驱动信号;12驱动位置信号;13测距仪侧信号;14屏幕位置信号;15数据信号;16固定电视摄像机图像信号;17获取的图像A;18获取的图像B;19获取的图像C;20获取的图像D;21音频信号网;22机器人的工作;23跟踪数控的3D形成机;24跟踪机器人形成的3D形成物;25固定电视摄像机监视器画面上的3D形成机;26固定电视摄像机监视器画面上的跟踪机器人;27跟踪电视摄像机监视器屏幕上的投影机的设想的3D形成物;28在监视器设想的侧面跟踪电视摄像机监视器画面上设想的3D形成物图像;29投影机设想的侧面的跟踪电视摄像机监视器画面上的跟踪机器人;30位于发射器的设想侧面的跟踪电视摄像机图像信号;31固定电视摄像机1监视器画面上的D形成器;32足球运动员;33固定电视摄像机监视器画面上的被摄体;34棒球运动员;35数控电视摄像机;36数控电视摄像拍摄范围;37数控电视摄像机监视器画面;38数控电视摄像图像信号;39数控电视摄像机监控画面上棒球运动员的球棒;40数控电视摄像机监控画面上棒球运动员的握把;41.数控电视摄像机监控画面上棒球运动员的右脚;42无人机A;43无人机B;44无人机C;45无人机位置A;46无人机位置B;47无人机位置C;48测量距离1A;49测量距离1B;50测量距离1C;51测量距离1D;52测量距离2A;53测量距离2B;54测量距离2C;55测量距离2D;56测量距离3A;57测量距离3B;58测量距离3C;59测量距离3D;60无人机之间的距离A;61无人机之间的距离B;62无人机之间的距离C;63移动距离A;64移动距离B;65跟踪电视摄像机测距系统;66跟踪电视摄像机测距系统A;67跟踪电视摄像机测距系统B;68跟踪电视摄像机测距系统C;69跟踪图像;70数控电视摄像机监视器画面上想测量的行驶车辆;71数控电视摄像机监视器画面上想测量的放大的行驶车辆;72跟踪电视摄像机测距系统;73固定电视摄像机监视器画面上测量的作业位置A;74固定电视摄像机监视器画面上测量的作业位置B;75固定电视摄像机监视器画面5上测量的作业位置C;76固定电视摄像机监视器画面上的加工位置;77跟踪电视摄像机监视器画面上的显示距离;78像素测量电视摄像机测距仪;79机器人作业的加工位置;80跟踪电视摄像机;81固定电视摄像机监视器画面上所映的被摄体;82数控电视摄像机测距仪的监视器画面中反映的被摄体;83测量行驶汽车的测量系统与测量无人机之间的距离;84无人机测量的行驶汽车和测量无人机之间的距离;85测量行驶汽车和行驶汽车的运算距离和方向;86待测量的行驶汽车;87用于测量距离和读取条形码的激光束;88跟踪电视摄像机监视器画面上显示的测量行驶汽车;89数控电视摄像机监视器画面上显示的测量行驶汽车;90数据转换器;91图像发送器;92跟踪电视摄像机监视器画面;93跟踪激光测距基点A;94跟踪激光测距基点B;95跟踪激光测距基点C;96概知测量地点D;97避免碰撞取得驾驶数据;98取得避免碰撞驾驶数据;99跟踪激光测距预定基点;100概知测量地点A跟踪光接收器测距系统;101概知测量地点B跟踪光接收器测距系统;102概知测量地点C跟踪光接收器测距系统;103概知测量地点D跟踪光接收器测距系统;104未知测量位置的跟踪光接收器测距系统;105未知测量地点三台跟踪光接收器测距系统;106跟踪光接收器;107LED发光元件;108作业人员;109机器人工作区;110固定电视摄像机监视器画面的工作人员;111跟踪电视摄像机监视器画面的机器人工作区域;112CG画面的范围与跟踪电视摄像机监视器画面的范围合成画面;113电视摄像机画面合成和CG画面聚合器;114设想的3D画面;115像素测量电视摄像机画面测量仪器监视器A;116像素测量电视摄像机画面测量仪器监视器B;117像素测量电视摄像机画面测量仪器监视器C;118跟踪电视摄像机监视器画面上的识别图像;119机器人工作范围;120条形码读取器;121固定电视摄像机A;122固定电视摄像机B;123固定电视摄像机C;124固定电视摄像机监视器画面A;125固定电视摄像机监视器画面B;126固定电视摄像机监视器画面C;127跟踪电视摄像机监视器屏幕上的作业;128跟踪电视摄像机监视器画面上的作业位置;129跟踪电视摄像机的广角拍摄的监视器画面;130跟踪电视摄像机的窄角拍摄的监视器画面;131图像元件跟踪电视摄像机测距仪的广角图像元件的拍摄范围;132图像元件跟踪电视摄像机测距仪的窄角图像元件的拍摄范围;133像素测量电视摄1像机测距监视器的放大画面;134概知测量地点C测量预定场所的测量预定距离;135数控电视摄像机画面的测距监控画面上的船舶;136重复合成电视摄像机监视器画面上的船舶;137重复合成电视摄像机监视器画面;138重复合成电视摄像机监视器画面上的行驶方向;139重复合成电视摄像机监视器画面上的碰撞回避变更路;140重复合成电视摄像机监视器画面上的船舶进展模拟模拟;141重复合成电视摄像机监视器画面上的碰撞范围;142图像元件;143图像素测量电视摄像机测距仪显示监视器画面的图像元件单元;144图像素测量电视摄像机测距仪监视器画面上的机器人作业;145图像素测量电视摄像机测距仪;146图像素测量电视摄像机画面测量仪的图像信号;147图像素测量电视摄像机测距仪的距离信号;148固定电视摄像机监视器A;149固定电视摄像机监视器B;150固定电视摄像机监视器C;151光源;152光接收A;153光接收B;154光接收C;155光接收D;156光接收E;157光接收器;158跟踪电视摄像机监视器画面上的工作台角A的形状和位置的测量;160跟踪电视摄像机监视器画面上的工作台C的形状和位置的测量;161跟踪电视摄像机监视器画面上的工作台D的形状和位置的测量;162巡洋舰;163固定电视摄像机监视器屏幕上的巡洋舰;164固定电视摄像机监控画面上的船舶;165数控电视摄像机测距仪的重复合成器;166反射镜跟踪激光测距仪;167激光测距仪;168镜跟踪电视摄像机;169电视摄像机画面合成器;170被摄体;171合成电视监视器画面;172合成图像信号;173合成电视摄像机监视器画面的机器人作业;174合成电视摄像机监视器画面的CG作业;175机器人工作;176跟踪摄像系统数控电视摄像屏幕图像识别位置;177机器人工作空间;178电视摄像机;179跟踪电视摄像机拍摄范围;180镜像跟踪电视摄像机监视器画面;181跟踪电视摄像机拍摄被摄体;182收纳架编入了跟踪电视摄像系统;183图像跟踪电视摄像机监视器画面;184图像元件跟踪电视摄像机拍摄范围;185图像元件跟踪电视摄像机监视器画面上显示的作业位置;186图像元件跟踪电视图像信号;187图像元件跟踪电视摄像机监视器画面的中心;188固定电视摄像机1拍摄范围;189固定电视摄像机2拍摄范围;190作业者指示;191安装在机器人上的电视摄像机监视器画面的指示;192镜像跟踪电视摄像机图像信号;193收纳架;194跟踪镜;195预计碰撞位置;196电视摄像机跟踪系统A;197电视摄像机跟踪系统B;198电视摄像机跟踪系统C;199固定电视摄像机监视器屏幕上的测量无人机;200无人机的数控电视摄像机监控画面上的测量车辆;201合成电视照摄像机监视器画面的CG作业;202固定电视摄像机画面上的被摄体1;203固定电视摄像机画面上的被摄体2;204固定电视摄像机画面上的被摄体3;205画面位置信号切换器;206固定线架的跟踪电视摄像系统;207图像识别位置;208镜像跟踪激光测距仪的测量范围;209镜子跟踪激光测距仪的测量范围A;210镜子跟踪激光测距仪的测量范围B;211镜子跟踪激光测距仪的测量范围C;212跟踪电视摄像机监视器画面上的被摄体船1;213跟踪电视摄像机监视器画面上的被摄体船2;214跟踪电视摄像机监视器画面上的被摄体船3;215跟踪电视摄像机监视器画面上的被摄体船4;216接口;217固定电视摄像机图像信号网;218四脚驱动行驶机位置A;219四脚驱动行驶机位置B;220数控电视摄像机监视器画面上的被摄体1;221数控电视摄像机监视器画面上的被摄体2;222麦克风之间的距离;223显示器画面的收纳演算纸箱;224图像分析器;225图像分析信号;226图像解析后的图像1;227图像解析后的图像2;228接口A;229接口B;229麦克风A;230条形码显示;231音频信号;232语音分析器;233语音分析信号;234跟踪电视摄像机监视器屏幕上的儿童;236跟踪电视摄像机监视器画面上越过中央线的对向车;237显示器屏幕上的测量位置;237线驱动机构的驱动数值获取位置;238麦克风B;239图像解析信息;240固定电视摄像机监视器画面指示位置;241数控电视摄像机测距仪器的监视器画面上的图像识别车辆;242儿童足球赛会场;24跟踪激光测距仪3A;244跟踪激光测距仪B;245跟踪激光测距仪C;246机器人加工位置;247镜跟踪电视摄像机563的电视摄像机监视器屏幕上的足球;248镜跟踪电视摄像机564的电视摄像机监视器屏幕上的足球;249镜跟踪电视摄像机565的电视摄像机监视器屏幕上的足球;250固定电视摄像机监视器画面上的台阶;251鱼眼镜头固定电视摄像机;252体育场跟踪电视摄像系统;253爵士乐直播间;254个人计算机;255跟踪条形码读取器和激光测距仪;256互联网跟踪电视摄像系统A;257智能喇叭A;258智能喇叭B;259智能喇叭C;260智能喇叭D;261互联网跟踪电视摄像系统B;262画面操作电视摄像机监视器;263线数值驱动机构系统A;264线数值驱动机构系统B;265线数值驱动机构系统C;266线数值驱动机构系统D;267线数值驱动机构系统E;268线数值驱动机构系统F;269互联网固定电视摄像机监视器画面指示位置A;270互联网固定电视摄像机监视器画面指示位置B;271互联网固定电视摄像机监视器画面指示位置C;272互联网固定电视摄像机监视器画面指示位置D;273互联网跟踪电视摄像机监视器画面A;274互联网跟踪电视摄像机监视器画面B;275互联网跟踪电视摄像机监视器画面C;276互联网跟踪电视摄像机监视器画面D;277互联网固定电视摄像机监视器画面图像识别位置A;278互联网固定电视摄像机监视器画面图像识别位置B;279互联网固定电视摄像机监视器画面图像识别位置C;280互联网固定电视摄像机监视器画面图像识别位置D;281互联网固定电视摄像机监视器画面图像识别位置E;282通过互联网的固定电视摄像机监视器画面;283用于图像元件发光的测距装置;284图像元件发光的照射被摄体;285来自被摄体的反射光测量仪器;286图像光接收元件信号;287图像存储介质;288数控机器人;289机器人作业位置;290数控像素测量电视摄像机测距仪的LED发光元件单元的LED发光元件;291数控的像素测量电视摄像机测距仪的受光元件单元的受光元件;291数控的像素测量电视摄像机测距仪的受光元件;292跟踪电视摄像机监视器工作画面上的作业位置;293固定电视摄像机监视器画面上的作业位置;294数控电视摄像机测距仪在监视器画面上的作业位置;295跟踪电视摄像机监视器画面上的作业位置;296跟踪电视摄像机拍摄画面作业位置修正前;297跟踪电视摄像机拍摄画面作业位置水平方向修正;298跟踪电视摄像机拍摄画面作业位置垂直方向修正;299机器人上安装的数控电视摄像机;300个机器人上安装的电视摄像机的图像信号;301安装在机器人上的电视摄像机的监视器画面A;302安装在机器人上的电视摄像机的监视器画面B;303安装在机器人上的电视摄像机的监视器画面C;304安装在机器人上的电视摄像机监视器画面上的作业位置;305安装在机器人上的电视摄像机监视器画面上的工作场所A;306安装在机器人上的电视摄像机监视器画面上的工作场所B;307安装在机器人上的电视摄像机监视器画面上的工作场所C;308跟踪驾驶系统行驶车;309跟踪驾驶系统;310行驶方向;311图像信息显示;312跟踪电视摄像机监视器工作画面上的条形码位置;313计算后的放置位置;314模拟行驶;315前方行驶车A;316前车;317对向车道行驶车B;318前方行驶车B;319跟踪操作系统固定电视摄像机监控画面;320跟踪操作系统跟踪电视摄像机监视器画面A;321跟踪驾驶系统跟踪电视摄像机监视器画面B;322跟踪操作系统跟踪电视摄像机监视器画面C;323跟踪驾驶系统跟踪电视摄像机监视器画面D;324前方行驶车C;325跟踪驾驶系统固定电视摄像机监视器画面上的图像检测到的前车A;326跟踪驾驶系统固定电视摄像机监视器画面上的图像检测到的前车B;327跟踪驾驶系统固定电视摄像机监视器画面上的图像检测到的前车C;328跟踪驾驶系统固定电视摄像机监视器画面上的图像检测到的前车D;329跟踪驾驶系统跟踪电视摄像机监视器画面上的图像检测到的前车左侧;330跟踪驾驶系统跟踪电视摄像机监视器画面上的图像检测到的前车右侧;331前车后部;332跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的中央线;333跟踪驾驶系统跟踪电视摄像机监视器画面上的图像检测到的前车固有的图像识别;334跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别右侧路缘;335条形码位置;336机器人上安装的电视摄像机监视器画面;337固定电视摄像机监视器画面上的形状位置;338跟踪电视摄像机监视器工作画面上的形状位置;339图像信息显示;340图像分析信息信号;341固定电视摄像机监视器画面上的信息位置;342形状位置分析器;343形状分析器;344信息分析器;345形状位置信号;346形状信号;347图像信息信号;348分析形状位置;349一般机动车道;350获取的形状信息;351匹配匹配的形状信息;352匹配形状;353跟踪条形码读取器;354条形码数据;355跟踪电视摄像机A ;356跟踪电视摄像机B;357跟踪电视摄像机C;358跟踪电视摄像机D;359跟踪电视摄像机E;360跟踪电视摄像机监视器画面A;361跟踪电视摄像机监视器画面B;362跟踪电视摄像机监视器画面C;363跟踪电视摄像机监视器画面D;364跟踪电视摄像机监视器画面E;365跟踪电视摄像机监视器画面F;366跟踪电视摄像机监视器画面G;367数据和图像存储介质;368被摄体信息数据;369条形码;370固定电视摄像机监视器检测画面上的图像形状的位置;371机器人上安装的电视摄像机监视器画面;372指示机器人工作场所的工作人员的指示器;373检测到安装在机器人上的电视摄像机监视器画面上的指示器的位置;374机器人上安装的跟踪激光测距仪;375跟踪电视摄像机监控画面上船舶的位置;376固定电视摄像机监视器画面上的船舶航迹;377固定电视摄像机监视器画面上的船舶行驶方向和测量距离;378机器人上的条形码读取器和测距仪;379条形码读取器读信号和测距仪侧器的计侧信号;380无法解读条形码的形状;381概知图形数据;382图形识别信号;383数控电视摄像机监控画面上的船舶行驶方向模拟;384行驶方向;385冲突预测范围;386避免碰撞改变航向;387装填用纸箱;388通过概知图形数据填充的形状A;389通过概知图形数据填充的形状B;390由概知图形数据填充的形状C;391固定电视摄像机监视器画面上填塞用纸箱的位置;392电视摄像机画面和VGA画面的合成器;393VGA信号;394转换器的操作位置;395合成屏幕上的机器人作业位置;396提供器假定的3D形成物的位置;397数控机器人形成的3D形成物;398机器人形成的工作机;399播放器设想的3D构造物的侧面;400图像调节器;401船舶;402主题船1;403主题船2;404主题船3;405主题船4;406固定电视摄像机监视器画面上的被摄体船1的位置;407固定电视摄像机监视器画面上的被摄体船2的位置;408固定电视摄像机监视器画面上的被摄体船3的位置;409固定电视摄像机监视器画面上的被摄体船4的位置;410固定电视摄像机监视器画面和图像调整画面的合成画面;411图像信号;412船舶用雷达;413号近距离船只;414号远距离集装箱船;415船用雷达监控画面;416拍摄近距离游艇的跟踪电视摄像机监视器画面;417拍摄远距离集装箱船的跟踪电视摄像机监视器画面;418显示进行跟踪图像操作的远距离集装箱船的跟踪电视摄像机监视器画面;419船用雷达监视器屏幕上的游艇位置;420船舶雷达监视器画面上的集装箱船位置;421跟踪电视摄像机监视器画面上的游艇位置;422跟踪电视摄像机监控画面集装箱船的位置;423进行跟踪图像操作的远距离电视摄像机监视器画面放映集装箱船的位置;424测量原点;425数控图像破译机激光测距仪;426总公司办公室;427分公司办公室;428跟踪摄像机系统的CG监视器画面的指示位置;429跟踪摄像系统的固定电视摄像监视器画面的指示位置;430数据转换器;431跟踪电视摄像机监视器画面上的工作台的测量;432固定电视摄像机监控画面点焊接作业检查;433跟踪电视摄像机监视器画面上的临时组检查;434固定电视摄像机监控画面上的焊接作业检查;435跟踪电视摄像机监视器画面上的加工材料B;436跟踪电视摄像机监视器画面上的A材料设置位置检查;437固定电视摄像机监控画面上工作台的焊接工作;438条形码读取器信号;439条形码读取器读取范围;440条形码标记位置;441条形码引线和测距激光;442数控条码读取器激光测距仪;443条形码标记形状;444跟踪电视摄像机监视器画面上的条形码标记形状;445焊接机器人;446辅助机器人;447工作台;448固定电视摄像机监视器画面上工作台的位置测量;449跟踪电视摄像机监视器画面上的工作台的测量;450加工材料A;451加工材料B;452固定电视摄像机监视器画面上的加工材料A位置;453跟踪电视摄像机监视器画面上的加工材料A;454工作台加工材料A;45固定电视摄像机监视器画面5上工作台的加工材料A位置;456跟踪电视摄像机监视器画面上工作台的加工材料A的角;457固定电视摄像机监视器画面上的加工材料B位置;458跟踪电视摄像机监视器画面上的加工材料B;459在工作台的加工材料A上临时装配加工材料B;460固定电视摄像机监视器画面上的临时组位置;461跟踪电视摄像机监视器画面上的临时组;462临时点焊;463跟踪电视摄像机监控画面上的点焊点;464固定电视摄像机监视器画面上的点焊点;465焊接点;466焊接机信号;467焊接信号;468焊接辅助机;469焊接机;470焊接加工产品;471焊接处;472可移动收纳架;473可移动储物架的工作地点;474跟踪电视摄像机监控画面上的点焊作业;475跟踪电视摄像机监视器画面上的加工检查;476跟踪电视摄像机监控画面上的焊接作业;477跟踪电视摄像机监控屏幕上的焊接检查;478跟踪电视摄像机监视器画面上可动收纳架工作场所的测量;479固定电视摄像机监视器画面上的工作台的测量;480数控激光测距仪;481主题长号演奏者;482主题钢琴演奏者;483主题小号演奏者;484主题贝斯演奏者;485跟踪电视摄像机监视器画面上的长号演奏者;486跟踪电视摄像机监视器屏幕上的钢琴演奏者;487跟踪电视摄像机监视器屏幕上的小号演奏者;488跟踪电视摄像机监视器画面上的贝斯演奏者;489乐队演奏者的跟踪电视摄像机监视器画面;490长号演奏者的跟踪电视摄像机监视器画面;491拍摄钢琴演奏者的跟踪电视摄像机监视器画面;492拍摄小号演奏者的跟踪电视摄像机监视器画面;493拍摄贝斯演奏者的跟踪电视摄像机监视器画面;494行驶数据收发机;495路左侧路口前角;496路左侧路口后角;497路右侧路口后角;498路右侧路口前角;499校正信号;500前方的中线;501鱼眼镜头固定电视摄像机监视器画面;502鱼眼镜头固定电视摄像机图像信号;503超车行驶范围;504操作拍摄的跟踪电视摄像机监视器画面;505待测地点;506固定电视摄像机监视器画面上的位置的测量;507跟踪电视摄像机监视器画面上的加工测量;508跟踪电视摄像机监视器画面上的左侧位置的测量;509跟踪电视摄像机监视器画面上的前方位置的测量;510跟踪电视摄像机监视器画面上的右位置的测量;511跟踪电视摄像机监视器画面上位置的测量;512固定电视摄像机监视器画面上的对方中央线;513固定电视摄像机监视器屏幕上的儿童;514跟踪电视摄像机A;515跟踪电视摄像机B;516跟踪电视摄像机C;517跟踪电视摄像机A拍摄范围;518跟踪电视摄像机B拍摄范围;519跟踪电视摄像机C拍摄范围;520越过中央线驶来的对向车;521图像接收器的可穿戴监视器;522固定电视摄像机的图像识别被摄体;523接口C;524接口D;525接口E;526接口F;527数值驱动机构A;528数值驱动机构B;529数值驱动机构C;530足球;531固定电视摄像机监视器画面上的足球;532跟踪电视摄像机监视器画面A中的足球;533跟踪电视摄像机监视器画面B中的足球;534跟踪电视摄像机监视器画面C中的足球;535数值驱动收纳架;536图像收发器;537数控电视摄像监控画面中足球运动员的脸;538足球投射器;539投射信号;540图像存储介质和图像显示调节器;541滑冰运动员;542数控电视摄像机监视器画面中滑冰运动员的图像指示位置;543跟踪电视摄像机监视器画面上的滑冰运动员的滑冰边缘图像;544跟踪电视摄像机监视器画面上的滑冰运动员着冰图像;545跟踪电视摄像机监视器画面上的滑冰运动员的跳跃前图像;546跟踪电视摄像机监控屏幕上的点焊检查;547跟踪电视摄像机监视器画面上加工材料A的检查;548固定电视摄像机监视器画面上的完成检查;549跟踪电视摄像机监视器画面上的完成检查;550外部焊接形状、检查和位置测量;551曲面测量;552内部焊接形状、检查和位置测量;553外部测量;554提供器的预期侧面图像;556数控电视摄像机监控画面上的足球;557形成物的位置A,该位置A表示在假定的转换器作业位置处的垂直横截面;558电视摄像机监视器画面,反映了假定的转换器的形成物;559投影机设想的电视摄像机监视器图像信号;560镜子跟踪电视摄像机A拍摄范围;561镜像跟踪电视摄像机B拍摄范围;562镜像跟踪电视摄像机C拍摄范围;563镜像跟踪电视摄像机A;564镜像跟踪电视摄像机B;565镜像跟踪电视摄像机C;566镜像跟踪电视摄像机A的电视摄像机监视器画面;567镜像跟踪电视摄像机B的电视摄像机监视器画面;568镜像跟踪电视摄像机C的电视摄像机监视器画面;569智能喇叭应用程序界面;570智能喇叭操控A;571智能喇叭操控B;572智能喇叭操控C;573形成物的位置B,该位置B表示在轮廓的假定作业位置处的任意横截面;574电视摄像机监视器画面B,反映了假定的转换器的形成物;575像素跟踪电视摄像机;576像素跟踪电视摄像系统A;577像素跟踪电视摄像系统B;578像素跟踪电视摄像系统C;579像素跟踪电视摄像机监视器画面;580像素跟踪电视摄像机监视器画面A;581像素跟踪电视摄像机监视器画面B;582像素跟踪电视摄像机监视器画面C;583图像跟踪电视摄像机拍摄范围;584像素跟踪电视摄像系统A摄影范围;585像素跟踪电视摄像系统B摄影范围;586像素跟踪电视摄像系统C摄影范围;587像素跟踪电视摄像机监视器画面上的被摄体A;588像素跟踪电视摄像机监视器画面上的被摄体B;589像素跟踪电视摄像机监视器画面上的被摄体C;590图像跟踪电视摄像机图像信号;591图像跟踪电视摄像机图像信号A;592图像跟踪电视摄像机图像信号B;593图像跟踪电视摄像机图像信号B;594像素跟踪电视摄像机监视器像素跟踪画面;595像素跟踪电视摄像机监视器像素跟踪画面A;596像素跟踪电视摄像机监视器像素跟踪画面B;597像素跟踪电视摄像机监视器像素跟踪画面C;598像素跟踪电视摄像机监视器画面上的被摄体;599架着陆状态的小型飞机;600跑道;60固定电视摄像机1监视器画面中显示的滑着陆态势的小型飞机;602跟踪电视摄像机监视器画面中显示的滑着陆态势的小型飞机;603跟踪电视摄像机监视器画面中的跑道;604固定电视摄像机监视器画面中的跑道;605跟踪电视摄像机监视器画面中的跑道标记;606无人机;607数据收发器;608数据收发信号;609冲浪板运动员;610数控电视摄像机监控画面上的冲浪板运动员;611概知测量地点A;612概知测量地点B;613概知测量地点C;614照射到预定测量地点附近的测距激光;615概知测量地点A附近照射的测距激光;616概知测量地点B附近照射的测距激光;617概知测量地点C附近照射的测距激光;618跟踪电视摄像机监视器画面上照射的测距激光;619跟踪电视摄像机监视器画面上的照射测距激光A;620跟踪电视摄像机监视器画面上的照射测距激光B;621跟踪电视摄像机监视器画面上的照射测距激光C;622跟踪电视摄像机监视器画面A;623跟踪电视摄像机监视器画面B;624跟踪电视摄像机监视器画面C;625跟踪电视摄像机监视器画面上显示的测量预定场所;626跟踪电视摄像机监视器画面中所映的概知测量地点A;627跟踪电视摄像机监视器画面中反映的概知测量地点B;628跟踪电视摄像机监视器画面中反映的概知测量地点C;629测距反射镜;630跟踪电视摄像机监视器画面上显示的测距用反射镜;631跟踪电视摄像机监视器画面上的冲浪板运动员;632跟踪激光测距基点;633跟踪激光测距系统;634测距车;635跟踪电视摄像机激光测距系统;636测距用汽车上安装的跟踪电视摄像机测距系统;637反射镜跟踪电视摄像监视器画面上映的标志塔;638镜像跟踪电视摄像机监视器画面上显示的左前方十字路口角;639镜像跟踪电视摄像机监视器画面中显示的左后路口角;640镜像跟踪电视摄像机监视器画面上的中央分隔带显示;641反射镜跟踪电视摄像机监视器画面中显示的右后路口角;642镜面跟踪电视摄像机监视器画面上显示的右前方十字路口角;643时间和位置数值、驱动数值和每小时图像存储介质;644路左边的标志塔;645道路中间带显示;646跟踪电视摄像系统;647足球场;648跟踪电视摄像机图像信号网;649图像信号切变器;650跟踪电视摄像机固定线;651图像信号切变跟踪电视摄像机监视器画面;652驱动信号网;653驱动位置信号网;654跟踪电视摄像系统收纳架;655麦克风;656音频信号;657放大器;658扬声器;659数控定向麦克风;660跟踪摄像系统数控电视屏幕指示位置;661跟踪摄像系统移动线跟踪驱动系统;662线驱动系统;663固定鱼眼电视摄像机画面和CG合成监视器画面;664跟踪摄像系统数控电视摄像监控画面;665跟踪摄像系统的跟踪电视摄像监控画面;666互联网固定电视摄像机监控画面指示位置;667剧场舞台;668互联网;669跟踪摄像系统数控电视画面球图像识别位置;670自动驾驶数据获取车;671自动驾驶数据获取车辆位置A;672自动驾驶数据获取车辆位置B;673自动驾驶数据获取车辆位置C;674应避免碰撞的被摄体;675应避免碰撞的被摄体的图像识别位置;676避免碰撞操作开始位置;677避免碰撞操作位置;678避免碰撞驾驶数据获取路面;679避免碰撞取得驾驶数据A;680避免碰撞取得驾驶数据B;681避免碰撞取得驾驶数据C;682避免碰撞取得驾驶数据D;683避免碰撞取得驾驶数据E;684避免碰撞取得驾驶数据F;685避免碰撞取得驾驶数据G;686自动驾驶车辆上安装的固定电视摄像机监视器上拍摄的被摄体;687自动驾驶车辆上安装的跟踪电视摄像机监视器上显示的图像分析后的被摄体;688回避操作开始位置A;689避让驾驶A;690回避操作开始位置B;691避让驾驶B;692回避操作开始位置C;693避让驾驶C;694回避操作开始位置D;695避让驾驶D;696回避操作开始位置E;697避让驾驶E;698回避操作开始位置F;699避让驾驶F;700回避操作开始位置G;701避让驾驶G;702回避操作开始位置H;703避让驾驶H;704行驶20公里自动驾驶汽车;705行驶20公里的避让行驶和最大避让行驶;706行驶60公里自动驾驶汽车;707行驶60km的避让行驶和最大避让行驶;708行驶100公里自动驾驶汽车;709行驶100公里的避让行驶和最大避让行驶;710行驶路A;711行驶路B;712最大避让行驶B;713行驶路C;714最大避让行驶C;715行驶路D;716行驶路E;717最大避让行驶D;718行驶路F;719最大避让行驶E;720前方右侧行车;721前方右侧行驶车辆行驶位置;722前方右侧行驶车辆避免接触范围;723自动驾驶汽车右侧制动和方向操作最大避免位置;724自动驾驶汽车右侧制动和避免方向操作的位置;725自动驾驶汽车制动操作避让位置;726自动驾驶汽车左侧制动和避免方向操作位置;727自动驾驶汽车左侧制动和方向操作最大避免位置;728自动驾驶汽车左侧制动和规避方向操作行驶;729自动驾驶汽车左侧制动和规避方向操作行驶;730自动驾驶汽车左侧制动和方向操作最大规避行驶;731对向车;732避让区;733行车区;734躲避区;735路边的行道树;736中线;737路缘;738图像识别墙;739避让行驶A;740避让行驶B;741避让行驶C;742图像分析对向车右;743图像解析对面车左;744跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出的越过中央车道的对向车;745跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别出中央车道对面驶过的车辆;746跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别中央车道;747右侧行车;748图像转换后的监视器画面A;749图像转换后的监视器画面B;750图像转换后的监视器画面C;751图像转换后的监视器画面D;752像素测距跟踪电视摄像机A;753像素测距跟踪电视摄像机B;754像素测距跟踪电视摄像机C;755像素测距跟踪电视摄像机D;756像素测距跟踪电视摄像机监视器画面A;757像素测距跟踪电视摄像机监视器画面B;758像素测距跟踪电视摄像机监视器画面C;759像素测距跟踪电视摄像机监视器画面D;760像素测距跟踪电视测距信号;761像素测距跟踪电视卡图像位置信号;762像素测距跟踪电视摄像机监视器画面B的放大画面;763左路旁的石佛;764固定电视摄像机监视器右路旁的行道树;765固定电视摄像机屏幕上的标志塔;766跟踪运行系统固定电视摄像机拍摄范围;767固定电视摄像机显示器画面上的石佛;768跟踪电视摄像机监视器画面上的图像识别右侧行道树;769跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别左侧路缘;770跟踪电视摄像机监视器画面上的图像识别左侧石佛;771跟踪电视摄像监控画面上的图像识别左侧标志塔;772概知测量位置A跟踪电视摄像机测距系统;773概知测量地点B跟踪电视摄像机测距系统;774概知测量位置C跟踪电视摄像机测距系统;775概知测量地点D跟踪电视摄像机测距系统;776未知测量位置的跟踪电视摄像机测距系统;777重量计;778重量测量数据;779跟踪电视摄像机监视器画面上的照射测距激光C;7跟踪电视摄像机80监视器画面上的照射测距激光D;781测距A;782测距B;783测距C;784测距D;785测距E;786概知测量位置C;787照射到概知测量地点C附近的测距激光;788跟踪电视摄像机监视器画面上停车中的车辆和右侧中线;789行驶中自动驾驶安装的3台跟踪电视摄像机测距系统;790未知测量地点三台跟踪电视摄像机测距系统;791自动驾驶汽车上安装的跟踪电视摄像机测距系统;792对面车道对面对向车;793跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的行道树;794跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的对向车;795跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的对向车周边;796跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的对向车周边的球;797跟踪驾驶系统跟踪电视摄像头监视器画面上的图像识别对向车周边的儿童;798跟踪驾驶系统跟踪电视摄像机监控画面图像识别对向车周边儿童飞出;799跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出车道上的儿童;800车道;801人行道上的儿童;802中央车道;803跟踪驾驶系统固定电视摄像机监视器画面上的图像检测到的前方车辆;804跟踪驾驶系统固定电视摄像机监视器画面上的图像检测到人行道上的儿童;805跟踪驾驶系统固定电视摄像机监视器画面上的图像检测到的对向车;806跟踪驾驶系统固定电视摄像机监视器画面上的图像检测到的中央车道;807跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的对向车;808跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的前方车辆;809跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别中央车道;810跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别人行道上的儿童;811可行驶范围;812车道上的儿童;813跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别车道上的儿童;814跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的对向车;815跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别车道上的儿童;816跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别行驶方向的儿童;817跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别行驶方向的儿童;818避免接触儿童的可行驶范围;819行驶方向左侧缘石;820行驶方向中间带标记;821穿过方向的中间带标记;822跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出的行驶方向的左侧缘石;823跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出的行驶方向的中央隔离带标记;824跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的行驶方向的中央隔离带标记;825跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别行驶方向的左侧路缘;826跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别演算通过方向的中央隔离带标记;827安装在脚驱动行驶机上的跟踪电视摄像机测距系统;828跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别演算通过方向的左侧缘石;829四脚驱动行驶机;830行车路对面左侧停放车辆;831行车路前方右侧中央分隔带标线;832行车路前方右侧缘石;833跟踪驾驶系统固定电视摄像机监视器画面上的图像检测到的行驶方向左侧的停放车辆;834跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出的行驶方向右侧的中央分离带标志;835跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别右侧路缘;836跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的左侧停放车辆;837跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别图像位置的演算停放车辆;838车道上的黑暗物体;839行驶路前方左侧黑暗停放车辆;840跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出困难的黑暗左侧停放车辆;841跟踪驾驶系统跟踪电视摄像机监视器画面上的图像检测出困难的暗的被摄体;842跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别车道上的黑暗被摄体;843跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的行驶路前方黑暗的停放车辆;844道路障碍物A;845行驶路上的障碍物B;846行驶路上的障碍物C;847道路障碍物D;848跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出的行驶路上的障碍物A;849跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出的行驶路上的障碍物B;850跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出的行驶路上的障碍物C;851跟踪驾驶系统固定电视摄像机监视器画面上的图像检测出的行驶路上的障碍物D;852跟踪驾驶系统跟踪电视摄像机监视器画面上的图像解析的障碍物A;853跟踪驾驶系统跟踪电视摄像机监视器画面上的图像解析的障碍物B;854跟踪驾驶系统跟踪电视摄像机监视器画面上的图像解析的障碍物C;855跟踪驾驶系统跟踪电视摄像机监视器画面上的图像解析的障碍物D;856跟踪驾驶系统跟踪电视摄像机监视器画面上的图像解析的行驶方向通过的障碍物A;857跟踪驾驶系统跟踪电视摄像机监视器画面上的图像解析的行驶方向通过的障碍物B;858跟踪驾驶系统跟踪电视摄像机监视器画面上的图像解析的行驶方向通过的障碍物C;859跟踪驾驶系统跟踪电视摄像机监视器画面上的图像解析的行驶方向通过的障碍物D;860跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别运算画面;861跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的演算进行路;862驱动机构的行进方向;863跟踪电视摄像机图像位置展开系统;864数控电视摄像机监控画面上的图像检测出行驶方向的岩石;865数控电视摄像机监视器画面上的图像检测到的障碍物;866跟踪电视摄像机的图像方向和位置的转换器;867图像方向和位置转换信号;868前进路的台阶;869前左驱动机构;870前右驱动机构;871后左驱动机构;872后右驱动机构;873前左驱动数值计算器;874前右驱动数值计算器;875后左驱动数值计算器;876后右驱动数值计算器;877前左驱动机构行走位置;878前右驱动机构行走位置;879后左驱动机构行走位置;880后右驱动数值行走位置;881前进停车行驶数据获取开始位置;882前进停车行驶数据获取前进路线;883前进停车行驶数据获取位置A;884前进停车行驶数据获取位置B;885前进停车行驶数据获取位置C;886停车位置角度A;887停车位置角度B;888停车位置角度C;889预计停车位置;890前进停车行驶数据获取范围;891前进停车行驶数据取得开始位置的固定电视摄像机监视器画面;892前进停车行驶数据行驶开始位置的固定电视摄像机监视器画面中显示停车位置角A;893前进停车行驶数据行驶开始位置的固定电视摄像机监视器画面中显示停车位置角B;894前进停车行驶数据取得开始位置的固定电视摄像机监视器画面中显示停车位置角C;895前进停车行驶数据取得开始位置的跟踪电视摄像机监视器画面中显示停车位置角A;896前进停车行驶数据取得开始位置的跟踪电视摄像机监视器画面中显示停车位置角B;897前进停车行驶数据取得开始位置的跟踪电视摄像机监视器画面中显示停车位置角C;898前进停车行驶数据取得位置893的跟踪电视摄像机监视器画面中显示停车位置角A;899前进停车行驶数据取得位置893的跟踪电视摄像机监视器画面中显示停车位置角B;900前进取得停车行驶数据位置893的跟踪电视摄像机监视器画面中显示停车位置角C;901前进停车行驶数据取得位置894的跟踪电视摄像机监视器画面中显示停车位置角A;902前进停车行驶数据取得位置894的跟踪电视摄像机监视器画面中显示停车位置角B;903前进停车行驶数据取得位置894的跟踪电视摄像机监视器画面中显示停车位置角C;904前进停车行驶数据取得位置895的跟踪电视摄像机监视器画面中显示停车位置角A;905前进停车行驶数据取得位置895的跟踪电视摄像机监视器画面中显示停车位置角B;906前进停车行驶数据取得位置895的跟踪电视摄像机监视器画面中显示停车位置角C;907前进停车行驶的停车位置的停车位置角A;908前进停车行驶在停车位置的停车位置角C;909前进停车行驶数据取得开始位置的固定电视摄像机监视器画面中显示停车预定位置;910倒车停车行驶数据获取开始位置;911倒车停车行车数据取得前进路线;912倒车停车行驶数据获取位置A;913倒车停车行驶数据获取位置B;914倒车停车行驶数据获取位置C;915倒车停车行驶数据获取范围;916倒车停车行驶数据取得开始位置的固定电视摄像机监视器画面;917倒车停车行驶数据取得开始位置的固定电视摄像机监视器画面中显示停车位置角A;918倒车停车行驶数据取得开始位置的固定电视摄像机监视器画面中显示停车位置角B;919倒车停车行驶数据取得开始位置的固定电视摄像机监视器画面中显示停车位置角C;920倒车停车行驶数据取得开始位置的跟踪电视摄像机监视器画面中显示停车位置角A;921倒车停车行驶数据取得开始位置的跟踪电视摄像机监视器画面中显示停车位置角B;922倒车停车行驶数据取得开始位置的跟踪电视摄像机监视器画面中显示停车位置角C;923倒车停车行驶数据取得位置912的跟踪电视摄像机监视器画面中显示停车位置角A;924倒车停车行驶数据取得位置912的跟踪电视摄像机监视器画面中显示停车位置角B;925倒车停车行驶数据取得位置912的跟踪电视摄像机监视器画面中显示停车位置角C;926倒车停车行驶数据取得位置913的跟踪电视摄像机监视器画面中显示停车位置角A;927倒车停车行驶数据取得位置913的跟踪电视摄像机监视器画面中显示停车位置角B;928倒车停车行驶数据取得位置913的跟踪电视摄像机监视器画面中显示停车位置角C;929倒车停车行驶数据取得914位置的跟踪电视摄像机监视器画面中显示停车位置角A;930后后停车行驶数据取得914位置的跟踪电视摄像机监视器画面中反映停车位置角B;931倒车停车行驶数据取得914位置的跟踪电视摄像机监视器画面中显示停车位置角C;932倒车停车行驶的停车位置的前侧跟踪电视摄像机监视器画面中显示的停车位置角A;933倒车停车行驶的停车位置的前侧跟踪电视摄像机监视器画面中显示的停车位置角B;934倒车停车行驶数据取得开始位置的固定电视摄像机监视器画面中显示停车预定位置;935倒车停车取得行驶数据位置912的固定电视摄像机监视器画面中显示停车预定位置;936倒车停车取得行驶数据位置913的固定电视摄像机监视器画面中显示停车预定位置;937倒车停车取得行驶数据位置914的固定电视摄像机监视器画面中显示停车预定位置;938倒车停车取得行驶数据的预计停车位置;939前进停车取得行驶数据位置912的固定电视摄像机监视器画面中显示停车预定位置;940前进停车取得行驶数据位置913的固定电视摄像机监视器画面中显示停车预定位置;941前进停车行驶数据取得位置914的固定电视摄像机监视器画面中显示停车预定位置;942前进停车取得行车数据的停车预定位置;943左手前方停放车辆的侧面;944左边后面的停车侧面;945停车留缘;946右后侧停放车辆;947右手前停放车辆侧面;948前进停车行驶的跟踪电视摄像机监控画面显示后面的停车预定位置;949前进停车行驶的车辆;950固定电视摄像机监视器画面左手前方停放车辆侧面图像位置;951固定电视摄像机监视器画面左手内侧停放车辆侧面的图像位置;952固定电视摄像机监视器画面中央停车留路缘图像位置;953固定电视摄像机监视器画面右手深处停放车辆侧面的图像位置;954固定电视摄像机监视器画面右手前方停放车辆侧面图像位置;955前进停车行驶的跟踪电视摄像机监视器画面中左手前方停放车辆的侧面;956前进停车行驶的跟踪电视摄像机监视器画面中左手内侧停放车辆的侧面;957跟踪前进停车行驶电视摄像机监控画面中的停车留路缘;958前进停车跟踪行驶电视摄像机监视器画面中右手内侧停放车辆的侧面;959前进停车跟踪行驶电视摄像机监视器画面中右手前方的停放车辆侧面;960倒车停车行驶的车辆;961倒车停车行驶数据行驶到行驶区域;962倒车停车行驶数据行驶区域显示的固定电视监视器画面;963倒车停车行车数据行车区域显示;964向倒车停车行驶数据行驶区域的模拟行驶;965倒车停车行驶数据行驶路与模拟行驶路接合位置;966模拟行车路和前进停车行车数据行车路的电视监视器画面;967倒车停车行车数据行车路与模拟行车路;968模拟行驶路;969向接合位置模拟行驶的电视监视器画面;970模拟行驶和倒车停车行驶数据根据行驶的停车预定位置;971倒车停车行驶的跟踪电视摄像机监视器画面中显示的靠后停车位置;972通过对图像识别进行转换后的图像识别的行驶;973倒车停车行驶数据行驶范围;974倒车停车可行驶范围;975倒车停车行驶数据可行驶范围;976跟踪电视摄像机监视器画面中显示停放车辆的图像解析位置的距离和角度演算画面;977跟踪电视摄像机监视器画面中显示停放车辆的图像分析位置和停车场所的演算画面;978倒车停车行驶数据行驶路;979倒车停车行车数据行车可能范围;980倒车停车行驶的固定电视摄像机监视器画面中显示的靠后停车位置;981倒车停车跟踪行车电视摄像机监视器画面中显示的靠后停车位置;982倒车停车行驶的跟踪电视摄像机监视器画面上显示的修正停车位置;983停车行驶折返位置;984模拟运行数据获取范围;985模拟电视摄像机监视器画面中显示的行驶路和倒车停车行驶数据行驶路;986固定电视摄像机监视器画面中显示的停车位置;987前进停车行驶数据行驶路;988跟踪电视摄像机监控画面中的停车模拟画面;989停放车辆后部的图像解析A;990停放车辆后部图像解析B;991停放车辆后部的图像解析C;992停放车辆后部的图像解析D;993与固定电视摄像机监视器的合成画面;994鱼眼镜头固定电视摄像机监视器画面上的图像检测到的车辆;995跟踪驾驶系统行车左侧车轮轮胎;996跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的行驶路上障碍物的台阶;997机器人激光测距仪;998模拟行驶的数据获取范围;999激光测距和哈码读取器;1000跟踪电视摄像机监视器画面左前方的行道树;1001图像分析器A;1002图像分析器B;1003图像分析器C;1004图像分析器D;1005应避让的被摄体;1006行驶区域;1007可行驶区域A;1008最大避让行驶区;1009图像分析器E;1010避让驾驶区;1011最大避让行驶区域A;1012最大避让行驶区域B;1013安装在自动驾驶车辆上的跟踪电视摄像机监视器画面上的对抗车道上行驶的应避让的对向车;1014自动驾驶车辆上安装的跟踪电视摄像机监视器中的左侧行道树;101固定电视摄像机监视器画面5左前方的行道树;1016图像分析器F;1017最大避让行驶区域C;1018固定电视照摄像机监视画面上的应该回避的被摄体;1019自动驾驶车辆上安装的固定电视摄像机监视器中显示的远方接近的对向车;1020固定电视摄像机监视器画面上的应回避的对向车道的行进车辆;1021安装在自动驾驶车辆上的跟踪电视摄像机监视器画面上对抗车道上行驶的应避让的对向车;1022在自动驾驶车辆上安装的跟踪电视摄像机监视器中显示的对抗车道上行驶的应回避父子;1023图像分析器A;1024图像分析器B;1025图像分析器C;1026图像分析器D;1027避难区;1028限行区;1029避让行驶区D;1030最大避让行驶区E;1031接近前方的对抗车辆;1032图像分析器E;1033自动驾驶车辆上安装的固定电视摄像机监视器中所映的对向车;1034图像分析器F;1035可行驶区B;1036可行驶区C;1037可行驶区D;1038自动驾驶车辆上安装的固定电视摄像机监视器上显示的接近车辆对向两侧;1039自动驾驶车辆上安装的固定电视摄像机监视器中显示的近对向车;1040自动驾驶车辆上安装的固定电视摄像机监视器上显示的正前面的对向车;1041接近的对向车位置;1042安装在自动驾驶车辆上的跟踪电视摄像机监视器中显示的对向车位置A;1043安装在自动驾驶车辆上的跟踪电视摄像机监视器中显示的对向车位置B;1044安装在自动驾驶车辆上的跟踪电视摄像机监视器中显示的对向车位置C;1045安装在自动驾驶车辆上的跟踪电视摄像机监视器中显示的对向车位置D;1046不限行范围;1047限行至对抗车道的行驶范围;1048禁止进入对抗车道的行驶范围;1049本车道有限制的行驶范围;1050跟踪电视摄像机拍摄画面上的工作人员;1051模拟行驶;1052互联网跟踪电视摄像系统C;1053互联网跟踪电视摄像系统D;1054显示根据确认的停车位置图像的停车行驶变换图像的画面的监视器画面;1055互联网跟踪电视摄像系统C;1056左侧路缘;1057左远方路缘;1058右侧路缘;1059跟踪驾驶系统固定电视摄像机监视器画面上的图像演算后的左侧路缘;1060跟踪驾驶系统固定电视摄像机监视器画面上的图像演算的左远方的路缘;1061跟踪驾驶系统固定电视摄像机监视器画面上的图像演算后的右侧路缘;1062对角墙;1063超越行驶驾驶数据取得路面;1064减速传感器和冲击传感器;1065跟踪驾驶系统固定电视摄像机监视器画面上的图像检测到的十字路口;1066跟踪驾驶系统跟踪电视摄像机监视器画面上的图像识别的十字路口;1067路口;1068CG工作合成屏幕;1069跟踪电视摄像机监视器画面上的激光照射位置;1070数控像素测量电视摄像机测距仪;1071像素测量电视摄像机测距仪的图像元件和测量信号;1072超声波发射器;1073数控定向麦克风A;1074数控定向麦克风B;1075语音分析器;1076机器人作业位置A;1077机器人作业位置B;1078机器人作业位置C;1079跟踪镜像电视摄像机激光测距系统;1080数控线架跟踪电视摄像系统;1081行驶位置A;1082行驶位置B;1083行驶位置C;1084行驶位置D;1085接近A;1086位置B;1087位置C;1088接近位置D;1089图像元件单元;1090LED发光元件单元;1091感光器;1092图像素测量电视摄像机测距仪监视器画面;1093CG工作合成画面;1094节距固定摄像机。
Claims (80)
1.一种方法,通过数值控制的测距仪测量数值控制设备的作业位置,将所述数值控制设备的作业位置的驱动数值与由所述数值控制的测距仪测量出的距离和方向关联起来,根据测量所述数值控制设备的不同的几个作业位置的、与由测量出的距离和方向构成的所述数值控制设备的驱动位置对应的几个驱动数值,通过互补法以及模拟运算来获取该数值控制设备的全部的作业位置的驱动范围的驱动数值与该数值控制的测距仪中所述全部的驱动范围的测量出的距离和方向的数值之间的关联。
2.根据权利要求1所述的方法,通过互补法以及模拟运算来获取所述数值控制设备的全部的驱动范围的驱动数值与所述数值控制的测距仪中所述全部的驱动范围的测量出的距离和方向的数值之间的关联、以及与所述数值控制的测距仪的驱动数值之间的关联。
3.根据权利要求1或2所述的方法,通过互补法以及模拟运算来获取所述数值控制设备的全部的驱动范围的驱动数值与由多个所述数值控制的测距仪测量出的距离和方向的数值之间的关联、以及与该数值控制设备的全部的作业位置的驱动范围的驱动数值之间的关联。
4.根据权利要求1至3中任一项所述的方法,将数值控制设备的作业位置的驱动数值、用数值控制的测距仪测量所述作业位置而得到的距离、以及将所述作业位置映照在由电视摄像机拍摄到的电视摄像机监视器画面上的所述作业位置关联起来,在映照在所述电视摄像机监视器画面上的几个不同的所述作业位置,使用所述数值控制设备的作业位置的驱动数值与测量出的所述距离的关联起来的数值,在所述电视摄像机监视器画面上的全部位置,通过互补法以及模拟运算来获取所述数值控制设备的作业位置的驱动数值与由测距仪测量所述作业位置而得到的距离的关联的数值。
5.根据权利要求1至4中任一项所述的方法,通过互补法以及模拟运算来获取在所述电视摄像机拍摄到的所述电视摄像机监视器画面上映照的被摄体的位置与测量所述被摄体的位置的距离而得到的数值控制的测距仪的驱动数值之间的关联。
6.根据权利要求1至5中任一项所述的方法,通过互补法以及模拟运算来获取在数值控制的电视摄像机进行数值驱动而拍摄到的电视摄像机监视器画面上映照的被摄体的位置与测量所述被摄体的位置的距离而得到的数值控制的测距仪的驱动数值之间的关联。
7.根据权利要求1至6中任一项所述的方法,通过互补法以及模拟运算来获取权利要求6的关联、以及通过所述数值控制的测距仪测量所述被摄体的位置而得到的距离与方向的关联。
8.根据权利要求1至7中任一项所述的方法,通过互补法以及模拟运算来获取权利要求6与7的关联、以及与将所述被摄体的位置作为所述数值控制设备的作业位置的所述数值控制设备的驱动数值之间的关联。
9.根据权利要求1至8中任一项所述的方法,其特征在于,
将所述电视摄像机、所述数值控制的电视摄像机以及所述测距仪安装于所述数值控制设备的作业位置。
10.根据权利要求1至9中任一项所述的方法,其特征在于,
将所述电视摄像机监视器画面上的全部位置与所述数值控制的电视摄像机拍摄到的电视摄像机监视器画面上的位置关联起来。
11.根据权利要求1至10中任一项所述的方法,其特征在于,
将所述数值控制的电视摄像机进行数值驱动而拍摄到的电视摄像机监视器画面上的全部位置、所述数值控制的电视摄像机拍摄到的所述驱动数值、以及测量了所述全部位置的所述数值控制的测距仪的测量距离及驱动数值关联起来。
12.根据权利要求1至11中任一项所述的方法,其特征在于,
在所述电视摄像机拍摄到的监视器画面上的全部位置上映照的图像与在所述数值控制的电视摄像机拍摄到的电视摄像机监视器画面上映照的所述图像相关联。
13.根据权利要求1至12中任一项所述的方法,在所述作业位置与测量出的所述距离连续不同的位置上所述电视摄像机拍摄到的电视摄像机监视器画面上的位置,将所述连续不同的位置之前的所述作业位置展开到测量出的所述距离的位置。
14.根据权利要求1至13中任一项所述的方法,在所述作业位置与测量出的所述距离相关联的不同位置上所述电视摄像机拍摄到的电视摄像机监视器画面上的位置,将关联的所述不同位置之前的所述作业位置展开到测量出的所述距离的位置的方法。
15.根据权利要求1至14中任一项所述的方法,其特征在于,
在所述电视摄像机监视器画面上的位置表示在所述数值控制的电视摄像机拍摄到的电视摄像机监视器画面上进行了图像检测的位置。
16.根据权利要求1至15中任一项所述的方法,其特征在于,
将所述数值控制的电视摄像机拍摄到的电视摄像机监视器画面上的全部位置及拍摄到的所述驱动数值与所述数值控制的测距仪的驱动数值关联起来。
17.根据权利要求1至16中任一项所述的方法,利用将所述电视摄像机监视器画面上的全部位置与所述数值控制的测距仪的驱动数值关联起来而测量出的距离和方向,不同的数值控制的电视摄像机进行拍摄。
18.根据权利要求1至17中任一项所述的方法,利用将所述数值控制的电视摄像机监视器画面上的全部位置与所述数值控制的测距仪的驱动数值关联起来而测量出的距离和方向,不同的数值控制的电视摄像机进行拍摄。
19.根据权利要求1至18中任一项所述的方法,利用将所述电视摄像机监视器画面上的全部位置与所述数值控制的测距仪的驱动数值关联起来而测量出的距离和方向,对数值控制设备进行数值控制。
20.根据权利要求1至19中任一项所述的方法,其特征在于,
存储如下几个关联:所述数值驱动机构的作业位置的驱动数值、所述电视摄像机拍摄到的画面上的位置、所述电视摄像机拍摄到的画面上的图像识别出的图像的位置、所述数值控制的电视摄像机拍摄到的画面上的位置、所述数值控制的电视摄像机拍摄到的画面上的图像识别出的图像的位置、所述数值控制的电视摄像机拍摄到的驱动数值、所述数值控制的测距仪测量到的距离、测量了所述数值控制的距离的驱动数值之间的关联。
21.根据权利要求1至20中任一项所述的方法,通过监视所述几个的存储匹配性,管理所述数值驱动机构的作业位置的状况。
22.根据权利要求1至21中任一项所述的方法,其特征在于,
将在停车行驶开始位置由安装于数值控制的汽车的所述电视摄像机拍摄到的电视摄像机监控画面上映照的停车预定位置、以及从所述汽车的所述停车行驶开始位置向停车预定位置停车行驶的、所述汽车的驱动机构的驱动数值相关联地存储,在几个不同的所述停车行驶开始位置,使用将在由所述电视摄像机拍摄到的电视摄像机监控画面上映照的所述停车预定位置和从所述几个不同的停车行驶开始位置向所述停车预定位置停车行驶的、所述几个不同的汽车的驱动机构的驱动数值关联起来的数值,根据在全部的所述停车行驶开始位置拍摄到的所述电视摄像机监控画面上映照的所述停车预定位置,通过互补法等计算式运算并获取将所述汽车从停车行驶开始的位置所述停车行驶到所述停车预定位置而停车的所述汽车的驱动机构的驱动数值。
23.根据权利要求1至22中任一项所述的方法,其特征在于,
将所述停车预定位置作为在所述电视摄像机监视器画面上图像识别出停车预定位置的位置。
24.根据权利要求1至23中任一项所述的方法,其特征在于,
将所述停车预定位置作为在所述电视摄像机监视器画面上指示的位置。
25.根据权利要求1至24中任一项所述的方法,其特征在于,
使利用所述电视摄像机拍摄到的电视摄像机监视器画面上的指示位置与由所述数值控制的测距仪测量出的距离和方向一致,并使所述数值控制的汽车行驶。
26.根据权利要求1至25中任一项所述的方法,其特征在于,
将在安装于数值控制的汽车的所述电视摄像机从行驶位置拍摄到的电视摄像机监视器画面上映照的回避位置的被摄体、以及从所述数值控制的汽车的所述行驶位置避开所述被摄体的回避位置行驶的所述数值控制的汽车的驱动机构的所述驱动数值相关联地存储,使用将从几个不同的所述行驶位置拍摄到的所述电视摄像机监视器画面上映照的所述回避位置的被摄体、以及从所述几个不同的行驶位置在回避位置回避行驶的、所述数值控制的汽车的驱动机构的驱动数值相关联的数值,对于在从全部的所述行驶位置拍摄到的所述电视摄像机监视器画面上的位置上映照的所述回避位置的被摄体,通过互补法等计算式对所述数值控制的汽车从所述行驶位置在所述被摄体的回避位置回避行驶的、所述数值控制的汽车的驱动结构的驱动数值进行运算而获取。
27.根据权利要求1至26中任一项所述的方法,其特征在于,
将在安装于数值控制的汽车的所述电视摄像机从行驶位置拍摄到的电视摄像机监视器画面上映照的最大限度的回避运转行驶的被摄体的位置、以及从所述数值控制的汽车的所述行驶位置起所述被摄体的最大限度的回避运转行驶的所述数值控制的汽车的驱动机构的所述驱动数值相关联地存储,使用将从几个不同的行驶位置拍摄到的所述电视摄像机监视器画面上映照的所述最大限度的回避运转行驶的被摄体的位置和从所述几个不同的所述行驶位置起最大限度的回避运转行驶的所述数值控制的汽车的驱动机构的驱动数值关联起来的数值,通过互补法等计算式来运算并获取在从全部的行驶位置拍摄到的所述电视摄像机监视器画面上映照的所述最大限度的回避运转行驶的被摄体的位置处,对所述数值控制的汽车从所述全部的行驶位置以所述最大限度的回避运转行驶的、所述数值控制的汽车的驱动机构的驱动数值。
28.根据权利要求1至27中任一项所述的方法,其特征在于,
通过权利要求25至26中任一项所述的插补法的运算,获取考虑了所述最大限度的避免碰撞的驾驶的结果而行驶的、所述数值控制的汽车的驱动机构的驱动数值。
29.根据权利要求1至28中任一项所述的方法,其特征在于,
将从行驶位置超越行驶的数值控制的汽车的驱动机构的所述驱动数值与在由安装于从行驶位置进行超车行驶的数值控制的汽车的所述电视摄像机拍摄到的所述电视摄像机监视器画面上映照的先行车辆的位置关联起来并进行存储,在几个不同的行驶位置拍摄到的所述电视摄像机监视器画面上映照的所述先行车辆的位置,使用从几个不同的所述先行车辆的位置进行超越行驶的、将所述数值控制的汽车的驱动机构的驱动数值关联起来的数值,通过互补法等计算式来运算并获取在全部的行驶位置拍摄到的所述电视摄像机监视器画面上映照的所述先行车辆的位置处,对所述数值控制的汽车进行所述先行车辆的超越行驶的所述数值控制的汽车的驱动机构的驱动数值。
30.根据权利要求1至29中任一项所述的方法,其特征在于,
通过模拟运算与所述电视摄像机监视器画面上指示的位置对应的、与权利要求20至28所述的已经获取的所述汽车的驱动机构的驱动数值一致的数值。
31.根据权利要求1至30中任一项所述的方法,其特征在于,
通过模拟运算与所述数值控制的测距仪中测量了所述被摄体的位置的距离和方向对应的、与权利要求20至28所述的已经获取的所述汽车的驱动机构的驱动数值一致的数值。
32.根据权利要求1至31中任一项所述的方法,其特征在于,
对于权利要求20至30所述的关联的所述数值,通过模拟,利用在所述电视摄像机监视器画面上映照的被摄体的位置与所述数值控制的测距仪中测量出的距离和方向来运算与所述汽车的驱动机构已经取得的所述驱动数值一致的数值。
33.根据权利要求1至32中任一项所述的方法,其特征在于,
通过安装于所述数值控制的汽车的所述数值控制的测距仪测量出的距离和方向,监视安装于所述数值控制的汽车的数值控制设备的一致性,来管理所述数值控制的汽车的行驶。
34.根据权利要求1至33中任一项所述的方法,其特征在于,
将所述数值控制的测距仪的驱动数值与所设置的距离可知的多个麦克风收集到的声音的相位差的运算出的方向相结合,并测量距离。
35.根据权利要求1至34中任一项所述的方法,其特征在于,
将所设置的距离可知的多个麦克风收集到的声音的相位差的运算出的方向与所述数值控制的电视摄像机的驱动数值相结合,并进行拍摄。
36.根据权利要求1至35中任一项所述的方法,其特征在于,
根据所设置的距离可知的多个麦克风所收集到的声音的相位差方法的运算出的方向,使所述数值控制的电视摄像机的视角与焦距一致地对所述数值控制的测距仪测量出的距离进行拍摄。
37.根据权利要求1至36中任一项所述的方法,其特征在于,
将所述数值控制的电视摄像机的视角的驱动数值与超声波测距仪测量出的距离相结合,并进行拍摄。
38.根据权利要求1至37中任一项所述的方法,其特征在于,
所述数值控制的汽车上设置像素测距跟踪电视摄像机,测量在所述测距跟踪电视摄像机拍摄到的电视摄像机监控画面上映照的图像与所述图像的距离。
39.根据权利要求1至38中任一项所述的方法,其特征在于,
从安装于所述数值控制的汽车的所述电视摄像机所拍摄的画面,对图像的识别和所述图像进行数值控制的测距仪的测量出的距离和方向,附加GPS定位位置和方位等并进行存储。
40.根据权利要求1至39中任一项所述的方法,其特征在于,
安装于所述汽车的、从所述电视摄像机拍摄的画面多个识别出的图像和由所述数值控制的测距仪测量所述多个识别出的图像而得到的距离,设定所述汽车的行驶方向。
41.根据权利要求1至40中任一项所述的方法,其特征在于,
通过所述数值控制的测距仪测量所述电视摄像机拍摄到的所述电视摄像机监视器画面上的识别出的图像的位置和方向,对所述电视摄像机监视器画面的二维的图像附加所述距离和方向,使所述电视摄像机监视器画面成为三维的图像。
42.根据权利要求1至41中任一项所述的方法,其特征在于,
通过所述数值控制的测距仪测量所述电视摄像机拍摄到的所述电视摄像机监视器画面上的识别出的图像的位置和方向,在与识别出所述图像的图像的位置连续的不同的位置,在所述电视摄像机拍摄到的所述电视摄像机监视器画面上,在所述距离和方向的所述连续的不同的位置展开。
43.根据权利要求1至42中任一项所述的方法,其特征在于,
通过所述数值控制的测距仪测量所述电视摄像机拍摄到的所述电视摄像机监视器画面上的识别出的图像的位置和方向,在与识别出所述图像的位置相关联的不同的位置,在所述电视摄像机拍摄到的所述电视摄像机监视器画面上,在所述距离和方向上展开到所述关联起来的不同的位置。
44.根据权利要求1至43中任一项所述的方法,其特征在于,
通过所述测距仪对安装于步行机器人的所述电视摄像机拍摄到的所述电视摄像机监视器画面上的确认到的图像测量距离和方向,在所述摄像机在所述步行机器人步行的连续的不同的位置拍摄到的所述电视摄像机监视器画面上,在所述测量出的距离和方向上展开所述确认到的图像,所述机器人步行。
45.根据权利要求1至44中任一项所述的方法,其特征在于,
对于在安装于所述汽车的所述电视摄像机拍摄行驶方向的所述电视摄像机监视器画面上映照的图像的位置,将所述汽车的行驶中在所述电视摄像机监视器画面上映照的所述图像的位置的移动与由所述数值控制的测距仪测量之前移动的距离和方向相结合,将所述图像的位置在所述行驶的所述汽车的轮胎的位置展开,应对所述图像的冲击。
46.根据权利要求1至45中任一项所述的方法,其特征在于,
将在所述展开的位置由加减速传感器或冲击传感器测量出的数值附加存储于所述识别出的图像。
47.根据权利要求1至46中任一项所述的方法,其特征在于,
在所述展开的位置对所述识别出的图像附加加减速传感器、冲击传感器测量出的数值并存储。
48.根据权利要求1至47中任一项所述的方法,其特征在于,
根据所述存储的所述图像识别出的图像、所述加减速传感器和冲击传感器测量出的数值,应对来自所述展开的所述识别出的图像的、所述数值驱动机构、所述汽车、步行机器人受到的所述冲击。
49.根据权利要求1至48中的任意一项所述的方法,其特征在于,
通过利用所述数值控制的测距仪测量在由所述电视摄像机拍摄移动的被摄体而得到的所述电视摄像机监视器画面上映照的所述被摄体的位置,来测量所述移动的被摄体的位置。
50.根据权利要求1至49中任一项所述的方法,其特征在于,
通过利用多个所述数值控制的测距仪同时测量在从多个位置同时由所述电视摄像机拍摄移动的被摄体而得到的所述电视摄像机监视器画面上映照的所述被摄体的位置,来测量所述移动的被摄体的位置。
51.根据权利要求1至50中任一项所述的方法,其特征在于,
通过利用所述数值控制的测距仪从与所述移动的所述电视摄像机相同的位置测量由移动的所述电视摄像机拍摄到的所述电视摄像机监视器画面上映照的被摄体的位置的距离,来测量所述移动的所述电视摄像机的位置与所述被摄体的位置之间的距离。
52.根据权利要求1至51中任一项所述的方法,其特征在于,
通过从与所述移动的所述电视摄像机相同的位置同时用多个所述数值控制的测距仪测量由移动的多个所述电视摄像机拍摄到的所述电视摄像机监视器画面上映照的不同的被摄体的位置的距离,来测量所述移动的所述电视摄像机的位置。
53.根据权利要求1至52中任一项所述的方法,其特征在于,
通过从与所述电视摄像机相同的位置用所述数值控制的测距仪测量由移动的所述电视摄像机拍摄到的所述电视摄像机监视器画面上映照的移动的被摄体的位置的距离,来测量所述移动的所述电视摄像机的位置与拍摄到所述电视摄像机监视器画面上映照的移动的所述被摄体的位置的、移动的被摄体的位置之间的距离。
54.根据权利要求1至53中任一项所述的方法,其特征在于,
通过从与所述电视摄像机相同的位置同时用多个所述数值控制的测距仪测量由移动的多个所述电视摄像机拍摄到的所述电视摄像机监视器画面上映照的移动的被摄体的位置,来测量所述移动的所述电视摄像机的位置与拍摄到所述电视摄像机监视器画面上映照的移动的所述被摄体的位置的、所述移动的被摄体的位置之间的距离和方向。
55.根据权利要求1至54中任一项所述的方法,其特征在于,
对权利要求48至53所述的所述测量出的被摄体附加所识别的显示和测量出的距离和方向的数值并进行存储。
56.根据权利要求1至55中任一项所述的方法,其特征在于,
经由因特网存储权利要求39至54所述的所述存储的信息。
57.根据权利要求1至56中任一项所述的方法,其特征在于,
测量在所述电视摄像机拍摄到的所述汽车的行进方向的电视摄像机监视器画面上映照的对面车辆的行驶速度。
58.根据权利要求1至57中任一项所述的方法,其特征在于,
对于在所述电视摄像机拍摄到的所述电视摄像机监视器画面上映照的数值控制设备的作业位置的操作,在经由互联网放映的所述电视摄像机监视器画面上进行所述数值控制设备的作业位置的所述操作。
59.根据权利要求1至58中任一项所述的方法,其特征在于,
对在所述电视摄像机拍摄的多个所述电视摄像机监视器画面上映照的所述数值控制设备的多个作业位置进行操作。
60.根据权利要求1至59中任一项所述的方法,其特征在于,
在所述多个所述电视摄像机监视器画面上操作数值控制设备的作业位置,该数值控制设备的作业位置映照在多个所述电视摄像机拍摄到的多个所述电视摄像机监视器画面上。
61.根据权利要求1至59中任一项所述的方法,其特征在于,
将安装于所述数值控制设备的作业位置的显示移动到在所述电视摄像机拍摄到的所述电视摄像机监视器画面上映照的所述标记能够解读的位置。
62.根据权利要求1至61中任一项所述的方法,其特征在于,
数值控制的移动收纳架上安装所述电视摄像机和所述测距设备,将在所述电视摄像机拍摄到的所述电视摄像机监视器画面上映照的被摄体的位置与用所述测距设备测量到的所述被摄体的距离和方向相关联,并驱动所述数值控制的移动收纳架。
63.根据权利要求1至62中任一项所述的方法,其特征在于,
在数值控制的移动收纳架上安装有所述电视摄像机、所述测距设备和所述电视摄像机监视器画面,驱动所述数值控制的移动收纳架,该数值控制的移动收纳架将在所述电视摄像机拍摄的电视摄像机监视器画面上映照的被摄体的位置与用所述测距设备测量到的所述被摄体的距离和方向相关联地朝向被摄体显示所述电视摄像机监视器画面。
64.根据权利要求1至63中任一项所述的方法,其特征在于,
对于数值控制的移动辅助机,在用所述数值控制的测距仪测量所述数值控制的移动辅助机而得到的距离和方向上,使所述数值控制的移动辅助机与所述数值控制的移动收纳架相关联地驱动在由所述电视摄像机拍摄到的所述电视摄像机监视器画面上映照的所述数值控制的移动辅助机的位置。
65.根据权利要求1至64中任一项所述的方法,其特征在于,
将所述数值控制的机器人、所述数值控制的测距仪、所述电视摄像机和所述数值控制的电视摄像机设置在所述数值控制的移动收纳架上,通过上述说明的互补法以及模拟的运算来获取用所述数值控制的测距仪测量所述机器人的作业位置而得到的距离、用所述数值控制的测距仪测量所述作业位置的距离而得到的驱动数值、用所述电视摄像机拍摄所述机器人的作业位置而得到的电视摄像机监视器画面上的位置、用所述数值控制的电视摄像机拍摄所述机器人的作业位置而得到的电视摄像机监视器画面上的位置、用所述数值控制的电视摄像机拍摄所述机器人的作业位置而得到的驱动数值的所述关联的数值中的任意一个与所述数值控制的移动收纳架的驱动数值之间的关联。
66.根据权利要求1至65中任一项所述的方法,其特征在于,
通过互补法以及模拟的运算来获取用所述电视摄像机拍摄所述数值控制的移动收纳架的移动位置而得到的电视摄像机监视器画面上的位置、用所述数值控制的测距仪测量而得到的距离、用所述电视摄像机拍摄而得到的电视摄像机监视器画面上的位置、用所述数值控制的电视摄像机拍摄而得到的电视摄像机监视器画面上的位置、用所述数值控制的电视摄像机拍摄而得到的驱动数值之间的关联的数值中的任意一个与所述数值控制的移动收纳架的驱动数值之间的关联的数值。
67.根据权利要求1至66中任一项所述的方法,其特征在于,
对于电视摄像机拍摄的画面上检测出的被摄体,利用测量与所述画面上的位置相当的方向的所述测距仪测量与所述被摄体之间的距离,根据该测量的距离,调整所述被摄体的所述数值控制的电视摄像机的视场角和焦距等,利用所述数值控制的电视摄像机拍摄所述被摄体。
68.根据权利要求1至67中任一项所述的方法,其特征在于,
对于数值控制的电视摄像机的拍摄画面上检测出的被摄体,利用测量与所述画面上的位置相当的方向的所述测距仪测量与所述被摄体之间的距离,根据该测量的距离,再次调整所述数值控制的电视摄像机的视场角和焦距等,利用所述数值控制的电视摄像机拍摄所述被摄体。
69.根据权利要求1至68中任一项所述的方法,其特征在于,
对于所述数值控制的测距仪测量了距离的所述被摄体,由所述数值控制的电视摄像机将视场角和焦距等调整为所述数值控制的测距仪的方向和所述距离,拍摄所述被摄体。
70.根据权利要求1至69中任一项所述的方法,其特征在于,
将由多个所述数值控制的电视摄像机从不同方向拍摄到的图像,以由所述数值控制的测距仪测量出的距离和方向作为合成图像。
71.根据权利要求1至70中任一项所述的方法,其特征在于,
利用所述数值控制的测距仪测量在所述电视摄像机拍摄到的电视摄像机监视器画面上映照的二维的被摄体的图像的距离和方向,将拍到所述被摄体的图像识别为三维的图像。
72.根据权利要求1至71中任一项所述的方法,其特征在于,
将权利要求70所述的识别出的三维图像识别为在与所述拍摄方向连续的位置拍摄的电视摄像机监视器画面上展开的图像。
73.根据权利要求1至72中任一项所述的方法,其特征在于,
将权利要求71和72所述的所述识别出的三维图像识别为在与所述拍摄方向连续的位置拍摄的电视摄像机监视器画面上展开的图像。
74.根据权利要求1至73中任一项所述的方法,其特征在于,
将权利要求71至73所述的所述识别出的三维图像识别为在与由与所述电视摄像机相关联的电视摄像机拍摄的方向连续的位置拍摄的电视摄像机监视器画面上展开的图像。
75.根据权利要求1至74中任一项所述的方法,其特征在于,
对于将所述数值控制设备的作业位置映照在由所述电视摄像机拍摄到的电视摄像机监视器画面上的所述数值控制设备的作业位置,由所述数值控制的测距仪测量距离和方向,将作业位置范围设定在所述电视摄像机监视器画面上,将在由所述电视摄像机拍摄到的电视摄像机监视器画面上映照的被摄体与所述设定相关联地驱动所述数值驱动机构。
76.根据权利要求1至75中任一项所述的方法,其特征在于,
根据对将所述数值控制设备的作业位置映在由所述电视摄像机拍摄的电视摄像机监视器画面上的作业位置进行图像识别的指示,驱动所述数值控制设备的作业位置。
77.根据权利要求1至76中任一项所述的方法,其特征在于,
所述数值控制的测量器和所述电视摄像机安装于航空器。
78.根据权利要求1至77中任一项所述的方法,其特征在于,
所述数值控制的测量器和所述电视摄像机安装于滑行路径。
79.根据权利要求1至78中任一项所述的方法,其特征在于,
所述数值控制的测量器和所述电视摄像机安装于船舶。
80.根据权利要求1至79中任一项所述的方法,其特征在于,
将在所述电视摄像机拍摄的电视摄像机监视器画面上的图像识别出的位置关联起来。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021017588A JP2022120598A (ja) | 2021-02-05 | 2021-02-05 | コンピユーターの目(pceye) |
PCT/JP2022/010430 WO2022168995A1 (ja) | 2021-02-05 | 2022-03-09 | コンピユーターの目(pceye) |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116829428A true CN116829428A (zh) | 2023-09-29 |
Family
ID=82742154
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202280012439.9A Pending CN116829428A (zh) | 2021-02-05 | 2022-03-09 | 计算机眼睛 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240104762A1 (zh) |
JP (1) | JP2022120598A (zh) |
CN (1) | CN116829428A (zh) |
WO (1) | WO2022168995A1 (zh) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05328189A (ja) * | 1992-05-15 | 1993-12-10 | Kobayashi Denki Kogyo Kk | ビデオカメラ用被写体自動追尾装置 |
JP2003316439A (ja) * | 2002-04-24 | 2003-11-07 | Yaskawa Electric Corp | 移動台車の制御装置 |
JP5595186B2 (ja) * | 2010-08-30 | 2014-09-24 | ダイハツ工業株式会社 | 目標軌道算出装置 |
JP5508308B2 (ja) * | 2011-02-08 | 2014-05-28 | 直之 村上 | 数値制御機器のテレビカメラモニター画面の関連操作方法 |
JP5547670B2 (ja) * | 2011-02-18 | 2014-07-16 | 直之 村上 | テレビカメラを取り付けた数値制御機器のテレビモニター画面の操作方法 |
US20170131402A1 (en) * | 2015-11-06 | 2017-05-11 | Mitsubishi Electric Research Laboratories, Inc. | System and Method for Augmented Localization of WiFi Devices |
JP6719494B2 (ja) * | 2018-02-07 | 2020-07-08 | 直之 村上 | 追尾レーザー距離計測器の駆動計測で、3次元の数値駆動の制御機器の3次元の駆動数値を演算する方法。 |
JP7195093B2 (ja) * | 2018-09-18 | 2022-12-23 | 直之 村上 | テレビカメラの映す画像の距離を計測する方法 |
JP2020109386A (ja) * | 2018-12-28 | 2020-07-16 | パナソニックIpマネジメント株式会社 | モデル生成装置、車両シミュレーションシステム、モデル生成方法およびコンピュータプログラム |
-
2021
- 2021-02-05 JP JP2021017588A patent/JP2022120598A/ja active Pending
-
2022
- 2022-03-09 WO PCT/JP2022/010430 patent/WO2022168995A1/ja active Application Filing
- 2022-03-09 US US18/276,109 patent/US20240104762A1/en active Pending
- 2022-03-09 CN CN202280012439.9A patent/CN116829428A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2022168995A4 (ja) | 2022-10-06 |
JP2022120598A (ja) | 2022-08-18 |
WO2022168995A1 (ja) | 2022-08-11 |
US20240104762A1 (en) | 2024-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7081875B2 (ja) | 検出された障壁に基づく車両のナビゲーション | |
JP7040867B2 (ja) | システム、方法およびプログラム | |
JP7334881B2 (ja) | 自動運転車両システム用交差視野 | |
JP6997106B2 (ja) | 車両をナビゲートするためのシステム、方法およびコンピュータプログラム | |
US8094192B2 (en) | Driving support method and driving support apparatus | |
KR101084025B1 (ko) | 주차 지원 장치, 주차 지원 장치의 차량측 장치, 주차 지원 방법 및 주차 지원 프로그램 | |
JP7133520B2 (ja) | コンピユーターの目(pceye) | |
US9126533B2 (en) | Driving support method and driving support device | |
JP4980606B2 (ja) | 移動型自動監視装置 | |
JP2006250917A (ja) | 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置 | |
JP2020112542A (ja) | 表示システム、表示制御装置及び表示制御プログラム | |
JP7312521B2 (ja) | コンピユーターの目(pceye) | |
WO2022168995A4 (ja) | コンピユーターの目(pceye) | |
JP7338015B2 (ja) | コンピユーターの目(pceye) | |
JP7282965B2 (ja) | コンピユーターの目(pceye) | |
JP7282967B2 (ja) | コンピユーターの目(pceye) | |
JP7282966B2 (ja) | コンピユーターの目(pceye) | |
JP7282963B2 (ja) | コンピユーターの目(pceye) | |
JP7282310B2 (ja) | コンピユーターの目(pceye) | |
JP7282964B2 (ja) | コンピユーターの目(pceye) | |
JP7291451B2 (ja) | コンピユーターの目(pceye) | |
JP7291452B2 (ja) | コンピユーターの目(pceye) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication |