WO2022168995A1 - コンピユーターの目(pceye) - Google Patents

コンピユーターの目(pceye) Download PDF

Info

Publication number
WO2022168995A1
WO2022168995A1 PCT/JP2022/010430 JP2022010430W WO2022168995A1 WO 2022168995 A1 WO2022168995 A1 WO 2022168995A1 JP 2022010430 W JP2022010430 W JP 2022010430W WO 2022168995 A1 WO2022168995 A1 WO 2022168995A1
Authority
WO
WIPO (PCT)
Prior art keywords
driving
television camera
tracking
monitor screen
distance
Prior art date
Application number
PCT/JP2022/010430
Other languages
English (en)
French (fr)
Other versions
WO2022168995A4 (ja
Inventor
直之 村上
Original Assignee
直之 村上
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 直之 村上 filed Critical 直之 村上
Priority to US18/276,109 priority Critical patent/US20240104762A1/en
Priority to CN202280012439.9A priority patent/CN116829428A/zh
Publication of WO2022168995A1 publication Critical patent/WO2022168995A1/ja
Publication of WO2022168995A4 publication Critical patent/WO2022168995A4/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera

Definitions

  • Patent application No. 2018-39078 [Disclosure of undisclosed related technology 1]
  • Patent application No. 2018-174323 [Disclosure of undisclosed related technology 2]
  • FIG. 1 is an explanatory diagram of a tracking TV camera system that is attached to a vehicle that acquires automatic driving data and that is manually parked by a driver familiar with driving the vehicle to acquire parking driving operation data.
  • FIG. 2 is an explanatory diagram of acquiring forward parking travel data by parking the vehicle forward while analyzing the distance between the image recognition by the tracking TV camera system and the recognized image to the parking lot.
  • Fig. 3 is an explanatory diagram showing how the vehicle is parked backwards while analyzing the distance between the image recognition by the tracking TV camera system and the recognized image to the parking lot, and the rearward parking driving data is acquired.
  • FIG. 1 is an explanatory diagram of a tracking TV camera system that is attached to a vehicle that acquires automatic driving data and that is manually parked by a driver familiar with driving the vehicle to acquire parking driving operation data.
  • FIG. 2 is an explanatory diagram of acquiring forward parking travel data by parking the vehicle forward while analyzing the distance between the image recognition by the tracking TV camera system and the recognized image to the parking lot.
  • FIG. 4 is an explanatory diagram of acquiring rearward parking driving data by parking the vehicle backward while analyzing the distance between the image recognition by the tracking TV camera system and the image recognized by the parking lot.
  • FIG. 5 is an explanatory view of acquiring forward parking travel data by recognizing an instructed image by a tracking television camera system, and parking the vehicle backward while measuring the distance from the instructed image.
  • FIG. 6 is an explanatory view of recognizing an instructed image by the tracking television camera system, measuring the distance from the instructed image, parking the vehicle forward, and obtaining rearward parking travel data.
  • FIG. 7 is an explanatory view of recognizing an instructed image by the tracking television camera system, measuring the distance from the instructed image, and parking the vehicle forward, and acquiring forward parking travel data.
  • FIG. 8 shows a vehicle for which parking data is acquired.
  • the vehicle is made to recognize the instructed image by the tracking TV camera system, and while the distance from the instructed image is analyzed, the vehicle is driven forward into the parking range, and then backward.
  • Explanatory diagram of parking with parking data Fig. 9 shows the vehicle for which parking data was acquired. While analyzing the distance between the image recognition by the tracking TV camera system and the recognized image, the vehicle was driven forward, correcting the parking position, and turned backward.
  • Fig. 10 shows a vehicle with parked driving data, which is recognized by the tracking TV camera system, and the vehicle is reversed while analyzing the distance from the instructed image and the connection with the simulation driving.
  • Explanatory diagram of parking with forward facing parking travel data Explanatory diagram of parking with forward facing parking travel data.
  • Figure 11 shows the image recognition by the tracking TV camera system in a public parking lot, and while analyzing the distance between the images recognized by the image recognition, the vehicle is driven backward to the parking position, and the vehicle is parked forward.
  • Explanatory diagram for parking and driving with data Fig. 12 shows that in a public parking lot, the vehicle is parked facing forward while recognizing the instructed image by the tracking TV camera system, analyzing the distance from the instructed image, and parking with the backward parking traveling data.
  • An explanatory diagram for Fig. 13 shows a scene in a public parking lot in which an image directed by a tracking television camera system is recognized, and the vehicle is driven backwards to the position where the simulation runs while analyzing the distance from the directed image. , Explanatory drawing of parking with rearward parking travel data.
  • FIG. 14 shows that in a public parking lot, an image instructed by a tracking television camera system is recognized, and the distance from the instructed image is analyzed while driving the vehicle to the forward-facing simulation range.
  • FIG. 15 is an explanatory diagram of parking a vehicle in a public parking lot with front-facing parking travel data while recognizing an instructed image by a tracking television camera system and analyzing the distance from the instructed image.
  • Figure 163 shows the recognition of the designated image by the tracking television camera system in a public parking lot, the recognition is displayed, the distance from the designated image is analyzed, and the recognition is notified.
  • FIG. 17 shows the distance between already parked vehicles measured from the shape recognized by the tracking TV camera system in a public parking lot and the shape recognized by the image after driving to a position where parking is possible.
  • FIG. 10 is an explanatory diagram of parking the vehicle with rearward parking travel data.
  • Fig. 18 is a diagram of a public parking lot where vehicles are parked forward while measuring the distance between already parked vehicles based on the shape recognized by the tracking TV camera system and analyzing the distance between the shapes recognized by the image.
  • Explanatory diagram of parking with data Figure 19 shows a parking lot in a public parking lot, where the distance between vehicles already parked is measured from the shape recognized by the tracking TV camera system, and the vehicle is parked backwards while analyzing the distance of the shape recognized by the image.
  • FIG. 20 is an explanatory diagram for acquiring stop data for avoiding collision with a subject. Avoidance data acquisition From several distances on the road, stop driving in front of the subject by manual driving, driving driven by the stopped driving Acquire the drive value of the driving device, stop driving from all distances 3 is an explanatory diagram for obtaining the driving numerical value of the driving device using the interpolation calculation method.
  • FIG. 21 is an explanatory diagram for obtaining avoidance driving data for the collision avoidance driving method by image recognition and distance measurement by a tracking television camera system.
  • FIG. 22 is an explanatory diagram for obtaining data on avoidance driving in which the vehicle is driven with maximum avoidance driving in order to obtain data on maximum avoidance driving.
  • FIG. 20 is an explanatory diagram for acquiring stop data for avoiding collision with a subject. Avoidance data acquisition From several distances on the road, stop driving in front of the subject by manual driving, driving driven by the stopped driving Acquire the drive value of the driving device, stop driving from all distances 3 is an explanatory diagram for
  • FIG. 23 is a diagram showing data acquisition positions in data acquisition travel of avoidance driving.
  • Data acquisition driving for avoidance driving is an explanatory diagram for acquiring data for avoidance driving by continuously driving with maximum avoidance driving operation in order to acquire data for maximum avoidance driving.
  • FIG. 24 is an explanatory diagram for measuring the distance at which it is determined that avoidance driving is to be performed in manual driving, the driving data acquisition position from the position at which avoidance driving is started to the avoidance position, and the driving position.
  • FIG. 25 is an explanatory diagram of the distance at which avoidance driving is determined to be performed by manual driving and the distance at which avoidance driving is started in avoidance driving data acquisition driving.
  • FIG. 26 is an explanatory diagram of the distance at which avoidance driving is determined to be performed by manual driving and the distance at which avoidance driving is started in avoidance driving data acquisition driving.
  • FIG. 27 is an explanatory diagram of the distance at which avoidance driving is determined to be performed by manual driving and the distance at which avoidance driving is started in the avoidance driving data acquisition driving.
  • FIG. 28 is an explanatory diagram of the distance at which avoidance driving is determined to be performed by manual driving and the distance at which avoidance driving is started in avoidance driving data acquisition driving.
  • FIG. 29 is an explanatory diagram of the distance at which avoidance driving is determined to be performed by manual driving and the distance at which avoidance driving is started in avoidance driving data acquisition driving.
  • FIG. 30 is an explanatory diagram of the distance at which avoidance driving is determined to be performed by manual driving and the distance at which avoidance driving is started in the avoidance driving data acquisition driving.
  • FIG. 31 is an explanatory diagram of the distance at which maximum avoidance driving in manual driving was determined and the distance at which maximum avoidance driving was started in avoidance driving data acquisition driving.
  • FIG. 32 is an explanatory diagram for acquiring manual driving data that does not make pedestrians feel dangerous at different running speeds in avoidance driving data acquisition driving.
  • FIG. 33 is an explanatory diagram of acquisition of accident avoidance driving data by manual driving on the traveling road A in avoidance driving data acquisition driving.
  • FIG. 34 is an explanatory diagram of acquisition of accident avoidance driving data by manual driving on the traveling road B in avoidance driving data acquisition driving.
  • FIG. 35 is an explanatory diagram of acquisition of accident avoidance driving data by manual driving on the traveling road C in avoidance driving data acquisition driving.
  • FIG. 36 is an explanatory diagram of acquisition of accident avoidance driving data by manual driving on the traveling road D in avoidance driving data acquisition driving.
  • FIG. 37 is an explanatory diagram of acquisition of accident avoidance driving data by manual driving on the travel path E in avoidance driving data acquisition driving.
  • FIG. 38 is an explanatory diagram of acquisition of accident avoidance driving data by manual driving on the traveling road F in avoidance driving data acquisition driving.
  • FIG. 39 is an explanatory diagram of acquisition of accident avoidance driving data by manual driving on all roads in avoidance driving data acquisition driving.
  • FIG. 40 is an explanatory diagram for acquiring accident avoidance driving data by dynamic driving for each traveling speed in avoidance driving data acquisition driving with a vehicle traveling from the right.
  • Figure 41 shows a tracking TV camera system with a fixed TV camera with a wide angle of view attached to the front of the vehicle.
  • Explanatory diagram of avoidance driving of accident avoidance driving data by identifying a subject whose image is recognized by pointing a tracking television camera.
  • Figure 42 shows the tracking TV camera system.
  • the horizontal direction of the running sound is identified by the phase difference of the running sound of the microphones attached at different positions on the front of the vehicle.
  • FIG. 43 is an explanatory diagram of accident avoidance driving data avoidance driving for collision avoidance traveling with a tracking television camera system of pixel distance measurement tracking television cameras attached to the front and rear positions of a vehicle for which avoidance driving data is acquired.
  • FIG. 44 is an explanatory diagram for acquiring overtaking data by manual operation on all roads in overtaking data acquisition operation.
  • Fig. 45 is an explanatory diagram of automatic driving by a vehicle equipped with a tracking television camera system that acquires accident avoidance data on a general driving road.
  • Fig. 46 shows the position of a car parked on the road by image recognition by a vehicle equipped with a tracking TV camera system that has acquired accident avoidance data on a general car driving road.
  • Fig. 47 is an explanatory diagram of automatic driving that calculates preparations for avoidance by a vehicle equipped with a tracking television camera system that acquires accident avoidance data on a general automobile driving road.
  • Fig. 48 is an explanatory diagram of automatic driving for prediction of avoidance by a vehicle equipped with a tracking television camera system that acquires accident avoidance data on a general automobile driving road.
  • Fig. 49 is an explanatory diagram of automatic driving that predicts maximum accident avoidance by a vehicle equipped with a tracking television camera system that acquires accident avoidance data on a general automobile driving road.
  • FIG. 47 is an explanatory diagram of automatic driving that calculates preparations for avoidance by a vehicle equipped with a tracking television camera system that acquires accident avoidance data on a general automobile driving road.
  • Fig. 48 is an explanatory diagram of automatic driving for prediction of avoidance by a vehicle equipped with a tracking television camera system that acquires accident avoidance data on a general automobile driving road.
  • Fig. 49 is an explanatory diagram of automatic
  • Fig. 50 is an explanatory diagram of automatic avoidance driving by a vehicle equipped with a tracking television camera system that acquires accident avoidance data on a general automobile driving road.
  • Fig. 51 is an explanatory diagram of maximum avoidance automatic driving by a vehicle equipped with a tracking television camera system that acquires accident avoidance data on a general automobile driving road.
  • Fig. 52 shows how a vehicle equipped with a tracking TV camera system that has acquired accident avoidance data on a normal driving road at night drives a dark object that is difficult for the TV camera to recognize as an image.
  • Fig. 51 is an explanatory diagram of maximum avoidance automatic driving by a vehicle equipped with a tracking television camera system that acquires accident avoidance data on a general automobile driving road.
  • Fig. 52 shows how a vehicle equipped with
  • FIG. 53 shows the image recognition of only the unique things around the road by the vehicle installed with the tracking TV camera system on the general driving road, and driving by adding memory to the driving position of the GPS position information.
  • Fig. 54 shows a vehicle equipped with a tracking TV camera system that acquires accident avoidance data on a road with obstacles. Explanatory diagram of running while avoiding the obstacle.
  • Fig. 55 shows a vehicle equipped with a tracking TV camera system that acquires accident avoidance data on a road with obstacles. , Explanatory diagram of running without avoiding the obstacle by deploying at the calculated tire position.
  • Fig. 56 shows an image of a vehicle equipped with a tracking TV camera system that acquires accident avoidance data on a road with obstacles.
  • Fig. 57 shows a four-legged walking robot equipped with a tracking TV camera system that acquires accident avoidance data on a walkway with obstacles. An explanatory view of walking with four legs at a position where the image of the memory is expanded and the four legs do not contact obstacles.
  • Fig. 59 shows the analysis of the image recognition by the tracking TV camera system and the distance between the image recognized by the tracking TV camera system while the vehicle is traveling by the tracking TV camera system, which acquires the driving data and the accident avoidance data. Explanatory diagram running while.
  • Figure 60 shows that when the vehicle is traveling by the tracking TV camera system, which is acquiring data, it is always running while analyzing the distance between the image recognition by the tracking TV camera system and the image recognized by the image recognition, so avoid Explanatory diagram for the best avoidance driving at the time.
  • Figure 61 shows that when the vehicle is traveling by the tracking TV camera system, which is acquiring data, it is always running while analyzing the distance between the image recognition by the tracking TV camera system and the image recognized by the image recognition, so avoid Explanatory diagram for selecting the best avoidance driving in time.
  • Fig. 62 shows that when the vehicle is traveling by the tracking TV camera system, which is acquiring data, the tracking TV camera system constantly analyzes the image recognition and the distance between the recognized image and the avoidance data when driving.
  • Explanatory diagram for continuing the best avoidance driving even in Fig. 63 is a means of avoiding an accident while always analyzing the distance between the image recognition by the tracking TV camera system and the image recognized by the tracking TV camera system while the vehicle is traveling by the tracking TV camera system, which is acquiring data.
  • Explanatory diagram for calculating and driving Figure 64 is a vehicle that is traveling while analyzing the distance between the image recognition and the image recognized by the tracking TV camera system while the vehicle is traveling by the tracking TV camera system, which is acquiring data.
  • Figure 65 shows a vehicle that is traveling while analyzing the distance between image recognition and the image recognized by the tracking TV camera system while the vehicle is traveling by the tracking TV camera system, which is acquiring data.
  • Fig. 66 is a driving road dedicated to automobiles, and the distance between the image recognition of the preceding vehicle and the recognized image is stored in the tracking of the preceding vehicle by the tracking TV camera system, which is acquiring data, and the driving position is stored.
  • Fig. 67 shows the distance between the image recognition of the preceding vehicle and the image recognized by the tracking television camera system when the vehicle is traveling on a road dedicated to automobiles and the data is acquired by the tracking television camera system.
  • 68 is a driving road of a car, in order to correct the position information of GPS as an auxiliary machine, the image of a unique object near the driving road is confirmed, and the distance and direction to the unique object are read from the GPS position information.
  • Fig. 69 is an explanatory diagram of calculating the driving position of the vehicle by calculating the distance between the vehicle and the curb at the position where the vehicle has traveled from the direction and distance of the curb on the road on which the vehicle is traveling. .
  • FIG. 70 is an explanatory diagram for intensively checking the image of the preceding vehicle in the direction in which the vehicle is traveling, confirming that there is no approaching vehicle in the opposite lane, and overtaking based on overtaking driving data.
  • FIG. 71 is an explanatory diagram of measuring the distance of the working position of the robot with a tracking laser distance measuring device.
  • FIG. 72 is an explanatory diagram of capturing an image of the robot's working position with a tracking television camera.
  • FIG. 73 is an explanatory diagram of the image of the robot's working position and the distance measurement using the tracking laser rangefinder and the tracking TV camera.
  • Figure 74 shows the working position of the robot on the monitor screen of the fixed TV camera, photographed by a fixed TV camera, and the image of the working position of the robot and the distance measured by the tracking laser rangefinder and the tracking TV camera.
  • Fig. 75 shows the measurement distance of the image element measured by the television camera distance measuring instrument, and the LED light emitting element at the position of the image element where the image of the image element was detected, and the time of the reflected light from the image was measured. Explanatory drawing which measures the distance.
  • Figure 76 shows the working position of the robot on the fixed TV camera monitor screen. Explanatory diagram of photographing with a tracking television camera of an image element by adjusting the angle of view and the focal length. Fig.
  • FIG. 77 shows that a worker working near the robot's working position is tracked and photographed by a tracking television camera, the worker is image-recognized from the image taken by the tracking television camera, and the distance to the worker is measured.
  • FIG. 10 is an explanatory diagram showing the position of the worker, sensing that the worker has approached the working position of the robot, and causing the robot to work at a position at a distance that avoids contact with the worker.
  • FIG. 78 is an explanatory diagram of the work operation of the robot by displaying the measured distance on the screen of the tracking television camera monitor after measuring the distance of the work position of the robot.
  • Figure 79 shows a pixel measurement television camera distance measuring device that measures the distance of the robot's working position, adjusts the angle of view and focal length of the image element tracking television camera based on the measurement direction and distance, and uses the tracking television camera.
  • Fig. 10 is an explanatory diagram for recognizing a work position photographed by a robot on a camera monitor screen and an image photographed by an image element tracking television camera;
  • Fig. 80 shows the working positions of several drive mechanisms of the robot being tracked on several TV camera monitor screens, in which the work of several drive mechanisms of the robot is photographed by television cameras and the images are projected. Measure the distance with a laser rangefinder.
  • the work of the robot which measures the distance of the working position of the robot, is displayed on the screens of several fixed television camera monitors, and the work of several drive mechanisms of the robot is displayed via the Internet on several fixed televisions.
  • Fig. 81 shows the operation of several drive mechanisms of the robot photographed by several television cameras, and the images thereof are projected.
  • the working position is measured with a tracking laser rangefinder.
  • the work of the robot whose distance to the working position of the robot is measured is performed on the screens of the fixed television camera monitors, and the work of several driving mechanisms of the robot is performed.
  • Fig. 83 detects a shaped object on a fixed television camera monitor screen, and measures the distance of the detected position with a laser rangefinder. The object is photographed at the detected position where the distance is measured by a tracking television camera by adjusting the angle of view and the focal length to the measured distance.
  • FIG. 85 is an explanatory diagram of a robot working at a working position set on a screen photographed by another television camera associated with the fixed television camera monitor screen.
  • FIG. 86 is an explanatory diagram showing the highly accurate working position of the robot by confirming the working position of the robot on the fixed TV camera monitor screen and measuring the distance of the working position with a plurality of tracking laser distance measuring devices.
  • FIG. 87 is an explanatory diagram of confirming the working position of the robot on the fixed television camera monitor screen, confirming the image with the pixel measuring television camera distance measuring device attached to the working position, and measuring the distance.
  • FIG. 88 is an explanatory diagram of welding work by a robot. The space for welding work is built into a common frame, and each time the image is confirmed by a tracking television camera, the confirmed image is measured by a tracking laser rangefinder, and the space for welding work is the measured space. An explanatory diagram that is. Fig.
  • Fig. 90 is an explanatory diagram in which the welding support robot brings processed material A into the welding work space, confirms the image of processed material A, measures processed material A, and confirms the appropriate shape with the assistance of the welding support robot. .
  • the space for the welding work is the measured space, so the workpiece A is placed on the workbench.
  • Explanatory drawing of workpiece A installed on the workbench where the image is confirmed again by the tracking television camera and measured by the tracking laser distance measuring device.
  • Fig. 91 shows an illustration of a welding support robot bringing workpiece B into the welding work space, confirming the image of workpiece B and measuring workpiece B, and using the welding support robot to set each workpiece in an appropriate position. figure.
  • Fig. 92 is an explanatory diagram of temporarily placing processed material A on processed material B, confirming an image with a tracking television camera, and measuring with a tracking laser rangefinder.
  • Fig. 93 is an explanatory diagram of point welding for fixing processed material A to processed material B, confirming the image of the point with a tracking television camera, and pointing while measuring with a tracking laser distance measuring device.
  • Fig. 94 is an explanatory diagram of image confirmation with a tracking television camera and measurement with a tracking laser rangefinder after welding of the fins.
  • Fig. 95 is an explanatory diagram of the welding operation of welding processed material A to processed material B while confirming the image of the welding location with a tracking television camera and measuring with a tracking laser distance measuring device.
  • FIG. 96 is an explanatory diagram of image confirmation with a tracking television camera and measurement with a tracking laser rangefinder after welding work.
  • Fig. 97 shows a welding support robot that lifts a finished product that has already been welded in the space of the welding work by the welding support robot, and performs the image confirmation work of the finished product and the measurement of the finished product, and welds the optimum position for each.
  • Fig. 98 shows a welding support robot that brings a finished product that has already been welded into the welding work space, and assists in determining the optimal position for each of the image confirmation work and the measurement of the finished product.
  • FIG. 97 shows a welding support robot that lifts a finished product that has already been welded in the space of the welding work by the welding support robot, and performs the image confirmation work of the finished product and the measurement of the finished product, and welds the optimum position for each.
  • FIG. 99 is an explanatory diagram of a welding operation of a movable platform by a robot.
  • the space for welding work is built into a common movable frame, and each time the image is confirmed by a tracking television camera, the confirmed image is measured by a tracking laser distance measuring device, and the welding work is performed using the movable frame. is the space measured each time.
  • a drone flying in the sky is photographed by a fixed television camera, and a tracking television camera equipped with a laser rangefinder is directed in the direction corresponding to the position on the fixed television camera monitor screen. Image recognition of the reflection mirror for distance measurement attached to the drone, taken by the tracking TV camera at the angle of view and focal length according to the distance measured by the laser rangefinder.
  • FIG. 4 is an explanatory diagram in which the image-recognized position of the reflecting mirror for distance measurement is the position of the laser distance measuring machine as the measured distance.
  • a tracking TV camera is operated to photograph a distance measuring reflection mirror attached to a drone flying in the sky. Measure the distance of the drone.
  • Fig. 102 shows the results of measuring the distances of reflective mirrors for distance measurement attached to three drones in the sky simultaneously from three known positions and one unknown position.
  • FIG. 10 is an explanatory diagram that enables measurement of an unknown position by associating a measurement reflecting mirror with a known position;
  • Figure 103 shows a tracking television camera distance measurement system that measures the light emission time of the light source attached to the drone at three known positions and one unknown position, and measures the unknown position at the known position.
  • FIG. 104 shows the running of a distance-measuring vehicle that simultaneously measures the distances of the distance-measuring reflecting mirrors attached to the drone from three known positions.
  • Fig. 3 is an illustration in which directional positions can be continuously related to known positions;
  • Figure 105 shows a wide-angle image taken by a tracking TV camera equipped with a laser rangefinder built into the drone. Explanatory diagram of photographing by adjusting the angle of view and focus of a tracking television camera according to the distance measured by the laser rangefinder.
  • Figure 106 shows a numerically controlled television camera, a tracking television camera, and a tracking laser distance measuring device built into a drone equipped with a communication function that flies in the sky.
  • FIG. 107 is an explanatory diagram for correcting the position of the drone from the sky by actually measuring the irradiation position and the known position of the visible light laser irradiated by the drone from the sky.
  • Fig. 109 shows the above-described position of a plurality of drones flying in the sky, measured from a plurality of known locations and a traveling car, measuring the surroundings of the road from the traveling car, and measuring the traveling direction of the road. and an explanatory diagram for measuring the positions of things around the road.
  • Figure 110 shows the position of a drone flying in the sky is measured by a tracking television camera distance measurement system from a moving distance measurement car, and the distance and direction of the drone flying above is measured by a tracking television camera.
  • Figure 111 shows the image of the subject photographed by a fixed television camera, the image detected on the fixed television camera monitor screen is tracked in the direction corresponding to the position, and photographed by a tracking television camera equipped with a laser rangefinder.
  • FIG. 112 shows the numerically controlled television cameras tracking from the screen captured by the fixed television camera in the direction corresponding to the position where some images are displayed on the fixed television camera monitor screen where some images are detected. Then, the tracking TV camera is tracked in the direction corresponding to the position where the image is displayed, and the distance measured by the tracking laser rangefinder attached to the tracking TV camera Explanatory drawing which acquires individual image information.
  • Figure 113 shows the subject measured from the changes in distance and measurement position from scanning by multiple tracking laser rangefinders.
  • FIG. 4 is an explanatory diagram for obtaining image information of an individual from an image photographed with an angle of view and a focus.
  • Figure 114 shows an image taken by measuring a moving subject from the change in distance and measurement position by a tracking laser rangefinder, tracking the tracking TV camera, and matching the distance measured by the tracking laser rangefinder.
  • Figure 115 shows the image taken by a fixed television camera, which was tracked by a tracking television camera equipped with a tracking laser distance measuring device in the direction corresponding to the position of the image on the fixed television camera monitor screen where the image was detected.
  • Figure 116 is a tracking TV camera with a tracking laser distance measuring device attached with a different shooting direction from the image captured by the fixed TV camera to the direction corresponding to the position where the image on the fixed TV camera monitor screen where the image was confirmed was detected.
  • FIG. 10 is an explanatory diagram for acquiring image information in multiple directions of an individual whose images are confirmed by tracking imaging.
  • Figure 117 shows the distance measured by pointing the tracking laser distance measuring device in the direction corresponding to the position where the image of the fixed pixel tracking TV camera monitor screen image was detected from the image captured by the pixel tracking fixed TV camera. Then, the image is captured by focusing on the range of the image element.
  • Fig. 118 shows the distance near the data display of the image of the subject by aiming the measuring instrument with the functions of laser distance measurement and data reading in the direction of the position of the image detected on the monitor screen taken by a fixed television camera. is measured and read at the condensing and scanning speed corresponding to the measured distance.
  • the reading range of the data reader is installed with a measuring machine having the functions of tracking laser distance measurement and data reading, and equipment having the function of a tracking television camera.
  • the position of the data display image on the TV camera monitor screen shot at a wide angle by the tracking TV camera is measured from the distance of the data display.
  • Explanatory drawing of reading the data display of the position In FIG. 120, the reading range of the data reader is set with a measuring instrument having functions of pixel tracking television camera, tracking laser distance measurement, and data reading.
  • FIG. 10 is an explanatory view of measuring the position of the data display image on the television camera monitor screen photographed by the pixel tracking television camera, measuring the distance near the data display, and reading the data display.
  • Figure 121 shows the tracking data reader and the laser rangefinder pointing in the direction corresponding to the position of the subject on the fixed TV camera monitor screen, decoding the data display, and simultaneously shooting from each direction.
  • FIG. 120 shows the tracking data reader and the laser rangefinder pointing in the direction corresponding to the position of the subject on the fixed TV camera monitor screen, decoding the data display, and simultaneously shooting from each direction.
  • FIG. 4 is an explanatory diagram for storing captured images and fixed television camera images in association with data display;
  • the tracking laser distance measurement and the tracking TV camera are aimed at the position where the image on the fixed TV camera monitor screen is detected, and the image captured by the tracking TV camera is captured according to the distance measured by the tracking laser distance measurement.
  • 4 is an explanatory diagram for storing an image captured by a tracking television camera, image recognition, and an image captured by a fixed television camera in association with data display; FIG.
  • Figure 123 shows the position of the object held by the worker, which is displayed on the 5 fixed TV camera monitor screen.
  • FIG. 10 is an explanatory view of recognizing an image of a shaped object being held and performing an operation of image information of the shaped object as an operation of a robot;
  • Figure 124 shows the image recognition of the worker's hand by the TV camera and the tracking laser distance measuring device attached to the robot, where the working machine of the robot is approached to the position of the worker's hand on the fixed TV camera monitor screen. and an explanatory view of performing the work of the image information of the hand as the work of the robot.
  • Figure 125 is a tracking TV camera system attached to a small aircraft.
  • FIG. 126 is taken with a tracking television camera system from the side of a small aircraft airfield runway.
  • a fixed TV camera detects an image of a small aircraft on the runway in preparation for landing, analyzes the image taken by the tracking TV camera in the direction corresponding to the detected position, and associates it with the driving value of the tracking TV camera to produce a small aircraft.
  • FIG. 10 is an explanatory diagram for correcting the driving control numerical value of an airplane;
  • Figure 127 shows a small aircraft in preparation for landing on the runway from the front of the runway of an airfield for small aircraft.
  • the laser rangefinder compare the drive values captured by the tracking TV camera with the drive values of the tracking TV camera that have been acquired by image recognition in advance, and drive the small aircraft so that the drive values of the tracking TV camera are corrected.
  • Figure 128 is a tracking TV camera system attached to a ship.
  • a tracking laser rangefinder is positioned in the direction corresponding to the position of another ship's screen, which is captured by a fixed TV camera and detected by a fixed TV camera monitor screen.
  • FIG. 10 is an explanatory view of continuously measuring and photographing images of a cruiser boat, predicting the direction and position of the cruiser boat, and performing operations to avoid collision of the ship when a collision is predicted.
  • Figure 130 shows the 72 tracking TV camera distance measurement system installed on the ship, and the image detected on the numerical control TV camera monitor screen in the wide sea area photographed by the numerical control TV camera.
  • a tracking laser range finder is aimed in the direction of the position and the driving numerical value of the numerically controlled television camera, and the distance to the ship detected by the image is measured.
  • the image of the ship captured by the tracking TV camera at the measured distance is displayed on the monitor screen that is synthesized by superimposing the image at the position of the direction and distance on the fixed TV camera monitor screen and the numerical control TV camera monitor screen.
  • Figure 131 shows a radar detector attached to a ship, pointing a tracking television camera at the direction and distance of a detected subject, and continuously photographing the detected subject at an angle of view and focal length corresponding to that distance. , an illustration of monitoring.
  • Figure 132 is a tracking TV camera distance measurement system attached to a ship. A measuring device and a tracking TV camera are aimed, and the distance to another ship is measured by recognizing the image captured by the tracking TV camera. Explanatory drawing which synthesize
  • FIG. 133 is an explanatory diagram for confirming a batting home by photographing a baseball player simultaneously with a plurality of mirror-tracking television cameras according to the tracking distance measurement method.
  • FIG. 134 shows the position of the skater on the fixed TV camera monitor screen and the distance measured by the tracking laser distance measuring device, and the position of the skater's skate is photographed according to the skater's running direction and distance.
  • Figure 135 shows the direction of the soccer ball image recognized on the fixed TV camera monitor screen, which captures the soccer ball dribbling by the soccer player, and the distance measured by the tracking laser distance measuring device from the position on the surface. And shoot with a tracking TV camera.
  • FIG. 11 is an explanatory diagram for practicing dribbling a soccer ball by checking images of the soccer ball photographed from different directions; Fig.
  • 136 shows the driving position of the numerically controlled driving rack to which the fixed TV camera is attached, and the direction of the position where the soccer ball is recognized as an image on the fixed TV camera monitor screen that shoots the soccer ball dribbling by the soccer player. and the distance measured by the tracking laser distance measuring machine, the driving position of the numerically controlled drive rack is tracked.
  • Fig. 137 shows an image of a soccer player's dribbling practice captured by a tracking television camera attached to a drive frame, displayed in front of the soccer player, moved in accordance with the soccer player's dribbling run, and displayed as a soccer ball.
  • Fig. 138 is an image of a soccer player's head touch feeling when he touched the ball during a heading practice, photographed by a tracking television camera of the position of the ball, the position of the head, and the direction of movement of the ball.
  • Fig. 139 shows a soccer player's heading practice.
  • Numerical control driving is equipped with a soccer pole projector that tracks the soccer player's running, a TV camera that tracks the soccer player, and a TV camera monitor screen. Explanatory drawing which drives a rack according to the running
  • Figure 140 shows a running direct kick practice of a soccer player.
  • Explanatory diagram showing a soccer player practicing direct kicks visually with a wearable image receiver by projecting a soccer ball with the same driving numerical value from a numerically controlled projector.
  • Figure 141 shows the working range of a numerically controlled robot photographed by a television camera, photographed by a tracking television camera system, and the photographed image and the operation data of the robot are connected via the Internet. Explanatory diagram of operations on the TV camera monitor screen at different locations.
  • Figure 142 is a composite screen of the work operation of the robot through the Internet explained in Figure 35, and the image of the 3D formation assumed by the computer on the television camera monitor screen at a different location through the Internet.
  • FIG. 143 An explanatory diagram that divides and operates the work Figure 143 shows the stage of a theater being photographed by a tracking television camera system, and the stage being projected via the Internet.
  • Figure 144 shows the stage of a theater photographed by a tracking television camera system, through the Internet, on a fixed television camera monitor screen, the performer of the favorite stage is image-recognized, and the recognition image is tracked by the tracking television camera.
  • Figure 145 shows the stage of a theater photographed by a large number of tracking television camera systems, each tracking television camera being operated on each fixed television camera monitor screen via the Internet, and the screen of each performer on the favorite stage.
  • FIG. 146 shows the stage of a theater photographed by a large number of tracking television camera systems, operating each tracking television camera on a large number of fixed television camera monitor screens via the Internet, and viewing the screens of performers on the stage of their choice. do. Explanatory diagram of listening to the lines of the performer of the favorite stage by operating each tracking directional microphone on the fixed TV camera monitor screen.
  • Fig. 147 shows the stage of a jazz live show, in which all the jazz performers are reflected, by pointing each jazz performer on the screen of the tracking television camera monitor screen, which corresponds to the upper position of the tracking television camera monitor screen.
  • FIG. 148 shows that all jazz performers and each performer can be viewed by selecting the performers on the jazz live stage via the Internet by connecting the images captured by the tracking camera to the Internet network. Illustration that can be done.
  • Fig. 149 shows a live jazz stage photographed by a large number of tracking television camera systems, and by connecting the operation of each tracking television camera system to the Internet network, performing live jazz performances via the Internet. is operated by the screen operation application of the smart phone, photographed by each tracking TV camera, and each image can be appreciated.
  • Figure 150 shows that by installing a tracking TV camera system in the head office and branch office, the screen shot by the fixed TV camera installed in each office can be viewed via the Internet as needed.
  • Explanatory diagram showing that the tracking TV camera can be operated on the connected fixed TV camera monitor screen, and the screen captured by the tracking TV camera can be viewed on the tracking TV camera monitor screen via the Internet.
  • a tracking television camera system for viewing is installed on a famous work of art, and the image captured by the tracking television camera is displayed via the Internet on the fixed television camera monitor screen of the tracking television camera system.
  • Explanatory diagram that allows you to operate with a smartphone screen operation application via the Internet, shoot with a tracking TV camera, and appreciate the image. Fig.
  • FIG. 152 shows that a plurality of tracking TV camera systems are installed at a soccer stadium where children are played, and the tracking TV camera system is operated on the fixed TV camera monitor screen via the Internet to track Explanatory drawing of watching a game photographed by a TV camera.
  • Figure 153 shows a tracking TV camera system installed above the pitch of a soccer field, and on a composite screen of a fixed fisheye lens TV camera monitor screen and a CG screen displaying the pitch, built into each tracking TV camera system, Indicate the shooting direction of the tracking TV camera.
  • the soccer ball on the screen photographed by each tracking television camera is image-recognized, and the soccer ball is tracked.
  • the photographing direction of each numerically controlled television camera is indicated on a composite screen of a television camera monitor screen fixed with a fisheye lens of a tracking television camera system and a CG screen displaying the pitch.
  • a tracking laser distance measuring device measures the direction corresponding to the image recognition position of the soccer ball on the screen captured by the numerically controlled TV camera, and the angle of view and focal length corresponding to that distance are measured by the tracking TV camera.
  • Explanatory drawing of photographing a soccer ball In Figure 155, a wire tracking drive system for moving the tracking TV camera system is installed above the pitch of the soccer field.
  • FIG. 156 is a composite screen of a fixed TV camera monitor screen and a CG screen displaying the pitch.
  • FIG. 10 is an explanatory view showing that the wire driving mechanism is driven by the driving numerical value of the wire driving mechanism, and the tracking television camera system captures an image at the indicated position.
  • Fig. 157 shows instructions on the screen of a fixed camera monitor, taken by a fixed fisheye lens camera installed in the center of the venue.
  • FIG. 1 is an explanatory view of a tracking television camera photographing the direction at a position where an image is recognized on the numerical control television camera monitor screen photographed by the numerical control television camera.
  • Figure 158 shows a tracking video camera system that analyzes the sound of numerically controlled directional microphones installed at different positions on the front of the vehicle, points the numerically controlled directional microphones in the direction of the analyzed sound, and measures the distance. Then, an explanatory diagram of avoidance driving of accident avoidance driving data corresponding to the progressing vehicle of the voice.
  • the drive mechanism driven by numerical control is photographed by a television camera, and the driving is performed in advance at all positions on the television camera monitor screen where the image of the television camera is projected.
  • the drive mechanism is driven and operated at all positions on the television camera monitor screen using the drive numerical values acquired by the interpolation calculation on the television camera monitor screen. .
  • the drive number of the position that drove that drive mechanism is relevant.
  • the driving mechanism driven by numerical control measures the irradiation position of the laser distance measuring machine, and the irradiation position is driven by the numerical control described in the above acquired patent. By using the driving position of the driving mechanism, the irradiating position of the laser distance measuring machine of the driving mechanism driven by numerical control can be manipulated at all positions on the television camera monitor screen.
  • the distance can be measured with the laser rangefinder at all positions on the TV camera monitor screen. It is possible to measure the position of the image captured by the TV camera. From the specification described in the acquired patent above, it is possible to recognize the position of the image taken by the TV camera by shooting it at the distance measured by another TV camera driven by numerical control. becomes. The distance measured by the numerically controlled laser distance measuring machine and the driving numerical value of the laser distance measuring machine and the image captured by the numerically controlled television camera are displayed at the position on the television camera monitor screen photographed by the television camera. It is possible to associate the image recognition with the driving numerical value of the television camera driven by the numerical control.
  • Numerical values and names associated with all positions on the television camera monitor screen are connected to a computer and stored therein, thereby being used as numerical values for computer calculation.
  • the measured distance of the laser rangefinder, its driving value, and its value, in which the driving value of a numerical control device with a purpose is related to the numerical value of the position on the TV camera monitor screen connected to the computer.
  • the position of the control television camera photographed, its image recognition, and its numerical control television camera driving numerical value are used to calculate and drive.
  • a numerically controlled robot detects images with a television camera, recognizes the image and measures its position with a numerically controlled television camera and a numerically controlled laser rangefinder.
  • the numerically controlled robot corresponds to the image recognition, or the image recognition corresponding to the image recognition is made to correspond.
  • the present invention is a related patent derived by image-recognizing the operating position of the drive mechanism at all positions on the TV camera monitor screen and measuring the distance from the image-recognized operating position with a laser rangefinder.
  • the fixed television camera is for establishing the positional relationship of the devices driven by the driving numerical values, and establishes the positional relationship on the screen shot by the fixed television camera of the present invention.
  • the driving position of the numerical driving mechanism and its driving numerical value At all positions on the screen photographed by the fixed television camera, the driving position of the numerical driving mechanism and its driving numerical value, the photographing position of the television camera of the numerical driving mechanism, the image recognition of the photographed image and its driving numerical value, and the numerical driving mechanism
  • the positional relationship with the voice source is established by the measured position of the laser rangefinder, its measured distance, its driving value, and the distance to measure the sound direction of the microphone.
  • the operation on the fixed television camera monitor screen, the numerical control television camera monitor screen, and the tracking television camera monitor screen is omitted in the drawing, but the explanation is that the numerical value of the position on the television camera monitor screen is obtained.
  • the images captured by the numerically controlled television camera and the tracking television camera are recognizable screens, and are captured by adjusting the angle of view and focal length of the image.
  • the numerically controlled television camera, the tracking television camera, the laser rangefinder, the numerically controlled robot, and the numerically controlled equipment are driven by driving numerical values, and the driven position is grasped by the controller.
  • the autonomous driving vehicle is equipped with a tracking television camera system, and the autonomous driving data is acquired by manually operating the numerical drive mechanism incorporated in the autonomous driving vehicle.
  • Autonomous vehicles operate by driving a numerical drive mechanism based on acquired data and numerical values calculated by a computer.
  • Each "television camera monitor screen" described in the explanatory diagrams and described in the specification describes that the present invention displays the driving driven by the driving numerical value on the television camera monitor screen and associates the driving. Therefore, although the display is described, the installation of each TV camera monitor screen is not always required.
  • the 646 tracking TV camera system incorporates 1 fixed TV camera for photographing the direction of travel, 3 tracking laser rangefinders driven by numerical control, and 80 tracking TV cameras driven by numerical control. 1. Project the screen shot by the fixed TV camera, 5. Point the 3 tracking laser distance measuring device in the direction corresponding to the position where the image of the subject detected on the fixed TV camera monitor screen is displayed, and 1. Image recognition of the fixed TV camera. Measure the distance to the subject. 1 fixed TV camera, 3 tracking laser rangefinders and 80 tracking TV cameras are driven by numerical control, and the 646 tracking TV camera system is mounted on a car.
  • the 80 tracking TV camera shoots at the angle and focal length, 895, 896, 897 forward parking on the 92 tracking TV camera monitor screen, parking on the tracking TV camera monitor screen at the acquisition start position
  • the images of position angles A, B, and C are each image-recognized, and the measured distance and each shooting direction are associated with the driving value of the driving mechanism before parking at the 881 forward parking data acquisition start position. memorize it.
  • the 80 tracking TV camera shoots at the angle and focal length, 898, 899, 900 forward parking driving data acquisition on the 92 tracking TV camera monitor screen 92 tracking TV camera monitor screen at the position of 893
  • the image of the reflected parking position angles A, B, and C is recognized by each image, and the 883 forward parking traveling data acquisition position A is driven by the traveling drive mechanism of A while parking and traveling in the measured distance and each shooting direction.
  • Parking position angles A, B, and C are detected on the 891 fixed TV camera monitor screen at the 884 forward parking data acquisition position B, and on the 892, 893, 894 forward parking data acquisition start position 891 fixed TV camera monitor screen. , aim the 3-tracking laser rangefinder in the direction corresponding to the position on the screen, and measure the distance.
  • the 80 tracking TV camera shoots at the angle and focal length, and the 92 tracking TV camera monitor screen at the position of 901, 902, 903 forward parking driving data acquisition on the 92 tracking TV camera monitor screen.
  • the images of the parking position angles A, B, and C are each image-recognized, and the 884 forward parking travel data acquisition position B is parked in the measured distance and each shooting direction. are stored in association with each other.
  • the parking position angles A and B shown on the fixed TV camera monitor screen are detected and correspond to the position on the screen. Point the 3-tracking laser rangefinder in the direction and measure the distance. According to the measured distance, the image of the parking position angle A, B at the planned parking position of 907, 908 forward parking on the 92 tracking TV camera monitor screen, taken by the 80 tracking TV camera at the angle of view and focal length is associated with each image-recognized measured distance and each photographing direction with the driving numerical value of the traveling drive mechanism of the planned parking position to 889 planned parking position and stored.
  • parked data are acquired from several different positions in the forward parking data acquisition range of the 890, and some of them are stored in association with each other.
  • From C associate the image recognized by the 646 tracking TV camera system with its distance and direction, and from the drive value of the driving mechanism, 890 Forward parking travel data from all positions in the acquisition range, Driven values of the traveling drive mechanism are obtained by interpolation calculation or by simulation calculation and stored.
  • Example: The 646 tracking TV camera system in Figure 3 is attached to the rear of the 670 automatic driving data acquisition vehicle, and the 915 reverse parking driving data acquisition range is manually parked and driven by a driver who is familiar with driving that vehicle. Then, the driving operation data for parking and driving is acquired. Similar to the above explanation, fix the start position of 916 reverse parking data acquisition detected by image in the range of 915 reverse parking data acquisition Fix the start position of 917, 918, 919 reverse parking data acquisition on the TV camera monitor screen The image recognized by the 646 tracking TV camera system from the parking position angles A, B, and C reflected on the TV camera monitor screen is associated with the distance and direction, and the drive value of the drive mechanism is used to acquire the 915 reverse parking travel data. The driving values of the traveling drive mechanism for parking from all positions in the range are acquired and stored by interpolation calculation or simulation calculation.
  • Example: The 646 tracking TV camera system in Figure 8 is attached to the front and rear of the 670 automatic driving data acquisition vehicle, and the unique 890 forward parking driving data acquisition range and 915 reverse parking driving data acquisition range are adapted to the driving of that vehicle. A savvy driver manually parks the vehicle and parks the vehicle diagonally forward.
  • the unique parked driving data is acquired from several points in a similar manner.
  • the 646 tracking TV camera system attached to the front recognizes each image, and each measured distance and each shooting direction are associated with each drive value of the drive mechanism for each parking run and stored.
  • the unique parking drive from several points The traveling operation data obtained by the same method is obtained.
  • the 646 tracking TV camera system attached to the rear recognizes each image, and each measured distance and each photographing direction are associated with the driving force value of each driving mechanism that has traveled during parking. .
  • 882 forward parking data acquisition route in the unique 890 forward parking data acquisition range and 911 reverse parking data acquisition route in the 915 reverse parking data acquisition range the image detected on the fixed TV camera monitor screen , 892, 893 Fixed forward parking data acquisition start position Parking position angle A, B, 909 Forward parking data acquisition start position fixed TV camera monitor screen 646 tracking from the planned parking position Associating the image recognized by the TV camera system with its distance and direction, and from the unique driving value of the driving mechanism, 890 forward parking data, 882 forward parking data within the acquisition range, acquisition route and 915 reverse parking data. 911 backward parking driving data within the acquisition range, from all positions on the acquisition route, the drive value of the driving mechanism is acquired and stored by interpolation or simulation calculation.
  • Driving operation data is acquired by attaching a 646 tracking TV camera system to the front of the 670 automatic driving data acquisition vehicle.
  • the unique parking travel operation data is acquired from several start positions in a similar manner. .
  • Each image is recognized, and each measured distance and each photographing direction are associated with each driving numerical value of each traveling driving mechanism for parking traveling and stored.
  • the drive value of the travel drive mechanism is interpolated. It is acquired and stored by calculation or by simulation calculation.
  • the forward parking travel to be corrected is manually carried out, and the driving numerical value of the traveling drive mechanism is used to correct the correction by interpolation calculation.
  • the travel drive value for the desired forward parking travel is obtained in a similar manner.
  • Example 10 In order to connect the 968 simulation driving route in Fig. 10 to the parking driving in the 890 forward parking driving data acquisition range, the driver who is familiar with driving the vehicle is manually driven backward and the unique A 646 tracking television camera system is attached to the rear of a 670 automatic driving data acquisition vehicle to acquire simulation data that is connected to driving operation data. From the individual 968 simulation runway, run to the 890 forward parking run data acquisition range, run the simulation run from the start position of some 910 reverse simulation acquisition, and turn back the 983 parking run. Simulation running data of several forward parking runs to a position are calculated and selected by a 646 tracking television camera system.
  • the 960 simulation running path is calculated from the position of the 960 reverse parking vehicle, which is captured by the tracking TV camera of the 646 tracking video camera system attached to the rear of the 960 reverse parking vehicle. From the 974 reverse parking travelable range to the connection to the position of the 975 reverse parking travel data travelable range, it is calculated by the method of the simulation, and travels with the calculated driving numerical value of the drive mechanism. do. 965 Reverse parking driving data At the joint position between the driving path and the simulation driving path, the backward traveling direction of the 646 tracking TV camera system is captured, the image is recognized on the screen captured by the 80 tracking TV camera, and the 3 tracking laser distance Measure the distance with a measuring instrument. The distance measured between 886 parking position angle A and 887 parking position angle B between vehicles parked forward at that location is judged to be possible to park again. Backward parking driving data Drive and park.
  • Example Fig. 12 attached to the front of the 949 forward parking vehicle, the image on the 5 fixed TV camera monitor screen captured by the 1 fixed TV camera of the 646 tracking TV camera system, the image detected on the 951 fixed TV camera monitor screen left behind The image position of the side of the parked vehicle is captured by the 80 tracking TV camera, and the direction and distance of the planned parking position at the back shown on the 948 forward parking driving tracking TV camera monitor screen are measured.
  • the parking position at the back of the image is detected by image recognition on the screen, and the 3-tracking laser rangefinder is pointed in the direction corresponding to the detected or selected position, and the distance to that image is measured.
  • the angle of view and focal length corresponding to the measured distance are adjusted, the detected or selected image is photographed with the 80-tracking television camera, and the image on the 92-tracking television camera monitor screen is image-recognized.
  • Confirm that the image is the planned parking position for acquiring the 938 reverse parking data, and confirm by voice or image the parking position behind the 981 reverse parking driving tracking TV camera monitor screen on the 92 tracking TV camera monitor screen. .
  • the corrected parking position shown on the 982 tracking TV camera monitor screen is corrected on the 92 tracking TV camera monitor screen, and the parking position on that screen is the same as that of the 92 tracking TV camera monitor screen.
  • the direction and distance from the 960 backward parking vehicle to the 938 backward parking data acquired parking position can be confirmed, and the forward parallel that the 646 tracking TV camera system has already acquired 938 of the planned parking position Measure the distance of the planned parking position of the backward parking traveling data acquisition of the backward parking traveling data acquisition of the planned parking position.
  • the parking position in the back of the screen is detected in the image on the screen, the 3-tracking laser rangefinder is pointed in the direction corresponding to the detected position, and the distance to the detected image is measured.
  • the angle of view and focal length corresponding to the measured distance are matched, the detected image is photographed with the 80-tracking TV camera, and the image on the 92-tracking TV camera monitor screen is image-recognized. Recognize the image, measure the distance, determine that it is possible to park backwards, and park at the position recognized by the image. Run toward the simulation running data acquisition range, search for a position where the simulation run of the parked vehicle can be calculated, and run.
  • reverse parking driving is performed on the 978 backward parking driving data driving path.
  • the image on the monitor screen of the 92 tracking TV camera attached to the front of the 949 forward parking vehicle, taken by the 80 tracking TV camera is measured by the 646 tracking TV camera system. It is converted according to the position and the running direction position.
  • the converted 92 tracking television camera monitor screen displays the image of the confirmed parking position on the monitor screen that reflects the image converted according to the parking run.
  • Detect by image recognition on the screen indicate the detected position, point the 3-tracking laser rangefinder in the direction corresponding to the position, and measure the distance from the detected image. After matching the angle of view and focal length corresponding to the measured distance, the detected image is photographed with the 80-tracking TV camera, and the parking position of the image on the 92-tracking TV camera monitor screen is recognized.
  • the image is recognized and the distance is measured, the image around the parking position is imaged by an 80-tracking TV camera, the distance is measured by a 3-tracking laser rangefinder, and the parking position learned in the past is used.
  • 987 advance parking travel data travel road is selected and parked at the position where parallel parking is possible and the image is recognized.
  • the parking run is memorized and added to the learning.
  • the image analysis of the parked vehicle reflected on the 977 tracking TV camera monitor screen can be performed. Display the calculation screen of the parking place at the position.
  • the simulation run to the 964 backward parking data running area is corrected, and the parking run that turns back at the joint position between the 965 backward parking data running road and the simulation running road Select and park with 978 reverse parking driving data driving road driving.
  • the 646 tracking TV camera system recognizes the parking position as an image, and confirms the screen according to the instruction by confirming or correcting the display of the screen. , 949 forward parked vehicle parks and parks at the 889 planned parking position.
  • a three-tracking laser rangefinder is directed in each direction corresponding to the multiple detected positions, and the distances to the multiple detected images are measured.
  • the multiple detected images are taken with the 80 tracking TV camera, and the 955 forward parking and running tracking TV camera monitor is displayed on the 92 tracking TV camera monitor screen.
  • the image is recognized and the distance is measured from the position of the 949 forward parking vehicle, and the surroundings of the parking position are photographed by the 80-tracking TV camera. , 945 parking rim, 946 side of the parked vehicle in the back right, and 947 the side of the parked vehicle in front of the right. parking lot. Based on the parking method learned in the past, it is determined that backward parking is appropriate, and the 987 forward parking data is used to park the car at the parking position. Each recognized image is stored and used as a reference for image recognition for the next and subsequent parking runs.
  • a three-tracking laser rangefinder is directed in each direction corresponding to the multiple detected positions, and the distances to the multiple detected images are measured.
  • the multiple detected images are taken with the 80 tracking TV camera, and the 955 forward parking and running tracking TV camera monitor is displayed on the 92 tracking TV camera monitor screen.
  • the image is recognized and the distance is measured from the position of the 960 reverse parking vehicle, and the surroundings of the parking position are photographed by the 80 tracking TV camera.
  • the space of the planned parking position for acquiring the 938 reverse parking travel data can be grasped. comes out.
  • 938 To the planned parking position of the acquisition of backward parking traveling data, grasp the space and judge that forward parking is appropriate with the parking method learned in the past, 911 Backward parking traveling data Acquisition of the traveling data of the route to park and drive to the parking position. park in.
  • the image of each recognized vehicle is stored and used as a reference for image recognition of the next and subsequent parking runs.
  • Embodiment 670 Autonomous driving data acquisition car of FIG. 20 is a method of acquiring stop data of a stop method that does not make the subject feel fearful of a subject to avoid collision.
  • 713 Traveling at the same speed on road C, the distance to the subject is 671, 672, 673 Automatic driving data acquisition Data for each driving operation is acquired from the distance of the car's position A, B, and C until it stops. do.
  • 710, 711, 713, 716, 718 driving routes A, B, D, E travel at the same speed
  • the fearless stopping method At every position on the road, the fearless stopping method, the numerical control drive mechanism of the 670 automated driving data acquisition car, the drive number that becomes the driving data, the stop The traveling data acquired at the position where the operation was started is associated, and the stopping traveling data acquired at the position where the stop operation was started is acquired from all the positions on the traveling path by calculation such as an interpolation method. Similarly for different speeds, the stopping travel data for all speeds at all positions on the travel path are obtained by interpolation calculation.
  • Example 670 of Fig. 21 is a method of acquiring avoidance driving data for a subject that should avoid a collision with 670 automatic driving data acquisition vehicle, which is an avoidance method that does not make people feel fearful.
  • On 715 driving route C drive at the same speed, 671, 672, 673 Autonomous driving data acquisition Start evasive driving from the distance of the car's position A, B, C, and acquire data for each driving operation.
  • 710, 711, 716, 718 driving roads A, B, D, E travel at the same speed, 671, 672, 673 automatic driving data acquisition from the distance of the car position A, B, C Acquire data for each driving operation that initiates avoidance driving.
  • the evasive driving method that does not make you feel fear At several driving speeds, at all positions on the road, the evasive driving method that does not make you feel fear, the position where you started avoidance driving and the avoidance driving method that does not make you feel fear, The 670 automatic driving
  • the driving numerical value of the drive mechanism of the data acquisition vehicle's numerical control which is the avoidance driving data, is associated as the obtained avoidance driving data from the position where the avoidance driving was started, and the avoidance driving is started at all positions on the driving road.
  • the avoidance driving data to be used is obtained by the calculation of the interpolation method.
  • avoidance driving data for avoidance driving that does not make the driver feel fearfulness is obtained by interpolation calculation for all normal speeds on the road.
  • Example: 670 Autonomous driving data acquisition vehicle in Fig. 22 is a method of acquiring side-passing driving data with maximum avoidance driving for a subject that should be avoided from 674 collisions.
  • 715 Driving at the same speed on road C 671, 672, 673
  • the acquired travel data is associated, and the travel data for maximally avoiding collision with an object that should be avoided at all positions on the travel path is calculated by interpolation. get.
  • the maximum avoidance driving 674 Avoid collisions with objects that should be avoided.
  • 670 Autonomous driving data acquisition vehicle does not collide with 674 objects that should be avoided, and is a method of acquiring driving data with the method of maximum avoidance driving. 715 Traveling at the same speed on road C, 671 Automatic driving data acquisition car position A, 679 Collision avoidance driving data acquisition A, 680 Collision avoidance driving data acquisition B, 681 Collision avoidance driving data acquisition C, 682 Collision avoidance Driving data acquisition D, 683 Collision avoidance driving data acquisition E, 684 Collision avoidance driving data acquisition F, 685 Collision avoidance driving data acquisition G Maximum avoidance driving at each position 674 Without colliding with an object that should be avoided Acquire the data of each traveling operation when driving through.
  • the 646-tracking TV camera system installed in the vehicle for automatic driving that acquires avoidance driving data in Figure 24 captures a distant subject in the direction of travel by 1 fixed TV camera and 686 on the monitor screen of 5 fixed TV cameras. Detect the image of the subject appearing on the fixed TV camera monitor attached to the autonomous driving vehicle, point the 3-tracking laser rangefinder in the direction corresponding to the detected position on the screen, and measure the distance from the detected image.
  • the 80 tracking TV camera captures the detected image at the angle of view and focal length corresponding to the distance.
  • the image of the subject to be avoided is recognized and analyzed by image analysis reflected on the 92 tracking TV camera monitor screen attached to the 687 automatic driving vehicle.
  • the vehicle is driven by a driver who is familiar with driving the vehicle, and the driving operation data of the vehicle is acquired.
  • Collision Avoidance Driving Data Acquisition 670 Autonomous Driving Data Acquisition Car is a method of acquiring avoidance driving data while measuring the distance to the object on the road surface 674 to avoid collision. The acquisition method is to have a driver who is familiar with driving the vehicle drive the vehicle, and acquire it as learning data for image analysis and avoidance judgment of the loaded tracking TV camera system.
  • Example Fig. 25 678 collision avoidance driving data acquisition road surface, 670 automatic driving data acquisition car judges collision avoidance at 688 avoidance driving start position A to avoid collision with a subject that should be 674 collision avoidance, and 689 avoidance. It is avoidance driving data acquisition driving that did driving A.
  • Example Fig. 26 678 collision avoidance driving data acquisition road surface, 670 automatic driving data acquisition vehicle judges collision avoidance at 674 collision avoidance start position B to avoid collision with a subject that should be 674 collision avoidance, and 691 avoidance. This is avoidance driving data acquisition driving in which driving B was performed.
  • Example Fig. 27 678 collision avoidance driving data acquisition road surface, 670 automatic driving data acquisition vehicle judges collision avoidance at 692 avoidance driving start position C to avoid collision with a subject that should be 674 collision avoidance, and 693 avoidance. This is avoidance driving data acquisition driving in which driving C was performed.
  • Example Fig. 28 678 collision avoidance driving data acquisition road surface, 670 automatic driving data acquisition vehicle judges collision avoidance at 694 avoidance driving start position D to avoid collision with a subject that should be 674 collision avoidance, and 695 avoidance. It is avoidance driving data acquisition driving that did driving D.
  • Example Fig. 29 678 collision avoidance driving data acquisition road surface, 670 automatic driving data acquisition car judges collision avoidance at 674 collision avoidance start position E to avoid collision with a subject that should be 674 collision avoidance, and 697 avoidance. This is the avoidance driving data acquisition driving for driving E.
  • Example Fig. 30 678 collision avoidance driving data acquisition road surface, 670 automatic driving data acquisition vehicle judges collision avoidance at 698 avoidance driving start position F to avoid collision with a subject that should be 674 collision avoidance, and 699 avoidance. This is avoidance driving data acquisition driving with driving F.
  • Example Fig. 32 678 collision avoidance driving data acquisition road surface, 670 automatic driving data acquisition vehicle judges collision avoidance at 702 avoidance driving start position H to avoid collision with a subject that should be 674 collision avoidance, and 703 avoidance. Acquisition of maximum avoidance driving data of driving H Driving and acquisition of numerical values of the acceleration / deceleration sensor and impact sensor that measure the impact.
  • the 670 automatic driving data acquisition vehicle traveling on the 678 collision avoidance driving data acquisition road surface 710 driving route A is 674 collision avoidance data acquisition driving only to avoid a collision with a subject that should be avoided.
  • the avoidance driving data is the driving position of the mechanism related to the driving of the 670 automatic driving data acquired vehicle, the measured distance and direction, the acceleration / deceleration sensor and the shock sensor.
  • Example Fig. 34 678 Collision Avoidance Driving Data Acquisition Road 711 Autonomous Driving Data Acquisition Vehicle driving 670 Autonomous Driving Data Acquisition Road 712 Maximum Avoidance Driving B only to avoid a collision with a subject that should be 674 Collision Avoided. Avoidance driving data acquisition driving.
  • Example Fig. 36 678 Collision Avoidance Driving Data Acquisition Road 715 Driving Route D, 670 Autonomous Driving Data Acquisition Vehicle did 719 Maximum Avoidance Driving D just to avoid a collision with a subject that should be 674 Collision Avoided. Avoidance driving data acquisition driving.
  • Example in Figure 37 the 670 automatic driving data acquisition vehicle traveling on the 678 collision avoidance driving data acquisition road surface 716 driving route E, performs 717 maximum avoidance driving E just to avoid colliding with a subject that should be 674 collision avoidance. It is avoidance driving data acquisition driving.
  • Example in Figure 38 the 670 automatic driving data acquisition vehicle traveling on the 718 driving route F on the 678 collision avoidance driving data acquisition road surface is in avoidance driving data acquisition driving just to avoid a collision with a subject that should be avoided. be.
  • Example in Figure 39 678 Autonomous driving data acquisition car traveling on roads 710, 711, 713, 715, 716, 718 driving routes A, B, C, D, E, F, 674 It is an avoidance driving data acquisition driving just to avoid a collision with a subject that should be avoided.
  • 674 Autonomous driving data acquisition vehicle traveling at the same speed in the direction of the object to avoid collision
  • 678 Autonomous driving data acquisition vehicle driving on a road surface with 678 collision avoidance driving data acquisition road is 704 Autonomous driving vehicle traveling 20 km, 705 driving on a road with 678 collision avoidance driving data acquisition road surface Acquire data on avoidance driving and maximum avoidance driving of 20km driving.
  • the avoidance driving data at all speed driving of normal driving are interpolated. Acquire and store by modulo operation.
  • Example: 678 in Fig. 41 Collision Avoidance Driving Data Acquisition The 251 fisheye lens fixed television camera attached to the front of the 670 automatic driving data acquisition car, which is equipped with a 646 tracking television camera system and runs on the road surface, Aim the 3-tracking laser rangefinder and the 80-tracking TV camera in the direction corresponding to the position of the detected vehicle image on the 501 fish-eye lens fixed TV camera monitor screen.
  • a tracking laser distance measuring machine measures the distance to the vehicle on the right in front of 720 from the left. According to the measured distance, the image captured by the 80-tracking TV camera at the angle of view and focal length is projected, and the image of the 92-tracking TV camera monitor screen is analyzed by the 224 image analyzer, and the image of the 225 image analysis signal image is recognized. From the information, its direction and its measured distance, analyze the position of the vehicle on the right in front of the 720. The importance of the recognized image information is compared and judged, and tracking is continued in the shooting direction of the 80 tracking TV camera. The 3-tracking laser distance measuring machine measures the distance each time in the direction of the 80-tracking TV camera that tracks it.
  • the direction and distance to be measured by the vehicle on the right in front of the 720 is predicted, and the best avoidance driving at the predicted position and direction is obtained from the avoidance data obtained in advance. It selects and predicts avoidance driving.
  • the image information and the surroundings in that direction are measured to confirm the avoidance driving range.
  • the position of the traveling vehicle, its traveling direction and moving speed are measured, the direction and distance of the traveling vehicle are predicted, and at the predicted position,
  • the best avoidance driving is selected from the avoidance data acquired in advance, and the avoidance driving is performed.
  • the image information recognized by the image, the position of the vehicle detected by 241 images displayed on the 37 numerical control TV camera monitor screen, the distance measured by the 3 tracking laser distance measuring machine, and the signal of the voice are calculated.
  • the direction, the calculated measured distance, the driving numerical value of the driving mechanism of the vehicle, and the sound signal are stored. Data that can cope with avoidance driving is acquired from these stored numerical values, and avoidance driving is stored and added to learning.
  • Avoidance driving is performed by selecting from certain avoidance driving data.
  • the transmission of the running vehicle is received by the receiver. Then, the traveling direction and traveling speed of the traveling automobile at the position where the signal is received can be calculated.
  • the traveling speed between the vehicle and the traveling vehicle the direction and the distance of the position can be calculated.
  • the direction of the approaching vehicle is quickly detected by the ultrasonic propagation destination, and the 35 numerically controlled television camera and 3 tracking laser rangefinders are directed in that direction, enabling early image detection and measuring the distance of the approaching vehicle.
  • a pixel distance measurement tracking TV camera system is installed in front and behind the 670 automatic driving data acquisition vehicle, which runs on the 678 collision avoidance driving data acquisition road surface in Figure 43.
  • 753-pixel distance measurement and tracking TV camera B captures the image of the subject on the 757-pixel distance measurement and tracking TV camera monitor screen B, which corresponds to the position of the image sensor of the 753-pixel distance measurement and tracking TV camera B.
  • the 107 LED light-emitting element emits light, and the light illuminates the subject through the optical lens of the 753-pixel distance measurement and tracking TV camera B. The reflection time of the irradiated reflected light is measured to measure the distance to the object.
  • the 753 pixels corresponding to the measured distance Image analysis is performed on the enlarged screen of the distance measurement tracking television camera monitor screen B with an image analyzer, and the position of the vehicle on the right in front of the subject is analyzed from the recognized image information, its direction, and its measured distance.
  • the importance of the recognized image information is compared and determined, and tracking is continued in the photographing direction of the 753-pixel distance measurement tracking television camera B.
  • the direction of the tracking 753-pixel distance measurement tracking television camera B is measured each time. Based on the difference between the measured direction and distance, the direction and distance to be measured by the vehicle ahead on the right side is predicted, and the best avoidance driving at the predicted position and direction is selected from the avoidance data that has been acquired in advance. to predict avoidance driving.
  • the pixel distance measurement and tracking TV camera system attached to the front and rear of the 670 automatic driving data acquisition vehicle 756, 757, 758, taken by pixel distance measurement and tracking TV cameras A, B, C, and D 759-pixel distance measurement tracking TV camera screen A, B, C, D image information and the surroundings in that direction are measured to confirm the avoidance driving range.
  • the moving speed of the traveling vehicle and assuming its traveling position, it is assumed that there is an avoidance driving range, and data that can respond to avoidance driving is selected from the data of avoidance driving that has already been acquired, and avoidance driving is performed. It is something to do. Acquire each data of avoidance driving and add it to learning of avoidance driving.
  • the pixel distance measurement tracking TV camera system is small without a drive mechanism, and can be attached to each position of the automatic driving data acquisition vehicle and can acquire avoidance driving data from each position.
  • Example: 1063 passing driving data acquisition roads in Figure 44 670 Autonomous driving data acquisition vehicles traveling on roads 710, 711, 713, 715, 716, 718 driving routes A, B, C, D, E, and F are 316 In order to avoid contact with the preceding vehicle and overtake, it is overtaking driving data acquisition driving. 3 Measure the speed difference between the 670 automatic driving data acquisition vehicle and the 316 preceding vehicle using the distance measured by the tracking laser rangefinder.
  • 670 Autonomous driving data acquisition vehicle uses the data from the position where the overtaking operation started to the end of the overtaking operation, 1063 overtaking driving data acquisition All positions on the road surface Therefore, in order to avoid contact with the 316 preceding vehicle and overtake, 670 automatic driving data acquisition vehicle's overtaking driving data is acquired by interpolation calculation and stored.
  • FIG. 45 shows the 308 tracking driving system driving vehicle, and the 791 automated driving vehicle that acquired accident avoidance data from the 309 tracking driving system. to run.
  • 309 1 fixed TV camera of the tracking driving system shows the subject detected by the image, on the 5 fixed TV camera monitor screen 803, 804, 805, 806 The vehicle ahead detected by the fixed TV camera monitor screen of the tracking driving system , children on sidewalks, oncoming vehicles, and center lane images.
  • the position of the subject recognized by the image recognition is recognized and the car has already acquired it. It is a run while confirming that it is out of the collision range.
  • the vehicle is driven by predicting the collision range. 766 is driving within the 800 driving lane range within the 811 drivable range of the fixed television camera coverage.
  • Each image on the 5 fixed TV camera monitor screen is directed toward the position of the detected image, and the 80 tracking TV camera and 3 tracking laser rangefinder are aimed at each, and the respective distances are measured according to the respective measured distances.
  • Adjusting the angle of view and focal length, 80 tracking TV cameras shot, on each 92 tracking TV camera monitor screen, 835, 824, 836, 788 tracking driving system tracking TV camera monitor screen recognized the right curb , median strip marking in the direction of travel, vehicles parked on the left, parked vehicles, and the center line on the right.
  • the position where the image of the subject appears on the monitor screen of the 92-tracking TV camera that has confirmed the image, the direction and angle of view taken by the 80-tracking TV camera, and the distance to the subject measured by the 3-tracking laser rangefinder The shape of the subject can be analyzed in detail from the numerical value of the position.
  • the 824 tracking driving system on the 92-tracking TV camera monitor screen recognizes the image of the center divider marking the direction of travel on the tracking TV camera monitor screen, and the 836 tracking driving system tracking TV camera monitor screen.
  • the distance between the parked vehicle on the 788 tracking TV camera monitor screen and the center line on the right side was calculated and measured, and it was confirmed that the vehicle of the 308 tracking driving system could pass through. to run. Since the direction and distance of these image-recognized images are measured from the vehicle of the 308 tracking driving system driving vehicle, the vehicle is traveling while recognizing the image-recognized position.
  • the 308 tracking driving system driving car in Figure 47 is a 791 autonomous driving car that has acquired accident avoidance data from the 309 tracking driving system. Drive at a speed that is set to an upper limit.
  • 309 1 fixed TV camera of the tracking driving system shows the subject detected by the image, on the 5 fixed TV camera monitor screen 803, 804, 805, 806 The vehicle ahead detected by the fixed TV camera monitor screen of the tracking driving system , children on sidewalks, oncoming vehicles, and center lane images.
  • Each image on the 5-fixed TV camera monitor screen 80 Tracking TV camera and 3 Tracking laser distance measuring device are aimed respectively in the direction of the position of the detected image, and the distance is measured according to the angle of view of each measured distance. and adjusted the focal length, each subject was captured by the 80 tracking TV camera on the 92 tracking TV camera monitor screen, 814, 815, 816, 817 tracking driving system tracking TV camera monitor screen on the roadway Children, oncoming vehicles, children on the road, children in the direction of travel, and children in the direction of travel are recognized as objects to be avoided.
  • the car Since the direction and distance of these image-recognized images are measured from the car of the 308 tracking driving system driving car, the car recognizes the image-recognized position and has already calculated and acquired It is a run while confirming that it is out of the collision range.
  • the determination of what the recognized image is is known in advance or is learned from memory. , widens the avoidance range of the image and concentrates on image recognition and distance measurement of the image.
  • the accident avoidance data of the 309 tracking driving system can be used.
  • the vehicle equipped with the tracking TV camera distance measurement system attached to the acquired 791 automatic driving car can drive in the same situation according to the memory of the image recognition position of the image, and at that position acquired in the same way. can be added, and the image recognition position memory of the acquired image can be used as the position memory shared on the Internet, and can be learned from the memory.
  • FIG. 48 shows the 308 tracking driving system driving vehicle, which acquired accident avoidance data from the 309 tracking driving system. at the speed for which the upper limit is set. Detect the image of the oncoming vehicle detected on the 793 tracking driving system fixed TV camera monitor screen on the 5 fixed TV camera monitor screen shot by the 1 fixed TV camera of the 309 tracking driving system.
  • the image on the fixed TV camera monitor screen Point the 80 tracking TV camera and 3 tracking laser rangefinder in the direction of the position of the detected image and measure the distance, and the angle of view and focal length according to the measured distance , the subject was captured by the 80 tracking TV camera on the 92 tracking TV camera monitor screen, and the 794, 795, 796, 797, 798 tracking driving system on the tracking TV camera monitor screen recognized the oncoming vehicle, oncoming vehicle
  • the image recognition is focused on the learned prediction of the surroundings, the ball around the oncoming car, the child around the oncoming car, and the jumping out of the child around the oncoming car. Knowing or learning in advance the image of the learned prediction related to the image recognized image concentrates image recognition and distance measurement on the image to avoid the collision.
  • FIG. 49 shows the 308 tracking driving system driving vehicle, and the 791 automated driving vehicle that acquired accident avoidance data from the 309 tracking driving system. to run.
  • 309 803, 806, 744, 512, 513 803, 806, 744, 512, 513 tracking driving system Fixed TV camera monitor screen on which the subject detected by the 1 fixed TV camera of the tracking driving system It detects images of oncoming vehicles, the center lane, oncoming vehicles crossing the center lane, the center line ahead, and children.
  • Each image on the 5 fixed television camera monitor screen is directed toward the position of the image detected by the 80 tracking television camera and 3 tracking laser rangefinder, and the distance is measured according to each measured distance. Adjusting the angle and focal length, each subject is captured by an 80-degree tracking television camera.
  • Example In Fig. 50 the car of the 308 tracking driving system driving vehicle was installed with a tracking TV camera distance measurement system attached to the 791 autonomous driving car that acquired the accident avoidance data of the 309 tracking driving system, and the 3491 general vehicle driving route was installed. Drive at a speed that is set to the upper limit. Detect the image of the child on the roadway detected by the 799 tracking driving system fixed TV camera monitor screen on the 5 fixed TV camera monitor screen shot by the 1 fixed TV camera of the 309 tracking driving system.
  • the image on the fixed TV camera monitor screen 80 A tracking TV camera and 3 A tracking laser rangefinder are aimed in the direction of the position of the detected image to measure the distance, and the angle of view and focal length are adjusted according to the measured distance.
  • the subject was photographed by the 80-tracking TV camera, and on the 92-tracking TV camera monitor screen, the image on the 813-tracking driving system tracking TV camera monitor screen was recognized as a child. and image recognition of the child on the road.
  • 308 tracking driving system Calculate and predict the direction in which the car of the traveling car is traveling, the position and the traveling direction of its child as a child.
  • the avoidance direction of the 308 tracking driving system driving car was recorded by 1 fixed television camera using the data of avoidance driving acquired in advance, and 5 on the fixed television camera monitor screen. From the position of the detected image, point the 3-tracking laser distance measuring machine in the direction in which there is no image that can detect the image in the avoidance direction, and measure the distance. The angle of view and focal length were adjusted according to the measured distance, and the subject was photographed by the 80-tracking TV camera. image recognition, and the avoidance range is calculated using the avoidance driving data acquired in advance. In order to avoid a collision with the child, the car drives with avoidance driving data including the maximum avoidance driving data that has been acquired.
  • Figure 51 shows the 308 tracking driving system driving vehicle, which acquired accident avoidance data from the 309 tracking driving system. Drive at a speed that is set to the upper limit. Detect the image of the child on the roadway detected by the 799 tracking driving system fixed TV camera monitor screen on the 5 fixed TV camera monitor screen shot by the 1 fixed TV camera of the 309 tracking driving system.
  • the image on the fixed TV camera monitor screen 80 In the direction of the position of the detected image, point the 80 tracking TV camera and 3 tracking laser rangefinder in that direction and measure the distance, and the angle of view and the angle of view according to the measured distance. After adjusting the focal length, the 80-degree tracking television camera shoots the subject.
  • the image recognition of the child in the driving direction recognized on the 817 tracking driving system tracking TV camera monitor screen is recognized.
  • the image of the child on the road is recognized again, and the direction in which the car of the 308 tracking driving system driving car is traveling, the position and the traveling direction of the child are calculated and predicted.
  • the angle of view and focal length are adjusted according to the measured distance, and several images are recognized on the monitor screen of the 92-tracking television camera, and the traveling direction and position are calculated.
  • this evasive driving data driving selection is made, including the maximum evasive driving previously obtained to avoid collision with the child.
  • 308 Pursuit Driving System The maximum avoidance driving data acquired by the driving vehicle was performed by a driver who was familiar with driving the vehicle, but the situation on the general road is different. The memory learned in the past is referred to as a method of finding the avoidance direction. Using the various avoidance driving methods as learning data, avoidance driving data is learned and acquired.
  • the 842 tracking driving system recognizes dark objects on the roadway that are recognized on the tracking TV camera monitor screen.
  • the tracking laser rangefinder at the position of the subject detected as an image on the monitor screen of the tracking television camera, and measure the distance to the subject again.
  • Point the 80-tracking TV camera in the direction of the re-measured distance and shoot the subject with the angle of view and focal length corresponding to the re-measured distance by increasing the sensitivity of the 80-tracking TV camera.
  • Image recognition of a dark parked vehicle ahead of the driving road on the monitor screen of the 843 tracking driving system tracking TV camera captured by the 80 tracking TV camera.
  • Figure 53 shows a tracking TV camera attached to a 791 self-driving car that has acquired accident avoidance data from the 309 tracking driving system, and a 308 tracking driving system driving vehicle that has been installed with the tracking TV camera system that has acquired the accident avoidance data. Install a distance measurement system and drive on the 3491 general car road at the speed with the upper limit set.
  • 309 Tracking system's 1 fixed TV camera on the 5 fixed TV camera monitor screen 822 Tracking system on the fixed TV camera monitor screen Image detected on the left curb in the direction of travel, 823 Tracking system on the fixed TV camera monitor screen , and some images are detected in addition to the detected direction-of-travel median markings.
  • Each image on the 5 fixed TV camera monitor screen 80 Tracking TV camera and 3 Tracking laser distance measuring machine are aimed at each in the direction of the position of the detected image, and each distance is measured according to each measured distance
  • 824 and 825 tracking driving systems are displayed on each of the 92 tracking TV camera monitors.
  • Image recognition on the system tracking TV camera monitor screen is calculated and the median strip marking in the passing direction, 828 tracking driving system Tracking system Image recognition on the TV camera monitor screen Image recognition is performed as a unique image of the left curb stone in the passing direction .
  • Those unique image recognition images are traveling while recognizing the unique image recognition position because the direction and distance from the car of the 308 tracking driving system driving car are measured. Those image-recognized positions are recognized and stored, and running while recognizing their unique image-recognized positions that are continuous with those stored image recognitions.
  • the position of the car of the 308 tracking driving system driving car that measured the image of each unique position can be the position measured by GPS.
  • the GPS-measured position of the vehicle and its driving direction are associated with the measured position and time.
  • a large number of 308 tracking driving system driving cars are learned by sharing and memorizing the associated numerical values on the Internet, GPS and time position information, and the measured position are shared display , 308 tracking driving system It is possible to drive while tracking and confirming the appropriate images that have already been acquired.
  • Each image on the 5 fixed television camera monitor screen is directed toward the position of the detected image, and the 80 tracking television camera and 3 tracking laser rangefinder are aimed at each, and the respective distances are measured according to the respective measured distances. Adjusting the angle of view and focal length, 844, 845, 846, 847 obstacles A, B, C, and D on the 310 traveling direction were photographed, and 852, 853, 854 were displayed on the 92 tracking TV camera monitor screen. , 855 Tracking Driving System The image analysis of obstacles A, B, C, and D on the driving road recognized on the monitor screen of the tracking television camera.
  • 308 tracking driving system 310 By knowing the shape of the obstacle at the destination, its traveling direction, position and distance analyzed by image analysis on the 92 tracking TV camera monitor screen, 308 tracking driving system 310 The measured distance and 860 tracking driving system tracking TV camera monitor screen deployed in the direction of each obstacle placement, 856, 857, 858, 859 tracking driving system tracking TV camera monitor screen image recognition calculation of obstacles passed in the direction of travel The positions of object A, obstacle B to be passed, obstacle C to be passed, and obstacle D in the passing direction can be calculated. 308 Chasing driving system The vehicle uses previously acquired driving data for collision avoidance to avoid those obstacles. do.
  • the 308 tracking driving system driving vehicle in Figure 55 is a 791 autonomous driving vehicle that has acquired accident avoidance data for the 309 tracking driving system. at the speed for which the upper limit is set. Obstacles A, B, on the road detected on the 848, 849, 850, 851 tracking driving system fixed TV camera monitor screen on the 5 fixed TV camera monitor screen shot by the 1 fixed TV camera of the 309 tracking driving system Detect C and D images.
  • Each image on the 5 fixed TV camera monitor screen 80 Tracking TV camera and 3 Tracking laser distance measuring machine are aimed at each in the direction of the position of the detected image, and each distance is measured according to each measured distance Adjust the angle of view and focal length, photograph each obstacle, and recognize the image on the 92 tracking TV camera monitor screen, 852, 853, 854, 855 tracking driving system tracking TV camera monitor screen on the driving road Image analysis of obstacles A, B, C, and D.
  • Obstacles at the destination are image-analyzed on the monitor screen of the tracking TV camera.
  • Each placement on the 860 tracking driving system tracking TV camera monitor screen image recognition calculation screen is displayed on the 856, 857, 858, 859 tracking driving system tracking TV camera monitor screen image recognition calculation of the direction of travel
  • the positions of the obstacle A passed, the obstacle B to be passed, the obstacle C to be passed, and the obstacle D in the passing direction can be image-recognized as a continuous calculation screen.
  • the 308 tracking driving system vehicle acquires in advance the images of the obstacles in its destination, and converts the direction and position of the recognized images on the 866 tracking driving system tracking television camera monitor screen. In accordance with the running position of the car, the device displays the image position of the obstacle recognized by the image recognition at the distance and direction measured.
  • 866 Chasing Driving System which is equipped with a converter for the direction and position of the image recognized on the 866 Chasing Driving System tracking TV camera monitor screen, converts the previously acquired image of the obstacle at the driving position into the driving vehicle. It runs while developing the image of the obstacle at the position with the measured distance and direction.
  • the image of the obstacle that has been image-recognized has been analyzed by grasping its position, shape and object, so that the impact of the suspension received from the car tires of the 308 tracking driving system driving car can be grasped.
  • the position of the obstacle is located at the position of the tire at the measured distance. Then, according to the impact applied to the position of the tire, a driving method that reduces the impact is used to absorb the impact of the obstacle and run over the obstacle.
  • the transducer of the image direction and position of the 866 tracking television camera analyzes the shape of the image of the obstacle to ride on according to the measured distance and direction, Since the image of the left wheel tire of the 995 tracking driving system driving vehicle riding on the obstacle D on the 847 driving road can be confirmed, it is possible to absorb the impact of the shape of the obstacle in advance.
  • Example: An 863 tracking TV camera image position deployment system is installed on the 829 four-legged traveling machine shown in Fig. 57, and the traveling path with obstacles is run using the driving legs. 848, 849, 850, 851 Obstacles A, B, C, recognized images on the fixed TV camera monitor screen Detect the image of D.
  • the 80-tracking TV camera and 3-tracking laser rangefinder are aimed in the direction of the position of each detected image on the fixed TV camera monitor screen, and the distance is measured. According to the measured distance, adjust the angle of view and focal length and shoot with the 80 tracking TV camera. Analyze the images of obstacles A, B, C, and D on the 852, 853, 854, 855 tracking driving system tracking TV camera monitor screen on the 92 tracking TV camera monitor screen.
  • Obstacles at the destination analyzed on the 92 tracking TV camera monitor screen are processed to expand the image position by the image direction and position converter of the 866 tracking TV camera, and the 860 tracking driving system tracking TV camera monitor screen It is displayed on the driving route ahead of the calculation screen where the above image is recognized.
  • Obstacle A analyzed by image analysis , B, C, and D are converted by the image direction and position converter of the 866 tracking television camera, as the position viewed from the traveling direction of the 829 four-legged traveling machine, and the image in the measured direction and the measured distance process.
  • the developed virtual screens 856, 857, 858, 859 Tracking driving system Tracking TV camera Monitor screen image analysis Obstacle A passed in the direction of travel, obstacle B to pass, obstacle planned to pass in the direction of passage C, can be displayed as the position of the obstacle D to be passed.
  • Tracking driving system Tracking TV camera 866 Tracking TV camera 866 Tracking TV camera 829 four-legged running machine avoids the position of the obstacle developed according to the running position of the 829 four-legged running machine, and the 829 four-legged running machine runs the driving leg be able to.
  • 829 1 fixed TV camera captures obstacles on the road in the direction in which the 829 four-legged running machine walks, and the image of the obstacle is detected on the 5 fixed TV camera monitor screen, and the image of this obstacle Point the 3-tracking laser rangefinder and 80-tracking TV camera in the direction of , measure the distance to the obstacle, and adjust the angle of view and focal length of the 80-tracking TV camera according to the measured distance.
  • the captured images are analyzed on the monitor screen of the 92-tracking TV camera.
  • the image-analyzed obstacle is taken by the 80-tracking TV camera at the direction and distance measured by the 3-tracking laser distance measuring machine in line with the direction in which the 829 four-legged running machine walks.
  • 92 tracking TV cameras continue to unfold as the spatial position unfolds on the monitor screen.
  • the two-dimensional screen of the 92-tracking TV camera monitor screen accurately develops the position of the obstacle as a three-dimensional space by adding the accurate distance measured by the three-tracking laser rangefinder. Obstacles on the two-dimensional 92-tracking TV camera monitor screen captured by the 80-tracking TV camera are developed as positions of obstacles in the three-dimensional space assumed by the computer.
  • the three-dimensional space assumed by the computer of the transducer of the direction and position of the image of the tracking TV camera is expanded according to the direction of shooting of the 80 tracking TV camera, and the 829 80 of the walking position of the four-legged traveling machine It is developed according to the driving value of the direction in which the tracking TV camera shoots and the distance measured by the 3-tracking laser rangefinder.
  • the expansion that matches the screen shot by the 80-tracking TV camera is also expanded into the three-dimensional space assumed by the computer of the 863-tracking TV camera image position deployment system of the 829 4-legged traveling machine, 829 4
  • the driving position of the driving foot can be changed to the obstacle in the three-dimensional space assumed by the computer of the 829 four-legged traveling machine. You can run away.
  • the obstacle directly below the frame of the 829 four-legged running machine is an obstacle that was captured by the 80-tracking TV camera earlier and developed in three-dimensional space.
  • the position of several images including the obstacle is continuously developed in three-dimensional space in the direction and distance measured by the 3-tracking laser rangefinder. , it recognizes an obstacle that has come directly under the frame and sets the driving position of the driving leg.
  • the computer of the 866 tracking television camera's image orientation and position transforms into the assumed three-dimensional space.
  • the expansion system of the image position of the 863 tracking TV camera into the three-dimensional space assumed by the computer is expanded on the screen in the direction in which the 829 quadrupedal driving machine walks and the 80 tracking TV camera shoots.
  • 829 The development of the three-dimensional space continues to be updated with the images captured by the 80-tracking television camera and the numerical values of the direction and distance measured by the 3-tracking laser rangefinder, combined with the walking of the 829 quadrupedal traveling machine.
  • Position 844, 845, 846, 849 You can avoid obstacles A, B, C, D on the track.
  • the 829 4-legged traveling machine uses the positional image whose image position has been converted by the positional transducer in advance to drive the 869 front left, 870 front right, 871 rear left, and 872 rear right drive mechanism driving legs. Use it to select a position where there are no obstacles, drop the driving leg, and run.
  • the development of the three-dimensional space assumed by the computer in the shooting direction of the 80-tracking TV camera becomes the development in the three-dimensional space according to the shooting direction of the 80-tracking TV camera.
  • the driving position is 844, 845, 846, 849 in the three-dimensional space developed by the 863 tracking laser distance measuring device and the image processing system of the tracking TV camera with the driving numerical value in the direction in which the driving mechanism of the 80 tracking TV camera shoots. Avoid obstacles A, B, C, D.
  • Example Fig. 58 863 tracking TV camera image position development system, 3 tracking laser rangefinder and 80 tracking TV camera 829 four-legged driving machine installed with a running path with obstacles using the driving legs run.
  • the image recognized by the 80 tracking TV camera of the 80 tracking TV camera of the distance measurement system attached to the 827 four-legged running machine is captured by the 92 tracking TV camera monitor screen, and the image recognized on the 829 four-legged running machine A converter is installed for the direction and position of the image of the 866 tracking television camera that changes the direction and position of the captured image as the aircraft moves.
  • the 1 fixed TV camera at the position B of the 219 4-legged running machine that the 4-legged running machine moved forward takes a picture, and a new image is detected on the 5 fixed TV camera monitor screen.
  • a new image analysis is performed at the position where the newly detected image is moved on the 92-tracking TV camera monitor screen.
  • 219 At the position B of the quadrupedal drive machine, the position and direction of the new image recognized image, and at the position A of the 218 quadrupedal drive machine, the image recognized by the image of the 866 tracking TV camera image Transform images using orientation and position transformers.
  • the front-right driving numerical calculator, the 875 rear-left driving numerical calculator, and the 876 rear-right driving numerical calculator drive the drive mechanisms of the respective driving legs, and the steps of the 868 course are advanced by walking with the driving legs.
  • the 219 foot-driven running machine recognizes the image of the obstacle that has been acquired in advance, and develops the image of the obstacle at the position of the obstacle where it is walked, and the 869 front left drive mechanism, The drive legs of the front right drive mechanism 870, the rear left drive mechanism 871, and the rear right drive mechanism 872 are advanced by a drive method that matches the position of the developed image.
  • the recognized position of the image is recognized and the 732 avoidance area that the car has already acquired Confirm that the direction and distance are within the accident avoidance data range of the 309 tracking driving system.
  • image analysis of the image around the 732 avoidance area that has already been acquired is performed before the image is recognized.
  • the maximum collision avoidance with the 674 subject that should be avoided collision is obtained by the driver who is familiar with the driving of the vehicle, so the maximum collision avoidance result is considered. It is
  • the collision avoidance method is decided at the time of starting the avoidance operation. scanning the image. The direction and distance of the detected image are measured by the 309 tracking driving system, the subject in the image is image-recognized, the image-recognized subject is analyzed, and the vehicle's 733 driving area and 734 evacuation area are set. run while 224 Image analysis by image analyzer, 674 Image analysis of objects to avoid collision, 92 Tracking TV camera monitor screen position, 687 Corresponds to the image analysis of the subject reflected in the tracking TV camera monitor attached to the self-driving vehicle The image analyzer sets the avoidance zone. 1001 Image analysis by image analyzer A, 674 Image analysis of objects to be avoided, 360 Position on tracking TV camera monitor screen A, 687 Image analysis of objects reflected in the tracking TV camera monitor attached to the self-driving vehicle and parse.
  • 1002 Image analyzed by image analyzer B, 674 When there is no subject to avoid collision, 361 Tracking TV camera monitor screen 687 Tracking TV camera monitor attached to automatic driving vehicle Set the corresponding 1006 driving area.
  • 1003 Image analysis by image analyzer C 674 Image analysis of objects to be avoided 362 Tracking TV camera monitor Position C, 687 Corresponds to the image-analyzed object reflected in the tracking TV camera monitor attached to the self-driving vehicle Set 1007 evacuation area.
  • 1004 Image analyzed by image analyzer D 674 Object to avoid collision 363 Position C on the tracking TV camera monitor screen, 687 Corresponding to the image analyzed object reflected in the tracking TV camera monitor attached to the self-driving vehicle 1008 Set the maximum avoidance driving area.
  • Example Fig. 60 Accident avoidance data for the 309 tracking driving system was acquired.
  • the 308 tracking driving system driving vehicle installed with the tracking TV camera distance measurement system was installed on the 791 automatic driving car. run at the specified speed.
  • the tracking TV camera distance measurement system attached to the 791 autonomous driving vehicle on the 5 fixed TV camera monitor screen shot by the 1 fixed TV camera, the subject reflected in the fixed TV camera monitor attached to the 686 autonomous driving vehicle and the 805 tracking driving
  • the system detected 674 images of oncoming vehicles on the fixed TV camera monitor screen, and 731 images of oncoming vehicles were detected at the same time as objects to be avoided.
  • the direction of the subject reflected on the fixed TV camera monitor attached to the 686 self-driving vehicle and the direction of the oncoming vehicle detected by the image on the 805 tracking driving system fixed TV camera monitor screen are measured with a 3-tracking laser rangefinder, According to the direction and the measured distance, 674 objects to avoid collisions and 731 oncoming vehicles are detected by 80 tracking TV cameras, and 92 tracking TV cameras are used by 224 image analyzers to track 687 automated driving vehicles on the monitor screen. Analyze and judge the position image of the subject that has been analyzed on the camera monitor and the position image of the oncoming vehicle that should be avoided traveling in the opposing lane reflected on the tracking TV camera monitor attached to the 1013 automatic driving vehicle.
  • Analysis by 1001 image analyzer A determined that 1005 on the 360-tracking TV camera monitor screen A would absolutely avoid collision with the subject that should be avoided.
  • analysis of 1006 driving area of 1006 analysis of 1003 image analyzer C, analysis of 1011 maximum avoidance driving area A on 362 tracking TV camera monitor screen E and analysis of 1004 image analyzer D, 363 tracking TV 1012 on the camera monitor screen F, 1000 tracking of the maximum avoidance driving area B.
  • the roadside tree on the left side of the TV camera monitor screen is reflected.
  • Example Fig. 61 Accident avoidance data of the 309 tracking driving system was acquired.
  • the 308 tracking driving system driving car installed with the tracking TV camera distance measurement system was installed on the 791 automatic driving car. run at the specified speed.
  • 309 1 fixed TV camera of the tracking driving system is shown on the 5 fixed TV camera monitor screen
  • 674 objects to avoid collision are shown on the 5 fixed TV camera monitor screen ahead of the driving road
  • 686 is installed on the self-driving vehicle Detected an image of a subject on a fixed television camera monitor.
  • the image of the roadside tree on the left side of the 735 road on the left side of the road was captured on the 5 fixed TV camera monitor screen, and the image of the roadside tree just left of the 1015 fixed TV camera monitor screen was detected.
  • Image analyzer E selects 1010 avoidance driving area on 362 tracking TV camera monitor screen E, but on 364 tracking TV camera monitor screen E, 1013 Opponent lane reflected on tracking TV camera monitor attached to self-driving vehicle
  • On the screen of the 365 tracking TV camera monitor we detected the image of the left side street tree reflected on the tracking TV camera monitor attached to the 1014 self-driving vehicle.
  • 224 Select 1017 maximum avoidance driving area C of D on 363 tracking TV camera monitor analyzed by 1016 image analyzer F to avoid collision with 731 oncoming vehicles or 735 street trees analyzed by image analyzer do.
  • Example Fig. 62 Accident avoidance data for the 309 tracking driving system was acquired.
  • the 308 tracking driving system driving vehicle installed with the tracking TV camera distance measurement system was installed on the 791 autonomous vehicle. run at the specified speed.
  • the image of the object to be avoided on the 1018 fixed TV camera monitor screen was detected on the 125 fixed TV camera monitor screen B taken by the 1 fixed TV camera of the 309 tracking driving system.
  • 125 In the direction of the position of the image that detected the image on the fixed TV camera monitor screen B, point the 3 tracking laser rangefinder in that direction, measure the distance to the subject, and measure the distance to the image according to the measured distance.
  • Adjust the angle and focal length, and on the 365 tracking TV camera monitor screen F recognize the image of the parent and child traveling in the opposing lane reflected on the tracking TV camera monitor attached to the 1022 self-driving vehicle.
  • the image of the advancing vehicle in the oncoming lane to be avoided on the 1020 fixed TV camera monitor screen is recognized.
  • 3 Point the tracking laser rangefinder in that direction and measure the distance to the advancing vehicle, according to the measured distance The angle of view and focal length are adjusted, and on the 364 tracking TV camera monitor screen F, the image of the oncoming vehicle that should be avoided traveling in the opposing lane reflected on the tracking TV camera monitor attached to the 1021 self-driving vehicle is recognized.
  • the 224 image analyzer identified 674 objects to avoid collisions, and the 1023 image analyzer A analyzed the images 687 tracking attached to the self-driving vehicle Set position 1027 evacuation zone on TV camera monitor screen A.
  • 1024 Image analysis by image analyzer B 674 Image analysis of the parent and child of the subject to avoid collision 361 Tracking TV camera Monitor screen B 1028 Restricted driving area is set and 739 Evacuation driving A avoidance driving do.
  • the 1021 tracking driving system recognizes the image of the advancing vehicle on the tracking TV camera monitor screen.
  • 1021 analyze the oncoming vehicle that should be avoided traveling in the opposing lane reflected on the tracking TV camera monitor attached to the automatic driving vehicle.
  • 1025 Avoidance driving in 740 evacuation driving B of maximum avoidance driving in 1029 avoidance driving area D on 362 tracking TV camera monitor screen C of 731 oncoming vehicle analyzed by image analyzer C.
  • the 1014 roadside tree on the left side reflected in the tracking TV camera monitor attached to the automatic driving vehicle 735 Newly added to avoid collision with the roadside tree Avoidance driving is performed by setting the maximum avoidance driving area.
  • 1021 By analyzing the oncoming vehicle that should be avoided traveling in the opposing lane reflected on the tracking TV camera monitor attached to the autonomous driving vehicle, 1026 image analysis by image analyzer D Set the maximum avoidance driving area E and perform avoidance driving of 741 evacuation driving C.
  • image analyzer D Set the maximum avoidance driving area E and perform avoidance driving of 741 evacuation driving C.
  • the street tree on the 125 fixed TV camera monitor screen was detected just to the left of the 1015 fixed TV camera monitor screen, so on the 92 tracking TV camera monitor screen, the 793 tracking driving system tracked.
  • the position of the roadside tree image recognized on the TV camera monitor screen is the development corresponding to the direction and position where the 308 tracking driving system vehicle changed the driving direction of 739, 740, 741 evacuation driving A, B, and C.
  • Example: Fig. 63 Accident avoidance data from the 309 tracking driving system was acquired.
  • the 308 tracking driving system equipped with the tracking TV camera distance measurement system was installed on the 791 autonomous vehicle. run at the specified speed. 1067 intersections photographed by the 1 fixed TV camera of the 309 tracking driving system were detected on the 5 fixed TV camera monitor screen, and the images of the intersections detected on the 1065 tracking driving system fixed TV camera monitor screen were detected.
  • Example Fig. 64 Accident avoidance data of the 309 tracking driving system was acquired.
  • the 308 tracking driving system driving vehicle installed with the tracking TV camera distance measurement system was installed on the 791 automatic driving car. run at the specified speed.
  • 1 fixed TV camera of the 309 tracking driving system captured the approaching vehicle just before 1031 approached from a distance.
  • On the 5 fixed TV camera monitor screen the image of the oncoming vehicle reflected on the fixed TV camera monitor attached to the 1033 autonomous vehicle.
  • 794 tracking driving system If the image on the 794 tracking driving system tracking TV camera monitor screen is recognized as an approaching oncoming vehicle, the 1043 self-driving vehicle is mounted on the tracking TV camera monitor. 1024 Image Analyzer B sets a restricted driving range to 1047 opposing lanes. 794 Tracking Driving System If the image on the 794 tracking TV camera monitor screen is recognized as an approaching oncoming vehicle, the 1044 self-driving vehicle's tracking TV camera monitor will show the position of the oncoming vehicle C in the driving range. The 1025 image analyzer C sets a prohibited driving range to the 1048 opposing lane.
  • the image analyzer D sets the restricted driving range of 1049 own lane.
  • the 794 tracking driving system recognizes the image on the tracking TV camera monitor screen, and the means of avoiding accidents with oncoming vehicles is adjusted according to the traveling position and speed of the oncoming vehicle on the 92 tracking TV camera monitor screen. Calculate the driving method.
  • Example Fig. 65 Accident avoidance data from the 309 tracking driving system was acquired.
  • the 308 tracking driving system driving vehicle equipped with the tracking TV camera distance measurement system was installed on the 791 autonomous vehicle. run at the specified speed. From 1081 driving position A, the image of the oncoming vehicle at 1085 approaching position A captured by the 1 fixed TV camera of the 309 tracking driving system is displayed on the 5 fixed TV camera monitor screen, and the distant image is reflected on the fixed TV camera monitor attached to the 1019 self-driving vehicle.
  • the approaching vehicle and the 823 tracking driving system detected the image on the fixed television camera monitor screen and detected the direction of travel median marking, and the 822 tracking driving system detected the image on the fixed television camera monitor screen and detected the left curbstone in the direction of travel.
  • Example 308 tracking driving system driving car installed with the tracking TV camera system that acquired the accident avoidance data of Fig. 66 installed the tracking TV camera system that acquired the accident avoidance data of the 309 tracking driving system 349 1 general Driving on a roadway at a speed with an upper limit set.
  • 766 tracking driving system Detects the image of the preceding vehicle within the shooting range of the fixed TV camera passing through the 349 1 general automobile road in the 310 traveling direction without any abnormalities.
  • 325, 326, 327, 328 tracking driving system which the preceding vehicle captured the driving images of each position of 314, 315, 317, 318 leading vehicles A, B, C, D, with one fixed TV camera of 309 tracking driving system 319 tracking driving system for preceding vehicles A, B, C, and D detected by image detection on the fixed TV camera monitor screen
  • each distance is measured with 3 tracking laser rangefinders
  • Tracking driving system The moving vehicle is running, and the continuously stored screen is displayed according to the direction taken by the 1 fixed TV camera and the driving distance, corresponding to the tracking driving position 320, 321, 322 , 323 Tracking driving system tracking TV camera monitor screens A, B, C, D, are expanded, 860 Tracking driving system tracking TV camera monitor screen The image recognized on the screen displayed on the calculation screen, 331 the rear of the preceding vehicle Recognize images and follow them.
  • a tracking driving system that tracks and runs follows the tracking distance and the tracking direction with the numerical values associated with the numerical control driving values of the tracking vehicle by the computation of the complementary method.
  • a display sign suitable for image recognition is used for tracked transportation vehicles and the like.
  • FIG. 67 shows the 308 tracking driving system driving car installed with the tracking TV camera system that acquired the accident avoidance data, and the 309 tracking driving system equipped with the tracking TV camera system that acquired the accident avoidance data for 3491 general vehicles. Drive on the road at the speed that the upper limit is set.
  • the image on the 803 tracking system fixed TV camera monitor screen detected the ahead vehicle, 805 tracking system fixed TV camera monitor Detect the image of the oncoming vehicle detected on the screen.
  • 319 tracking driving system Each image detected on the fixed TV camera monitor screen is measured by the 3 tracking laser rangefinder of the 309 tracking driving system, and the angle of view and focal length are adjusted according to the measured distance. Then, 360, 361, 632, 363 tracking TV camera monitor screen A shows the rear left of the vehicle ahead of the leading vehicle, B shows the rear right of the vehicle ahead of the leading vehicle, and C shows the leading vehicle. While driving on the curbstone on the left side of the rear of the traveling vehicle in D, the curbstone on the right side of the rear of the traveling vehicle in front is recognized by image recognition.
  • 364 tracking TV camera monitor screen E, 331 preceding vehicle behind the image is driven.
  • 314 Attached to the preceding vehicle A, 308 Tracking driving system Attaches the time to information related to driving acquired by the driving vehicle and transmits it to surrounding vehicles. Detects abnormalities in preceding vehicles and quickly switches to corresponding driving.
  • FIG. 68 shows the 308 tracking driving system running vehicle installed with the tracking TV camera system that acquired the accident avoidance data, and the 3491 general vehicle that installed the tracking TV camera system that acquired the accident avoidance data of the 309 tracking driving system. Drive on the road at the speed that the upper limit is set. 319 Tracking System fixed TV camera monitor screen, 765, 767, 764 fixed TV camera monitor screens captured by 309 Tracking System 1 fixed TV camera, image of sign tower, stone Buddha, street tree on the right side of the road to detect
  • Each image on the 319 tracking driving system fixed TV camera monitor screen is measured by the 3 tracking laser rangefinder of the 309 tracking driving system.
  • 360-tracking TV camera monitor screen A 768-tracking TV camera monitor screen on the right side of the street tree, 361-tracking TV camera monitor screen B, 771-tracking TV camera monitor screen on the left side of the recognized image Run as an image recognition of the unique position of the left stone Buddha image recognized on the 770 tracking TV camera monitor screen of the 362 tracking TV camera monitor screen C.
  • the position is stored in association with the running speed of the vehicle and the driving numerical value of the drive mechanism for the running operation of the vehicle.
  • Example Fig. 69 A car with a 308 tracking driving system equipped with a tracking video camera system that has acquired accident avoidance data is installed with a tracking video camera system that has acquired accident avoidance data from the 309 tracking driving system 349 1 Driving on a roadway at a speed with an upper limit set.
  • Each image detected on the 319 tracking driving system fixed TV camera monitor screen is measured by the 3 tracking laser rangefinder of the 309 tracking driving system.
  • 1059 tracking driving system of 360 tracking TV camera monitor screen A 1060 tracking driving of 361 tracking TV camera monitor screen B Left far curb on the system fixed TV camera monitor screen, 362 tracking TV camera monitor screen C 1061 tracking driving system Image calculated on the fixed TV camera monitor screen Curb on the right side of the curb and center It runs as line image recognition.
  • the vehicle of the 308 tracking driving system driving vehicle continues to run, and the image-recognised side curb and center line point is used to determine the position of the driving path. Then, calculate and confirm the distance between the curb, the center line, and the car of the 308 tracking driving system.
  • the curb on the left side, the center line, the curb on the right side, the measured road width, the position measured by GPS, and the heading in the direction of travel are displayed and stored under shared names. .
  • Figure 70 shows the 308 chasing driving system driving car installed with the tracking video camera system that acquired the passing data, and the 3491 general car that installed the tracking video camera system that acquired the passing data of the 309 chasing driving system. Drive on the road at the speed that the upper limit is set.
  • 309 tracking driving system 1 fixed TV camera shot 319 tracking driving system fixed TV camera monitor screen, 325 tracking driving system fixed TV camera monitor screen image detected leading vehicle A and far away 1019 self-driving vehicle It detects images of distant approaching vehicles on a fixed television camera monitor attached to the vehicle.
  • the detected image on the fixed TV camera monitor screen is the distance from the detected image in that direction with the 3 tracking laser rangefinder of the 309 tracking driving system and the traveling speed of the oncoming vehicle ahead in the 792 oncoming lane to measure Adjust the angle of view and focal length according to the measured distance, and recognize the image on the 769 tracking driving system tracking TV camera monitor screen on the 360 tracking TV camera monitor screen A in which the 80 tracking TV camera shot that direction.
  • the distance is measured at the image-recognized position of the left curb.
  • 361 Tracking TV camera monitor screen B Measure the distance at the position where the image of the ahead vehicle recognized on the 808 tracking driving system tracking TV camera monitor screen is recognized.
  • the distance is measured at the image-recognized position of the center lane image recognized on the 809 tracking driving system tracking TV camera monitor screen on the 362 tracking TV camera monitor screen C. Measure the distance at the position where the image of the oncoming vehicle recognized on the 807 tracking driving system tracking TV camera monitor screen is recognized on the 363 tracking TV camera monitor screen D. To confirm that the oncoming vehicle is far away, the distance is measured and confirmed from the image recognition position of the distant approaching vehicle reflected on the fixed TV camera monitor attached to the 1019 automatic driving vehicle. The 503 passing range is calculated and set on the composite screen with the 993 fixed TV camera monitor.
  • 360, 361, 362, 636 tracking TV camera monitor screens A, B, C, and D correspond to the 310 traveling direction of the 308 tracking driving system vehicle for each subject analyzed by image analysis, and the 308 tracking driving system vehicle It is developed before and after the running position in the three-dimensional space of the computer. It accelerates within the development range of the three-dimensional space using the overtaking driving data of the 309 tracking driving system, and overtakes the 318 preceding vehicle.
  • the driving numerical value of the 288 numerically controlled robot at the working position of the 289 robot is related to the direction and distance measured by the 3-tracking laser rangefinder that drives the working position of the 289 robot by numerical control.
  • 288 numerically controlled robot's drive numbers at all its work positions and its The relationship between the direction and distance measured by the 3-tracking laser distance measuring machine and the driving numerical value of the 3-tracking laser distance measuring machine is calculated and obtained by interpolation calculation or the like. Alternatively, it is obtained by simulation calculations related to some of the measured numerical values.
  • Multiple 3-tracking laser rangefinders measure distances to more accurately correlate the robot's 289 robot working positions.
  • the direction, the angle of view, the focal length, etc. of the 289 robot working position on the screen captured by the 80-tracking TV camera are displayed in the center of the 92-tracking TV camera monitor screen. to shoot.
  • the driving values of the numerically controlled 80-tracking television camera, its photographed images and focal lengths, the operational values of the 7 operator consoles that manipulated the 289 robot working positions of the 288 numerically controlled robot, and the driving values of the 288 numerically controlled robot. and 177 can be positioned as a robot workspace.
  • the measurement light of the tracking laser distance measuring machine is irradiated to the working position of the 289 robot, reflected in the center of the 92 tracking TV camera monitor screen, and the 1069 tracking TV camera monitor at the same position as the working position on the 295 tracking TV camera monitor screen. 7 Operate the operation console so that it is reflected in the laser beam irradiation position on the screen.
  • the 289 robot work position of the 288 numerical control robot By projecting the laser beam irradiation on the work position on the 295 tracking TV camera monitor screen, the 289 robot work position of the 288 numerical control robot, its driving value of the 288 numerical control robot, its measured distance, and its measurement direction , the driving numerical value of the 3-tracking laser rangefinder, the driving numerical value of the 80-tracking television camera, and the captured image can be associated.
  • the driving numerical value of the 3-tracking laser rangefinder the driving numerical value of the 80-tracking television camera, and the captured image
  • At its 289 robot working position of some 288 numerically controlled robots At its 289 robot working position of some 288 numerically controlled robots, some driving values of the 288 numerically controlled robots, some of its measured distances and some of its measured directions, and three tracking of numerically controlled robots.
  • Example The 289 robot workplace positions of the 288 numerically controlled robots in Fig. 74 are photographed by the 1 fixed TV camera, and the positions corresponding to the working positions on the 293 fixed TV camera monitor screen shown on the 5 fixed TV camera monitor screen are tracked by 3. Measure the distance of the 289 robot working position by pointing the laser rangefinder. Adjusting the angle of view and focal length corresponding to the measured distance, the 80-tracking TV camera is operated to shoot, and the 92-tracking TV camera monitor screen displays the image at the 289-robot working position. Similar operations are performed at several different 289 robot working positions of the 288 numerically controlled robot with seven connected consoles.
  • the 289 robot working position of the 288 numerical control robot the position where the 289 robot working position is shown on the 5 fixed TV camera monitor screen, the driving value of the drive mechanism that drove the 288 numerical control robot to the working position, and the 289 robot
  • the driving numerical value of the driving mechanism of the tracking TV camera and the driving numerical value of the driving mechanism of the 80 tracking TV camera which matched the angle of view and the focal length of the 80 tracking TV camera, and the driving value of the driving mechanism of the 80 tracking TV camera and the image recognition of the 80 tracking TV camera.
  • All of the images and the positions on the 92-tracking TV camera monitor screen are associated with the positions on the 5-fixed TV camera monitor screen, and the driving numerical values are obtained by performing calculations by methods such as interpolation.
  • the driving numerical value, measurement distance and direction of the drive mechanism are linked to all the positions of the 92 tracking TV camera monitor screen and the positions of the recognized objects etc. can be manipulated.
  • Example Measure 145 pixels by adjusting the focal length in Fig. 75 Measure 143 pixels captured by the TV camera rangefinder Measure 144 pixels on the monitor screen of the TV camera rangefinder Monitor screen Position of robot work on the monitor screen
  • the 107 LED light-emitting element of the 1090 LED light-emitting element unit at the same position of the 142 image element of the 1089 image element unit on which the 143 image element measurement TV camera measurement rangefinder monitor screen that detects the image is emitted, and the 289 robot working position of the subject
  • the reflected light is received by the 1091 light receiver, and the phase difference of the reflected light is used to measure the distance to the working position of the 289 robot.
  • the measured distance, the position of some 142 image elements detected by the 145-pixel measurement TV camera distance measuring device, and the position of the 107 LED light-emitting element at the same position, and the 145-pixel measurement TV camera distance At all positions on the 143-pixel measuring TV camera rangefinder monitor screen of the 143-pixel measuring TV camera rangefinder monitor screen of the measuring instrument, 288 numerical control robot's 289 robot working positions
  • the driving numerical value and the numerical value of the position measured by the 145-pixel measuring television camera distance measuring device are calculated and obtained by interpolation method or the like. By sharing the obtained numerical values, the associated device, the image-recognized subject or the like appearing at the position, and the position can be associated with each other and operated.
  • Example In Fig. 77 the image of the worker on the 110 fixed TV camera monitor screen captured by the 1 fixed TV camera on the 5 fixed TV camera monitor screen is detected, and 3 tracking lasers are sent in the direction corresponding to the position on the screen Point the distance measuring device and measure the distance to 108 workers. According to the measured distance, the angle of view and focal length are followed, and the image of the 108 workers at the position shown on the monitor screen of the tracking TV camera taken with the 80 tracking TV camera is recognized. Detect the working position on the 293 fixed TV camera monitor screen captured by the fixed TV camera or the 5 fixed TV camera monitor screen, and move the 3 tracking laser rangefinder in the direction corresponding to the position on the screen. Aim and measure the distance to the 289 robot working position.
  • the 292 tracking TV camera monitor at the position shown on the screen where the range of the 112 tracking TV camera monitor screen shot with the 80 tracking TV camera and the range of the CG screen are synthesized. Image recognition of the work position on the work screen.
  • the working range of the 289 robot working positions of the 288 numerically controlled robots is calculated and displayed as a 1093 CG work composition screen on the 5 fixed TV camera monitor screen. 5 By displaying the measured 108 workers on the fixed TV camera monitor screen, if the 289 robot work position, which was also measured, approaches the 108 worker, will the 289 robot work position move away? Stop.
  • the calculated 1093 CG work composite screen and the screen shot with the 80 tracking TV camera are superimposed on the 112 tracking TV camera monitor screen, and the 1093 CG work composite screen is superimposed on the screen range, and the 290 tracking TV camera shot Image recognition of the work position on the screen.
  • the range of the 112 tracking TV camera monitor screen is combined with the range of the 1093 CG work composition screen, and on the screen, the robot work area of the 111 tracking TV camera monitor screen is captured by the 80 tracking TV camera, and the approach of the worker is imaged on the screen. Recognize and work by changing the 289 robot working position of the 288 numerical control robot.
  • the 289 robot working positions of the 288 numerically controlled robots are filmed by an 80 tracking television camera at a wide angle.
  • the work on the 127 tracking TV camera monitor screen at the 289 robot working positions of the 288 numerical control robot reflected on the monitor screen shot at a wide angle by the 129 tracking TV camera was detected by the 224 image analyzer, and was detected on the 127 tracking TV camera monitor screen.
  • the measured distance is shown on the monitor screen taken with the wide-angle of the 129 tracking TV camera and the monitor screen taken with the narrow angle of the 130 tracking TV camera.
  • the work of 288 numerically controlled robots at 289 robot working positions on the monitor screen photographed by the 80 tracking TV camera and the narrow angle of the 130 tracking TV camera Detected by 224 image analyzer, 289 robot working position on the screen of the working position on the screen of the 128 tracking TV camera monitor screen on the monitor screen photographed at the narrow angle of the 130 tracking TV camera.
  • the measured distance is displayed on the screen of the working position on the 128 tracking TV camera monitor screen, and the displayed distance on the 77 tracking TV camera monitor screen.
  • the operation of the working position on the 128 tracking TV camera monitor screen of the monitor screen shot at the narrow angle of the 130 tracking TV camera is operated by the 7 operation console using the numerical value of the display distance on the 77 tracking TV camera monitor screen.
  • the direction corresponding to the pixel position of the work position shown on the 185-pixel tracking TV camera monitor screen is measured by a 145-pixel TV camera distance measuring device, and the work shown on the 185-pixel tracking TV camera monitor screen
  • the 107 LED light-emitting element corresponding to the position emits light, and the reflected light from the subject that detected the image is received by the 157 light receiver, the phase difference is measured, and the distance is calculated.
  • Example In Figure 81 the 1076 robot working position of the 288 numerically controlled robot is shown on the screen captured by the 121 fixed television camera. 1076 robot work position A of the drive mechanism. The 1077 robot working position of the 288 numerical control robot is shown on the screen shot by the 122 fixed television camera, the operation of the position of the 528 numerical drive mechanism B on the screen of the 125 fixed television camera monitor, the 1077 of the drive mechanism of the 288 numerical control robot Work at robot work position B. The 1078 robot working positions of the 288 numerically controlled robots were photographed by the 123 fixed television camera through the 668 Internet network, and the position of the 529 numerical drive mechanism C on the 126 fixed television camera monitor screen C was manipulated by 288 numerical values. Work 1078 robot work position C of the drive mechanism of the control robot.
  • Example One fixed television camera captures the working range of 119 robots out of 288 numerically controlled robots in Figure 82. 5 Detect a shape object on the monitor screen of a fixed TV camera, and measure the distance in the direction corresponding to the position where the shape object is detected with a 3 tracking laser rangefinder. Adjusting the angle of view and focal length corresponding to the measured distance, the image of the shape position on the work screen of the 338 tracking TV camera monitor on the monitor screen shot at the wide angle of the 129 tracking TV camera shot by the 80 tracking TV camera. to image analysis.
  • the angle of view captured by the 80-tracking TV camera is narrowed, and the image of the bar code position on the 312-tracking TV camera monitor work screen is image-recognized on the monitor screen shot at the narrow angle of the 130-tracking TV camera.
  • the numerical control TV camera attached to the 299 robot attached to the 289 robot working position of the 288 numerical control robot is moved to the position of the 311 image information display recognized by the image, and the focal length is adjusted to the measured distance, and the 311 image is displayed.
  • the information display is photographed, the image information is read by the 344 information analyzer, and the 339 image information display on the TV camera monitor screen attached to the 336 robot is decoded.
  • the position of the assumed 3D object is the position where the distance can be measured by the 3-tracking laser rangefinder.
  • the working position of the 3D molding machine of the working machine formed by the 398 robot of the 288 numerical control robot is a synthetic screen that operates two-dimensionally as the position of the 171 synthetic TV monitor screen.
  • the working range of 119 robots of 288 numerical control robots can be assumed in three-dimensional space by measuring the distance with 3 tracking laser rangefinders on the 2nd plane photographed by 1 fixed TV camera.
  • 399 This is a composite image of the image of the side of the 3D formation assumed by the computer and the image of the side of the 3D formation assumed by the computer.
  • the position of the 114 assumed 3D screen of the side image of the assumed 3D formation of the 399 computer is the position of the work machine formed by the 398 robot of the 288 numerical control robot, and is recognized as the position in 3D space CG screen position.
  • the position of the 3D screen assumed by 114 is tracked by the working position of the 3D molding machine of the work machine formed by 398 robots of 288 numerical control robots, and the position of the 3D space assumed by the computer is obtained. , 3D formations can be molded.
  • the 35 numerical control television camera is directed toward the 387 packing cardboard box for storing the subject whose image has been recognized, and the 37 numerical control television camera monitor screen is photographed.
  • 3 Measure the distance of the 387 packing cardboard with a tracking laser rangefinder and recognize the outer shape. The cardboard is measured, and priority is given to the object to be stored which has already been image-recognized, and the content of the image-recognized object to be stored in the cardboard of the measured object is calculated.
  • the storage position of the object to be stored selected by the calculation is displayed on the corrugated cardboard screen displayed on the numerical control television camera monitor screen 313.
  • the stored object is recognized on the 5 fixed TV camera monitor screen, and the stored object is used as the 289 robot work position of the 288 numerical control robot. You can do the work of storing the contents.
  • the 5 fixed TV camera monitor By associating the subject detected on the 5 fixed TV camera monitor screen with the 313 calculated placement position on the 387 stuffing cardboard screen displayed on the 37 numerical control TV camera monitor screen, the 5 fixed TV camera monitor By recognizing the object to be stored on the screen, the 289 robot working position of the 288 numerical control robot can be used to store the 387 packing cardboard boxes. At the position on the 5 fixed TV camera monitor screen of the 288 numerical control robot, the object to be stored that has been image-recognized is acquired, and the work position to be moved is displayed on the cardboard screen reflected on the 37 numerical control TV camera monitor screen. 313 Store in the calculated placement position.
  • the stored position is analyzed by image analysis with a 3-tracking laser rangefinder and an 80-tracking TV camera, and the stored position is measured and confirmed.
  • 37 numerical control television camera monitors filming the positions of cardboard boxes for packing on 391 fixed television camera monitor screens of 5 fixed television camera monitor screens showing 289 robot working positions of 288 numerical control robots with 35 numerical control television cameras
  • the storage method of the image-recognized shape around it is calculated according to the shape of the cardboard box, and it is stored in the cardboard box. It is something to do.
  • the working position of the 289 robot is taken as a known position, and the working position of the 246 robot is measured indirectly.
  • a 145-pixel measurement television camera rangefinder attached to 289 robot working positions of 288 numerically controlled robots is photographed by a fixed television camera.
  • the positions of the 145 image pixel measurement TV camera rangefinders attached to the working position on the 293 fixed TV camera monitor screen on the 5 fixed TV camera monitor screens were compared with those of the 243, 244, and 245 tracking laser rangefinders A, B, and C. Measure from 3 directions.
  • the distance between the working position on the measuring range monitor monitor screen and the working position of 289 robots in the working range of 119 robots from three directions is measured.
  • 289 robot working position can be a known position with high accuracy.
  • the 145-pixel television camera distance measuring device attached to the 289 robot working positions was photographed from different positions, and the 79-pixel working position of the robot was measured from three known directions by the 78-pixel television camera distance measuring device.
  • Example 445 welding robots and 446 support robots are installed in the work space of 193 storage racks in Fig. 88, and multiple 72 tracking TV camera distance measurement systems are collectively operated by 8 tracking controllers in the work space. .
  • the work space is measured in advance by two, and if necessary, more than one, 72-tracking television camera distance measurement system, and the image of the work space, including the drive mechanism of the robot that performs the work, is recognized.
  • the subject is comprehensively grasped by 8 tracking controllers.
  • the 5 fixed TV camera monitor screen shot by the 1 fixed TV camera points the 3 tracking laser rangefinder in the direction corresponding to the position where the image recognized is detected, and the detected image and the There is a screen shot by the 80 tracking TV camera after measuring the distance of , adjusting the angle of view and focal length to the measured distance.
  • the position of the image detected on the fixed TV camera monitor screen was measured by the 3 tracking laser rangefinder, the angle of view and focal length were adjusted according to the measured distance, and the 80 tracking TV camera shot.
  • 360 tracking TV camera monitor screen A 449 tracking TV camera monitor screen on workbench measurement
  • the measurement of the workbench on the monitor screen is the image recognized by the 80 tracking television camera and the image selected and confirmed by the 400 image adjuster.
  • 361, 362, 363, 364 Tracking TV camera monitor screens B, C, D, E are image-recognized screens, the position of the 447 workbench is measured, and image recognition is performed to determine if the shape is a known shape. .
  • the 446 support robot in Figure 89 is the 468 welding support machine, bringing 450 processing material A into the above work space, measuring 450 processing material A with the 3-tracking laser distance measuring device, and the image taken by the 80-tracking TV camera is checked by image recognition to see if it has the specified shape.
  • 360 tracking TV camera monitor screen A 453 tracking TV camera monitor screen in work space Workpiece A outline, 361, 362, 363, 364 tracking TV camera monitor screens B, C, D, E 547 tracking TV camera Check the shape and measure by inspecting processed material A on the monitor screen.
  • Example The 446 support robot in Fig. 90 is the 468 welding support machine, and the 450 processing material A is placed on the 447 workbench in the above work space at the position of the 360 tracking TV camera monitor screen A.
  • Example: 446 support robot in Figure 91 is 468 welding support machine, 451 processing material B is brought into the above work space, 451 processing material B is measured by 3 tracking laser distance measuring device, and image taken by 80 tracking TV camera is checked by image recognition to see if it has the specified shape.
  • 360 tracking TV camera monitor screen in workspace A 458 tracking TV camera monitor screen in working space Shape of workpiece B on 361, 362, 363, 364 tracking TV camera monitor screen B, C, D, Check the shape and measure with processed material B on the E 435 tracking TV camera monitor screen.
  • Example The 446 support robot in Fig. 92 is the 468 welding support machine, places the 451 processed material B on the 454 worktable in the above work space on the processed material A, and temporarily assembles the processed material B to the processed material A on the 459 workbench. . 3 Measured with a tracking laser rangefinder, and confirmed by image recognition whether the image taken by the 80 tracking TV camera is the prescribed shape or not.
  • a tracking laser rangefinder a tracking laser rangefinder
  • image recognition whether the image taken by the 80 tracking TV camera is the prescribed shape or not.
  • temporary assembly positions on 461 tracking TV camera monitor screen, 361, 362, 363, 364 tracking TV camera monitor screens B, C, D, and E 433 tracking TV cameras The shape of the position is confirmed and measured by the temporary assembly inspection on the monitor screen.
  • the 468 welding support machine of the 446 support robot supports the temporary assembly of the 451 processing material B and the 454 workbench processing material A, while the 445 welding robot supports the 459 workbench processing material A.
  • Point welding work on 474 tracking TV camera monitor screen in work space with 360 tracking TV camera monitor screen A, 463 tracking TV camera monitor screen of 361, 362, 363, 634 tracking TV camera monitor screen B, C, D, E Perform point welding while checking the shape and measuring at the point welding point above.
  • Example In Fig. 94, the 468 welding support machine of the 446 support robot and the 469 welding machine of the 445 welding robot are used to perform point welding and fix temporary assembly work for inspection and measurement.
  • processing inspection on 475 tracking TV camera monitor screen, 361, 362, 363, 364 tracking TV camera monitor screens B, C, D, E on 546 tracking TV camera monitor screen Shape confirmation and measurement are performed by point welding inspection.
  • the 468 welding support machine of the 446 support robot supports temporary assembly of 451 processing material B and 450 processing material A, while the 445 welding robot temporarily assembles processing material B to processing material A on the 459 workbench.
  • the assembly is welded with a 469 welding machine.
  • Welding work on the 476 tracking TV camera monitor screen in the work space on the 360 tracking TV camera monitor screen A, 361, 362, 363, 364 tracking TV camera monitor screens B, C, D, E on the 476 tracking TV camera monitor screen Check and measure the shape of the welding work.
  • Example In Fig. 96 the 468 welding support machine of the 446 support robot and the 469 welding machine of the 445 welding robot inspect and measure the completed welding. Inspection of welding on the 477 tracking TV camera monitor screen in the work space at 360 tracking TV camera monitor screen A, 477 tracking TV camera monitor screens at 361, 362, 363, 364 tail TV camera monitor screens B, C, D, and E Check the welding above, confirm the shape, and measure.
  • a TV camera or a tracking laser distance measuring device is attached to the support robot, and the position of the tracking laser distance measuring device is measured by the tracking laser distance measuring device of the above 72 tracking TV camera distance measurement system, and the position accuracy is measured. From an elevated position, defined inspection points on the finished work piece can be measured.
  • Example FIG. 99 is an explanatory diagram of welding work by the mobile robot.
  • the 72 tracking TV camera distance measurement system installed in the common 447 frame of the 473 welding work space, the image of the welding work space is confirmed each time, and the confirmed welding work space is measured.
  • Space 445 Welding Robot, 446 Support Robot Processing Machine, and 472 Movable Storage Rack with Multiple 72 Tracking Television Camera Distance Measurement Systems are moved to the space of the welding work where there are workpieces to be welded.
  • Multiple 72 tracking TV camera distance measurement systems, 445 welding robots and 446 support robot processing machines moved into the workspace are collectively operated by 8 tracking controllers.
  • the objects in the image of the work space are comprehensively grasped by 8 tracking controllers.
  • image recognition of the work space the position of the fixed TV camera monitor screen shot by 1 fixed TV camera is analyzed by image detection or image recognition, and the distance is measured by 3 tracking laser rangefinder. , Adjust the angle of view and focal length at that measurement distance, and recognize the image with the 80 tracking TV camera or the captured screen.
  • the position of the image detected on the 5 fixed TV camera monitor screen is measured by the 3 tracking laser rangefinder, the angle of view and focal length are adjusted according to the measured distance, and the 80 tracking TV camera shoots.
  • Workbench angle A Measure the shape and position of the 362 tracking TV camera monitor screen C.
  • On the 160 tracking TV camera monitor screen Measure the shape and position of workbench C, and measure the shape and position of workbench D on the 161-tracking television camera monitor screen of 364-tracking television camera monitor screen E.
  • the shape is the known image recognition shape of the 72-tracking television camera ranging system.
  • Welding work can be performed with the numerical value of the position measured from the workpiece measured from the movable stand, and the position developed from the different position measured from the workpiece.
  • the screen shot by 1 fixed TV camera installed in the factory yard is moved to the position measured by 3 tracking laser rangefinder 472 movable storage racks from the 289 robot working position shown on the 365 tracking TV camera monitor screen F.
  • 3. Perform welding work with the 445 welding robot and the 446 support robot processing machine at the distance measured by the tracking laser rangefinder. By driving the 472 movable storage rack with numerical control, a wide range of robot welding work is possible.
  • the angle of view and focal length of the 80-tracking TV camera are adjusted, and the reflective mirror for distance measurement reflected on the 92-tracking TV camera monitor screen and the 630-tracking TV camera monitor screen are image-recognized in advance. Then, drive the 80-tracking TV camera so that the image of the distance measurement reflection mirror appears in the center of the 92-tracking TV camera monitor screen, and again measure the distance to the 606 drone with the 167 laser rangefinder. do.
  • the measurement position at which the maximum amount of the reflected light to be measured is measured is taken as the distance from the distance-measuring reflecting mirror.
  • the 606 drone flying in the sky is photographed with the 80 tracking TV camera having a wide angle of view.
  • Take a picture of the reflective mirror for distance measurement reflected on the 92-tracking TV camera monitor screen and 630-tracking TV camera monitor screen recognize the image of the mirror, and recognize the image of the mirror on the 92-tracking TV camera monitor screen
  • the 80-tracking TV camera and the 3-tracking laser distance measuring machine are linked and driven so that the position is reflected in the center of the 92-tracking TV camera monitor screen set in advance.
  • the image recognition of the mirror attached to the drone was taken by the 80 tracking TV camera at the angle of view and focal length.
  • the distance of the mirror near the direction recognized by the 80-tracking TV camera is measured by the 3-tracking laser rangefinder, and the maximum value of the reflected light of the 3-tracking laser rangefinder is used as the measured distance.
  • Example In Figure 102 772, 773, 774 known measurement locations A, B, and C of the known positions on the ground and 790 unknown measurement locations of the tracking TV camera distance measurement system, fly over the sky with 80 tracking TV cameras. 42, 43, 44 Drones A, B, and C are tracked by the reflective mirror for distance measurement and photographed. Measure the distance from the drone's distance measurement reflection mirror.
  • the position with drone A is associated with 772, 773, 774 known measurement locations A, B, C and 790 unknown measurement location at the same time by measurement distance
  • the position with 43 drone B is associated with 722, 773, 774 known measurement location A , B, C, and 790 unknown measurement locations at the same time
  • the position of 44 drone C is associated with 772, 773, 774 known measurement locations A, B, C, and 790 unknown measurement locations at the same time, at the measurement distance.
  • the position of the 790 unknown measurement location can be the location of the known measurement location at the distance obtained.
  • the tracking TV camera distance measurement system of 790 unknown locations , 772, 773, 774 can be simultaneously associated with known measurement locations A, B, and C, and the location of 776 unknown measurement location can be the location of the known measurement location.
  • the location of the unknown location is related to the location of the known location.
  • Measured 45 drone positions in the sky 48, 49, 50, 51 Measured distances 1A, 1B, 1C, 1D from 776 Known distances from unknown measurement locations, measured 46 drone positions in the sky 52, 53, 54, 55 measured distances 2A, 2B, 2C, 2D from 776 unknown measurement locations, another distance was found, and another 47 drone positions were measured in the sky, 56, 57, 58, 59 measurements From the distances 3A, 3B, 3C, 3D further distances from the knowledge of 776 unknown measurement locations are known. By knowing the distance from 45, 46, and 47 Trons A, B, and C in the sky, the position of the 776 unknown measurement location can be known.
  • Known measurement locations A, B, C and 45, 46, 47 drone positions A, B, C flying above are known positions, 45, 46, 47 drone position A, By making known the distances of 776 unknown measurement locations from B and C, 776 unknown measurement locations can be calculated as known positions.
  • Example 772, 773, 774 in Fig. 104 Tracking measurement locations A, B, C From the position of the TV camera distance measurement system, tracking the distances to 42, 43, 44 drones A, B, C flying in the sky respectively measure at the same time. With distance measurements from known locations, 42, 43, 44 drones A, B, and C can be associated with known locations. 66, 67, 68 tracking TV camera distance measurement system A, B, C and 42, 43, 44 continuously measure the distance to each of the 42, 43, 44 drones A, B, and C, and the position on the road on which the 634 distance measurement vehicle travels is estimated. It travels and measures continuously while associating the measurement locations A, B, and C with the positions of the 789 tracking television camera distance measurement system.
  • a 167 laser rangefinder attached to an 80 tracking television camera measures the distance to 609 surfboard players. According to the measured distance, narrow the angle of view of the 80-tracking TV camera and adjust the focal length, and recognize the image of the 609 surfboard player on the 92-tracking TV camera monitor screen.
  • the 80 tracking TV camera at the measured distance will track and shoot the image recognition position in the center of the 92 tracking TV camera monitor screen.
  • the 102 image signal captured by the 80 tracking TV camera built into the 606 drone is transmitted by the 607 data transmitter/receiver, and received by the 608 data transmitter/receiver that has the operation function.
  • the driving signal to the 80-tracking TV camera and the driving signal for tracking the 80-tracking TV camera are transmitted by the 608 data transmitter/receiver and received by the 607 data transmitter/receiver of the 606 drone.
  • the 631-tracking TV camera enlarged by the 80-tracking TV camera with its angle of view and focal length adjusted according to the distance measured by the 35-tracking laser rangefinder.
  • the 631-tracking TV camera enlarged by the 80-tracking TV camera with its angle of view and focal length adjusted according to the distance measured by the 35-tracking laser rangefinder.
  • the 35-tracking laser rangefinder Take a picture of a surfboard player.
  • 35 Numerical control television camera image recognition 610 Numerical control television camera By continuing image recognition and tracking the surfboard player reflected on the monitor screen, 92 tracking television camera monitor screen so that it appears in the image recognition position in the center of the monitor screen. Then, the 80-degree tracking television camera is driven to track the shooting direction to shoot.
  • Example Fig. 107 80 tracking TV camera with visible light 167 laser rangefinder installed in 42 Drone A flying over the planned location and distance measurement location taken at a wide angle.
  • a 167 laser range finder attached to an 80 tracking television camera, measures the distance to the known and distance-measuring destination. According to the measured distance, adjust the angle of view and focal length of the 80-degree tracking TV camera to photograph the planned location and distance measurement.
  • the images are recorded on an image storage medium in association with the measured distance of the images from the 42 drone and their bearings and orientations.
  • 622 tracking TV camera monitor screen A 626 tracking TV camera monitor screen A known measurement location A and 619 tracking TV camera monitor Measure the distance from 611 known measurement location A on the ground corresponding to the position of the emitted distance measurement laser beam A reflected on the screen to the position of the distance measurement laser beam irradiated near 615 known measurement location A on the ground.
  • the distance measurement laser beam irradiated near the planned measurement location 614 , and the location of the known measurement location are associated by actual measurement.
  • 505 measurement location is associated with its known measurement locations 611, 612, 613 location-aware measurement locations A, B, C; By performing similar measurements with 42, 43, and 44 drones A, B, and C flying over different known positions, the measurement accuracy of the 505 planned measurement location can be improved.
  • the tracking function by the image recognition of the 80-tracking TV camera Actual measurement of the position of the distance measuring laser beam can be omitted.
  • the 784 distance measurement D measured by the tracking television camera distance measurement system attached to the running 636 distance measurement vehicle is the planned measurement distance while the 634 distance measurement vehicle is running.
  • the position of the 606 drone in the sky above it is calculated from the measured distance, shooting direction, and azimuth from the 93, 94, and 95 tracking laser range measurement base points A, B, and C of each 633 tracking laser range measurement system.
  • the 634 ranging vehicle continuously measured the position of the 609 drones in flight from the 99 tracking laser ranging reference points, the 784 ranging D and 65 tracking TV cameras ranging system's 80 tracking TV cameras and 3 With a tracking laser distance measuring device, it calculates the numerical value of the shooting direction and direction, measures the position during running, and runs.
  • the direction of the subject detected by 1 fixed TV camera around the driving road was measured with the 166 mirror tracking laser rangefinder.
  • image recognition of the image taken by the 168 mirror tracking TV camera with the angle of view and focal length corresponding to the measured distance, and the detected image and the recognized object, the distance to the object, the measurement direction and the bearing. is calculated from the numerical value of the distance from the known position while the 634 distance measuring car is running, and the position of the subject recognized by the image detection by the fixed TV camera is measured as the known position. be.
  • the positions of some measured and image-recognized objects are stored as absolute position information, transmitted by the 607 data transmitter/receiver, stored as absolute position information, and shared.
  • Embodiment A plurality of 42, 43, 44 drones A, B that fly above the locations of the plurality of known absolute positions 93, 94, 95 tracking laser distance measurement base points A, B, C described above in Fig. 109 , and C at the same time, and take each drone as a known position.
  • Tracking TV camera distance measurement system 66, 67, 68 Tracking TV camera distance measurement system A, B, C, respectively 44, 43, 42 Drones C, B, C 59, 55, 51 measurement distance Run while measuring 3D, 2D, 1D. 42, 43, 44 It is to measure the position of the 634 distance measurement car in motion with the numerical value of the distance to the drones A, B, and C.
  • the position of the 634 distance measurement vehicle is constantly measured while it is running, and the position is known.
  • 637, 638, 639, 640, 641, 642, which is the position shown on the 180 mirror tracking TV camera monitor screen where the image was recognized 644 on the left side of the road at the position of the sign tower shown on the monitor screen
  • the position of the 634 distance measurement vehicle can be identified as an absolute position by measuring distances in 3 directions from the position of the 634 distance measurement vehicle while traveling, further distance measurement in 3 directions from that position.
  • the position of each image-recognized image can be specified as an absolute position knowledge.
  • the position of the specified image is the position measured from the 93, 94, 95 tracking laser distance measurement base points A, B, and C with the known absolute azimuth and the direction of travel of the vehicle.
  • the sign tower on the left side of Road 644, the front corner of the left intersection of Road 495, the back corner of the left intersection of Road 496, the center lane of 802, the back corner of the right intersection of Road 497, and the front corner of the right intersection of Road 498 are absolute. This is the azimuth position. Therefore, this measured absolute azimuth position can be shared, stored as absolute position information, transmitted by the 607 data transceiver, stored as absolute position information, and shared. By measuring the known absolute position information on the side of the road with all 634 distance measurement vehicles and storing the new absolute position information on the side of the road as an addition, all data using the new absolute position information 634 distance measurement car can run with new absolute position information.
  • the 607 data transmitter/receiver built into the 606 drone and the 607 data transmitter/receiver built into the 633 tracking laser rangefinder system are connected by the 608 data transmitter/receiver signal.
  • 35 numerically controlled television cameras and 80 tracking television cameras equipped with 167 laser rangefinders which are built into the 606 drone, the angle of view of the 35 numerically controlled television cameras is widened in order to photograph the running vehicle that we want to measure.
  • 37 Expand the shooting range of the numerical control TV camera monitor screen.
  • 37 Manually operate so that the running vehicle to be measured is displayed on the monitor screen of the numerical control TV camera.
  • the numerical control television camera monitor screen shows the running vehicle to be measured on the 70 numerical control television camera monitor screen. Adjust the angle of view.
  • the moving vehicle to be measured is 69, and the image is 37 Numerical control TV camera Monitor screen 71 Numerical control TV camera Monitor screen 35 Numerical control TV camera so that the magnified running vehicle to be measured on the monitor screen is shown in the center track.
  • 80 tracking TV cameras with 167 laser rangefinders are driven according to the driving numerical values to track 35 numerically controlled TV cameras.
  • a 606 drone and a running A 167 laser distance measuring device measures the distance to the running vehicle that you want to measure in 86. Adjust the angle of view and focal length of the 80-tracking TV camera according to the measured distance so that the image recognized by the 80-tracking TV camera is centered on the 92-tracking TV camera monitor screen.
  • Example 1 The shooting range of the 2 fixed TV cameras in FIG. The position is tracked and photographed by the 80-tracking TV camera attached to the 167 laser rangefinder, and the 80-tracking TV camera tracks and shoots the measured distance measured by the 167 laser rangefinder, adjusting the angle of view and focal length. The object is tracked and photographed in the same way, and the image of the subject is confirmed on the 226 image analysis television camera monitor screen, and the image analyzed by the 227 image is displayed.
  • the photographing range of the 80-tracking television camera is searched by multiple 166-mirror tracking laser rangefinders, and a distance different from the normal distance of the range-measuring laser is searched.
  • the object is detected by the reflected light and the distance is measured.
  • the angle of view of the 80-degree tracking television camera is narrowed in the direction in which the object is detected, the focal length is adjusted according to the measured distance, the sensitivity is increased, and the 92-degree tracking television camera monitor screen is photographed. Information of an individual's image is acquired and stored from the tracked and photographed image.
  • the angle of view and focal length of the 80-degree tracking television camera are adjusted according to the measured distance in the direction in which the object is detected, and the 92-degree tracking television camera monitor screen is photographed.
  • the captured images are analyzed for image matching at another location via the 668 internet network.
  • Example In Figure 115 the 2 fixed TV camera shooting range is projected onto the screen shot by the 1 fixed TV camera, and the image detected on the 5 fixed TV camera monitor screen is sent to 282 via the 668 internet network. 277, 278, 279, 280, 281 on the 282 fixed TV camera monitor screen via the Internet, 167
  • An 80-tracking TV camera with a laser rangefinder is used to track and shoot, and the 80-tracking TV camera captures the distance measured by the 167 laser rangefinder, matching the angle of view and focal length to track and shoot.
  • the captured images are stored in the 287 image storage medium through the 668 Internet network, and the 360, 361, 362, 363, and 364 tracking television camera monitor screens A, B, C, D, and E are stored.
  • Images from different regions are matched with images stored in 287 image storage media via the 668 Internet network.
  • Numerical values are associated with positions on the five fixed television camera monitor screens.
  • the operation on the monitor screen of any of the tracking television cameras described above is associated with the operation of each tracking television camera from a different direction with the numerical value of each tracking television camera that is associated with the operation. It is intended to shoot.
  • 360, 361, 362 tracking Television camera monitor screens A, B, and C are set in advance for shooting methods suitable for image recognition. Take a picture with a TV camera. Photographing information is added to the photographed image, and stored in numerical values that can be classified.
  • each 166 mirror tracking laser rangefinder From the position of each 166 mirror tracking laser rangefinder, measure the distance to 170 objects, and according to the measured distance, each 575, 756, 757, 758 pixel tracking TV camera, image element A, B, C 594, 595, 596, 597 pixel tracking TV camera monitor pixel tracking screens of 170 subjects, and A, B, and C image elements tracking screens by narrowing the range of and adjusting the focal length to that measurement distance.
  • a 575, 576, 577, 578-pixel tracking television camera system, A, B, or C detects images of 170 subjects, and can capture images that can be recognized on multiple screens.
  • the distance can be measured simultaneously, so image recognition can be instantaneous.
  • Example An image of a subject with the information position on the 341 fixed television camera monitor screen is detected on the screen of the 5 fixed television camera monitor, in which the 1 fixed television camera in FIG.
  • Point the 442 numerical control barcode reader laser rangefinder which has the function of distance measurement and barcode reading, in the direction corresponding to the position detected in the image, measure the distance to the subject, and measure the subject.
  • the distance irradiate the reader light at the scanning speed of the barcode reader laser light of the 442 barcode reader laser rangefinder.
  • 440 Acquire the barcode written on the subject with a laser beam that matches the distance of the barcode marking position.
  • Aim the rangefinder and measure the distance to the subject, and the 80-degree tracking TV camera takes another picture at the angle of view and focal length corresponding to the measured distance, and recognizes the image that detected the subject.
  • the 80-tracking TV camera is driven so that the image captured by the 80-tracking TV camera and image-recognized appears in the center of the 92-tracking TV camera monitor screen.
  • the 439 barcode reader reading range in Figure 120 is replaced by a 442 numerically controlled barcode reader laser distance measuring machine that has a distance measurement function and barcode reading function, and a TV camera device that has a 575 pixel tracking TV camera function. set up. Set the 575-pixel tracking TV camera to a wide-angle, point the 442 bar code reader laser rangefinder to the position of the image where the subject is detected on the 579-pixel tracking TV camera monitor screen, and measure the distance to the subject. , the 575-pixel tracking TV camera captures again with the angle of view and focal length of pixels corresponding to the measured distance, and the image of the detected subject on the 579-pixel tracking TV camera monitor screen is image-recognized.
  • the shape is photographed from that direction at the corresponding angle of view and focal length, each image is analyzed, and the image is recognized. From the image recognized image, 443 barcode notation shape is image recognized, 353 tracking barcode reader is aimed at the 440 barcode notation position, and 369 barcode is displayed according to the scanning speed of the distance corresponding to that position read.
  • the image-recognized shape is weighed with a 777 weighing machine.
  • 1 fixed TV camera 370 fixed TV camera
  • the image of the position to detect the shape of the image on the monitor screen and 355, 356, 357, 358, 359 tracking TV cameras A, B, C, D, E are taken
  • the images of 360, 361, 362, 363, 364 tracking TV camera monitor screens A, B, C, D, and E, and the 778 weight measurement data measured by the 777 weight measurement machine are displayed in 369 barcodes. is attached to the read numerical information and stored in the 367 data and the image storage medium.
  • Example A 3-tracking laser rangefinder and an 80-tracking TV camera were aimed at the position of the subject labeled with information data detected on the 1-fixed TV camera monitor screen in Figure 122, and the 3-tracking laser rangefinder measured At the angle of view and focal length corresponding to the distance, the 368 object information data of the object with the information data notation is photographed with an 80 tracking TV camera and image recognition is performed.
  • a 35 numerically controlled television camera was attached to the working position of the 288 numerically controlled robot, and the subject recognized by the 80 tracking television camera was driven to a position where it could be decoded as measured by a 3 tracking laser rangefinder, and 368 with the 35 numerically controlled television camera. Decode the subject information data.
  • the image of the subject captured by the 80 tracking television camera is compared with the acquired decoded information data.
  • 368 object information data is photographed and the information data is decoded.
  • the information data to be decoded can also be object information data such as other bar codes.
  • the notation information of the 368 object information data notation shape includes the image detected position on the 1 fixed TV camera monitor screen, the image recognized image taken by the 80 tracking TV camera, the measured position, and the 228 numerical control robot Associate with a driving numeric value.
  • Example In Fig. 123 an image of the indicator held by the worker that indicates the work location of the 372 robot held by the subject worker reflected on the 81 fixed TV camera monitor screen on the 5 fixed TV camera monitor screen shot by the 1 fixed TV camera
  • the tracking laser rangefinder attached to the 374 robot and the numerically controlled television camera attached to the 299 robot are driven to the position corresponding to the detected position.
  • the tracking laser rangefinder attached to the 374 robot measures the distance from the indicator held by the worker who indicates the work location of the 372 robot, and the angle of view and focal length corresponding to the measured distance are attached to the 299 robot.
  • the numerical control TV camera captures the work location of the 372 robots, and the 22 robots work according to the image recognition of the processed product held by the worker.
  • 299 numerically controlled television cameras are installed to drive the working positions of 288 numerically controlled robots.
  • a tracking laser distance measuring device attached to a 374 robot measures the distance to a position indicated by a 190 worker, and the angle of view and focal length corresponding to the measured distance is captured by a 299 numerically controlled television camera attached to a 191 robot. 22 robots out of 288 numerical control robots work by recognizing the position indicated by the TV camera monitor screen and analyzing the contents of the image recognition.
  • 599 small aircraft in landing preparation display the difference from the image, 1.
  • the distance measured by the tracking laser rangefinder, and the 80 tracking TV corresponding to the measured distance It is the driving number that the camera shoots and the position that appears on the 92 tracking TV camera monitor screen.
  • the flight direction of the 599 landing attitude small aircraft is corrected.
  • Its 599 landing-ready small aircraft are drive-steered, its 80-tracking televisions are used to correct the drive values of the drive mechanism, and to match its image and display of differences with its previously acquired images.
  • the driving numerical value captured by the camera is expanded and displayed in the direction of the driving numerical value that matches the driving numerical value acquired in advance, and the driving mechanism of the 599 small aircraft in the landing preparation is operated. Modify the driving numbers.
  • Example in Figure 126 as a support image when the 599 small aircraft in landing readiness land on runway 600 of a small airport, the 599 small aircraft in landing readiness land on runway 600 and the 699 landing readiness of small aircraft on the ground where a 635 tracking television camera laser rangefinder system is installed on the side of the runway.
  • 635 Tracking TV Camera Detects the image of a small aircraft in a gliding and landing posture on the 601 fixed TV camera monitor screen on the 5 fixed TV camera monitor screen taken by the 1 fixed TV camera of the laser distance measurement system, and corresponds to the detected position.
  • the 80-tracking TV camera and 3-tracking laser rangefinder in the direction of the target measure the distance to the 599 small aircraft ready for landing, and shoot with the 80-tracking TV camera at the angle of view and focal length corresponding to that distance.
  • Image recognition is performed on the image on the monitor screen of the 92-tracking TV camera.
  • the image of the landing attitude of the small aircraft in the gliding and landing attitude shown on the monitor screen of the tracking television camera is compared with the image of a similar landing attitude obtained by image recognition in advance.
  • the 80-tracking TV camera which captured the image of the same landing posture that was acquired by recognizing the driving numerical value taken by the 80-tracking TV camera and the distance position measured by the 3-tracking laser rangefinder in advance, was taken.
  • Drive and steer 599 small aircraft ready for landing which is linked to the position of the screen shot by the fixed television camera, so that the driving value and the position of the distance measured by the 3-tracking laser rangefinder are related.
  • the drive numbers for that drive mechanism are sent to the 599 landing-ready small aircraft to correct drive maneuvers.
  • Example in Figure 127 as a support image when the 599 small aircraft in the landing readiness land on the 600 runway of a small airport, the 599 small aircraft in the landing readiness to land on the 600 runway and the 699 landing readiness of small aircraft from the ground where a 635 tracking television camera laser rangefinder system is installed at the end of the runway.
  • 635 Tracking TV Camera Detects the image of a small aircraft in a gliding and landing posture on the 601 fixed TV camera monitor screen on the 5 fixed TV camera monitor screen taken by the 1 fixed TV camera of the laser distance measurement system, and corresponds to the detected position.
  • the 80-tracking TV camera and 3-tracking laser distance measuring machine were pointed in the direction of the aircraft, and the distance to the 599 small aircraft in a landing posture was measured.
  • 92 Recognize the image on the monitor screen of the tracking TV camera.
  • 602 Tracking TV camera
  • the image of the landing posture of a small aircraft in a gliding landing posture reflected on the monitor screen is taken, and the driving value of the 80 tracking TV camera and the image recognition are acquired in advance.
  • Example 635 distance measurement tracking television camera distance measurement system 635 tracking television camera laser distance measurement system attached to the ship in Fig. 128 1 fixed television camera shoots, 5 fixed television camera At the position where the image is detected on the monitor screen Aim the 80-tracking TV camera and 3-tracking laser rangefinder in the corresponding direction, and adjust the angle of view, focal length, and illumination of the 80-tracking TV camera according to the distance measured by the 3-tracking laser rangefinder. and photograph the 401 vessel.
  • the ship photographed by the 80-tracking TV camera will track and photograph the image of the 401-ship so that the image of the 401-ship will appear in the center of the monitor screen of the 92-tracking TV-camera even when the own ship is moving and rocking.
  • 1 fixed TV camera shoots 5 fixed TV camera detects images of 401 ships on the monitor screen, 401 ships are displayed as they move and sway, so 80 tracking TV camera shooting direction, angle of view and focal length are subject to swaying
  • the driving mechanism of the 80 tracking TV camera is track corrected and displayed stably on the 92 tracking TV camera monitor screen and the position of the ship on the 375 tracking TV camera monitor screen. It is possible to display a screen that corrects the display position on the monitor screen for the periodic shaking of the own ship.
  • the 80-tracking TV camera takes a picture of the ship, making it possible to recognize the ship as an image.
  • the image of the ship on the monitor screen of the 375 tracking television camera is analyzed, and the image of the ship is recognized by comparing it with the already stored image of the ship.
  • the direction of travel of the 162 cruiser boat and the position of the own ship can be predicted, and 195 collisions on the 5 fixed TV camera monitor screen. If the predicted position is predicted, maneuver the collision avoidance of the vessel.
  • the image of the ship's position on the 375 tracking TV camera monitor screen of the 92 tracking TV camera monitor screen can be confirmed.
  • Example Fig. 130 A 401 ship advancing from behind one's own ship is detected on the screen captured by one fixed TV camera attached to the rear of one's own ship, and the direction corresponding to the position on the screen is converted to 35 numerical values.
  • a control television camera captures images and 37 numerical control television camera monitor screens detect images.
  • 37 Numerical control TV cameras Detected images on the monitor screen, 35 Numerical control TV cameras were driven, and 3 tracking laser rangefinders and 80 tracking TV cameras were aimed in the direction corresponding to the position on the screen, and 401 ships Measure the distance to
  • Image recognition of the detected image on the 92-tracking TV camera monitor screen taken by the 80-tracking TV camera at the angle of view and focal length corresponding to the measured distance is performed.
  • the image recognition of the ship is performed by comparing with the already acquired image recognition of the recognized ship.
  • the 37 numerical control television camera monitor screen shows the image of the 35 numerical control television camera photographing the rear of the ship, and the 80 tracking television camera photographs the position of the ship on the distance measurement monitor screen of the 135 numerical control television camera screen. Displayed on the 311 image information display as the ship progresses.
  • Tracking TV camera monitor screen showing several 416 short-range yachts identified by the image, Tracking TV camera monitor screen showing 417 long-distance container ships, Tracking TV showing long-distance container ships with 418 tracking image manipulation Based on the distance and image recognition information on the camera monitor screen, according to the need for attention, 416 Tracking TV camera monitor screen that shows a yacht at a short distance, 417 Tracking TV camera monitor screen that shows a container ship at a long distance Tracking Displayed as a TV camera monitor screen and a tracking TV camera monitor screen that shows a long-distance container ship that has been operated by 418 tracking. 311 image information is displayed on the 415, 416, 417, 418 tracking TV camera monitor screen and marine radar monitor screen, adding information identifying the image of the subject and the degree of caution.
  • Each image is image-analyzed, compared with already acquired image-recognized vessels, and the information of the vessels is grasped.
  • the composite screen of the fixed television camera monitor screen and the image adjustment screen is displayed with the driving numerical value of the tracking television camera of the ship that has recognized the image and the information of the ship.
  • the ship can be photographed by the tracking television camera at the position where it appears on the composite screen.
  • the ship can be photographed by the tracking television camera at the position on the subject boat on the tracking television camera monitor screen.
  • the direction and distance of each ship are continuously measured by the 635 tracking TV camera laser distance measurement system, and the simulated course of each ship is synthesized from the 410 fixed TV camera monitor screen and the image adjustment screen. display on the screen.
  • the angle of view and focal length are adjusted to the measured distance, the 35 numerically controlled TV camera is driven, and the 36 numerically controlled TV camera shooting range. of 34 baseball players.
  • 34 Adjust the angle of view, focal length, etc. according to the measured distance in order to grasp and correct the main points of the baseball player, in order to take clear images of the main points and images that show the details.
  • 563, 564, and 656 mirror-tracking television cameras A, B, and C photograph 34 baseball players in that direction. The distance to 34 baseball players was measured, and the angles of view and focal lengths of the 563, 564, and 565 mirror-tracking TV cameras A, B, and C were adjusted.
  • the baseball player's 39th, 40th, and 41th baseball player's bat position, grip position, and right foot position are indicated on the numerically controlled television camera monitor screen, and the 34th baseball player Drive 563, 564, 565, and 565 mirror-tracking TV cameras A, B, and C that shoot .
  • the main grasping and correcting points for photographing the 34 baseball players were to confirm the image position on the 37 numerical control television camera monitor screen in advance, and to check the position of the image on the 566, 567, 568 mirror tracking television camera screen. Images A, B, and C can be tracked and photographed.
  • Example 1 In order to grasp and correct the skating jump of 541 skaters in Figure 134, in order to grasp and correct the main points at the same time, in order to confirm in detail, the quick movements of the main points are tracked. It is taken with a television camera. To compare skating jumps on a wide skating rink, a 1079 tracking mirror television camera laser distance measurement system is installed at a location that can be installed on a wide skating rink. The places that can be installed in a wide skating rink are 541.
  • the 35 numerically controlled television camera is driven in the direction corresponding to the position on the 5 fixed television camera monitor screen, and the angle of view and focal length are adjusted to the measured distance, and the 35 numerically controlled television camera shoots 36 numerical values.
  • the 541 skater is photographed within the shooting range of the control television camera, and on the 37 numerical control television camera monitor screen, the 541 skater is indicated by the image indication position of the skater reflected on the 542 numerical control television camera monitor screen, and the 541 Drive 80 tracking television cameras filming the skaters.
  • the main points of understanding and correction for shooting the 541 skater are to check the image of the position of the skater's image indicated on the 542 numerical control TV camera monitor screen on the 37 numerical control TV camera monitor screen in advance.
  • 543, 544, and 545, the skating edge image, ice landing image, and pre-jump image of the skater reflected on the monitor screen of the tracking television camera can be photographed. Each image is delayed and displayed so that it can be confirmed at the same time.
  • 541 In order to grasp and correct the main points of the skater's skating jump, in order to take clear images of the main points and images that show the details, the shooting direction, movement position and angle of view of the 80 tracking TV camera and adjustment of the focal length, etc. are required. A skater can grasp the situation by seeing a clear image of the main part of the skate jump and a detailed image in a short time when the skater's skate jump remains.
  • Example 135 and Figure 37 In order to grasp and correct the movement of 530 soccer balls dribbling by 32 soccer players on the soccer practice field in Figure 135 and Figure 37, on the 5 fixed TV camera monitor screens shot by 1 fixed TV camera, Direct the 32 soccer players as subjects on the 33 fixed television camera monitor screen, point the 3 tracking laser rangefinder in the direction corresponding to the position on the 5 fixed television camera monitor screen, and measure the distance to the 32 soccer players to measure Using the measured distance and direction, 514, 515, and 516 tracking TV cameras A, B, and C narrow the angle of view and photograph 32 soccer players.
  • Tracking laser distance measurement 514, 515, and 516 tracking TV cameras A, B, and C narrow the angle of view from different directions with the direction, angle of view, and focal length corresponding to the measured distance. Track and shoot spikes.
  • B, C to track and shoot a 530 soccer ball.
  • the 535 numerically driven storage rack is aligned with the running of the soccer player, and the 567 mirror-tracking TV camera B on the 248 mirror-tracking TV camera 564 TV camera monitor screen Drive to maintain the position of the soccer ball and its measured distance and direction.
  • the 535 numerically driven storage racks are driven to track at equal distances and angles according to the running positions of the 32 soccer players. 563, 564, 656 566, 567, 768 taken with mirror-tracking TV cameras A, B, C
  • the soccer ball is tracked from different directions, and the 32 soccer players shoot the spikes of their kicking feet and shoot the movement of the kicked 530 soccer balls simultaneously.
  • the images and looking at the dribbling practice in detail without looking at the spikes of the foot that kicked the 530 soccer ball directly, I felt the sensation transmitted from the spike of the foot that kicked the 530 soccer ball.
  • the movement of the 530 soccer ball is confirmed with images, and dribbling practice and correction are performed.
  • Example 1 In order to grasp the movement of 530 soccer balls dribbling by 32 soccer players on the wide pitch of the soccer field shown in Fig. 137, multiple 72 tracking television camera distance measurement systems and multiple 92 Set up and drive a tracking TV camera monitor screen.
  • 72 tracking TV camera distance measurement system 32 soccer players shot by 1 fixed TV camera, 5 fixed TV camera monitor screen images, 531 fixed TV camera monitor screens, 3 tracking laser distance measurement 515 Tracking Television Camera B tracks and shoots 530 soccer ball with the direction, angle of view, and focal length of the position corresponding to the measured distance.
  • the 535 numerical drive storage rack is driven to keep the direction and distance according to the running of the soccer player, 514, 515, 516 Tracking TV cameras A, B, C 532, 533, 534 Tracking TV camera monitor screens marked on
  • the screen captured by tracking is displayed on multiple 92-tracking TV camera monitor screens right in front of the dribbling of 32 soccer players.
  • the 32 soccer players simultaneously compared images capturing the spikes of their kicking feet and images capturing the movement of the kicked 530 soccer balls during a continuous dribbling run in detail.
  • the stored image is analyzed to grasp the tendency of the player.
  • a screen shot of the pitch by associating the position of the 535 numerical drive storage rack and the drive value of the 535 numerical drive storage rack shown on the fixed TV camera monitor screen shot by the 1094 pitch fixed camera using the related method described above.
  • a 535 numerically driven storage rack can be driven to an indicated position above.
  • Example The 538 soccer ball projector in Fig. 138 is a numerically controlled projector for 32 soccer players to practice heading competitions. Posting the same with the same driving numbers, 32 soccer players practice heading. 32 soccer players are captured by a fixed TV camera, and 32 soccer players recognize 530 soccer balls in the image on the monitor screen of 5 fixed TV cameras. The direction corresponding to the measured distance is tracked and photographed with the 515 tracking TV camera B at the angle of view and focal length of the soccer ball.
  • the vicinity of the 32 soccer player's head is photographed in order to repeatedly practice the heading sensation of the playing head.
  • the feeling of repeated practice of the 32 soccer player's head hitting game is combined with the 530 soccer ball heading direction tracking screen and the soccer player's head hitting game tracking screen. was practiced by 32 soccer players in a way that they viewed multiple images simultaneously.
  • Example: A 538 soccer ball projector, multiple 72-tracking TV camera distance measurement systems, and multiple 92-tracking TV camera monitor screens are installed and driven on the 535 numerically driven storage rack in Figure 139.
  • 32 soccer players are tracked by a tracking TV camera.
  • the laser distance measurement system is designed to track the soccer ball on the 531 fixed TV camera monitor screens on the 5 fixed TV camera monitor screen shot by the 1 fixed TV camera in the direction in which the 32 soccer players are running. Measure the distance and direction with a 3-tracking laser rangefinder so that the position where the image is projected is measured, and the 535 numerical drive storage rack is driven in the same direction and the same distance.
  • the 538 soccer ball thrower built into the 535 numerically driven storage rack is used by 32 soccer players to practice heading competitions. Combined, 32 soccer players practice heading by throwing from the same direction and distance with the same drive value.
  • 535 Tracking TV camera built into the numerically driven storage rack Multiple 92 tracking TV camera monitor screens to display the screen shot by the laser distance measurement system, 532, 533, 534 Tracking TV camera monitor screens A, B, and C
  • the reflected soccer ball and the reference screen display are also displayed at the line of sight of the 32 soccer players just before they run.
  • the numerically controlled projection machine is projected for practice, and the 535 numerically driven storage rack and tracking are performed according to the projected ball.
  • a television camera laser distance measurement system is driven, and the projected ball is tracked and photographed by the 514 tracking television camera A, and the 515 and 516 tracking television cameras B and C are used to track and photograph the position of the 32 soccer player's heading.
  • 32 soccer players are trained to match the driving of the tracking television camera laser distance measurement system.
  • Tracking TV camera laser distance measurement system built into the 535 numerical drive storage rack and 535 numerical drive storage to grasp and correct the movement of the spike kicking the 530 soccer ball of the running direct kick of 32 soccer players
  • a 536 image transmitter/receiver that transmits images captured by the tracking television camera system on the rack and a 538 soccer ball projector that projects 530 soccer balls with the same driving numerical value are placed on the 535 numerically driven storage rack that is driven by numerical control. It has been incorporated.
  • the angle of view and the focal length are adjusted in the direction corresponding to the measured distance, and the 515 tracking television camera B tracks and captures the 530 soccer ball as the position of the image for image recognition.
  • 32 soccer players sent detailed images of their kicking foot spikes and detailed images of their kicked 530 soccer ball movements through 536 image transmitters and received 521 images.
  • you can feel the sensation of the foot kicking the 530 soccer ball without looking directly at the foot kicking the 530 soccer ball.
  • observe the movement of the 530 soccer ball repeat the running direct kick practice, and make corrections.
  • Example 1 of Fig. 141 shows the working range of 119 robots and 289 robot working positions of 288 numerically controlled robots photographed by one fixed television camera. reflected in The 5 fixed TV camera monitor screen 293 to operate the working position on the fixed TV camera monitor screen.
  • 80 tracking TV cameras and 3 tracking laser rangefinders are directed to the working position of the 289 robots via the 668 Internet network to measure the distance.
  • 3 80-tracking television cameras film the working positions of 289 robots with an angle of view and focal length equivalent to the distance measured by the tracking laser rangefinder.
  • the 102 image signals captured by the 80-tracking TV camera are projected through the 668 Internet network, and the screen work of the work position on the 295-tracking TV camera monitor screen is performed on the 92-tracking TV camera monitor screen.
  • 668 Internet network With its 14 operation position signals, through 668 Internet network, 288 numerical control robots work on 289 robot working positions. The operation of each working position can also be replaced by manual operation or programmed operation.
  • the driving position of the 3D forming machine on the 25 fixed TV camera monitor screens of the 288 numerically controlled robots projected on the 5 fixed TV camera monitor screens is operated.
  • the 3-tracking laser distance measuring machine is aimed at the 398 robot's 3D-formed work machine at the 289 robot work position via the 668 Internet network, and the distance is measured.
  • An 80-tracking TV camera takes pictures of 398 robots at 289 robots' working positions with a field angle and focal length corresponding to the distance measured by the 3-tracking laser rangefinder.
  • the working range of the 119 robots can be known by the position and image analysis of the image recognized by the 3-tracking laser rangefinder and the 80-tracking TV camera.
  • the position of the 398-robot's 3D forming working machine is image-recognized and the position of the 119-robot's working range is measured.
  • These image recognition and location information can also be received by 9 computers via the 668 Internet network.
  • the image of the 3D molded object assumed by 9 computers is projected onto the 92 tracking TV camera monitor screen, and the 3D formation assumed by the computer on the 27 tracking TV camera monitor screen. Display an image of an object on a synthetic screen.
  • 80 the two-dimensional screen position captured by the tracking TV camera and the side image screen assumed by the 554 computer representing the three-dimensional screen position.
  • the position on the 92 tracking TV camera monitor screen and the position of the side image assumed by the 554 computer are positions that can be known or measured as the position of the work range of the 119 robot, so 2 on the 92 tracking TV camera monitor screen 23 tracking numerically controlled 3D forming machines, 289 robot working positions, and 398 robot 3D forming work machines at the 3D screen position on the screen of the side image assumed by the 554 computer and the 3D screen position on the screen. 668 can be operated via the Internet network.
  • Embodiment A 667 theater stage is photographed by one fixed television camera in FIG. 143, and the 16 image signals are displayed on a five fixed television camera monitor screen via the 668 Internet network.
  • 5 fixed TV camera monitor screen, 666 Internet fixed TV camera monitor screen indication position, through 668 Internet network, 80 tracking TV cameras can be operated on the 5 fixed TV camera monitor screen.
  • 5 14 screen position signals operated on the fixed TV camera monitor screen are 11 drive signals corresponding to the positions operated via the 668 Internet network, 3 tracking laser rangefinders and 80 tracking TV cameras are aimed at the operated positions.
  • 3 tracking laser rangefinders measure the distance to the performer corresponding to the indicated position on the 666 Internet fixed TV camera monitor screen, and the angle of view and focal length corresponding to the measured distance, 80 tracking TV cameras Take a picture of the performer.
  • the image signals captured by the 80-tracking TV camera can be viewed on the screen of the 92-tracking TV camera monitor screen via the 668 Internet network.
  • Each tracking laser distance measuring device measures the distance between the pointing position of the subject on the 666 Internet fixed TV camera monitor screen and the position of the performer corresponding to the subject recognized by the 522 fixed TV camera, and the measured distance 355 and 356 tracking TV cameras A and B shoot each performer at an angle of view and focal length equivalent to .
  • the image signals captured by the 355, 356 tracking TV cameras A and B are sent through the 668 Internet network to the 216 interfaces, 523, 524, 525, and 526 interfaces C, D, E, and F, and the 5 fixed TV camera monitor screens. Or, you can appreciate each on the 360, 361 tracking TV camera monitor screen A or B.
  • the driving position signal network and the 652 driving signal network through the 668 Internet network, the position of the instructions on the screen of multiple performers displayed on the 5 fixed TV camera monitor screens is selected through the 668 Internet network.
  • An 80-tracking television camera of the 646-tracking television camera system films the performer at an angle of view and focal length corresponding to the measured distance.
  • the captured image signals are viewed on the 92-tracking television camera monitor screen linked to the 5 fixed television camera monitor screens that indicated the performer via the 668 Internet network.
  • the cheers for the performers are picked up by 655 microphones and conveyed to the performers by 658 speakers installed on the 667 theater stage via the 668 Internet network.
  • 654 Tracking Television Camera System With a 646 tracking television camera system, a large number of individual spectators in the storage racks can view and applaud each performer on the 667 theater stage in their own way and convey cheers and cheering indications.
  • the camera image signal network, 653 drive position signal network and 652 drive signal network are projected onto a number of 5 fixed television camera monitor screens through a number of interfaces through a 668 Internet network.
  • a television camera and a large number of 3-tracking laser rangefinders are directed in directions corresponding to the positions of the instructions on the screen, and the large number of 3-tracking laser rangefinders measure the distance to the large number of performers. .
  • a large number of 80 tracking television cameras film the performer at angles of view and focal lengths corresponding to the large number of measurement distances.
  • a large number of the captured image signals are individually viewed on a large number of 92 tracking television camera monitor screens that direct the large number of performers via the 668 Internet network.
  • a large number of viewers can individually select and appreciate the performances of a large number of performers on the 667 theater stage.
  • Example: The 253 jazz live house in Figure 147 is equipped with a 167 laser distance measuring device, and the angle of view of the 355 tracking TV camera A is set to a wide angle, and all the jazz performers are photographed, and the photographed 361 tracking TV camera monitor screen 485, 486, 487, 488 tracking on the screen of each performer shown on B 167 laser rangefinder by indicating the position of the trombone player, piano player, trumpet player and bass player on the monitor screen to measure the direction and distance of the performer.
  • the measured performer is photographed on the optimum screen by adjusting the angle of view, focal length and photographing direction of the 355 tracking TV camera A.
  • the adjusted and photographed angle of view, focal length, and photographing direction drive values are stored in association with each performer.
  • 361 tracking TV camera monitor that 355 tracking TV camera A shoots using the driving numerical value photographed on the optimum screen, which is stored in association with each performer according to the situation of the jazz performance.
  • 485, 486, 487, and 488 trombone players, piano players, trumpet players, and bass players on screen B are tracked by 356 TV camera B.
  • 481, 482, 483, 484 trombone players, piano players, trumpet players, and bass players on the stage of 253 jazz live houses were filmed on their optimal screens of the 356 tracking television camera B, 490, 491, 492. , 493 Tracking TV camera A trombone player, a piano player, a trumpet player, and a bass player on the monitor screen are projected on the optimal screen of the tracking TV camera.
  • the 355 tracking TV camera monitors the images taken by the 356 tracking TV camera B that shoots the 490 trombone player, 491 piano player, 492 trumpet player, and 493 bass player.
  • the best performance is adjusted to the best shooting method and filmed.
  • Example: The 253 jazz live house in Figure 148 is captured by the 355 tracking TV camera A equipped with the 167 laser distance measuring device, with a narrow angle of view, and each jazz performer is photographed. Check the image.
  • the 355-tracking television camera A has a wide angle of view, photographs all the jazz performers on the 360-tracking television camera monitor screen A, and recognizes the images of each performer.
  • 361, 362, 363, 364 tracking TV camera monitor screens A, B, C, and D photographed each jazz performer at the narrow angle of the 355 tracking TV camera A, and the driving numerical values on the screens of the 361, 362, 363, and 364 tracking TV cameras monitor screens at the wide angle. All the performers are associated with the image-confirmed position of each jazz performer on the 360-tracking television camera monitor screen A.
  • each performer is memorized in association with shooting on the optimum screen.
  • D, E, 361, 362, 363, 364 tracking TV camera monitor screen B, C, D, E, 485, 486, 487, 488 tracking TV camera monitor screen Trombone player, piano , trumpet player, and bass player are selected and viewed on the TV camera monitor screen via the 668 Internet network.
  • the images taken by the 356, 357, 358, 359 tracking TV cameras B, C, D, and E of each performer are displayed on the 361, 362, 363, 364 tracking TV camera monitor screen B. , C, D, E to adjust the position on the tracking TV camera monitor screen.
  • the angle of view and focal length of the 355 tracking TV camera A and the optimum shooting method are updated in advance, and the image recognition is updated, and the driving values that shot the image are stored and updated. do.
  • the movement, technique and voice of the performer add to the optimal image recognition.
  • the image signals of 355, 356, 357, 358 tracking TV cameras A, B, C, D, and E are sent to 489, 490, 491, 492, 489, 490, 491, 492, tracking TV camera monitors via the 668 Internet network connected by the 216 interface. All band players, trombone players, piano players, trumpet players, and bass players can be seen on the screen. Each viewer selects the performer's screen that best fits the image recognition.
  • the signal network is displayed on each display screen through the 668 Internet network as a fixed TV camera monitor screen and through the 668 Internet network.
  • the positions of the instructions on the screen of multiple performers, which are displayed on the screen as a fixed TV camera monitor screen, are detected by the 653 drive position signal network and the 652 drive signal network via the 668 Internet network, and the selected 646 tracking TV cameras.
  • the tracking laser rangefinder of the system is directed in the direction corresponding to the indicated position on the screen and the distance to the performer is measured.
  • the performer is photographed with the tracking television camera at the angle of view and focal length corresponding to the measured distance.
  • the image signal captured by the tracking television camera is viewed through the 668 Internet network of the 648 tracking television camera image signal network on media equivalent to the 92 tracking television camera monitor screen, which instructs the performer.
  • 253 A performer performing at a jazz live house is filmed by a fixed television camera.
  • the screen operation signal and the image signal are 654 tracking television camera system.
  • the signal and its image signal are connected to the 668 Internet network through the 216 interface of the 653 driving position signal network and the 652 driving signal network.
  • 257, 258 smart phone A, B by incorporating an application corresponding to its operation and its image signal, to operate any of the tracking TV camera of the 646 tracking TV camera system, the image of the tracking TV camera, 257 , 258, 259, 260 smart phone display on smart phone A, B, C, D smart phone.
  • an application corresponding to its operation and its image signal into 261 Internet tracking TV camera system B, 261 Internet tracking TV camera system B corresponding to the fixed TV camera monitor screen photographed by 1 fixed TV camera can be operated,
  • the image of any of the 646 tracking TV camera systems connected by the 569 smart phone application interface is displayed on the 262 screen operation TV camera monitor screen or the 92 tracking TV camera monitor screen.
  • the image signal of 427 branch offices captured by 122 fixed TV camera B is connected to 216 interface through 668 Internet network connected by 216 interface and displayed on the screen of 150 fixed TV camera monitor C of 426 headquarters office. be done.
  • Image signals of 426 headquarters office shot by 121 fixed TV camera A are connected via 216 interface to 668 Internet network 148 and 149 fixed TV camera monitors A and B screens of 427 branch offices connected via 216 interface to be displayed.
  • the image signal captured by the 356 tracking TV camera B is transmitted via the 668 Internet network connected by the 216 interface to the 426 Displayed on the 361 tracking TV camera monitor screen B in the headquarters office.
  • Example: 256, 261 Internet tracking TV camera systems A and B were installed to capture the scenery of the Kongo Rikishi statue at the temple gate in Fig. 151, and the image of the Kongo Rikishi statue was captured by the fixed TV camera, and the 668 Internet network was used on the interface. connected to 257, 258 smart phone A, B by incorporating the application corresponding to the operation and its image signal, to operate the 256 Internet tracking TV camera system A of the tracking TV camera via the Internet network, 256 Internet tracking The images captured by the 80-tracking TV camera of the TV camera system A are viewed via the Internet on a 257 smart phone or on the 273 Internet-tracking TV camera monitor screen A connected to the Internet network via the 216 interface.
  • 216 interface connected to the Internet network, 148 fixed television camera monitor A 270 Internet fixed television camera monitor screen indication position B on the screen, 261 Internet tracking television camera system connected to the Internet network through the 216 interface Point B's 3-tracking laser distance measuring device and 80-tracking TV camera in the direction of operation of the 270-Internet fixed TV camera monitor screen instruction position B, measure the distance, and the angle of view and focal length corresponding to that distance , the image captured by the 80 tracking TV camera is sent to the connected Internet network through the 216 interface.
  • Watch on 274 Internet tracking TV camera monitor screen B connected to 216 interface. While watching on 274 Internet tracking TV camera monitor screen B, 274 Internet tracking TV camera monitor screen B is corrected by correcting the operation position of 270 Internet fixed TV camera monitor screen indication position B on 148 fixed TV camera monitor A screen. watch on the screen
  • Example: 256, 261, 1052, 1053 Internet tracking TV camera systems A, B, C, and D were installed at the 242 children's soccer match venue in Figure 152, and the image signals and operation signals of these systems were transferred to the 668 Internet network via an interface. Connected. The signal is connected to the 668 Internet network, and through the 216 interface, the Internet tracking television camera system, 148, 149, 150, fixed television camera monitor A, B, C screen operation, 242 children's soccer game venues are played. to shoot.
  • a player kicking a soccer ball on the 148 fixed TV camera monitor A screen is indicated on the 269 Internet fixed TV camera monitor screen screen position A, 355 tracking TV camera A of 256 Internet tracking TV camera system A and 3 tracking laser rangefinder Measure the distance to the player kicking the soccer ball, and according to that distance, shoot the player kicking the soccer ball with the angle of view and focal length of the 355 tracking TV camera A, and send it to the 273 Internet tracking TV via the 668 Internet network.
  • the player kicking the soccer ball can be seen on the camera monitor screen A.
  • 1052 Internet tracking television camera system C multiple 357, 358 tracking television cameras C, D installed, 271, 272 Internet fixed television camera monitor screen indication position C, 271, 272 Internet fixed television camera monitor screen image recognition of soccer ball on 150 fixed television camera monitor screen
  • 3 tracking laser rangefinders of 1052 Internet tracking TV camera system C, 357, 358 tracking TV cameras C, D measure the distance to the soccer ball, and according to the distance, 357, 358 tracking TV cameras
  • the soccer ball is photographed at the angle of view and focal length of C and D, and the soccer ball and the kicking player can be seen on the 275 and 256 tracking TV camera monitor screens C and D via the Internet network.
  • the player who tries to steal the soccer ball on the 150 fixed TV camera monitor screen is displayed on the 272 Internet fixed TV camera monitor screen instruction position D, 358 tracking TV Camera D and a 3-tracking laser rangefinder measure the distance to the player trying to steal the soccer ball, and according to that distance, the angle of view and focal length of the 358-tracking TV camera D is used to capture the soccer ball.
  • a player who tries to steal the ball can be seen on the 276 tracking TV camera monitor screen D via the Internet.
  • the fixation of 1053 Internet tracking TV camera system D connected to 257 smart phone A from some recognized images of the game 359 tracking TV camera E and 3 tracking laser range finder at the position where the image recognition of the soccer ball has already been specified from several images of the game on the game display screen on the TV camera monitor screen measures the distance to the soccer ball, and according to that distance, shoots the soccer ball with the angle of view and focal length of the 359 tracking TV camera, and via the Internet network, the soccer ball on the screen of 257 smart phone A. You can see the players around the ball. Select some of the most suitable images recognized by the 400 image adjuster from each image taken by a large number of Internet tracking television camera systems, and display some of these images on the television camera monitor screen via the Internet network. can be selected and viewed.
  • the 5 fixed TV camera monitor screen and the CG screen showing the pitch taken by the fisheye lens fixed TV camera attached to the 252 tracking TV camera system, which was installed on the 650 tracking TV camera fixing wire.
  • the multiple 646 tracking TV camera systems installed will face in the indicated direction, and the distance and Shoot the soccer ball at that angle of view and at that focal length.
  • the soccer ball captured by the 646 tracking TV camera system is image-recognized, the image of the tracking TV camera of the tracking TV camera system that captures the optimum screen for the soccer ball is selected, and the 651 image signal is switched off. Displayed on the variable tracking TV camera monitor screen. Measure the distance from the soccer ball with the tracking laser distance measuring device in the direction corresponding to the position where the soccer ball is projected on the monitor screen of each tracking television camera, and follow the distance from the image of the tracking television camera. Shoot that soccer ball at angle and focal length.
  • the soccer ball is image-recognized on the screen photographed by each of the tracking television cameras, and the tracking television camera learns the image-recognized position of the soccer ball, tracks it, and photographs it.
  • Example Fig. 154 shows the 251 fisheye lens fixed television camera attached to the 252 stadium tracking television camera system installed above the center of the 647 soccer field in Fig. 153, and photographs the entire venue pitch.
  • a position on the monitor screen directs the shooting direction of 35 numerically controlled television cameras, pre-loaded at the stadium pitch screen, for each of the 206 fixed wire-mounted tracking television camera system suspension positions.
  • the 3-tracking laser rangefinder to the position or direction you manually instructed, measure the distance of 530 soccer balls kicked by 32 soccer players, and adjust the angle of view and focal length of the 80-tracking TV camera according to the measured distance. Then, the 80 tracking TV camera shoots the tracking TV camera monitor screen of the 665 tracking camera system.
  • Example 647 in Figure 155 taken by the 251 fisheye lens fixed TV camera installed above the center of the soccer pitch, and on the 237 monitor screen of the composite screen of the 5 fixed TV camera monitor screen and the CG screen displaying the pitch Measure the height distance of the measurement position.
  • the tracking TV camera of the 206 tracking TV camera system and the 3 tracking laser distance measurement are aimed directly downward, Acquire a measurement value that measures the pitch and height.
  • 263, 264, 265, 266, 267, 268 wire numerical drive system A, B, C, D, E, F to maintain the height distance at all 206 positions of the 647 football fields to be measured 237 on the 5 fixed television camera monitor screen, by operating the driving operation to associate the driving numerical value of each numerical drive mechanism with the measured position on the 237 monitor screen on the 5 fixed television camera monitor screen and the distance of the measured height
  • Several different measurement positions on the monitor screen and their measured height distances and 263, 264, 265, 266, 267, 268 wire numerical drive system A, B, C, D, E, F were driven and operated.
  • the numerical value associated with the numerical drive of each numerical drive is determined at the measured height distance at all positions on the 5 fixed television camera monitor screens. Associated by a method such as the complement method.
  • 263, 264, 265, 266, 267, 268 wire numerical drive system A, B, C, D, E, F at all positions on the pitch of 647 soccer fields, corresponding to all positions on the composite screen.
  • the drive mechanism can be driven with its drive value to drive the position of the 206 tracking television camera system rack.
  • Example 647 in Figure 156 The 251 fixed fisheye lens TV camera installed above the center of the soccer field pitch was shot, and the 663 fixed fisheye TV is a composite screen of the 5 fixed TV camera monitor screen and the CG screen displaying the pitch.
  • the driving numerical value to drive the driving mechanism of the wire driving system is the numerical value already obtained by the calculation such as the interpolation method described above, and while measuring the height from the ground and maintaining the distance, from each direction Travels with support from a 662 wire drive system.
  • a 35 numerically controlled television camera incorporated in a tracking television camera system of a 206 tracking television camera system shoots in the indicated direction.
  • indicate the position of the soccer ball on the indicated position of the numerically controlled television screen of the 660 tracking camera system which is photographed by the 35 numerically controlled television camera and displayed on the 37 numerically controlled television camera monitor screen.
  • the position of the soccer ball reflected on the 37 numerically controlled television camera monitor screen is image-recognized from the position of the numerically controlled television camera screen of the 176 tracking camera system.
  • the 3-tracking laser range-finder measures the distance to the 530 soccer ball, and according to the measured distance, the 80-tracking TV camera determines the angle of view and focal length. together to capture an image of a soccer ball on the 665 tracking camera system's tracking television camera monitor screen.
  • 663 Indicate the shooting direction of the 35 numerically controlled television camera at the indicated position of the CG monitor screen of the 428 tracking camera system on the 663 CG soccer composite screen.
  • 35 Numerical control TV camera shoots 664 Numerical control camera system Numerical control TV camera system 669 Numerical control camera system on the monitor screen Ball image recognition position or manually instructed position 1080 numerical value
  • the 3-tracking laser rangefinder and the 80-tracking TV camera installed in the tracking TV camera system on the control wire rack are aimed to measure the distance of 530 soccer balls kicked by 32 soccer players. Adjust the angle of view and focal length of the camera, and use the 80 tracking TV camera to shoot the tracking TV camera monitor screen of the 665 tracking camera system.
  • 663 CG soccer shoot at the optimum distance and angle of view of the 80 tracking TV camera, which is set in advance at the detection position of the ball image on the synthetic screen.
  • Example: 1073, 1074 numerically controlled directional microphones A and B are installed on the front surface of the 670 automatic driving data acquisition vehicle in Figure 158, which can change the sound pickup direction by numerical control. The phase difference of the sound picked up by each microphone is compared for each frequency band, and the numerically controlled directional microphones A and B are driven and directed in the direction of the early phase. 1073, 1074 Numerically controlled directional microphones A and B are driven to match the driving numerical values of the drive mechanism in the direction with little phase difference. With the numerical value equivalent to the measured distance, the image of the sound source on the screen shot by matching the angle of view and focal length of the 80 tracking TV camera is recognized on the 92 tracking TV camera monitor screen.
  • TV satellite stations Internet video sites, diversification of images, image recognition and security, sports education, stadiums, tourist facilities, measuring equipment, data maps, simple operation of robots, diversity of industrial robots, walking robots, automobiles Autonomous driving, car accident avoidance, car driving skill test, agricultural robot, logistics support robot, personal mobile device, safety support equipment, production site support equipment,

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

人間による視覚作業の多くを、コンピユーターの視覚作業に置き換える。コンピユーターの多くの視覚作業から学習させる。テレビカメラが撮影する画像認識と、追尾レーザー距離計測機をコンピユーターに接続し、コンピユーターに画像認識の視覚判断を持たせることで、移動する3次元空間の展開を連続した認識させることで、人間による視覚作業では、困難であった3次元で展開する空間の作業を可能にする。 例えば、駐車走行データー取得の車両で、追尾テレビカメラシステムによる指示した画像を認識させ、指示した画像との距離を、シュミレィーション走行との接続を解析しながら車両を後進させて、前向きで駐車走行させて、前向きの駐車走行データーで駐車する。

Description

コンピユーターの目(PCEYE)
コンピユーターソフトウエアー、数値制御の技術、画像処理の技術 、インターネット接続の技術、数値制御の数値の演算の技術、テレビカメラの操作の技術、レーザー距離計測器、補間演算
画像認識と距離計測と数値制御の関連方法
特許第5508308号
特許第5547605号
特許第5547670号
特願2018-39078号
[未公開関連技術の開示1]
特願2018-174323号
[未公開関連技術の開示2]
数値制御駆動のレーザー計測機と数値制御駆動のテレビカメラの開発。
テレビカメラの撮影する画面を映るモニター画面上の被写体の、画像認識できる画像にする。テレビカメラの撮影する画面を映るモニター画面上の被写体の、距離を計測する。テレビカメラの撮影する画面を映るモニター画面上の被写体の、位置を認識する。テレビカメラの撮影する画面を映るモニター画面上の被写体の、音声を認識する。これらの取得する情報を、コンピユーターに記憶し演算する。コンピユーターに目の情報を与えることで、コンピユーターに、人間の視覚による判断と、同じ判断をさせるものである。コンピユーターの視覚判断の優れた機能を、人間の視覚判断に変えて利用するものである。コンピユーターが目を持つこと耳を持つことで、人間に代わるってコンピユーターの無限の可能性が得られる。
人間の視覚判断に変えて、コンピユーターの視覚判断の優れた機能を利用し、人間の視覚判断による学習を、コンピユーターの視覚判断の学習にさせるものである。
人間による視覚作業の多くを、コンピユーターの視覚作業に置き換える。コンピユーターの多くの視覚作業から学習させる。テレビカメラが撮影する画像認識と、追尾レーザー距離計測機をコンピユーターに接続し、コンピユーターに画像認識の視覚判断を持たせることで、移動する3次元空間の展開を連続した認識させることで、人間による視覚作業では、困難であった3次元で展開する空間の作業を可能にする。
図1は、自動運転データー取得車に取り付け、その自動車の運転に精通した運転者に手動で駐車走行させ、駐車走行操作データーを取得する追尾テレビカメラシステムの説明図。 図2は、駐車場へ、追尾テレビカメラシステムによる画像認識と、画像認識した画像との距離を、解析しながら車両を、前向きで駐車走行させて、前向きの駐車走行データー取得する説明図。 図3は、駐車場へ、追尾テレビカメラシステムによる画像認識と、画像認識した画像との距離を、解析しながら車両を、後向きで駐車走行させて、後向きの駐車走行データー取得する説明図。 図4は、駐車場へ、追尾テレビカメラシステムによる画像認識と、画像認識した画像との距離を、解析しながら車両を、後向きで駐車走行させて、後向きの駐車走行データー取得する説明図。 図5は、追尾テレビカメラシステムによる指示した画像を認識させ、指示した画像との距離を、計測しながら車両を、後向きで駐車走行させて、前向きの駐車走行データー取得する説明図。 図6は、追尾テレビカメラシステムによる指示した画像を認識させ、指示した画像との距離を、計測しながら車両を、前向きで駐車走行させて、後向きの駐車走行データー取得する説明図。 図7は、追尾テレビカメラシステムによる指示した画像を認識させ、指示した画像との距離を、計測しながら車両を、前向きで駐車走行させて、前向きの駐車走行データー取得する説明図。 図8は、駐車走行データー取得の車両で、追尾テレビカメラシステムによる指示した画像を認識させ、指示した画像との距離を、解析しながら車両を、前向きで駐車走行範囲へ走行させて、後向きの駐車走行データーで駐車する説明図。 図9は、駐車走行データー取得の車両で、追尾テレビカメラシステムによる画像認識と、画像認識した画像との距離を、解析しながら車両を、前向きで駐車走行位置を修正して走行させて、後向きの駐車走行データーで駐車する説明図。 図10は、駐車走行データー取得の車両で、追尾テレビカメラシステムによる指示した画像を認識させ、指示した画像との距離を、シュミレィーション走行との接続を解析しながら車両を後進させて、前向きで駐車走行させて、前向きの駐車走行データーで駐車する説明図。 図11は、公共の駐車場で、追尾テレビカメラシステムによる画像認識と、画像認識した車両間の画像の距離を、解析しながら車両を、後向きで駐車走行位置へ走行させて、前向きの駐車走行データーで駐車走行する説明図。 図12は、公共の駐車場で、追尾テレビカメラシステムによる指示した画像を認識させ、指示した画像との距離を、解析しながら車両を、前向きで駐車走行させて、後向きの駐車走行データーで駐車する説明図。 図13は、公共の駐車場で、追尾テレビカメラシステムによる指示した画像を認識させ、指示した画像との距離を、解析しながら車両を、後向きのシュミレィーションの走行でる位置まで走行して、後向きの駐車走行データーで駐車する説明図。 図14は、公共の駐車場で、追尾テレビカメラシステムによる指示した画像を認識させ、指示した画像との距離を、解析しながら車両を、前向きのシュミレィーションの範囲まで走行させて、前向きのシュミレィーション走行で、駐車走行データー範囲まで走行させ、後向きの駐車走行データーで駐車する説明図。 図15は、公共の駐車場で、追尾テレビカメラシステムによる指示した画像を認識させ、指示した画像との距離を、解析しながら車両を、前向きの駐車走行データーで駐車する説明図。 図16は、図173は、公共の駐車場で、追尾テレビカメラシステムによる指示した画像を認識させ、認識したことを表示し、指示した画像との距離を解析しながら、認識したことを知らせ、前向きの駐車走行データーで駐車する説明図。 図17は、公共の駐車場で、追尾テレビカメラシステムによる画像認識した形状から、既に駐車している車両間を計測し、駐車可能な位置へ走行させ、画像認識した形状との距離を、解析しながら車両を、後向きの駐車走行データーで駐車する説明図。 図18は、公共の駐車場で、追尾テレビカメラシステムによる画像認識した形状から、既に駐車している車両間を計測し、画像認識した形状の距離を、解析しながら車両を、前向きの駐車走行データーで駐車する説明図。 図19は、公共の駐車場で、追尾テレビカメラシステムによる画像認識した形状から、既に駐車している車両間を計測し、画像認識した形状の距離を、解析しながら車両を、後向きの駐車走行データーで駐車する説明図。 図20は、被写体をとの衝突を回避するための停止データーを取得するための説明図である。回避データー取得走行路の、幾つかの距離から、手動運転で被写体の手前で停止運転をし、その停止運転に駆動された、運転駆動機器の駆動数値を取得し、全ての距離からの停止運転をする、運転駆動機器の駆動数値を、補間演算の演算方法で取得する説明図。 図21は、衝突回避運転方法の回避運転データーの取得は、追尾テレビカメラシステムによる、画像認識と距離計測で取得する説明図。 図22は、最大限の回避運転のデーターを取得するために、最大限の回避運転操作で運転した回避運転のデーターを取得する説明図。 図23は、回避運転のデーター取得走行での、データー取得位置を示す図である。回避運転のデーター取得走行は、最大限の回避運転のデーターを取得するために、最大限の回避運転操作で運転し続けた回避運転のデーターを取得する説明図。 図24は、手動運転で回避運転をすると判断した距離と、回避運転を開始した位置から回避した位置までの運転のデーター取得位置と運転位置を計測する説明図である。 図25は、回避運転データー取得運転で、手動運転で回避運転をすると判断した距離と、回避運転を開始した距離の説明図。 図26は、回避運転データー取得運転で、手動運転で回避運転をすると判断した距離と、回避運転を開始した距離の説明図。 図27は、回避運転データー取得運転で、手動運転で回避運転をすると判断した距離と、回避運転を開始した距離の説明図。 図28は、回避運転データー取得運転で、手動運転で回避運転をすると判断した距離と、回避運転を開始した距離の説明図。 図29は、回避運転データー取得運転で、手動運転で回避運転をすると判断した距離と、回避運転を開始した距離の説明図。 図30は、回避運転データー取得運転で、手動運転で回避運転をすると判断した距離と、回避運転を開始した距離の説明図。 図31は、回避運転データー取得運転で、手動運転で最大限の回避運転をすると判断した距離と、最大限の回避運転を開始した距離の説明図。 図32は、回避運転データー取得運転で、走行速度別の歩行者に危険を感じさせない、手動運転のデーターの取得をする説明図。 図33は、回避運転データー取得運転で、走行路Aの手動運転による、事故回避運転データーの取得をする説明図。 図34は、回避運転データー取得運転で、走行路Bの手動運転による、事故回避運転データーの取得をする説明図。 図35は、回避運転データー取得運転で、走行路Cの手動運転による、事故回避運転データーの取得をする説明図。 図36は、回避運転データー取得運転で、走行路Dの手動運転による、事故回避運転データーの取得をする説明図。 図37は、回避運転データー取得運転で、走行路Eの手動運転による、事故回避運転データーの取得をする説明図。 図38は、回避運転データー取得運転で、走行路Fの手動運転による、事故回避運転データーの取得をする説明図。 図39は、回避運転データー取得運転で、全ての走行路の手動運転による、事故回避運転データーの取得をする説明図。 図40は、右からの走行車との回避運転データー取得運転で、走行速度ごとの動運転による、事故回避運転データーの取得をする説明図。 図41は、追尾テレビカメラシステム車両の前面の位置に画角の広い固定テレビカメラを取り付け、その広い撮影範囲に映る検出した被写体の位置の方向へ、追尾テレビカメラシステムの追尾レーザー距離計測機と追尾テレビカメラを向け、その画像認識した被写体を識別して、事故回避運転データーの回避運転する説明図。 図42は、追尾テレビカメラシステム車両の前面の異なる位置に取り付けた、マイクロホンの走行音の位相差で、走行音の水平方向を特定し、追尾レーザー距離計測機と数値制御テレビカメラを、その特定した方向に向け、距離を計測し、走行車を画像認識し、その進行車両に対応した、事故回避運転データーの回避運転する説明図。 図43は、回避運転データー取得運転する車両の前面と後面の位置に取り付けた画素距離計測追尾テレビカメラの追尾テレビカメラシステムで走行する衝突回避の事故回避運転データーの回避運転する説明図。 図44は、追越し走行のデーター取得運転で、全ての走行路の手動運転による、追越し走行のデーターの取得をする説明図。 図45は、1般の自動車走行路での、事故回避データーを取得した、追尾テレビカメラシステムを設置した車両による、自動運転の説明図。 図46は、1般の自動車走行路での、事故回避データーを取得した、追尾テレビカメラシステムを設置した車両による、画像認識による進行道路に、駐車する車両がある場合、その車両の位置の走行路に、通過できる余地の幅があるかを、画像認識による画像で、駐車する車両の幅の距離の計測をする説明図。 図47は、1般の自動車走行路での、事故回避データーを取得した、追尾テレビカメラシステムを設置した車両による、回避の準備を演算する自動運転の説明図。 図48は、1般の自動車走行路での、事故回避データーを取得した、追尾テレビカメラシステムを設置した車両による、回避の予測の自動運転の説明図。 図49は、1般の自動車走行路での、事故回避データーを取得した、追尾テレビカメラシステムを設置した車両による、最大限の事故回避予測する自動運転の説明図。 図50は、1般の自動車走行路での、事故回避データーを取得した、追尾テレビカメラシステムを設置した車両による、回避の自動運転の説明図。 図51は、1般の自動車走行路での、事故回避データーを取得した、追尾テレビカメラシステムを設置した車両による、最大限の回避の自動運転の説明図。 図52は、1般の自動車走行路での、事故回避データーを取得した、追尾テレビカメラシステムを設置した車両による、夜間の走行において、テレビカメラの画像認識が困難な暗い被写体を、追尾レーザー距離計測機を走査させ、計測した反射光の方向へ、追尾テレビカメラを向け、計測した距離に相当する画角と焦点距離で被写体を撮影し、画像認識し、対応した自動運転をする説明図。 図53は、1般の自動車走行路での、追尾テレビカメラシステムを設置した車両による、道路周辺の固有の事物をのみ画像認識し、GPSの位置情報の走行位置に記憶を付加して走行する、自動運転の説明図。 図54は、障害物のある自動車走行路での、事故回避データーを取得した、追尾テレビカメラシステムを設置した車両による、テレビカメラの画像認識した障害物を、演算してタイヤの位置に展開させて、その障害物を避けて走行する説明図。 図55は、障害物のある自動車走行路での、事故回避データーを取得した、追尾テレビカメラシステムを設置した車両による、テレビカメラの画像認識した障害物を、走行に合わせて、その障害物を、演算したタイヤの位置に展開させて、その障害物を避けずに走行する説明図。 図56は、障害物のある自動車走行路での、事故回避データーを取得した、追尾テレビカメラシステムを設置した車両による、テレビカメラに映る走行路の先の障害物を画像認識し記憶させ、障害物まで走行するとして、障害物に接触する車両前輪タイヤの位置と、その走行するとした、その方向と距離での、その記憶させた画像の位置を変へた障害物の画像から、車両前輪タイヤが受ける衝撃を、前もって解析し、前もって、その衝撃に対応するサスペンションに調整する説明図。 図57は、障害物のある歩行路での、事故回避データーを取得した、追尾テレビカメラシステムを設置した4足歩行のロポットによる、テレビカメラに映る歩行路の先の障害物を画像認識し記憶させ、その記憶の画像を展開した位置で、4本の足が障害物と接触しない位置に、4本の足を歩行させる説明図。 図58は、障害物のある歩行路での、事故回避データーを取得した、追尾テレビカメラシステムを設置した4足歩行のロボットによる、テレビカメラに映る歩行路の先の段差を画像認識し記憶させ、その記憶させた段差の画像から、4本の足が段差との接触を避けるため、前もって画像解析し画像展開した画像で、4本の足が段差の位置に、4本の足を歩行させる説明図。 図59は、走行データー取得、及び、事故回避データー取得している、追尾テレビカメラシステムによる車両の走行において、常に追尾テレビカメラシステムによる、画像認識と、画像認識した画像との距離とを、解析しながら走行している説明図。 図60は、データー取得している、追尾テレビカメラシステムによる車両の走行において、常に追尾テレビカメラシステムによる、画像認識と、画像認識した画像との距離を、解析しながら走行しているので、回避時での最善な回避走行をする説明図。 図61は、データー取得している、追尾テレビカメラシステムによる車両の走行において、常に追尾テレビカメラシステムによる、画像認識と、画像認識した画像との距離を、解析しながら走行しているので、回避時での最善な回避走行を選択する説明図。 図62は、データー取得している、追尾テレビカメラシステムによる車両の走行において、常に追尾テレビカメラシステムによる、画像認識と、画像認識した画像との距離を、解析しながら走行し、回避データー走行時においても最善な回避走行をし続ける説明図。 図63は、データー取得している、追尾テレビカメラシステムによる車両の走行において、常に追尾テレビカメラシステムによる、画像認識と、画像認識した画像との距離を、解析しながら走常に、事故回避の手段を演算して走行する説明図。 図64は、データー取得している、追尾テレビカメラシステムによる車両の走行において、常に追尾テレビカメラシステムによる、画像認識と、画像認識した画像との距離を、解析しながら走行している車両で、前方走行路の幅を計測しながら走行する説明図。 図65は、データー取得している、追尾テレビカメラシステムによる車両の走行において、常に追尾テレビカメラシステムによる、画像認識と、画像認識した画像との距離を、解析しながら走行している車両で、前方対向車と走行路の幅を計測しながら走行する説明図。 図66は、自動車専用の走行路で、データー取得している、追尾テレビカメラシステムによる先行車両の追尾走行において、先行車両の画像認識と、画像認識した画像との距離を記憶し、その走行位置で展開して追尾走行する説明図。 図67は、自動車専用の走行路で、データー取得している、追尾テレビカメラシステムによる車両の走行において、常に追尾テレビカメラシステムによる、先方の走行車の画像認識と、画像認識した画像との距離を計測しながら追尾走行をする説明図。 図68は、自動車の走行路で、補助機としてGPSの位置情報を、修正するために、走行路近辺の、固有物を画像確認し、その固有物との距離と方向を、GPSの位置情報に、関連付けておくことで、GPSの位置情報に走行路の方向を補充する説明図。 図69は、自動車が進行する、走行路の縁石の方向と距離から、自動車がその距離を走行した位置での、自動車とその縁石との距離を演算し、自動車の走行位置を演算する説明図。 図70は、自動車が進行する方向の先行車を、集中的に画像確認し、対抗車線の接近車両がないことを確認し、追越し走行データーで追越し走行をする説明図。 図71は、追尾レーザー距離計測機で、ロボットの作業位置の距離を計測する説明図。 図72は、追尾テレビカメラで、ロボットの作業位置の画像撮影する説明図。 図73は、追尾レーザー距離計測機と追尾テレビカメラで、ロボットの作業位置の画像と距離を計測する説明図。 図74は、固定テレビカメラで撮影した、固定テレビカメラモニター画面上のロボットの作業位置と、追尾レーザー距離計測機と追尾テレビカメラで、ロボットの作業位置の画像と距離を計測し、その作業位置を画像認識する説明図。 図75は、画像素子の計測テレビカメラ距離計測器の計測距離で、画像素子の画像検知した位置の画像素子の位置の、LED発光素子を発光して、画像からの反射光の時間を計測しその距離を計測する説明図。 図76は、固定テレビカメラモニター画面上のロボットの作業位置を、、LED発光素子を発光して、平行な光をロボットの作業位置に照射し、その反射光の計測した距離で、画像素子の画角と焦点距離を調整して画像素子の追尾テレビカメラで撮影する説明図。 図77は、ロボットの作業位置の近くで作業する、作業員を追尾テレビカメラで追尾撮影し、追尾テレビカメラの撮影する画像で作業員を画像認識し、作業員の距離を計測することで、作業員の位置が、ロボットの作業位置に作業員が近づいたことを察知して、作業員との接触を避ける距離の位置でロボットの作業させる説明図。 図78は、ロボットの作業位置の距離を計測したロボットの作業を、その追尾テレビカメラモニターの画面上にその計測距離を表示して、そのロボットの作業操作をする説明図。 図79は、画素計測テレビカメラ距離計測機で、ロボットの作業位置の距離を計測し、その計測方向とその距離で、画像素子追尾テレビカメラの撮影する画角と焦点距離を調整し、追尾テレビカメラモニター画面上のロボットの撮影する作業位置と、画像素子追尾テレビカメラの撮影した画像認識する説明図。 図80は、ロボットの幾つかの駆動機構の作業を、テレビカメラで撮影し、その画像を映す、幾つかのテレビカメラモニター画面上で、そのロボットの幾つかの駆動機構の作業位置を、追尾レーザー距離計測機で距離を計測する。ロボットの作業位置の距離を計測したロボットの作業を、その幾つかの固定テレビカメラモニターの画面上で、そのロボットの幾つかの駆動機構の作業を、インターネットを介して、その幾つかの固定テレビカメラモニターの画面上で、そのロボットの幾つかの駆動機構の作業操作をする説明図。 図81は、ロボットの幾つかの駆動機構の作業を、幾つかのテレビカメラで撮影し、その画像を映す、それぞれ画像を映す、そのテレビカメラモニター画面上で、そのロボットの幾つかの駆動機構の作業位置を、追尾レーザー距離計測機で距離を計測する。ロボットの作業位置の距離を計測したロボットの作業を、その幾つかの固定テレビカメラモニターの画面上で、そのロボットの幾つかの駆動機構の作業をする。インターネットを介して、その幾つかの固定テレビカメラモニターの画面上で、そのロボットの幾つかの駆動機構の作業操作をする説明図。 図82は、固定テレビカメラモニター画面上の被写体を、追尾レーザー距離計測機で距離を計測する。その計測した距離に相当する、画角と焦点距離で追尾テレビカメラが撮影した被写体の画像確認し、その画像確認した被写体の位置に、バーコードリーダーを取り付けた数値制御ロボットを移動させ、そのバーコード表示を画像確認した、被写体に記載したバーコードを読み取る説明図。 図83は、固定テレビカメラモニター画面上の形状物を検出し、その検出位置を、レーザー距離計測器で距離を計測する。その距離を計測したその検出位置を、追尾テレビカメラで、その計測した距離に画角と焦点距離を合わせてその形状物を撮影する。その撮影したテレビカメラモニター画面上の、その形状物の画像に、画像情報表示の記載を画像認識し、数値制御ロボットに取り付けた、数値制御テレビカメラで、その形状物の表示情報を読み取る説明図。 図84は、固定テレビカメラモニター画面上のロボットの作業位置を確認し、その作業の位置を、追尾レーザー距離計測機で距離を計測する。固定テレビカメラの撮影する方向の、2次元の画面表示と、その距離を計測した、3次元の画面表示の説明図。 図85は、固定テレビカメラモニター画面上のロボットの作業位置を、その固定テレビカメラと関連付けた別のテレビカメラで撮影した画面上に設定した作業位置で、ロボットの作業をする説明図。 図86は、固定テレビカメラモニター画面上のロボットの作業位置を確認し、その作業の位置を、複数の追尾レーザー距離計測機で距離を計測し、精度の高いロボットの作業位置する説明図。 図87は、固定テレビカメラモニター画面上のロボットの作業位置を確認し、その作業の位置に取付けた、画素計測テレビカメラ距離計測器で、画像確認し距離を計測する説明図。 図88は、ロボットによる熔接作業の説明図である。熔接作業の空間は、共通の架台に組み込まれ、その都度、追尾テレビカメラで画像確認し、その確認された画像は、追尾レーザー距離計測機で計測され、熔接作業の空間は、計測された空間である説明図。 図89は、熔接支援ロボットで、加工材Aを熔接作業の空間に持ち込み、加工材Aの画像確認作業と加工材Aの計測と、適切な形状確認を熔接支援ロボットが支援して行う説明図。 図90は、熔接作業の空間が計測された空間であることから、加工材Aを作業台へ設置する。作業台に設置された、加工材Aの再度の追尾テレビカメラで画像確認と、追尾レーザー距離計測機で計測される説明図。 図91は、熔接支援ロボットで、加工材Bを熔接作業の空間に持ち込み、加工材B画像確認作業と加工材Bの計測とを、それぞれを適切な位置への設置を熔接支援ロボットで行う説明図。 図92は、加工材Aを加工材Bに仮置きし、追尾テレビカメラで画像確認と、追尾レーザー距離計測機で計測される説明図。 図93は、加工材Aを加工材Bの固定用のポイント熔接で、ポイント個所の追尾テレビカメラで画像確認と、追尾レーザー距離計測機で計測しながらのホイント熔接の説明図。 図94は、ホイント熔接後の追尾テレビカメラで画像確認と、追尾レーザー距離計測機で計測される説明図。 図95は、加工材Aを加工材Bの熔接で、熔接個所の追尾テレビカメラで画像確認と、追尾レーザー距離計測機で計測しながらの熔接作業の説明図。 図96は、熔接作業後の追尾テレビカメラで画像確認と、追尾レーザー距離計測機で計測される説明図。 図97は、熔接支援ロボットで、熔接加工済の完成品を、熔接支援ロボットで熔接作業の空間で持ち上げて、完成品の画像確認作業と完成品の計測とを、それぞれに最適な位置を熔接支援ロボット行う説明図。 図98は、熔接支援ロボットで、熔接加工済の完成品を、熔接支援ロボットで熔接作業の空間に持ち込み、完成品の画像確認作業と完成品の計測とを、それぞれに最適な位置を熔接支援ロボット行う説明図。 図99は、可動式の架台のロボットによる熔接作業の説明図である。熔接作業の空間は、共通の可動式の架台に組み込まれ、その都度、追尾テレビカメラで画像確認し、その確認された画像は、追尾レーザー距離計測機で計測され、可動式の架台による熔接作業の空間は、その都度計測された空間である説明図。 図100は、上空を飛行するドローンを固定テレビカメラで撮影し、その固定テレビカメラモニター画面上の位置に相当する方向へ、レーザー距離計測機を取り付けた、追尾テレビカメラを向ける。レーザー距離計測機の計測した距離に従った、画角と焦点距離で追尾テレビカメラが撮影した、トローンに取り付けた、距離計測用反射ミラーを画像認識する。距離計測用反射ミラーを画像認識した位置が、レーザー距離計測機の位置を、計測距離とする説明図。 図101は、追尾テレビカメラを操作して、上空を飛行するドローンに取り付けた距離計測用反射ミラーを撮影し、そのミラーの画像を認識する方向へ、追尾レーザー距離計測機を向けて、上空のドローンの距離を計測する。 図102は、3か所の概知の位置と1か所の未知の位置から、上空の3台のドローンに取り付けた距離計測用反射ミラーの距離を同時に計測することで、その3個の距離計測用反射ミラーを概知の位置に関連付けることで未知の位置を計測できる説明図。 図103は、追尾テレビカメラ距離計測システムで、3か所の概知の位置と1か所の未知の位置で、ドローンに取り付けた光源の発光時間を計測し、未知の位置を概知の位置に関連付け、幾つかの異なるドローンの位置で計測することで、未知の位置を計測する説明図。 図104は、3か所の概知の位置から、ドローンに取り付けた距離計測用反射ミラーの距離を同時に計測することで、その距離計測用反射ミラーの距離を同時に計測する距離計測用自動車の走行方向の位置を連続して、概知の位置に関連づけることができる説明図。 図105は、ドローンに組み込まれた、レーザー距離計測機を取り付けた、追尾テレビカメラの広角で撮影した画像を映す、テレビカメラモニター画面上のウインドサーファーの位置に相当する方向へ指示することで、レーザー距離計測機が計測した距離に従って、追尾テレビカメラの画角と焦点を調整して撮影する説明図。 図106は、上空を飛行する通信機能を備えたドローンに組み込まれた、数値制御テレビカメラと追尾テレビカメラと追尾レーザー距離計測機を取り付けてある。数値テレビカメラの撮影した画像を映す、テレビカメラモニター画面上のウインドサーファーの位置を指示し、その画面上の指示しに相当する方向へ、追尾テレビカメラと追尾レーザー距離計測機を向け、追尾レーザー距離計測機の計測する距離で、追尾テレビカメラの画角と焦点距離で、ウインドサーファー選手を画像認識し、ウインドサーファー選手を追尾撮影する説明図。 図107は、上空からのドローンが照射した可視光のレーザーの照射位置と概知の位置を実測し、上空からのドローンの位置を修正する説明図。 図108は、3か所の概知の位置から、上空を飛行するドローンに取り付けた距離計測用反射ミラーの距離を同時に計測することで、その距離計測用反射ミラーの距離を同時に計測する距離計測用自動車の走行位置と走行方向を概知の位置にすることができる。距離計測用自動車から、画像認識した事物の計測した位置情報を、全ての走行車両が共有させめために、絶対位置情報を記憶し、インターネットに送信し、受信してその絶対位置情報を共有する説明図。 図109は、前記説明した、その上空を飛行する複数のドローンの位置を、複数の概知の場所と走行する自動車から計測し、その走行する自動車から、道路周辺を計測し、道路の進行方向と道路周辺の事物の位置を計測する説明図。 図110は、上空を飛行するドローン位置を、走行中の距離計測用自動車から、追尾テレビカメラ距離計測システムで、その距離と方向を計測する、その上空を飛行するドローンから、追尾テレビカメラ距離計測システムで走行中の計測対象車両の距離と方向を計測することで、距離計測用自動車から計測対象車両との距離と方向を計測する説明図。 図111は、固定テレビカメラの撮影した被写体の画像から、画像検出した固定テレビカメラモニター画面の画像を位置に相当する方向へ、レーザー距離計測器を付けた、追尾テレビカメラで追尾撮影し、このレーザー距離計測器の計測した距離に相当する、画角と焦点距離で、その追尾テレビカメラで画像確認できる被写体を撮影する説明図。 図112は、固定テレビカメラの撮影した画面から、幾つかの画像を検出した固定テレビカメラモニター画面上の幾つかの画像を表示する位置に相当する方向へ、数値制御のテレビカメラをそれぞれ追尾させて撮影し、その画像を表示する位置に相当する方向へ、追尾テレビカメラを追尾させ、追尾テレビカメラに取り付けた、追尾レーザー距離計測機の計測した距離に、追尾テレビカメラが撮影した画像から、個人の画像情報を取得する説明図。 図113は、複数の追尾レーザー距離計測機による走査から、距離と計測位置の変化から、の被写体を計測し、その方向へ追尾テレビカメラを追尾させ、追尾レーザー距離計測機の計測した距離に、画角と焦点を合わせて撮影した画像から、個人の画像情報を取得する説明図。 図114は、追尾レーザー距離計測機による、距離と計測位置の変化から、動体の被写体を計測し、追尾テレビカメラを追尾させ、追尾レーザー距離計測機の計測した距離に合わせて撮影した画像を、インターネットを介して、画像確認し、個人の画像情報を取得する説明図。 図115は、固定テレビカメラの撮影した画像から、画像を検出した固定テレビカメラモニター画面の画像の位置に相当する方向へ、追尾レーザー距離計測機を付けた、追尾テレビカメラで追尾撮影し、この追尾レーザー距離計測機の計測する距離で、追尾テレビカメラで撮影した画像を、インターネットを介して、複数の個人の画像情報を取得し,再度、追尾テレビカメラで追尾撮影する説明図。 図116は、固定テレビカメラの撮影した画像から、画像確認した固定テレビカメラモニター画面の画像を検出した位置に相当する方向へ、異なる撮影方向の追尾レーザー距離計測機を付けた、追尾テレビカメラで追尾撮影し、画像確認した個人の多面方向の画像情報を取得する説明図。 図117は、画素追尾の固定テレビカメラの撮影した画像から、画像確認した画素追尾の固定テレビカメラモニター画面の画像を検出した位置に相当する方向へ、追尾レーザー距離計測機を向け、距離を計測し、その画像素子の範囲に焦点を合わせて撮影するものである。その画像確認した、画像の位置を、何台かの異なる方向から撮影する、画素追尾テレビシステムに伝え、それぞれの画素追尾テレビシステムが距離を計測し、その距離に相当する焦点距離で、画像素子の範囲に焦点を合わせて撮影する説明図。 図118は、固定テレビカメラで撮影した、モニター画面上で画像検出した画像の位置の方向へ、レーザー距離計測とデーター読取との機能を持つ計測器を向け、被写体の画像のデーター表示付近の距離を計測し、計測距離に相当する、集光と走査速度で読み取る説明図。 図119は、データーリーダーの読取範囲を、追尾レーザー距離計測とデーター読取との機能を持つ計測機と追尾テレビカメラの機能を持つ機器を設置する。追尾テレビカメラが広角で撮影したテレビカメラモニター画面上のデーター表示画像の位置を、データー表示の距離を計測し、計測した距離に合わせて、追尾テレビカメラが狭角で撮影した画像確認した画像の位置の、データー表示を読取る説明図。 図120は、データーリーダーの読取範囲を、画素追尾テレビカメラと追尾レーザー距離計測とデーター読取との機能を持つ計測器を設置する。画素追尾テレビカメラが撮影したテレビカメラモニター画面上のデーター表示画像の位置を、データー表示付近の距離を計測し、データー表示を読取る説明図。 図121は、固定テレビカメラモニター画面上に映る被写体の位置に相当する方向へ、追尾データーリーダーとレーザー距離計測機を向け、データー表示を解読し、同時に、各方向から撮影した、追尾テレビカメラの撮影した画像と固定テレビカメラの画像とを、データー表示と関連付けて記憶する説明図。 図122は、固定テレビカメラモニター画面上の画像を検出した位置へ、追尾レーザー距離計測と追尾テレビカメラを向け、追尾レーザー距離計測の計測した距離に合わせて、追尾テレビカメラが撮影した画像を画像認識する。その画像認識した位置の、固定テレビカメラモニター画面上の画像を検出した位置へ、ロボットに取り付けた、データーリーダーとレーザー距離計測機を向け、レーザー距離計測機の計測した距離でデーター表示を解読し、追尾テレビカメラの撮影した画像と画像認識と固定テレビカメラの画像と、をデーター表示と関連付けて記憶する説明図。 図123は、5固定テレビカメラモニター画面上に映る作業員の持つ形状物の位置へ、ロボットの作業機を近ずけ、ロボットに取り付けた、テレビカメラと追尾レーザー距離計測機で、作業員の持つ形状物を画像認識し、形状物の画像情報の作業を、ロボットの作業として行う説明図。 図124は、固定テレビカメラモニター画面上の作業員の手の位置へ、ロボットの作業機を近ずけ、ロボットに取り付けた、テレビカメラと追尾レーザー距離計測機で、作業員の手を画像認識し、手の画像情報の作業を、ロボットの作業として行う説明図。 図125は、小型航空機に取り付けた追尾テレビカメラシステムで、滑走路に着陸する折に、固定テレビカメラが撮影した滑走路の画像検出された画像を、追尾レーザー距離計測機か距離を計測し、追尾テレビカメラで画像を画像認識する。その画像認識した位置とその距離から、小型航空機の着陸態勢を算出し、手動操縦又は、自動操縦で対応する説明図。 図126は、小型航空機用の飛行場の滑走路の横方向から、追尾テレビカメラシステムで撮影する。滑走路に着陸態勢の小型航空機を、固定テレビカメラが画像検出し、その検出した位置に相当する方向へ、追尾テレビカメラが撮影した画像を解析し、追尾テレビカメラの駆動数値に関連付けて、小型飛行機の駆動操縦数値を修正する説明図。 図127は、小型航空機用の飛行場の滑走路の前方から、滑走路に着陸態勢の小型機を、固定テレビカメラが画像を検出し、その検出した位置に相当する方向へ、追尾テレビカメラと追尾レーザー距離計測機を向け、追尾テレビカメラが撮影する駆動数値、前もって画像認識して取得してある追尾テレビカメラの駆動数値を比較し、追尾テレビカメラの駆動数値を修正ように、小型飛行機の駆動数値を修正する説明図。 図128は、船舶に取り付けた追尾テレビカメラシステムで、固定テレビカメラが撮影する、固定テレビカメラモニター画面で画像検出した、他船の画面の位置に相当する位置方向へ、追尾レーザー距離計測機を向け、その画像検出した他船との距離を計測し、追尾テレビカメラでその画像検出したその他船を撮影し画像認識する説明図。 図129は、船舶に取り付けた追尾テレビカメラシステムで、固定テレビカメラが撮影する、固定テレビカメラモニター画面で画像検出した、固定テレビカメラモニター画面の位置に相当する方向へ、追尾レーザー距離計測機を向け、画像検出したクルーザーボートとの距離を計測する。クルーザーボートの画像を継続的に、計測撮影することで、クルーザーボートの進行方向と進行位置が予測され、衝突が予測される場合、船舶の衝突の回避の操作をする説明図。 図130は、船舶に取り付けた72追尾テレビカメラ距離計測システムで、数値制御テレビカメラが撮影する広範囲な海域で、その数値制御テレビカメラモニター画面で画像を検出した、その数値制御テレビカメラモニター画面上の位置と、その数値制御テレビカメラの駆動数値のその方向へ、追尾レーザー距離計測機を向け、画像検出した船舶との距離を計測する。その計測した距離で追尾テレビカメラが撮影した船舶の画像を、固定テレビカメラモニター画面と数値制御テレビカメラモニター画面上の、方向と距離の位置の位置に画像を重ねて合成したモニター画面に表示する説明図。 図131は、船舶に取り付けた、レーダー探知機が、検知した被写体の方向と距離に、追尾テレビカメラを向け、その距離に相当する画角と焦点距離で、検知した被写体を継続的に撮影し、監視する説明図。 図132は、船舶に取り付けた追尾テレビカメラ距離計測システムで、固定テレビカメラが撮影する、固定テレビカメラモニター画面で画像を検出した、他船の画面の位置に相当する位置方向へ、追尾レーザー距離計測機と追尾テレビカメラを向け、その追尾テレビカメラが撮影した画像を画像認識した他船との距離を計測する。画像認識した各船舶を、距離を展開した進行方向の画面に合成する説明図。 図133は、追尾距離計測の方法による、野球選手を、複数のミラー追尾のテレビカメラで同時に撮影して、打撃ホームを確認する説明図。 図134は、スケート選手を映す固定テレビカメラモニター画面上の位置と、追尾レーザー距離計測機の計測する距離で、スケート選手の走行方向と距離に合わせて、スケート選手のスケートの位置を撮影する説明図。 図135は、サッカー選手がドリブルするサッカーボールを撮影する固定テレビカメラモニター画面上で、そのサッカーボール画像認識させた位置の方向と、その面上の位置を追尾レーザー距離計測機で計測した距離とで、追尾テレビカメラで撮影する。そのサッカーボールを異なる方向から撮影した画像を確認して、サッカーボールのドリブルを練習する説明図。 図136は、固定テレビカメラが取り付けてある数値制御の駆動架の駆動位置を、サッカー選手がドリブルするサッカーボールを撮影する固定テレビカメラモニター画面上で、そのサッカーボールを画像認識させた位置の方向と、追尾レーザー距離計測機の計測する距離とを維持する様に、その数値制御の駆動架の駆動位置を追尾させる。追尾テレビカメラで、そのサッカーボールを撮影する、サッカーボールのドリブルを練習する説明図。 図137は、駆動架に取り付けてある、追尾テレビカメラでサッカー選手のドリブルの練習を撮影する画像を、サッカー選手の目前に表示して、サッカー選手のドリブルの走行に合わせて移動させ、サッカーボールの画像を目視して練習する説明図。 図138は、サッカー選手がヘッデングの練習のプレーで、ボールに触れた折の、頭に感じる感触を、ボールの位置と頭の位置とボールの進方向を、追尾テレビカメラで撮影し、その画像で詳細に確認し練習するために、サッカー選手の頭付近を撮影する説明図。 図139は、サッカー選手のヘッデングの練習で、サッカー選手の走行に合わせて、サッカー選手の走行に追尾するサッカーポール投射機と、追尾するテレビカメラとテレビカメラモニター画面を取り付けた、数値制御の駆動架をサッカー選手の走行に合わせて駆動させる説明図。 図140は、サッカー選手の走行ダイレクトキックの練習で、サッカー選手の走行に合わせて、追尾テレビカメラシステムを取り付けた、数値制御の駆動架を駆動させる。数値制御された投射機で、サッカーボールを同じ駆動数値で投射して、サッカー選手がダイレクトキックの練習を、ウエアブルの画像受信器で視認する説明図。 図141は、テレビカメラで撮影する、数値制御されて駆動するロボットの作業範囲を、追尾テレビカメラシステムで撮影し、その撮影した画像と、ロボットの操作データーとを、インターネットを介して、接続された異なる場所で、テレビカメラモニター画面上で操作する説明図。 図142は、図35で説明した、インターネットを介して、そのロボットの作業操作を、更に異なる場所、インターネットを介して、テレビカメラモニター画面上のコンビューターの想定する3D形成物の画像を合成画面で、その作業を分担して操作する説明図 図143は、劇場の舞台を、追尾テレビカメラシステムで撮影し、インターネットを介して、その舞台を映す、固定テレビカメラモニター画面で、追尾テレビカメラを操作し、好み舞台の演者の画面を鑑賞する説明図。 図144は、劇場の舞台を、追尾テレビカメラシステムで撮影し、インターネットを介して、固定テレビカメラモニター画面で、好み舞台の演者を画像認識させ、その認識画像に、追尾テレビカメラを追尾させて、好み舞台の演者を鑑賞する説明図。 図145は、劇場の舞台を、多数の追尾テレビカメラシステムで撮影し、インターネットを介して、個々の固定テレビカメラモニター画面で、それぞれの追尾テレビカメラを操作し、好み舞台の個々の演者の画面を鑑賞する。多数の追尾テレビカメラモニター画面で鑑賞する観客からの声援を、インターネットを介してその舞台に伝える説明図。 図146は、劇場の舞台を、多数の追尾テレビカメラシステムで撮影し、インターネットを介して、多数の固定テレビカメラモニター画面で、それぞれの追尾テレビカメラを操作し、好み舞台の演者の画面を鑑賞する。固定テレビカメラモニター画面で、それぞれの追尾指向性マイクロホンを操作し、好み舞台の演者のセリフを鑑賞する説明図。 図147は、ジャズライブのステージを、ジャズ演奏者全員が映る、追尾テレビカメラモニター画面の各ジャズ演奏者を、その画面上で指示する事で、その追尾テレビカメラモニター画面の上位置に相当する、指示されたジャズ演奏者の方向へ、追尾テレビカメラが駆動され、追尾テレビカメラに取り付けた、レーザー距離計測機の計測する距離に相当する、画角と焦点距離で、そのジャズ演奏者を撮影する説明図。 図148は、全ジャズ演奏者と各演奏者とを、追尾カメラの撮影する画像を、インターネット網に接続することで、インターネットを介して、ジャズライブのステージの演奏者を選別して、見ることができる説明図。 図149は、ジャズライブのステージを、多数の追尾テレビカメラシステムで撮影し、それぞれの追尾テレビカメラシステムの操作を、インターネット網に接続することで、インターネットを介して、ジャズライブのステージの演奏者の演奏を、スマートホーンの画面操作アプリケーションで操作し、それぞれの追尾テレビカメラで撮影して、それぞれの画像を鑑賞することができる説明図。 図150は、追尾テレビカメラシステムを、本社事務所と支社事務所に設置することで、必要に応じて、それぞれの事務所に設置した、固定テレビカメラの撮影する画面を、インターネットを介して、接続された、固定テレビカメラモニター画面で追尾テレビカメラを操作し、その追尾テレビカメラの撮影する画面を、インターネットを介して、追尾テレビカメラモニター画面でみることができる説明図。 図151は、著名な美術品に、鑑賞用の追尾テレビカメラシステムを設置し、インターネットを介して、追尾テレビカメラシステムの固定テレビカメラモニター画面上の操作で、追尾テレビカメラの撮影した画像を、インターネットを介して、スマートホーンの画面操作アプリケーションで操作し、追尾テレビカメラで撮影して、その画像を鑑賞することができる説明図。 図152は、サッカー場の子供の試合会場に、複数台の追尾テレビカメラシステムを設置し、インターネットを介して、追尾テレビカメラシステムの固定テレビカメラモニター画面上の操作で、インターネットを介して、追尾テレビカメラの撮影した試合を観戦する説明図。 図153は、サッカー場のピッチの上部に、追尾テレビカメラシステムを設置し、魚眼レンズ固定テレビカメラモニター画面とピッチを表示したCG画面との合成画面上で、各追尾テレビカメラシステムに組み込まれた、追尾テレビカメラの撮影する方向を指示する。各追尾テレビカメラが撮影する画面の、サッカーボールを画像認識させて、サッカーボールを追尾させる。そのサッカーボール付近を撮影する、各追尾テレビカメラの画像から、最適な画像を選別して観戦する説明図。 図154は、追尾テレビカメラシステムの魚眼レンズ固定テレビカメラモニター画面とピッチを表示したCG画面との合成画面上で、各数値制御テレビカメラの撮影方向が指示される。数値制御テレビカメラが撮影する画面上のサッカーボールを画像認識した位置に相当する方向を、追尾レーザー距離計測機で距離を計測し、その距離に相当する画角と焦点距離で、追尾テレビカメラでサッカーボールを撮影する説明図。 図155は、サッカー場のピッチの上部に、追尾テレビカメラシステムの移動用のワイヤー追尾駆動システムを設置し、固定テレビカメラモニター画面とピッチを表示したCG画面との合成画面上で、ワイヤー追尾駆動システムを駆動させ、追尾テレビカメラシステムに組み込まれた、数値制御テレビカメラが撮影する画面上のサッカーボールを画像認識した位置に相当する方向へ、追尾テレビカメラの画角と焦点距離を合わせて、サッカーボールを撮影する説明図。 図156は、固定テレビカメラモニター画面とピッチを表示したCG画面との合成画面上で、追尾テレビカメラシステムの駆動位置が指示されることで、指示された位置で前もって取得しておいた、各ワイヤー駆動機構の駆動数値で、ワイヤー駆動機構が駆動されて、その指示された位置で追尾テレビカメラシステムが撮影する説明図。 図157は、会場中央に設置された、魚眼レンズ固定テレビカメラの撮影した固定カメラカメラモニター画面上の指示で、ワイヤー駆動機構で支えられる追尾テレビカメラシステムの撮影する位置の移動と、数値制御テレビカメラの撮影する方向を指示し、数値制御テレビカメラの撮影した、数値制御テレビカメラモニター画面上の画像認識した位置で、その方向を追尾テレビカメラが撮影する説明図。 図158は、追尾テレビカメラシステム車両の前面の異なる位置に取り付けた、数値制御の指向性マイクロホンの音声を音声解析し、その解析した音声方向に数値制御の指向性マイクロホンを向け、その距離を計測し、その音声の進行車両に対応した、事故回避運転データーの回避運転する説明図。
記載事項の説明
本出願については、本出願の特許は、既に本出願人が取得している、特許第55476870と、特許第55476005と、特許第5508308と、特許第6719494と、特願2018-174323とに関連する特許と、その関連する特許から派生特許の出願である。従って、本出願の実施説明において、上記取得特許済と公開の特願2018-174323号に記載してある説明は省略する。上記、特許第6719494は、PCT国際出願済の国際出願番号はPCT/JP2019/036238と、特願2018-174323も、PCT国際出願済の国際出願番号PCT/2019/004491である。本出願の実施説明において、説明を明快にするために、上記出願済みの特許を本出願特許で実施す形態を説明する。上記の取得特許に記載の明細書から、数値制御で駆動する駆動機構を、テレビカメラで撮影し、そのテレビカメラの画像を映す、そのテレビカメラモニター画面上の全ての位置で、前もって、その駆動機構の駆動数値を、そのテレビカメラモニター画面上で、その補間演算で取得してある駆動数値を使って、そのテレビカメラモニター画面上の全ての位置で、その駆動機構を駆動操作するものである。その駆動機構を駆動した位置の駆動数値は関連する。上記の出願済み特許に記載の明細書から、数値制御で駆動する駆動機構のレーザー距離計測機の照射する位置を計測することと、その照射位置を上記の取得特許に記載の数値制御で駆動する駆動機構の駆動位置とすることで、その照射位置を、そのテレビカメラモニター画面上の全ての位置で、数値制御で駆動する駆動機構のレーザー距離計測機の照射する位置を操作することができる。
従って、そのテレビカメラモニター画面上の全ての位置で、レーザー距離計測機で距離の計測ができる。テレビカメラで撮影した画像の位置が計測できる。上記の取得特許に記載の明細書から、テレビカメラで撮影した画像の位置を、別の数値制御で駆動するテレビカメラがその計測した距離で撮影することで、この撮影した画像の画像認識が可能となる。テレビカメラが撮影したテレビカメラモニター画面上の位置に、数値制御で駆動するレーザー距離計測機の計測した距離とそのレーザー距離計測機の駆動数値と数値制御で駆動するテレビカメラの撮影する画像とその画像認識とその数値制御で駆動するテレビカメラの駆動数値とを関連付けることができる。そのテレビカメラモニター画面上の全ての位置で関連付けた数値と名称を、コンピューターに接続し、記憶させることで、コンピューターの演算用の数値とするものである。目的を持たせた数値制御器機の駆動数値を、コンピューターに接続された、そのテレビカメラモニター画面上の位置の数値に関連させた、そのレーザー距離計測機の計測距離とその駆動数値と、その数値制御テレビカメラの撮影した位置とその画像認識とその数値制御テレビカメラ駆動数値を使って演算しその駆動するものである。人間の作業に代わり、数値制御のロボットが、テレビカメラで画像検を検出し、その画像を、数値制御のテレビカカメラと数値制御のレーザー距離計測機で、その画像認識とその位置を計測し、その画像認識にその数値制御のロボットが対応するか、その画像認識に対応したその画像認識に対応させるものである。本発明は、テレビカメラモニター画面上の全ての位置で、駆動機構の操作位置を画像認識し、その画像認識した操作位置をレーザー距離計測機で距離を計測することで派生する関連特許である。
距離計測においては、出願済みの特願2018-174323で同様に本発明が実施できるが、本発明の実施例は、特許第6719494のPCT国際出願番号PCT/JP2019/036238のよく知られた、レーザー距離計測機の方法を主に説明する。固定テレビカメラは、駆動数値で駆動される機器の位置関係を成立するためのもので、本発明の固定テレビカメラの撮影した画面上で、位置関係を成立させる。固定テレビカメラの撮影した画面上の全ての位置で、数値駆動機構の駆動位置とその駆動数値と、数値駆動機構のテレビカメラの撮影位置と撮影画像の画像認識とその駆動数値と、数値駆動機構のレーザー距離計測機の計測位置とその計測距離とその駆動数値と、マイクロホンの音声方向を計測する距離で、音声元との位置関係を成立させる。実施例に記載の事項は1般敵な事例であるが、以下に記載した事項は説明を簡略化するため事前に説明する。固定テレビカメラモニター画面、数値制御テレビカメラモニター画面、追尾テレビカメラモニター画面上の操作は省略した図面としてあるが、テレビカメラモニター画面上の位置の数値が得られる説明である。数値制御テレビカメラと追尾テレビカメラの撮影する画像は画像認識の可能な画面で、画像の画角と焦点距離を調整して撮影される。数値制御テレビカメラと、追尾テレビカメラと、レーザー距離計測機と、数値制御ロボットと、数値制御機器は、駆動数値で駆動され、駆動された駆動位置は、コントローラーで把握さけている。追尾テレビカメラシステムのレーザー距離計測機の計測距離と、固定テレビカメラモニター画面と、数値制御テレビカメラモニター画面と、追尾テレビカメラモニター画面との画面上の全て位置は、位置の数値として把握さけている。追尾テレビカメラシステムのレーザー距離計測機の計測距離で工場ヤード内の数値制御ロボットの移動作業が可能になる。自動運転の車両は、追尾テレビカメラシステムが設定されており、自動運転のデーターは自動運転の車両に組み込まれた、数値駆動機構を手動で操作して取得する。自動運転の車両の自動運転は、取得したデーターと、コンピューターの演算した数値で数値駆動機構を駆動して走行する。説明図に記載し、明細書に記述する、各「テレビカメラモニター画面」は、本発明が、駆動数値で駆動する駆動をテレビカメラモニター画面上に映して、その駆動を関連付ける説明をしているので、表示記載しているが、各テレビカメラモニター画面の設置は必ず必要とする物では無い。
(自動駐車データーの取得)
実施例 図1の646追尾テレビカメラシステムの数値制御で走行する、670自動運転データー取得車に取り付け、890前進駐車走行データー取得範囲を、その自動車の運転に精通した運転者に手動で駐車走行させ横向き駐車した、その駐車走行した670自動運転データー取得車の数値制御の走行操作データーを取得するものである。646追尾テレビカメラシステムは、進行方向を撮影する、1固定テレビカメラと、数値制御で駆動する3追尾レーザー距離計測機と、数値制御で駆動する80追尾テレビカメラが組み込まれている。1固定テレビカメラが撮影した画面を映す、5固定テレビカメラモニター画面上で画像検出した被写体の映る、その位置に相当する方向を、3追尾レーザー距離計測機を向けその1固定テレビカメラの画像認識した被写体との距離を計測する。1固定テレビカメラと3追尾レーザー距離計測機と80追尾テレビカメラを、数値制御で駆動する自動車に取り付けられた646追尾テレビカメラシステムである。
その3追尾レーザー距離計測機が計測した被写体との距離に相当する画角と焦点距離で、その方向を80追尾テレビカメラで撮影して、その撮影した画像を詳細に画像確認して画像を解析する。その画像確認した被写体は、その方向とその距離から、670自動運転データー取得車から、その画像認識した駐車上の886、887、888駐車位置角A、B、Cと、889駐車予定位置を認識することができる。1固定テレビカメラが撮影した画面を映す、5固定テレビカメラモニター画面上で画像検出した全ての被写体のその画像確認と被写体の位置のその距離を、80追尾テレビカメラで撮影した、895、896、897、前進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車位置角A、B、Cを認識することができる。
以下の説明においては、説明に必要な画像認識の記載とする。
実施例 図2の646追尾テレビカメラシステムを670自動運転データー取得車の前面に取り付け、画像認識した890前進駐車走行データー取得範囲を、その自動車の運転に精通した運転者に手動で駐車走行させ横向き駐車した、その駐車走行した走行操作データーを取得するものである。881前進駐車走行データー取得開始位置での、646追尾テレビカメラシステムの1固定テレビカメラが撮影して、891固定テレビカメラモニター画面上の画像892、983、894前進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車位置角A、B、Cを検出し、その画面上の位置に相当する方向へ、その3追尾レーザー距離計測機を向けて、その距離を計測する。
その計測した距離に従って、その画角と焦点距離で80追尾テレビカメラの撮影する、92追尾テレビカメラモニター画面上の895、896、897前進駐車走行データー取得開始位置の追尾テレビカメラモニター画面に映る駐車位置角A、B、Cの画像を、それぞれを画像認識し、その計測距離と、それぞれの撮影方向とに、881前進駐車走行データー取得開始位置の駐車走行前の走行駆動機構の駆動数値を関連付けて記憶させる。
883前進駐車走行データー取得位置での、駐車走行中の646追尾テレビカメラシステムの1固定テレビカメラが撮影して、891固定テレビカメラモニター画面上に、892、893、894前進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車位置角A、B、Cを検出し、その画面上の位置に相当する方向へ、3追尾レーザー距離計測機を向けて、その距離を計測する。
その計測した距離に従って、その画角と焦点距離で80追尾テレビカメラの撮影する、92追尾テレビカメラモニター画面上の898、899、900前進駐車走行データー取得893の位置の92追尾テレビカメラモニター画面に映る駐車位置角A、B、Cの画像を、それぞれの画像認識した、その計測距離と、それぞれの撮影方向とに、883前進駐車走行データー取得位置Aを駐車走行中Aの走行駆動機構の駆動数値を関連付けて記憶させる。884前進駐車走行データー取得位置Bの891固定テレビカメラモニター画面上に、892、893、894前進駐車走行データー取得開始位置の891固定テレビカメラモニター画面に映る駐車位置角A、B、Cを検出し、その画面上の位置に相当する方向へ、その3追尾レーザー距離計測機を向けて、その距離を計測する。
その計測した距離に従って、その画角と焦点距離で80追尾テレビカメラの撮影する、92追尾テレビカメラモニター画面上の901、902、903前進駐車走行データー取得の位置の92追尾テレビカメラモニター画面に映る駐車位置角A、B、Cの画像を、それぞれの画像認識した、その計測距離と、それぞれの撮影方向とに、884前進駐車走行データー取得位置B を駐車走行中Bの走行駆動機構の駆動数値を関連付けて記憶させる。
885前進駐車走行データー取得位置C駐車走行中Cの891固定テレビカメラモニター画面上に、892、893、894前進駐車走行データー取得開始位置の891固定テレビカメラモニター画面に映る駐車位置角A、B、Cを検出し、その画面上の位置に相当する方向へ、その3追尾レーザー距離計測機を向けて、その距離を計測する。その計測した距離に従って、その画角と焦点距離で80追尾テレビカメラの撮影する、92追尾テレビカメラモニター画面上の904、905、906前進駐車走行データー取得の885の位置の92追尾テレビカメラモニター画面に映る駐車位置角A、B、C の画像を、それぞれの画像認識したその計測距離と、それぞれの撮影方向とに、885前進駐車走行データー取得位置Cを駐車走行中Cの走行駆動機構の駆動数値を関連付けて記憶させる。
889駐車予定位置の891固定テレビカメラモニター画面上に、892、893前進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車位置角A、Bを検出し、その画面上の位置に相当する方向へ、3追尾レーザー距離計測機を向けてその距離を計測する。その計測した距離に従って、その画角と焦点距離で80追尾テレビカメラの撮影する、92追尾テレビカメラモニター画面上の907、908前進駐車走行の889駐車予定位置での駐車位置角A、Bの画像を、それぞれの画像認識したその計測距離と、それぞれの撮影方向とに、889駐車予定位置 への駐車予定位置の走行駆動機構の駆動数値を関連付けて記憶させる。
同様にして、890前進駐車走行データー取得範囲の、幾つかの異なる位置から、駐車走行したデーターを取込んだ、その幾つかを関連付けて記憶させる。上記の、890前進駐車走行データー取得範囲での、画像検出した固定テレビカメラモニター画面上の、892、893、894前進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車位置角A、B、Cからの、646追尾テレビカメラシステムで画像認識した画像とその距離と方向に関連付け、その走行駆動機構の駆数値から、890前進駐車走行データー取得範囲の全ての位置のから駐車走行する、その走行駆動機構の駆数値を補間法の演算で、又はシュミレィーションの演算で取得し記憶する。
実施例 図3の646追尾テレビカメラシステムを670自動運転データー取得車の自動車の後面に取り付け、915後進駐車走行データー取得範囲を、その自動車の運転に精通した運転者に手動で駐車走行させ後向き駐車した、その駐車走行した走行操作データーを取得するものである。上記説明と同様に、915後進駐車走行データー取得範囲での、画像検出した916後進駐車走行データー取得開始位置の固定テレビカメラモニター画面上の、917、918、919後進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車位置角A、B、Cからの、646追尾テレビカメラシステムで画像認識した画像とその距離と方向に関連付け、その走行駆動機構の駆動数値から、915後進駐車走行データー取得範囲の全ての位置のから駐車走行する、その走行駆動機構の駆動数値を補間法の演算で、又はシュミレィーションの演算で取得し記憶する。
実施例 図4の646追尾テレビカメラシステムを670自動運転データー取得車の自動車の後面に取り付け、915後進駐車走行データー取得範囲を、その自動車の運転に精通した運転者に手動で駐車走行させ並行駐車した、その駐車走行した走行操作データーを同様な方法で取得するものである。
実施例 図5の646追尾テレビカメラシステムを670自動運転データー取得車の自動車の後面に取り付け、915後進駐車走行データー取得範囲を、その自動車の運転に精通した運転者に手動で駐車走行させ前向き駐車した、その駐車走行した走行操作データーを同様な方法で取得するものである。
実施例 図6の646追尾テレビカメラシステムを670自動運転データー取得車の自動車の前面に取り付け、890前進駐車走行データー取得範囲を、その自動車の運転に精通した運転者に手動で駐車走行させ後向駐車した、その駐車走行した走行操作データーを同様な方法で取得するものである。
実施例 図7の646追尾テレビカメラシステムを670自動運転データー取得車の自動車の前面に取り付け、890前進駐車走行データー取得範囲を、その自動車の運転に精通した運転者に手動で駐車走行させ前向並行駐車した、その駐車走行した走行操作データーを同様な方法で取得するものである。
実施例 図8の646追尾テレビカメラシステムを670自動運転データー取得車の自動車の前面と後面に取り付け、固有な890前進駐車走行データー取得範囲と915後進駐車走行データー取得範囲を、その自動車の運転に精通した運転者に手動で駐車走行させ斜め前向き駐車した、その固有な駐車走行した走行操作データーを同様な方法で取得するものである。
その固有な890前進駐車走行データー取得範囲の、881前進駐車走行データー取得開始位置の他、幾つかの地点から、その固有な駐車走行した走行操作データーを同様な方法で取得するものである。前面に取り付けた646追尾テレビカメラシステムで、それぞれを画像認識し、それぞれの計測距離と、それぞれの撮影方向とに、そのそれぞれの駐車走行の走行駆動機構のそれぞれの駆動数値を関連付けて記憶させる。固有な915後進駐車走行データー取得範囲の882前進駐車走行データー取得進路の、910後進駐車走行データー取得開始位置の910後進駐車走行データー取得開始位置の他、幾つかの地点から、その固有な駐車走行した走行操作データーを同様な方法で取得するものである。後面に取り付けた646追尾テレビカメラシステムで、それぞれを画像認識し、それぞれの計測距離と、それぞれの撮影方向とに、そのそれぞれの駐車走行の走行した駆動機構のそれぞれの駆数値を関連付けて記憶させる。
上記の、固有な890前進駐車走行データー取得範囲の882前進駐車走行データー取得進路と915後進駐車走行データー取得範囲の911後進駐車走行データー取得進路での、画像検出した固定テレビカメラモニター画面上の画像、892、893前進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車位置角A、B、909前進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車予定位置からの、646追尾テレビカメラシステムで画像認識した画像とその距離と方向に関連付け、その走行駆動機構の固有な駆動数値から、固有な890前進駐車走行データー取得範囲の882前進駐車走行データー取得進路と915後進駐車走行データー取得範囲の911後進駐車走行データー取得進路の全ての位置のから固有な駐車走行する、その走行駆動機構の駆動数値を補間法の演算で、又はシュミレィーションの演算で取得し記憶する。
実施例  図9の固有な890前進駐車走行データー取得範囲の882前進駐車走行データー取得進路を、その自動車の運転に精通した運転者に手動で駐車走行させ斜め前向き駐車した、その固有な駐車走行した走行操作データーを、646追尾テレビカメラシステムを670自動運転データー取得車の前面に取り付け取得するものである。固有な890前進駐車走行データー取得範囲の、881前進駐車走行データー取得開始位置の他に、幾つかの開始位置から、その固有な駐車走行した駐車走行操作データーを同様な方法で取得するものである。それぞれを画像認識し、それぞれの計測距離と、それぞれの撮影方向とに、そのそれぞれの駐車走行の走行駆動機構のそれぞれの駆動数値を関連付けて記憶させる。
上記の、固有な890前進駐車走行データー取得範囲での、画像検出した5固定テレビカメラモニター画面上の画像、892、893前進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車位置角A、B、909前進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る909前進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車予定位置からの、646追尾テレビカメラシステムで画像認識した画像とその距離と方向に関連付け、その走行駆動機構の固有な駆動数値から、固有な890前進駐車走行データー取得範囲の全ての位置のから駐車走行する、その走行駆動機構の駆動数値を補間法の演算で、又はシュミレィーションの演算で取得し記憶する。その取得した演算した数値を修正するために、その修正したい前進駐車走行を、手動で前進駐車走行をして、その走行駆動機構のその駆動数値を使って、補間法の修正演算で、その修正したい前進駐車走行の、走行駆動数値を同様な方法で取得する。
実施例 図10の968シュミレィーション走行路から、890前進駐車走行データー取得範囲の駐車走行に接続するために、その自動車の運転に精通した運転者に手動で後進走行させて、その固有な走行操作データーに接続するシュミレィーションデーターを、646追尾テレビカメラシステムを670自動運転データー取得車の後面に取り付け取得するものである。個々の968シュミレィーション走行路から、890前進駐車走行データー取得範囲へ走行し、その幾つかの910後進シュミレィーション取得開始位置からのシュミレィーション走行をして、983駐車走行折り返し位置への幾つかの前進駐車走行をするシュミレィーョンシ走行データーを646追尾テレビカメラシステムで演算選択するものである。886、887、888駐車位置角A、B、Cと889駐車予定位置を、それぞれ5固定テレビカメンモニター画面で917、918後進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車位置角A、B、934後進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車予定位置を画像認識し、それぞれの計測距離と、それぞれの撮影方向との画像識別から、966シュミレィーション走行路と前進駐車走行データー走行路とのテレビモニター画面の967後進駐車走行データー走行路とシュミレィーション走行路の様に、1051シュミレィーション走行データーが882前進駐車走行データー取得進路と接続するデーターをその駐車走行車の走行駆動機構のそれぞれの駆動数値を関連付けて既に記憶された記憶から選択する。
966シュミレィーション走行路と前進駐車走行データー走行路とのテレビモニター画面上で、967後進駐車走行データー走行路とシュミレィーション走行路を選択することで、882前進駐車走行データー取得進路と接続する、1051シュミレィーション走行で983駐車走行折り返し位置まで走行する。その間に5固定テレビカメラモニター画面上の892、893前進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車位置角A、Bと、942前進駐車走行データー取得の駐車予定位置とを画像認識し、CG合成画面で965後進駐車走行データー走行路とシュミレィーション走行路との接合位置を表示して確認する、。
1051シュミレィーション走行で983駐車走行折り返し位置まで走行し、960後進駐車走行の車両の駆動数値を、949前進駐車走行の車両の駆動数値に入れ替えて、固有な890前進駐車走行データー取得範囲の位置で、646自動テレビカメラシステムを670自動運転データー取得車の前面に取り付けた、5固定テレビカメラモニター画面上の892、893前進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車位置角A、Bと942前進駐車走行データー取得の駐車予定位置を画像認識した、882前進駐車走行データー取得進路を前進駐車走行データー走行し、889駐車予定位置に駐車させる。駐車予定位置を画像認識させて、その駐車データー走行の出来る範囲に走行するまでの、走行データーをシュミレィーションで演算し、シュミレィーションした走行データーで走行することで、多様な駐車位置へ多様位置からの自動運転による駐車が可能になる。
実施例 図11の追尾テレビカメラモニター画面上の画像認識した、既に駐車中の前向きの車両間を976追尾テレビカメラモニター画面に映る駐車車両の画像解析の位置の距離と角度の演算画面上の駐車中の車両間の距離を計測する。同じく、977追尾テレビカメラモニター画面に映る駐車車両の画像解析の位置で駐車場所の演算画面上の画像認識した、幾つかの前向き駐車中の車両間を計測する。920後進駐車走行データー取得開始位置の追尾テレビカメラモニター画面に映る駐車位置角Aと921後進駐車走行データー取得開始位置の追尾テレビカメラモニター画面に映る駐車位置角Bとの距離を計測し駐車可能と判断する。
960後進駐車走行の車両の後面に取り付けた、646追尾テレビカメラシステムの追尾テレビカメラが撮影した、960後進駐車走行の車両の位置から968シュミレィーション走行路を演算する。974後進駐車走行可能範囲から、975後進駐車走行データー走行可能範囲のその位置への、その接続までを、そのシュミレィーションの方法で演算した、その演算した駆動機構の駆動数値の数値で走行する。965後進駐車走行データー走行路とシュミレィーション走行路との接合位置において、646追尾テレビカメラシステムの後進行方向を撮影する、80追尾テレビカメラの撮影する画面で画像認識し、3追尾レーザー距離計測機で距離を計測する。その場所の前向き駐車中の車両間886駐車位置角Aと887駐車位置角Bの計測した距離が、駐車を再度可能と判断し、960後進駐車走行の車両が、978後進駐車走行データー走行路の後進駐車走行データー走行し駐車する。
実施例 図12の949前進駐車走行の車両の前面に取り付けた、646追尾テレビカメラシステムの1固定テレビカメラが撮影した5固定テレビカメラモニター画面上の画像検出した951固定テレビカメラモニター画面の左手奥の駐車車両の側面の画像位置を80追尾テレビカメラが撮影した、948前進駐車走行の追尾テレビカメラモニター画面に映る奥の駐車予定位置の方向と距離を計測する。既に取得してある、987後進駐車走行データー走行路の何れかの駐車走行開始位置とその車両の駆動機構の駆動数値と合わせる様に、949前進駐車走行の車両の位置から、シュミレィーションで演算し、964後進駐車走行データー走行区域へのシュミレィーション走行し、965後進駐車走行データー走行路とシュミレィーション走行路との接合位置で折り返し、978後進駐車走行データー走行路で後進駐車走行して889駐車予定位置に駐車する。
実施例 図13の960後進駐車走行の車両の後面に取り付けた、646追尾テレビカメラシステムの1固定テレビカメラが撮影した、5固定テレビカメラモニター画面上の980後進駐車走行の固定テレビカメラモニター画面に映る奥の駐車位置を画面上の画像認識で検出し、その検出した、又は、選出した位置に相当する方向へ、その3追尾レーザー距離計測機を向けて、その画像との距離を計測する。その計測した距離に相当する画角と焦点距離を合わせて、その80追尾テレビカメラでその検出した、又は、選出した画像を撮影し、92追尾テレビカメラモニター画面上の画像を画像認識する。その画像が938後進駐車走行データー取得の駐車予定位置であることを、92追尾テレビカメラモニター画面上の981後進駐車走行の追尾テレビカメラモニター画面に映る奥の駐車位置を音声、又は画像で確認する。
92追尾テレビカメラモニター画面上の982後進駐車走行の追尾テレビカメラモニター画面に映る修正駐車位置を92追尾テレビカメラモニター画面上で修正し、その画面のその駐車位置が、92追尾テレビカメラモニター画面の中央に映る様に、3追尾レーザー距離計測機と80追尾テレビカメラのその計測方向と撮影方向を変える。再度の画像確認と距離計測で、960後進駐車走行の車両から938後進駐車走行データー取得の駐車予定位置までの方向と距離を確認することで、646追尾テレビカメラシステムがすでに取得している前向き並列駐車予定位置の938後進駐車走行データー取得の駐車予定位置の後進駐車走行データー取得の駐車予定位置の距離を計測する。
978後進駐車走行データー走行路の973後進駐車走行データー走行範囲までの走行する、965後進駐車走行データー走行路とシュミレィーション走行路との接合位置と、共有するその駆動機構の駆動数値を、その計測した数値を使って演算した数値で、964後進駐車走行データー走行区域へシュミレィーション走行する。973後進駐車走行データー走行範囲まで走行すると、978後進駐車走行データー走行路で駐車走行し938後進駐車走行データー取得の駐車予定位置に駐車する。
実施例 図14の949前進駐車走行の車両の前面に取り付けた、646追尾テレビカメラシステムの1固定テレビカメラが撮影した、5固定テレビカメラモニター画面上の972前進駐車走行の固定テレビカメラモニター画面に映る奥の駐車位置を画面上の画像を検出し、その検出した位置に相当する方向へ、3追尾レーザー距離計測機を向けて、その検出した画像との距離を計測する。その計測した距離に相当する画角と焦点距離を合わせて、80追尾テレビカメラでその検出した画像を撮影し、92追尾テレビカメラモニター画面上の画像を画像認識する。その画像認識してその距離を計測し、後向駐車可能と判断しその画像認識した位置に駐車するとして998シュミレィーション走行のデーター取得範囲を表示する5固定テレビカメラモニター画面の984シュミレィーション走行データー取得範囲に向かって走行し、シュミレィーション走行する駐車車両の演算ができる位置を探して走行する。
5固定テレビカメラモニター画面上の980後進駐車走行の固定テレビカメラモニター画面に映る奥の駐車位置を画面上の画像認識で検出できる様に走行し、その検出した位置に相当する方向へ、3追尾レーザー距離計測機を向けて、その検出した画像との距離を計測する。その画像確認し、その距離が計測できた置で、964後進駐車走行データー走行区域へのシュミレィーション走行の演算をする。その計測した距離に相当する画角と焦点距離を合わせて、その80追尾テレビカメラでその検選出した画像を撮影し、92追尾テレビカメラモニター画面上の画像を画像認識する。
965後進駐車走行データー走行路とシュミレィーション走行路との接合位置から、978後進駐車走行データー走行路で後進駐車走行する。その後進駐車走行に合わせて、その記憶させた、949前進駐車走行の車両の前面に取り付けた、80追尾テレビカメラが撮影した92追尾テレビカメラモニター画面上の画像を、646追尾テレビカメラシステムの計測する位置と走行方向位置に合わせて変換する。
その変換した92追尾テレビカメラモニター画面確認した駐車位置の画像の駐車走行に合わせて画像変換した画面を映すモニター画面に表示する。
実施例 図15の949前進駐車走行の車両の前面に取り付けた、646追尾テレビカメラシステムの1固定テレビカメラが撮影した、5固定テレビカメラモニター画面上の986固定テレビカメラモニター画面に映る駐車位置を画面上の画像認識で検出し、その検出した位置を指示し、その位置に相当する方向へ、3追尾レーザー距離計測機を向けて、その検出した画像との距離を計測する。その計測した距離に相当する画角と焦点距離を合わせて、80追尾テレビカメラでその検出した画像を撮影し、92追尾テレビカメラモニター画面上の画像の駐車位置を画像認識する。その画像認識してその距離を計測し、その駐車位置の周辺を80追尾テレビカメラの撮影する画像で画像認識し、3追尾レーザー距離計測機でその距離を計測して、過去の学習した駐車位置から、並列駐車可能と判断しその画像認識した位置に駐車する987前進駐車走行データー走行路を選出して走行し駐車する。その駐車走行を記憶させ、その学習に追加する。
実施例 図16の949前進駐車走行の車両の前面に取り付けた、646追尾テレビカメラシステムの1固定テレビカメラが撮影した、5固定テレビカメラモニター画面上の986固定テレビカメラモニター画面に映る駐車位置を画面上の画像認識で検出し、その検出した位置に相当する方向へ、3追尾レーザー距離計測機を向けて、その検出した画像との距離を計測する。その計測した距離に相当する画角と焦点距離を合わせて、80追尾テレビカメラでその検出した画像を撮影して画像認識し、988追尾テレビカメラモニターに映る駐車シュミレィーション画面を表示する。
978駐車予定位置を988追尾テレビカメラモニターに映る駐車シュミレィーション画面上で確認するか、その画面に映る駐車位置を修正することで、977追尾テレビカメラモニター画面に映る駐車車両の画像解析の位置で駐車場所の演算画面を表示する。その駐車位置を確認することで、964後進駐車走行データー走行区域へのシュミレィーション走行を修正し、965後進駐車走行データー走行路とシュミレィーション走行路との接合位置で折り返す駐車走行を選択し、978後進駐車走行データー走行路の走行で駐車する。646追尾テレビカメラシステムに、駐車を指示し、646追尾テレビカメラシステムが、駐車位置を画像認識し、その画面の表示を確認するか、修正することでその指示に従った画面を確認することで、949前進駐車走行の車両がその889駐車予定位置に駐車走行して駐車する。
実施例 図17の960後進駐車走行の車両の後前面に取り付けた、646追尾テレビカメラシステムの1固定テレビカメラが撮影した、986固定テレビカメラモニター画面に映る駐車位置が映る画面上の画像認識で検出し、その検出した位置に相当する方向へ、3追尾レーザー距離計測機を向けて、その検出した画像との距離を計測する。その計測した距離に相当する画角と焦点距離を合わせて、80追尾テレビカメラでその検出した画像を撮影し、92追尾テレビカメラモニター画面上の画像の駐車位置を画像認識する。
その画像認識してその距離を計測し、その駐車位置の周辺を80追尾テレビカメラの撮影する92追尾テレビカメラモニター画面の989、990、991、992駐車車両後部の画像解析A、B、C、Dの画像で画像認識し、3追尾レーザー距離計測機で、その距離を計測して駐車車両間の距離を演算した、過去の学習した駐車車両間から、前進列駐車が可能と判断し、シュミレィーション走行で、965後進駐車走行データー走行路とシュミレィーション走行路との接合位置で折り返し、その画像認識した948前進駐車走行の追尾テレビカメラモニター画面に映る奥の駐車予定位置に駐車する。646追尾テレビカメラシステムは、その駐車予定位置の周辺を走行しながら、幾度も80追尾テレビカメラの撮影する92追尾テレビカメラモニター画面の画像認識とその距離を計測する。
実施例 図18の949前進駐車走行の車両の前面に取り付けた、646追尾テレビカメラシステムの1固定テレビカメラが撮影した、986固定テレビカメラモニター画面に映る駐車位置の画面上に950固定テレビカメラモニター画面の左手前の駐車車両の側面の画像位置、951固定テレビカメラモニター画面の左手奥の駐車車両の側面の画像位置、952固定テレビカメラモニター画面の中央の駐車留の縁石の画像位置、953固定テレビカメラモニター画面の右手奥の駐車車両の側面の画像位置、954固定テレビカメラモニター画面の右手前の駐車車両の側面の画像位置の複数の画像を検出し画像認識する。その複数の検出した位置に相当するそれぞれの方向へ、3追尾レーザー距離計測機を向けて、その検出した複数の画像との距離を計測する。
その複数の計測した距離に相当する画角と焦点距離を合わせて、80追尾テレビカメラでその検出した複数の画像を撮影し、92追尾テレビカメラモニター画面上に955前進駐車走行の追尾テレビカメラモニター画面に映る左手前の駐車車両の側面、956前進駐車走行の追尾テレビカメラモニター画面に映る左手奥の駐車車両の側面、957前進駐車走行の追尾テレビカメラモニター画面に映る駐車留の縁石、958前進駐車走行の追尾テレビカメラモニター画面に映る右手奥の駐車車両の側面、959前進駐車走行の追尾テレビカメラモニター画面に映る右手前の駐車車両の側面の複数の画像を画像認識し記憶する。
その画像認識してその距離を計測した949前進駐車走行の車両の位置から、その駐車位置の周辺を80追尾テレビカメラの撮影する943左手前の駐車車両の側面、944左手奥の駐車車両の側面、945駐車留縁、946右奥の駐車車両の側面、947右手前の駐車車両の側面の位置とそれぞれの距離を計測することで、882前進駐車走行データー取得進路ので889駐車予定位置の位置への駐車を把握することがでる。前進駐車走行データー取得進路の駐車走行した過去に学習した駐車方法で後向駐車が適当と判断し、987前進駐車走行データー走行路のその走行データーで駐車走行し駐車位置に駐車する。それぞれの認識した画像を記憶し、次回以降の駐車走行の画像認識の参考とする。
実施例 図19の960後進駐車走行の車両の後前面に取り付けた、646追尾テレビカメラシステムの1固定テレビカメラが撮影した、986固定テレビカメラモニター画面上に、950固定テレビカメラモニター画面の左手前の駐車車両の側面の画像位置、951固定テレビカメラモニター画面の左手奥の駐車車両の側面の画像位置、952固定テレビカメラモニター画面の中央の駐車留の縁石の画像位置、953固定テレビカメラモニター画面の右手奥の駐車車両の側面の画像位置、954固定テレビカメラモニター画面の右手前の駐車車両の側面の画像位置の複数の画像を検出して画像認識する。
その複数の検出した位置に相当するそれぞれの方向へ、3追尾レーザー距離計測機を向けて、その検出した複数の画像との距離を計測する。その複数の計測した距離に相当する画角と焦点距離を合わせて、80追尾テレビカメラでその検出した複数の画像を撮影し、92追尾テレビカメラモニター画面上に955前進駐車走行の追尾テレビカメラモニター画面に映る左手前の駐車車両の側面、956前進駐車走行の追尾テレビカメラモニター画面に映る左手奥の駐車車両の側面、957前進駐車走行の追尾テレビカメラモニター画面に映る駐車留の縁石、958前進駐車走行の追尾テレビカメラモニター画面に映る右手奥の駐車車両の側面、959前進駐車走行の追尾テレビカメラモニター画面に映る右手前の駐車車両の側面の複数の画像を画像解析し記憶する。
その画像認識してその距離を計測した960後進駐車走行の車両の位置から、その駐車位置の周辺を80追尾テレビカメラの撮影する943左手前の駐車車両の側面、944左手奥の駐車車両の側面、945駐車留縁、946右奥の駐車車両の側面、947右手前の駐車車両の側面の位置とその距離を計測することで、938後進駐車走行データー取得の駐車予定位置の空間を把握することがでる。938後進駐車走行データー取得の駐車予定位置へ、その空間を把握し過去の学習した駐車方法で前向駐車が適当と判断し、911後進駐車走行データー取得進路のその走行データーで駐車走行し駐車位置に駐車する。それぞれの認識した車両の画像を記憶し、次回以降の駐車走行の画像認識の参考とする。
 (事故回避)
実施例 図20の670自動運転データー取得車が674衝突回避すべき被写体に対して、恐怖信を感じさせない停止方法の停止データーの取得する方法である。713走行路Cで、同じ速度で走行し、その被写体までの距離が、671、672、673自動運転データー取得車の位置A、B、Cの距離から停止するまで、各走行操作のデーターを取得する。同様にして710、711、713、716、718走行路A、B、D、E 、で、同じ速度で走行し、671、672、673自動運転データー取得車の位置A、B、Cの距離から停止するまで、各走行操作のデーターを取得する。
その走行速度で、その走行路のすべての位置で、その恐怖信を感じさせない停止方法を、その670自動運転データー取得車の数値制御の駆動機構の、その走行データーとなる駆動数値を、その停止運転を開始した位置で取得した走行データーとして関連付け、その走行路の全の位置から、その停止運転を開始した位置で取得した停止する走行データーを、補間法等の演算で取得する。異なる速度でも同様にして、その走行路の全ての位置での、その全ての速度のその停止する走行データーを、補間法の演算で取得する。
実施例 図21の670自動運転データー取得車が674衝突回避すべき被写体に対して、恐怖信を感じさせない回避方法の回避運転データーの取得方法である。715走行路Cで、同じ速度で走行し、671、672、673自動運転データー取得車の位置A、B、Cの距離から回避運転を開始する、各走行操作のデーターを取得する。同様にして、710、711、716、718走行路A、B、D、E、で、同じ速度で走行し、671、672、673自動運転データー取得車の位置A、B、Cの距離からの回避運転を開始する、各走行操作のデーターを取得する。
その幾つかの走行速度で、その走行路の全ての位置で、その恐怖信を感じさせない回避運転方法を、その回避運転開始した位置とその恐怖信を感じさせない回避運転方法を、その670自動運転データー取得車の数値制御の駆動機構の、その回避走行データーとなる駆動数値を、その回避運転を開始した位置から、取得した回避走行データーとして関連付け、その走行路の全ての位置で回避運転を開始する回避走行データーを、補間法の演算で取得する。異なる通常の速度でも同様にして、その走行路の全ての通常の速度の、恐怖信を感じさせない回避運転をする回避走行データーを、補間法の演算で取得する。
実施例 図22の670自動運転データー取得車が674衝突回避すべき被写体に対して、最大限の回避運転で側面通過運転データーの取得方法である。715走行路Cで、同じ速度で走行し、671、672、673自動運転データー取得車の位置A、B、Cから最大限の回避運転で674衝突回避すべき被写体の側面通過運転する、各走行操作のデーターを取得する。同様にして710、711、716、718走行路A、B、D、Eで同じ速度で走行し、671、672、673自動車データー取得の位置A、B、Cの距離からの、最大限の回避運転で側面通過運転する、各走行操作のデーターを取得する。
その走行速度で、走行路のすべての位置で、その最大限の回避運転で674衝突回避すべき被写体との衝突を回避する運転をする側面通過運転方法を、その側面通過運転開始した位置と、その取得した走行データーを関連付け、その走行路の全ての位置で、その最大限の回避運転で674衝突回避すべき被写体との衝突を最大限の回避運転をする走行データーを、補間法の演算で取得する。異なる速度でも同様にして、その最大限の回避運転開始した位置の全ての位置で、その走行路の全ての速度の、その最大限の回避運転で674衝突回避すべき被写体との衝突を回避する運転をする走行データーを、補間法の演算で取得する
実施例 図23の670自動運転データー取得車が674衝突回避すべき被写体に衝突させない、最大限の回避運転の方法で運転データーの取得方法である。715走行路Cで、同じ速度で走行し、671自動運転データー取得車の位置A、から679衝突回避運転データー取得A、680衝突回避運転データー取得B、681衝突回避運転データー取得C、682衝突回避運転データー取得D、683衝突回避運転データー取得E、684衝突回避運転データー取得F、685衝突回避運転データー取得Gの各位置での最大限の回避運転で674衝突回避すべき被写体に衝突せずに通過運転する、各走行操作のデーターを取得する。
同様にして710、712、715、716、718走行路A、B、D、E、Fの走行路で、同じ速度で走行し、679、680、681、682、683、684、685衝突回避運転データー取得A、B、C、D、E、Fの最大限の回避運転の方法で通過運転する、各走行操作の最大限の衝突回避は、その走行車両の運転に熟知した操縦者で回避データーを取得しているため、その最大限の衝突回避の結果まで考慮されている。異なる通常の速度でも同様にして、各走行操作の最大限の衝突回避は、その走行車両の運転に熟知した操縦者で回避データーを取得しているため、その最大限の衝突回避の結果まで考慮されている。
実施例 図24の回避運転データー取得自動運転の自動車に設置している、646追尾テレビカメラシステムは、進行方向の遠方の被写体を、1固定テレビカメラが撮影した5固定テレビカメラモニター画面上の686自動運転車両に取付けた固定テレビカメラモニターに映る被写体の画像を検出し、その検出した画面上の位置に相当する方向へ、3追尾レーザー距離計測機を向けて、その検出した画像との距離を計測し、その距離に対応した画角と焦点距離で80追尾テレビカメラが、その検出した画像を撮影する。その撮影した92追尾テレビカメラモニター画面上の687自動運転車両に取付けた追尾テレビカメラモニターに映る画像解析で回避すべき被写体の画像を認識し画像解析する。
その像析した画像が、回避運転すべき親子の歩行者であると認識したことで、その親子に恐怖信をできるだけ感じさせない回避運転と、その自動車の乗員にも恐怖信をできるだけ感じさせない回避運転で、その自動車の運転に精通した運転者に走行させ、その走行した走行操作データーを取得するものである。678衝突回避運転データー取得路面の674衝突回避すべき被写体に対して、670自動運転データー取得車が、その距離計測しながらの回避運転データーの取得方法である。その取得方法は、その自動車の運転に精通した運転者に走行させるが、その積載した追尾テレビカメラシステムの画像解析と回避判断の学習データーとして取得する。
実施例 図25の678衝突回避運転データー取得路面を、670自動運転データー取得車が、674衝突回避すべき被写体との衝突を避けるための688回避運転開始位置Aで衝突回避と判断し、689回避運転Aをした回避運転データー取得運転である。
実施例 図26の678衝突回避運転データー取得路面を、670自動運転データー取得車が、674衝突回避すべき被写体との衝突を避けるための690回避運転開始位置Bで衝突回避と判断し、691回避運転Bをした回避運転データー取得運転である。
実施例 図27の678衝突回避運転データー取得路面を、670自動運転データー取得車が、674衝突回避すべき被写体との衝突を避けるための692回避運転開始位置Cで衝突回避と判断し、693回避運転Cをした回避運転データー取得運転である。
実施例 図28の678衝突回避運転データー取得路面を、670自動運転データー取得車が、674衝突回避すべき被写体との衝突を避けるための694回避運転開始位置Dで衝突回避と判断し、695回避運転Dをした回避運転データー取得運転である。
実施例 図29の678衝突回避運転データー取得路面を、670自動運転データー取得車が、674衝突回避すべき被写体との衝突を避けるための696回避運転開始位置Eで衝突回避と判断し、697回避運転Eをした回避運転データー取得運転である。
実施例 図30の678衝突回避運転データー取得路面を、670自動運転データー取得車が、674衝突回避すべき被写体との衝突を避けるための698回避運転開始位置Fで衝突回避と判断し、699回避運転Fをした回避運転データー取得運転である。
実施例 図31の678衝突回避運転データー取得路面を、670自動運転データー取得車が、674衝突回避すべき被写体との衝突を避けるための700回避運転開始位置Gで衝突回避と判断し、701回避運転Gをした回避運転データー取得運転である。
実施例 図32の678衝突回避運転データー取得路面を、670自動運転データー取得車が、674衝突回避すべき被写体との衝突を避けるための702回避運転開始位置Hで衝突回避と判断し、703回避運転Hの最大限の回避運転データー取得運転し、その衝撃を計測する加減速センサーと衝撃センサーの数値を取得運転である。
実施例 図33の678衝突回避運転データー取得路面の710走行路Aを走行する、670自動運転データー取得車が、674衝突回避すべき被写体との衝突を避けるためだけに、回避運転データー取得運転である。その回避運転データーは、670自動運転データー取得車の運転に係わる機構の駆動位置と、その計測した距離と方向と加減速センサーと衝撃センサーである。
実施例 図34の678衝突回避運転データー取得路面の711走行路B走行する、670自動運転データー取得車が、674衝突回避すべき被写体との衝突を避けるためだけに、712最大回避走行Bをした回避運転データー取得運転である。
実施例 図35の678衝突回避運転データー取得路面の713走行路Cを走行する、670自動運転データー取得車が、674衝突回避すべき被写体との衝突を避けるためだけに、714最大回避走行Cをした回避運転データー取得運転である。
実施例 図36の678衝突回避運転データー取得路面の715走行路D走行する、670自動運転データー取得車が、674衝突回避すべき被写体との衝突を避けるためだけに、719最大回避走行Dをした回避運転データー取得運転である。
実施例 図37の678衝突回避運転データー取得路面の716走行路Eを走行する、670自動運転データー取得車が、674衝突回避すべき被写体との衝突を避けるためだけに、717最大回避走行Eをした回避運転データー取得運転である。
実施例 図38の678衝突回避運転データー取得路面の718走行路Fを走行する、670自動運転データー取得車が、674衝突回避すべき被写体との衝突を避けるためだけに、回避運転データー取得運転である。
実施例 図39の678衝突回避運転データー取得路面の710、711、713、715、716、718走行路A、B、C、D、E、Fを走行する、670自動運転データー取得車が、674衝突回避すべき被写体との衝突を避けるためだけに、回避運転データー取得運転である。674衝突回避すべき被写体方向へ同じ速度で走行する、670自動運転データー取得車が、回避運転操作開始した位置から回避運転操作終了までのデーターを使って、678衝突回避運転データー取得路面の全ての位置から、674衝突回避すべき被写体方向へ走行する、670自動運転データー取得車の回避運転操作データーを、補間法の演算で取得して記憶させる。
実施例 図40の678衝突回避運転データー取得路面の走行路を走行する、670自動運転データー取得車が、704 20km走行自動運転車で、678衝突回避運転データー取得路面の走行路を走行する、705 20km走行の回避走行と最大回避走行でのデーターを取得する。706 60km走行自動運転車で、678衝突回避運転データー取得路面の走行路を走行する、707 60km走行の回避走行と最大回避走行でのデーターを取得する。708 100km走行自動運転車で、678衝突回避運転データー取得路面の走行路を走行する、709 100km走行の回避走行と最大回避走行でのデーターを取得する。異なる各走行速度で、上記記載の方法で、幾つかの走行速度で取得した、その走行速度による、その回避走行データーから、通常走行のその全ての速度走行での、その回避走行データーを、補間法の演算で取得して記憶させる。
実施例 図41の678衝突回避運転データー取得路面の走行路を走行する、646追尾テレビカメラシステムを組み込まれた、670自動運転データー取得車の前面に取り付けた、251魚眼レンズ固定テレビカメラが撮影した、501魚眼レンズ固定テレビカメラモニター画面上の画像検出した車両 の位置に相当する方向へ、3追尾レーザー距離計測機と80追尾テレビカメラを向ける。
3追尾レーザー距離計測機が、その左からの720前方右側の走行車との距離を計測する。その計測した距離に従った、画角と焦点距離で80追尾テレビカメラか撮影した画面を映す、92追尾テレビカメラモニター画面を224画像解析器で画像解析し、画像認識した225画像解析信号の画像情報と、その方向とその計測した距離から、720前方右側の走行車の位置を解析する。その画像認識した画像情報の重要性を比較して判断して、80追尾テレビカメラの撮影方向で追尾し続ける。その追尾する80追尾テレビカメラの方向を、3追尾レーザー距離計測機がその都度距離を計測する。
その計測した方向と距離の計測差から、その720前方右側の走行車の計測する方向と距離の予測し、その予測の位置と方向での、最善な回避運転を前もって取得してある回避データーから選択して、回避運転を予知するものである。その画像情報とその方向の周辺を計測し、回避運転範囲を確認する。その走行車の移動側度を演算し、その走行位置を想定することで、回避運転範囲あるとして、回避運転に対応できるデーターを、既に取得してある回避運転のデーターから選択して、回避運転をするものである。その回避運転の各データーを取得し、回避運転の学習に加える。
実施例 図42の670自動運転データー取得車の前面に、間隔おいて取り付けた229、238マイクロホンA、Bのそれぞれが収音した音声の信号を記憶する。記憶した音声を、232音声解析器で音声の解析し、その収音信号の位相差で、その収音した音源の水平方向の方向を演算するする。646追尾テレビカメラシステムの3追尾レーザー距離計測機と35数値制御テレビカメラを、その演算した方向に向ける。その演算した方向で35数値制御テレビカメラの撮影した画像で、左からの720前方右側の走行車を画像検出した、37数値制御テレビカメラモニター画面上に映る、241画像検出した車両の位置に相当する方向へ、3追尾レーザー距離計測機を向けて、その左からの走行車との距離を計測する。その計測した距離で、35数値制御テレビカメラの撮影した画像を画像認識する。
その計測した方向と距離の画像認識した走行車の画像から、その走行車の位置とその走行方向と移動速度を計測し、その走行車の方向と距離を予測し、その予測の位置での、最善な回避運転を前もって取得してある回避データーから選択して、回避運転をするものである。その画像認識した画像情報と、37数値制御テレビカメラモニター画面上に映る、241画像検出した車両の位置と、3追尾レーザー距離計測機の計測した距離と、その音声の信号からその演算した走行する方向と、その演算した計測距離と、その自動車の駆動機構の駆動数値とその音声の信号を記憶する。これらの記憶した数値から回避運転に対応できるデーターを取得し、回避運転を記憶し学習に加える。自動車の進行方向に取付けた、マイクロホンが収音した音声の信号を記憶し学習させることで、その音声の信号から走行車の位置を想定して、回避運転に対応できるデーターを、既に取得してある回避運転のデーターから選択して、回避運転をするものである。
走行自動車の走行方向の前面に、複数の指向性のある1072超音波発生器を取付け、その走行自動車の走行速度の情報等を添付して発信することで、その走行自動車のその発信を受信器し、その信号を受信する位置での、その走行自動車の走行方向と走行速度を演算することができる。その信号を受信する自動車で、複数の超音波発生器で受信することで、その自動車と、その走行自動車間の走行速度と、その位置の方向と距離が演算できる。超音波の伝播先で、いち早く近づく走行自動車の方向を感知し、その方向へ35数値制御テレビカメラと3追尾レーザー距離計測機を向け、早期の画像検出と、近づく走行自動車の距離が計測できる。
実施例 図43の678衝突回避運転データー取得路面の走行路を走行する、670自動運転データー取得車の前後の画素距離計測追尾テレビカメラシステムが取り付けてある。753画素距離計測追尾テレビカメラBが撮影した、757画素距離計測追尾テレビカメラモニター画面B上の被写体の画像を検出した位置の753画素距離計測追尾テレビカメラBの画像素子の位置に相当する位置の107 LED発光素子を発光させ、その光が753画素距離計測追尾テレビカメラBの光学レンズを通してその被写体に照射される。その照射された反射光の反射時間を計測して、その被写体との距離を計測する。
その検出した位置の753画素距離計測追尾テレビカメラBの画像素子の位置に、その計測された距離に相当する753画素距離計測追尾テレビカメラBの画素子の範囲を狭めて、その被写体の762画素距離計測追尾テレビカメラモニター画面Bの拡大画面を画像解析器で画像解析し、画像認識した画像情報と、その方向とその計測した距離から、その被写体の前方右側の走行車の位置を解析する。その画像認識した画像情報の重要性を比較判断して、753画素距離計測追尾テレビカメラBの撮影方向で追尾し続ける。その追尾する753画素距離計測追尾テレビカメラBの方向を、その都度距離を計測する。その計測した方向と距離の計測差から、その前方右側の走行車の計測する方向と距離の予測し、その予測の位置と方向での、最善な回避運転を前もって取得してある回避データーから選択して、回避運転を予知するものである。
670自動運転データー取得車の前後に取り付けた、画素距離計測追尾テレビカメラシステムの、752、753、754、755画素距離計測追尾テレビカメラA、B、C、Dの撮影した756、757、758、759画素距離計測追尾テレビカメラ画面A、B、C、Dの画像情報とその方向の周辺を計測し、回避運転範囲を確認する。その走行車の移動速度を演算し、その走行位置を想定することで、回避運転範囲あるとして、回避運転に対応できるデーターを、既に取得してある回避運転のデーターから選択して、回避運転をするものである。その回避運転の各データーを取得し、回避運転の学習に加える。商品化はまだされていないが、画素距離計測追尾テレビカメラシステムは、駆動機構が無く小型で、自動運転データー取得車の各位置に取り付け、各位置からの回避運転データーが取得できるものである。
実施例 図44の1063追越し走行運転データー取得路面の710、711、713、715、716、718走行路A、B、C、D、E、Fを走行する、670自動運転データー取得車が、316先行車との接触を避け追越すために、追越し走行運転データー取得運転である。3追尾レーザー距離計測機の計測した距離で、670自動運転データー取得車と316先行車との距離との速度差を計測する。316先行車の方向へ同じ追い越し速度で走行する、670自動運転データー取得車が、追い越し運転操作開始した位置から追い越し運転操作終了までのデーターを使って、1063追越し走行運転データー取得路面の全ての位置から、316先行車との接触を避け追越すために、316先行車の後方から走行する、670自動運転データー取得車の追越し走行運転データーを、補間法の演算で取得して記憶させる。
316先行車の異なる幾つかの走行速度で、同様な追越し走行運転データーを取得し全ての速度での、670自動運転データー取得車の追越し走行運転データーを、補間法の演算で取得して記憶させる。追い越し走行においては、その都度、追い越し可能範囲を設定して、その範囲内で、追越し走行運転データー運転に優先順位を付けて、追い越し走行をするものである。追越し走行は状況によって異なるため、追越し走行運転データーで追い越し走行を開始する前に、周辺に走行する関係する車両を追尾テレビカメラ距離計測システムで計測した方向と距離や周辺に走行する関係する車両が写るテレビカメラモニター画面上の位置で、追越し走行運転データーの数値に接続できる走行データーをシュミレィーションで演算して、接続できるシユミューレーシヨンの演算数値で追越し走行を実行することができる。
(一般道路の運転データーの取込み)
実施例 図45の308 追尾運転システム走行車の自動車が、309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置して349 1般自動車走行路を走行する。309追尾運転システムの1固定テレビカメラが撮影し画像検出した被写体が映る、5固定テレビカメラモニター画面上に803、804、805、806追尾運転システム固定テレビカメラモニター画面上の画像検出した先向車、歩道上の子供、対向車、中央車線の画像を検出する。
5固定テレビカメラモニター画面上のそれぞれの画像検出した画像の位置の方向へ、3追尾レーザー距離計測機をそれぞれに向けて、その距離を計測する、それぞれの計測された距離に従って画角と焦点距離を調整し、それぞれの被写体を80追尾テレビカメラが撮影した92追尾テレビカメラモニター画面上に、807、808、809、810追尾運転システム追尾テレビカメラモニター画面上の画像認識した対向車、先向車、中央車線、歩道上の子供を画像認識しながら走行する。
それらの画像認識した画像は、308追尾運転システム走行車の自動車からの、その方向と距離が計測されているため、その画像認識した被写体の位置を認知して、その自動車が既に取得してある衝突範囲外であることを、確認しながらの走行である。その画像認識した位置を解析して、その衝突範囲を予測しての走行である。766追尾運転システム固定テレビカメラ撮影範囲の811走行可能範囲内の800走行車線範囲内の走行である。
実施例 図46の309追尾運転システムの1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に833、834追尾運転システム固定テレビカメラモニター画面上の画像検出した進行方向左側の駐車車両、進行方向右側の中央分離帯標の画像を検出する。5固定テレビカメラモニター画面上のそれぞれの画像検出した画像の位置の方向へ、80追尾テレビカメラと3追尾レーザー距離計測機をそれぞれに向けてそれぞれの距離を計測する、それぞれの計測された距離に従って画角と焦点距離を調整し、80追尾テレビカメラが撮影した、それぞれの92追尾テレビカメラモニター画面上に、835、824、836、788追尾運転システム追尾テレビカメラモニター画面上の画像認識した右側縁石、進行方向の中央分離帯標示、左側駐車車両、駐車中の車両、右側の中央線を画像認識する。
自動車の走行進路の確認をするために、出来るだけその走行進路の先の状況を把握する必要がある。1固定テレビカメラで画像を検出した被写体が、先方で距離があるために、それぞれの画像検出した画像の位置の方向へ、80追尾テレビカメラと3追尾レーザー距離計測機を向けて、その検出した被写体との距離を、3追尾レーザー距離計測機で計測し、その距離に合わせて、80追尾テレビカメラの画角を狭くして、その距離に焦点距離を合わせて、その被写体の形状に合った画角の画像にして画像認識する。その画像確認した92追尾テレビカメラモニター画面上にその被写体の画像の映る位置と、その80追尾テレビカメラが撮影する方向と画角と、3追尾レーザー距離計測機が計測したその被写体までの距離と位置の数値から、その被写体の形状が詳細に解析できる。
その解析した数値で、92追尾テレビカメラモニター画面上の824追尾運転システム追尾テレビカメラモニター画面上の画像認識した進行方向の中央分離帯標示と、836追尾運転システム追尾テレビカメラモニター画面上の画像認識した左側駐車車両との間を、788追尾テレビカメラモニター画面上の駐車中の車両と右側の中央線の距離を演算して計測し、308 追尾運転システム走行車の自動車が通過走行できることを確認して走行する。それらの画像認識した画像は、308 追尾運転システム走行車の自動車からの、その方向と距離が計測されているため、その画像認識した位置を認知しながらの走行である。
833、834追尾運転システム固定テレビカメラモニター画面上の画像検出した進行方向左側の駐車車両、進行方向右側の中央分離帯標の画像検出した、それぞれの画像の画像認識とそれぞれの位置と形状を計測する。それぞれの距離での画像の形状認識を、概知の形状画像と比較して通過できる形状画像と画像認識し、それぞれの画像を計測した位置から、それぞれの画像間の距離を演算し、通過できるとして走行を続ける。その走行を続けて、それぞれの画像に接近するまでの何度かの、それぞれの画像の認識と、それぞれの画像間の距離の演算精度を良くして走行し通過する。その画像認識して画像から起き得る走行を予測して、その回避範囲を設けて走行する。その走行操作を記憶する。その画像認識した解析した画像を記憶する。
実施例 図47の308追尾運転システム走行車の自動車が、309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置して3491般自動車走行路を上限が設定された速度で走行する。309追尾運転システムの1固定テレビカメラが撮影し画像検出した被写体が映る、5固定テレビカメラモニター画面上に803、804、805、806追尾運転システム固定テレビカメラモニター画面上の画像検出した先向車、歩道上の子供、対向車、中央車線の画像を検出する。
5固定テレビカメラモニター画面上のそれぞれの画像検出した画像の位置の方向へ、80追尾テレビカメラと3追尾レーザー距離計測機をそれぞれに向けて距離を計測する、それぞれの計測された距離に従って画角と焦点距離を調整し、それぞれの被写体を80追尾テレビカメラが撮影した92追尾テレビカメラモニター画面上に、814、815、816、817追尾運転システム追尾テレビカメラモニター画面上の画像認識した車道上の子供、対向車、車道上の子供、走行方向の子供、走行方向の子供を回避対象の画像認識をする。
それらの画像認識した画像は、308 追尾運転システム走行車の自動車からの、その方向と距離が計測されているため、その画像認識した位置を認知して、その自動車が既に演算し取得してある衝突範囲外であることを、確認しながらの走行である。その画像認識した位置を認知して、その衝突範範囲を予測しての走行で、その認識したその画像が何であるかの判断を、前もって概知にしておくか、その記憶から学習させることで、その画像の回避範囲を広げ、その画像の画像認識と距離の計測に集中する。
この車道上の子供いる状況に日時を付して、GPSの方位計測で、その固有の位置として既に画像認識した位置の記憶を、インターネットで共有することで、309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置した車両が、その画像の画像認識の位置の記憶に従って、同じ状況を走行することができ、同じ方法で取得したその位置での記憶を追加し、その取得したその画像の画像認識位置記憶で、そのインターネットで共有する位置記憶とし、をその記憶で学習させることができる。
実施例 図48の308 追尾運転システム走行車の自動車が、309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置して349 1般自動車走行路を上限が設定された速度で走行する。309追尾運転システムの1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に793追尾運転システム固定テレビカメラモニター画面上の画像検出した対向車の画像を検出する。
5固定テレビカメラモニター画面上のその画像検出した画像の位置の方向へ、80追尾テレビカメラと3追尾レーザー距離計測機を向けてその距離を計測する、その計測された距離に従って画角と焦点距離を調整し、その被写体を80追尾テレビカメラが撮影した92追尾テレビカメラモニター画面に、794、795、796、797、798追尾運転システム追尾テレビカメラモニター画面上の画像認識した対向車、対向車の周辺、対向車の周辺のボール、対向車の周辺の子供、対向車の周辺の子供の飛出しの学習した予測に合わせて画像認識に集中する。その画像認識した画像に関連する学習した予測の画像を前もって概知にしておくか、学習させることで、その衝突を回避するために、その画像の画像認識と距離の計測を集中する。
実施例 図49の308 追尾運転システム走行車の自動車が、309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置して349 1般自動車走行路を走行する。309追尾運転システムの1固定テレビカメラが撮影し画像検出した被写体が映る、5固定テレビカメラモニター画面上に803、806、744、512、513追尾運転システム固定テレビカメラモニター画面上の画像検出した先向車、中央車線、中央車線を越えた対向車、先方中央線、子供の画像を検出する。
5固定テレビカメラモニター画面上のそれぞれの画像検出した画像の位置の方向へ、80追尾テレビカメラと3追尾レーザー距離計測機をそれぞれに向けてその距離を計測する、それぞれの計測された距離に従って画角と焦点距離を調整し、それぞれの被写体を80追尾テレビカメラが撮影する。その撮影した92追尾テレビカメラモニター画面に、809、745、746、808、813追尾運転システム追尾テレビカメラモニター画面上の画像認識した中央車線、中央車線を越えた対向車、中央車線、先向車、車道上の子供を画像認識しながら走行する。
それらの画像認識した画像は、308 追尾運転システム走行車の自動車からの、その方向と距離が計測されているため、その520中央線を越えて進行して来た対向車を早期に認知して、その自動車が既に演算して取得してある最大限の衝突回避範囲内であることを、確認しながらの走行である。813追尾運転システム追尾テレビカメラモニター画面上の画像認識した車道上の子供を画像の衝突回避を最優先にしたシュミレィーションで走行する。その520中央線を越えて進行して来た対向車の画像認識を予測し、対向車を認知した位置から、その衝突を回避する走行をシュミレィーションで演算し想定しての走行である。
実施例 図50の308 追尾運転システム走行車の自動車が、309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置して3491般自動車走行路を上限が設定された速度で走行する。309追尾運転システムの1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に799追尾運転システム固定テレビカメラモニター画面上の画像検出した車道上の子供の画像を検出する。
5固定テレビカメラモニター画面上のその画像検出した画像の位置の方向へ、80追尾テレビカメラと3追尾レーザー距離計測機を向けて距離を計測する、その計測された距離に従って画角と焦点距離を調整し、その被写体を80追尾テレビカメラが撮影した、その92追尾テレビカメラモニター画面に、813追尾運転システム追尾テレビカメラモニター画面上の画像認識した車道上の子供を子供として画像認識して、連続してその車道上の子供を画像認識する。308追尾運転システム走行車の自動車が走行する方向とその子供の位置と進行方向を子供として演算して予測する。
その子供との衝突を回避するために、308追尾運転システム走行車のその回避方向を、前もって取得してある回避走行のデーターを使って1固定テレビカメラが撮影した5固定テレビカメラモニター画面上のその画像検出した画像の位置から、回避方向の画像検出ができる画像が無い方向へ、3追尾レーザー距離計測機をその方向に向けて距離を計測する。その計測された距離に従って画角と焦点距離を調整し、その被写体を80追尾テレビカメラが撮影した、その80追尾テレビカメラが撮影する92追尾テレビカメラモニター画面上に、回避方向の画像が無いとの画像認識し、前もって取得してある回避走行のデーターを使って回避範囲を演算する。その子供との衝突を回避するために、取得してある最大限の回避運転を含む回避運転データーで走行をする。
実施例 図51の308 追尾運転システム走行車の自動車が、309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置して3491般自動車走行路を上限が設定された速度で走行する。309追尾運転システムの1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に799追尾運転システム固定テレビカメラモニター画面上の画像検出した車道上の子供の画像を検出する。
5固定テレビカメラモニター画面上のその画像検出した画像の位置の方向へ、80追尾テレビカメラと3追尾レーザー距離計測機をその方向に向けて距離を計測する、その計測された距離に従って画角と焦点距離を調整し、その被写体を80追尾テレビカメラが撮影する。その92追尾テレビカメラモニター画面に、817追尾運転システム追尾テレビカメラモニター画面上の画像認識した走行方向の子供を画像認識する。再度のその車道上の子供を画像認識し、308追尾運転システム走行車の自動車が走行する方向と、その子供の位置と進行方向を演算して予測する。その計測された距離に従って画角と焦点距離を調整し、その92追尾テレビカメラモニター画面に、その幾つかの画像を画像認識し、その進行方向とその位置を演算する。
その演算した位置で、その子供との衝突を回避するために、前もって取得してある最大限の回避運転を含むこの回避運転データー走行の選択をする。308追尾運転システム走行車が取得している最大限の回避運転データーは、その自動車の運転に熟知している運転者の実施したものであるが、1般自動車走行路での状況は異なるので、その回避方向を探す方法に、過去に学習した記憶を参考にする。その多様なその回避運転方法を学習データーとして、回避運転データーを学習させ取得する。
実施例 図52の事故回避データーを取得した追尾テレビカメラシステムを設置した308追尾運転システム走行車の自動車が、309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置して3491般自動車走行路を上限が設定された速度で走行する。309追尾運転システムの1固定テレビカメラが進行方向を撮影した5固定テレビカメラモニター画面上に、画像を検出することが出ない画面上の範囲ある。
5固定テレビカメラモニター画面上の画像検出できない位置の方向へ、3追尾レーザー距離計測機と80追尾テレビカメラを向けて距離計測と、80追尾テレビカメラの広めの画角で撮影する。3追尾レーザー距離計測機の計測用レーザー光線の839走行路先方の左側の暗い駐車車両の被写体からの反射光を受け、その距離が計測できた、3追尾レーザー距離計測機の駆動数値に相当する、5固定テレビカメラモニター画面上の840追尾運転システム固定テレビカメラモニター画面上の画像検出した困難な暗い左側駐車車両の位置に相当する方向へ、80追尾テレビカメラを向ける。その距離が計測できた距離に相当する画角で、その距離が計測できた距離に焦点距離を合わせて、その画像検出した困難な被写体を撮影する。
92追尾テレビカメラモニター画面上に、842追尾運転システム追尾テレビカメラモニター画面上の画像認識した車道上の暗い被写体を認識する。92追尾テレビカメラモニター画面上に画像検出した被写体の位置へ、3追尾レーザー距離計測機を向け、その被写体との距離を再度計測する。その再度計測した距離ができた方向へ、80追尾テレビカメラを向け、その再度計測した距離に相当する画角と焦点距離で、80追尾テレビカメラの感度を上げて被写体を撮影する。80追尾テレビカメラか撮影した、843追尾運転システム追尾テレビカメラモニター画面上の画像認識した走行路先方の暗い駐車車両を画像認識する。
実施例 図53の事故回避データーを取得した追尾テレビカメラシステムを設置した308追尾運転システム走行車の自動車が、309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置して3491般自動車走行路を上限が設定された速度で走行する。309追尾運転システムの1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に822追尾運転システム固定テレビカメラモニター画面上の画像検出した進行方向の左側縁石、823追尾運転システム固定テレビカメラモニター画面上の画像検出した進行方向の中央分離帯標示の他幾つかの画像を検出する。
5固定テレビカメラモニター画面上のそれぞれの画像検出した画像の位置の方向へ、80追尾テレビカメラと3追尾レーザー距離計測機をそれぞれに向けてそれぞれの距離を計測する、それぞれの計測された距離に従って画角と焦点距離を調整し、それぞれの92追尾テレビカメラモニター画面上に、824、825追尾運転システム追尾テレビカメラモニター画面上の画像認識した進行方向の中央分離帯標示、左側縁石、826追尾運転システム追尾テレビカメラモニター画面上の画像認識演算し通過方向の中央分離帯標示、828追尾運転システム追尾テレビカメラモニター画面上の画像認識演算した通過方向の左側縁石の固有な画像とする画像認識をする。
それらの固有な画像認識した画像は、308 追尾運転システム走行車の自動車からの、その方向と距離が計測されているため、その固有な画像認識した位置を認知しながらの走行である。それらの画像認識した位置を認知し記憶される、その記憶されたそれらの画像認識との連続したその固有な画像認識した位置を認知しながらの走行である。それぞれの固有の位置の画像を計測した308 追尾運転システム走行車の自動車の位置は、GPSが計測した位置とすることがでる。その自動車のGPSが計測した位置その走行方位と、その計測した位置と時間を関連付ける。多数の308 追尾運転システム走行車の自動車の、その関連付けた関連数値をインターネットで共有し記憶することで学習させる、GPSと時間の位置情報と、その計測したその位置を共有の表示とすることで、308追尾運転システム走行車の自動車による、既に取得してある適切な画像を追尾確認しながらの走行ができる。
実施例 図54の事故回避データーを取得した646追尾テレビカメラシステムを設置した308 追尾運転システム走行車の自動車が、309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置して3491般自動車走行路上限が設定された速度で走行する。309追尾運転システムの1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に、848、849、850、851追尾運転システム固定テレビカメラモニター画面上の画像検出した走行路上の障害物A、B 、C 、Dの画像を検出する。
5固定テレビカメラモニター画面上のそれぞれの画像検出した画像の位置の方向へ、80追尾テレビカメラと3追尾レーザー距離計測機をそれぞれに向けてそれぞれの距離を計測する、それぞれの計測された距離に従って画角と焦点距離を調整し、310進行方向の844、845、846、847走行路上の障害物A、B、C、Dを撮影し、92追尾テレビカメラモニター画面上に、852、853、854、855追尾運転システム追尾テレビカメラモニター画面上の画像認識した走行路上の障害物A、B、C、Dを画像解析する。
92追尾テレビカメラモニター画面上で画像解析した走行先の障害物の形状と、その走行方向と位置と距離を知ることで、308 追尾運転システム走行車の310進行方向での、その計測した距離と方向で展開した860追尾運転システム追尾テレビカメラモニター画面上にそれぞれの障害物の配置を、856、857、858、859追尾運転システム追尾テレビカメラモニター画面上の画像認識演算した進行方向の通過した障害物A、通過する障害物B、通過予定の障害物C、通過方向の障害物Dの位置を演算できる。308 追尾運転システム走行車が、前もって取得してある衝突回避の走行データーを使って、それらの障害物を避けた861追尾運転システム追尾テレビカメラモニター画面上の画像認識した演算進行路の画面で走行する。
実施例 図55の308追尾運転システム走行車の自動車が、309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置して349 1般自動車走行路を上限が設定された速度で走行する。309追尾運転システムの1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に、848、849、850、851追尾運転システム固定テレビカメラモニター画面上の画像検出した走行路上の障害物A、B、C、Dの画像を検出する。
5固定テレビカメラモニター画面上のそれぞれの画像検出した画像の位置の方向へ、80追尾テレビカメラと3追尾レーザー距離計測機をそれぞれに向けてそれぞれの距離を計測する、それぞれの計測された距離に従って画角と焦点距離を調整し、それぞれの障害物を撮影し、その92追尾テレビカメラモニター画面上に、852、853、854、855追尾運転システム追尾テレビカメラモニター画面上の画像認識した走行路上の障害物A 、B、C、D を画像解析する。
92追尾テレビカメラモニター画面上で画像解析した走行先の障害物は、その走行先の方向と位置と距離を画像認識することで、それぞれの障害物の配置をその計測した距離と方向で展開して表示する860追尾運転システム追尾テレビカメラモニター画面上の画像認識した演算画面上でそれぞれの配置が、856、857、858、859追尾運転システム追尾テレビカメラモニター画面上の画像認識演算した進行方向の通過した障害物A 、通過する障害物B 、通過予定の障害物C 、通過方向の障害物D の位置として連続した演算画面として画像認識できる。
308追尾運転システム走行車は、その走行において、その走行先の画像認識した障害物の画像を前もって取得して、866追尾運転システム追尾テレビカメラモニター画面上の画像認識した画像の方向と位置の変換器で、その自動車の走行位置に合わせて、その計測した距離と方向でその走行先の画像認識した障害物の画像位置を表示する。866追尾運転システム追尾テレビカメラモニター画面上の画像認識した画像の方向と位置の変換器を取り付けた308追尾運転システム走行車は、先に取得してある走行位置の障害物の画像を、その走行位置でその障害物の画像を、その計測した距離と方向で展開しながら走行する。その前もって、その画像認識している障害物の画像は、その位置と形状及び物品を把握し解析されているので、308 追尾運転システム走行車の自動車のタイヤから受けるサスペンションの衝撃を、その把握しているその障害物の位置が、その計測した距離でそのタイヤの位置に来る、その変換器でその障害物の画像位置を変えた画像解析した障害物の画像から、障害物がその自動車の走行で、そのタイヤの位置に架かる衝撃に応じて、その衝撃を下げる走行方法を使って、その障害物の衝撃を吸収して、その障害物を乗り越えて走行する。
実施例 図56の事故回避データーを取得した追尾テレビカメラシステムを設置した308追尾運転システム走行車の自動車が、309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置して3491般自動車走行路を上限が設定された速度で走行する。
308追尾運転システム走行車の1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に、848、849、950、951追尾運転システム固定テレビカメラモニター画面上の画像検出した走行路上の障害物A、B、C、Dの画像を検出する。5固定テレビカメラモニター画面上のそれぞれの画像検出した画像の位置の方向へ、80追尾テレビカメラと3追尾レーザー距離計測機をそれぞれに向けてそれぞれの距離を計測する、それぞれの計測された距離に従って画角と焦点距離を調整し、80追尾テレビカメラでそれぞれを撮影する。
その92追尾テレビカメラモニター画面上に、852、853、854、855追尾運転システム追尾テレビカメラモニター画面上の画像認識した走行路上の障害物A、B、C、Dを解析する。
308追尾運転システム走行車の自動車が、207画像認識した位置で画像確認した、92追尾テレビカメラモニター画面上の、855追尾運転システム追尾テレビカメラモニター画面上の画像認識した走行路上の障害物Dは、その自動車の995追尾運転システム走行車の左側車輪のタイヤが、847走行路上の障害物Dに乗り上げる状態を、207画像認識した位置から847走行路上の障害物Dに乗り上げるその画像の位置までの、その走行方向とその走行距離までに、866追尾テレビカメラの画像の方向と位置の変換器が、その計測した距離と方向に合わせてその乗り上げるその障害物の画像の形状を解析することで、995追尾運転システム走行車の左側車輪のタイヤが847走行路上の障害物Dに乗り上げるその画像を確認することができるので、前もってその形状の障害物の形状での衝撃の吸収に対応できる。
実施例 図57の829 4足駆動走行機に863追尾テレビカメラの画像位置の展開システムを設置し、障害物のある走行路を、駆動足を使って走行する。829 4足駆動走行機の1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に848、849、850、851追尾運転システム固定テレビカメラモニター画面上の画像認識した障害物A、B、C、Dの画像を検出する。
5固定テレビカメラモニター画面上のそれぞれの画像検出した画像の位置の方向へ、80追尾テレビカメラと3追尾レーザー距離計測機を向けて距離を計測する。計測された距離に従って、画角と焦点距離を調整して80追尾テレビカメラで撮影する。その撮影した92追尾テレビカメラモニター画面上に、852、853、854、855追尾運転システム追尾テレビカメラモニター画面上の画像解析した障害物A、B、C、Dの画像を解析する。
92追尾テレビカメラモニター画面上で解析した走行先の障害物を、866追尾テレビカメラの画像の方向と位置の変換器で画像位置を展開する処理をして、860追尾運転システム追尾テレビカメラモニター画面上の画像認識した演算画面の走行路先に表示する。829 4足駆動走行機が走行してきた方向から撮影した障害物の、92追尾テレビカメラモニター画面上の、852、853、854、855追尾運転システム追尾テレビカメラモニター画面上の画像解析した障害物A、B、C、Dの画像を、866追尾テレビカメラの画像の方向と位置の変換器で、829 4足駆動走行機が進行した走行方向から見る位置として、計測方向とその計測した距離で画像処理する。その展開した仮想上の画面856、857、858、859追尾運転システム追尾テレビカメラモニター画面上の画像解析した進行方向の通過した障害物A、通過する障害物B、通過方向の通過予定の障害物C、通過予定の障害物Dの位置として表示できる。
863追尾テレビカメラの画像位置の展開システムの画像処理で829 4足駆動走行機が駆動足を使って走行する躯体の真下にある、844走行路上の障害物Aに懸かる駆動足を、856追尾運転システム追尾テレビカメラモニター画面上の画像解析した進行方向の通過した障害物Aの画面上位置と、852追尾運転システム追尾テレビカメラモニター画面上の画像解析した障害物Aの画像を解析した情報で844走行路上の障害物Aを回避して走行する。852追尾運転システム追尾テレビカメラモニター画面上の画像認識した走行路上の障害物Aの解析した情報と、3追尾レーザー距離計測機が計測した方向と距離による、その障害物の位置を866追尾テレビカメラの画像の方向と位置の変換器で展開し続けることで、829 4足駆動走行機の走行位置に合わせて展開したその障害物の位置を避けて、829 4足駆動走行機が駆動足を駆けることができる。
829 4足駆動走行機が歩行進行する方向の走行路上の障害物を1固定テレビカメラが撮影して、その5固定テレビカメラモニター画面上でその障害物の画像を検出し、この障害物の画像の方向へ、3追尾レーザー距離計測機と80追尾テレビカメラを向けて、その障害物との距離を計測し、その計測した距離に合わせて、80追尾テレビカメラの画角と焦点距離を合わせて撮影した画像を、92追尾テレビカメラモニター画面上で画像解析する。画像解析されたその障害物は、829 4足駆動走行機が歩行進行する方向に合わせて、3追尾レーザー距離計測機が計測する方向と距離の位置で、その障害物を80追尾テレビカメラが撮影する92追尾テレビカメラモニター画面上に展開する空間の位置として展開し続ける。92追尾テレビカメラモニター画面の2次元の画面は、3追尾レーザー距離計測機が計測する正確な距離を付加することで、3次元の空間として正確に障害物の位置を展開する。80追尾テレビカメラが撮影する2次元の92追尾テレビカメラモニター画面上の障害物は、コンピューターの想定する3次元空間の障害物の位置として展開される。
866追尾テレビカメラの画像の方向と位置の変換器の、コンピューターの想定する3次元空間は、80追尾テレビカメラが撮影する方向に合わせて展開し、829 4足駆動走行機の歩行する位置の80追尾テレビカメラが撮影する方向の駆動数値と3追尾レーザー距離計測機が計測する距離によって展開される。同時に、80追尾テレビカメラが撮影する画面に合わせた展開は、829 4足駆動走行機の863追尾テレビカメラの画像位置の展開システムのコンピューターの想定する3次元空間にも展開する空間に、829 4足駆動走行機の駆動足の駆動位置を、その3次元空間にも展開することで、829 4足駆動走行機のコンピューターの想定する3次元空間で、その駆動足の駆動位置をその障害物を避けて駆けることができる。829 4足駆動走行機の躯体の真下にある障害物は、それ以前に80追尾テレビカメラが撮影して、3次元空間に展開した障害物であるが、829 4足駆動走行機の歩行に合わせてその障害物を含む幾つかの画像の位置を、3追尾レーザー距離計測機が計測する方向と距離の位置で、その障害物を含む幾つかの画像を3次元空間に展開し続けていることで、躯体の真下に来た障害物を認識し、駆動足の駆動位置を設定する。
説明図57に記載する、829 4足駆動走行機の躯体の真下にある844障害物は、その位置に歩行する前に、1固定テレビカメラが撮影して5固定テレビカメラモニター画面上で画像を検出し、画像認識したその障害物の位置を3追尾レーザー距離計測機が距離を計測し、その計測した距離で80追尾テレビカメラが撮影して92追尾テレビカメラモニター画面上で画像解析したその障害物とその計測した距離で、866追尾テレビカメラの画像の方向と位置の変換器のコンピューターが想定する3次元空間に展開する。863追尾テレビカメラの画像位置の展開システムによるコンピューターが想定する3次元空間に展開は、829 4足駆動走行機の歩行と80追尾テレビカメラの撮影する方向の画面上で展開される。829 4足駆動走行機の歩行合わせて、80追尾テレビカメラが撮影する画面と3追尾レーザー距離計測機が計測する方向と距離の数値で、3次元空間の展開は更新され続ける。80追尾テレビカメラが撮影する方向の80追尾テレビカメラの数値制御機構の駆動数値の値に合わせて、829 4足駆動走行機の862駆動機構の進行する走行方向の、860追尾運転システム追尾テレビカメラモニター画面上の画像認識した演算画面の、856、857、858、859追尾運転システム追尾テレビカメラモニター画面上の画像解析した進行方向の通過した障害物A、通過する障害物B、通過方向の通過予定の障害物C、通過方向の障害物Dを展開して駆動足の歩行をする。
844、845、846、849走行路上の障害物A、B、C、Dを863追尾テレビカメラの画像位置の展開システムによるコンピューターが想定する3次元空間に展開する、856、657、858、859追尾運転システム追尾テレビカメラモニター画面上の画像解析した進行方向の通過した障害物A、通過する障害物B、通過予定の障害物C、通過方向の障害物Dに展開する位置に829 4足駆動走行機の869前左、870前右、871後左、872後右駆動機構の駆動足の駆ける位置をコンピューターが想定する3次元空間に展開することで、829 4足駆動走行機の駆動足の駆ける位置を844、845、846、849走行路上の障害物A、B、C、Dを避けることができる。829 4足駆動走行機は、前もって、その位置の変換器で画像位置を変換したその位置の画像を使って、869前左、870前右、871後左 、872後右駆動機構の駆動足を使って、障害物がない位置を選んで駆動足を降して走行する。80追尾テレビカメラの撮影する方向での、コンピューターが想定する3次元空間の展開は、80追尾テレビカメラの撮影する方向に従った3次元空間に展開となり、829 4足駆動走行機の駆動足の駆動位置は、80追尾テレビカメラの駆動機構が撮影する方向の駆動数値で863追尾レーザー距離計測機と追尾テレビカメラの画像処理するシステムが展開する3次元空間で844、845、846、849走行路上の障害物A、B、C、Dを避ける。
実施例 図58の863追尾テレビカメラの画像位置の展開システムと3追尾レーザー距離計測機と80追尾テレビカメラを設置した8294足駆動走行機が、障害物のある走行路を、駆動足を使って走行する。829 4足駆動走行機には、827足駆動走行機に取り付けた追尾テレビカメラ距離計測システムの80追尾テレビカメラが撮影した92追尾テレビカメラモニター画面上の画像認識した画像が、829 4足駆動走行機が移動したことによる、その撮影した画像認識した画像が、方向と位置を変った画像に展開する866追尾テレビカメラの画像の方向と位置の変換器が設置されている。
218 4足駆動走行機の位置で868進行路の段差の位置Aで、1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に250固定テレビカメラモニター画面上の段差の画像を検出する。5固定テレビカメラモニター画面上のその画像検出した画像の位置の方向へ、80追尾テレビカメラと3追尾レーザー距離計測機を向けてその距離を計測する、その計測された距離に従って画角と焦点距離を調整し、80追尾テレビカメラが撮影した、その92追尾テレビカメラモニター画面上に、996追尾運転システム追尾テレビカメラモニター画面上の画像認識した走行路上の障害物の段差を画像解析する。
4足駆動走行機が進行して移動した219 4足駆動走行機の位置Bでの1固定テレビカメラが撮影し、5固定テレビカメラモニター画面上に新規の画像を検出する。その新規に検出した画像を、92追尾テレビカメラモニター画面上で移動したその位置での、新規の画像解析をする。219 4足駆動走行機の位置Bで、その新規の画像認識した画像の位置と方向で、218 4足駆動走行機の位置Aで画像確認したその画像認識した画像を866追尾テレビカメラの画像の方向と位置の変換器を使って画像変換する。829 4足駆動走行機が219 4足駆動走行機の位置Bに移動した位置で、218 4足駆動走行機の位置Aで画像確認した画像を、その移動した距離と方向の位置から、その218 4足駆動走行機の位置Aの866 画像変換器を使って画像展開した画像を画像確認する。
829 4足駆動走行機の駆動足の、748画像変換したモニター画面Aに合わせた877前左駆動機構歩行位置、749画像変換したモニター画面Bに合わせた878前右駆動機構歩行位置、750画像変換したモニター画面Cに合わせた879後左駆動機構歩行位置、751画像変換したモニター画面Dに合わせた880後右駆動数値歩行位置のその画像を画像確認して、873前左駆動数値演算機、874前右駆動数値演算機、875後左駆動数値演算機、876後右駆動数値演算機が、それぞれの駆動足の駆動機構を駆動した、868進行路の段差を駆動足の歩行で進行する。219足駆動走行機は、前もって取得してある障害物の画像を、歩行したその障害物の位置でその障害物の画像を、その歩行し位置に展開して認識し、869前左駆動機構、870前右駆動機構、871後左駆動機構、872後右駆動機構の駆動足を、その展開した画像の位置に合わせた駆動方法で進行する。
(事故回避運転)
実施例 図59の309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置した308 追尾運転システム走行車が349 1般自動車走行路を上限が設定された速度で走行する。791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムの1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に686自動運転車両に取付けた固定テレビカメラモニターに映る被写体の画像を検出した。5固定テレビカメラモニター画面上のその画像を検出した画像の位置の方向へ、3追尾レーザー距離計測機をその方向に向けてその距離を計測する。その計測された距離に従って画角と焦点距離を調整し、その80追尾テレビカメラが撮影した、92追尾テレビカメラモニター画面上に、687自動運転車両に取付けた追尾テレビカメラモニターに映る画像解析した被写体を画像認識する。
その画像認識した画像は、308追尾運転システム走行車の自動車からの、その方向と距離が計測されているため、その画像認識した位置を認知して、その自動車が既に取得してある732回避区域が、309追尾運転システムの事故回避データー範囲内の方向と距離であることを確認する。同時に72追尾テレビカメラ距離計測システムを使って、その画像を画像認識するまでに、既に取得してある732回避区域の近辺の画像の画像解析をする。その画像解析で、674衝突回避すべき被写体との最大限の衝突回避は、その走行車両の運転に熟知した操縦者で回避データーを取得しているため、その最大限の衝突回避の結果まで考慮されている。
その衝突回避の結果を最敵に衝突回避するために、その回避操作を開始する時点で、衝突回避方法を決定されるため、309追尾運転システムで、常に308追尾運転システム走行車の車両周辺の画像を走査している。検出した画像を、309追尾運転システムで、その画像の方向と距離を計測し、その画像の被写体を画像認識し、画像認識した被写体を解析し、その自動車の733走行区域と734退避区域を設定しながら走行する。224画像解析器が画像解析した、674衝突回避すべき被写体を画像解析した、92追尾テレビカメラモニター画面上の位置の、687自動運転車両に取付けた追尾テレビカメラモニターに映る画像解析した被写体に対応した画像解析器が回避区域を設定する。1001画像解析器Aが画像解析した、674衝突回避すべき被写体を画像解析した、360追尾テレビカメラモニター画面A上の位置の、687自動運転車両に取付けた追尾テレビカメラモニターに映る画像解析した被写体と解析する。
1002画像解析器Bが画像解析した、674衝突回避すべき被写体が無い場合の、361追尾テレビカメラモニター画面上の位置Bの687自動運転車両に取付けた追尾テレビカメラモニターに映る画像解析した被写体に対応した1006走行区域を設定する。1003画像解析器Cが画像解析した674衝突回避すべき被写体を画像解析した362追尾テレビカメラモニター画面上の位置Cの、687自動運転車両に取付けた追尾テレビカメラモニターに映る画像解析した被写体に対応した1007退避区域を設定する。 1004画像解析器Dが画像解析した674衝突回避すべき被写体を画像解析した363追尾テレビカメラモニター画面上の位置C、687自動運転車両に取付けた追尾テレビカメラモニターに映る画像解析した被写体に対応した1008最大回避走行区域を設定する。
実施例 図60の309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置した308 追尾運転システム走行車が349 1般自動車走行路を上限が設定された速度で走行する。791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムで、1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に、686自動運転車両に取付けた固定テレビカメラモニターに映る被写体と805追尾運転システム固定テレビカメラモニター画面上の画像検出した対向車の674衝突回避すべき被写体と同時に731対向車の画像を検出した。686自動運転車両に取付けた固定テレビカメラモニターに映る被写体の方向と、805追尾運転システム固定テレビカメラモニター画面上の画像検出した対向車の方向を3追尾レーザー距離計測機でその距離を計測し、その方向とその計測した距離に合わせて、80追尾テレビカメラで674衝突回避すべき被写体と731対向車を、224画像解析器で92追尾テレビカメラモニター画面上の687自動運転車両に取付けた追尾テレビカメラモニターに映る画像解析した被写体と1013自動運転車両に取付けた追尾テレビカメラモニターに映る対抗車線を走行する回避すべき対向車の位置画像を解析し判断をする。
1001画像解析器Aの解析で、360追尾テレビカメラモニター画面A上の1005回避すべき被写体との衝突を絶対回避すると判断し、1002画像解析器Bの解析で、361追尾テレビカメラモニター画面B上の1006走行区域の走行では回避できないと解析し、1003画像解析器Cの解析で、362追尾テレビカメラモニター画面E上の1011最大回避走行区域Aと1004画像解析器Dの解析で、363追尾テレビカメラモニター画面F上の1012最大回避走行区域Bの1000追尾テレビカメラモニター画面の左直前の街路樹が映る、735道路脇の街路樹に激突する走行で674衝突回避すべき被写体への衝突を、その自動車の運転に熟知している運転者の衝突回避運転の回避データーを実施したものであるが、回避する判断走行をする。
1009画像解析器E が画像解析した走行路先の674衝突回避すべき被写体を画像解析した92追尾テレビカメラモニター画面上の位置687自動運転車両に取付けた追尾テレビカメラモニターに映る画像解析した被写体で92追尾テレビカメラモニター画面上の1011最大回避走行区域Aと、1016画像解析器Fが画像解析した674衝突回避すべき被写体を画像解析した92追尾テレビカメラモニター画面上の位置687自動運転車両に取付けた追尾テレビカメラモニターに映る画像解析した被写体で92追尾テレビカメラモニター画面上の1012最大回避走行区域Bを解析する。画像解析した1011最大回避走行区域Aと1012最大回避走行区域Bを比較解析し衝突の被害が少ない739退避走行Aを選択し735道路わきの街路樹に衝突させた。この739退避走行Aの309追尾運転システムの事故回避データーと、309追尾運転システムに取付けてある、1064加減速センサーと衝撃センサーの計測した数値と解析した画像を記憶する。
実施例 図61の309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置した308 追尾運転システム走行車が349 1般自動車走行路を上限が設定された速度で走行する。309追尾運転システムの1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に映る、走行路先方に674衝突回避すべき被写体が5固定テレビカメラモニター画面上に映る、686自動運転車両に取付けた固定テレビカメラモニターに映る被写体の画像を検出した。同時に、走行路左側の735道路脇の街路樹を5固定テレビカメラモニター画面上に映る、1015固定テレビカメラモニター画面の左直前の街路樹の画像を検出した。
5固定テレビカメラモニター画面上のその画像を検出した、それらの画像の位置の方向へ、3追尾レーザー距離計測機をその方向に向けて距離を計測する、計測された距離に従って画角と焦点距離を調整して撮影した画面を、224画像解析器で、その92追尾テレビカメラモニター画面上に、687自動運転車両に取付けた追尾テレビカメラモニターに映る画像解析した被写体と1018追尾テレビカメラモニターの回避すべき街路樹を画像解析する。1001画像解析器Aで1005回避すべき被写体の732回避区域を解析し、1002画像解析器Bで1006走行区域が解析されていることで、その走行を続けると674衝突回避すべき被写体に衝突すると解析し、回避データー運転を選択する。
1009画像解析器Eで362追尾テレビカメラモニター画面上Eに、1010回避運転区域を選択するが、364追尾テレビカメラモニター画面上Eに、1013自動運転車両に取付けた追尾テレビカメラモニターに映る対抗車線を走行する回避すべき対向車の画像を検出した。365追尾テレビカメラモニター画面上Fに、1014自動運転車両に取付けた追尾テレビカメラモニターに映る左側街路樹の画像を検出した。224画像解析器が画像解析した731対向車か735道路脇の街路樹の衝突をさけるために、1016画像解析器Fが解析した、363追尾テレビカメラモニター上Dの1017最大回避走行区域Cを選択する。画像解析した1017最大回避走行区域Cの被害が少ない740退避走行Bを選択し738画像認識壁の1062斜め衝突する壁に衝突をする。既に取得してある、最大回避走行における、加減速センサーと衝撃センサーの計測した数値を選択に枠に加えて、最大回避走行後の衝撃の少ない回避方法を選択する。
その加減速センサーと衝撃センサーの計測した数値を記憶する。
実施例 図62の309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置した308 追尾運転システム走行車が349 1般自動車走行路を上限が設定された速度で走行する。309追尾運転システムの1固定テレビカメラが撮影した125固定テレビカメラモニター画面B上に、1018固定テレビカメラモニター画面上の回避すべき被写体の画像を検出した。125固定テレビカメラモニター画面B上のその画像を検出した画像の位置の方向へ、3追尾レーザー距離計測機をその方向に向けて、その被写体との距離を計測する、その計測された距離に従って画角と焦点距離を調整し、その365追尾テレビカメラモニター画面F上に、1022自動運転車両に取付けた追尾テレビカメラモニターに映る対抗車線を走行する回避すべき親子を画像認識する。その被写体への回避運転中に、124固定テレビカメラモニター画面A上に、1020固定テレビカメラモニター画面上の回避すべき対向車線の進行車両を画像認識する。124固定テレビカメラモニター画面A上のその画像を検出した画像の位置の方向へ、3追尾レーザー距離計測機をその方向に向けて、その進行車両との距離を計測する、その計測された距離に従って画角と焦点距離を調整し、その364追尾テレビカメラモニター画面F上に、1021自動運転車両に取付けた追尾テレビカメラモニターに映る対抗車線を走行する回避すべき対向車を画像認識する。
224画像解析器が674衝突回避すべき被写体としたことで、1023画像解析器Aが画像解析した687自動運転車両に取付けた追尾テレビカメラモニターに映る画像解析した被写体の親子を画像解析した360追尾テレビカメラモニター画面A上の位置1027退避区域を設定する。1024画像解析器Bが画像解析した674衝突回避すべき被写体の親子を画像解析した361追尾テレビカメラモニター画面B上の位置に1028制限された走行区域を設定して739退避走行Aの回避走行をする。その親子の回避運転中に、124固定テレビカメラモニター画面A上に、1020固定テレビカメラモニター画面上の回避すべき対向車線の進行車両を画像認識したことで、124固定テレビカメラモニター画面上のその1020進行車両を検出した画像の位置の方向へ、3追尾レーザー距離計測機を向けてその距離を計測する、その計測された進行車両との距離に従って画角と焦点距離を調整し、そ264追尾テレビカメラモニター画面E上に、1021追尾運転システム追尾テレビカメラモニター画面上の画像認識した進行車両を画像認識する。224画像解析器の解析する92追尾テレビカメラモニター画面上に、1021自動運転車両に取付けた追尾テレビカメラモニターに映る対抗車線を走行する回避すべき対向車を解析する。1025画像解析器Cが画像解析した731対向車の362追尾テレビカメラモニター画面C上の1029回避走行区域Dの最大回避走行の740退避走行Bで回避走行する。
1025画像解析器Cが画像解析した、1029回避走行区域Dの回避走行中での、1026 画像解析器Dが画像解析した731対向車との衝突を避けるために、1030最大回避走行区域Eを設定して741退避走行Cの回避走行をする。731対向車の回避運転中に、125固定テレビカメラモニター画面上に、1015固定テレビカメラモニター画面の左直前の街路樹を画像認識したことで、125固定テレビカメラモニター画面上の735道路脇の街路樹を検出した画像の位置の方向へ、3追尾レーザー距離計測機を向けてその距離を計測する、その計測された街路樹との距離に従って画角と焦点距離を調整し、その366追尾テレビカメラモニター画面G上に、793追尾運転システム追尾テレビカメラモニター画面上の画像認識した街路樹を解析する。224画像解析器の解析する366追尾テレビカメラモニター画面G上に、1014自動運転車両に取付けた追尾テレビカメラモニターに映る左側街路樹の735道路脇の街路樹との衝突を避けるために、新たに最大回避走行区域を設定しての回避走行をする。
1021自動運転車両に取付けた追尾テレビカメラモニターに映る対抗車線を走行する回避すべき対向車を解析したことで、1026 画像解析器Dが画像解析した1031対向車との衝突を避けるために、1030最大回避走行区域Eを設定して741退避走行Cの回避走行をする。741退避走行Cの退避走行中に、125固定テレビカメラモニター画面上に1015固定テレビカメラモニター画面の左直前の街路樹を検出しているので、92追尾テレビカメラモニター画面上で793追尾運転システム追尾テレビカメラモニター画面上の画像認識した街路樹の画像の位置は、308 追尾運転システム走行車が、739、740、741退避走行A、B、Cの走行方向を変えた方向と位置に対応した展開をして、735道路脇の街路樹の位置は366追尾テレビカメラモニター画面G上の793追尾運転システム追尾テレビカメラモニター画面上の画像認識した街路樹で把握されおり1030最大回避走行区域Eを設定して741退避走行Cをする準備は用意されている。
674衝突回避すべき被写体との最大限の衝突回避の回避運転と対向車線上の進行車との正面衝突の最大限の回避運転は、その走行車両の運転に熟知した操縦者で回避データーを取得しているため、その最大限の衝突回避の結果まで考慮されている。739退避走行Aと740退避走行Bと41退避走行Cのその後の回避走行で、1064加減速センサーと衝撃センサーの計測した数値と認識した画像を記憶する。これらの事例は多種多様であるため、最善の回避方法も多種多様である、多数の事例からの学習が必要である。
実施例 図63の309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置した308 追尾運転システム走行車が349 1般自動車走行路を上限が設定された速度で走行する。309追尾運転システムの1固定テレビカメラが撮影した1067交差点を5固定テレビカメラモニター画面上に1065追尾運転システム固定テレビカメラモニター画面上の画像検出した交差点の画像を検出した。
5固定テレビカメラモニター画面上のその画像を検出した交差点の画像の各位置の方向へ、3追尾レーザー距離計測機をそれぞれの角に向けて距離を計測する、その計測された距離に従って画角と焦点距離を調整し、92追尾テレビカメラモニター画面上に、1066追尾運転システム追尾テレビカメラモニター画面上の画像認識した交差点を画像解析する。224画像解析器が画像解析した1066追尾運転システム追尾テレビカメラモニター画面上の画像認識した交差点での進行車両との衝突を想定して、1023画像解析器Aが回避を画像解析した360追尾テレビカメラモニター画面A上の位置に1007走行可能区域Aを設定しておく。
その交差点への接近を合わせて、224画像解析器が画像解析した1066追尾運転システム追尾テレビカメラモニター画面上の画像認識した1067交差点での進行車両との衝突を想定して回避を画像解析した1024画像解析器Bが回避を画像解析した361追尾テレビカメラモニター画面B上の位置に1035走行可能区域Bを設定しておく。その交差点への更に接近を合わせて、224画像解析器が画像解析した1066追尾運転システム追尾テレビカメラモニター画面上の画像認識した1067交差点での進行車両との衝突を想定して回避を画像解析した1024画像解析器Bが回避を画像解析した362追尾テレビカメラモニター画面C上の位置に1036走行可能区域Cを設定しておく。1025画像解析器が画像解析した1066追尾運転システム追尾テレビカメラモニター画面上の画像認識した交差点での1067進行車両との衝突を想定して回避を画像解析した363追尾テレビカメラモニター画面D上の位置に1037走行可能区域Dを設定しておきながら走行する。
実施例 図64の309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置した308 追尾運転システム走行車が349 1般自動車走行路を上限が設定された速度で走行する。遠方から接近走行する1031直前に接近する対抗車両を309追尾運転システムの1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に1033自動運転車両に取付けた固定テレビカメラモニターに映る対向車の画像を検出する。5固定テレビカメラモニター画面上のその画像を検出した画像の位置の方向へ、3追尾レーザー距離計測機を向けて距離を計測する、その計測された距離に従って画角と焦点距離を調整し、80追尾テレビカメラが撮影した、92追尾テレビカメラモニター画面上に、794追尾運転システム追尾テレビカメラモニター画面上の画像認識した対向車を画像認識されない場合、1023画像解析器Aが、1046制限の無い走行範囲を設定する。
794追尾運転システム追尾テレビカメラモニター画面上の画像認識した対向車を接近した画像認識された場合が、1043自動運転車両に取付けた追尾テレビカメラモニターに映る対向車位置Bの走行中の範囲では、1024画像解析器Bが、1047対抗車線への制限のある走行範囲を設定する。794追尾運転システム追尾テレビカメラモニター画面上の画像認識した対向車を接近した画像認識された場合が、1044自動運転車両に取付けた追尾テレビカメラモニターに映る対向車位置Cの走行中の範囲では、1025画像解析器Cが、1048対抗車線への禁止ある走行範囲を設定する。
1045自動運転車両に取付けた追尾テレビカメラモニターに映る対向車位置Dの場合、1026画像解析器Dが、1049自車線の制限のある走行範囲を設定する。224画像解析器で794追尾運転システム追尾テレビカメラモニター画面上の画像認識した対向車との事故回避の手段を、その対向車の走行位置と走行速度に合わせて92追尾テレビカメラモニター画面上での走行方法を演算する。
実施例 図65の309追尾運転システムの事故回避データーを取得した791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システムを設置した308追尾運転システム走行車が349 1般自動車走行路を上限が設定された速度で走行する。1081走行位置Aから309追尾運転システムの1固定テレビカメラが撮影した1085接近位置Aの対向車の画像の5固定テレビカメラモニター画面上に、1019自動運転車両に取付けた固定テレビカメラモニターに映る遠方の接近する車両と823追尾運転システム固定テレビカメラモニター画面上の画像検出した進行方向の中央分離帯標示と822追尾運転システム固定テレビカメラモニター画面上の画像検出した進行方向の左側縁石を検出した。
5固定テレビカメラモニター画面上のその画像を検出した画像の位置の方向へ、3追尾レーザー距離計測機をそれぞれの方向に向けて距離を計測する、その計測された距離に従って画角と焦点距離を調整し、その80追尾テレビカメラが撮影して、364追尾テレビカメラモニター画面E上に、794追尾運転システム追尾テレビカメラモニター画面上の画像認識した対向車を画像解析する。365追尾テレビカメラモニター画面F上に、824追尾運転システム追尾テレビカメラモニター画面上の画像認識した進行方向の中央分離帯標示を画像解析する。366追尾テレビカメラモニター画面G上に、835追尾運転システム追尾テレビカメラモニター画面上の画像認識した右側縁石を画像解析する。
1082走行位置Bからの1固定テレビカメラが撮影した1086接近位置Bでの、1041接近する対向車位置で794の画像認識した対向車と824の中央分離帯標示と835の右側縁石との距離を、3追尾レーザー距離計測機が計測した距離と角度で演算し、すれ違い走行が出来ることを確認する。同様にして、1083、1084、走行位置C、Dから1087、1088接近位置C、Dの1041接近する対向車を1固定テレビカメラが撮影した149、150固定テレビカメラモニター画面B、C上に、1039、1040の接近する車両と823の中央分離帯標示と822の左側縁石を検出した。364、365、366の追尾テレビカメラモニター画面E、F、G上で、794の対向車を画像解析し、824の中央分離帯標示を画像解析し、825の右側縁石を画像解析して、距離と角度を計測してすれ違い走行が出来ることを確認する。
308追尾運転システム走行車が中央分離帯の無い1般自動車走行路を走行する場合、接近する被写体の動きを常に監視続ける必要がある。1041接近する対向車位置を1固定テレビカメラが撮影し、5固定テレビカメラモニター画面上で検出された、1019の接近する車両を3追尾レーザー距離計測機で距離と方向を計測し、その計測距離で80追尾テレビカメラが撮影た画像を画像解析し、監視続ける必要があると判断する。364の追尾テレビカメラモニター画面上の794の対向車の画像を、866追尾テレビカメラの画像の方向と位置の変換器の展開で、308の追尾運転システム走行車の走行の方向と走行距離に合わせて走行して接近する距離の方向の、コンピューターの3次元空間に794の対向車の画像位置を展開して把握することで、安全にすれ違い走行が出来ることを確認する、
(追尾運転)
実施例 図66の事故回避データーを取得した追尾テレビカメラシステムを設置した308 追尾運転システム走行車の自動車が、309追尾運転システムの事故回避データーを取得した追尾テレビカメラシステムを設置して349 1般自動車走行路を上限が設定された速度で走行する。766追尾運転システム固定テレビカメラ撮影範囲の先行車が、349 1般自動車走行路を、異常なく310進行方向に走行して通過するのを画像検出する。
その先行車が、314、315、317、318先方走行車A、B、C、D、の各位置の走行画像を、309追尾運転システムの1固定テレビカメラが撮影した、325、326,327,328追尾運転システム固定テレビカメラモニター画面上の画像検出した先行車A、B、C、Dの319追尾運転システム固定テレビカメラモニター画面上を通過したそれぞれの位置で、3追尾レーザー距離計測機でそれぞれの距離を計測し、その計測された距離に相当する、画角と焦点距離で、80追尾テレビカメラが撮影した808追尾運転システム追尾テレビカメラモニター画面上の画像認識した先向車の映る画面を、320、321、322、323追尾運転システム追尾テレビカメラモニター画面A、B、C、Dで、画像認識し連続して記憶する。
308 追尾運転システム走行車が走行し、1固定テレビカメラが撮影する方向と、その走行距離に合わせて、その連続して記憶した画面を、その追尾走行する位置に相当する、320、321、322、323追尾運転システム追尾テレビカメラモニター画面A、B、C、D、を展開し、860追尾運転システム追尾テレビカメラモニター画面上の画像認識した演算画面上に表示する画面の、331先行車後部を画像認識して追尾走行する。追尾走行する追尾運転システムは、追尾距離と追尾方向に追尾自動車の数値制御の駆動数値を、その補完法の演算で関連させた数値で追尾走行させる。輸送用車両等の追尾走行には、その画像認識に適した、表示標識を使用する。
実施例 図67の事故回避データーを取得した追尾テレビカメラシステムを設置した308 追尾運転システム走行車の自動車が、309追尾運転システムの事故回避データーを取得した追尾テレビカメラシステムを設置して3491般自動車走行路を上限が設定された速度で走行する。309追尾運転システムの1固定テレビカメラが撮影した319追尾運転システム固定テレビカメラモニター画面上に、803追尾運転システム固定テレビカメラモニター画面上の画像検出した先向車、805追尾運転システム固定テレビカメラモニター画面上の画像検出した対向車の画像を検出する。
319追尾運転システム固定テレビカメラモニター画面上のそれぞれの画像検出した画像は、309追尾運転システムの3追尾レーザー距離計測機で距離が計測され、その計測された距離に従って、画角と焦点距離を調整し、360、361、632、363追尾テレビカメラモニター画面Aで先行車の前を先行する走行車の後部左を、Bで先行車の前を先行する走行車の後部右を、Cで先行車の走行車の後部左側の道路縁石を、Dで先行車の走行車の後部右側の道路縁石を、画像認識しながら走行する。
先行車の走行路上の位置を計測し、運転に異常がないことを常に確認する。その運転に異常がないことで、364追尾テレビカメラモニター画面Eの、331先行車後部を画像追尾走行する。314先方走行車Aに取り付けた308 追尾運転システム走行車の取得した走行に関わる情報に、時間を添付して周辺の車両に伝達する。先行車両の異常を察知し、その対応運転に素早く切り替える。過去の走行時の多くの画像認識の折のその自動車の走行制御の駆動数値から学習した、その画像認識した画像とその走行制御の操作の度合と、画像認識した画像の危険性の度合いで、その画像認識の回数を調整する。
実施例 図68の事故回避データーを取得した追尾テレビカメラシステムを設置した308 追尾運転システム走行車の自動車が、309追尾運転システムの事故回避データーを取得した追尾テレビカメラシステムを設置して3491般自動車走行路を上限が設定された速度で走行する。309追尾運転システムの1固定テレビカメラが撮影した319追尾運転システム固定テレビカメラモニター画面上に、765、767、764固定テレビカメラモニターの画面に映る標識搭、石仏、右道路脇の街路樹の画像を検出する。
319追尾運転システム固定テレビカメラモニター画面上の、それぞれの画像検出した画像は、309追尾運転システムの3追尾レーザー距離計測機でそれぞれの距離が計測され、その計測されたそれぞれの距離に従って、画角と焦点距離を調整し、360追尾テレビカメラモニター画面Aの768追尾テレビカメラモニター画面上の画像認識した右側街路樹、361追尾テレビカメラモニター画面Bの771追尾テレビカメラモニター画面上の画像認識した左側標識搭、362追尾テレビカメラモニター画面Cの770追尾テレビカメラモニター画面上の画像認識した左側石仏の固有位置の画像認識として走行する。
固有位置として画像認識したその木樹と、その標識と、その石仏と、計測したそれぞれの距離と、308 追尾運転システム走行車のその自動車の走行方位と、GPSの測位と、308 追尾運転システム走行車の走行速度と、その自動車走の走行操作の駆動機構の駆動数値を関連付けて位置を記憶する。その固有の位置として画像認識した位置を、その固有の名称の記憶を、インターネットで共有することで、309追尾運転システムを設置した車両が、その位置の記憶に従って、同じ場所を走行することができ、同じ方法で取得したその位置記憶を追加し、その取得したその位置記憶で、そのインターネットで共有する位置記憶を学習させることができる。
実施例 図69の事故回避データーを取得した追尾テレビカメラシステムを設置した308追尾運転システム走行車の自動車が、309追尾運転システムの事故回避データーを取得した追尾テレビカメラシステムを設置して349 1般自動車走行路を上限が設定された速度で走行する。309追尾運転システムの1固定テレビカメラが撮影した319追尾運転システム固定テレビカメラモニター画面上に、1056左側面の縁石、1057左遠方の縁石、1058右側面の縁石の画像を検出する。
319追尾運転システム固定テレビカメラモニター画面上のそれぞれの画像検出した画像は、309追尾運転システムの3追尾レーザー距離計測機でそれぞれの距離が計測され、その計測された距離に従って、画角と焦点距離を調整して80追尾テレビカメラで撮影した、360追尾テレビカメラモニター画面Aの1059追尾運転システム固定テレビカメラモニター画面上の画像演算した左側面の縁石、361追尾テレビカメラモニター画面Bの1060追尾運転システム固定テレビカメラモニター画面上の画像演算した左遠方の縁石、362追尾テレビカメラモニター画面Cの1061追尾運転システム固定テレビカメラモニター画面上の画像演算した右側面の縁石の走行路側面の縁石と中央線の画像認識として走行する。
その画像認識した縁石と中央線の方向とその計測した距離から、308 追尾運転システム走行車の自動車が走行を続けて、その画像認識した側面の縁石と中央線の箇所を通過する走行路位置での、その縁石と中央線と308 追尾運転システム走行車の自動車との距離を演算し確認する。その左側面の縁石と、その中央線と、その右側面の縁石と、その計測した走行路幅と、GPSで計測した位置と、その進行方向の方位と、を共有の名称で表示し記憶する。
実施例 図70の追越し走行データーを取得した追尾テレビカメラシステムを設置した308 追尾運転システム走行車の自動車が、309追尾運転システムの追越し走行データーを取得した追尾テレビカメラシステムを設置して3491般自動車走行路を上限が設定された速度で走行する。309追尾運転システムの1固定テレビカメラが撮影した319追尾運転システム固定テレビカメラモニター画面上に、325追尾運転システム固定テレビカメラモニター画面上の画像検出した先行車Aと、遥か遠方の1019自動運転車両に取付けた固定テレビカメラモニターに映る遠方の接近する車両の画像を検出する。
319追尾運転システム固定テレビカメラモニター画面上のその画像検出した画像を、309追尾運転システムの3追尾レーザー距離計測機でその方向のその検出画像との距離と792対向車線の先方対向車の走行速度を計測する。その計測されたその距離に従って、画角と焦点距離を調整して、その80追尾テレビカメラがその方向を撮影した360追尾テレビカメラモニター画面Aに769追尾運転システム追尾テレビカメラモニター画面上の画像認識した左側縁石の画像認識した位置で距離を計測する。361追尾テレビカメラモニター画面Bに808追尾運転システム追尾テレビカメラモニター画面上の画像認識した先向車の画像認識した位置で距離を計測する。
362追尾テレビカメラモニター画面Cに809追尾運転システム追尾テレビカメラモニター画面上の画像認識した中央車線の画像認識した位置で距離を計測する。363追尾テレビカメラモニター画面Dに807追尾運転システム追尾テレビカメラモニター画面上の画像認識した対向車の画像認識した位置で距離を計測する。その対向車が遥か遠方であることを、1019自動運転車両に取付けた固定テレビカメラモニターに映る遠方の接近する車両の画像認識した位置で距離を計測して確認する。993固定テレビカメラモニターとの合成画面上に、503追い越し走行範囲を演算して設定する。360、361、362、636追尾テレビカメラモニター画面A、B、C、Dはそれぞれの画像解析された被写体ごとに、308追尾運転システム走行車の310進行方向に合わせて、308追尾運転システム走行車のコンピューターの3次元空間の走行位置の前後に展開される。その3次元空間の展開範囲内を309追尾運転システムの追越し走行データーを使って加速し、318先方走行車を追い越して走行するものである。
(ロボットの空間作業位置)
実施例 図71の数値制御で駆動する3追尾レーザー距離計測機で、288数値制御ロボットのその289ロボット作業位置との距離を、7操作卓を操作して計測する。その計測した距離とその計測方向と数値制御の3追尾レーザー距離計測機のその駆動数値と288数値制御ロボットのその289ロボット作業位置と、288数値制御ロボットのその駆動数値と177ロボットの作業空間として数値で位置付けることができる。
288数値制御ロボットの作業位置での、289ロボット作業位置の288数値制御ロボットのその駆動数値と、289ロボット作業位置を数値制御で駆動する3追尾レーザー距離計測機で計測した方向と距離を関連させて、その幾つかの関連させた数値を使って、289ロボット作業位置の全てのその作業を、その全ての作業位置での288数値制御ロボットの駆動数値と、その全ての作業位置での、その3追尾レーザー距離計測機の計測する方向と距離とその3追尾レーザー距離計測機の駆動数値との関連を、補間演算等の方法で演算し取得する。又は、その幾つかの計測した数値に関連させた、シュミレィーションの演算で取得する。複数台の3追尾レーザー距離計測機が距離を計測することで、そのロボットの289ロボット作業位置をより正確に関連付けることができる。
実施例 図72の179追尾テレビカメラ撮影範囲で、288数値制御ロボットの289ロボット作業位置を、数値制御で駆動する80追尾テレビカメラで撮影する。80追尾テレビカメラで撮影した画面に映る、289ロボット作業位置の画像が、92追尾テレビカメラモニター画面の中心に映る様に、その方向とその画角とその焦点距離等を、7操作卓を操作して撮影する。数値制御の80追尾テレビカメラのその駆動数値とその撮影した画像と焦点距離と、288数値制御ロボットのその289ロボット作業位置を操作した7操作卓の操作数値と、288数値制御ロボットのその駆動数値と177ロボットの作業空間として位置付けることができる。
288数値制御ロボットの幾つかの作業位置での、その幾つかの289ロボット作業位置の288数値制御ロボットのその駆動数値と、その幾つかの7操作卓の操作数値と、その幾つかの80追尾テレビカメラの撮影した画像と、その幾つかの80追尾テレビカメラのその駆動数値とを関連付け、その全ての289ロボット作業位置での、その288数値制御ロボットの駆動数値と、その全ての作業位置での、その駆動数値の80追尾テレビカメラのその撮影した画像とその80追尾テレビカメラの駆動数値との関連を、補間演算等の方法で演算し取得する。
実施例 図73の288数値制御ロボットの289ロボット作業位置の距離を、数値制御で駆動する3追尾レーザー距離計測機で、7操作卓を操作して計測する。同時に、数値制御で駆動する80追尾テレビカメラで、288数値制御ロボットの289ロボット作業位置を撮影する。80追尾テレビカメラで撮影する289ロボット作業位置が、92追尾テレビカメラモニター画面の中心に映る様に、その方向とその画角とその焦点距離等を、7操作卓を操作して撮影する。3追尾レーザー距離計測機の計測光が、289ロボット作業位置に照射されて、92追尾テレビカメラモニター画面の中心に映る、295追尾テレビカメラモニター画面上の作業位置と同じ位置に1069追尾テレビカメラモニター画面上のレーザー光照射位置に映る様に7操作卓を操作する。
295追尾テレビカメラモニター画面上の作業位置にレーザー光照射が映ることで、288数値制御ロボットのその289ロボット作業位置と、288数値制御ロボットのその駆動数値と、その計測した距離と、その計測方向と、3追尾レーザー距離計測機のその駆動数値と、80追尾テレビカメラのその駆動数値と、その撮影した画像とを関連付付けることができる。幾つかの288数値制御ロボットのその289ロボット作業位置で、288数値制御ロボットのその幾つかの駆動数値と、その計測した幾つかの距離とその計測した幾つかの方向と、数値制御の3追尾レーザー距離計測機のその幾つかの駆動数値と、80追尾テレビカメラのその幾つかの駆動数値と、その撮影したその幾つかの画像との関連から、その全ての、289ロボット作業位置と、その全ての288数値制御ロボットの駆動数値と、その全ての計測した距離と、その全ての計測した方向と、と、その全ての80追尾テレビカメラの撮影した画面を、補間演算等の方法で演算し取得する。
実施例 図74の288数値制御ロボットの289ロボット作業場位置を1固定テレビカメラか撮影したその5固定テレビカメラモニター画面上に映る293固定テレビカメラモニター画面上の作業位置に相当する位置に、3追尾レーザー距離計測機を向けて289ロボット作業位置の距離を計測する。その計測した距離に相当する、画角と焦点距離を調整して、80追尾テレビカメラを操作して撮影する、92追尾テレビカメラモニター画面に、289ロボット作業位置にその画像を映すことが出来る。
288数値制御ロボットの異なる幾つかの289ロボット作業位置で同様な操作を接続された7操作卓で行う。
288数値制御ロボットのその289ロボット作業位置と、その289ロボット作業位置が5固定テレビカメラモニター画面に映る位置と、その作業場位置へ288数値制御ロボットを駆動した駆動機構の駆動数値と、その289ロボット作業位置の距離を計測した距離の数値と、その計測用レーザー光線を照射した駆動機構の駆動数値と、その289ロボット作業場位置を撮影するために、その289ロボット作業場位置の方向を撮影した、その80追尾テレビカメラの駆動機構の駆動数値と、その80追尾テレビカメラの画角と焦点距離を合わせた、その80追尾テレビカメラの駆動機構の駆動数値と、その80追尾テレビカメラの撮影し画像認識した画像と92追尾テレビカメラモニター画面上に映る位置とを、その全てを5固定テレビカメラモニター画面上の位置に関連付けて、補間法等の方法で演算してその駆動数値を取得するものである。その関連づけた全ての固定テレビカメラモニター画面上の位置で、その駆動機構の駆動数値と計測距離と方向を92追尾テレビカメラモニター画面の位置と映る画像認識した被写体等の位置の全てに連動させて操作することができる。
実施例 図75の焦点距離を合わせて145 画素計測テレビカメラ距離計測器の撮影した143画像素計測テレビカメラ計測距離器モニター画面の144画像素計測テレビカメラ計測距離器モニター画面上のロボット作業の位置を画像検出した143画像素計測テレビカメラ計測距離器モニター画面が写る1089画像素子ユニットの142画像素子の同位置の1090 LED発光素子ユニットの107 LED発光素子を発行させ、被写体の289ロボット作業位置に照射されたその反射光を1091受光器で受光してその反射光の位相差で、289ロボット作業位置までの距離を計測する。
288数値制御ロボットの幾つかの289ロボット作業位置と、その288数値制御ロボットの駆動機構が駆動した、その幾つかの駆動数値と、その145画像素計測テレビカメラ距離計測器の計測した、その幾つかの計測した距離と、145画像素計測テレビカメラ距離計測器の画像検出した、その幾つかの142画像素子の位置と同じ位置の107 LED発光素子の位置とを、その145画素計測テレビカメラ距離計測器の143画素計測テレビカメラ計測距離器モニター画面上のその幾つかの位置に関連付けて、143画素計測テレビカメラ計測距離器モニター画面上の全ての位置で288数値制御ロボットの289ロボット作業位置の駆動する数値と、その145画像素計測テレビカメラ距離計測器の計測した位置の数値を、補間法等の方法で演算して取得するものである。この取得した数値を共有することで、上記関連づけた機器と、その位置と映る画像認識した被写体等と、その位置を関連付けて操作することができる。
実施例 図76の1固定テレビカメラの撮影した5固定テレビカメラモニター画面上で、288数値制御ロボットの289ロボット作業位置の画像検出した方向へ、1070数値制御の画素計測テレビカメラ距離計測機を向け、その1092画像素計測テレビカメラ計測距離器モニター画面の画像素子ユニットのその画像が写る画像素子の位置の、290数値制御の画素計測テレビカメラ距離計測機のLED発光素子ユニットのLED発光素子を発光させた光をその光学レンズを通して、289ロボットの作業位置に照射し、その反射光をその光学レンズを通して、291数値制御の画素計測テレビカメラ距離計測機の受光素子ユニットの受光素子で受光して計測し、その光の飛行時間を計測演算し、288数値制御ロボットの289ロボット作業位置の距離を計測する。その計測した距離に相当する、1070数値制御の画素計測テレビカメラ距離計測機の142画像素子の画角と、光学レンズの焦点距離を合わせて288数値制御ロボットの289ロボット作業位置を80追尾テレビカメラで撮影する。
実施例 図77の、1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に映る110固定テレビカメラモニター画面の作業員を画像検出し、その画面上の位置に相当する方向へ、3追尾レーザー距離計測機を向けて108作業員との距離を計測する。その計測した距離に、画角と焦点距離を従わせて、80追尾テレビカメラで撮影した追尾テレビカメラモニター画面上に映る位置の108作業員を画像認識する。1固定テレビカメラか撮影したその5固定テレビカメラモニター画面上に映る293固定テレビカメラモニター画面上の作業位置を画像検出し、その画面上の位置に相当する方向へ、3追尾レーザー距離計測機を向けて、289ロボット作業位置との距離を計測する。
その計測した距離に、画角と焦点距離を従わせて、80追尾テレビカメラで撮影した112追尾テレビカメラモニター画面の範囲にCG画面の範囲を合成した画面上に映る位置の292追尾テレビカメラモニター作業画面上の作業位置を画像認識する。288数値制御ロボットの289ロボット作業位置を計測した作業範囲を、5固定テレビカメラモニター画面上に1093 CG作業合成画面として演算し表示する。5固定テレビカメラモニター画面上に、計測された108作業員が表示されることで、同じく計測された、289ロボット作業位置が108作業員に接近すると、289ロボット作業場位置が離れる様に移動するか停止する。
その演算した1093 CG作業合成画面と、80追尾テレビカメラで撮影した画面の、112追尾テレビカメラモニター画面にその1093 CG作業合成画面を画面の範囲を重ねる合成画面上で、その290追尾テレビカメラ撮影画面上の作業位置を画像認識する。112追尾テレビカメラモニター画面の範囲に1093 CG作業合成画面の範囲を合成し画面上で、111追尾テレビカメラモニター画面のロボット作業区域に80追尾テレビカメラが撮影した画面上に作業員の接近を画像認識して、288数値制御ロボットの289ロボット作業位置を変えて作業する。
実施例 図78の3追尾レーザー距離計測機で計測する、80追尾テレビカメラが撮影する129追尾テレビカメラの広角で撮影したモニター画面上のその全ての288数値制御ロボットの289ロボット作業場位置と、その距離と方向とを、288数値制御ロボットの289ロボット作業位置のその駆動数値を把握させてある。288数値制御ロボットの289ロボット作業位置を80追尾テレビカメラが広角で撮影する。129追尾テレビカメラの広角で撮影したモニター画面上に映る、288数値制御ロボットの289ロボット作業位置の127追尾テレビカメラモニター画面上の作業を224画像解析器で検出し、127追尾テレビカメラモニター画面上の作業を画像解析した位置に相当する方向を、3追尾レーザー距離計測機で距離を計測する。その計測距離を129追尾テレビカメラの広角で撮影したモニター画面と130追尾テレビカメラの狭角で撮影したモニター画面上に示す。
この計測した距離に相当する画角と焦点距離で、80追尾テレビカメラが撮影した、130追尾テレビカメラの狭角で撮影したモニター画面上に映る288数値制御ロボットの289ロボット作業位置の作業を、224画像解析器で検出し、130追尾テレビカメラの狭角で撮影したモニター画面上の128追尾テレビカメラモニター画面上の作業位置の画面上の作業位置で、289ロボット作業位置の作業をする。128追尾テレビカメラモニター画面上の作業位置の画面上にその計測した距離を、77追尾テレビカメラモニター画面上の表示距離を表示する。130追尾テレビカメラの狭角で撮影したモニター画面の128追尾テレビカメラモニター画面上の作業位置の操作を、その77追尾テレビカメラモニター画面上の表示距離の数値を使って7操作卓で操作させる。
実施例 図79の145画素計測テレビカメラ距離計測器で撮影する、143画素計測テレビカメラ計測距離器モニター画面上の288数値制御ロボットの、その全ての289ロボット作業位置とその距離と288数値制御ロボットのその駆動数値を把握する。575画素追尾テレビカメラが広角レンズで撮影する、131画像素子追尾テレビカメラ距離計測器の広角画像素子の撮影範囲で撮影した、183画像追尾テレビカメラモニター画面上のその画像素子の範囲を広めて画像を検出した、185画像素子追尾テレビカメラモニター画面に映る作業位置の画素子の位置に相当する方向を、145画素計測テレビカメラ距離計測器での、その185画像素子追尾テレビカメラモニター画面に映る作業位置に相当する107 LED発光素子を発光させて、その画像を検出した被写体からの反射光を、157受光器で受光して位相差を計測して距離を演算する。
その計測した距離に相当する575画素追尾テレビカメラが撮影する、その追尾撮影範囲の132画像素子追尾テレビカメラ距離計測器の狭角画像素子の撮影範囲で撮影した、画像素子の範囲を狭めて画像を検出した、133画素計測テレビカメラ距離計測モニターの拡大画面上の185画像素子追尾テレビカメラモニター画面に映る作業位置を185画像素子追尾テレビカメラモニター画面の中心へ、その方向とその距離が計測されていることで、288数値制御ロボットの既に取得させてある、その駆動数値を使って、289ロボット作業場位置を移動する。
実施例 図80の3追尾レーザー距離計測機で計測する、1固定テレビカメラが撮影した画面を映すその全ての、124固定テレビカメラモニター画面A、125固定テレビカメラモニター画面B、668インダーネット網を介して、126固定テレビカメラモニター画面C上の、288数値制御ロボットの289ロボット作業位置とその距離と方向と、288数値制御ロボットの289ロボット作業位置のその駆動数値を関連させてある。
288数値制御ロボットの289ロボット作業位置を1固定テレビカメラが撮影した画面を映す、124、125、126固定テレビカメラモニター画面A、B、668インダーネット網を介して126固定テレビカメラモニター画面C上で、それぞれの固定テレビカメラモニターの画面上の位置で288数値制御ロボットのそれぞれの駆動機構を、それぞれ固定テレビカメラモニターの画面上の位置、527数値駆動機構A、528数値駆動機構B、668インダーネット網を介して、529数値駆動機構Cで操作する事で、複雑なロボット操作を分担して操作するものである。
実施例 図81の288数値制御ロボットの1076ロボット作業位置を121固定テレビカメラが撮影した画面を映す、124固定テレビカメラモニター画面A上の527数値駆動機構Aの位置の操作で、288数値制御ロボットの駆動機構の1076ロボット作業位置Aの作業をする。288数値制御ロボットの1077ロボット作業位置を122固定テレビカメラが撮影した画面を映す、125固定テレビカメラモニターの画面上の528数値駆動機構Bの位置の操作で、288数値制御ロボットの駆動機構の1077ロボット作業位置Bの作業をする。288数値制御ロボットの1078ロボット作業位置を123固定テレビカメラが撮影した画面を、668インダーネット網を介して、126固定テレビカメラモニター画面C上の529数値駆動機構Cの位置の操作で、288数値制御ロボットの駆動機構の1078ロボット作業位置Cの作業をする。
288数値制御ロボットの1076、1077、1078ロボット作業位置と、そのロボット作業位置を121、122固定テレビカメラA、Bが撮影した画面を映す124、125固定テレビカメラモニター画面A、Bと123固定テレビカメラCが撮影した画面を668インダーネット網を介して映す126固定テレビカメラモニター画面C上の527、528、529数値駆動機構A、B、Cの位置と、そのロボット作業位置を243、244、245追尾レーザー距離計測機で計測する距離と方向と、288数値制御ロボットの1076、1077、1078ロボット作業位置の駆動数値を関連させる。インダーネット網を介して、テレビカメラモニターの画面上の操作ができる事で、複雑なロボット操作を分担して操作するものである。
実施例 図82の288数値制御ロボットの119ロボットの作業範囲を1固定テレビカメラが撮影する。5固定テレビカメラのモニター画面上に形状物を検出し、その形状物を検出した位置に相当する方向を、3追尾レーザー距離計測機で距離を計測する。その計測した距離に相当する画角と焦点距離を調整して、80追尾テレビカメラが撮影した129追尾テレビカメラの広角で撮影したモニター画面上に338追尾テレビカメラモニター作業画面上の形状位置の画像を画像解析をする。
その位置で80追尾テレビカメラが撮影する画角を狭くし、130追尾テレビカメラの狭角で撮影したモニター画面上に312追尾テレビカメラモニター作業画面上のバーコード位置の画像を画像認識する。130追尾テレビカメラの狭角で撮影したモニター画面上の撮影範囲を映す画面上の正確な画像のバーコード表示が読み取れる距離の位置に、288数値制御ロボットの289ロボット作業位置に取り付けた120バーコードリーダーを移動させて230バーコード表示を読み取るものである。
実施例 図83の288数値制御ロボットの119ロボットの作業範囲を、1固定テレビカメラの撮影する画像を342形状位置解析器で、5固定テレビカメラのモニター画面上の341固定テレビカメラモニター画面上の情報位置の形状物を検出し、その形状物を検出した337固定テレビカメラモニター画面上の形状位置に相当する方向を、3追尾レーザー距離計測機で距離を計測する。計測した距離に相当する画角と焦点距離を調整して、80追尾テレビカメラが撮影した形状物が映る画像を130追尾テレビカメラの狭角で撮影したモニター画面上に、343形状解析器で形状物の311 画像情報表示の記載の画像を画像認識する。
その画像認識した311 画像情報表示の位置に、288数値制御ロボットの289ロボット作業位置に取り付けた299ロボットに取り付けた数値制御テレビカメラを移動させ、その計測した距離に焦点距離を合わせて、311 画像情報表示を撮影し、その画像情報を344情報解析器で読み取る、336ロボットに取り付けたテレビカメラモニター画面上の339画像情報表示を解読する。
実施例 図84の1固定テレビカメラの撮影した、2固定テレビカメラ撮影範囲内の288数値制御ロボットの289ロボット作業位置の3D成型機の作業位置を映す、171合成テレビモニター画面の396コンビューターの想定する3D形成物の位置は、3追尾レーザー距離計測機で距離を計測することができる位置である。288数値制御ロボットの398ロボットの形成する作業機の3D成型機の作業位置を、171合成テレビモニター画面の位置として2次元の操作する合成画面である。
288数値制御ロボットの119ロボットの作業範囲は、1固定テレビカメラの撮影する2次平面に、3追尾レーザー距離計測機で距離を計測することで、3次元の空間の位置を想定できる。399コンビューターの想定する3D形成物の側面の3次元の空間の画像に、コンピューターが想定している3D形成物の側面の画像を合成画面である。399コンビューターの想定する3D形成物の側面側の画像の114想定する3D画面の位置は、288数値制御ロボットの398ロボットの形成する作業機の位置として、3次元の空間の位置として認識するCG画面の位置である。従って、114想定する3D画面の位置を、288数値制御ロボットの398ロボットの形成する作業機の3D成型機の作業位置が追尾することで、9コンピューターが想定している3次元の空間の位置での、3D形成物を成形することができる。
実施例 図85の1固定テレビカメラの撮影した、5固定テレビカメラモニター画面上の画像検出した被写体を、3追尾レーザー距離計測機と80追尾テレビカメラで各被写体の位置と形状を計測し画像認識する。その画像認識した被写体の収納用387詰込み用ダンボールの方向へ、35数値制御テレビカメラを向け37数値制御テレビカメラモニター画面を撮影する。3追尾レーザー距離計測機で387詰込み用ダンボールの距離を計測して外形を認識する。その段ボールを計測し、既に画像認識した収納する被写体から、優先順位を付けて、その計測した被写体の段ボールに収納する、その画像認識した収納する被写体の収容物を演算する。
その演算して選択したその収納する被写体の収容物の収納位置を、37数値制御テレビカメラモニター画面に映る段ボール画面上に、その313演算した配置位置を表示する。5固定テレビカメラモニター画面上の画像検出した被写体と、80追尾テレビカメラで各被写体の位置と形状を計測した画像認識した被写体の位置と、37数値制御テレビカメラモニター画面に映る段ボール画面上の313演算した配置位置とを、関連付けておくことで、5固定テレビカメラモニター画面上の、その収納する被写体の収容物を認識して、288数値制御ロボットの289ロボット作業位置として、その収納する被写体の収容物収の納作業を行うことができる。
5固定テレビカメラモニター画面上の画像検出した被写体と、37数値制御テレビカメラモニター画面に映る387詰込み用ダンボール画面上に、その313演算した配置位置を関連付けておくことで、5固定テレビカメラモニター画面上の、その収納する被写体を認識して、288数値制御ロボットの289ロボット作業位置として、387詰込み用ダンボールの収納作業を行うことができる。288数値制御ロボットの5固定テレビカメラモニター画面上の位置で、その画像認識した収納する被写体の収容物を取得し、その移動させる作業位置を、37数値制御テレビカメラモニター画面上に映る段ボール画面の313演算した配置位置に収納する。
その収納を演算した位置を、3追尾レーザー距離計測機と80追尾テレビカメラで画像解析し、収納位置を計測し確認する。288数値制御ロボットの289ロボット作業位置を映す、5固定テレビカメラモニター画面の391固定テレビカメラモニター画面上の詰込み用ダンボール箱の位置を、35数値制御テレビカメラで撮影した37数値制御テレビカメラモニター画面上の、その段ボール箱の位置と形状を画像認識し関連付けておくことで、その段ボール箱の形状に合わせて、その周囲の画像認識した形状物の収納方法を演算し、その段ボール箱に収納するものである。
実施例 図86の246ロボット加工位置を243、244、245追尾レーザー距離計測機A、B、Cで計測できない場合、289ロボット作業位置3方向から計測する。289ロボット作業位を概知の位置とし、間接的に246ロボット加工位置を計測する。1固定テレビカメラで288数値制御ロボットの289ロボット作業位置に取り付けた145画像素計測テレビカメラ距離計測器を撮影する。5固定テレビカメラモニター画面上の293固定テレビカメラモニター画面上の作業位置に取り付けた145画像素計測テレビカメラ距離計測器の位置を、243、244、245追尾レーザー距離計測機A、B、Cの3方向から計測する。145画像素計測テレビカメラ距離計測器の位置を3方向から計測することで精度の高い概知の位置にすることができる。
.同様に116画素計測テレビカメラ画面計測器モニターBに映る、78画素計測テレビカメラ計測距離器モニター画面上の作業位置と、117画素計測テレビカメラ画面計測器モニターCに映る、78画素計測テレビカメラ計測距離器モニター画面上の作業位置と、をその3方向から119ロボットの作業範囲での289ロボット作業位置の距離が計測される。289ロボット作業位置を精度の高い概知の位置にすることができる。289ロボット作業位置に取付けた145画像素計測テレビカメラ距離計測器が異なる位置から撮影した、79ロボット作業の加工位置を78画像素計測テレビカメラ距離計測器の概知の3方向から計測する。
78画素計測テレビカメラ計測距離器モニター画面上の作業位置を、3方向から追尾レーザー距離計測機で距離を計測し、79画素計測テレビカメラ計測距離器モニター画面上の加工位置を、その3方向から145 画素計測テレビカメラ距離計測器で距離を計測する。その精度の高い概知の位置が映る、78画素計測テレビカメラ計測距離器モニター画面上の作業位置から、79画素計測テレビカメラ計測距離器モニター画面上の加工位置の246ロボット加工位置を、その精度の高い概知の位置が計測することができる。計測した3か所の概知の距離から、288数値制御ロボットの289ロボット作業位置の精度の高い加工操作をすることができる。
実施例 図87の1固定テレビカメラの2固定テレビカメラ撮影範囲内で、119ロボットの作業範囲の288ロボットの398ロボットの形成する作業機位置を撮影する。288数値制御ロボットの398ロボットの形成する作業機を1固定テレビカメラで撮影して映す、5固定テレビカメラモニター画面上の293固定テレビカメラモニター画面上の作業位置を、243、244、245追尾レーザー距離計測機A、B、C の3方向から、それぞれ119ロボットの作業範囲での398ロボットの形成する作業機の精度の高い位置の距離が計測される。その計測された、398ロボットの形成する作業機の位置が精度の高い位置とすることで、398ロボットの形成する作業機の位置に取り付けた145画像素計測テレビカメラ距離計測器が撮影した、143画像素計測テレビカメラ計測距離器モニター画面が写る画像素子ユニットの、78画素計測テレビカメラ計測距離器モニター画面上の作業位置から、397数値制御ロボットの形成する3D形成物の位置の142画素計測テレビカメラ計測距離機の計測距離を精度の高い位置から計測するものである。
(熔接ロボット)
実施例 図88の193収納架の作業空間に445熔接ロボットと446支援ロボットが設置され、その作業空間に、複数の72追尾テレビカメラ距離計測システムが、8追尾コントローラーで総括的に操作さけている。その作業空間は、事前に2台の及び必要に応じて複数台の、72追尾テレビカメラ距離計測システムで計測され、その作業をするロボットの駆動機構も含めて、作業空間の画像認識される画像の被写体は、8追尾コントローラーで総括的に把握している。作業空間の画像認識として、1固定テレビカメラが撮影した5固定テレビカメラモニター画面が、画像認識した画像を検出した位置に相当する方向へ、3追尾レーザー距離計測機を向けてその検出した画像との距離を計測し、その計測した距離に画角と焦点距離を調整して、80追尾テレビカメラが撮影した画面がある。
5固定テレビカメラモニダー画面で画像検出した画像の位置を、3追尾レーザー距離計測機が距離を計測し、その計測距離で画角と焦点距を離調整して、80追尾テレビカメラが撮影した画面で、360追尾テレビカメラモニター画面A、の449追尾テレビカメラモニター画面上の作業台の計測し、361、362、363、364追尾テレビカメラモニター画面B、C、D、Eの431追尾テレビカメラモニター画面上の作業台の計測は、80追尾テレビカメラの撮影した画像認識した、400画像調整器が選択し画像確認した画面である。361、362、363、364追尾テレビカメラモニター画面B、C、D、Eの画像認識した画面で、その447作業台の位置が計測され、その形状が概知の形状であるかを画像認識する。
実施例 図89の446支援ロボットが468熔接支援機で、450加工材Aを上記作業空間に持込み、450加工材Aを、3追尾レーザー距離計測機で計測し、80追尾テレビカメラか撮影した画像を、規定の形状かを、画像認識で確認する。360追尾テレビカメラモニター画面Aで作業空間での453追尾テレビカメラモニター画面上の加工材Aの外形、361、362、363、364追尾テレビカメラモニター画面B、C、D、Eの547追尾テレビカメラモニター画面上の加工材A の点検で形状確認と計測をする。
実施例 図90の446支援ロボットが468熔接支援機で、360追尾テレビカメラモニター画面Aの位置に、450加工材Aを上記作業空間の447作業台に設置する。上記作業空間の447作業台に設置した、454作業台の加工材Aの作業空間での位置を、360、361、362、363追尾テレビカメラモニター画面B、C、D、Eで456追尾テレビカメラモニター画面上の作業台の加工材の角の形状確認と計測をする。
実施例 図91の446支援ロボットが468熔接支援機で、451加工材Bを上記作業空間に持込み、451加工材Bを、3追尾レーザー距離計測機で計測し、80追尾テレビカメラか撮影した画像を、規定の形状かを、画像認識で確認する。360追尾テレビカメラモニター画面Aで作業空間での追尾テレビカメラモニター画面の458追尾テレビカメラモニター画面上の加工材Bの形状、361、362、363、364追尾テレビカメラモニター画面B、C、D、Eの435追尾テレビカメラモニター画面上の加工材Bで形状確認と計測をする。
実施例 図92の446支援ロボットが468熔接支援機で、451加工材Bを上記作業空間の454作業台の加工材Aに設置し、459作業台の加工材Aに加工材Bを仮組する。3追尾レーザー距離計測機で計測し、80追尾テレビカメラか撮影した画像を、規定の形状かを、それぞれ画像認識で確認する。360追尾テレビカメラモニター画面Aの上記作業空間で、461追尾テレビカメラモニター画面上の仮組の位置、361、362、363、364追尾テレビカメラモニター画面B、C、D、Eの433追尾テレビカメラモニター画面上の仮組検査で位置の形状確認と計測をする。
実施例 図93の446支援ロボットの468熔接支援機で、451加工材Bと454作業台の加工材Aの仮組を支援しながら、445熔接ロボットで、459作業台の加工材Aに加工材Bの仮組し469熔接機でポイント熔接をして固定する。360追尾テレビカメラモニター画面Aで作業空間での474追尾テレビカメラモニター画面上のポイント熔接作業、361、362、363、634追尾テレビカメラモニター画面B、C、D、Eの463追尾テレビカメラモニター画面上のポイント溶接個所で形状確認と計測をしながらポイント熔接をする。
実施例 図94の446支援ロボットの468熔接支援機と、445熔接ロボットの469熔接機でポイント熔接をして固定した仮組作業の点検と計測する。360追尾テレビカメラモニター画面Aの作業空間で475追尾テレビカメラモニター画面上の加工点検、361、362、363、364追尾テレビカメラモニター画面B、C、D、Eの546追尾テレビカメラモニター画面上のポイント熔接検査で形状確認と計測をする。
実施例 図95の446支援ロボットの468熔接支援機で、451加工材Bと450加工材Aの仮組を支援しながら、445熔接ロボットで、459作業台の加工材Aに加工材Bの仮組を、469熔接機で熔接をする。360追尾テレビカメラモニター画面Aで作業空間での476追尾テレビカメラモニター画面上の溶接作業、361、362、363、364追尾テレビカメラモニター画面B、C、D、Eの476追尾テレビカメラモニター画面上の溶接作業の形状確認と計測をする。
実施例 図96の446支援ロボットの468熔接支援機と、445熔接ロボットの469熔接機での溶接が完成した加工品の点検と計測する。360追尾テレビカメラモニター画面Aでの作業空間で477追尾テレビカメラモニター画面上の熔接の点検、361、362、363、364尾テレビカメラモニター画面B、C、D、Eの477追尾テレビカメラモニター画面上の熔接の点検と形状確認と計測をする。
実施例 図97の完成した加工品を468熔接支援機で持ち上げて、完成した加工品の規定の検個所の画像確認と計測する。360追尾テレビカメラモニター画面Aでの作業空間で549追尾テレビカメラモニター画面上の仕上げ検査、361追尾テレビカメラモニター画面Bの550外側溶接形状と点検と位置の計測、362追尾テレビカメラモニター画面Cの551曲面の計測、633追尾テレビカメラモニター画面Dの552内側溶接形状と点検と位置の計測、364追尾テレビカメラモニター画面Eの553外形の計測の形状確認と計測をする。
実施例 図98の完成した加工品を468熔接支援機で傾けて、完成した加工品の規定の検個所の画像確認と計測する。360追尾テレビカメラモニター画面Aでの作業空間で507追尾テレビカメラモニター画面上の加工計測、361、362、363、634追尾テレビカメラモニター画面Bの508追尾テレビカメラモニター画面上の左位置の計測、Cの509追尾テレビカメラモニター画面上の前位置の計測Dの510追尾テレビカメラモニター画面上の右位置の計測Eの511追尾テレビカメラモニター画面上の位置の計測と接点検等の形状確認と計測をする。必要に応じて、支援ロボットにテレビカメラや追尾レーザー距離計測器を取り付け、その追尾レーザー距離計測器の位置を、上記72追尾テレビカメラ距離計測システムの追尾レーザー距離計測機で計測し、位置精度の高い位置から、その完成した加工品の規定の検個所を計測することができる。
実施例 図99の移動式ロボットによる熔接作業の説明図である。473熔接作業の空間の共通の447架台に組み込まれ72追尾テレビカメラ距離計測システムで、その都度、熔接作業の空間を画像確認し、その確認された熔接作業の空間は、概知の計測された空間とする。熔接する加工材のある熔接作業の空間に、445熔接ロボットと446支援ロボットの加工機と複数の72追尾テレビカメラ距離計測システムが組み込まれた472可動収納架を移動させる。その作業空間に移動された、複数の72追尾テレビカメラ距離計測システムと、445熔接ロボットと446支援ロボットの加工機は、8追尾コントローラーで総括的に操作さけている。
事前に及び必要に応じて、72追尾テレビカメラ距離計測システムで計測され、ロボットの作業も含めて、作業空間の画像認識される画像の被写体は、8追尾コントローラーで総括的に把握している。作業空間の画像認識として、1固定テレビカメラが撮影した5固定テレビカメラモニター画面が、画像検出か画像認識した画像を何であるかを解析した位置を、3追尾レーザー距離計測機が距離を計測し、その計測距離で画角と焦点距を離調整して、80追尾テレビカメラか撮影した画面で画像認識する。
同じく、5固定テレビカメラモニター画面で画像検出した画像の位置を、3追尾レーザー距離計測機が距離を計測し、その計測距離で画角と焦点距を離調整して、80追尾テレビカメラか撮影した画面で、360追尾テレビカメラモニター画面Aの478追尾テレビカメラモニター画面上の可動収納架の作業場所での計測、361追尾テレビカメラモニター画面Bの158追尾テレビカメラモニター画面上の作業台角Aの形状と位置の計測、362追尾テレビカメラモニター画面Cの159追尾テレビカメラモニター画面上の作業台角Bの形状と位置の計測、363追尾テレビカメラモニター画面Dの160追尾テレビカメラモニター画面上の作業台Cの形状と位置の計測、364追尾テレビカメラモニター画面Eの161追尾テレビカメラモニター画面上の作業台Dの形状と位置の計測をする。
361追尾テレビカメラモニター画面B、362 追尾テレビカメラモニター画面C、363追尾テレビカメラモニター画面D、364追尾テレビカメラモニター画面Eの画像認識した画面で、その447作業台の位置が、472可動収納架から計測され、その形状が72追尾テレビカメラ距離計測システムの概知の画像認識した形状である。加工材を計測したその可動式の架台からの距離を、その加工材から計測した、異なる位置から展開る位置の数値で熔接作業をすることができる。工場ヤード内に設置された1固定テレビカメラで撮影した画面を、365追尾テレビカメラモニター画面F上に映る289ロボット作業位置を3追尾レーザー距離計測機で計測した位置に472可動収納架移動させて、3追尾レーザー距離計測機で計測した距離で、445熔接ロボットと446支援ロボットの加工機の溶接作業を行う。472可動収納架を数値制御で駆動することで、広い範囲のロボットの熔接作業を可能にする。
(ドローン)
実施例 図100の上空を飛行する606ドローンの方向を、1固定テレビカメラで撮影し、その5固定テレビカメラモニター画面上の画面で、199固定テレビカメラモニター画面上の計測用ドローンの画像を検出する。その画像を検出した、5固定テレビカメラモニター画面上の位置に相当する方向へ、3レーザー距離計測器を付けた80追尾テレビカメラを向け、606ドローンを撮影する。その606ドローンが撮影されていることを確認し、その167レーザー距離計測器で、606ドローンとの距離を計測する。
その計測した距離に従って、80追尾テレビカメラの撮影する画角と焦点距離を調整し、92追尾テレビカメラモニター画面に映る、630追尾テレビカメラモニター画面に映る距離計測用反射ミラーを、前もって画像認識させて置き、その距離計測用反射ミラーの画像が92追尾テレビカメラモニター画面の中央に映る様に、80追尾テレビカメラを追尾駆動させ、再度、その167レーザー距離計測器で606ドローンとの距離を計測する。計測する反射光の光量の最大置を計測した計測の位置を、その距離計測用反射ミラーとの距離とする。
実施例 図101の追尾テレビカメラを操作して、上空を飛行する606ドローンを、80追尾テレビカメラの画角を広角にして撮影する。92追尾テレビカメラモニター画面に映る、630追尾テレビカメラモニター画面に映る距離計測用反射ミラーを撮影し、そのミラーの画像を認識する、92追尾テレビカメラモニター画面上の、そのミラーを認識する画像の位置が、前もって設定しておいた、92追尾テレビカメラモニター画面の中心部に映る様に、80追尾テレビカメラと3追尾レーザー距離計測機を連動させて駆動する。3追尾レーザー距離計測機の計測した距離に従った、画角と焦点距離で80追尾テレビカメラが撮影した、ドローンに取り付けた、そのミラーを画像認識する。80追尾テレビカメラで画像認識した方向付近のそのミラーを3追尾レーザー距離計測機で距離計測をし、3追尾レーザー距離計測機の反射光の最大値を計測距離とする。
実施例 図102の地上の概知の位置の772、773、774概知計測場所A、B、Cと790未知計測場所の追尾テレビカメラ距離計測システムの位置から、80追尾テレビカメラで上空を飛行する42、43、44ドローンA、B、Cに取り付けた距離計測用反射ミラーを追尾させて撮影する、80追尾テレビカメラで追尾させて撮影する駆動数値を使って、3追尾レーザー距離計測器でドローンの距離計測用反射ミラーとの距離を計測する。42ドローンAとの位置を772、773、774概知計測場所A、B、Cと790未知計測場所に同時に計測距離で関連付け、43ドローンBとの位置を722、773、774概知計測場所A、B、Cと790未知計測場所に同時に計測距離で関連付け、44ドローンCとの位置を、772、773、774概知計測場所A、B、Cと790未知計測場所に同時に計測距離で関連付ける。
790未知計測場所と772、773、774概知計測場所A、B、Cの追尾テレビカメラ距離計測システムから、それぞれの42、43、44ドローンA、B、Cの距離計測用反射ミラーとの計測した距離で790未知計測場所の位置を概知計測場所の位置にすることができる。772、773、774概知計測場所A、B、Cに関連付けられた42、43、44ドローンA、B、Cの距離計測用反射ミラーの計測位置と、790未知計測場所を概知の3台の追尾テレビカメラ距離計測システムの位置を、42、43、44ドローンA、B、Cの距離計測用反射ミラーの計測位置をドローンごとに関連付けることで、790未知計測場所の追尾テレビカメラ距離計測システムの未知計測場所を、772、773、774概知計測場所A、B、Cに同時に関連付けることができ、776未知計測場所の位置を概知計測場所の位置にすることができる。
実施例 図103の上空を飛行する、ドローン位置の距離計測用反射ミラーを、追尾テレビカメラ距離計測システムの追尾テレビカメラの画像認識の方法で追尾して撮影し、その追尾に連動する追尾レーザー距離計測機で、そのミラーとの距離を計測し続けることで、幾つかの概知の場所の位置と未知の場所の位置からの、上空を飛行するドローンの幾つかの位置との距離の演算から、未知の場所の位置を概知の場所の位置に関連付けられる。
上空を飛行する
45ドローン位置Aで、772、773、774概知計測場所A、B、C追尾テレビカメラ距離計測システムと、776未知計測場所の追尾テレビカメラ距離計測システムとの距離、48、49、50、51計測距離1A、1B、1C、1Dを同時に計測する。46ドローン位置Bで、772、773、774概知計測場所A、B、C追尾テレビカメラ距離計測システムと、776未知計測場所の追尾テレビカメラ距離計測システムとの距離、52、53、54、55計測距離2A、2B、2C、2Dを同時に計測する。47ドローン位置Aで、772、773、774概知計測場所A、B、C追尾テレビカメラ距離計測システムと、776未知計測場所の追尾テレビカメラ距離計測システムとの距離、56、57、58、59計測距離3A、3B、3C、3Dを同時に計測する。
上空の45ドローン位置を計測した48、49、50、51計測距離1A、1B、1C、1Dから776未知計測場所の概知からの距離が解り、別の上空の46ドローン位置を計測した52、53、54、55計測距離2A、2B、2C、2Dから776未知計測場所の概知からの別の距離が解り、更に別の上空の47ドローン位置を計測した、56、57、58、59計測距離3A、3B、3C、3Dから776未知計測場所の概知からの更に別の距離が解る。上空の概知の45、46、47トローンA、B、Cから距離が概知となることで、776未知計測場所の位置を概知とすることができる。772、773、774概知計測場所A、B、Cと上空を飛行する45、46、47ドローン位置A、B、Cを概知の位置とすることで、45、46、47ドローン位置A、B、Cから776未知計測場所の距離が概知にすることで、776未知計測場所を概知の位置として計算できる。
実施例 図104の772、773、774概知計測場所A、B、C追尾テレビカメラ距離計測システムの位置から、上空を飛行する42、43、44ドローンA、B、Cとの距離をそれぞれ追尾しながら同時間に計測する。概知の複数の場所からの距離計測で、42、43、44ドローンA、B、Cは、概知の場所に関連付けることができる。634距離計測用自動車に取り付けた、789走行中の自動運転に取り付けた3台の追尾テレビカメラ距離計測システムで、自動車を走行させながら、66、67、68追尾テレビカメラ距離計測システムA、B、Cとで、それぞれの42、43、44ドローンA、B、Cとの距離を連続してその位置を計測し、634距離計測用自動車の走行する路上の位置を、その772、773、774概知計測場所A、B、Cを789追尾テレビカメラ距離計測システムの位置に関連付けながら走行し連続して計測する。
実施例 図105の競技中の609サーフボード選手の上空を飛行する通信機能を備えた、606ドローンに組み込まれた、167レーザー距離計測器を取り付けた80追尾テレビカメラで、被写体の609サーフボード選手を広角で撮影する様に飛行する。167レーザー距離計測器と80追尾テレビカメラの操作信号及び計測距離と画像信号は、607データー送受信器の608データー送受信号で地上の追尾テレビカメラ距離計測システムと繋がっている。609サーフボード選手を92追尾テレビカメラモニター画面上の中央に609サーフボード選手が映る様に操作卓で操作する。80追尾テレビカメラに取り付けた、167レーザー距離計測器が609サーフボード選手との距離を計測する。その計測距離に従って、80追尾テレビカメラの画角を狭めて焦点距離を調整して、92追尾テレビカメラモニター画面上の609サーフボード選手が映る画像を画像認識させる。
631追尾テレビカメラモニター画面に映るサーフボード選手を、画像認識することで、92追尾テレビカメラモニター画面上の中央に画像認識の位置映る様に、その計測した距離での80追尾テレビカメラが追尾撮影する。606ドローンに組み込まれた、80追尾テレビカメラの撮影した102画像信号を607データー送受信器で送信し、操作機能を持つ608データー送受信号で受信する。80追尾テレビカメラへの駆動信号と、80追尾テレビカメラの追尾の駆動信号は、608データー送受信号で送信され、606ドローンの607データー送受信器で受信される。
実施例 図106の上空を飛行する通信機能を備えた606ドローンに組み込まれた、72追尾テレビカメラ距離計測システムで、35数値制御テレビカメラで競技中の609サーフボード選手を手動操作で撮影する。37数値制御テレビカメラモニター画面上に、610数値制御テレビカメラモニター画面に映るサーフボード選手を画像認識させる。そのサーフボード選手を画像認識し、その画像認識した画面上の位置が、37数値制御テレビカメラモニター画面中央に映る様に、35数値制御テレビカメラを追尾駆動させる。35数値制御テレビカメラが撮影した、そのサーフボード選手が映る画像認識の位置の方向に関連させて、3追尾レーザー距離計測機を向けて、609サーフボード選手との距離を計測する。
その35数値制御テレビカメラを追尾駆動させた方向で、3追尾レーザー距離計測機の計測した距離に従って、その画角と焦点距離を調整した80追尾テレビカメラで拡大した631追尾テレビカメラモニター画面に映るサーフボード選手を撮影する。35数値制御テレビカメラの画像認識した610数値制御テレビカメラモニター画面に映るサーフボード選手を、画像認識して追尾撮影を続けることで、92追尾テレビカメラモニター画面上の中央に画像認識の位置に映る様に、80追尾テレビカメラの撮影方向を追尾駆動させて撮影する。
実施例 図107の概知と距離計測予定地の上空を飛行する42ドローンA に組み込まれた、可視光の167レーザー距離計測器を取り付けた80追尾テレビカメラで、その概知と距離計測予定地を広角で撮影する。80追尾テレビカメラに取り付けた、167レーザー距離計測器がその概知と距離計測予定地の距離を計測する。その計測距離に従って、80追尾テレビカメラの画角と焦点距離を調整してその概知と距離計測予定地を撮影する。
その撮影されたその概知と距離計測予位置の画面に、622、623、624、777追尾テレビカメラモニター画面A、B、C、Dに映るレーザーの照射光の照射位置619、620、621、618追尾テレビカメラモニター画面に映る照射された距離計測レーザー光A、B、C、Dと、626、627、628、625追尾テレビカメラモニター画面に映る概知計測場所A、B、C、Dを映る。
それらの画像と、その42ドローンからの、それらの画像との距離を計測した距離と、それらの方位及び方向に関連付けて、画像記憶媒体に画像を録画する。その地上の概知の距離計測予定地で、その録画を再生し画像を見て、622追尾テレビカメラモニター画面Aに映る626追尾テレビカメラモニター画面に映る概知計測場所Aと619追尾テレビカメラモニター画面に映る照射された距離計測レーザー光Aの位置に相当する地上の611概知計測場所A から615概知計測場所A付近に照射された距離計測レーザー光の位置との距離を地上で実測する。
623追尾テレビカメラモニター画面Bに映る627追尾テレビカメラモニター画面に映る概知計測場所Bと620追尾テレビカメラモニター画面に映る照射された距離計測レーザー光Bの位置に相当する地上の612概知計測場所Bから616概知計測場所B付近に照射された距離計測レーザー光の位置との距離を地上で実測する。624追尾テレビカメラモニター画面Cに映る628追尾テレビカメラモニター画面に映る概知計測場所Cと621追尾テレビカメラモニター画面に映る照射された距離計測レーザー光Cの位置に相当する地上の613概知計測場所Cから617概知計測場所C付近に照射された距離計測レーザー光の位置との距離を地上で実測する。167レーザー距離計測器の照射位置がその概知計測場所の場所と関連付けることで、距離計測予定地の上空を飛行する42、43、44ドローンA、B、Cの位置が、その概知計測場所の場所と関連付けることができる。その概知計測場所の場所と関連付けた、その上空を飛行する42、43、44ドローンA、B、Cの位置から照射された、614計測予定場所付近に照射された距離計測レーザー光の位置が、その概知計測場所の場所と、を実測で関連付けたられる。
777追尾テレビカメラモニター画面Dに映る625追尾テレビカメラモニター画面に映る計測予定場所と618追尾テレビカメラモニター画面に映る照射された距離計測レーザー光の位置に相当する地上の505計測予定場所から614計測予定場所付近に照射された距離計測レーザー光の位置との距離を地上で実測する。505計測予定場所がその概知計測場所の611、612、613場所概知計測場所A、B、Cと関連付けたられる。同様な計測を、異なる概知の位置の上空をで飛行する42、43、44ドローンA、B、Cで行うことで505計測予定場所の計測精度を高めることができる。概知計測場所と距離計測予定地を、80追尾テレビカメラの撮影する被写体の画像に、画像認識の被写体や発光する被写体にすれば、80追尾テレビカメラの画像認識による追尾機能で、その地上の距離計測レーザー光の位置の実測を省略できる。
実施例 図108の概知の絶対位置の場所に設置された、各633追尾レーザー距離計測システムと、走行中の636距離計測用自動車に取り付けた追尾テレビカメラ距離計測システムとが、その上空の606ドローンに取り付けた629距離計測用反射ミラーと、93、94、95追尾レーザー距離計測基点A、B、C と、634距離計測用自動車の99追尾レーザー距離計測予定基点との、781、782、783、784距離計測A、B 、C、Dの距離を、そのドローンに取付けたLEDの発光に同期して計測する。
走行中の636距離計測用自動車に取り付けた追尾テレビカメラ距離計測システムが計測する784距離計測Dは、634距離計測用自動車の走行中の計測予定距離である。その上空の606ドローンの位置は、各633追尾レーザー距離計測システムの93、94、95追尾レーザー距離計測基点A、B、C からの、それぞれの計測距離と撮影方向と方位の数値で演算さける。その634距離計測用自動車は、99追尾レーザー距離計測予定基点から飛行中の609ドローンの位置を連続して計測した、その784距離計測Dと65追尾テレビカメラ距離計測システムの80追尾テレビカメラと3追尾レーザー距離計測機で、その撮影方向と方位の数値で演算して、走行中の位置を計測して走行する。
その走行中の636距離計測用自動車に取り付けた65追尾テレビカメラ距離計測システムで、走行路周辺の1固定テレビカメラで画像検知した被写体の方向を、166ミラー追尾レーザー距離計測機で距離を計測し、その計測した距離に相当する、画角と焦点距離で168ミラー追尾テレビカメラが撮影した画像を画像認識し、その画像検知した画像認識した被写体と、その被写体までの距離と計測方向と方位とを、634距離計測用自動車の走行中の概知された位置からの距離の数値で演算し、その1固定テレビカメラで画像検知した画像認識した被写体の位置を概知の位置として計測するものである。
168ミラー追尾テレビカメラが撮影し画像認識した被写体の映る、180ミラー追尾テレビカメラモニター画面の、637、638、639、640、641、642ミラー追尾テレビカメラモニター画面に映る標識搭、左手前交差点角、左奥交差点角、中央分離帯表示、右奥交差点角、右手前交差点角は、634距離計測用自動車の進行方向の走行路付近の、644道路左側の標識搭、495道路左側交差点の手前角、496道路左側交差点の奥角、497道路右側交差点の奥角、498道路右側交差点の手前角等の路面の画像認識した幾つかの被写体の位置を概知の位置として計測するものである。計測した幾つかの画像認識した被写体の位置は、絶対位置情報として記憶し、607データー送受信器で送信され絶対位置情報として保存され共有される。
実施例 図109の前記説明した、複数の概知の絶対位置の93、94、95追尾レーザー距離計測基点A、B、Cの場所から上空を飛行する複数の42、43、44ドローンA、B、Cの位置を同時に計測し、それぞれのドローンを概知の位置とする。その各位置が計測された概知の位置の複数の、42、43、44ドローンA、B、Cの位置を走行中の634距離計測用自動車に組み込まれた、636距離計測用自動車に取り付けた追尾テレビカメラ距離計測システムの、66、67、68追尾テレビカメラ距離計測システムA 、B、Cのそれぞれが、44、43、42ドローンC、B、Cとの距離の59、55、51計測距離3D、2D、1Dを計測しながら走行する。42、43、44ドローンA、B、Cとの距離の数値で走行中の634距離計測用自動車の位置を計測するものである。
走行中の634距離計測用自動車の位置が常に計測されて、概知の位置であることで、636距離計測用自動車に取り付けた追尾テレビカメラ距離計測システムに設けた、168ミラー追尾テレビカメラが撮影した画像を画像認識した180ミラー追尾テレビカメラモニター画面上に映る位置の、637、638、639、640、641、642ミラー追尾テレビカメラモニター画面に映る標識搭の位置の走行路脇の644道路左側の標識搭と、左手前交差点角の位置の走行路脇の495道路左側交差点の手前角、左奥交差点角の位置の496道路左側交差点の奥角と、中央分離帯表示位置の802中央車線と、右奥交差点角位置の497道路右側交差点の奥角と、右手前交差点角位置の498道路右側交差点の手前角を、180ミラー追尾テレビカメラモニター画面上の位置に従って、636距離計測用自動車に取り付けた追尾テレビカメラ距離計測システムに設けた243、244、245追尾レーザー距離計測機A、B、Cとが、その画像認識した画像の距離をそれぞれが追尾計測する。
上空を飛行する42、43、44ドローンA、B、Cの概知の位置を連続して計測する634距離計測用自動車の概知の走行位置から、走行路周辺の画像認識する事物を概知の位置にする。走行中の634距離計測用自動車の位置からの3方向の距離計測で、634距離計測用自動車の位置が絶対位置の概知として特定できているので、更にその位置から3方向の距離計測することで、それぞれの画像認識した画像の位置を絶対位置の概知として特定することができる。その特定された画像の位置は、複数の概知の絶対方位と、その自動車の進行方向との、93、94、95追尾レーザー距離計測基点A、B、Cとから計測された位置であるから、644道路左側の標識搭と、495道路左側交差点の手前角と、496道路左側交差点の奥角と、802中央車線と、497道路右側交差点の奥角と、498道路右側交差点の手前角は絶対方位の位置である。従って、この計測された絶対方位の位置は、共有することができるので、絶対位置情報として記憶し、607データー送受信器で送信され絶対位置情報として保存され共有される。全ての634距離計測用自動車で走行路脇の概知の絶対位置情報を計測し、新たに走行路脇の絶対位置情報を追加として記憶することで、その新たな絶対位置情報を用いた全ての634距離計測用自動車が新たな絶対位置情報で走行できる。
実施例 図110の走行中の634距離計測用自動車から、上空を飛行する606ドローン位置を、633追尾レーザー距離計測システムの1固定テレビカメラで撮影し、その5固定テレビカメラモニター画面上に映る、199固定テレビカメラモニター画面上に計測用ドローンを画像検出し、5固定テレビカメラモニターの位置に相当する位置へ、80追尾テレビカメラと3追尾レーザー距離計測機を向け、3追尾レーザー距離計測機の計測した、606ドローンとの距離に、画角と焦点距離を合わせて、80追尾テレビカメラが撮影した92追尾テレビカメラモニター画面上の69追尾画像の606ドローンを画像認識し、その認識した606ドローンの69追尾画像が、92追尾テレビカメラモニター画面の中央に映る様に、606ドローンを80追尾テレビカメラで追尾撮影する。634距離計測用自動車から、92追尾テレビカメラモニター画面上の69追尾画像を追尾撮影する方向を3追尾レーザー距離計測機で606ドローンとの距離を計測する。
606ドローンに組み込まれた607データー送受信器と633追尾レーザー距離計測システムに組み込まれた607データー送受信器とは608データー送受信号で接続されている。606ドローンに組み込まれた、35数値制御テレビカメラと167レーザー距離計測器を取り付けた80追尾テレビカメラとで、86計測したい走行自動車を撮影するために、35数値制御テレビカメラの画角を広げて37数値制御テレビカメラモニター画面の撮影範囲を広げる。37数値制御テレビカメラモニター画面上に、86計測したい走行自動車が映る様に手動操作する。37数値制御テレビカメラモニター画面上に、70数値制御テレビカメラモニター画面上の計測したい走行車両が映ることで、86計測したい走行自動車を、画像認識できる画像とするために、35数値制御テレビカメラの画角を調整する。
86計測したい走行自動車を、69追尾画像とて画像が37数値制御テレビカメラモニター画面の71数値制御テレビカメラモニター画面上の計測したい拡大した走行車両が中央に映る様に、35数値制御テレビカメラを追尾させる。35数値制御テレビカメラを追尾させる、駆動数値に従って、167レーザー距離計測器を取り付けた、80追尾テレビカメラを追尾駆動させる。80追尾テレビカメラの撮影した画面を表示する、92追尾テレビカメラモニター画面の71数値制御テレビカメラモニター画面上の計測したい拡大した走行車両を、画像認識できる画像にするために、606ドローンと、走行中の86計測したい走行自動車との距離を167レーザー距離計測器が計測する。その計測した距離に従って、80追尾テレビカメラの撮影する画角と焦点距離を調整して、その画像認識した画像が、92追尾テレビカメラモニター画面上の中心に映る様にする、80追尾テレビカメラを追尾駆動する。
80追尾テレビカメラが追尾撮影する、走行中の86計測したい走行自動車と606ドローンとの距離を167レーザー距離計測器で計測する。634距離計測用自動車の80追尾テレビカメラが追尾撮影する606ドローンの位置を走行中の634距離計測用自動車からの距離も計測できる。633追尾レーザー距離計測システムの計測した、606ドローンとの位置と関連付けることで、走行中の634距離計測用自動車から、86計測したい走行自動車の方向と距離が継続的に計測できる。
(セキュリテー)
実施例 図111の2固定テレビカメラ撮影範囲を1固定テレビカメラの撮影する画面を映す、5固定テレビカメラモニター画面上の画像を検出し202固定テレビカメラ画面上の被写体1の映る位置に相当する位置を、167レーザー距離計測器を付けた、80追尾テレビカメラで追尾撮影し、その167レーザー距離計測器が測定した計測距離で、80追尾テレビカメラが追尾撮影する、画角と焦点距離を合わせる様に追尾撮影させて、226画像解析テレビカメラモニター画面でその被写体の画像確認した、227画像解析した画像を表示するものである。
実施例 図112の2固定テレビカメラ撮影範囲を1固定テレビカメラの撮影する画面を映す、5固定テレビカメラモニター画面上で幾つかの170被写体の画像を検出した。その幾つかの画像を検出した内の、202固定テレビカメラ画面上の被写体1と、203固定テレビカメラ画面上の被写体2の2か所の被写体の映る位置に相当する方向を、35数値制御テレビカメラを駆動数値で駆動させて、その2か所の被写体を撮影する。
その2か所の画像を映す、37数値制御テレビカメラモニター画面上の220、221数値制御テレビカメラモニター画面上のその被写体1、2に相当する位置を、167レーザー距離計測器を付けた、80追尾テレビカメラでそれぞれを計測し、それぞれを追尾撮影する。その167レーザー距離計測器が測定した計測距離で、その画角と焦点距離等を調整させて、80追尾テレビカメラがそれぞれの被写体を撮影する。それぞれの撮影された画像を、224画像解析器で画像認識し、360追尾テレビカメラモニター画面Aに226画像解析した画像1と361追尾テレビカメラモニター画面B に227画像解析した画像2とを表示するものである。
実施例 図113の夜間の暗い被写体を撮影するために、80追尾テレビカメラの撮影範囲を、複数の166ミラー追尾レーザー距離計測機でサーチして検索し、距離計測レーザーの通常とは異なる距離の反射光で、被写体を検出しその距離を計測する。その被写体を検出した方向へ、80追尾テレビカメラの画角を狭め、その計測した距離に従って、焦点距離を合わせ、撮影感度を高めて、92追尾テレビカメラモニター画面を撮影するものである。その追尾撮影した画像で、個人の画像の情報を取得し記憶する。
実施例 図114の208ミラー追尾レーザー距離計測機の計測範囲を、166ミラー追尾レーザー距離計測機でサーチして、通常とは異なる、その反射光で被写体を検出しその距離を計測する。その被写体を検出した方向へ、その計測距離に従って、80追尾テレビカメラの画角と焦点距離を調整して、92追尾テレビカメラモニター画面を撮影するものである。撮影された画像を、668インダーネット網を介して、別の場所で画像照合の解析するものである。
実施例 図115の2固定テレビカメラ撮影範囲を1固定テレビカメラの撮影する画面を映す、5固定テレビカメラモニター画面上の画像で、その画像を検出した画像を、668インダーネット網を介して282インターネットを介した282固定テレビカメラモニター画面上の277、278、279、280、281インターネット固定テレビカメラモニター画面の画像認識の位置A、B、C、D、Eの位置に相当する位置を、167レーザー距離計測器を付けた、80追尾テレビカメラで追尾撮影し、その167レーザー距離計測器が測定した計測距に、80追尾テレビカメラが撮影する、画角と焦点距離を合わせて追尾撮影する。
この撮影さけた画像を、668インダーネット網を介して、360、361、362、363、364追尾テレビカメラモニター画面A、B、C、D、Eの画像を287画像記憶媒体に記憶する。360、361、632、633、364追尾テレビカメラモニター画面A、B、C、D、E上で、80追尾テレビカメラが撮影する被写体が、画像認識できる様に、予め設定しておいた撮影方法を選択し、その方向と画角とその焦点距離を操作して画像認識のできる追尾撮影して画像確認をして記憶する。それぞれの異なる地域での画像を、668インダーネット網を介して、287画像記憶媒体に保存された画像と画像照合する。
実施例 図116の2固定テレビカメラ撮影範囲を1固定テレビカメラの撮影する画面を映す、5固定テレビカメラモニター画面上の画像を検出し81固定テレビカメラモニター画面に映る被写体の映る画面上の位置に相当する位置を、167レーザー距離計測器を付けた複数の196、197、198テレビカメラ追尾システムA、B、Cの80追尾テレビカメラで追尾撮影し、それぞれの167レーザー距離計測器が測定した計測距離で、それぞれの80追尾テレビカメラが撮影する、画角と焦点距離を追尾させて、360追尾テレビカメラモニター画面Aで被写体の正面、361追尾テレビカメラモニター画面Bで被写体の後部、362追尾テレビカメラモニター画面Cで被写体の側面の画面で、画像解析した画面を、それぞれの計測した距離と方向で展開して360、361、362追尾テレビカメラモニター画面A、B、Cの合成画面で表示するものである。
360、361、362追尾テレビカメラモニター画面A、B、C上の全ての画面上位置で、196、197、198テレビカメラ追尾システムA、B、Cの80追尾テレビカメラで追尾撮影する駆動数値の数値を、5固定テレビカメラモニター画面上の位置で関連を特たせる。上記何れかの追尾テレビカメラモニター画面上の操作で、その関連を持たせた、それぞれの追尾テレビカメラの数値駆動の数値で、それぞれの追尾テレビカメラが異なる方向から、その操作に関連を持たせて撮影をするものである。170被写体を、多方面もから撮影した画像を、関連付けて287画像記憶媒体に記憶することで、画像認識の認識度を良くすることがでる。360、361、362追尾テレビカメラモニター画面A、B、C上の位置で、予め画像認識に適した撮影方法を設定しておき、その設定に合わせて、その撮影方法を修正してそれぞれの追尾テレビカメラで撮影する。撮影した画像に、撮影情報を付加し、分類できる数値で記憶する。
実施例 図117の同じ撮影範囲を幾つかの異なる方向から170被写体を575、576、577、578画素追尾テレビカメラ、A、B、Cで撮影し、その何れかの583、584、585、586画像追尾テレビカメラ、A、B、C撮影範囲で、575、576、577、578画素追尾テレビカメラ、A、B、Cの何れかで撮影した被写体を、166ミラー追尾レーザー距離計測機の、前もって、その駆動数値を共有する数値を使って、579、580、581、582画素追尾テレビカメラモニター画面、A、B、C上に、598、587、588、589画素追尾テレビカメラモニター画面上の被写体、A、B、Cの画像検出した画像の位置に相当する方向へ、それぞれの166ミラー追尾レーザー距離計測機を向ける。
それぞれの166ミラー追尾レーザー距離計測機の位置から、170被写体までの距離を計測し、その計測した距離に従って、それぞれの575、756、757、758画素追尾テレビカメラ、A、B、Cの画像素子の範囲を狭め、その計測距離に焦点距離を合せることで、170被写体の594、595、596、597画素追尾テレビカメラモニター画素追尾画面、A、B、Cの画像素子の追尾した画面を撮影することができる。575、576、577、578画素追尾テレビカメラシステム、A、B、Cの何れかが画像を検出した、170被写体を、複数の画面で画像認識できる画面を撮影することができる。何れかの5575、576、577、578画素追尾テレビカメラシステム、A、B、C が画像を検出した、170被写体との距離を計測することができる、575、576、577、578画素追尾テレビカメラシステム、A、B、C が画像検出した画像素子の位置で、LED発光素子を発光させて、距離を計測する計測方法の場合、距離計測が同時にできるので、画像認識を瞬時にすることができる。
(追尾バーコードリーダーと距離計測器)
実施例 図118の1固定テレビカメラが広い範囲を撮影した、5固定テレビカメラモニター画面上に341固定テレビカメラモニター画面上の情報位置を表記した被写体の画像を検出し、その画面上の被写体の画像の検出した位置に相当する方向へ、距離計測機能とバーコード読取との機能を持つ442数値制御バーコードリーダーレーザー距離計測機を向け、その被写体との距離を計測し、その被写体との計測距離に合わせて、442バーコードリーダーレーザー距離計測機のバーコードリーダー用レーザー光の走査速度でリーダー光を照射する。440バーコード表記位置の距離に合わせたレーザー光で被写体に表記したバーコードを取得する。
実施例 図119の439バーコードリーダー読取範囲を、距離計測機能とバーコード読取との機能を持つ442数値制御バーコードリーダーレーザー距離計測機と、80追尾テレビカメラで撮影する。80追尾テレビカメラの撮影する画角を広角にし、92追尾テレビカメラモニター画面上に444追尾テレビカメラモニター画面上のバーコード表記形状の被写体を検出した画像の位置へ、442バーコードリーダーと442レーザー距離計測機を向け、その被写体との距離を計測し、その計測した距離に相当する、画角と焦点距離で80追尾テレビカメラが再度撮影し、その被写体を検出した画像を画像認識する。80追尾テレビカメラの撮影し、画像認識した画像が、92追尾テレビカメラモニター画面上の中央に映る様に、80追尾テレビカメラを駆動する。その駆動した位置で撮影した、92追尾テレビカメラモニター画面上444追尾テレビカメラモニター画面上のバーコード表記形状を画像認識した位置へ、442バーコードリーダーとレーザー距離計測機を駆動して、再度距離を計測し、その再度距離にバーコードリーダーの焦点を合わせて、バーコード表示を読み取る。80追尾テレビカメラの撮影した追尾テレビカメラモニター画面上の認識画像した画像をバーコード表示に付して記憶する。
実施例 図120の439バーコードリーダー読取範囲を、距離計測機能とバーコード読取との機能を持つ442数値制御バーコードリーダーレーザー距離計測機と、575画素追尾テレビカメラの機能を持つテレビカメラの機器を設置する。575画素追尾テレビカメラの撮影する画素を広角にし、579画素追尾テレビカメラモニター画面上に被写体を検出した画像の位置へ、442バーコードリーダーレーザー距離計測機を向け、その被写体との距離を計測し、その計測した距離に相当する、画素の画角と焦点距離で575画素追尾テレビカメラが再度撮影し、579画素追尾テレビカメラモニター画面上の被写体を検出した画像を画像認識する。579画素追尾テレビカメラモニター画面の画像認識した440バーコード表記位置へ、その距離を合わせて442バーコードリーダーレーザー距離計測機で再度距離を計測し、その再度距離を計測にバーコードリーダーの焦点を合わせて、443バーコード表記形状を読み取る。579画素追尾テレビカメラモニター画面上の444追尾テレビカメラモニター画面上のバーコード表記形状の認識画像の画像をバーコード表示に付して記憶する。
実施例 図121の1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に、370固定テレビカメラモニター画面上の画像の形状を検出する位置を検出した方向を、複数の167レーザー距離計測器を取りつけた355、356、357、358、359追尾テレビカメラA、B、C、D、Eが撮影しそれぞれの167レーザー距離計測器で、その形状との距離を計測し、その計測した計測距離に相当する画角と焦点距離で、その方向からその形状を撮影し、それぞれの画像を解析し、その画像を画像認識させる。その画像認識し画像の中から、443バーコード表記形状を画像認識させ、その440バーコード表記位置に353追尾バーコードリーダーを向け、その位置に相当する距離の走査速度に合わせて369バーコード表示を読みとる。
同時に、その画像認識したその形状を、777重量計測機で重量を計測する。1固定テレビカメラ撮影した370固定テレビカメラモニター画面上の画像の形状を検出する位置の画像と、355、356、357、358、359追尾テレビカメラA、B、C、D、Eが撮影が撮影し画像認識した、360、361、362、363、364追尾テレビカメラモニター画面A、B、C、D、Eの画像と、777重量計測機が計測した778重量計測データーを、その369バーコード表示を読とつた数値情報に付して、367データーと画像記憶媒体に記憶させるものである。
実施例 図122の1固定テレビカメラモニター画面上の画像検出した情報データー表記を付した被写体の位置へ、3追尾レーザー距離計測機と80追尾テレビカメラを向け、3追尾レーザー距離計測機が計測した距離に相当する画角と焦点距離で、その情報データー表記を付した被写体の368被写体情報データーを80追尾テレビカメラで撮影し画像認識する。288数値制御ロボットの作業位置に35数値制御テレビカメラを取り付けた、80追尾テレビカメラで画像認識した被写体を3追尾レーザー距離計測機の計測した解読できる位置へ駆動し、35数値制御テレビカメラで368被写体情報データーを解読する。80追尾テレビカメラで撮影したその画像検出した被写体の画像を、取得してあるその解読した情報データーと照合する。
広い集積所の2固定テレビカメラ撮影範囲を撮影した、1固定テレビカメラモニター画面上の画像検出した被写体の位置を、3追尾レーザー距離計測機で距離を計測し、その計測した方向と距離に相当する画角と焦点距離で、80追尾テレビカメラが撮影したその被写体を画像認識し、その被写体の位置へ、288数値制御ロボットの作業位置に取り付けた、35数値制御テレビカメラでその計測した距離に相当する焦点距離で、368被写体情報データーを撮影しその情報データー解読する。バーコードリーダーとして説明はしているが、解読する情報データーは他のバーコードなどの被写体情報データーでも可能である。その368被写体情報データー表記形状の表記情報に、1固定テレビカメラモニター画面上の画像検出した位置と、80追尾テレビカメラの撮影した画像認識した画像と、その計測した位置と、228数値制御ロボットの駆動数値とを関連付ける。
実施例 図123の1固定テレビカメラが撮影した5固定テレビカメラモニター画面上の81固定テレビカメラモニター画面に映る被写体の作業員の持つ372ロボットの作業場所を指示する作業員の持つ指示器を画像検出した位置に相当する位置へ、288数値制御ロボットの作業位置に取り付けた374ロボットに取り付けた追尾レーザー距離計測機と299ロボットに取り付けた数値制御テレビカメラを駆動させる。
374ロボットに取り付けた追尾レーザー距離計測機で372ロボットの作業場所を指示する作業員の持つ指示器との距離を計測し、その計測した距離に相当する画角と焦点距離で、299ロボットに取り付けた数値制御テレビカメラが撮影する、372ロボットの作業場所を指示する作業員の持つ指示器の指示表示を解読して、作業員の持つ加工品の画像認識した内容の22ロボットの作業をする。
実施例 図124の1固定テレビカメラが撮影した5固定テレビカメラモニター画面上の81固定テレビカメラモニター画面に映る被写体の作業員の手を検出した位置へ、374ロボットに取り付けた追尾レーザー距離計測機と299数値制御テレビカメラを取り付けたて288数値制御ロボットの作業位置を駆動させる。374ロボットに取り付けた追尾レーザー距離計測機で190作業者の指示する位置の距離を計測し、その計測した距離に相当する画角と焦点距離で、299数値制御テレビカメラが撮影する191ロボットに取り付けたテレビカメラモニター画面の指示する位置を画像認識して、その画像認識した内容を解析した作業を288数値制御ロボットの22ロボットの作業をする。
(飛行場)
実施例 図125の599機着陸態勢の小型航空機が小規模な空港の600滑走路に着陸の際の支援画像として小型航空機に取り付けられた、635追尾テレビカメラレーザー距離計測システムに組み込まれた1固定テレビカメラの撮影する、604固定テレビカメラモニター画面に映る滑走路の標識の画像を検出した方向に、3追尾レーザー距離計測機と80追尾テレビカメラ向け、その計測した距離に合わせて、画角と焦点距離を調整して92追尾テレビカメラモニター画面に映る605追尾テレビカメラモニター画面に映る滑走路上の表記を詳細に画像認識する。前もって取得してある同じ状況での画像認識の詳細な画像と比較して、その80追尾テレビカメラが撮影する詳細な605追尾テレビカメラモニター画面に映る滑走路上の表記のその画像との違いを表示する。
599機着陸態勢の小型航空機にその画像との違いの表示は、その1固定テレビカメラの撮影した方向と、その3追尾レーザー距離計測機した距離と、その計測した距離に対応して80追尾テレビカメラが撮影する駆動数値と、その92追尾テレビカメラモニター画面に映る位置である。その1固定テレビカメラの撮影方向の2固定テレビカメラ撮影範囲の中央に映る修正するために、その599機着陸態勢の小型航空機の飛行方向を修正する。その599機着陸態勢の小型航空機を駆動操縦する、駆動機構の駆動数値を修正するために、その画像との違いの表示を、その前もって取得してあるその画像に合わせるために、その80追尾テレビカメラが撮影する駆動数値を、その前もって取得してあるその駆動数値に合わせる様になる駆動数値の方向に展開して表示して、599機着陸態勢の小型航空機を駆動操縦する、その駆動機構の駆動数値を修正する。
実施例 図126の599機着陸態勢の小型航空機が小規模な空港の600滑走路に着陸の際の支援画像として、その599機着陸態勢の小型航空機が600滑走路に着陸するその699機着陸態勢の小型航空機を、635追尾テレビカメラレーザー距離計測システムが滑走路側面に設置してある地上で撮影する。635追尾テレビカメラレーザー距離計測システムの1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に601固定テレビカメラモニター画面に映る滑着陸態勢の小型航空機の画像を検出し、その検出した位置に相当する方向へ、80追尾テレビカメラと3追尾レーザー距離計測機を向け、599機着陸態勢の小型航空機との距離を計測し、その距離に相当する、画角と焦点距離で80追尾テレビカメラが撮影した92追尾テレビカメラモニター画面の画像を画像認識する。
602追尾テレビカメラモニター画面に映る滑着陸態勢の小型航空機の着陸態勢の画像認識した画像を、前もって画像認識して取得してある同様の着陸態勢の画像と比較する。80追尾テレビカメラが撮影したその駆動数値と3追尾レーザー距離計測機が計測したその距離の位置を、前もって画像認識して取得してある同様の着陸態勢の画像を撮影した80追尾テレビカメラが撮影したその駆動数値と3追尾レーザー距離計測機が計測したその距離の位置になる様に、その1固定テレビカメラが撮影した画面の位置と関連付けた、599機着陸態勢の小型航空機を駆動操縦する、その駆動機構の駆動数値を、599機着陸態勢の小型航空機に送信して駆動操縦を修正する。
実施例 図127の599機着陸態勢の小型航空機が小規模な空港の600滑走路に着陸の際の支援画像として、その599機着陸態勢の小型航空機が600滑走路に着陸するその699機着陸態勢の小型航空機を、635追尾テレビカメラレーザー距離計測システムが滑走路先に設置してある地上から撮影する。635追尾テレビカメラレーザー距離計測システムの1固定テレビカメラが撮影した5固定テレビカメラモニター画面上に601固定テレビカメラモニター画面に映る滑着陸態勢の小型航空機の画像を検出し、その検出した位置に相当する方向へ80追尾テレビカメラと3追尾レーザー距離計測機を向け、599機着陸態勢の小型航空機との距離を計測し、その距離に相当する、画角と焦点距離で80追尾テレビカメラが撮影した92追尾テレビカメラモニター画面上の画像を画像認識する。
602追尾テレビカメラモニター画面に映る滑着陸態勢の小型航空機の着陸態勢の画像を、その画像認識した着陸態勢の画像を撮影する、80追尾テレビカメラの駆動数値と、前もって画像認識して取得してある同様の着陸態勢の画像を撮影した、80追尾テレビカメラの駆動数値とを比較して、その撮影する80追尾テレビカメラの駆動数値を、その取得してある撮影した80追尾テレビカメラの駆動数値に合わせる様に、その599機着陸態勢の小型航空機を駆動操縦する、その駆動機構の駆動数値を599機着陸態勢の小型航空機に送信して駆動操縦を修正する。
(船舶)
実施例 図128の船舶に取り付けた635距離計測用追尾テレビカメラ距離計測システム635追尾テレビカメラレーザー距離計測システムで、1固定テレビカメラ撮影する、5固定テレビカメラモニター画面上で画像を検出した位置に相当する方向へ、80追尾テレビカメラと3追尾レーザー距離計測機を向け、3追尾レーザー距離計測機が計測した距離に合わせて、80追尾テレビカメラの撮影の画角と焦点距離と照度を調整して、その401船舶を撮影する。80追尾テレビカメラ撮影した船舶は、自船が進行し揺れる折にも、401船舶を撮影する画像が92追尾テレビカメラモニター画面の中央に写る様に、401船舶の画像を追尾撮影する。
1固定テレビカメラ撮影する、5固定テレビカメラモニター画面上で401船舶を画像検出した、401船舶の進行と揺れで表示されるので、80追尾テレビカメラ撮影の方向と画角と焦点距離が揺れに80追尾テレビカメラの駆動機構が追尾修正され92追尾テレビカメラモニター画面に、375追尾テレビカメラモニター画面上の船舶の位置に安定して表示される。周期的な自船の揺れに対しては、モニター画面上の表示位置を修正する画面表示が可能である。401船舶を80追尾テレビカメラが画角と焦点距離と照度を調整して、撮影することで、その船舶の画像認識が可能となる。その375追尾テレビカメラモニター画面上の船舶の画像を解析し、既に記憶されている船舶の画像と比較してその船舶を画像認識する。
実施例 図129の自船に取り付けた635追尾テレビカメラレーザー距離計測システムで、1固定テレビカメラが撮影する、5固定テレビカメラモニター画面で163固定テレビカメラモニター画面上のクルーザーボートの画像を検出する、5固定テレビカメラモニター画面の位置に相当する方向へ、3追尾レーザー距離計測機を向け、画像検出した162クルーザーボートとの距離を計測する。163固定テレビカメラモニター画面上のクルーザーボートの画像を継続的に、計測し撮影することで、162クルーザーボートの進行方向と自船の進行位置が予測され、5固定テレビカメラモニター画面上に195衝突予想位置が予測される場合に船舶の衝突の回避の操作をする。
80追尾テレビカメラの撮影する画面を表示する、92追尾テレビカメラモニター画面の375追尾テレビカメラモニター画面上の船舶の位置の画像は画像確認できる。80追尾テレビカメラを撮影して記憶させた162クルーザーボートの位置を、計測した距離と方向で5固定テレビカメラモニター画面の進行方向に展開することで、自船の進行してきた方向と162クルーザーボートの進行してきた方向を同じ画面上に表示することで、自船の進行方向を決めることができる。
実施例 図130自船の後方から進行してくる401船舶を、自船の後方に取り付けた1固定テレビカメラの撮影する画面上で検出し、その画面上の位置に相当する方向を、35数値制御テレビカメラで撮影し37数値制御テレビカメラモニター画面で画像を検出する。37数値制御テレビカメラモニター画面で画像を検出した、35数値制御テレビカメラの駆動数値と、その画面上の位置に相当する方向へ、3追尾レーザー距離計測機と80追尾テレビカメラを向け、401船舶との距離を計測する。
その計測した距離に相当する、その画角と焦点距離で、80追尾テレビカメラが撮影した92追尾テレビカメラモニター画面上のその検出した画像の画像認識をする。既に取得してある認識した船舶の画像認識と比較して、その船舶の画像認識をする。自船の後方を撮影した35数値制御テレビカメラの画像を映す、37数値制御テレビカメラモニター画面に、135数値制御テレビカメラ画面の距離計測モニター画面上の船舶の位置に、80追尾テレビカメラが撮影したその船舶進行する311 画像情報表示に表示する。
自船の後方に取り付けた1固定テレビカメラの撮影した画面に、80追尾テレビカメラが撮影したその船舶の画像を計測した距離と方向で展開し合成した、137重複合成テレビカメラモニター画面の進行方向に合わせて表示する。37数値制御テレビカメラモニター画面上の船舶を、その撮影した位置を、その計測した距離で展開して表示し続けることで、その画像検出した船舶の進路がシユミレィーションすることが出来る。自船の進行方向のシユミレィーションの進路が、その画像認識した船舶のシユミレィーションの進路が、141重複合成テレビカメラモニター画面上の衝突範囲になる場合、139重複合成テレビカメラモニター画面上の衝突回避の変更路に転進することになる。
実施例 図131の自船に取り付けた、412船舶用レーダー探知機が、415船舶用レーダーモニター画面上に検知した幾つかの船舶の方向と距離を合わせて、の画角と焦点距離と照度を調整して、80追尾テレビカメラが撮影した画像を400画像調整器で画像識別する。その画像識別した幾つかの416近距離のヨットを映す追尾テレビカメラモニター画面、417遠距離のコンテナ船を映す追尾テレビカメラモニター画面、418追尾の画像操作をした遠距離のコンテナ船を映す追尾テレビカメラモニター画面を、その距離とその画像認識した情報を、注意の必要度に応じて、416近距離のヨットを映す追尾テレビカメラモニター画面、417遠距離のコンテナ船を映す追尾テレビカメラモニター画面追尾テレビカメラモニター画面、418追尾の画像操作をした遠距離のコンテナ船を映す追尾テレビカメラモニター画面として表示する。その被写体の画像識別した情報と、その注意の必要度を付加して、415、416、417、418追尾テレビカメラモニター画面船舶用レーダーモニター画面に311 画像情報表示する。
実施例 図132の自船に取り付けた635追尾テレビカメラレーザー距離計測システムの、1固定テレビカメラで、2固定テレビカメラ撮影範囲の、402、403、404、405被写体ボート1、2、3、4を撮影し画像を検出する。5固定テレビカメラモニター画面で画像検出した、406、407、408、409固定テレビカメラモニター画面上の被写体ボート1、2、3、4の位置を、5固定テレビカメラモニター画面上の位置の方向を、3追尾レーザー距離計測機で距離を計測し、80追尾テレビカメラがその方向を、その計測した距離に従って、画角と焦点距離を調整し、212、213、214、215追尾テレビカメラモニター画面上の被写体ボート1、2、3、4の画像を撮影し記憶する。
それぞれの画像を画像解析して、既に取得してある画像認識した船舶と比較し、その船舶の情報を把握する。410固定テレビカメラモニター画面と画像調整画面の合成画面に、その画像認識したその船舶の追尾テレビカメラのその駆動数値を付けて、その船舶の情報を付して表示する。その合成画面上のその映る位置で、その船舶を追尾テレビカメラで撮影することができる。その追尾テレビカメラモニター画面上の被写体ボート上の位置で、その船舶を追尾テレビカメラで撮影することができる。それぞれの船舶の進行方向とその距離を、635追尾テレビカメラレーザー距離計測システムで計測し続けた距離から、シュミレィーションしたそれぞれの船舶の進路を410固定テレビカメラモニター画面と画像調整画面の合成画面に表示する。それぞれの船舶のシュミレィーションした進行方向と、それぞれの船舶の追尾テレビカメラモニター画面を表示することで、自船の進行と衝突事故を回避するものである。
(スポーツ)
実施例 図133の野球選手の打撃ホームの把握と修正をするために、主要な把握と修正の個所を同時に、詳細に確認するために、その主要な個所の、素早い動きを、複数の168ミラー追尾テレビカメラで撮影するものである。公式試合と比較するために、公式試合で設置できる場所に、1079追尾ミラーテレビカメラレーザー距離計測システムを設置するものである。公式試合で設置できるその場所は、34野球選手の打撃の打席との距離かあるため、35数値制御テレビカメラの撮影範囲を限定するに、1固定テレビカメラの5固定テレビカメラモニター画面上で、その33固定テレビカメラモニター画面上の被写体の34野球選手の位置を指示し、その5固定テレビカメラモニター画面上の位置に相当する方向へ、166ミラー追尾レーザー距離計測機を向けて34野球選手との距離を計測する。
その33固定テレビカメラモニター画面上の被写体の野球選手の位置の指示で、その計測した距離に画角と焦点距離を合わせて、35数値制御テレビカメラを駆動させて、36数値制御テレビカメラ撮影範囲の34野球選手を撮影する。34野球選手の主要な個所の把握と修正に、その主要な個所の鮮明な画像と、詳細が解る画像を撮影するために、その計測した距離に合わせて、画角と焦点距離等の調整し、563、564、656ミラー追尾テレビカメラA、B、Cでその方向の34野球選手を撮影する。34野球選手との距離を計測し、563、564、565ミラー追尾テレビカメラA、B、C の撮影する画角と焦点距離等を調整した撮影するものである。
その37数値制御テレビカメラモニター画面上で、その野球選手の39、40、41数値制御テレビカメラモニター画面上の野球選手のバットの位置、グリップの位置、右足の位置を指示し、その34野球選手を撮影する563、564ネ565ミラー追尾テレビカメラA、B、Cを駆動させる。その34野球選手を撮影する主要な把握と修正の個所は、前もって、37数値制御テレビカメラモニター画面上で、画像の位置で画像確認させておくことで、566、567、568ミラー追尾テレビカメラ画面A、B、Cの画像が追尾撮影できるものである。
実施例 図134の541スケート選手のスケートジャンプの把握と修正をするために、主要な個所の把握と修正の個所を同時に、詳細に確認するために、その主要な個所の、素早い動きを、追尾テレビカメラで撮影するものである。広いスケートリンクでのスケートジャンプを比較するために、広いスケートリンクで設置できる場所に、1079追尾ミラーテレビカメラレーザー距離計測システムを設置するものである。広いスケートリンクで設置できる場所は、541スケート選手のスケートジャンプ個所は移動するため、35数値制御テレビカメラの撮影範囲を限定するのに、1固定テレビカメラの広角で撮影した5固定テレビカメラモニター画面上で、その33固定テレビカメラモニター画面上の被写体の541スケート選手を指示し、その5固定テレビカメラモニター画面上の位置に相当する方向へ、3追尾レーザー距離計測機を向けて、541スケート選手との距離を計測する。
35数値制御テレビカメラをその5固定テレビカメラモニター画面上の位置に相当する方向へ駆動させて、その計測した距離に画角と焦点距離を合わせて、35数値制御テレビカメラが撮影する、36数値制御テレビカメラ撮影範囲の541スケート選手を撮影し、その37数値制御テレビカメラモニター画面上で、その541スケート選手を542数値制御テレビカメラモニター画面に映るスケート選手の画像指示位置で指示し、その541スケート選手を撮影する80追尾テレビカメラを駆動させる。
その541スケート選手を撮影する主要な把握と修正の個所は、前もって、37数値制御テレビカメラモニター画面上で542数値制御テレビカメラモニター画面に映るスケート選手の画像指示の位置の画像を画像確認させておくことで、543、544、545追尾テレビカメラモニター画面に映るスケート選手のスケートエッジ画像、着氷画像の画像、ジャンプ前画像が撮影できるものである。それぞれの画像を遅延させて同時に確認できる様に表示する。541スケート選手のスケートジャンプの主要な個所の把握と修正に、その主要な個所の鮮明な画像と、詳細が解る画像を撮影するために、80追尾テレビカメラの撮影する方向と移動位置と画角と焦点距離等の調整が必要である。スケート選手のスケートジャンプの感触が残る、短い時間に、そのスケートジャンプのその主要な個所の鮮明な画像と、詳細が解る画像を見ることで、スケート選手が状況を把握することができる。
実施例 図135の図37のサッカー練習場での32サッカー選手のドリブル走行の530サッカーボールの動きの把握と修正をするために、1固定テレビカメラで撮影した5固定テレビカメラモニター画面上で、その33固定テレビカメラモニター画面上の被写体の32サッカー選手を指示し、その5固定テレビカメラモニター画面上の位置に相当する方向へ、3追尾レーザー距離計測機を向けて、32サッカー選手との距離を計測する。その計測した距離と方向を、514、515、516追尾テレビカメラA、B、Cの画角を狭めて32サッカー選手を撮影する。
1固定テレビカメラの撮影した32サッカー選手を映す、5固定テレビカメラモニター画面上の画像で32サッカー選手の530サッカーボールを蹴った、足のスパイクを画像認識したその位置を、3追尾レーザー距離計測機で距離を計測し、その計測した距離に相当する、方向と画角と焦点距離とで、514、515、516追尾テレビカメラA、B、Cの異なる位置の方向から画角を狭めてそのスパイクを追尾撮影する。
その32サッカー選手を撮影する画像と、その蹴った足のスパイクを撮影する画像と、その蹴られた530サッカーボールの動きを撮影する画像を選択して、同時に異なる方向からの画像を詳細に見ることで、530サッカーボールを蹴った32サッカー選手の足のスパイクを見ずに、その530サッカーボールの動きを532、633、634追尾テレビカメラモニター画面A、B、Cに映るサッカーボールを見て確認し、ドリブル走行の練習を繰り返して修正をするものである。
実施例 図136の647サッカー場の広いビッチでの、32サッカー選手のドリブル走行の530サッカーボールの動の把握するために、1固定テレビカメラの撮影した32サッカー選手を映す、5固定テレビカメラモニター画面上の画像で531固定テレビカメラモニター画面に映るサッカーボールを画像認識したその位置を、166ミラー追尾レーザー距離計測機で距離を計測し、その計測した距離に相当する、その位置の方向と焦点距離で、35数値制御テレビカメラで撮影し、37数値制御テレビカメラモニター画面上の画像で32サッカー選手の蹴る556 数値制御テレビカメラモニター画面に映るサッカーボールを、画像認識したその位置を、高速追尾のでる166ミラー追尾レーザー距離計測機で距離を計測し、その計測した距離に相当する、その位置の方向と画角と焦点距離とで、高速追尾のできる563、564、655ミラー追尾テレビカメラA、B、Cで530サッカーボールを追尾撮影する。
その位置の方向とその計測した距離で、535数値駆動の収納架をサッカー選手の走行に合わせ、567ミラー追尾テレビカメラBテレビカメラモニター画面上の248ミラー追尾テレビカメラの564テレビカメラモニター画面上のサッカーボールの位置と、その計測した距離と方向を維持する様に駆動する。563、564、655ミラー追尾テレビカメラA、B、Cで撮影した566、567、568ミラー追尾テレビカメラA、B、Cのテレビカメラモニター画面の247、248、249ミラー追尾テレビカメラモニター画面上のサッカーボールを異なる方向から映す。
535数値駆動の収納架を32サッカー選手の走行する位置に合わせて等距離と等角度に合わせて追尾駆動させる。563、564、656ミラー追尾テレビカメラA、B、Cで撮影した566、567、768ミラー追尾テレビカメラA、B、Cのテレビカメラモニター画面の247、248、249ミラー追尾テレビカメラモニター画面上のサッカーボールを、異なる方向から追尾撮影が画面を、その32サッカー選手は、その蹴った足のスパイクを撮影する画像と、その蹴られた530サッカーボールの動きを撮影する画像とを、同時に複数の画像を比較して詳細にドリブル走行の練習を見ることで、直接その530サッカーボールを蹴った足のスバイクを見ることをせずに、その530サッカーボールを蹴った足のスパイクから伝わる感触で、その530サッカーボールの動きを画像で確認し、ドリブル走行の練習と修正をするものである。
実施例 図137のサッカー場の広いビッチでの、32サッカー選手のドリブル走行の530サッカーボールの動の把握するために、535数値駆動の収納架に複数の72追尾テレビカメラ距離計測システムと複数の92追尾テレビカメラモニター画面を設置して駆動する。72追尾テレビカメラ距離計測システムの1固定テレビカメラの撮影した32サッカー選手を映す、5固定テレビカメラモニター画面上の画像で531固定テレビカメラモニター画面に映るサッカーボールの位置を、3追尾レーザー距離計測機で距離を計測し、その計測した距離に相当する、その位置の方向と画角と焦点距離とで、515追尾テレビカメラBで530サッカーボールを追尾撮影する。そのサッカー選手が5固定テレビカメラモニター画面上に映る位置の方向とその計測した距離で、535数値駆動の収納架をサッカー選手の走行に合わせて、その方向とその距離を保つ様に駆動し、514、515、516追尾テレビカメラA、B、Cで撮影した532、533、534追尾テレビカメラモニター画面A、B、Cに映るサッカーボールを異なる方向から追尾撮影し複数の92追尾テレビカメラモニター画面に標示する。
535数値駆動の収納架の位置から撮影する514、515、516追尾テレビカメラA、B、Cで撮影した532、533、534追尾テレビカメラモニター画面A、B、Cに映るサッカーボールを異なる方向から追尾撮影した画面を、32サッカー選手のドリブル走行をする目前に複数の92追尾テレビカメラモニター画面で表示する。その32サッカー選手は、その蹴った足のスパイクを撮影する画像と、その蹴られた530サッカーボールの動きを撮影する画像とを、同時に複数の画像を比較して詳細に連続したドリブル走行中に練習を見ることで、直接その530サッカーボールを蹴った足のスバイクを見ることをせずに、その530サッカーボールを蹴った足のスパイクから伝わる感触で、その530サッカーボールの動きを画像で確認しドリブル走行の練習と修正をするものである。その画像を記憶した画像を解析し、その選手の傾向を把握する。1094ピッチ固定カメラで撮影した固定テレビカメラモニター画面上に映る535数値駆動の収納架の位置と535数値駆動の収納架の駆動数値を上記説明した関連方法で関連させることで、ピッチを撮影した画面上で535数値駆動の収納架を指示位置へ駆動することができる。
実施例 図138の538サッカーボール投射機は、32サッカー選手がヘッデングの競技の練習のために、数値制御された投射機で、530サッカーボールを32サッカー選手の走行に合わせてその走行位置へ、同じ駆動数値で同じ様に投稿して32サッカー選手がヘッデングの練習をする。1固定テレビカメラの撮影した32サッカー選手を映す、5固定テレビカメラモニター画面上の画像で32サッカー選手が530サッカーボールを画像認識したその位置を、3追尾レーザー距離計測機で距離を計測し、その計測した距離に相当する方向を、その画角と焦点距離とで、515追尾テレビカメラB でサッカーボールを追尾撮影する。
5固定テレビカメラモニター画面上の画像で32サッカー選手の頭を認識したその位置を、3追尾レーザー距離計測機で距離を計測し、その計測した距離に相当する方向と位置へ、前もって投射数値を取得させた数値制御された538サッカーボール投射機で、630サッカーボールを投射する。32サッカー選手が走行する、その位置の方向とその計測した距離で、514、515、516追尾テレビカメラA、B、Cで撮影した532、533、534追尾テレビカメラモニター画面A、B、Cに映るサッカーボールを32サッカー選手に近い異なる位置の方向から追尾撮影する。
530サッカーボールと32サッカー選手の頭との打点を見ずに、競技する頭のヘッデングの感覚の繰り返す練習をするために、32サッカー選手の頭付近を撮影する。538サッカーボール投射機の同じ投射ボールを繰り返し、32サッカー選手の頭の打点競技の繰り返す練習の感覚を、その530サッカーボールのヘッデング方向の追尾画面と、サッカー選手の頭の打点競技の追尾画面とを、32サッカー選手が複数の画像を同時に見る方法で練習するものである。
実施例 図139の535数値駆動の収納架に538サッカーボール投射機と複数の72追尾テレビカメラ距離計測システムと複数の92追尾テレビカメラモニター画面を設置して駆動する。32サッカー選手を映す追尾テレビカメラレーザー距離計測システムは、32サッカー選手の走行する方向で、1固定テレビカメラの撮影した5固定テレビカメラモニター画面上の、531固定テレビカメラモニター画面に映るサッカーボールの画像が映る位置が撮影できる様に、3追尾レーザー距離計測機で距離と方向を計測し、等方向と等距離で535数値駆動の収納架を駆動される。535数値駆動の収納架に組み込まれている538サッカーボール投射機は、32サッカー選手がヘッデングの競技の練習のために、その数値制御された投射機で、530サッカーボールを32サッカー選手の走行に合わせて、同じ駆動数値で等方向と等距離から投射して、32サッカー選手がヘッデングの練習をする。
535数値駆動の収納架に組み込まれている1固定テレビカメラの撮影した32サッカー選手を映す、5固定テレビカメラモニター画面上の531固定テレビカメラモニター画面に映るサッカーボールを画像認識したその位置を、3追尾レーザー距離計測機で距離を計測する。計測した距離に相当する方向を、32サッカー選手が走行する、その走行位置と走行方向とその計測した距離で、514、515、516追尾テレビカメラA、A、Bで撮影した532、533、534追尾テレビカメラモニター画面A、A、Cに映るサッカーボールを32サッカー選手に近い異なる位置の方向から追尾撮影する。
535数値駆動の収納架に組み込まれている追尾テレビカメラレーザー距離計測システムの撮影した画面表示する複数の92追尾テレビカメラモニター画面に、532、533、534追尾テレビカメラモニター画面A、B、Cに映るサッカーボールと参考画面表示も、32サッカー選手の走行する直前の視線の位置に表示される。設定しておいた画像認識の画像を記憶することその画像わ確認させ、その数値制御された投射機で練習用の投射をし、その投射したボールに合わせて、535数値駆動の収納架と追尾テレビカメラレーザー距離計測システムを駆動し、514追尾テレビカメラAでその投射したボールを追尾撮影し、515、516追尾テレビカメラB、Cで32サッカー選手のヘッデングの位置を追尾撮影する。32サッカー選手のプログラムされたヘッデングの練習のために、追尾テレビカメラレーザー距離計測システムの駆動に32サッカー選手が合わせる練習する。
実施例 図140の535数値駆動の収納架に538サッカーボール投射機と複数の72追尾テレビカメラ距離計測システムと複数の92追尾テレビカメラモニター画面と複数の536画像送受信器を設置して駆動する。32サッカー選手の走行ダイレクトキックの530サッカーボールを蹴ったスパイクの動きの把握と修正をするために、535数値駆動の収納架に組み込まれた追尾テレビカメラレーザー距離計測システムと、535数値駆動の収納架の追尾テレビカメラシステムで撮影した画像を送信する536画像送受信器と、530サッカーボールを同じ駆動数値で投射する、538サッカーボール投射機が、数値制御で駆動される535数値駆動の収納架に組み込まれている。
1固定テレビカメラの撮影した32サッカー選手を映す、5固定テレビカメラモニター画面上の画像で32サッカー選手の530サッカーボールをキックする足のスパイクか、530サッカーボールを画像認識したその位置を、3追尾レーザー距離計測機で距離を計測し、その計測した距離に相当する方向を、画角と焦点距離を合わせて、514、516追尾テレビカメラA、Cでそのスパイクを画像認識の画像の位置として追尾撮影する。同時に535数値駆動の収納架は、その計測した距離と方向で32サッカー選手との間隔を保つ様に駆動される。
その計測した距離に相当する方向を、画角と焦点距離を合わせて、515追尾テレビカメラBで、530サッカーボールを画像認識の画像の位置として追尾撮影する。32サッカー選手は、そのキックした足のスバイクを撮影する詳細な画像と、そのキックされた530サッカーボールの動きを撮影する詳細な画像を、536画像送受信器でその画像を送信し、521画像受信器のウエアブルモニターの画面で、同時に画像を詳細に見ることで、直接その530サッカーボールをキックした足のスバイクを見ることをせずに、530サッカーボールを蹴った足のスバイクから伝わる感触が残る間に、その530サッカーボールの動きを視認し、走行ダイレクトキックの練習を繰り返し、修正をするものである。
(インターネット接続のロボット操作)
実施例 図141の1固定テレビカメラで119ロボットの作業範囲の、288数値制御ロボットの289ロボット作業位置を撮影し、その16画像信号を、668インターネット網を介して、5固定テレビカメラモニター画面上に映す。その5固定テレビカメラモニター画面上に映す293固定テレビカメラモニター画面上の作業位置の操作をする。その14画面位置信号で、668インターネット網を介して、80追尾テレビカメラと3追尾レーザー距離計測機とを289ロボットの作業位置に向け距離を計測する。3追尾レーザー距離計測機が計測した距離に相当する、画角と焦点距離で80追尾テレビカメラが289ロボットの作業位置を撮影する。
80追尾テレビカメラが撮影した102画像信号を、668インターネット網を介して映す、92追尾テレビカメラモニター画面上で295追尾テレビカメラモニター画面上の作業位置の画面作業の操作をする。その14操作位置信号で、668インターネット網を介して、288数値制御ロボットの289ロボットの作業位置の作業をする。それぞれの作業位置の操作は、手動操作やプログラムされた操作に置き変えることもできる。668インターネット網を介して別の場所で映す、92追尾テレビカメラモニター画面上で295追尾テレビカメラモニター画面上の作業位置の画面作業の操作は、668インターネットを介して映す、複数の92追尾テレビカメラモニター画面上でもその操作ができる。
スマートホーン用アプリケーションのインターフェースに接続された、257スマートホーンAの画面上の570スマートホーン操作Aに写る5固定テレビカメラモニター画面上で、288数値制御ロボットの289ロボット作業位置を操作し、571スマートホーン操作Bに写る92追尾テレビカメラモニター画面上で295追尾テレビカメラモニター画面上の作業位置の作業操作をする。258スマートホーンBに写る92追尾テレビカメラモニター画面上の572スマートホーン操作Cに写る92追尾テレビカメラモニター画面上で295追尾テレビカメラモニター画面上の作業位置の作業操作をする。668インターネットを介して接続された、228、229インターフェースA、Bのアプリケーションで、それぞれの288数値制御ロボットの289ロボット作業位置の操作をする。
実施例 図142の1固定テレビカメラで119ロボットの作業範囲の、288数値制御ロボットの23追尾数値制御の3D形成機を撮影し、その16画像信号を、668インターネット網を介して、5固定テレビカメラモニター画面上に映す。その5固定テレビカメラモニター画面上に映る288数値制御ロボットの25固定テレビカメラモニター画面上の3D形成機の駆動位置を操作する。その14画面位置信号で、668インターネット網を介して、3追尾レーザー距離計測機を289ロボット作業位置の398ロボットの3D形成する作業機に向け距離を計測する。
3追尾レーザー距離計測機が計測した距離に相当する、画角と焦点距離で80追尾テレビカメラが289ボット作業位置の398ロボットの3D形成する作業機を撮影する。3追尾レーザー距離計測機と80追尾テレビカメラとによって、画像認識された画像の位置と画像解析とで、119ロボットの作業範囲は概知とすることができる。398ロボットの3D形成する作業機の位置もその都度、画像認識され119ロボットの作業範囲の位置を計測される。これらの画像認識と位置情報も、668インターネット網を介して、9コンピューターで受け取ることができる。
9コンューターで受け取とった、119ロボットの作業範囲から、9コンピューターで想定する3D成形物の画像を、92追尾テレビカメラモニター画面上に、27追尾テレビカメラモニター画面上のコンビューターの想定する3D形成物の画像を合成画面で表示する。9コンピューターで119ロボットの作業範囲を概知していることで、80追尾テレビカメラが撮影する2次元の画面位置に、3次元の画面位置を表現する554コンビューターの想定する側面画像の画面に、9コンピューターの想定する3次元の399コンビューターの想定する3D形成物の側面の画像と、9コンピューターの想定する3次元の28コンビューターの想定する側面の追尾テレビカメラモニター画面上の想定する3D形成物画像の合成画面で表示する。
92追尾テレビカメラモニター画面上の位置と554コンビューターの想定する側面画像の位置は、119ロボットの作業範囲の位置として、概知又は計測できる位置であるため、92追尾テレビカメラモニター画面上の2次元の画面位置と554コンビューターの想定する側面画像の画面上の3次元の画面位置で、23追尾数値制御の3D形成機と、289ロボット作業位置と、398ロボットの3D形成する作業機とを668インターネット網を介して操作ることができる。
(インターネット)
実施例 図143の1固定テレビカメラで667劇場ステージを撮影し、その16画像信号を、668インターネット網を介して、5固定テレビカメラモニター画面上に映す。5固定テレビカメラモニター画面上に映る、666インターネット固定テレビカメラモニター画面指示位置を、668インターネット網を介して、5固定テレビカメラモニター画面上で80追尾テレビカメラを操作することができる。5固定テレビカメラモニター画面上で操作した14画面位置信号を668インターネット網介して操作した位置に相当するの11駆動信号で、3追尾レーザー距離計測機と80追尾テレビカメラとを操作した位置に向け、3追尾レーザー距離計測機で666インターネット固定テレビカメラモニター画面上の指示位置に相当する演者との距離を計測し、その計測した距離に相当する、画角と焦点距離で、80追尾テレビカメラがその演者を撮影する。その80追尾テレビカメラが撮影した画像信号を、668インターネット網を介して、92追尾テレビカメラモニター画面の画面で鑑賞することができる。
実施例 図144の1固定テレビカメラで667劇場ステージを撮影し、その16固定テレビカメラ画像信号を、668インターネット網を介して、5固定テレビカメラモニター画面上に映す。5固定テレビカメラモニター画面上に映る、複数の演者の666、522インターネット固定テレビカメラモニター画面の指示位置の演者の位置と、画像認識した位置とを、668インターネット網を介して、355追尾テレビカメラA操作することと、356追尾テレビカメラBを追尾撮影の操作することができる。5固定テレビカメラモニター画面上で操作した位置に相当する方向へ、355、356追尾テレビカメラA、Bと、243、244追尾レーザー距離計測機A、Bとを、それぞれの演者の位置の方向へ向ける。
それぞれの追尾レーザー距離計測機で666インターネット固定テレビカメラモニター画面上の被写体を指示位置と、522固定テレビカメラの画像認識した被写体に相当する演者の位置との距離をそれぞれ計測し、その計測した距離に相当する、画角と焦点距離で、355、356追尾テレビカメラA、Bがそれぞれの演者を撮影する。その355、356追尾テレビカメラA、Bが撮影した画像信号を、668インターネット網を介して、216インターフェース、523、524、525、526インターフェースC、D、E、Fで、5固定テレビカメラモニター画面か、360、361追尾テレビカメラモニター画面A、Bかの画面でそれぞれを鑑賞することができる。
実施例 図145の667劇場ステージを、654追尾テレビカメラシステム収納架 の多数の646追尾テレビカメラシステムで撮影し、その多数の217固定テレビカメラの画像信号網と648追尾テレビカメラ画像信号網と653駆動位置信号網と652駆動信号網を、668インターネット網を介して、5固定テレビカメラモニター画面上に映る、複数の演者の画面上の指示の位置を、668インターネット網を介して、その指示選択された、646追尾テレビカメラシステムの80追尾テレビカメラと3追尾レーザー距離計測機を、その5固定テレビカメラモニター画面上の指示の位置に相当する方向へ向け、3追尾レーザー距離計測機が、その演者との距離を計測する。その計測された距離に相当する画角と焦点距離で、その646追尾テレビカメラシステムの80追尾テレビカメラがその演者を撮影する。
その撮影した画像信号を、668インターネット網を介して、その演者を指示した5固定テレビカメラモニター画面に関連づけた、92追尾テレビカメラモニター画面で鑑賞するものである。その演者への声援を、655マイクロホンで収音し、668インターネット網を介して、667劇場ステージに設置した、658スピカーでその声援を演者に伝えるものである。654追尾テレビカメラシステム収納架の多数のそれぞれの観劇者が646追尾テレビカメラシステムで、667劇場ステージ上のそれぞれの演者を、それぞれ方法で鑑賞し声援や声援表示を伝えるものである。
実施例 図146の667劇場ステージを、654追尾テレビカメラシステム収納架の多数の646追尾テレビカメラシステムで撮影し、その多数の646追尾テレビカメラシステムの217固定テレビカメラの画像信号網と648追尾テレビカメラ画像信号網と653駆動位置信号網と652駆動信号網を、668インターネット網を介して、多数のインターフェースを介して多数の5固定テレビカメラモニター画面上に映す。その多数の5固定テレビカメラモニター画面上に映る複数の演者のその画面上の指示の位置を、668インターネット網を介して、その多数指示された、多数の646追尾テレビカメラシステムの多数の80追尾テレビカメラと多数の3追尾レーザー距離計測機を、その多数の画面上の指示の位置に相当する方向へ向け、その多数の3追尾レーザー距離計測機が、その多数の演者との距離を計測する。
その多数の計測距離に相当する画角と焦点距離で、その多数の80追尾テレビカメラがその演者を撮影する。その多数の撮影した画像信号を、668インターネット網を介して、その多数の演者を指示した、多数の92追尾テレビカメラモニター画面で個々に鑑賞するものである。667劇場ステージの多数の演者の映像を、668インターネット網を介して、多数の鑑賞者が個々の演者の演技を、個々に選択して鑑賞することができる。
実施例 図147の253ジャズライブハウスを、167レーザー距離計測器を取り付けた、355追尾テレビカメラAの画角を広角にして、ジャズ演奏者全員を撮影し、その撮影した361追尾テレビカメラモニター画面B上に映る各演奏者の画面上の485、486、487、488追尾テレビカメラモニター画面上のトローンボーン奏者、ピアノ奏者、トランペット奏者、ベース奏者の位置を指示することで、167レーザー距離計測器でその演奏者の方向と距離を計測する。その計測した距離を使って、その計測した演奏者を、355追尾テレビカメラAの画角と焦点距離と撮影方向を調整して最適な画面で撮影する。その調整して撮影した画角と焦点距離と撮影方向の駆動数値を、各演奏者に関連付けて記憶させる。
そのジャズ演奏の状況に合わせて、それぞれの演奏者を、その演奏者に関連付けて記憶した、その最適な画面で撮影した駆動数値を使って、355追尾テレビカメラAの撮影する361追尾テレビカメラモニター画面Bに映る485、486、487、488のトローンボーン奏者、ピアノ奏者、トランペット奏者、ベース奏者を356追尾テレビカメラBの撮影する490、491、492、493の画面にトローンボーン奏者、ピアノ奏者、トランペット奏者、ベース奏者を映す。253ジャズライブハウスのスデージ上の481、482、483、484トローンボーン奏者、ピアノ奏者、トランペット奏者、ベース奏者の奏者を、356追尾テレビカメラBのその最適な画面で撮影した、490、491、492、493追尾テレビカメラモニター画面上のトローンボーン奏者、ピアノ奏者、トランペット奏者、ベース奏者の追尾テレビカメラの最適な画面に映す。
そのジャズ演奏の状況に合わせて、それぞれの演奏者の、490トローンボーン奏者、491ピアノ奏者、492トランペット奏者、493ベース奏者を撮影する356追尾テレビカメラBで撮影する画像を355追尾テレビカメラモニター画面上で、その最高の演奏をその最高の撮影方法に調整して撮影する。そのジャズ演奏の状況に合わせて、事前に、355追尾テレビカメラAと356追尾テレビカメラBとの画角と焦点距離と撮影方向を調整し、その駆動数値のその記憶の最適が画面で撮影する。その駆動数値のその記憶は、さらなる操作方法の演奏で更新する。
実施例 図148の253ジャズライブハウスを、167レーザー距離計測器を取り付けた355追尾テレビカメラAの撮影する画角を狭角にして、そのジャズ演奏者の各奏者を撮影して、各奏者の画像確認をする。355追尾テレビカメラAの撮影する画角を広角にして、360追尾テレビカメラモニター画面Aのジャズ演奏者全員を撮影して、各演奏者を画像認識する。355追尾テレビカメラAのその狭角で各ジャズ演奏者を撮影した、361、362、363、364追尾テレビカメラモニター画面A、B、C、Dの画面での駆動数値を、その撮影する広角で演奏者全員を撮影した360追尾テレビカメラモニター画面Aの各ジャズ演奏者の画像確認した位置に関連付ける。
その広角で撮影した360追尾テレビカメラモニター画面上に映る各演奏者の画面上の位置の操作で、その狭角で撮影して画像認識した、485、486、487、488追尾テレビカメラモニター画面上のトローンボーン奏者、ピアノ奏者、トランペット奏者、ベース奏者の位置で、356、357、358、359追尾テレビカメラB、C、D、Eに取り付けた167レーザー距離計測器で、各演奏者の方向と距離を計測する。その計測した距離を使って、その計測した各演奏者を、355追尾テレビカメラAの画角と焦点距離と撮影方向を調整して最適の画面で撮影する。その調整して撮影した画角と焦点距離と撮影方向の駆動数値を、各演奏者を画像認識して関連付けて記憶させる。
400画像調整器で各演奏者とリード演奏者、最適画像等の情報を付して、668インダーネット網を介して、テレビカメラモニター画面で選択して鑑賞する。そのジャズ演奏の状況に合わせて、それぞれの演奏者を、その演奏者を最適の画面で撮影に関連付けて記憶した、その画像認識を使って、356、357、358、359追尾テレビカメラB、C、D、Eで撮影する、361、362、363、364追尾テレビカメラモニター画面B、C、D、Eに映る、485、486、487、488追尾テレビカメラモニター画面上のトローンボーン奏者、ピアノ奏者、トランペット奏者、ベース奏者の画像を668インダーネット網を介して、テレビカメラモニター画面で選択して鑑賞する。
そのジャズ演奏の状況に合わせて、それぞれの演奏者の356、357、358、359追尾テレビカメラB、C、D、Eで撮影する画像を、361、362、363、364追尾テレビカメラモニター画面B、C、D、E上の追尾テレビカメラモニター画面上の位置で調整する。そのジャズ演奏の状況に合わせて、事前に、355追尾テレビカメラAの画角と焦点距離と撮影方その最適が画面を画像認識は更新され、さの画像を撮影したその駆動数値を記憶し更新する。
ジャズライブハウスの場合、その演奏者の動きや技法と音声が、その最適な画像認識に加わる。355、356、357、358追尾テレビカメラA、B、C、D、Eの画像信号は、216インターフェースで接続された、668インターネット網を介して、489、490、491、492、追尾テレビカメラモニター画面の全バンド奏者、トローンボーン奏者、ピアノ奏者、トランペット奏者、ベース奏者を鑑賞することができる。その最適の画像認識に適応した演奏者の画面を各鑑賞者が選択する。
実施例 図149の253ジャズライブハウスを、654追尾テレビカメラシステム収納架の多数の646追尾テレビカメラシステムで撮影し、その646追尾テレビカメラシステムの固定テレビカメラの16画像信号の217 固定テレビカメラ画像信号網を、668インターネット網を介して、固定テレビカメラモニター画面として、668インターネット網を介してそれぞれの表示画面で映す。固定テレビカメラモニター画面として画面上に映る、複数の演者の画面上の指示の位置を653駆動位置信号網と652駆動信号網で、668インターネット網を介して、その選択された、646追尾テレビカメラシステムの追尾レーザー距離計測機を、その画面上の指示の位置に相当する方向へ向けその演者との距離を計測する。
その計測距離に相当する画角と焦点距離で、その追尾テレビカメラでその演者を撮影する。その追尾テレビカメラの撮影した画像信号を648追尾テレビカメラ画像信号網の668インターネット網を介して、その演者を指示した、その92追尾テレビカメラモニター画面に相当するメデアで鑑賞するものである。253ジャズライブハウスで演奏する演奏者を撮影する、固定テレビカメラが撮影する、その画面操作信号とその画像信号とは、654追尾テレビカメラシステム収納架の各646追尾テレビカメラシステムが撮影するその操作信号とその画像信号を、653駆動位置信号網と652駆動信号網を216インターフェースで668インターネット網に接続する。
257、258スマートホーンA、Bに、その操作とその画像信号に対応したアプリケーションを組み込むことで、646追尾テレビカメラシステムの何れかの追尾テレビカメラを操作し、その追尾テレビカメラの画像を、257、258、259、260スマートホーンA、B、C、Dのスマートホーンに表示する。261インターネット追尾テレビカメラシステムBに、その操作とその画像信号に対応したアプリケーションを組み込むことで、1固定テレビカメラの撮影した固定テレビカメラモニター画面に相当する261インターネット追尾テレビカメラシステムBを操作し、569スマートホーン用アプリケーションのインターフェースで接続された、646追尾テレビカメラシステムの何れかの追尾テレビカメラの画像を、262画面操作テレビカメラモニター画面や92追尾テレビカメラモニター画面に表示するものである。
実施例 図150の426本社オフィスと、427支社オフィスに設置された追尾テレビカメラシステムの、426本社オフィスの121固定テレビカメラAと、427支社オフィスの122固定テレビカメラ Bがそれぞれのオフィスを撮影する。427支社オフィスを122固定テレビカメラBで撮影したの画像信号を、216インターフェースで接続された668インターネット網を介して216インターフェースで接続されて、426本社オフィスの150固定テレビカメラモニターCの画面に表示される。426本社オフィスを121固定テレビカメラAで撮影したの画像信号を216インターフェースで接続された668インターネット網を介して216インターフェースで接続された、427支社オフィスの148、149固定テレビカメラモニターA、B画面に表示される。
426本社オフィスの150固定テレビカメラモニターC画面上の240固定テレビカメラモニター画面指示位置の操作で216インターフェースに接続された668インターネット網を介して、427支社オフィスの244追尾レーザー距離計測機Bと356追尾テレビカメラBを駆動させ、244追尾レーザー距離計測機Bが計測した距離に合わせて、356追尾テレビカメラBが撮影した画像信号を、216インターフェースで接続された668インダーネット網を介して、426本社オフィスの361追尾テレビカメラモニター画面Bに表示される。
同様に、
426本社オフィスの355追尾テレビカメラAを操作して、427支社オフィスの360追尾テレビカメラモニター画面Aに表示される。257スマートホーンAに、その操作とその画像信号に対応したアプリケーションを組み込むことで、同様の操作で426本社オフィスの355追尾テレビカメラA、427支社オフィスの356追尾テレビカメラBが撮影した画像を表示できる。254 パーソナルコンピューターに、その操作とその画像信号に対応したアプリケーションを組み込むことで、同様の操作で、426本社オフィスの355追尾テレビカメラA、427支社オフィスの356追尾テレビカメラBが撮影した画像を表示できる。
実施例 図151の山門の金剛力士像を景観撮影する、256、261インターネット追尾テレビカメラシステムA、Bを設置して、その固定テレビカメラで金剛力士像の撮影画面を、そのインターフェースで668インターネット網に接続される。257、258スマートホーンA、Bに、その操作とその画像信号に対応したアプリケーションを組み込むことで、256インターネット追尾テレビカメラシステムAのその追尾テレビカメラを、インターネット網を介して操作し、256インターネット追尾テレビカメラシステムAの80追尾テレビカメラが撮影した画像を、インターネットを介して、257スマートホーンで鑑賞するか、216インターフェースでインターネット網に接続された273インターネット追尾テレビカメラモニター画面Aで鑑賞する。
216インターフェースでインターネット網に接続された、148固定テレビカメラモニターA画面上の270インターネットの固定テレビカメラモニター画面指示位置Bの操作を、216インターフェースでインターネット網に接続された、261インターネット追尾テレビカメラシステムBの3追尾レーザー距離計測機と80追尾テレビカメラを、その270インターネット固定テレビカメラモニター画面指示位置Bの操作の方向へ向け、その距離をその計測し、その距離に相当する画角と焦点距離で、80追尾テレビカメラが撮影した画像を、216インターフェースで接続インターネット網に送信する。216インターフェースに接続された274インターネット追尾テレビカメラモニター画面Bで鑑賞する。274インターネット追尾テレビカメラモニター画面Bで鑑賞しながら、148固定テレビカメラモニターA 画面上の270インターネット固定テレビカメラモニター画面指示位置Bの操作位置の修正操作で、274インターネット追尾テレビカメラモニター画面Bを修正した画面で鑑賞する。
実施例 図152の242子供サッカー試合会場に256、261、1052、1053インターネット追尾テレビカメラシステムA、B、C、Dを設置し、そのシステムの画像信号と操作信号を、インターフェースで668インターネット網に接続される。その信号を668インターネット網に接続した、216インターフェースで、インターネッ追尾テレビカメラシステムの、148、149、150、固定テレビカメラモニターA、B、C画面上の操作で、242子供サッカー試合会場の試合を撮影する。
148固定テレビカメラモニターA画面上のサッカーボールを蹴る選手を269インターネット固定テレビカメラモニター画面指示位置Aで、256インターネット追尾テレビカメラシステムAの355追尾テレビカメラAと3追尾レーザー距離計測機が、そのサッカーボールを蹴る選手との距離を計測し、その距離に従って、355追尾テレビカメラAの画角と焦点距離で、そのサッカーボールを蹴る選手を撮影し、668インターネット網を介して、273インターネット追尾テレビカメラモニター画面Aでそのサッカーボールを蹴る選手を見ることができる。
149固定テレビカメラモニターB画面上のサッカーボールを画像認識した270インターネット固定テレビカメラモニター画面指示位置Bで、261インターネット追尾テレビカメラシステムBの、356追尾テレビカメラBと3追尾レーザー距離計測機が、そのサッカーボールとの距離を計測し、その距離に従って、356追尾テレビカメラBの画角と焦点距離で、そのサッカーボールを撮影し、668インターネット網を介して、274インターネット追尾テレビカメラモニター画面Bでそのサッカーボールと蹴る選手を見ることができる。1052インターネット追尾テレビカメラシステムC、に複数の357、358追尾テレビカメラC、D設置し、150固定テレビカメラモニター画面上のサッカーボールを画像認識した271、272インターネット固定テレビカメラモニター画面指示位置C、Dで、1052インターネット追尾テレビカメラシステムCの、357、358追尾テレビカメラC、Dの3追尾レーザー距離計測機が、そのサッカーボールとの距離を計測し、その距離に従って、357、358追尾テレビカメラC、Dの画角と焦点距離で、そのサッカーボールを撮影し、インターネット網を介して、275、256追尾テレビカメラモニター画面C、Dそのサッカーボールと蹴る選手を見ることができる。
275追尾テレビカメラモニター画面Cでそのサッカーボールと蹴る選手を見ることで、150固定テレビカメラモニター画面上のサッカーボールを奪おうとする選手を272インターネット固定テレビカメラモニター画面指示位置Dで、358追尾テレビカメラDと3追尾レーザー距離計測機が、そのサッカーボールを奪おうとする選手との距離を計測し、その距離に従って、その358追尾テレビカメラDの画角と焦点距離で、そのサッカーボールを奪おうとする選手を撮影し、インターネット網を介して、276追尾テレビカメラモニター画面Dでそのサッカーボールを奪おうとする選手を見ることができる。
257スマートホーンAに、その操作とその画像信号に対応したアプリケーションを組み込むことで、その試合の画像認識された幾つか画像から257スマートホーンAに接続された1053インターネット追尾テレビカメラシステムDのその固定テレビカメラモニター画面上の、その試合表示画面上の、その試合の画像認識された幾つか画像から既に指定した、サッカーボールを画像認識した位置で、359追尾テレビカメラEと3追尾レーザー距離計測機が、そのサッカーボールとの距離を計測し、その距離に従って、359追尾テレビカメラの画角と焦点距離で、そのサッカーボールを撮影し、インターネット網を介して、257スマートホーンAの画面でそのサッカーボールの周辺の選手を見ることができる。多数のインターネット追尾テレビカメラシステムが撮影したそれぞれの画像から、400画像調整器で画像認識した最適な画像の幾つかを選択して、インターネット網を介して、テレビカメラモニター画面でその幾つかの画像を選択して見ることができる。
実施例 図153の647サッカー場のピッチの上部に、650追尾テレビカメラ固定ワイヤーに、646追尾テレビカメラシステムを複数設置する。そのピッチの上部の中央に、650追尾テレビカメラ固定ワイヤーに設置した、252追尾テレビカメラシステムに取り付けた魚眼レンズ固定テレビカメラが撮影した、その5固定テレビカメラモニター画面とそのピッチを表示したCG画面との663 CGサッカー場合成画面上で、428追尾カメラシステムのCGモニター画面の指示位置を指示することで、その複数設置された646追尾テレビカメラシステムが、その指示された方向に向き、その距離とその画角その焦点距離で、そのサッカーボールを撮影する。
646追尾テレビカメラシステムが撮影する、そのサッカーボールを画像認識させ、そのサッカーボールが映る最適な画面が撮影されている、追尾テレビカメラシステムの追尾テレビカメラの画像を選択させて、651画像信号切変追尾テレビカメラモニター画面で表示する。その各追尾テレビカメラモニター画面上の、そのサッカーボールの映る位置に相当する方向へ、その追尾レーザー距離計測機で、そのサッカーボーとの距離を計測し、その距離に従って、その追尾テレビカメラの画角と焦点距離でそのサッカーボーを撮影する。その各追尾テレビカメラが撮影する画面でそのサッカーボールを画像認識させて、そのサッカーボールを画像認識した位置を追尾テレビカメラが学習して追尾して撮影する。
各追尾テレビカメラシステムが撮影した、そのサッカーボーを含む、サッカー選手の最善な試合画面を、649画像信号切変機で画像を切り替えて、651画像信号切換追尾テレビカメラモニター画面で観戦するものである。651追尾テレビカメラモニター画面上の画面操作で、その画面を映す追尾テレビカメラを調整し、その追尾レーザー距離計測機が再度計測した、その距離でその画面を映すその追尾テレビカメラを調整することも可能である。
実施例 図154は図153の647サッカー場のセンターの上部に設置された、252競技場追尾テレビカメラシステムに取り付けた251魚眼レンズ固定テレビカメラで、会場ピッチ全体を撮影する。252競技場追尾テレビカメラシステムに取り付けた、251魚眼レンズ固定テレビカメラでピッチ全体を撮影した、その固定魚眼テレビカメラモニター画面とピッチを表示したCG画面との663固定魚眼テレビカメラ画面とCG合成モニター画面上の位置で、各206固定ワイヤー架の追尾テレビカメラシステムの懸架位置ごとにに前もって競技場ピッチ画面で仕込まれた、35数値制御テレビカメラの撮影する方向を指示する。
251魚眼レンズ固定テレビカメラが撮影して画面と競技場ピッチ画面と合成した、663固定魚眼テレビカメラ画面とCG合成モニター画面面上の428追尾カメラシステムのCGモニター画面の指示位置で、各206固定ワイヤー架の追尾テレビカメラシステムの35数値制御テレビカメラが撮影した、664追尾カメラシステムの数値制御テレビカメラモニター画面上で、669追尾カメラシステムの数値制御テレビ画面のボールの画像認識した位置か手動指示をする。各206固定ワイヤー架の追尾テレビカメラシステムに組み込まれた、35数値制御テレビカメラの撮影する664追尾カメラシステムの数値制御テレビカメラモニター画面上の669追尾カメラシステムの数値制御テレビ画面のボールの画像認識した位置か手動指示した方向へ、3追尾レーザー距離計測機を向け、32サッカー選手が蹴る530サッカーボールの距離を計測する、その計測した距離に従って、80追尾テレビカメラの画角と焦点距離を調整し、80追尾テレビカメラで665追尾カメラシステムの追尾テレビカメラモニター画面を撮影する。
実施例 図155の647サッカー場のピッチの中央上空に設置した、251魚眼レンズ固定テレビカメラの撮影した、その5固定テレビカメラモニター画面とピッチを表示したCG画面との合成画面の237モニター画面上の計測位置の高さの距離を計測する。5固定テレビカメラモニター画面上の237モニター画面上の計測位置に相当する、647サッカー場のピッチの位置で、206追尾テレビカメラシステム架の追尾テレビカメラと3追尾レーザー距離計測を真下に向けて、そのピッチとの高さを計測した計測値を取得する。その計測する647サッカー場の全ての206位置で、その高さの距離を維持する、263、264、265、266、267、268ワイヤー数値駆動機構システムA、B、C、D、E、Fを駆動操作してその各数値駆動機構の駆動数値を、5固定テレビカメラモニター画面上の237モニター画面上の計測位置とその計測した高さの距離を関連させる、5固定テレビカメラモニター画面上の237モニター画面上の幾つかの異なる計測位置とその計測した高さの距離と263、264、265、266、267、268ワイヤー数値駆動機構システムA、B、C、D、E、Fを駆動操作したその各数値駆動機構の駆動数値を関連付けた数値を使って、5固定テレビカメラモニター画面上の全ての位置で、その計測した高さの距離で、その各数値駆動機構の駆動数値を関連づける数値を補完法等の方法で関連付ける。
その計測する高さの異なる幾つかの距離で関連づけた、237モニター画面上の幾つかの異なる計測位置とその計測した高さの距離と263、264、265、266、267、268ワイヤー数値駆動機構システムA、B、C、D、E、Fを駆動操作したその各数値駆動機構の駆動数値を関連付けた数値を使って、5固定テレビカメラモニター画面上の全ての位置で、その計測する全ての高さの距離で、その各数値駆動機構の駆動数値を関連づける数値を補完法等の方法で関連付ける。
その関連付けた、251魚眼レンズ固定テレビカメラの撮影した画面上の全ての位置と、そのCG画面上の全ての位置と、647サッカー場のピッチの位置と、その計測した高と、263、264、265、266、267、268ワイヤー駆動システムFの駆動機構を駆動した駆動数値との関連を補間法の演算で算出し記憶する。その合成画面上の全ての位置に相当する、647サッカー場のピッチの全て位置に、263、264、265、266、267、268ワイヤー数値駆動機構システムA、B、C、D、E、Fの駆動機構をその駆動数値で、206追尾テレビカメラシステム架の位置を駆動させることができる。
実施例 図156の647サッカー場のピッチの中央上空に設置した、251魚眼レンズ固定テレビカメラの撮影した、その5固定テレビカメラモニター画面とピッチを表示したCG画面との合成画面の663固定魚眼テレビカメラ画面とCG合成モニター画面面上の428追尾カメラシステムのCGモニター画面の指示位置に相当する、647サッカー場のピッチの位置へ、206固定ワイヤー架の追尾テレビカメラシステムの位置へ移動するために、ワイヤー駆動システムの駆動機構を駆動する駆動する駆動数値を上記説明した補完法等の演算で既に取得している数値で、地上からの高さを計測し距離を維持しながら、各方向からの662ワイヤー駆動システムからの支持で移動する。
206追尾テレビカメラシステムの追尾テレビカメラシステムに組みこまれた、35数値制御テレビカメラが指示された方向を撮影する。その指示された方向で、35数値制御テレビカメラが撮影した、37数値制御テレビカメラモニター画面上に映る、660追尾カメラシステムの数値制御テレビ画面の指示位置上のサッカーボールの位置を指示する。37数値制御テレビカメラモニター画面上に映る660追尾カメラシステムの数値制御テレビ画面の指示位置上のサッカーボールを画像認識する位置に相当する向きに、3追尾レーザー距離計測機を向けてその距離を計測する。その計測した距離に従って37数値制御テレビカメラモニター画面上に映る、そのサッカーボールの位置を176追尾カメラシステムの数値制御テレビカメラ画面の位置で画像認識する。
206追尾テレビカメラシステム架が駆動された位置から、37数値制御テレビカメラモニター画面上に映る、そのサッカーボールを176追尾カメラシステムの数値制御テレビカメラ画面上の画像認識する位置に相当する方向へ、3追尾レーザー距離計測機と80追尾テレビカメラ向けて、3追尾レーザー距離計測機が、その530サッカーボールとの距離を計測し、その計測した距離に従って、80追尾テレビカメラが、画角と焦点距離を合わせて、665追尾カメラシステムの追尾テレビビカメラモニター画面上のサッカーボールの画像を撮影するものである。
実施例 図157の647サッカー場のピッチの上部中央の、252追尾テレビカメラシステムに取り付けた魚眼レンズ固定テレビカメラの撮影した、その固定テレビカメラモニター画面とピッチを表示したCG画面との663CGサッカー場合成画面上の位置で、その追尾テレビカメラシステムに組み込まれた、263、264、265、266、267、268ワイヤー駆動機構を駆動して最適な撮影方向の位置に移動する。
663 CGサッカー場合成画面上の428追尾カメラシステムのCGモニター画面の指示位置で、35数値制御テレビカメラの撮影する方向を指示する。35数値制御テレビカメラの撮影する664追尾カメラシステムの数値制御テレビカメラモニター画面上の669追尾カメラシステムの数値制御テレビ画面のボールの画像認識した位置か、手動指示した位置の方向へ、その1080数値制御ワイヤー架の追尾テレビカメラシステムに組み込まれた、3追尾レーザー距離計測機と80追尾テレビカメラを向け、32サッカー選手が蹴る530サッカーボールの距離を計測する、その計測した距離に従って、80追尾テレビカメラの画角と焦点距離を調整し、80追尾テレビカメラで665追尾カメラシステムの追尾テレビビカメラモニター画面を撮影する。663 CGサッカー場合成画面上に映る、そのボールの画像の検出位置で前もって設定してある、80追尾テレビカメラの最適な距離と画角で撮影する。
実施例 図158の670自動運転データー取得車の全面に、数値制御で収音方向を変えることができる、1073,1074数値制御の指向性マイクロホンA、Bを取付ける。それぞれのマイクロホンが収音する、各周波帯ごとに音声の位相差を比較して、その位相の早い方向へ1073,1074数値制御の指向性マイクロホンA、Bを駆動して向ける。その位相差の少ない方向の、1073,1074数値制御の指向性マイクロホンA、Bのその駆動機構の駆動数値のに合わせる様に駆動をする、3追尾レーザー距離計測機と80追尾テレビカメラむけ、その計測した距離に相当する数値で、80追尾テレビカメラの画角と焦点距離を合わせて撮影した画面のその音声源の画像を92追尾テレビカメラモニター画面上で747右側の走行車を画像認識する。
テレビサテライト局、インターネット動画サイト、画像の多様化、画像認識と警備 、スポーツエデュケーション、競技場、観光施設、計測機器、データー地図、ロボットの簡易操作、産業用ロボットの多様性、歩行ロボット、自動車の自動運転、自動車の事故回避、自動車の運転技能検査、農作用ロボット、物流支援ロボット、個人移動機、安全支援機器、生産現場の支援機器、
1固定テレビカメラ、2固定テレビカメラ撮影範囲、3追尾レーザー距離計測機、4レーザー光の照射場所、5固定テレビカメラモニター画面、6レーザー光の照射位置、7操作卓、8追尾コントローラー、9コンピューター、10操作信号、11駆動信号、12駆動位置信号、13距離計側信号、14画面位置信号、15データー信号、16固定テレビカメラ画像信号、17取得してある画像A、18取得してある画像B、19取得してある画像C、20取得してある画像D、21音声信号網、22ロボットの作業、23追尾数値制御の3D形成機、24追尾ロボットの形成する3D形成物、25固定テレビカメラモニター画面上の3D形成機、26固定テレビカメラモニター画面上の追尾ロボット、27追尾テレビカメラモニター画面上のコンビューターの想定する3D形成物、28コンビューターの想定する側面の追尾テレビカメラモニター画面上の想定する3D形成物画像、29コンビューターの想定する側面の追尾テレビカメラモニター画面上の追尾ロボット、30コンビューターの想定する側面の追尾テレビカメラ画像信号、31固定テレビカメラモニター画面上のD形成器、32サッカー選手、33固定テレビカメラモニター画面上の被写体、34野球選手、35数値制御テレビカメラ、36数値制御テレビカメラ撮影範囲、37数値制御テレビカメラモニター画面、38数値制御テレビカメラ画像信号、39数値制御テレビカメラモニター画面上の野球選手のバット、40数値制御テレビカメラモニター画面上の野球選手のグリップ、41数値制御テレビカメラモニター画面上の野球選手の右足、42ドローンA、43ドローンB、44ドローンC、45ドローン位置A、46ドローン位置B、47ドローン位置C、48計測距離1A、49計測距離1B、50計測距離1C、51計測距離1D、52計測距離2A、53計測距離2B、54計測距離2C、55計測距離2D、56計測距離3A、57計測距離3B、58計測距離3C、59計測距離3D、60ドローン間の距離A、61ドローン間の距離B、62ドローン間の距離C、63移動距離A、64移動距離B、65追尾テレビカメラ距離計測システム66追尾テレビカメラ距離計測システムA、67追尾テレビカメラ距離計測システムB、68追尾テレビカメラ距離計測システムC、69追尾画像、70数値制御テレビカメラモニター画面上の計測したい走行車両、71数値制御テレビカメラモニター画面上の計測したい拡大した走行車両、72追尾テレビカメラ距離計測システム、73固定テレビカメラモニター画面上の計測された作業位置A、74固定テレビカメラモニター画面上の計測された作業位置B、75固定テレビカメラモニター画面上の計測された作業位置C、76固定テレビカメラモニター画面上の加工位置、77追尾テレビカメラモニター画面上の表示距離、78画素計測テレビカメラ計測距離器、79ロボット作業の加工位置、80追尾テレビカメラ、81固定テレビカメラモニター画面に映る被写体、82数値制御テレビカメラ距離計測器のモニター画面に映る被写体、83計測走行自動車の計測システムと計測ドローン間の距離、84ドローンの計測する走行自動車と計測ドローン間の距離、85計測走行自動車と走行自動車の演算した距離と方向、86計測したい走行自動車、87距離計測とバーコード読み取り用レーザー光線、88追尾テレビカメラモニター画面に映る計測走行自動車、89数値制御テレビカメラモニター画面に映る計測走行自動車、90データー変換器、91画像送信器、92追尾テレビカメラモニター画面、93追尾レーザー距離計測基点A、94追尾レーザー距離計測基点B、95追尾レーザー距離計測基点C、96概知計測場所D、97衝突回避運転データー取得1、98衝突回避運転データー取得、99追尾レーザー距離計測予定基点、100概知計測場所A追尾受光機距離計測システム、101概知計測場所B追尾受光機距離計測システム、102概知計測場所C追尾受光機距離計測システム、103概知計測場所D追尾受光機距離計測システム、104未知計測場所の追尾受光機距離計測システム、105未知計測場所の3台の追尾受光機距離計測システム、106追尾受光機、107 LED発光素子、108作業員、109ロボット作業区域、110固定テレビカメラモニター画面の作業員、111追尾テレビカメラモニター画面のロボット作業区域、112追尾テレビカメラモニター画面の範囲にCG画面の範囲を合成し画面、113テレビカメラ画面合成とCG画面重合器、114想定する3D画面、115画素計測テレビカメラ画面計測器モニターA、116画素計測テレビカメラ画面計測器モニターB、117画素計測テレビカメラ画面計測器モニターC、118追尾テレビカメラモニター画面上の認識画像、119ロボットの作業範囲、120バーコードリーダー、121固定テレビカメラ A、122固定テレビカメラ B、123固定テレビカメラ C、124固定テレビカメラモニター画面A、125固定テレビカメラモニター画面B、126固定テレビカメラモニター画面C、127追尾テレビカメラモニター画面上の作業、128追尾テレビカメラモニター画面上の作業位置、129追尾テレビカメラの広角で撮影したモニター画面、130追尾テレビカメラの狭角で撮影したモニター画面、131画像素子追尾テレビカメラ距離計測器の広角画像素子の撮影範囲、132画像素子追尾テレビカメラ距離計測器の狭角画像素子の撮影範囲、133画素計測テレビカメラ距離計測モニターの拡大画面、134概知計測場所C計測予定場所の計測予定距離、135数値制御テレビカメラ画面の距離計測モニター画面上の船舶、136重複合成テレビカメラモニター画面上の船舶、137重複合成テレビカメラモニター画面、138重複合成テレビカメラモニター画面上の進行方向、139重複合成テレビカメラモニター画面上の衝突回避の変更路、140重複合成テレビカメラモニター画面上の船舶の進行シユミレィーション、141重複合成テレビカメラモニター画面上の衝突範囲、142画像素子、143画像素計測テレビカメラ計測距離器モニター画面が写る画像素子ユニット、144画像素計測テレビカメラ計測距離器モニター画面上のロボット作業、145画像素計測テレビカメラ距離計測器、146画像素計測テレビカメラ画面計測器の画像信号、147画像素計測テレビカメラ距離計測器の距離信号、148固定テレビカメラモニターA、149固定テレビカメラモニターB、150固定テレビカメラモニターC、151光源、152受光A、153受光B、154受光C、155受光D、156受光E、157受光器、158追尾テレビカメラモニター画面上の作業台角Aの形状と位置の計測、160追尾テレビカメラモニター画面上の作業台Cの形状と位置の計測、161追尾テレビカメラモニター画面上の作業台Dの形状と位置の計測、162クルーザーボート、163固定テレビカメラモニター画面上のクルーザーボート、164固定テレビカメラモニター画面上の船舶、165数値制御テレビカメラ距離計測器の重複合成器、166ミラー追尾レーザー距離計測機、167レーザー距離計測器NC/3図147、168ミラー追尾テレビカメラ、169テレビカメラ画面合成器、170被写体、171合成テレビモニター画面、172合成画像信号、173合成テレビカメラモニター画面のロボット作業、174合成テレビカメラモニター画面のCG作業、175ロボットの作業、176追尾カメラシステムの数値制御テレビカメラ画面の画像認識位置、177ロボットの作業空間、178テレビカメラ、179追尾テレビカメラ撮影範囲、180ミラー追尾テレビカメラモニター画面、181追尾テレビカメラ撮影被写体、182追尾テレビカメラシステムが組み込まれた収納架、183画像追尾テレビカメラモニター画面、184画像素子追尾テレビカメラ撮影範囲、185画像素子追尾テレビカメラモニター画面に映る作業位置、186画像素子追尾テレビ画像信号、187画像素子追尾テレビカメラモニター画面の中心、188固定テレビカメラ1撮影範囲、189固定テレビカメラ2撮影範囲、190作業者の指示、191ロボットに取り付けたテレビカメラモニター画面の指示、192ミラー追尾テレビカメラ画像信号、193収納架、194追尾ミラー、195衝突予想位置、196テレビカメラ追尾システムA、197テレビカメラ追尾システムB、198テレビカメラ追尾システムC、199固定テレビカメラモニター画面上の計測用ドローン、200ドローンの数値制御テレビカメラモニター画面上の計測用車両、201合成テレビカメラモニター画面のCG作業、202固定テレビカメラ画面上の被写体1、203固定テレビカメラ画面上の被写体2、204固定テレビカメラ画面上の被写体3、205画面位置信号切換器、206固定ワイヤー架の追尾テレビカメラシステム、207画像認識した位置、208ミラー追尾レーザー距離計測機の計測範囲、209ミラー追尾レーザー距離計測機の計測範囲A、210ミラー追尾レーザー距離計測機の計測範囲B、211ミラー追尾レーザー距離計測機の計測範囲C、212追尾テレビカメラモニター画面上の被写体ボート1、213追尾テレビカメラモニター画面上の被写体ボート2、214追尾テレビカメラモニター画面上の被写体ボート3、215追尾テレビカメラモニター画面上の被写体ボート4、216インターフェース、217固定テレビカメラ画像信号網、218 4足駆動走行機の位置A、219 4足駆動走行機の位置B、220数値制御テレビカメラモニター画面上の被写体1、221数値制御テレビカメラモニター画面上の被写体2、222マイクロホン間の距離、223モニター画面の収納演算したダボール、224画像解析器、225画像解析信号、226画像解析した画像1、227画像解析した画像2、228インターフェースA、229インターフェースB、229マイクロホンA、230バーコード表示、231音声信号、232音声解析器、233音声解析信号、234追尾テレビカメラモニター画面上の子供、236追尾テレビカメラモニター画面上の中央線を越えた対向車、237モニター画面上の計測位置、237ワイヤー駆動機構の駆動数値取得位置、238マイクロホンB、239画像解析情報、240固定テレビカメラモニター画面指示位置、241数値制御テレビカメラ距離計測器のモニター画面上の画像認識した車両、242子供サッカー試合会場、243追尾レーザー距離計測機A、244追尾レーザー距離計測機B、245追尾レーザー距離計測機C、246ロボット加工位置、247ミラー追尾テレビカメラ563のテレビカメラモニター画面上のサッカーボール、248ミラー追尾テレビカメラ564のテレビカメラモニター画面上のサッカーボール、249ミラー追尾テレビカメラ565のテレビカメラモニター画面上のサッカーボール、250固定テレビカメラモニター画面上の段差、251魚眼レンズ固定テレビカメラ、252競技場追尾テレビカメラシステム、253ジャズライブハウス、254パーソナルコンピューター、255追尾バーコードリーダーとレーザー距離計測機、256インターネット追尾テレビカメラシステムA、257スマートホーンA、258スマートホーンB、259スマートホーンC、260スマートホーンD、261インターネット追尾テレビカメラシステムB、262画面操作テレビカメラモニター、263ワイヤー数値駆動機構システムA、264ワイヤー数値駆動機構システムB、265ワイヤー数値駆動機構システムC、266ワイヤー数値駆動機構システムD、267ワイヤー数値駆動機構システムE、268ワイヤー数値駆動機構システムF、269インターネット固定テレビカメラモニター画面指示位置A、270インターネット固定テレビカメラモニター画面指示位置B、271インターネット固定テレビカメラモニター画面指示位置C、272インターネット固定テレビカメラモニター画面指示位置D、273インターネット追尾テレビカメラモニター画面A、274インターネット追尾テレビカメラモニター画面B、275インターネット追尾テレビカメラモニター画面C、276インターネット追尾テレビカメラモニター画面D、277インターネット固定テレビカメラモニター画面の画像認識の位置A、278インターネット固定テレビカメラモニター画面の画像認識の位置B、279インターネット固定テレビカメラモニター画面の画像認識の位置C、280インターネット固定テレビカメラモニター画面の画像認識の位置D、281インターネット固定テレビカメラモニター画面の画像認識の位置E、282インターネットを介した固定テレビカメラモニター画面、283画像素子発光の距離計測器、284画像素子発光の照射被写体、285被写体からの反射光計測器、286画像受光素子信号、287画像記憶媒体、288数値制御ロボット、289ロボット作業位置、290数値制御の画素計測テレビカメラ距離計測機のLED発光素子ユニットのLED発光素子、291数値制御の画素計測テレビカメラ距離計測機の受光素子ユニットの受光素子、291数値制御の画素計測テレビカメラ距離計測機の受光素子の位置、292追尾テレビカメラモニター作業画面上の作業位置、293固定テレビカメラモニター画面上の作業位置、
294数値制御テレビカメラ距離計測器のモニター画面上の作業位置、295追尾テレビカメラモニター画面上の作業位置、296追尾テレビカメラ撮影画面作業位置修正前、297追尾テレビカメラ撮影画面作業位置水平方向修正、298追尾テレビカメラ撮影画面作業位置垂直方向修正、299ロボットに取り付けた数値制御テレビカメラ、300ロボットに取り付けたテレビカメラの画像信号、301ロボットに取り付けたテレビカメラのモニター画面A、302ロボットに取り付けたテレビカメラのモニター画面B、303ロボットに取り付けたテレビカメラのモニター画面C、304ロボットに取り付けたテレビカメラモニター画面上の作業位置、305ロボットに取り付けたテレビカメラモニター画面上の作業場所A、306ロボットに取り付けたテレビカメラモニター画面上の作業場所B、307ロボットに取り付けたテレビカメラモニター画面上の作業場所C、308 追尾運転システム走行車、309追尾運転システム、310進行方向、311画像情報表示、312追尾テレビカメラモニター作業画面上のバーコード位置、313演算した配置位置、314シュミレィーション走行、315先方走行車A、316先行車、317対向車線走行車B、318先方走行車B、319追尾運転システム固定テレビカメラモニター画面、320追尾運転システム追尾テレビカメラモニター画面A、321追尾運転システム追尾テレビカメラモニター画面B、322追尾運転システム追尾テレビカメラモニター画面C、323追尾運転システム追尾テレビカメラモニター画面D、324先方走行車C、325追尾運転システム固定テレビカメラモニター画面上の画像検出した先行車A、326追尾運転システム固定テレビカメラモニター画面上の画像検出した先行車B、327追尾運転システム固定テレビカメラモニター画面上の画像検出した先行車C、328追尾運転システム固定テレビカメラモニター画面上の画像検出した先行車D、329追尾運転システム追尾テレビカメラモニター画面上の画像検出した先行車の左側、330追尾運転システム追尾テレビカメラモニター画面上の画像検出した先行車の右側、331先行車後部、332追尾運転システム追尾テレビカメラモニター画面上の画像認識した中央線、333追尾運転システム追尾テレビカメラモニター画面上の画像検出した先行車の固有の画像認識、334追尾運転システム追尾テレビカメラモニター画面上の画像認識した右側縁石、335バーコード位置、336ロボットに取り付けたテレビカメラモニター画面、337固定テレビカメラモニター画面上の形状位置、338追尾テレビカメラモニター作業画面上の形状位置、339画像情報表示、340画像解析情報信号、341固定テレビカメラモニター画面上の情報位置、342形状位置解析器、343形状解析器、344情報解析器、345形状位置信号、346形状信号、347画像情報信号、348解析形状場所、349 1般自動車走行路、350取得してある形状情報、351照合一致した形状情報、352照合形状、353追尾バーコードリーダー、354バーコードデーター、355追尾テレビカメラA、356追尾テレビカメラB、357追尾テレビカメラC、358追尾テレビカメラD、359追尾テレビカメラE、360追尾テレビカメラモニター画面A、361追尾テレビカメラモニター画面、362追尾テレビカメラモニター画面C、363追尾テレビカメラモニター画面D、364追尾テレビカメラモニター画面E、365追尾テレビカメラモニター画面F、366追尾テレビカメラモニター画面G、367データーと画像記憶媒体、368被写体情報データー、369バーコード、370固定テレビカメラモニター画面上の画像の形状を検出する位置、371ロボットに取り付けたテレビカメラモニター画面、372ロボットの作業場所を指示する作業員の持つ指示器、373ロボットに取り付けたテレビカメラモニター画面上の指示器を検出した位置、374ロボットに取り付けた追尾レーザー距離計測機、375追尾テレビカメラモニター画面上の船舶の位置、376固定テレビカメラモニター画面上の船舶の航跡、377固定テレビカメラモニター画面上の船舶の進行方向と計測距離、378ロボットに取り付けたバーコードリーダーと距離計側器、379バーコードリーダー読取り信号と距離計側器の計側信号、380バーコード解読不能形状物、381概知図形データー、382図形認識信号、383数値制御テレビカメラモニター画面上の船舶の進行方向シュミレィーション、384進行方向、385衝突予測範囲、386衝突回避進路変更、387詰込み用ダンボール、388概知図形データーによって詰込まれた形状A、389概知図形データーによって詰込まれた形状B、390概知図形データーによって詰込まれた形状C、391固定テレビカメラモニター画面上の詰込み用ダンボール箱の位置、392テレビカメラ画面とVGA画面の合成器、393 VGA信号、394コンビューターの操作位置、395合成画面上のロボットの作業位置、396コンビューターの想定する3D形成物の位置、397数値制御ロボットの形成する3D形成物、398ロボットの形成する作業機、399コンビューターの想定する3D形成物の側面、400画像調整器、401船舶、402被写体ボート1、403被写体ボート2、404被写体ボート3、405被写体ボート4、406固定テレビカメラモニター画面上の被写体ボート1の位置、407固定テレビカメラモニター画面上の被写体ボート2の位置、408固定テレビカメラモニター画面上の被写体ボート3の位置、409固定テレビカメラモニター画面上の被写体ボート4の位置、410固定テレビカメラモニター画面と画像調整画面の合成画面、411画像信号、412船舶用レーダー、413近距離の船舶、414遠距離のコンテナ船、415船舶用レーダーモニター画面、416近距離のヨットを映す追尾テレビカメラモニター画面、417遠距離のコンテナ船を映す追尾テレビカメラモニター画面、418追尾の画像操作をした遠距離のコンテナ船を映す追尾テレビカメラモニター画面、419船舶用レーダーモニター画面上のヨットを映す位置、420船舶用レーダーモニター画面上のコンテナ船を映す位置、421追尾テレビカメラモニター画面のヨットを映す位置、422追尾テレビカメラモニター画面コンテナ船を映す位置、423追尾の画像操作をした遠距離のテレビカメラモニター画面コンテナ船を映す位置、424計測原点、425数値制御画像解読機レーザー距離計測機、426本社オフィス、427支社オフィス、428追尾カメラシステムのCGモニター画面の指示位置、429追尾カメラシステムの固定テレビカメラモニター画面の指示位置、430データー変換器、431追尾テレビカメラモニター画面上の作業台の計測、432固定テレビカメラモニター画面上のポイント溶接作業点検、433追尾テレビカメラモニター画面上の仮組検査、434固定テレビカメラモニター画面上の溶接作業点検、435追尾テレビカメラモニター画面上の加工材B、436追尾テレビカメラモニター画面上のA材設置位置検査、437固定テレビカメラモニター画面上の作業台の溶接作業、438バーコードリーダー信号、439バーコードリーダー読取範囲、440バーコード表記位置、441バーコードリードと距離計測用レーザー光、442数値制御バーコードリーダーレーザー距離計測機、443バーコード表記形状、444追尾テレビカメラモニター画面上のバーコード表記形状、445熔接ロボッ、446支援ロボット、447作業台、448固定テレビカメラモニター画面上の作業台の位置計測、449追尾テレビカメラモニター画面上の作業台の計測、450加工材A、451加工材B、452固定テレビカメラモニター画面上の加工材A位置、453追尾テレビカメラモニター画面上の加工材A、454作業台の加工材A、455固定テレビカメラモニター画面上の作業台の加工材A位置、456追尾テレビカメラモニター画面上の作業台の加工材Aの角、457固定テレビカメラモニター画面上の加工材B位置、458追尾テレビカメラモニター画面上の加工材B、459作業台の加工材Aに加工材Bの仮組、460固定テレビカメラモニター画面上の仮組位置、461追尾テレビカメラモニター画面上の仮組、462仮組のポイント溶接、463追尾テレビカメラモニター画面上のポイント溶接個所、464固定テレビカメラモニター画面上のポイント溶接個所、465溶接個所、466熔接機信号、467熔接信号、468熔接支援機、469熔接機、470溶接加工品、471熔接箇所、472可動収納架、473可動収納架の作業場所、474追尾テレビカメラモニター画面上のポイント溶接作業、475追尾テレビカメラモニター画面上の加工点検、476追尾テレビカメラモニター画面上の溶接作業、477追尾テレビカメラモニター画面上の溶接の点検、478追尾テレビカメラモニター画面上の可動収納架の作業場所での計測、479固定テレビカメラモニター画面上の作業台の計測、480数値制御レーザー距離計測機、481被写体トローンボーン奏者、482被写体ピアノ奏者、483被写体トランペット奏者、484被写体ベース奏者、485追尾テレビカメラモニター画面上のトローンボーン奏者、486追尾テレビカメラモニター画面上のピアノ奏者、487追尾テレビカメラモニター画面上のトランペット奏者、488追尾テレビカメラモニター画面上のベース奏者、489バンド奏者を撮影する追尾テレビカメラモニター画面、490トローンボーン奏者を撮影する追尾テレビカメラモニター画面、491ピアノ奏者を撮影する追尾テレビカメラモニター画面、492トランペット奏者を撮影する追尾テレビカメラモニター画面、493ベース奏者を撮影する追尾テレビカメラモニター画面、494走行データー送受信機、495道路左側交差点の手前角、496道路左側交差点の奥角、497道路右側交差点の奥角、498道路右側交差点の手前角、499修正信号、500先方の中央線、501魚眼レンズ固定テレビカメラモニター画面、502魚眼レンズ固定テレビカメラ画像信号、503追い越し走行範囲、504操作撮影した追尾テレビカメラモニター画面、505計測予定場所、506固定テレビカメラモニター画面上の位置の計測、507追尾テレビカメラモニター画面上の加工計測、508追尾テレビカメラモニター画面上の左位置の計測、509追尾テレビカメラモニター画面上の前位置の計測、510追尾テレビカメラモニター画面上の右位置の計測、511追尾テレビカメラモニター画面上の上位置の計測、512固定テレビカメラモニター画面上の先方中央線、513固定テレビカメラモニター画面上の子供、514追尾テレビカメラA、515追尾テレビカメラB、516追尾テレビカメラC、517追尾テレビカメラA撮影範囲、518追尾テレビカメラB撮影範囲、519追尾テレビカメラC撮影範囲、520中央線を越えて進行して来た対向車、521画像受信器のウエアブルモニター、522固定テレビカメラの画像認識した被写体、523インターフェースC、524インターフェースD、525インターフェースE、526インターフェースF、527数値駆動機構A、528数値駆動機構B、529数値駆動機構C、530サッカーボール、531固定テレビカメラモニター画面に映るサッカーボール、532追尾テレビカメラモニター画面Aに映るサッカーボール、533追尾テレビカメラモニター画面Bに映るサッカーボール、534追尾テレビカメラモニター画面Cに映るサッカーボール、535数値駆動の収納架、536画像送受信器、537数値制御テレビカメラモニター画面に映るサッカー選手の顔、538サッカーボール投射機、539投射信号、540画像記憶媒体と画像表示調整器、541スケート選手、542数値制御テレビカメラモニター画面に映るスケート選手の画像指示位置、543追尾テレビカメラモニター画面に映るスケート選手のスケートエッジ画像、544追尾テレビカメラモニター画面に映るスケート選手の着氷画像、545追尾テレビカメラモニター画面に映るスケート選手のジャンプ前画像、546追尾テレビカメラモニター画面上のポイント溶接検査、547追尾テレビカメラモニター画面上の加工材A の点検、548固定テレビカメラモニター画面上の仕上げ検査、549追尾テレビカメラモニター画面上の仕上げ検査、550外側溶接形状と点検と位置の計測、551局面の計測、552内側溶接形状と点検と位置の計測、553外形の計測、554コンビューターの想定する側面画像、556数値制御テレビカメラモニター画面に映るサッカーボール、557コンビューターの想定する作業位置での垂直断面を示す形成物の位置A、558コンビューターの想定する形成物を映すテレビカメラモニター画面、559コンビューターの想定するテレビカメラモニター画像信号、560ミラー追尾テレビカメラA撮影範囲、561ミラー追尾テレビカメラB撮影範囲、562ミラー追尾テレビカメラC撮影範囲、563ミラー追尾テレビカメラA、564ミラー追尾テレビカメラB、565ミラー追尾テレビカメラC、566ミラー追尾テレビカメラAのテレビカメラモニ
ター画面、567ミラー追尾テレビカメラBのテレビカメラモニター画面、568ミラー追尾テレビカメラCのテレビカメラモニター画面、569スマートホーン用アプリケーションインターフェス、570スマートホーン操作A、571スマートホーン操作B、572スマートホーン操作C、573コンビューターの想定する作業位置での任意の断面を示す形成物の位置B、574コンビューターの想定する形成物を映すテレビカメラモニター画面B、575画素追尾テレビカメラ、576画素追尾テレビカメラシステムA、577画素追尾テレビカメラシステムB、578画素追尾テレビカメラシステムC、579画素追尾テレビカメラモニター画面、580画素追尾テレビカメラモニター画面A、581画素追尾テレビカメラモニター画面B、582画素追尾テレビカメラモニター画面C、583画像追尾テレビカメラ撮影範囲、584画素追尾テレビカメラシステムA撮影範囲、585画素追尾テレビカメラシステムB撮影範囲、586画素追尾テレビカメラシステムC撮影範囲、587画素追尾テレビカメラモニター画面上の被写体A、588画素追尾テレビカメラモニター画面上の被写体B、589画素追尾テレビカメラモニター画面上の被写体C、590画像追尾テレビカメラ画像信号、591画像追尾テレビカメラ画像信号A、592画像追尾テレビカメラ画像信号B、593画像追尾テレビカメラ画像信号B、594画素追尾テレビカメラモニター画素追尾画面、595画素追尾テレビカメラモニター画素追尾画面A、596画素追尾テレビカメラモニター画素追尾画面B、597画素追尾テレビカメラモニター画素追尾画面C、598画素追尾テレビカメラモニター画面上の被写体、599機着陸態勢の小型航空機、600滑走路、601固定テレビカメラモニター画面に映る滑着陸態勢の小型航空機、602追尾テレビカメラモニター画面に映る滑着陸態勢の小型航空機、603追尾テレビカメラモニター画面に映る滑走路、604固定テレビカメラモニター画面に映る滑走路、605追尾テレビカメラモニター画面に映る滑走路上の表記、606ドローン、607データー送受信器、608データー送受信号、609サーフボード選手、610数値制御テレビカメラモニター画面に映るサーフボード選手、611概知計測場所A、612概知計測場所B、613概知計測場所C、614計測予定場所付近に照射された距離計測レーザー光、615概知計測場所A付近に照射された距離計測レーザー光、616概知計測場所B付近に照射された距離計測レーザー光、617概知計測場所C付近に照射された距離計測レーザー光、618追尾テレビカメラモニター画面に映る照射された距離計測レーザー光、619追尾テレビカメラモニター画面に映る照射された距離計測レーザー光A、620追尾テレビカメラモニター画面に映る照射された距離計測レーザー光B、621追尾テレビカメラモニター画面に映る照射された距離計測レーザー光C、622追尾テレビカメラモニター画面A、623追尾テレビカメラモニター画面B、624追尾テレビカメラモニター画面C、625追尾テレビカメラモニター画面に映る計測予定場所、626追尾テレビカメラモニター画面に映る概知計測場所A、627追尾テレビカメラモニター画面に映る概知計測場所B、628追尾テレビカメラモニター画面に映る概知計測場所C、629距離計測用反射ミラー、630追尾テレビカメラモニター画面に映る距離計測用反射ミラー、631追尾テレビカメラモニター画面に映るサーフボード選手、632追尾レーザー距離計測基点、633追尾レーザー距離計測システム、634距離計測用自動車、635追尾テレビカメラレーザー距離計測システム、636距離計測用自動車に取り付けた追尾テレビカメラ距離計測システム、637ミラー追尾テレビカメラモニター画面に映る標識搭、638ミラー追尾テレビカメラモニター画面に映る左手前交差点角、639ミラー追尾テレビカメラモニター画面に映る左奥交差点角、640ミラー追尾テレビカメラモニター画面に映る中央分離帯表示、641ミラー追尾テレビカメラモニター画面に映る右奥交差点角、642ミラー追尾テレビカメラモニター画面に映る右手前交差点角、643時間と場所数値、及び、駆動数値と時間ごとの画像記憶媒体、644道路左側の標識搭、645道路の中央分離帯表示、646追尾テレビカメラシステム、647サッカー場、648追尾テレビカメラ画像信号網、649画像信号切変替機、650追尾テレビカメラ固定ワイヤー、651画像信号切変追尾テレビカメラモニター画面、652駆動信号網、653駆動位置信号網、654追尾テレビカメラシステム収納架、655マイク ロホン、656音声信号、657アンプ、658スピィーカー、659数値制御指向性マイクロホン、660追尾カメラシステムの数値制御テレビ画面の指示位置、661追尾カメラシステム移動ワイヤー追尾駆動システム、662ワイヤー駆動システム、663固定魚眼テレビカメラ画面とCG合成モニター画面、664追尾カメラシステムの数値制御テレビカメラモニター画面、665追尾カメラシステムの追尾テレビビカメラモニター画面、666インターネット固定テレビカメラモニター画面指示位置、667劇場ステージ、668インダーネット網、669追尾カメラシステムの数値制御テレビ画面のボールの画像認識した位置、670自動運転データー取得車、671自動運転データー取得車の位置A、672自動運転データー取得車の位置B、673自動運転データー取得車の位置C、674衝突回避すべき被写体、675衝突回避すべき被写体の画像認識位置、676衝突回避運転開始位置、677衝突回避運転位置、678衝突回避運転データー取得路面、679衝突回避運転データー取得A、680衝突回避運転データー取得B、681衝突回避運転データー取得C、682衝突回避運転データー取得D、683衝突回避運転データー取得E、684衝突回避運転データー取得F、685衝突回避運転データー取得G、686自動運転車両に取付けた固定テレビカメラモニターに映る被写体、687自動運転車両に取付けた追尾テレビカメラモニターに映る画像解析した被写体、688回避運転開始位置A、689回避運転A、690回避運転開始位置B、691回避運転B、692回避運転開始位置C、693回避運転C、694回避運転開始位置D、695回避運転D、696回避運転開始位置E、697回避運転E、698回避運転開始位置F、699回避運転F、700回避運転開始位置G、701回避運転G、702回避運転開始位置H、703回避運転H、704 20km走行自動運転車、705 20km走行の回避走行と最大回避走行、706 60km走行自動運転車、707 60km走行の回避走行と最大回避走行、708 100km走行自動運転車、709 100km走行の回避走行と最大回避走行、710走行路A、711走行路B、712最大回避走行B、713走行路C、714最大回避走行C、715走行路D、716走行路E、717最大回避走行D、718走行路F、719最大回避走行E、720前方右側の走行車、721前方右側走行車の進行位置、722前方右側の走行車との接触回避範囲、723自動運転車の右側への制動と方向操作の最大回避位置、724自動運転車の右側への制動と方向操作の回避位置、725自動運転車の制動操作の回避位置、726自動運転車の左側への制動と方向操作の回避位置、727自動運転車の左側への制動と方向操作の最大回避位置、728自動運転車の左側への制動と方向操作の回避走行、729自動運転車の左側への制動と方向操作の回避走行、730自動運転車の左側への制動と方向操作の最大回避走行、731対向車、732回避区域、733走行区域、734退避区域、735道路脇の街路樹、736センターライン、737道路縁石、738画像認識壁、739退避走行A、740退避走行B、741退避走行C、742画像解析対向車右、743画像解析対向車左、744追尾運転システム固定テレビカメラモニター画面上の画像検出した中央車線を越えた対向車、745追尾運転システム追尾テレビカメラモニター画面上の画像認識した中央車線を越えた対向車、746追尾運転システム追尾テレビカメラモニター画面上の画像認識した中央車線、747右側の走行車、748画像変換したモニター画面A、749画像変換したモニター画面B、750画像変換したモニター画面C、751画像変換したモニター画面D、752画素距離計測追尾テレビカメラA、753画素距離計測追尾テレビカメラB、754画素距離計測追尾テレビカメラC、755画素距離計測追尾テレビカメラD、756画素距離計測追尾テレビカメラモニター画面A、757画素距離計測追尾テレビカメラモニター画面B、758画素距離計測追尾テレビカメラモニター画面C、759画素距離計測追尾テレビカメラモニター画面D、760画素距離計測追尾テレビカ計測距離信号、761画素距離計測追尾テレビカ画像位置信号モ、762画素距離計測追尾テレビカメラモニター画面Bの拡大画面、763左道路脇の石仏、764固定テレビカメラモニターの右道路脇の街路樹、765固定テレビカメラモニターの画面に映る標識搭、766追尾運転システム固定テレビカメラ撮影範囲、767固定テレビカメラモニターの画面に映る石仏、768追尾テレビカメラモニター画面上の画像認識した右側街路樹、769追尾運転システム追尾テレビカメラモニター画面上の画像認識した左側縁石、770追尾テレビカメラモニター画面上の画像認識した左側石仏、771追尾テレビカメラモニター画面上の画像認識した左側標識搭、772概知計測場所A追尾テレビカメラ距離計測システム、773概知計測場所B追尾テレビカメラ距離計測システム、774概知計測場所C追尾テレビカメラ距離計測システム、775概知計測場所D追尾テレビカメラ距離計測システム、776未知計測場所の追尾テレビカメラ距離計測システム、777重量計測機、778重量計測データー、779追尾テレビカメラモニター画面に映る照射された距離計測レーザー光C、780追尾テレビカメラモニター画面に映る照射された距離計測レーザー光D、781距離計測A、782距離計測B、783距離計測C、784距離計測D、785距離計測E、786概知計測場所C、787概知計測場所C付近に照射された距離計測レーザー光、788追尾テレビカメラモニター画面上の駐車中の車両と右側の中央線、789走行中の自動運転に取り付けた3台の追尾テレビカメラ距離計測システム、790未知計測場所の3台の追尾テレビカメラ距離計測システム、791自動運転の自動車に取り付けた追尾テレビカメラ距離計測システム、792対向車線の先方対向車、793追尾運転システム追尾テレビカメラモニター画面上の画像認識した街路樹、794追尾運転システム追尾テレビカメラモニター画面上の画像認識した対向車、795追尾運転システム追尾テレビカメラモニター画面上の画像認識した対向車の周辺、796追尾運転システム追尾テレビカメラモニター画面上の画像認識した対向車の周辺のボー、797追尾運転システム追尾テレビカメラモニター画面上の画像認識した対向車の周辺の子供、798追尾運転システム追尾テレビカメラモニター画面上の画像認識した対向車の周辺の子供の飛出、799追尾運転システム固定テレビカメラモニター画面上の画像検出した車道上の子供、800走行車線、801歩道上の子供、802中央車線、803追尾運転システム固定テレビカメラモニター画面上の画像検出した先向車、804追尾運転システム固定テレビカメラモニター画面上の画像検出した歩道上の子供、805追尾運転システム固定テレビカメラモニター画面上の画像検出した対向車、806追尾運転システム固定テレビカメラモニター画面上の画像検出した中央車線、807追尾運転システム追尾テレビカメラモニター画面上の画像認識した対向車、808追尾運転システム追尾テレビカメラモニター画面上の画像認識した先向車、809追尾運転システム追尾テレビカメラモニター画面上の画像認識した中央車線、810追尾運転システム追尾テレビカメラモニター画面上の画像認識した歩道上の子供、811走行可能範囲、812車道上の子供、813追尾運転システム追尾テレビカメラモニター画面上の画像認識した車道上の子供、814追尾運転システム追尾テレビカメラモニター画面上の画像認識した対向車、815追尾運転システム追尾テレビカメラモニター画面上の画像認識した車道上の子供、816追尾運転システム追尾テレビカメラモニター画面上の画像認識した走行方向の子供、817追尾運転システム追尾テレビカメラモニター画面上の画像認識した走行方向の子供、818子供との接触回避の走行可能範囲、819進行方向左側縁石、820進行方向の中央分離帯標示、821通過方向の中央分離帯標示、822追尾運転システム固定テレビカメラモニター画面上の画像検出した進行方向の左側縁石、823追尾運転システム固定テレビカメラモニター画面上の画像検出した進行方向の中央分離帯標示、824追尾運転システム追尾テレビカメラモニター画面上の画像認識した進行方向の中央分離帯標示、825追尾運転システム追尾テレビカメラモニター画面上の
画像認識した進行方向の左側縁石、826追尾運転システム追尾テレビカメラモニター画面上の画像認識演算し通過方向の中央分離帯標示、827足駆動走行機に取り付けた追尾テレビカメラ距離計測システム、828追尾運転システム追尾テレビカメラモニター画面上の画像認識演算した通過方向の左側縁石、829 4足駆動走行機、830走行路先方の左側の駐車車両、831走行路先方の右側の中央分離帯標示、832走行路先方の右側の縁石、833追尾運転システム固定テレビカメラモニター画面上の画像検出した進行方向左側の駐車車両、834追尾運転システム固定テレビカメラモニター画面上の画像検出した進行方向右側の中央分離帯標、835追尾運転システム追尾テレビカメラモニター画面上の画像認識した右側縁石、836追尾運転システム追尾テレビカメラモニター画面上の画像認識した左側駐車車両、837追尾運転システム追尾テレビカメラモニター画面上の画像認識した画像位置の演算した駐車車両、838車道上の暗い被写体、839走行路先方の左側の暗い駐車車両、840追尾運転システム固定テレビカメラモニター画面上の画像検出した困難な暗い左側駐車車両、841追尾運転システム追尾テレビカメラモニター画面上の画像検出した困難な暗い被写体、842追尾運転システム追尾テレビカメラモニター画面上の画像認識した車道上の暗い被写体、843追尾運転システム追尾テレビカメラモニター画面上の画像認識した走行路先方の暗い駐車車両、844走行路上の障害物A、845走行路上の障害物B、846走行路上の障害物C、847走行路上の障害物D、848追尾運転システム固定テレビカメラモニター画面上の画像検出した走行路上の障害物A、849追尾運転システム固定テレビカメラモニター画面上の画像検出した走行路上の障害物B、850追尾運転システム固定テレビカメラモニター画面上の画像検出した走行路上の障害物C、851追尾運転システム固定テレビカメラモニター画面上の画像検出した走行路上の障害物D、852追尾運転システム追尾テレビカメラモニター画面上の画像解析した障害物A、853追尾運転システム追尾テレビカメラモニター画面上の画像解析した障害物B、854追尾運転システム追尾テレビカメラモニター画面上の画像解析した障害物C、855追尾運転システム追尾テレビカメラモニター画面上の画像解析した障害物D、856追尾運転システム追尾テレビカメラモニター画面上の画像解析した進行方向の通過した障害物A、857追尾運転システム追尾テレビカメラモニター画面上の画像解析した通過方向の通過する障害物B、858追尾運転システム追尾テレビカメラモニター画面上の画像解析した通過方向の通過予定の障害物C、859追尾運転システム追尾テレビカメラモニター画面上の画像解析した通過方向の障害物D、860追尾運転システム追尾テレビカメラモニター画面上の画像認識した演算画面、861追尾運転システム追尾テレビカメラモニター画面上の画像認識した演算進行路、862駆動機構の進行する走行方向、863追尾テレビカメラの画像位置の展開システム、864数値制御テレビカメラモニター画面上の画像検出した進行方向の岩、865数値制御テレビカメラモニター画面上の画像検出した障害物、866追尾テレビカメラの画像の方向と位置の変換器、867画像の方向と位置の変換信号、868進行路の段差、869前左駆動機構、870前右駆動機構、871後左駆動機構、872後右駆動機構、873前左駆動数値演算機、874前右駆動数値演算機、875後左駆動数値演算機、876後右駆動数値演算機、877前左駆動機構歩行位置、878前右駆動機構歩行位置、879後左駆動機構歩行位置、880後右駆動数値歩行位置、881前進駐車走行データー取得開始位置、882前進駐車走行データー取得進路、883前進駐車走行データー取得位置A、884前進駐車走行データー取得位置B、885前進駐車走行データー取得位置C、886駐車位置角A、887駐車位置角B、888駐車位置角C、889駐車予定位置、890前進駐車走行データー取得範囲、891前進駐車走行データー取得開始位置の固定テレビカメラモニター画面、892前進駐車走行データー走行開始位置の固定テレビカメラモニター画面に映る駐車位置角A、893前進駐車走行データー走行開始位置の固定テレビカメラモニター画面に映る駐車位置角B、894前進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車位置角C、895前進駐車走行データー取得開始位置の追尾テレビカメラモニター画面に映る駐車位置角A、896前進駐車走行データー取得開始位置の追尾テレビカメラモニター画面に映る駐車位置角B、897前進駐車走行データー取得開始位置の追尾テレビカメラモニター画面に映る駐車位置角C、898前進駐車走行データー取得893の位置の追尾テレビカメラモニター画面に映る駐車位置角A、899前進駐車走行データー取得893の位置の追尾テレビカメラモニター画面に映る駐車位置角B、900前進駐車走行データー取得893の位置の追尾テレビカメラモニター画面に映る駐車位置角C、901前進駐車走行データー取得894の位置の追尾テレビカメラモニター画面に映る駐車位置角A、902前進駐車走行データー取得894の位置の追尾テレビカメラモニター画面に映る駐車位置角B、903前進駐車走行データー取得894の位置の追尾テレビカメラモニター画面に映る駐車位置角C、904前進駐車走行データー取得895の位置の追尾テレビカメラモニター画面に映る駐車位置角A、905前進駐車走行データー取得895の位置の追尾テレビカメラモニター画面に映る駐車位置角B、906前進駐車走行データー取得895の位置の追尾テレビカメラモニター画面に映る駐車位置角C、907前進駐車走行の駐車位置での駐車位置角A、908前進駐車走行の駐車位置での駐車位置角C、909前進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車予定位置、910後進駐車走行データー取得開始位置、911後進駐車走行データー取得進路、912後進駐車走行データー取得位置A、913後進駐車走行データー取得位置B、914後進駐車走行データー取得位置C、915後進駐車走行データー取得範囲、916後進駐車走行データー取得開始位置の固定テレビカメラモニター画面、917後進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車位置角A、918後進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車位置角B、919後進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車位置角C、920後進駐車走行データー取得開始位置の追尾テレビカメラモニター画面に映る駐車位置角A、921後進駐車走行データー取得開始位置の追尾テレビカメラモニター画面に映る駐車位置角B、922後進駐車走行データー取得開始位置の追尾テレビカメラモニター画面に映る駐車位置角C、923後進駐車走行データー取得912の位置の追尾テレビカメラモニター画面に映る駐車位置角A、924後進駐車走行データー取得912の位置の追尾テレビカメラモニター画面に映る駐車位置角B、625後進駐車走行データー取得912の位置の追尾テレビカメラモニター画面に映る駐車位置角C、926後進駐車走行データー取得913の位置の追尾テレビカメラモニター画面に映る駐車位置角A、927後進駐車走行データー取得913の位置の追尾テレビカメラモニター画面に映る駐車位置角B、928後進駐車走行データー取得913の位置の追尾テレビカメラモニター画面に映る駐車位置角C、929後進駐車走行データー取得914の位置の追尾テレビカメラモニター画面に映る駐車位置角A、930後後駐車走行データー取得914の位置の追尾テレビカメラモニター画面に映る駐車位置角B、931後進駐車走行データー取得914の位置の追尾テレビカメラモニター画面に映る駐車位置角C、932後進駐車走行の駐車位置での前側追尾テレビカメラモニター画面に映る駐車位置角A、933後進駐車走行の駐車位置での前側追尾テレビカメラモニター画面に映る駐車位置角B、934後進駐車走行データー取得開始位置の固定テレビカメラモニター画面に映る駐車予定位置、935後進駐車走行データー取得912位置の固定テレビカメラモニター画面に映る駐車予定位置、936後進駐車走行データー取得913位置の固定テレビカメラモニター画面に映る駐車予定位置、937後進駐車走行データー取得914位置の固定テレビカメラモニター画面に映る駐車予定位置、938後進駐車走行データー取得の駐車予定位置、939前進駐車走行データー取得912位置の固定テレビカメラモニター画面に映る駐車予定位置、940前進駐車走行データー取得913位置の固定テレビカメラモニター画面に映る駐車予定位置、941前進駐車走行データー取得914位置の固定テレビカメラモニター画面に映る駐車予定位置、942前進駐車走行データー取得の駐車予定位置、943左手前の駐車車両の側面、944左手奥の駐車車両の側面、945駐車留縁、946右奥の駐車車両の側面、947右手前の駐車車両の側面、948前進駐車走行の追尾テレビカメラモニター画面に映る奥の駐車予定位置、949前進駐車走行の車両、950固定テレビカメラモニター画面の左手前の駐車車両の側面の画像位置、951固定テレビカメラモニター画面の左手奥の駐車車両の側面の画像位置、952固定テレビカメラモニター画面の中央の駐車留の縁石の画像位置、953固定テレビカメラモニター画面の右手奥の駐車車両の側面の画像位置、954固定テレビカメラモニター画面の右手前の駐車車両の側面の画像位置、955前進駐車走行の追尾テレビカメラモニター画面に映る左手前の駐車車両の側面、956前進駐車走行の追尾テレビカメラモニター画面に映る左手奥の駐車車両の側面、957前進駐車走行の追尾テレビカメラモニター画面に映る駐車留の縁石、958前進駐車走行の追尾テレビカメラモニター画面に映る右手奥の駐車車両の側面、959前進駐車走行の追尾テレビカメラモニター画面に映る右手前の駐車車両の側面、960後進駐車走行の車両、961後進駐車走行データー走行区域への走行、962後進駐車走行データー走行区域表示の固定テレビモニター画面、963後進駐車走行データー走行区域表示、964後進駐車走行データー走行区域へのシュミレィーション走行、965後進駐車走行データー走行路とシュミレィーション走行路との接合位置、966シュミレィーション走行路と前進駐車走行データー走行路とのテレビモニター画面、967後進駐車走行データー走行路とシュミレィーション走行路、968シュミレィーション走行路、969接合位置へのシュミレィーション走行のテレビモニター画面、970シュミレィーション走行と後進駐車走行データー走行による駐車予定位置、971後進駐車走行の追尾テレビカメラモニター画面に映る奥の駐車位置、972画像認識を変換した画像認識での走行、973後進駐車走行データー走行範囲、974後進駐車走行可能範囲、975後進駐車走行データー走行可能範囲、976追尾テレビカメラモニター画面に映る駐車車両の画像解析の位置の距離と角度の演算画面、977追尾テレビカメラモニター画面に映る駐車車両の画像解析の位置で駐車場所の演算画面、978後進駐車走行データー走行路、979後進駐車走行データー走行可能範、980後進駐車走行の固定テレビカメラモニター画面に映る奥の駐車位置、981後進駐車走行の追尾テレビカメラモニター画面に映る奥の駐車位置、982後進駐車走行の追尾テレビカメラモニター画面に映る修正駐車位置、983駐車走行折り返し位置、984シュミレィーション走行データー取得範囲、985シュミレィーションテレビカメラモニター画面に映る走行路と後進駐車走行データー走行路、986固定テレビカメラモニター画面に映る駐車位置、987前進駐車走行データー走行路、988追尾テレビカメラモニターに映る駐車シュミレィーション画面、989駐車車両後部の画像解析A、990駐車車両後部の画像解析B、991駐車車両後部の画像解析C、992駐車車両後部の画像解析D、993固定テレビカメラモニターとの合成画面、994魚眼レンズ固定テレビカメラモニター画面上の画像検出した車両、995追尾運転システム走行車の左側車輪のタイヤ、996追尾運転システム追尾テレビカメラモニター画面上の画像認識した走行路上の障害物の段差、997ロボットに取り付けたレーザー距離計測機、998シュミレィーション走行のデーター取得範囲、999レーザー距離計測兼ハーコード読取器、1000追尾テレビカメラモニター画面の左直前の街路樹、1001画像解析器A、1002画像解析器B、1003画像解析器C、1004画像解析器D、1005回避すべき被写体、1006走行区域、1007走行可能区域A、1008最大回避走行区域、1009画像解析器E、1010回避運転区域、1011最大
回避走行区域A、1012最大回避走行区域B、1013自動運転車両に取付けた追尾テレビカメラモニター画面上の対抗車線を走行する回避すべき対向車、1014自動運転車両に取付けた追尾テレビカメラモニターに映る左側街路樹、1015固定テレビカメラモニター画面の左直前の街路樹、1016画像解析器F、1017最大回避走行区域C、1018固定テレビカメラモニター画面上の回避すべき被写体、1019自動運転車両に取付けた固定テレビカメラモニターに映る遠方の接近する対向車両、1020固定テレビカメラモニター画面上の回避すべき対向車線の進行車両、1021自動運転車両に取付けた追尾テレビカメラモニター画面上の対抗車線を走行する回避すべき対向車、1022自動運転車両に取付けた追尾テレビカメラモニターに映る対抗車線を走行する回避すべき親子、1023画像解析器A、1024画像解析器B、1025画像解析器C、1026画像解析器D、1027退避区域、1028制限された走行区域、1029回避走行区域D、1030最大回避走行区域E、1031直前に接近する対抗車両、1032画像解析器E、1033自動運転車両に取付けた固定テレビカメラモニターに映る対向車、1034画像解析器F、1035走行可能区域B、1036走行可能区域C、1037走行可能区域D、1038自動運転車両に取付けた固定テレビカメラモニターに映る接近する車対向両、1039自動運転車両に取付けた固定テレビカメラモニターに映る近い対向車両、1040自動運転車両に取付けた固定テレビカメラモニターに映る直前の対向車両、1041接近する対向車位置、1042自動運転車両に取付けた追尾テレビカメラモニターに映る対向車位置A、1043自動運転車両に取付けた追尾テレビカメラモニターに映る対向車位置B、1044自動運転車両に取付けた追尾テレビカメラモニターに映る対向車位置C、1045自動運転車両に取付けた追尾テレビカメラモニターに映る対向車位置D、1046制限の無い走行範囲、1047対抗車線への制限のある走行範囲、1048対抗車線への禁止ある走行範囲、1049自車線の制限のある走行範囲、1050追尾テレビカメラ撮影画面上の作業員、1051シュミレィーション走行、1052インターネット追尾テレビカメラシステムC、1053インターネット追尾テレビカメラシステムD、1054確認した駐車位置の画像の駐車走行に合わせて画像変換した画面を映すモニター画面、1055インターネット追尾テレビカメラシステムC、1056左側面の縁石、1057左遠方の縁石、1058右側面の縁石、1059追尾運転システム固定テレビカメラモニター画面上の画像演算した左側面の縁石、1060追尾運転システム固定テレビカメラモニター画面上の画像演算した左遠方の縁石、1061追尾運転システム固定テレビカメラモニター画面上の画像演算した右側面の縁石、1062斜め衝突する壁、1063追越し走行運転データー取得路面、1064加減速センサーと衝撃センサー、1065追尾運転システム固定テレビカメラモニター画面上の画像検出した交差点、1066追尾運転システム追尾テレビカメラモニター画面上の画像認識した交差点、1067交差点、1068 CG作業合成画面、1069追尾テレビカメラモニター画面上のレーザー光照射位置、1070数値制御の画素計測テレビカメラ距離計測機、1071画素計測テレビカメラ距離計測機の画像素子と計測信号、1072超音波発信器、1073数値制御の指向性マイクロホンA、1074数値制御の指向性マイクロホンB、1075音声解析器、1076ロボット作業位置A、1077ロボット作業位置B、1078ロボット作業位置C、1079追尾ミラーテレビカメラレーザー距離計測システム、1080数値制御ワイヤー架の追尾テレビカメラシステム、1081走行位置A、1082走行位置B、1083走行位置C、1084走行位置D、1085接近位置A、1086接近位置B、1087接近位置C、1088接近位置D、1089画像素子ユニット、1090 LED発光素子ユニット、1091受光器、1092画像素計測テレビカメラ計測距離器モニター画面、1093 CG作業合成画面、1094ピッチ固定カメラ、

Claims (80)

  1. 数値制御機器の作業位置を数値制御の距離計測器で距離を計測し、前記数値制御機器の作業位置の駆動数値と、前記数値制御の距離計測器で計測した距離と方向を関連付け、前記数値制御機器の異なる幾つかの作業位置を計測する、前記計測した距離と方向から成る前記数値制御機器の駆動位置に対応した駆動数値の幾つかから、その数値制御機器の全ての作業位置の駆動範囲の駆動数値と、その数値制御の距離計測器で前記全ての駆動範囲の計測した距離と方向の数値との関連を、補完法、及び、シュミレィーションの演算で取得する方法。
  2. 請求項1に記載の前記値制御機器の全ての駆動範囲の駆動数値と、前記数値制御の距離計測器で前記全ての駆動範囲の計測した距離と方向の数値との関連に前記数値制御の距離計測器で前記全ての駆動範囲の計測した、前記数値制御の距離計測器の駆動数値との関連を、補完法、及び、シュミレィーションの演算で取得する方法。
  3. 請求項1から2の何れかに記載の、前記数値制御機器の全ての駆動範囲の駆動数値と、複数の前記数値制御の距離計測器で計測した距離と方向の数値の関連に、その数値制御機器の全ての作業位置の駆動範囲の駆動数値との関連を、補完法、及び、シュミレィーションの演算で取得する方法。
  4. 請求項1から3の何れかに記載の、数値制御機器の作業位置の駆動数値と、前記作業位置を数値制御の距離計測器で計測した距離と、前記作業位置をテレビカメラで撮影したテレビカメラモニター画面上に写る前記作業位置とを関連付け、前記テレビカメラモニター画面上に写る幾つかの異なる前記作業位置で、前記数値制御機器の作業位置の駆動数値と前記計測した距離との関連付けた数値を使って、前記テレビカメラモニター画面上の全ての位置で、前記数値制御機器の作業位置の駆動数値と前記作業位置を距離計測器で計測した距離の関連する数値を、補完法、及び、シュミレィーションの演算で取得する方法。
  5. 請求項1から4の何れかに記載の、前記テレビカメラが撮影した前記テレビカメラモニター画面上に写る被写体の位置と、前記前記被写体の位置の距離を計測する数値制御の距離計測器の駆動数値との関連を、補完法、及び、シュミレィーションの演算で取得する方法。
  6. 請求項1から5の何れかにおいて、数値制御のテレビカメラが数値駆動して撮影したテレビカメラモニター画面上に写る被写体の位置と、前記被写体の位置の距離を計測した数値制御の距離計測器の駆動数値との関連を、補完法、及び、シュミレィーションの演算で取得する方法。
  7. 請求項1から6の何れかにおいて、請求項6の関連に、前記被写体の位置を前記数値制御の距離計測器で距離を計測した距離と方向との関連を、補完法、及び、シュミレィーションの演算で取得する方法。
  8. 請求項1から7の何れかに記載の、請求項6と7の関連に、前記被写体の位置を前記数値制御機器の作業位置とする前記数値制御機器の駆動数値との関連を、補完法、及び、シュミレィーションの演算で取得する方法。
  9. 請求項1から8の何れかに記載の、前記テレビカメラ及び前記数値制御のテレビカメラ及び前記距離計測器を前記数値制御機器の作業位置に取り付けることを特徴とする方法。
  10. 請求項1から9の何れかに記載の、前記テレビカメラモニター画面上の全ての位置と、前記数値制御のテレビカメラが撮影したテレビカメラモニター画面上の位置とを関連付けることを特徴とする方法。
  11. 請求項1から10の何れかに記載の、前記数値制御のテレビカメラが数値駆動して撮影したテレビカメラモニター画面上の全ての位置と、前記数値制御のテレビカメラが前記撮影した駆動数値と、前記全ての位置を計測した前記数値制御の距離計測器の計測距離及び駆動数値とを関連付けることを特徴とする方法。
  12. 請求項1から11の何れかに記載の、前記テレビカメラが撮影したモニター画面上の全ての位置に写る画像が、前記数値制御のテレビカメラが撮影したテレビカメラモニター画面上に映る前記画像に関連付けることを特徴とする方法。
  13. 請求項1から12の何れかに記載の、前記作業位置と前記計測した距離とが継続して異なる位置で前記テレビカメラが撮影したテレビカメラモニター画面上の位置に前記継続して異なる位置の以前の前記作業位置を前記計測した距離の位置に展開かる方法。
  14. 請求項1から13の何れかに記載の、前記作業位置と前記計測した距離とが関連する異なる位置で前記テレビカメラが撮影したテレビカメラモニター画面上の位置に前記関連する異なる位置の以前の前記作業位置を前記計測した距離の位置に展開をする方法。
  15. 請求項1から14の何れかに記載の、前記数値制御のテレビカメラが撮影したテレビカメラモニター画面上で画像検出した位置を前記テレビカメラモニター画面上の位置に示すことを特徴とする方法。
  16. 請求項1から15の何れかに記載の、前記数値制御のテレビカメラが撮影したテレビカメラモニター画面上の全ての位置及び前記撮影した駆動数値と、前記数値制御の距離計測器の駆動数値とを関連付けることを特徴とする方法。
  17. 請求項1から16の何れかに記載の、前記テレビカメラモニター画面上の全ての位置と、前記数値制御の距離計測器の駆動数値とを関連付けることで計測した距離と方向で、異なる数値制御のテレビカメラが撮影する方法。
  18. 請求項1から17の何れかに記載の、前記数値制御のテレビカメラモニター画面上の全ての位置と、前記数値制御の距離計測器の駆動数値とを関連付けることで計測した距離と方向で、異なる数値制御のテレビカメラが撮影する方法。
  19. 請求項1から18の何れかに記載の、前記テレビカメラモニター画面上の全ての位置と、前記数値制御の距離計測器の駆動数値とを関連付けることで計測した距離と方向で、数値制御機器を数値制御する方法。
  20. 請求項1から19の何れかに記載の、前記数値駆動機構の作業位置の駆動数値と前記テレビカメラの撮影した画面上の位置と、前記テレビカメラの撮影した画面上の画像認識した画像の位置と前記数値制御のテレビカメラの撮影した画面上の位置、前記数値制御のテレビカメラの撮影した画面上の画像認識した画像の位置と前記数値制御のテレビカメラの撮影した駆動数値と前記数値制御の距離計測器で計測した距離と、前記数値制御の距離を計測した駆動数値との関連の幾つかを記憶することを特徴とする方法
  21. 請求項1から20何れかに記載の、前記幾つかを記憶の整合性を監視することで、前記数値駆動機構の作業位置の状況を管理する方法。
  22. 請求項1から21何れかに記載の、駐車走行開始位置で数値制御の自動車に取り付けた前記テレビカメラで撮影したテレビカメラモニター画面上に映る駐車予定位置と、前記自動車の前記駐車走行開始位置から駐車予定位置へ駐車走行する、前記自動車の駆動機構の駆動数値を関連付けて記憶し、幾つかの異なる前記駐車走行開始位置で、前記テレビカメラで撮影したテレビカメラモニター画面上に映る前記駐車予定位置と前記幾つかの異なる駐車走行開始位置から前記駐車予定位置へ駐車走行する、前記幾つかの異なる自動車の駆動機構の駆動数値を関連付けた数値を使って、全ての前記駐車走行開始位置で撮影した前記テレビカメラモニター画面上に映る前記駐車予定位置から、前記自動車を駐車走行開始の位置から前記駐車走行して前記駐車予定位置に駐車する前記自動車の駆動機構の駆動数値を、補完法等の計算式で演算して取得することを特徴とする方法。
  23. 請求項1から22の何れかに記載の、前記駐車予定位置を前記テレビカメラモニター画面上で駐車予定位置を画像認識された位置とすることを特徴とする方法。
  24. 請求項1から23の何れかに記載の、前記駐車予定位置を前記テレビカメラモニター画面上で指示された位置とすることを特徴とする方法。
  25. 請求項1から24の何れかに記載の、前記テレビカメラで撮影したテレビカメラモニター画面上の指示位置を、前記数値制御の距離計測器で計測した距離と方向に合わせて、前記数値制御の自動車を走行することを特徴とする方法。
  26. 請求項1から25の何れかに記載の、数値制御の自動車に取り付けた前記テレビカメラで走行位置から撮影したテレビカメラモニター画面上に映る回避位置の被写体と、前記数値制御の自動車の前記走行位置から前記被写体の回避位置を回避走行する、前記数値制御の自動車の駆動機構の前記駆動数値を関連付けて記憶し、幾つかの異なる前記走行位置から撮影した前記テレビカメラモニター画面上に映る前記回避位置の被写体と、前記幾つかの異なる走行位置から回避位置で回避走行させた、前記数値制御の自動車の駆動機構の駆動数値を関連付けた数値を使って、全ての前記走行位置から撮影した前記テレビカメラモニター画面上の位置に映る前記回避位置の被写体を、前記数値制御の自動車を前記走行位置から前記被写体の回避位置で回避走行する、前記数値制御の自動車の駆動機構の駆動数値を、補完法等の計算式で演算して取得することを特徴とする方法。
  27. 請求項1から26の何れかに記載の、数値制御の自動車に取り付けた前記テレビカメラで走行位置から撮影したテレビカメラモニター画面上に映る最大限の回避運転走行の被写体の位置と、前記数値制御の自動車の前記走行位置から前記被写体の最大限の回避運転走行する、前記数値制御の自動車の駆動機構の前記駆動数値を関連付けて記憶し、幾つか異なる走行位置から撮影した前記テレビカメラモニター画面上に映る前記最大限の回避運転走行の被写体の位置と、前記幾つかの異なる前記走行位置から最大限の回避運転走行させた、前記数値制御の自動車の駆動機構の駆動数値を関連付けた数値を使って、全ての走行位置から撮影した前記テレビカメラモニター画面上に映る前記最大限の回避運転走行の被写体の位置で、前記数値制御の自動車を前記すべての走行位置から前記最大限の回避運転走行する、前記数値制御の自動車の駆動機構の駆動数値を、補完法等の計算式で演算して取得することを特徴とする方法。
  28. 請求項1から27の何れかに記載の、前記最大限の衝突回避する運転の結果まで考慮された走行する、前記数値制御の自動車の駆動機構の駆動数値を、請求項25から26の何れかに記載の補間法の演算で取得することを特徴とする方法。
  29. 請求項1から28の何れかに記載の、走行位置から追越し走行する数値制御の自動車に取り付けた前記テレビカメラで撮影した前記テレビカメラモニター画面上に映る先行車両の位置に、前記先行車両を追越し走行する前記数値制御の自動車の駆動機構の前記駆動数値を関連付けて記憶し、幾つかの異なる走行位置で撮影した前記テレビカメラモニター画面上に映る前記先行車両の位置で、幾つかの異なる前記先行車両の位置から追越し走行させた、前記数値制御の自動車の駆動機構の駆動数値を関連付けた数値を使って、全ての走行位置で撮影した前記テレビカメラモニター画面上に映る前記先行車両の位置で、前記数値制御の自動車を前記先行車両の追越し走行する、前記数値制御の自動車の駆動機構の駆動数値を、補完法等の計算式で演算して取得することを特徴とする方法。
  30. 請求項1から29の何れかに記載の、前記テレビカメラモニター画面上で指示した位置に対応する、請求項20から28に記載する前記既に取得してある前記自動車の駆動機構の駆動数値に合わせる数値を、シュミレィーションで演算することを特徴とする方法。
  31. 請求項1から30の何れかに記載の、前記テレビカメラモニター画面上に映る被写体の位置を、前記数値制御の距離計測器で前記被写体の位置を計測した距離と方向に対応する、請求項20から28に記載する前記既に取得してある前記自動車の駆動機構の駆動数値に合わせる数値を、シュミレィーションで演算することを特徴とする方法。
  32. 請求項1から31の何れかに記載で、請求項20から30に記載する関連した前記数値に、前記テレビカメラモニター画面上に映る被写体の位置を、前記数値制御の距離計測器で計測した距離と方向とで、前記自動車の駆動機構の既に取得してある前記駆動数値に合わせる数値を、シュミレィーションで演算することを特徴とする方法。
  33. 請求項1から32の何れかに記載の、前記数値制御の自動車に取り付けた前記数値制御の距離計測器で計測した距離と方向で、前記数値制御の自動車に取り付けた数値制御機器の整合性を監視することで、前記数値制御の自動車の走行を管理する方法。
  34. 請求項1から33の何れかに記載で、設置した距離が解る複数のマイクロホンの集音した音声の位相差の演算された方向に、前記数値制御の距離計測器の駆動数値を合わせて、距離を計測することを特徴とする方法。
  35. 請求項1から34の何れかに記載で、設置した距離が解る複数のマイクロホンの集音した音声の位相差の演算された方向を、前記数値制御のテレビカメラの駆動数値を合わせて撮影することを特徴とする方法。
  36. 請求項1から35の何れかに記載で、設置した距離が解る複数のマイクロホンの集音した音声の位相差方の演算された向に合わせて、前記数値制御の距離計測器の計測した距離に、前記数値制御のテレビカメラの画角と焦点距離を合わせて撮影することを特徴とする方法。
  37. 請求項1から36の何れかに記載の、超音波距離計測器の計測した距離に、前記数値制御のテレビカメラの画角の駆動数値を合わせて撮影することを特徴とする方法。
  38. 請求項1から37の何れかに記載の、前記数値制御の自動車に画素距離計測追尾テレビカメラを設置し、前記素距離計測追尾テレビカメラの撮影したテレビカメラモニター画面上に映る画像と前記画像の距離を計測することを特徴とする方法。
  39. 請求項1から38の何れかに記載の、前記数値制御の自動車に取り付けた前記テレビカメラが撮影した画面から画像の認識と前記画像を数値制御の距離計測器の計測した距離と方向とに、GPS測位位置と方位等を付加し記憶することを特徴とする方法。
  40. 請求項1から39何れかに記載の、前記自動車に取り付けた、前記テレビカメラが撮影した画面から複数の認識した画像と前記複数の認識した画像を前記数値制御の距離計測器で計測した距離とで、前記自動車の走行方向を設定することを特徴とする方法。
  41. 請求項1から40の何れかに記載の、前記テレビカメラが撮影した前記テレビカメラモニター画面上の認識した画像の位置を、前記数値制御の距離計測器で距離と方向を計測し、前記テレビカメラモニター画面の2次元の画像に、前記距離と方向を付加して前記テレビカメラモニター画面を3次元の画像にすることを特徴とする方法。
  42. 請求項1から41の何れかに記載の、前記テレビカメラが撮影した前記テレビカメラモニター画面上の認識した画像の位置を、前記数値制御の距離計測器で距離と方向を計測し、前記画像を認識した画像の位置と連続する異なる位置で、前記テレビカメラが撮影した前記テレビカメラモニター画面上に、前記距離と方向の前記連続する異なる位置に展開することを特徴とする方法。
  43. 請求項1から42の何れかに記載の、前記テレビカメラが撮影した前記テレビカメラモニター画面上の認識した画像の位置を、前記数値制御の距離計測器で距離と方向を計測し、前記画像を認識した位置と関連付けられる異なる位置で、前記テレビカメラが撮影した前記テレビカメラモニター画面上に前記距離と方向で前記関連付けられる異なる位置に展開することを特徴とする方法。
  44. 請求項1から43の何れかに記載の、歩行ロボットに取り付けた前記テレビカメラが撮影した前記テレビカメラモニター画面上の確認した画像を、前記距離計測器で距離と方向を計測し、前記歩行ロボットが歩行した連続する異なる位置で前記テレビカメラが撮影した前記テレビカメラモニター画面の上に前記計測した距離と方向で前記確認した画像を展開して、前記ロボットが歩行することを特徴とする方法。
  45. 請求項1から44の何れかに記載の、前記自動車に取付けた前記テレビカメラで走行方向を撮影する前記テレビカメラモニター画面上に映る画像の位置を、前記自動車の走行で、前記テレビカメラモニター画面上に映る前記画像の位置の移動を、前記数値制御の距離計測器で計測した以前に移動した距離と方向に合わせて、前記画像の位置を前記走行する前記自動車のタイヤの位置で展開して、前記画像による衝撃に対応することを特徴とする方法。
  46. 請求項1から45の何れかに記載の、前記展開した位置で加減速センサーや衝撃センサーの計測した数値を、前記認識した画像に付して記憶することを特徴とする方法。
  47. 請求項1から46の何れかに記載の、前記展開した位置で加減速センサーや衝撃センサーの計測した数値を、前記展開した位置に前記認識した画像に付して記憶することを特徴とする方法。
  48. 請求項1から47の何れかに記載の、前記記憶した前記画像認識した画像と前記加減速センサーと衝撃センサーの計測した数値から、前記展開した前記認識した画像からの、前記数値駆動機構や前記自動車や歩行ロボットが受ける前記衝撃に対応することを特徴とする方法。
  49. 請求項1から48の何れかに記載の、前記テレビカメラで移動する被写体を撮影する前記テレビカメラモニター画面上に写る前記被写体の位置を、前記数値制御の距離計測器で距離を計測することで、前記移動する被写体の位置を計測することを特徴とする方法。
  50. 請求項1から49の何れかに記載の、前記テレビカメラで移動する被写体を同時に複数の位置から撮影する前記テレビカメラモニター画面上に写る前記被写体の位置を、同時に複数の前記数値制御の距離計測器で距離を計測することで、前記移動する被写体の位置を計測することを特徴とする方法。
  51. 請求項1から50の何れかに記載の、移動する前記テレビカメラで撮影した前記テレビカメラモニター画面上に映る被写体の位置を、前記移動する前記テレビカメラと同じ位置から、前記数値制御の距離計測器で距離を計測することで、前記移動する前記テレビカメラの位置と前記被写体の位置の距離を計測することを特徴とする方法
  52. 請求項1から51の何れかに記載の、移動する複数の前記テレビカメラで撮影した前記テレビカメラモニター画面上に映る異なる被写体の位置を、前記移動する前記テレビカメラと同じ位置から、同時に複数の前記数値制御の距離計測器で距離を計測することで、前記移動する前記テレビカメラの位置を計測することを特徴とする方法
  53. 請求項1から52の何れかに記載の、移動する前記テレビカメラで撮影した前記テレビカメラモニター画面上に映る移動する被写体の位置を、前記テレビカメラと同じ位置から、前記数値制御の距離計測器で距離を計測することで、前記移動する前記テレビカメラの位置と前記テレビカメラモニター画面上に映る移動する前記被写体の位置が撮影された移動する被写体の位置との距離を計測することを特徴とする方法。
  54. 請求項1から53の何れかに記載の、移動する複数の前記テレビカメラで撮影した前記テレビカメラモニター画面上に映る移動する被写体の位置を、前記テレビカメラと同じ位置から、同時に複数の前記数値制御の距離計測器で距離を計測することで、前記移動する前記テレビカメラの位置と前記テレビカメラモニター画面上に映る移動する前記被写体の位置が撮影された前記移動する被写体の位置との距離と方向を計測することを特徴とする方法。
  55. 請求項1から54の何れかに記載の、請求項48から53に記載の、前記計測した被写体に識別する表示と前記計測した距離と方向の数値を付けて記憶することを特徴とする方法。
  56. 請求項1から55の何れかに記載の、請求項39から54に記載の前記記憶した情報を、インターネットを介して記憶することを特徴とする方法。
  57. 請求項1から56の何れかに記載の、前記自動車の進行方向を前記テレビカメラで撮影したテレビカメラモニター画面上に映る対向車の走行速度を計測することを特徴とする方法。
  58. 請求項1から57の何れかに記載の、前記テレビカメラが撮影した前記テレビカメラモニター画面上に映る数値制御器機の作業位置の操作を、インダーネットを介して映す前記テレビカメラモニター画面上で前記数値制御器機の作業位置の前記操作をすることを特徴とする方法。
  59. 請求項1から58の何れかに記載の、前記数値制御器機の複数の作業位置を、前記テレビカメラが撮影した複数の前記テレビカメラモニター画面上に映る前記数値制御器機の複数の作業位置の操作することを特徴とする方法。
  60. 請求項1から59の何れかに記載の、前記数値制御器機の作業位置を、複数の前記テレビカメラが撮影した複数の前記テレビカメラモニター画面上に映る数値制御器機の作業位置を、前記複数の前記テレビカメラモニター画面上で操作することを特徴とする方法。
  61. 請求項1から59の何れかに記載の、前記数値制御器機の作業位置に取り付けた表示を、前記テレビカメラが撮影した前記テレビカメラモニター画面上に映る前記表記が解読できる位置に移動させることを特徴とする方法。
  62. 請求項1から61の何れかに記載の、数値制御の移動収納架に前記テレビカメラと前記距離計測機を取付け、前記テレビカメラの撮影した前記テレビカメラモニター画面上に映る被写体の位置を、前記距離計測機で前記被写体を計測した距離と方向に関連させて前記数値制御の移動収納架を駆動することを特徴とする方法
  63. 請求項1から62の何れかに記載の、数値制御の移動収納架に前記テレビカメラと前記距離計測機と前記テレビカメラモニター画面を取り付けた、前記テレビカメラの撮影するテレビカメラモニター画面上に映る被写体の位置を、前記距離計測機で前記被写体を計測した距離と方向に関連させて前記テレビカメラモニター画面を被写体に向けて表示する前記数値制御の移動収納架を駆動することを特徴とする方法。
  64. 請求項1から63の何れかに記載の、数値制御の移動補助機を、前記テレビカメラで撮影した前記テレビカメラモニター画面上に映る前記数値制御の移動補助機の位置を前記数値制御の距離計測機で前記数値制御の移動補助機を計測した距離と方向で前記数値制御の移動補助機を前記数値制御の移動収納架に関連させて駆動することを特徴とする方法
  65. 請求項1から64の何れかに記載の、前記数値制御のロボットと前記数値制御の距離計測器と前記テレビカメラと前記数値制御のテレビカメラを前記数値制御の移動収納架に設置し、前記ロボットの作業位置を前記数値制御の距離計測器で計測した距離と、前記数値制御の距離計測器で前記作業位置の距離を計測した駆動数値と、前記ロボットの作業位置を前記テレビカメラで撮影したテレビカメラモニター画面上の位置と、前記ロボットの作業位置を前記数値制御のテレビカメラで撮影したテレビカメラモニター画面上の位置と、前記ロボットの作業位置を前記数値制御のテレビカメラで撮影した駆動数値との前記関連する数値の何れかと、前記数値制御の移動収納架の駆動数値との関連を上記説明した補完法、及び、シュミレィーションの演算で取得する方法。
  66. 請求項1から65の何れかに記載の、前記数値制御の移動収納架の移動位置を前記テレビカメラで撮影したテレビカメラモニター画面上の位置と、前記数値制御の距離計測器で計測した距離と、前記テレビカメラで撮影したテレビカメラモニター画面上の位置と、前記数値制御のテレビカメラで撮影したテレビカメラモニター画面上の位置と、前記数値制御のテレビカメラで撮影した駆動数値との関連する数値の何れかと、前記数値制御の移動収納架の駆動数値との関連する数値を補完法、及び、シュミレィーションの演算で取得する方法。
  67. 請求項1から66の何れかに記載の、テレビカメラの撮影する画面上で検出された被写体を、前記画面上の位置に相当する方向を計測する前記距離計測機で前記被写体との距離を計測し、その計測する距離に合わせて、前記被写体を前記数値制御のテレビカメラの画角と焦点距離等を調整し、前記被写体を前記数値制御のテレビカメラで撮影することを特徴とする方法。
  68. 請求項1から67の何れかに記載の、数値制御のテレビカメラの撮影する画面上で検出された被写体を、前記画面上の位置に相当する方向を前記距離計測機で前記被写体との距離を計測し、その計測する距離に合わせて、前記数値制御のテレビカメラの画角と焦点距離等を再度調整し、前記被写体を前記数値制御のテレビカメラで撮影することを特徴とする方法。
  69. 請求項1から68の何れかに記載の、前記数値制御の距離計測機で距離が計測された前記被写体を、前記数値制御のテレビカメラで前記数値制御の距離計測機の方向と前記距離に画角と焦点距離等を調整し、前記被写体を撮影することを特徴とする方法。
  70. 請求項1から69の何れかに記載の、複数の前記数値制御のテレビカメラで異なる方向から撮影した画像を、前記数値制御の距離計測機で計測された距離と方向で、合成画像とすることを特徴とする方法。
  71. 請求項1から70の何れかに記載の、前記テレビカメラで撮影したテレビカメラモニター画面上に写る2次元の被写体の画像を、前記数値制御の距離計測器で距離と方向を計測して、前記被写体が写る画像を、3次元の画像として認識することを特徴とする方法。
  72. 請求項1から71の何れかに記載で、請求項70に記載の、認識した3次元の画像を前記撮影する方向と連続する位置で撮影するテレビカメラモニター画面上に展開した画像として認識することを特徴とする方法。
  73. 請求項1から72の何れかに記載で、請求項71と72に記載の前記認識した3次元の画像を前記撮影する方向と連続する位置で撮影するテレビカメラモニター画面上に展開した画像として認識することを特徴とする方法。
  74. 請求項1から73の何れかに記載で、請求項71から73に記載の前記認識した3次元の画像を前記テレビカメラと関連するテレビカメラで撮影した方向と連続する位置で撮影するテレビカメラモニター画面上に展開した画像として認識することを特徴とする方法。
  75. 請求項1から74の何れかに記載の、前記数値制御器機の作業位置を前記テレビカメラで撮影したテレビカメラモニター画面上に写る前記数値制御器機の作業位置を、前記数値制御の距離計測器で距離と方向を計測して作業位置範囲を前記テレビカメラモニター画面上に設定し、前記テレビカメラで撮影したテレビカメラモニター画面上に写る被写体を前記設定と関連させて前記数値駆動機構を駆動することを特徴とする方法。
  76. 請求項1から75の何れかに記載の、前記数値制御器機の作業位置を前記テレビカメラで撮影したテレビカメラモニター画面上に写る作業位置を画像認識させた指示に従って、前記数値制御器機の作業位置を駆動することを特徴とする方法。
  77. 請求項1から76の何れかに記載の、前記数値制御の計測機と前記テレビカメラを航空機に取り付けることを特徴とする方法。
  78. 請求項1から77の何れかに記載の、前記数値制御の計測機と前記テレビカメラを滑走路に取り付けることを特徴とする方法。
  79. 請求項1から78の何れかに記載の、前記数値制御の計測機と前記テレビカメラを船舶に取り付けることを特徴とする方法。
  80. 請求項1から79の何れかに記載の、前記テレビカメラが撮影したテレビカメラモニター画面上で画像認識された位置を関連付けることを特徴とする方法。
PCT/JP2022/010430 2021-02-05 2022-03-09 コンピユーターの目(pceye) WO2022168995A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US18/276,109 US20240104762A1 (en) 2021-02-05 2022-03-09 Computer Eye (PC Eye)
CN202280012439.9A CN116829428A (zh) 2021-02-05 2022-03-09 计算机眼睛

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-017588 2021-02-05
JP2021017588A JP2022120598A (ja) 2021-02-05 2021-02-05 コンピユーターの目(pceye)

Publications (2)

Publication Number Publication Date
WO2022168995A1 true WO2022168995A1 (ja) 2022-08-11
WO2022168995A4 WO2022168995A4 (ja) 2022-10-06

Family

ID=82742154

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/010430 WO2022168995A1 (ja) 2021-02-05 2022-03-09 コンピユーターの目(pceye)

Country Status (4)

Country Link
US (1) US20240104762A1 (ja)
JP (1) JP2022120598A (ja)
CN (1) CN116829428A (ja)
WO (1) WO2022168995A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05328189A (ja) * 1992-05-15 1993-12-10 Kobayashi Denki Kogyo Kk ビデオカメラ用被写体自動追尾装置
JP2003316439A (ja) * 2002-04-24 2003-11-07 Yaskawa Electric Corp 移動台車の制御装置
JP2012046143A (ja) * 2010-08-30 2012-03-08 Daihatsu Motor Co Ltd 目標軌道算出装置
JP2012175215A (ja) * 2011-02-18 2012-09-10 Naoyuki Murakami テレビカメラを取り付けた数値制御機器のテレビモニター画面の操作方法
JP5508308B2 (ja) * 2011-02-08 2014-05-28 直之 村上 数値制御機器のテレビカメラモニター画面の関連操作方法
JP2018525627A (ja) * 2015-11-06 2018-09-06 三菱電機株式会社 デバイスの位置を位置合わせする方法及びデバイス
JP2019138889A (ja) * 2018-02-07 2019-08-22 直之 村上 追尾レーザー距離計測器の駆動計測で、3次元の数値駆動の制御機器の3次元の駆動数値を演算する方法。
JP2020046274A (ja) * 2018-09-18 2020-03-26 直之 村上 テレビカメラの映す画像の距離を計測する方法
JP2020109602A (ja) * 2018-12-28 2020-07-16 パナソニックIpマネジメント株式会社 モデル生成装置、車両シミュレーションシステム、モデル生成方法およびコンピュータプログラム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05328189A (ja) * 1992-05-15 1993-12-10 Kobayashi Denki Kogyo Kk ビデオカメラ用被写体自動追尾装置
JP2003316439A (ja) * 2002-04-24 2003-11-07 Yaskawa Electric Corp 移動台車の制御装置
JP2012046143A (ja) * 2010-08-30 2012-03-08 Daihatsu Motor Co Ltd 目標軌道算出装置
JP5508308B2 (ja) * 2011-02-08 2014-05-28 直之 村上 数値制御機器のテレビカメラモニター画面の関連操作方法
JP2012175215A (ja) * 2011-02-18 2012-09-10 Naoyuki Murakami テレビカメラを取り付けた数値制御機器のテレビモニター画面の操作方法
JP2018525627A (ja) * 2015-11-06 2018-09-06 三菱電機株式会社 デバイスの位置を位置合わせする方法及びデバイス
JP2019138889A (ja) * 2018-02-07 2019-08-22 直之 村上 追尾レーザー距離計測器の駆動計測で、3次元の数値駆動の制御機器の3次元の駆動数値を演算する方法。
JP2020046274A (ja) * 2018-09-18 2020-03-26 直之 村上 テレビカメラの映す画像の距離を計測する方法
JP2020109602A (ja) * 2018-12-28 2020-07-16 パナソニックIpマネジメント株式会社 モデル生成装置、車両シミュレーションシステム、モデル生成方法およびコンピュータプログラム

Also Published As

Publication number Publication date
CN116829428A (zh) 2023-09-29
WO2022168995A4 (ja) 2022-10-06
JP2022120598A (ja) 2022-08-18
US20240104762A1 (en) 2024-03-28

Similar Documents

Publication Publication Date Title
JP7081875B2 (ja) 検出された障壁に基づく車両のナビゲーション
JP7040867B2 (ja) システム、方法およびプログラム
JP7133520B2 (ja) コンピユーターの目(pceye)
JP7334881B2 (ja) 自動運転車両システム用交差視野
US9857800B2 (en) Systems and methods for determining the status of a turn lane traffic light
JP5536125B2 (ja) 画像処理装置および方法、ならびに移動体衝突防止装置
CN101091103B (zh) 图像识别装置和方法以及使用该图像识别装置或方法的定位装置、车辆控制装置和导航装置
JP4862774B2 (ja) 運転支援方法及び運転支援装置
JP2006250917A (ja) 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置
JP4483305B2 (ja) 車両周辺監視装置
WO2022168995A1 (ja) コンピユーターの目(pceye)
JP7312521B2 (ja) コンピユーターの目(pceye)
JP7282967B2 (ja) コンピユーターの目(pceye)
JP7282964B2 (ja) コンピユーターの目(pceye)
JP7282965B2 (ja) コンピユーターの目(pceye)
JP7282963B2 (ja) コンピユーターの目(pceye)
JP7282310B2 (ja) コンピユーターの目(pceye)
JP7291452B2 (ja) コンピユーターの目(pceye)
JP7338015B2 (ja) コンピユーターの目(pceye)
JP7282966B2 (ja) コンピユーターの目(pceye)
JP7291451B2 (ja) コンピユーターの目(pceye)
JP2004046875A (ja) 交通機関自動案内装置
JPH0559365B2 (ja)

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22749865

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280012439.9

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 18276109

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22749865

Country of ref document: EP

Kind code of ref document: A1