JP6630881B2 - Information processing apparatus, camera, moving object, moving object system, information processing method and program - Google Patents

Information processing apparatus, camera, moving object, moving object system, information processing method and program Download PDF

Info

Publication number
JP6630881B2
JP6630881B2 JP2016181061A JP2016181061A JP6630881B2 JP 6630881 B2 JP6630881 B2 JP 6630881B2 JP 2016181061 A JP2016181061 A JP 2016181061A JP 2016181061 A JP2016181061 A JP 2016181061A JP 6630881 B2 JP6630881 B2 JP 6630881B2
Authority
JP
Japan
Prior art keywords
information
predetermined
camera
shape
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016181061A
Other languages
Japanese (ja)
Other versions
JP2018044897A (en
Inventor
宏二 小川
宏二 小川
藤起 山口
藤起 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gogoh Co Ltd
Original Assignee
Gogoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gogoh Co Ltd filed Critical Gogoh Co Ltd
Priority to JP2016181061A priority Critical patent/JP6630881B2/en
Publication of JP2018044897A publication Critical patent/JP2018044897A/en
Application granted granted Critical
Publication of JP6630881B2 publication Critical patent/JP6630881B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、移動体の位置測定を行うことができる情報処理装置、カメラ、移動体、移動体システム、情報処理方法およびプログラムに関する。   The present invention relates to an information processing apparatus, a camera, a moving object, a moving object system, an information processing method, and a program that can measure the position of a moving object.

工場等の天井に設置される天井クレーンの移動体の位置測定をレーザ光に基づき行う技術が提案されている(特許文献1参照)。   A technique for measuring the position of a moving object of an overhead crane installed on a ceiling of a factory or the like based on a laser beam has been proposed (see Patent Document 1).

特開平11−344335号公報JP-A-11-344335

本発明の目的は、安価で、かつ、簡易に位置測定を行うことができる情報処理装置、カメラ、移動体、移動体システム、情報処理方法およびプログラムを提供することにある。   An object of the present invention is to provide an information processing apparatus, a camera, a moving object, a moving object system, an information processing method, and a program, which are inexpensive and can easily perform position measurement.

1.情報処理装置
本発明の情報処理装置は、
所定領域又は所定空間を移動する移動体の位置を算出するための情報処理装置であって、
前記移動体に設けられた1つ又は複数のカメラが撮像した画像情報を入力する入力部と、
前記画像情報に含まれる特徴点又は相対情報の固有情報を生成するための固有情報生成部と、
前記移動体の位置と、前記固有情報とを対応させて構成されたデータベースを記憶した記憶部と、
前記カメラが撮像した画像情報から固有情報生成部が生成した固有情報に基づき、前記データベースを参照して、前記移動体の位置を導出する導出部とを含む。
1. Information processing apparatus
An information processing apparatus for calculating a position of a moving object that moves in a predetermined area or a predetermined space,
An input unit for inputting image information captured by one or more cameras provided on the moving body,
A unique information generation unit for generating unique information of feature points or relative information included in the image information,
A storage unit that stores a database configured by associating the position of the moving object with the unique information,
A deriving unit that derives the position of the moving body with reference to the database based on the unique information generated by the unique information generating unit from the image information captured by the camera.

本発明において、前記カメラが撮像される範囲内に基準体が設けられ、前記固有情報は、前記カメラが撮像した基準体に基づき生成されることができる。   In the present invention, a reference body is provided within a range where the camera captures an image, and the unique information can be generated based on the reference body captured by the camera.

本発明において、前記基準体は、立体的形状を有することができる。   In the present invention, the reference body may have a three-dimensional shape.

本発明において、前記立体的形状は、複数の段を有し、
前記複数の段において、各段の上面は、当該段の一段上の上面と平面的にみて少なくとも一部が重なることができる。
In the present invention, the three-dimensional shape has a plurality of steps,
In the plurality of stages, the upper surface of each stage can at least partially overlap the upper surface of the next stage in a plan view.

本発明において、前記各段の上面は、上下の段で色が異なることができる。   In the present invention, the upper surface of each step may have a different color in upper and lower steps.

本発明において、前記各段の上面は、上にいくにしたがって、幅が広くなることができる。   In the present invention, the upper surface of each of the steps may be wider as going upward.

本発明において、
前記データベースには、少なくとも所定の各位置から撮影した画像情報から把握される露出した、所定段の上面の形状および面積、および、前記所定段とは異なる段の上面の形状および面積と、前記移動体の位置情報とを対応させて記憶され、
前記導出部は、前記少なくとも所定の各位置から撮影した画像情報から把握される露出した所定段の上面の形状および面積、および、前記所定段とは異なる段の上面の形状および面積に基づき、前記移動体の位置を導出することができる。
In the present invention,
In the database, at least the shape and area of the upper surface of a predetermined step exposed and grasped from image information taken from each predetermined position, and the shape and area of the upper surface of a step different from the predetermined step, It is stored in association with body position information,
The deriving unit, based on the shape and area of the upper surface of the exposed predetermined step grasped from the image information captured from at least each of the predetermined positions, and the shape and area of the upper surface of a step different from the predetermined step, The position of the moving object can be derived.

本発明において、前記固有情報生成部は、模様、色の違い、形状の特異点、および、撮影範囲のレイアウト構成の群からなる少なくとも1種に基づき特徴点を生成することができる。   In the present invention, the unique information generation unit can generate a feature point based on at least one of a group of a pattern, a difference in color, a singular point of a shape, and a layout configuration of a shooting range.

2.カメラ
本発明のカメラは、本発明の情報処理装置を含む。
2. Camera The camera of the present invention includes the information processing device of the present invention.

3.移動体
本発明の移動体は、
物が係留される、又は、取り付けられる移動体であって、
前記物は、前記移動体が移動することによって、移動され、
前記移動体の位置を認識するためのカメラが設けられ、
本発明の情報処理装置を含む。
3. Moving body The moving body of the present invention
A moving object to which an object is moored or attached,
The object is moved by the movement of the moving body,
A camera for recognizing the position of the moving body is provided,
It includes the information processing device of the present invention.

4.移動体システム
本発明の移動体システムは、本発明の情報処理装置を含む。
4. Mobile system The mobile system of the present invention includes the information processing device of the present invention.

5.情報処理方法
本発明の情報処理方法は、
所定領域又は所定空間を移動する移動体の位置を算出するための情報処理方法であって、
入力部が、前記移動体に設けられた1つ又は複数のカメラが撮像した画像情報を入力するステップと、
固有情報生成部が、前記画像情報に含まれる特徴点又は相対情報の固有情報を生成するためのステップと、
導出部が、前記カメラが撮像した画像情報から固有情報生成部が生成した固有情報に基づき、記憶部に記憶された前記移動体の位置と、前記固有情報とを対応させて構成されたデータベースを参照して、前記移動体の位置を導出するステップとを含む。
5. Information processing method
An information processing method for calculating a position of a moving object that moves in a predetermined area or a predetermined space,
An input unit for inputting image information captured by one or a plurality of cameras provided on the moving body;
A step of generating a unique information of a characteristic point or relative information included in the image information,
The deriving unit, based on the unique information generated by the unique information generating unit from the image information captured by the camera, based on the position of the moving object stored in the storage unit, the database configured to correspond to the unique information Deriving a position of the moving body with reference to the moving object.

6.プログラム
本発明のプログラムは、
コンピュータに、
所定領域又は所定空間を移動する移動体の位置を算出するための情報処理方法を実行させるためのプログラムであって、
入力部が、前記移動体に設けられた1つ又は複数のカメラが撮像した画像情報を入力するステップと、
固有情報生成部が、前記画像情報に含まれる特徴点又は相対情報の固有情報を生成するためのステップと、
導出部が、前記カメラが撮像した画像情報から固有情報生成部が生成した固有情報に基づき、記憶部に記憶された前記移動体の位置と、前記固有情報とを対応させて構成されたデータベースを参照して、前記移動体の位置を導出するステップとを実行させるためのものである。
6. Program The program of the present invention is
On the computer,
A program for executing an information processing method for calculating a position of a moving object moving in a predetermined area or a predetermined space,
An input unit for inputting image information captured by one or a plurality of cameras provided on the moving body;
A step of generating a unique information of a characteristic point or relative information included in the image information,
The deriving unit, based on the unique information generated by the unique information generating unit from the image information captured by the camera, based on the position of the moving object stored in the storage unit, the database configured to correspond to the unique information And deriving the position of the moving body with reference to the above.

ここで、「移動体」とは、移動体操作システムにより基準位置から二次元又は三次元方向へ相対的に移動させられる物体をいう。二次元又は三次元方向へ相対的に移動(自走)が可能な装置の場合は、その装置自体が「移動体」に該当し、二次元又は三次元方向へ相対的に移動が可能な構成部材を備える装置の場合は、その構成部材が「移動体」に該当する。「移動体」の具体例は、移動体操作システムにより二次元又は三次元方向へ相対的に移動させることが可能なあらゆる物品、たとえば、クレーン装置におけるフック、搬送用ロボットにおける物品を把持又は搭載する搬送アーム又はその把持部、搭載部等の荷台相当部分、高所作業車におけるバケット(デッキ)、ヘリコプターにおけるヘリコプター本体である。   Here, the “moving body” refers to an object that is relatively moved in a two-dimensional or three-dimensional direction from a reference position by a moving body operation system. In the case of a device that can relatively move (self-propelled) in two-dimensional or three-dimensional directions, the device itself corresponds to a “moving body” and can move relatively in two- or three-dimensional directions In the case of an apparatus including a member, the constituent member corresponds to a “moving body”. A specific example of the “moving body” is any object that can be relatively moved in two-dimensional or three-dimensional directions by the moving body operation system, such as a hook in a crane device or an article in a transfer robot. A transport arm or a portion corresponding to a carrier such as a gripping portion and a mounting portion, a bucket (deck) in an aerial work vehicle, and a helicopter main body in a helicopter.

本発明によれば、安価かつ簡易に移動体の位置を測定することができる。   ADVANTAGE OF THE INVENTION According to this invention, the position of a mobile body can be measured easily at low cost.

実施の形態に係る移動体システムを模式的に示す図である。It is a figure which shows the mobile body system which concerns on embodiment typically. 実施の形態に係る移動体システムを模式的に示す図である。It is a figure which shows the mobile body system which concerns on embodiment typically. 実施の形態に係る移動体システムを模式的に示す図である。It is a figure which shows the mobile body system which concerns on embodiment typically. 実施の形態に係る情報処理装置を模式的に示す図である。FIG. 1 is a diagram schematically illustrating an information processing device according to an embodiment. 実施の形態に係る情報処理フローを示す図である。It is a figure showing the information processing flow concerning an embodiment. 実施の形態に係るレイアウトの特徴点の導出例を示す図である。FIG. 7 is a diagram illustrating an example of deriving feature points of a layout according to the embodiment. 実施の形態に係る第1の基準体の構成例を示す図である。FIG. 3 is a diagram illustrating a configuration example of a first reference body according to the embodiment. 実施の形態に係る第1の基準体の使用例を示す図である。FIG. 4 is a diagram illustrating an example of use of a first reference body according to the embodiment. 実施の形態に係る第1の基準体の使用例を示す図である。FIG. 4 is a diagram illustrating an example of use of a first reference body according to the embodiment. 実施の形態に係る第1の基準体の使用例を示す図である。FIG. 4 is a diagram illustrating an example of use of a first reference body according to the embodiment. 実施の形態に係る第1の基準体の使用例を示す図である。FIG. 4 is a diagram illustrating an example of use of a first reference body according to the embodiment. 実施の形態に係る第1の基準体の使用例を示す図である。FIG. 4 is a diagram illustrating an example of use of a first reference body according to the embodiment. 実施の形態に係る第1の基準体の使用例を示す図である。FIG. 4 is a diagram illustrating an example of use of a first reference body according to the embodiment. 実施の形態に係る第1の基準体の使用例を示す図である。FIG. 4 is a diagram illustrating an example of use of a first reference body according to the embodiment. 実施の形態に係る第1の基準体の使用例を示す図である。FIG. 4 is a diagram illustrating an example of use of a first reference body according to the embodiment. 実施の形態に係る第1の基準体の変形例を示す上面図である。It is a top view which shows the modification of the 1st reference | standard body which concerns on embodiment. 実施の形態に係る第1の基準体の変形例を示す斜視図である。It is a perspective view showing a modification of the 1st reference object concerning an embodiment. 天井クレーンの全体構成を示す斜視図である。It is a perspective view which shows the whole structure of an overhead crane. 天井クレーンの昇降機としての巻上機の構造を示す図である。It is a figure which shows the structure of the hoist as an elevator of an overhead crane. 天井クレーンにおける制御機構を示すブロック図である。It is a block diagram showing a control mechanism in an overhead crane.

以下、本発明の好適な実施の形態について図面を参照しながら説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

1.移動体システム
移動体システム100は、図1〜図3に示すように、移動体(たとえばホイストなどの昇降機、物品)5を含む。と、移動体の移動方向を操作指示するための指示手段を含む操作リモコン(操作手段)とを含む。移動体5には、1つ又は複数のカメラ30が装着されている。
1. Mobile System The mobile system 100 includes a mobile body (e.g., an elevator such as a hoist, an article) 5 as shown in FIGS. 1 to 3. And an operation remote controller (operation means) including instruction means for instructing the moving direction of the moving object. One or a plurality of cameras 30 are mounted on the moving body 5.

ここで、「リモコン」とは、遠隔操作、遠隔制御等を行うための装置の意味を有するリモートコントローラの略称又は遠隔操作、遠隔制御等の意味を有するリモートコントロールの略称である。なお、無線、有線といった信号伝送方式の違いは、別段の説明を行う場合を除き、「リモコン」の定義又は解釈を左右しない。   Here, the “remote controller” is an abbreviation of a remote controller having a meaning of a device for performing a remote operation, a remote control or the like, or an abbreviation of a remote control having a meaning of a remote operation, a remote control or the like. The difference between the signal transmission methods, such as wireless and wired, does not affect the definition or interpretation of the “remote control” unless otherwise described.

2.情報処理装置
情報処理装置40は、所定領域又は所定空間を移動する移動体5の位置を算出するためのものである。移動体5として好ましく適用される例は、物が係留され、物(吊り荷など)を二次元又は三次元で移動させる搬送システム(たとえばクレーンシステム)用の移動体5を挙げることができる。
2. Information processing device The information processing device 40 is for calculating the position of the moving object 5 that moves in a predetermined area or a predetermined space. An example that is preferably applied as the moving body 5 is a moving body 5 for a transport system (for example, a crane system) in which an object is moored and an object (such as a suspended load) is moved two-dimensionally or three-dimensionally.

情報処理装置40は、図4に示すように、入力部42と、処理部44と、出力部46と、記憶部48とを含む。   As shown in FIG. 4, the information processing device 40 includes an input unit 42, a processing unit 44, an output unit 46, and a storage unit 48.

入力部42は、移動体5に設けられた1つ又は複数のカメラ30が撮像した画像情報を入力する画像情報入力部42aを含む。カメラ30は、広角レンズがついたカメラ30などを挙げることができる。カメラ30を複数設けることで、移動体5に吊下がった物などがカメラ30の視野を遮る場合に、それぞれのカメラ30で撮影範囲ないしは視界を補完することができる。カメラ30は移動体5に下向きに設けることができる。   The input unit 42 includes an image information input unit 42a for inputting image information captured by one or a plurality of cameras 30 provided on the moving body 5. The camera 30 includes a camera 30 having a wide-angle lens. By providing a plurality of cameras 30, when an object or the like suspended on the moving body 5 blocks the field of view of the camera 30, the shooting range or the field of view can be complemented by each camera 30. The camera 30 can be provided on the moving body 5 downward.

処理部44は、固有情報生成部44aと、位置導出部44bとを含む。固有情報生成部44aは、画像情報に含まれる特徴点又は相対情報を生成するためのものである。固有情報生成部44aは、模様、色の違い、形状の特異点、コントラストの違い、および、撮影範囲のレイアウト構成の群からなる少なくとも1種に基づき特徴点又は相対情報の固有情報を生成する。位置導出部44bは、カメラ30が撮像した画像情報から固有情報生成部44aが生成した固有情報に基づき、データベース48aを参照して、移動体5の位置を導出する。エッジ処理などで画像の特徴をパターン化してもよい。   The processing unit 44 includes a unique information generation unit 44a and a position derivation unit 44b. The unique information generation unit 44a is for generating feature points or relative information included in the image information. The unique information generation unit 44a generates unique information of feature points or relative information based on at least one of a pattern, a color difference, a shape singularity, a contrast difference, and a group of layout configurations of an imaging range. The position deriving unit 44b derives the position of the moving object 5 by referring to the database 48a based on the unique information generated by the unique information generating unit 44a from the image information captured by the camera 30. The features of the image may be patterned by edge processing or the like.

出力部46は、情報を送信するための送信部46aや情報を表示させるための表示部46bを含むことができる。   The output unit 46 can include a transmission unit 46a for transmitting information and a display unit 46b for displaying information.

記憶部48は、移動体5の位置と、固有情報の情報とを対応させて構成されたデータベース48aが記憶されている。記憶部48には、位置情報を記憶させておく位置情報記憶部48bを設けてもよい。その位置情報は、時刻又は時間との関係をもたせて記憶させることができる。   The storage unit 48 stores a database 48a configured by associating the position of the mobile unit 5 with the information of the unique information. The storage unit 48 may include a position information storage unit 48b for storing position information. The position information can be stored in relation to time or time.

情報処理装置40は、画像内の固有情報の情報により、データベース48aを参照して対応する位置情報を導出するものである。移動体5の操作する層さスイッチの情報から移動距離も推測し、その移動距離との関係により、画像に基づいて導出した位置の検証を行うことができる。位置情報には、横方向、縦方向、高さ方向の位置情報を含むことができる。   The information processing device 40 derives the corresponding position information by referring to the database 48a based on the information of the unique information in the image. The moving distance is estimated from the information of the layer switch operated by the moving body 5, and the position derived based on the image can be verified based on the relationship with the moving distance. The position information can include position information in a horizontal direction, a vertical direction, and a height direction.

情報処理装置40は移動体5に設けられたカメラ30に設けてもよいし、又は、無線通信若しくは有線通信によりカメラ30と通信可能に設けられていてもよい。   The information processing device 40 may be provided in the camera 30 provided in the moving object 5, or may be provided so as to be able to communicate with the camera 30 by wireless communication or wired communication.

情報処理装置40に対して情報処理を実行させるプログラムは、情報処理装置40に含まれる記憶装置(たとえば、ROM、ハードディスク)などに格納することができる。種々の情報処理は、CPUなどの演算装置により実行することができる。データベース48aは、ハードディスクなどの記憶装置に格納することができる。   A program that causes the information processing device 40 to execute information processing can be stored in a storage device (for example, a ROM or a hard disk) included in the information processing device 40. Various types of information processing can be executed by an arithmetic device such as a CPU. The database 48a can be stored in a storage device such as a hard disk.

情報処理装置40は、通信可能なコンピュータなどの自動計算機や携帯電話などの携帯端末を適用することができる。   As the information processing device 40, an automatic computer such as a communicable computer or a mobile terminal such as a mobile phone can be applied.

情報処理装置40は、コンピュータなどの公知の電子計算機により実現することができる。情報処理装置40は、その機能をカメラ30又は移動体5の制御部に実現させてもよい。   The information processing device 40 can be realized by a known computer such as a computer. The information processing device 40 may cause the camera 30 or the control unit of the moving body 5 to realize the function.

3.固有情報
(1)特徴点
固有情報は、カメラ30が撮像される範囲内に基準体が設けられ、カメラ30が撮像した基準体に基づき生成することができる。たとえば、床面をカメラ30で撮影し、床通路ラインや常設機器などの特徴点を捉えることができる。図6を参照して説明する。スイッチ情報から移動指令と画像のポイント(図中では○)のズレ量から移動距離を算出する。決まった場所にマーカーを設置し、そこを通過時に誤差補正を行う。スイッチ情報からある程度の移動を算出することができる。高さがある物などについては床面より速く移動するため、いくつか決めたポイントで一番速度が遅いポイントを測定ポイントとする。大きな吊り荷が一番上まで吊り上げると、画面の中心付近は測定ポイントが設定できないため、広角レンズでポイントをより多く設定するとよい。特徴的なポイントパターンを記憶し、パターンマップを基に位置を割り出す。
3. Unique Information (1) Feature Points Unique information can be generated based on a reference body provided with a reference body in a range where the camera 30 captures an image. For example, the floor surface can be photographed by the camera 30, and characteristic points such as floor passage lines and permanent equipment can be captured. This will be described with reference to FIG. The movement distance is calculated from the movement information from the switch information and the amount of deviation of the image point (o in the figure). Place a marker in a fixed place and correct the error when passing through it. A certain amount of movement can be calculated from the switch information. Since an object having a height moves faster than the floor surface, a point having the slowest speed among several determined points is set as a measurement point. If a large suspended load is lifted to the top, measurement points cannot be set near the center of the screen, so it is better to set more points with a wide-angle lens. The characteristic point pattern is stored, and the position is determined based on the pattern map.

(2)相対情報
相対情報は、図7に示すような、基準体により位置を把握してもよい。基準体は、移動体5システムのカメラ30の撮影範囲に設けられている。基準体はいわゆる位置計測のためのマーカーとしての機能を含むものである。基準体の例としては、たとえば、次のものがある。
(2) Relative information As for the relative information, the position may be grasped by a reference body as shown in FIG. The reference body is provided in a shooting range of the camera 30 of the mobile body 5 system. The reference body includes a function as a marker for so-called position measurement. Examples of the reference body include the following, for example.

(a)第1の基準体
基準体は、複数の段を有する。複数の段において、各段の上面は、段の一段上の上面と平面的にみて少なくとも一部が重なるように設けられる。各段の上面は、上下の段で色が異なるようにすることができる。各段の上面は、上にいくにしたがって、幅が広くなるようにしてもよいし、幅が狭くなるようにしてもよい。
(A) First Reference Body The reference body has a plurality of steps. In the plurality of stages, the upper surface of each stage is provided so as to at least partially overlap the upper surface of the one stage in plan view. The upper surface of each step can be different in color between the upper and lower steps. The upper surface of each step may be made wider or narrower as going upward.

この場合、データベース48aには、少なくとも所定の各位置から撮影した画像情報から把握される露出した第1の上面の形状および面積および第2の上面の形状および面積と、移動体5の位置情報とが対応させて記憶されている。   In this case, the database 48a includes at least the shape and area of the exposed first upper surface and the shape and area of the second upper surface, which are grasped from the image information captured from each of the predetermined positions, and the position information of the mobile unit 5. Are stored in association with each other.

位置導出部44bは、少なくとも所定の各位置から撮影した画像情報から把握される露出した、第1の面(所定段の上面)の形状および面積、および、第2の面(所定段とは異なる段の上面)の形状および面積に基づき、移動体5の位置を導出することができる。位置導出部44bが所定段目の上面が認識されたかどうかで、ある程度の位置を算出してもよい。   The position deriving unit 44b is configured to expose the shape and area of the first surface (upper surface of the predetermined step) and the second surface (different from the predetermined step), which are grasped from image information captured from at least predetermined positions. The position of the moving body 5 can be derived based on the shape and area of the upper surface of the step). The position deriving unit 44b may calculate a certain position based on whether the upper surface of the predetermined stage is recognized.

第1の基準体50の使用例を図8〜図11を参照して説明する。第1の基準体50として、上の段にいくにしたがって、各段の上面が幅広になっていき、かつ、平面的にみて、下側の段の上面が上側の段の上面にすべてが重なっているもので、各段の上面がそれぞれ色を変えた例を挙げる。   An example of use of the first reference body 50 will be described with reference to FIGS. As the first reference body 50, the upper surface of each stage becomes wider as it goes to the upper stage, and the upper surface of the lower stage entirely overlaps the upper surface of the upper stage as viewed in plan. In this example, the upper surface of each step has a different color.

図8および図11に示すように、カメラ30が立体マーカーの真上の時には、四角錐台が積み重なって上にあるものほど大きく、下にあるものほど小さく見える。図9および図11に示すように、カメラ30が右に移動した時には、1段目、2段目の上面は見えるが3段目以降は見えない。1段目と2段目で色が違いフチが強調されている。カメラ30が横に行くほど下の段が見えてきて色が交互に現れることになる。図10および図11に示すように、さらにカメラ30が右に移動した時には、1段目、2段目、3段目の上面は見えるが4段目以降は見えない。1段目、2段目、3段目で色が交互に現れる。このような例の場合、何段目が見えた時に何mかを予め算出しておき、データベース48aに記憶しておくことで、所定段目がみえたときにどの位置かを導出することができる。   As shown in FIGS. 8 and 11, when the camera 30 is directly above the three-dimensional marker, the truncated pyramids appear larger on the upper side and smaller on the lower side. As shown in FIGS. 9 and 11, when the camera 30 moves to the right, the upper surfaces of the first and second stages are visible, but the third and subsequent stages are not visible. The color is different between the first stage and the second stage, and the border is emphasized. As the camera 30 moves sideways, the lower stage becomes visible and the colors appear alternately. As shown in FIGS. 10 and 11, when the camera 30 further moves to the right, the top surfaces of the first, second, and third stages can be seen, but the fourth and subsequent stages cannot be seen. Colors appear alternately in the first, second, and third stages. In the case of such an example, the number m is calculated in advance when the level is seen, and stored in the database 48a, so that it is possible to derive the position when the predetermined level is seen. it can.

第1の基準体50は、他の立体的形状であることができる。図12〜図15に示すように、他の立体的形状においても、立体的形状のカメラ30により撮影された面の形状、面積の関係を考慮することで、位置を把握することができる。具体的には、カメラ30が立方体など立体的形状を把握できる面及び把握した面の面積と、位置との対応関係をデータベース48aに記憶しておくことにより、立体的形状の画像情報に基づき、位置を算出することができる。   The first reference body 50 can have another three-dimensional shape. As shown in FIGS. 12 to 15, in other three-dimensional shapes, the position can be grasped by considering the relationship between the shape and area of the surface captured by the camera 30 having the three-dimensional shape. Specifically, by storing in the database 48a the correspondence between the surface where the camera 30 can grasp the three-dimensional shape such as a cube and the area of the grasped surface and the position in the database 48a, based on the image information of the three-dimensional shape, The position can be calculated.

カメラ30で把握した画像情報中の立体的形状の各面の面積比により、移動体5とその立体的形状とを結んだ線と、X軸又はY軸とのなす角(カメラ角度)も導出することができる。   The angle (camera angle) between the line connecting the moving object 5 and the three-dimensional shape and the X-axis or the Y-axis is also derived from the area ratio of each surface of the three-dimensional shape in the image information grasped by the camera 30. can do.

第1の基準体50に、以下の第2の基準体52および第3の基準体54を組み合わせてもよい。   The first reference member 50 may be combined with a second reference member 52 and a third reference member 54 described below.

(b)第2の基準体
第2の基準体52は、識別コード(たとえばQRコード(登録商標))であることができる。データベース48aには、画像情報中における識別コードの位置および識別コードの情報と、移動体5との位置とが対応させて記憶することができる。これにより、導出部は、画像情報中における識別コードの位置と、識別コードの情報とに基づき、移動体5の位置を導出することができる。
(B) Second Reference Body The second reference body 52 may be an identification code (for example, a QR code (registered trademark)). The position of the identification code in the image information, the information of the identification code, and the position of the moving object 5 can be stored in the database 48a in association with each other. Thus, the deriving unit can derive the position of the moving body 5 based on the position of the identification code in the image information and the information of the identification code.

(c)第3の基準体
第3の基準体54としては、発光体により実現してもよい。発光体は、たとえばLED、有機ELなどの可視光の発光体、赤外線発光体などにより構成される表示装置により実現してもよい。
(C) Third Reference Body The third reference body 54 may be realized by a light-emitting body. The light emitter may be realized by a display device including a visible light emitter such as an LED and an organic EL, an infrared light emitter, and the like.

以上の基準体50,52,54は、単独であっても、組み合わせであってもよい。また、移動体5の移動する所定領域又は所定空間の地上に、複数設けてもよい。相対情報を算出するための基準体50,52,54と、上記の特徴点との情報とを組み合わせてもよい。   The above-mentioned reference bodies 50, 52, 54 may be used alone or in combination. Further, a plurality of mobile units 5 may be provided on the ground in a predetermined area or a predetermined space where the mobile unit 5 moves. Reference bodies 50, 52, and 54 for calculating relative information and the information on the above-mentioned feature points may be combined.

図16および図17に示すように、第1の基準体50は、複数の段の少なくともいずれかの段の上面において、周囲の縁が、当該周囲の縁の内側の部分に比べて認識されやすくすることができる。具体的には、第1の基準体50は、複数の段の少なくともいずれかの段の上面において、周囲の縁が、当該周囲の縁の内側の部分と色が異なるか、又は、コントラスト差を設けることができる。第2の基準体52も同様に、所定の面の周囲の縁が、当該周囲の縁の内側の部分に比べて認識されやすくすることができる。   As shown in FIGS. 16 and 17, the first reference body 50 is more easily recognized on the upper surface of at least one of the plurality of steps, as the peripheral edge is recognized as compared to the portion inside the peripheral edge. can do. Specifically, on the upper surface of at least one of the plurality of steps, the first reference body 50 has a different color or a different contrast between the peripheral edge and a portion inside the peripheral edge. Can be provided. Similarly, the second reference body 52 can be more easily recognized at the periphery of the predetermined surface than at the portion inside the periphery.

4.作用効果
本実施の形態によれば、2次元又は3次元での位置計測が容易である。また、カメラ30に基づいた位置計測であるため、安価かつ容易に実現することができ、レーザに比べて設置時の作業も容易となる。つまり、安価なカメラ30を使用し映像から位置を算出するため、移動体5の1箇所にカメラ30を取り付けるだけで済み、レーザー測定器のような複数箇所に機器を設置する必要が無い。具体的には、レーザー測定器をX軸とY軸それぞれ別の場所に設置して、壁との距離を測定する場合には、X軸とY軸にそれぞれレーザ測定器の取付けが必要であり取付け工事に時間と費用がかかるが、本実施の形態によれば、そのような時間や費用がかからない。
4. Effects According to the present embodiment, two-dimensional or three-dimensional position measurement is easy. In addition, since the position measurement is based on the camera 30, the position measurement can be performed easily at low cost, and the work at the time of installation is easier than with a laser. That is, since the position is calculated from the image using the inexpensive camera 30, it is only necessary to attach the camera 30 to one place of the moving body 5, and it is not necessary to install equipment at a plurality of places such as a laser measuring instrument. Specifically, when measuring the distance from the wall by installing the laser measuring instruments at different locations on the X and Y axes respectively, it is necessary to attach the laser measuring instruments on the X and Y axes respectively. Although installation work takes time and cost, according to the present embodiment, such time and cost are not required.

5.移動体システムの具体例
本実施の形態に係るカメラ30を含む移動体システム100は、天井クレーンに適用されるのが好適である。天井クレーンの構成について説明する。なお、カメラ30は図示せず、カメラ30が適用される天井クレーンの構成について説明する。
5. Specific Example of Mobile System The mobile system 100 including the camera 30 according to the present embodiment is preferably applied to an overhead crane. The configuration of the overhead crane will be described. The camera 30 is not shown, and the configuration of the overhead crane to which the camera 30 is applied will be described.

図18は天井クレーンの全体構成を示す斜視図である。図19は本発明の実施の形態にかかる三次元移動装置としての天井クレーンの昇降機としての巻上機の構造を示す図である。図20は天井クレーンにおける制御機構を示すブロック図である。
図18に示されるように、三次元移動装置としての天井クレーン1は、建物の天井近傍に平行に敷設された走行レール2A,2Bを車輪を介して走行する1対のサドル3A,3B間に、昇降機としての巻上機5を横行可能に備えたクレーンガーダ4を横架して、昇降機としての巻上機5により巻き上げられる支持ワイヤロープ6の先端に移動体としてのフック7を固定して構成されている。
このように、天井クレーン1は、走行レール2A,2Bに対してほぼ垂直にクレーンガーダ4を横架して、このクレーンガーダ4上を先端にフック7を有する巻上機5が移動するように構成されているので、移動体としてのフック7を上下方向に移動させるZ軸モータ、及び水平面内で移動させるX軸モータ及びY軸モータとを具備する移動機構を中心とした三次元移動装置として適している。
FIG. 18 is a perspective view showing the overall configuration of the overhead crane. FIG. 19 is a diagram showing a structure of a hoist as an elevator of an overhead crane as a three-dimensional moving device according to an embodiment of the present invention. FIG. 20 is a block diagram showing a control mechanism in the overhead crane.
As shown in FIG. 18, an overhead crane 1 as a three-dimensional moving device includes a pair of saddles 3A and 3B that travel via wheels on traveling rails 2A and 2B laid in parallel near the ceiling of a building. A crane girder 4 provided with a hoisting machine 5 as an elevator can be traversed, and a hook 7 as a moving body is fixed to the tip of a support wire rope 6 wound by the hoisting machine 5 as an elevator. It is configured.
As described above, the overhead crane 1 traverses the crane girder 4 substantially perpendicularly to the traveling rails 2A and 2B, and the hoisting machine 5 having the hook 7 at the tip moves on the crane girder 4. As a three-dimensional moving device centered on a moving mechanism including a Z-axis motor for moving the hook 7 as a moving body in a vertical direction, and an X-axis motor and a Y-axis motor for moving in a horizontal plane. Are suitable.

巻上機5からは、通信ケーブル8が床面近傍まで垂下しており、リモコン筐体10に接続されている。   From the hoisting machine 5, a communication cable 8 hangs down to near the floor and is connected to a remote control housing 10.

さらに、図18に示されるように、巻上機5はクレーンガーダ4を挟んで設けられた1対の車輪14を有しており、これらの車輪14が横行用モータ(Y軸モータ)13で駆動されて回転することによって、巻上機5がクレーンガーダ4に沿って横行する。これらの横行ユニットには支持部材15によって巻上機本体17が吊り下げ支持されており、巻上機本体17には支持ワイヤロープ6を巻き上げ、又は伸ばすための巻上用モータ(Z軸モータ)16が取付けられている。   Further, as shown in FIG. 18, the hoisting machine 5 has a pair of wheels 14 provided with the crane girder 4 interposed therebetween, and these wheels 14 are driven by a traversing motor (Y-axis motor) 13. When driven and rotated, the hoist 5 traverses along the crane girder 4. A hoisting machine main body 17 is suspended and supported by a supporting member 15 in these traversing units. A hoisting motor (Z-axis motor) for winding up or extending the supporting wire rope 6 is mounted on the hoisting machine main body 17. 16 are attached.

そして、図18に示されるクレーンガーダ4を両端で支持して走行レール2A,2Bの上を走行するサドル3A,3Bには、それぞれ図示しない走行用車輪と走行用モータ(X軸モータ)が設けられている。また、図19に示される巻上機本体17には、これらのX軸モータ、Y軸モータ13、Z軸モータ16を、操作用リモコン9の操作に応じて駆動させるためのモータ駆動制御回路が内蔵されている。
巻上機本体17に内蔵されているモータ駆動制御回路18は、マイクロコンピュータ(以下、「マイコン」ともいう。)20、インバータ(又はコンタクタ)21によって構成されている。
A traveling wheel and a traveling motor (X-axis motor) (not shown) are provided on saddles 3A and 3B traveling on traveling rails 2A and 2B while supporting the crane girder 4 at both ends shown in FIG. Has been. Further, a motor drive control circuit for driving the X-axis motor, the Y-axis motor 13 and the Z-axis motor 16 in accordance with the operation of the operation remote controller 9 is provided in the hoisting machine main body 17 shown in FIG. Built-in.
The motor drive control circuit 18 incorporated in the hoisting machine main body 17 includes a microcomputer (hereinafter, also referred to as “microcomputer”) 20 and an inverter (or contactor) 21.

ここで、マイコン20は、CPU(中央処理装置)、ROM、RAM等のメモリ装置、入出力(I/O)装置を具備しており、リモコン筐体10から通信ケーブル8内の通信線を通じて送信される電気信号を受信して必要な演算処理を行い、その処理結果を電気信号としてインバータ(又はコンタクタ)21に出力する。マイコン20は、所謂ワンチップマイコンでも良いし、複数のチップ又は素子・部品から構成されるものでも良い。
操作リモコン9の操作スイッチ11が押された場合には、所定の電気信号が通信ケーブル8内の通信線を通じてマイコン20に送信され、マイコン20はインバータ(又はコンタクタ)21に制御信号を送信して、インバータ(又はコンタクタ)21は制御信号にしたがってX軸モータ23及び/又はY軸モータ13に駆動電流を供給し、X軸モータ23及び/又はY軸モータ13を駆動させて、移動体としてのフック7をリモコン筐体10が向いている方向に移動させる。
The microcomputer 20 includes a CPU (Central Processing Unit), a memory device such as a ROM and a RAM, and an input / output (I / O) device, and transmits data from the remote control housing 10 through a communication line in a communication cable 8. The received electric signal is subjected to necessary arithmetic processing, and the processing result is output to the inverter (or contactor) 21 as an electric signal. The microcomputer 20 may be a so-called one-chip microcomputer, or may be composed of a plurality of chips or elements and components.
When the operation switch 11 of the operation remote controller 9 is pressed, a predetermined electric signal is transmitted to the microcomputer 20 through a communication line in the communication cable 8, and the microcomputer 20 transmits a control signal to the inverter (or contactor) 21. The inverter (or contactor) 21 supplies a driving current to the X-axis motor 23 and / or the Y-axis motor 13 in accordance with the control signal, and drives the X-axis motor 23 and / or the Y-axis motor 13 to The hook 7 is moved in the direction in which the remote control housing 10 faces.

インバータ21およびマイコン20を含むモータ駆動制御回路18は、X軸モータ23及び/又はY軸モータ13の駆動制御を行い、コンタクタ22が、Z軸モータ16の駆動を制御する。したがって、モータ駆動制御回路18とコンタクタ22とを含んで駆動制御装置61が構成されており、この駆動制御装置61と操作用リモコン9とは、図1の通信ケーブル8を含んで移動操作システムを構成している。また、X軸モータ23とY軸モータ18とZ軸モータ16とは移動機構62に相当する。
なお、操作用リモコン9に設けられている上下スイッチとしての上昇スイッチ11A及び下降スイッチ11Bが押された場合には、所定の電気信号が通信ケーブル8内の通信線を通じて、モータ駆動制御回路18と同じく巻上機本体17に内蔵されているコンタクタ22に伝達され、コンタクタ22からZ軸モータ16に駆動電流が供給されて、上昇スイッチ11Aが押された場合にはZ軸モータ16が支持ケーブル6を巻き上げてフック7を上昇させるように作動し、下降スイッチ11Bが押された場合にはZ軸モータ16が支持ケーブル6を伸ばしてフック7を下降させるように作動する。
したがって、天井クレーン1を操作する操作者は、まず操作用リモコン9の下降スイッチ11Bを押してZ軸モータ16を作動させてフック7を下降させ、床面に置かれている搬送物にフック7を掛け、上昇スイッチ11Aを押してZ軸モータ16を作動させ、支持ワイヤロープ6を巻き上げて搬送物を水平方向の移動に支障のない高さまで吊り上げる。続いて、操作リモコン9の操作スイッチ11により、所望の方向へ搬送物を平行移動させることができる。
The motor drive control circuit 18 including the inverter 21 and the microcomputer 20 controls the drive of the X-axis motor 23 and / or the Y-axis motor 13, and the contactor 22 controls the drive of the Z-axis motor 16. Accordingly, a drive control device 61 is configured to include the motor drive control circuit 18 and the contactor 22, and the drive control device 61 and the operation remote controller 9 constitute a mobile operation system including the communication cable 8 of FIG. Make up. The X-axis motor 23, the Y-axis motor 18, and the Z-axis motor 16 correspond to a moving mechanism 62.
When the up switch 11A and the down switch 11B as up and down switches provided on the operation remote controller 9 are pressed, a predetermined electric signal is transmitted to the motor drive control circuit 18 through the communication line in the communication cable 8. The drive current is also transmitted to a contactor 22 built in the hoisting machine main body 17, and a drive current is supplied from the contactor 22 to the Z-axis motor 16. When the ascent switch 11 A is pressed, the Z-axis motor 16 is connected to the support cable 6. Is wound up to raise the hook 7, and when the down switch 11B is pressed, the Z-axis motor 16 operates to extend the support cable 6 and lower the hook 7.
Therefore, the operator who operates the overhead crane 1 first presses the lowering switch 11B of the operation remote controller 9 to operate the Z-axis motor 16 to lower the hook 7, so that the hook 7 is attached to the conveyed object placed on the floor. Then, the lifting switch 11A is pressed to activate the Z-axis motor 16, and the support wire rope 6 is wound up to lift the conveyed product to a height that does not hinder horizontal movement. Subsequently, the transported object can be translated in a desired direction by the operation switch 11 of the operation remote controller 9.

上記の実施の形態は、本発明の範囲内において、種々の変更が可能である。   The above-described embodiment can be variously modified within the scope of the present invention.

本発明は、移動体に荷物を吊り下げて搬送する搬送システムなどに好ましく適用することができる。   INDUSTRIAL APPLICABILITY The present invention can be preferably applied to, for example, a transport system that transports a load by hanging it on a moving body.

5 移動体
30 カメラ
40 情報処理装置
42 入力部
42a 画像情報入力部
44 処理部
44a 固有情報生成部
44b 位置導出部
46 出力部
46a 送信部
46b 表示部
48 記憶部
48a データベース
48b 位置情報記憶部
50 第1の基準体
52 第2の基準体
54 第3の基準体
100 移動体システム
5 Moving body 30 Camera 40 Information processing device 42 Input unit 42a Image information input unit 44 Processing unit 44a Unique information generation unit 44b Position derivation unit 46 Output unit 46a Transmission unit 46b Display unit 48 Storage unit 48a Database 48b Position information storage unit 50 1st reference body 52 2nd reference body 54 3rd reference body 100 Mobile system

Claims (9)

所定領域又は所定空間を移動する移動体の位置を算出するための情報処理装置であって、
前記移動体に設けられた1つ又は複数のカメラが撮像した画像情報を入力する入力部と、
前記画像情報に含まれる特徴点又は相対情報の固有情報を生成するための固有情報生成部と、
前記移動体の位置と、前記固有情報とを対応させて構成されたデータベースを記憶した記憶部と、
前記カメラが撮像した画像情報から固有情報生成部が生成した固有情報に基づき、前記データベースを参照して、前記移動体の位置を導出する導出部とを含み、
前記カメラが撮像される範囲内に基準体が設けられ、
前記固有情報は、前記カメラが撮像した基準体に基づき生成され、
前記基準体は、立体的形状を有し、
前記立体的形状は、複数の段を有し、
前記複数の段において、各段の上面は、当該段の一段上の上面と平面的にみて少なくとも一部が重なり、
前記データベースには、少なくとも所定の各位置から撮影した画像情報から把握される露出した、所定段の上面の形状および面積、および、前記所定段とは異なる段の上面の形状および面積と、前記移動体の位置情報とを対応させて記憶され、
前記導出部は、前記少なくとも所定の各位置から撮影した画像情報から把握される露出した所定段の上面の形状および面積、および、前記所定段とは異なる段の上面の形状および面積に基づき、前記移動体の位置を導出する情報処理装置。
An information processing apparatus for calculating a position of a moving object that moves in a predetermined area or a predetermined space,
An input unit for inputting image information captured by one or more cameras provided on the moving body,
A unique information generation unit for generating unique information of feature points or relative information included in the image information,
A storage unit that stores a database configured by associating the position of the moving object with the unique information,
Based on the unique information in which the camera is generated by the specific information generating unit from the image information captured by referring to the database, look including a deriving unit that derives the position of the movable body,
A reference body is provided within a range where the camera captures an image,
The unique information is generated based on a reference body imaged by the camera,
The reference body has a three-dimensional shape,
The three-dimensional shape has a plurality of steps,
In the plurality of stages, the upper surface of each stage at least partially overlaps with the upper surface of the next stage in a plan view,
In the database, at least the shape and area of the upper surface of a predetermined step exposed and grasped from image information taken from each predetermined position, and the shape and area of the upper surface of a step different from the predetermined step, It is stored in association with body position information,
The deriving unit, based on the shape and area of the upper surface of the exposed predetermined step grasped from the image information captured from at least each of the predetermined positions, and the shape and area of the upper surface of a step different from the predetermined step, An information processing device that derives the position of a moving object .
請求項1において、
前記各段の上面は、上下の段で色が異なる情報処理装置。
In claim 1,
An information processing apparatus in which the upper surface of each stage has a different color in upper and lower stages.
請求項1または2において、
前記各段の上面は、上にいくにしたがって、幅が広くなる情報処理装置。
In claim 1 or 2,
An information processing device, wherein the upper surface of each of the steps becomes wider as going upward.
請求項1〜のいずれかにおいて、
前記固有情報生成部は、模様、色の違い、形状の特異点、および、撮影範囲のレイアウト構成の群からなる少なくとも1種に基づき特徴点を生成する情報処理装置。
In any one of claims 1 to 3 ,
The information processing apparatus, wherein the unique information generation unit generates a feature point based on at least one of a pattern, a color difference, a shape singularity, and a layout configuration group of a shooting range.
請求項1〜のいずれかに記載の情報処理装置を含むカメラ。 Camera including an information processing apparatus according to any one of claims 1-4. 物が係留される、又は、取り付けられる移動体であって、
前記物は、前記移動体が移動することによって、移動され、
前記移動体の位置を認識するためのカメラが設けられ、
請求項1〜のいずれかに記載の情報処理装置を含む移動体。
A moving object to which an object is moored or attached,
The object is moved by the movement of the moving body,
A camera for recognizing the position of the moving body is provided,
Mobile including an information processing apparatus according to any one of claims 1-5.
請求項に記載の情報処理装置を含む移動体システム。 A mobile system including the information processing device according to claim 6 . 所定領域又は所定空間を移動する移動体の位置を算出するための情報処理方法であって、
入力部が、前記移動体に設けられた1つ又は複数のカメラが撮像した画像情報を入力するステップと、
固有情報生成部が、前記画像情報に含まれる特徴点又は相対情報の固有情報を生成するためのステップと、
導出部が、前記カメラが撮像した画像情報から固有情報生成部が生成した固有情報に基づき、記憶部に記憶された前記移動体の位置と、前記固有情報とを対応させて構成されたデータベースを参照して、前記移動体の位置を導出するステップとを含み、
前記カメラが撮像される範囲内に基準体が設けられ、
前記固有情報は、前記カメラが撮像した基準体に基づき生成され、
前記基準体は、立体的形状を有し、
前記立体的形状は、複数の段を有し、
前記複数の段において、各段の上面は、当該段の一段上の上面と平面的にみて少なくとも一部が重なり、
前記データベースには、少なくとも所定の各位置から撮影した画像情報から把握される露出した、所定段の上面の形状および面積、および、前記所定段とは異なる段の上面の形状および面積と、前記移動体の位置情報とを対応させて記憶され、
前記導出部は、前記少なくとも所定の各位置から撮影した画像情報から把握される露出した所定段の上面の形状および面積、および、前記所定段とは異なる段の上面の形状および面積に基づき、前記移動体の位置を導出する情報処理方法。
An information processing method for calculating a position of a moving object that moves in a predetermined area or a predetermined space,
An input unit for inputting image information captured by one or a plurality of cameras provided on the moving body;
A step of generating a unique information of a characteristic point or relative information included in the image information,
The deriving unit, based on the unique information generated by the unique information generating unit from the image information captured by the camera, based on the position of the moving object stored in the storage unit, the database configured to correspond to the unique information Deriving the position of the moving object with reference to
A reference body is provided within a range where the camera captures an image,
The unique information is generated based on a reference body imaged by the camera,
The reference body has a three-dimensional shape,
The three-dimensional shape has a plurality of steps,
In the plurality of stages, the upper surface of each stage at least partially overlaps with the upper surface of the next stage in a plan view,
In the database, at least the shape and area of the upper surface of a predetermined step exposed and grasped from image information taken from each predetermined position, and the shape and area of the upper surface of a step different from the predetermined step, It is stored in association with body position information,
The deriving unit, based on the shape and area of the upper surface of the exposed predetermined step grasped from the image information captured from at least each of the predetermined positions, and the shape and area of the upper surface of a step different from the predetermined step, An information processing method for deriving the position of a moving object .
コンピュータに、
所定領域又は所定空間を移動する移動体の位置を算出するための情報処理方法を実行させるためのプログラムであって、
入力部が、前記移動体に設けられた1つ又は複数のカメラが撮像した画像情報を入力するステップと、
固有情報生成部が、前記画像情報に含まれる特徴点又は相対情報の固有情報を生成するためのステップと、
導出部が、前記カメラが撮像した画像情報から固有情報生成部が生成した固有情報に基づき、記憶部に記憶された前記移動体の位置と、前記固有情報とを対応させて構成されたデータベースを参照して、前記移動体の位置を導出するステップとを実行させるためのプログラムであり、
前記カメラが撮像される範囲内に基準体が設けられ、
前記固有情報は、前記カメラが撮像した基準体に基づき生成され、
前記基準体は、立体的形状を有し、
前記立体的形状は、複数の段を有し、
前記複数の段において、各段の上面は、当該段の一段上の上面と平面的にみて少なくとも一部が重なり、
前記データベースには、少なくとも所定の各位置から撮影した画像情報から把握される露出した、所定段の上面の形状および面積、および、前記所定段とは異なる段の上面の形状および面積と、前記移動体の位置情報とを対応させて記憶され、
前記導出部は、前記少なくとも所定の各位置から撮影した画像情報から把握される露出した所定段の上面の形状および面積、および、前記所定段とは異なる段の上面の形状および面積に基づき、前記移動体の位置を導出するプログラム。
On the computer,
A program for executing an information processing method for calculating a position of a moving object moving in a predetermined area or a predetermined space,
An input unit for inputting image information captured by one or a plurality of cameras provided on the moving body;
A step of generating a unique information of a characteristic point or relative information included in the image information,
The deriving unit, based on the unique information generated by the unique information generating unit from the image information captured by the camera, based on the position of the moving object stored in the storage unit, the database configured to correspond to the unique information And deriving a position of the moving body with reference to a program .
A reference body is provided within a range where the camera captures an image,
The unique information is generated based on a reference body imaged by the camera,
The reference body has a three-dimensional shape,
The three-dimensional shape has a plurality of steps,
In the plurality of stages, the upper surface of each stage at least partially overlaps with the upper surface of the next stage in a plan view,
In the database, at least the shape and area of the upper surface of a predetermined step exposed and grasped from image information taken from each predetermined position, and the shape and area of the upper surface of a step different from the predetermined step, It is stored in association with body position information,
The deriving unit, based on the shape and area of the upper surface of the exposed predetermined step grasped from the image information captured from at least each of the predetermined positions, and the shape and area of the upper surface of a step different from the predetermined step, A program that derives the position of a moving object.
JP2016181061A 2016-09-15 2016-09-15 Information processing apparatus, camera, moving object, moving object system, information processing method and program Active JP6630881B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016181061A JP6630881B2 (en) 2016-09-15 2016-09-15 Information processing apparatus, camera, moving object, moving object system, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016181061A JP6630881B2 (en) 2016-09-15 2016-09-15 Information processing apparatus, camera, moving object, moving object system, information processing method and program

Publications (2)

Publication Number Publication Date
JP2018044897A JP2018044897A (en) 2018-03-22
JP6630881B2 true JP6630881B2 (en) 2020-01-15

Family

ID=61694625

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016181061A Active JP6630881B2 (en) 2016-09-15 2016-09-15 Information processing apparatus, camera, moving object, moving object system, information processing method and program

Country Status (1)

Country Link
JP (1) JP6630881B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022075340A1 (en) 2020-10-09 2022-04-14 株式会社五合 Information processing device for crane

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7386531B2 (en) 2020-05-29 2023-11-27 国立研究開発法人産業技術総合研究所 Markers, devices and systems for measuring the position and orientation of objects
TWI768630B (en) * 2020-12-29 2022-06-21 財團法人工業技術研究院 Movable photographing system and photography composition control method

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0781825B2 (en) * 1989-04-06 1995-09-06 日本電気株式会社 Positioning mark
JPH04370706A (en) * 1991-06-19 1992-12-24 Mitsubishi Electric Corp Visual sensor
US5359542A (en) * 1991-12-20 1994-10-25 The Boeing Company Variable parameter collision avoidance system for aircraft work platforms
JP4590780B2 (en) * 2001-05-25 2010-12-01 コニカミノルタホールディングス株式会社 Camera calibration three-dimensional chart, camera calibration parameter acquisition method, camera calibration information processing apparatus, and program
US8885884B2 (en) * 2011-09-19 2014-11-11 Siemens Corporation Motion analysis through geometry correction and warping
US10401144B2 (en) * 2011-12-06 2019-09-03 Hexagon Technology Center Gmbh Coordinate measuring machine having a camera
JP6097063B2 (en) * 2012-11-29 2017-03-15 株式会社タダノ Height measuring device and height measuring method
JP2015075429A (en) * 2013-10-10 2015-04-20 国立大学法人 筑波大学 Marker, evaluation method of marker, information processing apparatus, information processing method, and program
JP6242699B2 (en) * 2014-01-24 2017-12-06 清水建設株式会社 Mobile object position detection system and method
JP2015225014A (en) * 2014-05-29 2015-12-14 日本電信電話株式会社 Position estimation device, position estimation method, and program
JP6426968B2 (en) * 2014-10-08 2018-11-21 キヤノン株式会社 INFORMATION PROCESSING APPARATUS AND METHOD THEREOF

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022075340A1 (en) 2020-10-09 2022-04-14 株式会社五合 Information processing device for crane

Also Published As

Publication number Publication date
JP2018044897A (en) 2018-03-22

Similar Documents

Publication Publication Date Title
CN109074536B (en) Method and device for planning and/or controlling and/or simulating the operation of a construction machine
CN108025896B (en) Control of a lifting device
JP6630881B2 (en) Information processing apparatus, camera, moving object, moving object system, information processing method and program
JP6805781B2 (en) crane
CN107922172B (en) Control of a lifting device
WO2015145725A1 (en) Information presentation device, crane system, and information presentation method
JP2011079648A (en) Stationary image display system
KR20190078984A (en) Monitoring system for preventing lift objects collision against crane
JP2018095375A (en) Crane
CN105792995A (en) Robot arm and crane joint work system
CN111928782A (en) Method for estimating upper surface of object to be measured, guidance information display device, and crane
US20220063965A1 (en) Crane
US20220356048A1 (en) Crane information display system
JP6547106B2 (en) Reference body
KR20140075281A (en) Position control system for crane
WO2020184168A1 (en) Communication system for unmanned conveyance vehicle
KR102087602B1 (en) Controlling method for a cable robot
JP2010254417A (en) Direction display device, system and method for operating moving body
JP5924786B2 (en) Driving robot guidance method and guidance device
JP7351231B2 (en) Hanging load monitoring device, crane, hanging load monitoring method and program
JP2021151920A (en) Crane work management system and management unit
TWI554463B (en) Adaptive fuzzy slide image tracking control device for 3d trolley system
JP2005145632A (en) Working apparatus operating device, working apparatus operating system, and working apparatus operating method
JP2021080063A (en) Movement operation method of ceiling crane apparatus, moving direction display device, and movement operation system
JP2019199748A (en) Transportation method of construction material, transportation assisting device and transportation system of construction material

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190401

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190919

R150 Certificate of patent or registration of utility model

Ref document number: 6630881

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250