JP2006023831A - Mobile object detection method and system - Google Patents

Mobile object detection method and system Download PDF

Info

Publication number
JP2006023831A
JP2006023831A JP2004199397A JP2004199397A JP2006023831A JP 2006023831 A JP2006023831 A JP 2006023831A JP 2004199397 A JP2004199397 A JP 2004199397A JP 2004199397 A JP2004199397 A JP 2004199397A JP 2006023831 A JP2006023831 A JP 2006023831A
Authority
JP
Japan
Prior art keywords
marker
moving body
image
coordinate
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004199397A
Other languages
Japanese (ja)
Inventor
Shuichi Yoshino
修一 吉野
Masafumi Shimizu
雅史 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004199397A priority Critical patent/JP2006023831A/en
Publication of JP2006023831A publication Critical patent/JP2006023831A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a mobile object detection method and system capable of detecting positions irrespective of the shape of a ceiling on which markers are positioned, while reducing the cost of installing the markers on the ceiling. <P>SOLUTION: The method for detecting the position of a mobile object is for detecting the position of the mobile object by means of the mobile object detection system comprising an imaging means mounted on the mobile object for taking images and outputting digital image data, an image processing means for processing the image data, and the markers installed above the mobile object to indicate their respective coordinate positions using colors and shapes to indicate the absolute coordinates of the position where each of the markers is installed. The method includes an imaging process in which an imaging part images one or more of the markers in one image; a coordinate detection process in which the image processing means detects the absolute coordinates of each marker through image processing by which the colors and shapes of the markers imaged are detected and recognized; and an imaging point detection process in which the image processing means calculates the relative coordinates between the center of the image taken and the markers and detects the position of an imaging point based on the relationship between the absolute coordinates detected and the relative coordinates. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、建物の内部等において、床を移動する移動体の位置を検出する移動体検出方法及びシステムに関する。   The present invention relates to a moving body detection method and system for detecting the position of a moving body that moves on a floor in a building or the like.

従来、工場や倉庫の屋内において、無人にて移動する移動体の走行を制御するため、移動体の位置を画像により検出し、その移動方向を制御する方法が種々行われている。
また、画像による位置の特定を行う際、位置を検出するマーカ以外の障害物が少ない方が、位置検出のための画像処理の演算が容易となるため、天井に座標を示すマーカ等を設置し、画像認識による移動体位置検出の方法が用いられている。
2. Description of the Related Art Conventionally, in order to control traveling of a moving body that moves unattended in a factory or warehouse, various methods for detecting the position of the moving body from an image and controlling the moving direction have been performed.
In addition, when specifying the position by image, it is easier to calculate image processing for position detection when there are fewer obstacles other than the position detection marker. A moving body position detection method based on image recognition is used.

例えば、特許文献1に記載の走行状態認識装置においては、天井画像によって位置の検出する際、移動体に天井に向けたカメラを搭載し、移動体の通路となる天井の目地や配設されている配管等から、移動体が進行すべき方向の直線成分を検出し、この直線成分から移動体の進行方向と通路横幅方向の位置とを認識している。
そして、この走行状態認識装置は、天井に設置したマークを検出して、現在地を認識することにより、移動体の自立走行を行っている。
また、特許文献2に記載の絶対位置取得方法においては、無人走行車である移動体に赤外線カメラが搭載されており、この赤外線カメラが天井に設置された赤外線LEDの組合わせによる絶対位置表示を認識し、無人走行車の絶対位置の取得を行っている。
特願平8−352610号公報 特願平4−238921号公報
For example, in the traveling state recognition device described in Patent Document 1, when a position is detected from a ceiling image, a camera facing the ceiling is mounted on the moving body, and a ceiling joint or a passage serving as the moving body is disposed. A straight line component in the direction in which the moving body should travel is detected from the piping or the like, and the traveling direction of the moving body and the position in the lateral direction of the passage are recognized from this linear component.
And this driving | running | working state recognition apparatus is carrying out the independent driving | running | working of a mobile body by detecting the mark installed in the ceiling and recognizing the present location.
Moreover, in the absolute position acquisition method described in Patent Document 2, an infrared camera is mounted on a moving body that is an unmanned traveling vehicle, and the infrared camera displays an absolute position by a combination of infrared LEDs installed on the ceiling. It recognizes and acquires the absolute position of unmanned vehicles.
Japanese Patent Application No. 8-352610 Japanese Patent Application No. 4-238921

しかしながら、特許文献1記載の方法の場合には、天井に進行方向を指し示すような物体が必要となり、その物体の精度が屋内の形状に左右されるという欠点がある。
また、特許文献2記載の方法の場合には、移動体の絶対位置を表すため、LEDを発光させるための電源を設ける必要があり、結果として、マーカーの設置コストが高くなってしまうという問題がある。
However, in the case of the method described in Patent Document 1, an object that indicates the traveling direction is required on the ceiling, and the accuracy of the object depends on the indoor shape.
In addition, in the case of the method described in Patent Document 2, it is necessary to provide a power source for causing the LED to emit light in order to represent the absolute position of the moving body. As a result, there is a problem that the installation cost of the marker becomes high. is there.

本発明は、このような事情に鑑みてなされたもので、マーカーを配置する天井の形状によらずに位置検出が行え、かつ天井へのマーカーの設置コストが安価な移動体位置検出方法及びシステムの提供を目的としている。   The present invention has been made in view of such circumstances, and can detect a position regardless of the shape of the ceiling on which the marker is placed, and a mobile object position detection method and system with a low cost for installing the marker on the ceiling. The purpose is to provide.

本発明の移動体位置検出方法は、移動体に搭載され、画像を撮影してデジタル化された画像データを出力する撮影手段と、該画像撮影過程において撮影された画像データを画像処理する画像処理手段と、前記移動体の上方に設置され、色及び形状によってそれぞれの座標位置を示すことにより、設置された位置の絶対座標を示すマーカとで構成された移動体検出システムにより、移動体の位置を検出する方法であって、撮影部が1つ以上のマーカを1つの画像で撮影する撮影過程と、前記画像処理手段が、撮影されたマーカの色と形状とを検出及び認識する画像処理により、マーカの絶対座標を検出する座標検出過程と、前記画像処理手段が、撮影された画像上の中心と、マーカとの相対座標を計算し、検出した絶対座標と相対座標との関係から撮影点の位置を検出する撮影点検出過程とを有することを特徴とする。   The moving object position detection method of the present invention includes an image pickup means mounted on a moving object for shooting an image and outputting digitized image data, and image processing for image processing of the image data shot in the image shooting process. The position of the moving body by means of a moving body detection system comprising means and a marker that is installed above the moving body and indicates the absolute coordinates of the installed position by indicating the respective coordinate positions by color and shape And a photographing process in which the photographing unit photographs one or more markers as one image, and the image processing means detects and recognizes the color and shape of the photographed marker. A coordinate detection process for detecting the absolute coordinates of the marker, and the image processing means calculates a relative coordinate between the center of the captured image and the marker, and a relationship between the detected absolute coordinate and the relative coordinate. And having an imaging point detection step of detecting the position of al shooting point.

本発明の移動体位置検出方法は、前記撮影手段が撮影した画像データを無線信号で送信する送信過程と、前記画像データを受信する受信過程とを有することを特徴とする。   The moving body position detecting method of the present invention is characterized in that it includes a transmission process of transmitting image data captured by the imaging unit by a radio signal and a reception process of receiving the image data.

本発明の移動体位置検出システムは、移動体の位置を検出するシステムであって、移動体に搭載され、撮影した画像をデジタル化する撮影部と、該撮影部により撮影した画像データの画像処理を行う画像処理部と、前記移動体の上方に設置され、設置された位置の絶対座標を示すマーカとで構成され、前記マーカは、色と形状とによってそれぞれの座標位置を示し、前記撮影部は、1つ以上のマーカを1つの画像で撮影し、前記画像処理部は、撮影されたマーカの色と形状とを検出及び認識する画像処理によりマーカの位置の絶対座標を検出し、さらに、画像上の中心とマーカの相対座標を計算し、検出した絶対座標と相対座標との関係から撮影点の位置を検出することを特徴とする。   The moving body position detection system of the present invention is a system for detecting the position of a moving body, and is mounted on the moving body, digitizing a captured image, and image processing of image data captured by the capturing section And an image processing unit that is installed above the movable body and a marker that indicates the absolute coordinates of the installed position, and the marker indicates each coordinate position by color and shape, and the imaging unit Captures one or more markers in one image, and the image processing unit detects the absolute coordinates of the marker position by image processing for detecting and recognizing the color and shape of the captured marker, Relative coordinates between the center of the image and the marker are calculated, and the position of the photographing point is detected from the relationship between the detected absolute coordinates and relative coordinates.

本発明の移動体位置検出システムは、前記移動体に搭載され、前記撮影部で撮影した画像データを無線信号により送信する送信部と、前記画像データを受信する受信部とを有する。   The moving body position detection system of the present invention includes a transmission unit that is mounted on the moving body and transmits image data captured by the imaging unit using a radio signal, and a reception unit that receives the image data.

本発明の移動体位置検出システムは、前記マーカが、色と形状とにより座標を示す座標信号部と、色と形状とにより座標系の方向を示す基準信号部とを有するものであることを特徴とする。   The moving body position detection system of the present invention is characterized in that the marker includes a coordinate signal unit that indicates coordinates by color and shape, and a reference signal unit that indicates the direction of the coordinate system by color and shape. And

本発明の移動体位置検出システムは、前記マーカが、印刷物に印刷されたものであることを特徴とする。   The moving body position detection system of the present invention is characterized in that the marker is printed on a printed matter.

本発明の移動体位置検出システムは、前記マーカが、屋内の天井面に設置されることを特徴とする。   The moving body position detection system of the present invention is characterized in that the marker is installed on an indoor ceiling surface.

本発明によれば、色と形状とにより設置された座標を示す図形が印刷されたマーカを利用することにより、マーカを設置する天井の形状の影響を受けずに、移動体の位置検出が可能となり、かつマーカが図形を印刷のみの簡易な構成であり、電源等の駆動エネルギーを供給する必要がないため、設置の自由度が向上するとともに低コストで設置でき、システム全体のコストを低減することが可能となる。   According to the present invention, it is possible to detect the position of a moving body without being affected by the shape of the ceiling on which the marker is installed, by using a marker on which a graphic indicating the coordinates set by color and shape is printed. In addition, the marker has a simple configuration that only prints graphics, and it is not necessary to supply drive energy such as a power supply. Therefore, the degree of freedom of installation can be improved and installation can be performed at low cost, reducing the cost of the entire system. It becomes possible.

図を参照して、本実施形態の構成を説明する。図1は、本実施形態による移動体位置検出システムの構成例を示す概念図である。
本発明の移動体位置検出システムは、移動体1に実装されたカメラ部2及び画像処理部3と、天井4に設置されたマーカ5から構成されている。
カメラ部2は、CCDカメラなどであり、移動体1において、天井の画像を撮影可能な箇所に配置されており、撮影した画像をデジタル化して、画像データとして画像処理部3へ出力する。
The configuration of this embodiment will be described with reference to the drawings. FIG. 1 is a conceptual diagram illustrating a configuration example of a moving object position detection system according to the present embodiment.
The moving body position detection system according to the present invention includes a camera unit 2 and an image processing unit 3 mounted on a moving body 1, and a marker 5 installed on a ceiling 4.
The camera unit 2 is a CCD camera or the like, and is arranged at a location where a ceiling image can be captured in the moving body 1. The captured image is digitized and output to the image processing unit 3 as image data.

マーカ5は、色と形状とを用いて、天井4における配置された位置の絶対座標を示した印刷物である。
また、移動体1のカメラ部2が撮像する撮影範囲Sに、常に、同時に複数のマーカ5が含まれるように、マーカ5は天井4に設置されている。
画像処理部3は、カメラ部2が撮影した、マーカ5が複数撮像された画像データを用い、この画像データからマーカ5の色,形状及び配置状態を検出し、これらの情報に基づいて画像処理を行うことにより、移動体1の存在している位置を検出する。
The marker 5 is a printed matter that indicates the absolute coordinates of the position on the ceiling 4 using color and shape.
In addition, the marker 5 is installed on the ceiling 4 so that the imaging range S captured by the camera unit 2 of the moving body 1 always includes a plurality of markers 5 at the same time.
The image processing unit 3 uses image data obtained by capturing a plurality of markers 5 taken by the camera unit 2, detects the color, shape, and arrangement state of the markers 5 from the image data, and performs image processing based on the information. By performing the above, the position where the moving body 1 exists is detected.

次に、図2において、図1の移動体位置検出システムに、通信手段が含まれている場合のシステム構成例を示す。
図2には、移動体1が移動制御を行う制御装置等の外部にある外部装置6と通信可能な無線通信手段を持つ場合である。
この場合には、画像処理部3は移動体1に搭載される必要が無い。すなわち、カメラ部2は撮影した画像データを、移動体1に実装された無線通信部7へ出力する。
無線通信部7は、入力された画像データを、外部装置6へ向けて送信する。外部装置6に搭載された無線通信部8は、上記画像データを受信し、画像処理部3へ出力する。画像処理部3は入力される画像データを図1の説明で述べたように画像処理し、移動体1の位置の検出を行う。
Next, FIG. 2 shows a system configuration example in the case where the mobile unit position detection system of FIG. 1 includes communication means.
FIG. 2 shows a case where the moving body 1 has wireless communication means capable of communicating with an external device 6 outside such as a control device that performs movement control.
In this case, the image processing unit 3 does not need to be mounted on the moving body 1. That is, the camera unit 2 outputs the captured image data to the wireless communication unit 7 mounted on the moving body 1.
The wireless communication unit 7 transmits the input image data to the external device 6. The wireless communication unit 8 mounted on the external device 6 receives the image data and outputs it to the image processing unit 3. The image processing unit 3 performs image processing on the input image data as described in the description of FIG. 1 and detects the position of the moving body 1.

<第1の実施例>
図を参照して上述した移動体位置検出システムの画像処理部3における位置検出の流れを説明する。図3は、第1の実施例における移動体位置検出の処理の流れを示すフローチャートである。
画像処理部3は、カメラ部2から入力される画像データにおいて、複数写っているマーカ5が特定色で、かつ特定形状を示す場合、画像データからマーカ5の設置されている領域を色と形状とを用いて抽出する(ステップS1)。
この段階において、画像処理部3は、マーカ5各々の画像上の相対座標を認識できる(求めることができる)。
<First embodiment>
A flow of position detection in the image processing unit 3 of the moving body position detection system described above will be described with reference to the drawings. FIG. 3 is a flowchart showing the flow of the process of detecting the moving body position in the first embodiment.
In the image data input from the camera unit 2, the image processing unit 3 determines the color and shape of the area where the marker 5 is installed from the image data when a plurality of markers 5 appear in a specific color and indicate a specific shape. (Step S1).
At this stage, the image processing unit 3 can recognize (determine) the relative coordinates on the image of each marker 5.

次に、画像処理部3は、マーカ5各々が示す座標情報を解読する(ステップS2)。例えば、画像処理部3は、マーカ5がバーコード形状の場合、バーコードの示す位置データを認識する(読みとる)ことにより、この位置データから座標情報を解読できる。
そして、画像処理部3は、座標情報が、絶対座標を示している場合、この段階で、マーカ5の絶対座標を認識できる(ステップS3)。
Next, the image processing unit 3 decodes the coordinate information indicated by each marker 5 (step S2). For example, when the marker 5 has a barcode shape, the image processing unit 3 can decode the coordinate information from the position data by recognizing (reading) the position data indicated by the barcode.
When the coordinate information indicates absolute coordinates, the image processing unit 3 can recognize the absolute coordinates of the marker 5 at this stage (step S3).

次に、画像処理部3は、画像におけるマーカ5の傾きから、絶対座標系に対する撮影画像の傾きを検出する。
例えば、前述のマーカ5の情報部がバーコードの場合、バーコードの長尺方向の傾きを検出することにより、高さ方向(例えばy軸方向)の画像の傾きを検出し、これから横方向(例えば、x軸方向)の傾きを検出することが可能である(ステップS4)。
Next, the image processing unit 3 detects the inclination of the captured image with respect to the absolute coordinate system from the inclination of the marker 5 in the image.
For example, when the information portion of the marker 5 is a barcode, the inclination of the image in the height direction (for example, the y-axis direction) is detected by detecting the inclination in the longitudinal direction of the barcode, and the horizontal direction ( For example, it is possible to detect the inclination in the x-axis direction (step S4).

次に、画像処理部3は、以上の情報から、撮影点の絶対座標(すなわち、移動体1の撮影時の存在位置)を算出する(ステップS5,S6)。
ここで、撮影点の絶対座標を得るための画像処理部3における計算例を以下に示す。
まず、図4に計算で用いる座標系の例を示す。
座標系X−Y−Zは、空間における対象物の絶対座標系を示している。また、座標系x−y−zは、画像を撮影するカメラ部2の撮影する画像データにおける座標系、つまり相対座標系を示している。
Next, the image processing unit 3 calculates the absolute coordinates of the shooting point (that is, the position at which the moving body 1 was shot) from the above information (steps S5 and S6).
Here, a calculation example in the image processing unit 3 for obtaining the absolute coordinates of the photographing point is shown below.
First, FIG. 4 shows an example of a coordinate system used in the calculation.
A coordinate system XYZ indicates the absolute coordinate system of the object in space. A coordinate system xyz represents a coordinate system in image data captured by the camera unit 2 that captures an image, that is, a relative coordinate system.

座標、O(Xo,Yo,Zo)は絶対座標系上のカメラ部2撮影する画像の中心(原点:カメラ部2のレンズの中心)を示しており、P(X,Y,Z)は対象物(移動体1)の絶対座標系上の座標を示している。
画像データ内の対象物の相対座標系の座標をp(x,y,−c)とし、絶対座標系上の座標を(Xp,Yp,Zp)としている。
The coordinates, O (Xo, Yo, Zo) indicate the center of the image captured by the camera unit 2 on the absolute coordinate system (the origin: the center of the lens of the camera unit 2), and P (X, Y, Z) is the target. The coordinates on the absolute coordinate system of the object (moving body 1) are shown.
The coordinates in the relative coordinate system of the object in the image data are p (x, y, −c), and the coordinates on the absolute coordinate system are (Xp, Yp, Zp).

この座標系において、カメラ部2により撮影される画像データは、通常、カメラ部2のレンズの中心である原点(すなわち、O(Xo,Yo,Zo))より後方、つまり、z軸の正の領域に反転して写像されるが、計算をわかりやすくするために、負の領域に反転しないとして設定している。上記座標pにおける「c」は、カメラ部2のレンズの焦点距離を示している。
画像計測の技術においては、レンズの中心(カメラ部2の撮影する画像データの原点、座標O)、対象物の絶対座標上の点(座標P)、画像データの相対座標上の点(座標p)は、一直線上に存在することを示す共線条件式が存在する。これにより、図4の座標系では、次の(1)式が成り立つ。
各上記点間のベクトル成分間の関係は、実数λを用いると以下となる。
In this coordinate system, the image data photographed by the camera unit 2 is usually behind the origin (that is, O (Xo, Yo, Zo)) that is the center of the lens of the camera unit 2, that is, positive on the z axis. Although the image is reversed and mapped to the area, it is set not to be reversed to the negative area for easy understanding of the calculation. “C” in the coordinate p indicates the focal length of the lens of the camera unit 2.
In the image measurement technique, the center of the lens (the origin of the image data captured by the camera unit 2, coordinates O), the point on the absolute coordinate of the object (coordinate P), the point on the relative coordinate of the image data (coordinate p) ) Is a collinear conditional expression indicating that it exists on a straight line. Thus, the following equation (1) is established in the coordinate system of FIG.
The relationship between the vector components between the above points is as follows when the real number λ is used.

Figure 2006023831
Figure 2006023831

上記(1)式と座標変換式とから、以下に示す(2)式が求まる。   From the equation (1) and the coordinate conversion equation, the following equation (2) is obtained.

Figure 2006023831
Figure 2006023831

また、上記(2)式から(Xp,Yp,Zp)を消去すると、以下に示す(3)式が求まる。   Further, when (Xp, Yp, Zp) is deleted from the above equation (2), the following equation (3) is obtained.

Figure 2006023831
Figure 2006023831

上記(3)式における行列「M」は、以下の(4)式に示す構成となっている。   The matrix “M” in the above equation (3) has a configuration shown in the following equation (4).

Figure 2006023831
Figure 2006023831

上記(4)式において、各回転角は、ωがX軸に対するx軸の回転角度を示し、φがY軸に対するy軸の回転角度を示し、κがZ軸に対するz軸の回転角度を示している。
ここで、計算を簡易化するために、撮影対象である天井4の面とカメラ部2の撮影面を平行に設置したとすると、
ω=0、φ=0
となるので、(4)式は以下に示す(5)式の形状となる。
In the above equation (4), ω represents the rotation angle of the x axis with respect to the X axis, φ represents the rotation angle of the y axis with respect to the Y axis, and κ represents the rotation angle of the z axis with respect to the Z axis. ing.
Here, in order to simplify the calculation, if the surface of the ceiling 4 to be imaged and the imaging surface of the camera unit 2 are installed in parallel,
ω = 0, φ = 0
Therefore, the equation (4) has the shape of the following equation (5).

Figure 2006023831
Figure 2006023831

これにより、(3)式における各要素は、以下に示す(6)式で表される。   Thereby, each element in (3) Formula is represented by (6) Formula shown below.

Figure 2006023831
Figure 2006023831

そして、この(6)式の連立方程式を、Xo及びYoについて解くと、(7)式の結果が得られる。   Then, when solving the simultaneous equations of the equation (6) for Xo and Yo, the result of the equation (7) is obtained.

Figure 2006023831
Figure 2006023831

すなわち、λ(マーカの設置位置のZ座標、カメラの焦点距離、カメラの設置位置のZ座標)が既知であれば、カメラ部2の撮影した画像の相対座標系の1点(x,y)と、対象空間の絶対座標系の1点(X,Y)との対応関係が判っている場合、つまり、撮影した画像内にマーカが1つでも撮影された場合、回転角κを求めることにより、対象空間座標系上の撮影点(Xo,Yo)が導出可能である。
また、λが未知の場合であっても、画像内に2つ以上の絶対座標を示すマーカが撮影されれば、それぞれのマーカから導出される式より、最小二乗法等を用いて、Xo,Yo,λを算出することが可能である。
That is, if λ (the Z coordinate of the marker installation position, the focal length of the camera, and the Z coordinate of the camera installation position) is known, one point (x, y) in the relative coordinate system of the image captured by the camera unit 2 And a single point (X, Y) in the absolute coordinate system of the target space, that is, when even one marker is photographed in the photographed image, the rotation angle κ is obtained. The photographing point (Xo, Yo) on the object space coordinate system can be derived.
Even if λ is unknown, if a marker indicating two or more absolute coordinates is photographed in an image, Xo, It is possible to calculate Yo, λ.

次に、図5に本発明の第1の実施例において、カメラ部2が撮影する画像データの一例を示す。
図5は絶対座標系のZ軸に対して、相対座標系のz軸が、回転角κで回転している(y軸及びx軸の回転角)ことを示している。
このように画像データ内に、3点のマーカ5が撮影されている場合れ、撮影したカメラ部2のの焦点距離(−c)と、天井4とカメラ部2との絶対座標系上のZ座標が未知であっても、前記方法(複数のマーカ5が同一画像データ内に存在する場合の算出方法)から、絶対座標系上のカメラ部2のの撮影点(Xo,Yo)の座標を算出することが可能である。
また、ω、φが未知数な場合は、共線条件式より以下に示す(8)式が成り立つ。
Next, FIG. 5 shows an example of image data taken by the camera unit 2 in the first embodiment of the present invention.
FIG. 5 shows that the z-axis of the relative coordinate system is rotated at the rotation angle κ (the rotation angles of the y-axis and the x-axis) with respect to the Z-axis of the absolute coordinate system.
Thus, when three markers 5 are captured in the image data, the focal length (−c) of the captured camera unit 2 and the Z on the absolute coordinate system of the ceiling 4 and the camera unit 2 are displayed. Even if the coordinates are unknown, the coordinates of the photographing point (Xo, Yo) of the camera unit 2 on the absolute coordinate system can be obtained from the above method (calculation method when a plurality of markers 5 are present in the same image data). It is possible to calculate.
Further, when ω and φ are unknown, the following equation (8) is established from the collinear condition equation.

Figure 2006023831
Figure 2006023831

上記(8)式において、マーカ5を含む撮影された画像データから、[X Y Z x y]の値を認識した場合、未知数は、[Xo Yo Zo c ω φ]である。
未知数が5個であるため、7つ以上のマーカ5を撮影する画像データ内に収め、最小二乗法等を適用することで撮影点の位置を検出可能である。
この場合、マーカ5の長尺方向の傾きにより、画像データから求めた回転角κは、方程式を解く場合の初期値として利用可能である。
In the above equation (8), when the value of [XYZxy] is recognized from the captured image data including the marker 5, the unknown is [XoYoZoc ω φ].
Since there are five unknowns, it is possible to detect the position of the photographing point by storing seven or more markers 5 in the image data to be photographed and applying the least square method or the like.
In this case, the rotation angle κ determined from the image data due to the inclination of the marker 5 in the longitudinal direction can be used as an initial value when solving the equation.

<第2の実施例>
次に、図6を参照して、第2の実施例について説明する。図6は、マーカ5の構成の一例を示す。移動体位置検出システムとしては、図1及び図2の構成を用いる。
ここで、マーカ5は、基準信号部9と座標信号部10とから構成されている。各信号部は、一定面積の正方形の形状と、赤および青の色成分により構成されている。
マーカ5における情報は、1つの正方形が2ビットを示し、赤の正方形が「1」を示し、青の正方形が「0」を示している。正方形の横の( )内に記載されている文字がその正方形の色を示している。
<Second embodiment>
Next, a second embodiment will be described with reference to FIG. FIG. 6 shows an example of the configuration of the marker 5. As the moving body position detection system, the configuration shown in FIGS. 1 and 2 is used.
Here, the marker 5 includes a reference signal unit 9 and a coordinate signal unit 10. Each signal part is composed of a square shape with a constant area and red and blue color components.
In the information in the marker 5, one square indicates 2 bits, a red square indicates “1”, and a blue square indicates “0”. The characters written in () next to the square indicate the color of the square.

基準信号部9は、6ビットで構成され、正方形の並びの軸は、南北を示す軸(Y軸)と平行に配置される。
また、基準信号部9においては、構成する正方形の色の順序が北から「赤」、「青」、「赤」、「青」と固定されている。
このように基準信号部9の軸方向と色との順序を固定することにより、マーカ5の基準信号を認識することができ、絶対座標系に対する相対座標系の傾きを検出可能としている。
The reference signal section 9 is composed of 6 bits, and the axis of the square array is arranged in parallel with the axis indicating the north and south (Y axis).
Further, in the reference signal unit 9, the order of the color of the squares to be configured is fixed as “red”, “blue”, “red”, and “blue” from the north.
Thus, by fixing the order of the axial direction and the color of the reference signal unit 9, the reference signal of the marker 5 can be recognized, and the inclination of the relative coordinate system with respect to the absolute coordinate system can be detected.

また、基準信号部9においては、構成する正方形の色が連続していないため、1つの正方形の面積を判別し易い。
そして、この正方形の面積を利用することにより、座標信号部10の信号に色が連続した場合でも、その面積を基準信外部9の1つの面積で割ることにより連続している正方形の数を求める(演算する)ことができる。
また、図6において、座標信号部10は、X座標及びY座標の座標値を、ともに8ビットの情報量によって示されている。
Further, in the reference signal unit 9, since the colors of the squares that are formed are not continuous, it is easy to determine the area of one square.
By using this square area, even when colors are continuous in the signal of the coordinate signal unit 10, the number of continuous squares is obtained by dividing the area by one area of the reference signal exterior 9. (Calculate).
In FIG. 6, the coordinate signal unit 10 indicates both the coordinate values of the X coordinate and the Y coordinate by an 8-bit information amount.

座標信号10においては、基準信号部9と同様に、正方形の並びの中心軸も南北方向を示す軸と平行に配置され、北に一番近い正方形から6つをX座標の情報、これにつづく6つの正方形をY座標の情報としている。
基準信号部9と座標信号部10の重心を結ぶ直線の中心Qをマーカ5が示す座標としている。
すなわち、各信号部の配置は、基準信号部9と座標信号部10との各々の重心を結ぶ直線を東西方向(X軸)と平行とし、その中心をマーカ5が示す座標値とする。
In the coordinate signal 10, as in the case of the reference signal unit 9, the central axis of the array of squares is also arranged in parallel with the axis indicating the north-south direction, and six of the squares closest to the north are followed by X coordinate information. Six squares are used as Y coordinate information.
The center Q of the straight line connecting the center of gravity of the reference signal unit 9 and the coordinate signal unit 10 is the coordinate indicated by the marker 5.
That is, the arrangement of each signal unit is such that a straight line connecting the centroids of the reference signal unit 9 and the coordinate signal unit 10 is parallel to the east-west direction (X axis), and the center is a coordinate value indicated by the marker 5.

さらに、座標信号部10と基準信号部9との重心間の距離は、「1座標(各マーク毎に示す一つの座標値)を示す座標信号部の最大重心間距離」より大きく設定されている。
この「1座標を示す座標信号部10の最大重心間距離」は、色が同色の正方形が連結して、これを1長方形とみなし、その長方形の重心間が最大となる距離である。
例えば、図7に示すように、X座標,Y座標が各々8ビットで示される場合、間の14ビットが同色の場合(X座標の最上部の1つの正方形が赤であり、その他15の正方形が全て青の場合)、この赤の重心と、青の重心(下から8個目の正方形)との距離が最大重心間距離となり、この最大重心間距離は正方形8コマ分となる。
さらに、各マーカ5間の配置の最小距離を、「同一マーク内における基準信号部9と座標信号部10との最大距離」以上に設定する。
Furthermore, the distance between the centroids of the coordinate signal unit 10 and the reference signal unit 9 is set to be larger than “the maximum distance between the centroids of the coordinate signal unit indicating one coordinate (one coordinate value shown for each mark)”. .
The “maximum distance between the centroids of the coordinate signal unit 10 indicating one coordinate” is a distance in which squares having the same color are connected and regarded as one rectangle and the centroids of the rectangles are maximized.
For example, as shown in FIG. 7, when the X coordinate and the Y coordinate are each represented by 8 bits, when the 14 bits in between are the same color (one square at the top of the X coordinate is red and the other 15 squares) Are all blue), the distance between the center of gravity of red and the center of gravity of blue (the eighth square from the bottom) is the maximum distance between the centers of gravity, and the maximum distance between the centers of gravity is 8 squares.
Further, the minimum distance between the markers 5 is set to be equal to or greater than “the maximum distance between the reference signal unit 9 and the coordinate signal unit 10 in the same mark”.

上記の構成をとることにより、各色別の長方形(正方形を含む)の重心間の距離は、「1座標を示す座標信号部10の最大重心間距離」より小さいものは、1つの座標信号部10、または、基準信号部9を構成する成分であると判別できる。
また、「1座標を示す座標信号部の最大重心間距離」より大きく、基準信号部9と座標信号部10の最大距離」以内にあるものは、同一マーク5の座標信号部10と基準信号部9であると判別できる。
さらに、基準信号部と座標信号部の最大距離”以上の距離にあるものは、別のマーカの構成要素であると判別できる。
By adopting the above configuration, the distance between the centroids of rectangles (including squares) for each color is smaller than “the maximum distance between the centroids of the coordinate signal unit 10 indicating one coordinate”. Alternatively, it can be determined that the component constitutes the reference signal unit 9.
Also, those that are larger than the “maximum distance between the center of gravity of the coordinate signal part indicating one coordinate” and within the maximum distance between the reference signal part 9 and the coordinate signal part 10 ”are the coordinate signal part 10 and the reference signal part of the same mark 5 It can be determined that it is 9.
In addition, it is possible to determine that a component having a distance equal to or greater than the maximum distance “between the reference signal portion and the coordinate signal portion is a constituent element of another marker.

図6の構成例においては、1ビットを1つの正方形で示す信号としたが、図8に示すように、マンチェスター符号のように、正方形を2つのエリアに分割して、1ビットを2つの形状で示してもかまわない。
この場合は、データ「1」を上から「赤」/「青」色の順に示し、データ「0」を「青」/「赤」色の順で示すことにより、1/0のデータを表すことが可能である。
図8に示す形状のマーカ5を用いた場合、長方形の数は多くなるが、連続する色を2長方形に限定でき、基準信号部9の単位面積から、座標信号部10の信号列を検出する際の精度を向上することが可能である。
In the configuration example of FIG. 6, one bit is a signal indicated by one square. However, as shown in FIG. 8, the square is divided into two areas as shown in Manchester code, and one bit is divided into two shapes. It does not matter if it is indicated by.
In this case, data “1” is shown in the order of “red” / “blue” from the top, and data “0” is shown in the order of “blue” / “red”, thereby representing 1/0 data. It is possible.
When the marker 5 having the shape shown in FIG. 8 is used, the number of rectangles increases, but the continuous color can be limited to two rectangles, and the signal sequence of the coordinate signal unit 10 is detected from the unit area of the reference signal unit 9. It is possible to improve the accuracy.

次に、図9を参照して、図6のマーカ5の構成例を利用した場合のおけるマーカ5の認識処理を説明する。図9は、画像処理部3におけるマーカ5の認識処理の動作例を示すフローチャートである。
画像処理部3は、撮影された画像データを入力すると、この画像データから、「赤」、「青」を識別し、色別に形状(正方形または長方形)の抽出を行う(ステップS11)。
このとき、画像処理部3は、必要であれば、画像処理により縮退処理及び/または膨張処理を行い、画像データに含まれるノイズ成分を除去する。
Next, with reference to FIG. 9, the recognition process of the marker 5 when the configuration example of the marker 5 of FIG. 6 is used will be described. FIG. 9 is a flowchart illustrating an operation example of the marker 5 recognition processing in the image processing unit 3.
When the captured image data is input, the image processing unit 3 identifies “red” and “blue” from the image data, and extracts a shape (square or rectangle) for each color (step S11).
At this time, if necessary, the image processing unit 3 performs a reduction process and / or an expansion process by image processing to remove noise components included in the image data.

次に、画像処理部3は、画像データから抽出した「赤」,「青」の成分別(色別に)に連続する領域の重心位置を求める(ステップS12)。
そして、画像処理部3は、求めた重心間の距離が、「1座標を示す座標信号部10最大重心間距離」以内のものを検索し、座標信号部10または基準信号部9の塊(各信号部としての領域)を検出する(ステップS13)。
次に、画像処理部3は、検出した塊の中の、「赤」及び「青」の並びの順序、及び数が、基準信号部9と同一か否かの判定を行い、さらに、それぞれの領域(塊)を、基準として設定されている四角形(正方形)の単位面積と比較し、基準信号部9を抽出(検出)する(ステップS14)。
Next, the image processing unit 3 obtains the barycentric position of the continuous region for each “red” and “blue” component (by color) extracted from the image data (step S12).
Then, the image processing unit 3 searches for a distance between the obtained centroids within the “maximum distance between the centroids of the coordinate signal unit 10 indicating one coordinate” and collects the blocks of the coordinate signal unit 10 or the reference signal unit 9 (each A region as a signal portion) is detected (step S13).
Next, the image processing unit 3 determines whether or not the order and the number of the arrangement of “red” and “blue” in the detected block are the same as those of the reference signal unit 9, and further, The region (block) is compared with a square (square) unit area set as a reference, and the reference signal unit 9 is extracted (detected) (step S14).

さらに、画像処理部3は、基準信号部9以外の塊から、それぞれの基準信号部9と対になる座標信号部10を検出、すなわちそれぞれ塊の重心座標の距離が「基準信号部9と座標信号部10の最大距離」より短いか否かを判定し、長いことを検出した場合、異なるマーク5に含まれると判定し、短いことを検出した場合、同一のマーク5における基準信号9と座標信号10との組として抽出する(ステップS15)。   Further, the image processing unit 3 detects the coordinate signal unit 10 that is paired with each reference signal unit 9 from the chunks other than the reference signal unit 9, that is, the distance between the center of gravity coordinates of each of the chunks is “the reference signal unit 9 and the coordinate It is determined whether or not it is shorter than the “maximum distance of the signal unit 10”, and when it is detected that it is long, it is determined that it is included in a different mark 5. Extracted as a pair with the signal 10 (step S15).

次に、画像処理部3は、基準信号部9の各領域の重心より、基準信号部9の軸を求め、すでに述べたように、撮影した画像データの傾きを検出する(ステップS16)。
そして、画像処理部3は、座標信号部10を解読し、マーカ5が示す座標(X座標値及びY座標値)の検出を行う。
ここで、マーカ5が示す座標は、X及びY軸の絶対座標を示す方法のほかに、各絶対座標を示すインデックスを示す場合も考えられる。
Next, the image processing unit 3 obtains the axis of the reference signal unit 9 from the center of gravity of each region of the reference signal unit 9, and detects the inclination of the captured image data as already described (step S16).
Then, the image processing unit 3 decodes the coordinate signal unit 10 and detects the coordinates (X coordinate value and Y coordinate value) indicated by the marker 5.
Here, the coordinate indicated by the marker 5 may be an index indicating each absolute coordinate in addition to the method indicating the absolute coordinate of the X and Y axes.

このインデックスを示す場合は、画像処理部3において、インデックスと絶対座標における座標値との対応テーブル等を管理することにより、各マーカ5が設置されている位置の絶対座標系における座標値を検出することが可能である。
以上のように、本発明の第2の実施例においては、色と形状とにより座標値を示す図形が印刷されたマーカ5を利用することにより、天井の形状に左右されず、かつ、低コストにマーカ5を天井に設置でき、移動体1の位置を検出することが可能となる。
In the case of indicating this index, the image processing unit 3 detects a coordinate value in the absolute coordinate system at the position where each marker 5 is installed by managing a correspondence table between the index and the coordinate value in the absolute coordinate. It is possible.
As described above, in the second embodiment of the present invention, by using the marker 5 on which the graphic indicating the coordinate value is printed by the color and the shape, it is not influenced by the shape of the ceiling and is low in cost. The marker 5 can be installed on the ceiling and the position of the moving body 1 can be detected.

<第3の実施例>
図10を参照して、本発明の第3の実施例を説明する。図10は、本発明の第1及び第2の実施例にて説明した移動体位置検出方法と、無線通信とを用いて、探索物11を移動体1から発見する方法である。
移動体1には、天井4の画像を撮影するカメラ部2、移動体位置検出部12へ撮影した画像データ画像を転送するための無線通信部13、探索信号を送信するための探索信号送信部14、それぞれを制御する中央処理部15が実装される。
探索物には、探索信号を受信するための探索信号受信部16、探索信号に対して応答する応答部17が実装される。
移動体1から撮影された画像データを受信する無線通信部13は、移動体位置検出部12、この移動体位置検出部12の検出した移動体1の位置により、移動体1を目的とする座標位置に移動させる制御を行う移動体位置制御部18と、1つの外部装置19内にある無線通信部20を介し、または、NW(ネットワーク)経由により接続されている。
<Third embodiment>
A third embodiment of the present invention will be described with reference to FIG. FIG. 10 is a method of finding the search object 11 from the mobile 1 using the mobile location detection method described in the first and second embodiments of the present invention and wireless communication.
The mobile unit 1 includes a camera unit 2 that captures an image of the ceiling 4, a wireless communication unit 13 that transfers the captured image data image to the mobile unit position detection unit 12, and a search signal transmission unit that transmits a search signal. 14, a central processing unit 15 for controlling each is implemented.
A search signal receiving unit 16 for receiving a search signal and a response unit 17 responding to the search signal are mounted on the search object.
The wireless communication unit 13 that receives the image data captured from the moving body 1 includes the moving body position detection unit 12, and coordinates for the moving body 1 based on the position of the moving body 1 detected by the moving body position detection unit 12. The mobile unit position control unit 18 that performs control to move to a position is connected to the mobile unit position control unit 18 via a wireless communication unit 20 in one external device 19 or via an NW (network).

本発明の第3の実施例における方法により、移動体1の位置の検出を行う。
移動体位置検出部12においては、移動体1が検索する探索物11の位置は既知であり、探索物11の位置と移動体1の位置とを比較することにより、移動体1が探索物11に向けて進むべき方向を検出する。
移動体位置検出部12において検出した進むべき方向は、画像データを伝送する通信回線を利用して移動体1まで通知可能である。この移動体位置検出部12が第1及び第2の実施例における画像処理部3と同様な動作により、移動体1の位置の検出を行う。
探索物11の位置の検出は、探索物11のIDを挿入した検索信号を検索信号送信部14から送信する。
The position of the moving body 1 is detected by the method according to the third embodiment of the present invention.
In the moving object position detection unit 12, the position of the search object 11 searched by the moving object 1 is known, and the moving object 1 is compared with the position of the moving object 1 by comparing the position of the search object 11 with the position of the moving object 1. Detect the direction to go toward.
The moving direction detected by the moving body position detection unit 12 can be notified to the moving body 1 using a communication line for transmitting image data. The moving body position detecting unit 12 detects the position of the moving body 1 by the same operation as the image processing unit 3 in the first and second embodiments.
To detect the position of the search object 11, a search signal in which the ID of the search object 11 is inserted is transmitted from the search signal transmission unit 14.

この場合の通信媒体は、電磁波(電波、光)および音波(超音波を含む)などが適用可能である。
例えば、移動体1からある程度近距離の探索物11の位置を検出する場合、通信距離が短い媒体を適用することにより探索信号に反応する探索物11を限定することが可能である。
探索物11は、探索信号受信部16から、自身のIDが挿入された探索信号を受信した場合、応答部17にて、光を発信して、自身の存在している場所を周囲に対して通知する。
そして、応答部17が自身を特定させるために光を発する場合、同様な探索物11が積み重なっており、2次元的な位置が等しいような場合、その中から1つの探索物11を検出する場合に有効である。
As a communication medium in this case, electromagnetic waves (radio waves, light), sound waves (including ultrasonic waves), and the like can be applied.
For example, when detecting the position of the search object 11 that is close to the mobile body 1 to some extent, it is possible to limit the search object 11 that reacts to the search signal by applying a medium having a short communication distance.
When the search object 11 receives a search signal in which its own ID is inserted from the search signal receiving unit 16, the search unit 11 emits light at the response unit 17, and determines the location where it exists to the surroundings. Notice.
When the response unit 17 emits light to identify itself, when similar search objects 11 are stacked and the two-dimensional positions are equal, when one search object 11 is detected therefrom It is effective for.

通常、目視できる範囲は限られているため、広い空間での移動体1のナビゲーション(移動体位置検出部12が移動体1の位置を検出しつつ、探索物11近辺の位置まで、移動体位置制御部18が誘導する)に、すでに述べた本発明の第1及び第2の実施例を用いて、移動体1を探索物11近辺まで誘導し、探索物11の検出は、上述したように、近距離の無線装置(探索信号送信部14及び探索信号受信部16)と、発光体(応答部17)とを利用することで、広範囲から探索物11を見つけるシステムを安価に構築する事が可能となる。   Normally, the visible range is limited, and therefore, the navigation of the mobile body 1 in a wide space (the mobile body position to the position near the search object 11 while the mobile body position detection unit 12 detects the position of the mobile body 1 is detected. The control unit 18 guides the mobile object 1 to the vicinity of the search object 11 using the first and second embodiments of the present invention described above, and the detection of the search object 11 is performed as described above. By using a short-range wireless device (search signal transmitting unit 14 and search signal receiving unit 16) and a light emitter (response unit 17), a system for finding the search object 11 from a wide range can be constructed at low cost. It becomes possible.

例えば、広い空間においてものが密集する倉庫等で、探索物11の検出に応用した場合、移動体1はフォークリフトなどであり、探索物11は、積み重なっているパレットである。
フォークリフトは、自位置と探索物11との位置を比較しながら、目的とするパレット近辺まで進む。
目的としたパレット近辺に到着すると、目的とするパレット宛に探索信号を送信する。
そして、探索信号を受信したパレットは、応答部17より光を発信する。
運転手はこの光を目視し、目的とするパレットをパレットの山から取り出すことが可能になる。
For example, when applied to detection of the search object 11 in a warehouse where things are densely packed in a wide space, the mobile object 1 is a forklift or the like, and the search object 11 is a stacked pallet.
The forklift advances to the vicinity of the target pallet while comparing the position of the self position and the search object 11.
When arriving near the target pallet, a search signal is transmitted to the target pallet.
The palette that has received the search signal transmits light from the response unit 17.
The driver can visually observe this light and take out the target pallet from the pallet pile.

なお、図1における移動体の位置検出の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、移動体の位置検出の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   Note that a program for realizing the function of detecting the position of the moving body in FIG. 1 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. You may perform the process of position detection of a moving body. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” includes a WWW system provided with a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in the computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

本発明の第1,2,3の実施例による移動体位置検出システムの構成例を示す概念図である。It is a conceptual diagram which shows the structural example of the mobile body position detection system by the 1st, 2nd, 3rd Example of this invention. 図1の移動体位置検出システムにおける画像処理部3を外部装置に搭載した構成例を示す概念図である。It is a conceptual diagram which shows the structural example which mounts the image process part 3 in the moving body position detection system of FIG. 1 in the external device. 図1及び図2における画像処理部3の位置検出の動作例を示すフローチャートである。3 is a flowchart showing an example of position detection operation of the image processing unit 3 in FIGS. 1 and 2. 画像処理部3の位置検出の演算に用いる座標系を説明する概念図である。3 is a conceptual diagram illustrating a coordinate system used for position detection calculation of the image processing unit 3. FIG. 第1及び第2の実施例における撮影した撮影画像(画像データ)の構成を説明する概念図である。It is a conceptual diagram explaining the structure of the picked-up image (image data) image | photographed in the 1st and 2nd Example. 本発明の第2,3の実施例による移動体位置検出システムで用いるマーク5の構成例を示す概念図である。It is a conceptual diagram which shows the structural example of the mark 5 used with the mobile body position detection system by the 2nd, 3rd Example of this invention. 本発明の第2,3の実施例による移動体位置検出システムで用いるマーク5の構成例を示す概念図である。It is a conceptual diagram which shows the structural example of the mark 5 used with the mobile body position detection system by the 2nd, 3rd Example of this invention. 本発明の第2,3の実施例による移動体位置検出システムで用いるマーク5の構成例を示す概念図である。It is a conceptual diagram which shows the structural example of the mark 5 used with the mobile body position detection system by the 2nd, 3rd Example of this invention. 本発明の第2の実施例における画像処理部3の位置検出の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the position detection of the image process part 3 in 2nd Example of this invention. 本発明の第3の実施例の構成例を示す概念図である。It is a conceptual diagram which shows the structural example of the 3rd Example of this invention.

符号の説明Explanation of symbols

1…移動体 2…カメラ部
3…画像処理部 4…天井
5…マーカ 6,19…外部装置
7,8,13,20…無線通信部 9…基準信号部
10…座標信号部 11…探索物
12…移動体位置検出部 14…探索信号送信部
15…中央処理部 16…探索信号受信部
17…応答部 18…移動体位置制御部
DESCRIPTION OF SYMBOLS 1 ... Moving body 2 ... Camera part 3 ... Image processing part 4 ... Ceiling 5 ... Marker 6, 19 ... External device 7, 8, 13, 20 ... Wireless communication part 9 ... Reference signal part 10 ... Coordinate signal part 11 ... Search object DESCRIPTION OF SYMBOLS 12 ... Mobile body position detection part 14 ... Search signal transmission part 15 ... Central processing part 16 ... Search signal reception part 17 ... Response part 18 ... Mobile body position control part

Claims (7)

移動体に搭載され、画像を撮影してデジタル化された画像データを出力する撮影手段と、該画像撮影過程において撮影された画像データを画像処理する画像処理手段と、前記移動体の上方に設置され、色及び形状によってそれぞれの座標位置を示すことにより、設置された位置の絶対座標を示すマーカ部とで構成された移動体検出システムにより、移動体の位置を検出する方法であって、
前記撮影手段が1つ以上のマーカを1つの画像で撮影する撮影過程と、
前記画像処理手段が、撮影されたマーカの色と形状とを検出及び認識する画像処理により、マーカの絶対座標を検出する座標検出過程と、
前記画像処理手段が、撮影された画像上の中心と、マーカとの相対座標を計算し、検出した絶対座標と相対座標との関係から撮影点の位置を検出する撮影点検出過程と
を有することを特徴とする移動体位置検出方法。
Mounted on a moving body, a photographing means for photographing an image and outputting digitized image data, an image processing means for performing image processing on the image data photographed in the image photographing process, and installed above the moving body The position of the moving body is detected by the moving body detection system configured by the marker unit indicating the absolute coordinates of the installed position by indicating each coordinate position by color and shape,
An imaging process in which the imaging means captures one or more markers in one image;
A coordinate detection process in which the image processing means detects the absolute coordinates of the marker by image processing for detecting and recognizing the color and shape of the photographed marker;
The image processing means includes a photographing point detection process for calculating a relative coordinate between the center on the photographed image and the marker and detecting a position of the photographing point from the relationship between the detected absolute coordinate and the relative coordinate. A moving body position detecting method characterized by the above.
前記撮影手段が撮影した画像データを無線信号で送信する送信過程と、
前記画像データを受信する受信過程と
を有することを特徴とする請求項1記載の移動体位置検出方法。
A transmission process of transmitting image data captured by the imaging means by radio signals;
The moving body position detecting method according to claim 1, further comprising: a receiving process of receiving the image data.
移動体の位置を検出するシステムであって、
移動体に搭載され、撮影した画像をデジタル化する撮影部と、
該撮影部により撮影した画像データの画像処理を行う画像処理部と、
前記移動体の上方に設置され、設置された位置の絶対座標を示すマーカとで構成され、
前記マーカは、色と形状とによってそれぞれの座標位置を示し、
前記撮影部は、1つ以上のマーカを1つの画像で撮影し、
前記画像処理部は、撮影されたマーカの色と形状とを検出及び認識する画像処理によりマーカの位置の絶対座標を検出し、さらに、画像上の中心とマーカの相対座標を計算し、検出した絶対座標と相対座標との関係から撮影点の位置を検出することを特徴とする移動体位置検出システム。
A system for detecting the position of a moving object,
A shooting unit that is mounted on a moving body and digitizes the shot image;
An image processing unit that performs image processing of image data captured by the imaging unit;
It is installed above the moving body, and is composed of a marker indicating the absolute coordinates of the installed position,
The marker indicates each coordinate position by color and shape,
The photographing unit photographs one or more markers in one image,
The image processing unit detects absolute coordinates of the marker position by image processing that detects and recognizes the color and shape of the photographed marker, and further calculates and detects the relative coordinates of the center on the image and the marker. A moving body position detection system that detects the position of a shooting point from the relationship between absolute coordinates and relative coordinates.
前記移動体に搭載され、前記撮影部で撮影した画像データを無線信号により送信する送信部と、
前記画像データを受信する受信部と
を有する請求項3記載の移動体位置検出システム。
A transmission unit that is mounted on the mobile body and transmits image data captured by the imaging unit using a wireless signal;
The moving body position detection system according to claim 3, further comprising: a receiving unit that receives the image data.
前記マーカは、
色と形状とにより座標を示す座標信号部と、
色と形状とにより座標系の方向を示す基準信号部と
を有するものであることを特徴とする請求項3または請求項4に記載の移動体位置検出システム。
The marker is
A coordinate signal part indicating coordinates by color and shape;
The moving body position detection system according to claim 3 or 4, further comprising: a reference signal section that indicates a direction of a coordinate system by color and shape.
前記マーカは、印刷物に印刷されたものであることを特徴とする請求項3から請求項5のいずれかに記載の移動体位置検出システム。   6. The moving body position detection system according to claim 3, wherein the marker is printed on a printed material. 前記マーカは、屋内の天井面に設置されることを特徴とする請求項3から請求項6のいずれかに記載の移動体位置検出システム。
The said marker is installed in an indoor ceiling surface, The mobile body position detection system in any one of Claims 3-6 characterized by the above-mentioned.
JP2004199397A 2004-07-06 2004-07-06 Mobile object detection method and system Pending JP2006023831A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004199397A JP2006023831A (en) 2004-07-06 2004-07-06 Mobile object detection method and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004199397A JP2006023831A (en) 2004-07-06 2004-07-06 Mobile object detection method and system

Publications (1)

Publication Number Publication Date
JP2006023831A true JP2006023831A (en) 2006-01-26

Family

ID=35797084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004199397A Pending JP2006023831A (en) 2004-07-06 2004-07-06 Mobile object detection method and system

Country Status (1)

Country Link
JP (1) JP2006023831A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008120294A (en) * 2006-11-14 2008-05-29 Kobe Univ Flight type information processor
JP2009211666A (en) * 2008-02-29 2009-09-17 Ind Technol Res Inst Zone identification system
JP2012058245A (en) * 2010-09-10 2012-03-22 Ge-Hitachi Nuclear Energy Americas Llc Photographic survey system and method usable in nuclear reactor
JP2012198898A (en) * 2012-04-02 2012-10-18 Mitsubishi Heavy Ind Ltd Position specification device, operation instruction device, and self-propelled robot
JP2016167248A (en) * 2014-09-09 2016-09-15 五洋建設株式会社 Entrance/exit management system
JP2018036723A (en) * 2016-08-29 2018-03-08 株式会社ダイフク Article delivery facilities
KR101858488B1 (en) * 2017-05-30 2018-06-27 홍을표 Sphere type cartesian coordinate system, method, application and server for providing location information using the same
CN109752855A (en) * 2017-11-08 2019-05-14 九阳股份有限公司 A kind of method of hot spot emitter and detection geometry hot spot
JP2020205044A (en) * 2019-06-17 2020-12-24 シーオス株式会社 Unmanned transportation vehicle and transportation operation method using same

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008120294A (en) * 2006-11-14 2008-05-29 Kobe Univ Flight type information processor
JP2009211666A (en) * 2008-02-29 2009-09-17 Ind Technol Res Inst Zone identification system
JP2012058245A (en) * 2010-09-10 2012-03-22 Ge-Hitachi Nuclear Energy Americas Llc Photographic survey system and method usable in nuclear reactor
JP2012198898A (en) * 2012-04-02 2012-10-18 Mitsubishi Heavy Ind Ltd Position specification device, operation instruction device, and self-propelled robot
JP2016167248A (en) * 2014-09-09 2016-09-15 五洋建設株式会社 Entrance/exit management system
JP2018036723A (en) * 2016-08-29 2018-03-08 株式会社ダイフク Article delivery facilities
KR101858488B1 (en) * 2017-05-30 2018-06-27 홍을표 Sphere type cartesian coordinate system, method, application and server for providing location information using the same
WO2018221950A1 (en) * 2017-05-30 2018-12-06 홍을표 Sphere-shaped coordinate system device and position information calculating method using same
CN109752855A (en) * 2017-11-08 2019-05-14 九阳股份有限公司 A kind of method of hot spot emitter and detection geometry hot spot
JP2020205044A (en) * 2019-06-17 2020-12-24 シーオス株式会社 Unmanned transportation vehicle and transportation operation method using same

Similar Documents

Publication Publication Date Title
WO2021026850A1 (en) Qr code-based navigation attitude determining and positioning method and system
KR100649674B1 (en) Method for recognizing position using a built-in camera and apparatus thereof
JP4142460B2 (en) Motion detection device
JP4533659B2 (en) Apparatus and method for generating map image by laser measurement
US8807428B2 (en) Navigation of mobile devices
JP4946238B2 (en) Vehicle periphery photographing transmission device and vehicle periphery photographing transmission program
US20080137912A1 (en) Apparatus and method for recognizing position using camera
CN106291535A (en) A kind of obstacle detector, robot and obstacle avoidance system
WO2019001237A1 (en) Mobile electronic device, and method in mobile electronic device
WO2019019819A1 (en) Mobile electronic device and method for processing tasks in task region
JP2017120551A (en) Autonomous traveling device
US10949579B2 (en) Method and apparatus for enhanced position and orientation determination
CN111026107A (en) Method and system for determining the position of a movable object
KR20160027605A (en) Method for locating indoor position of user device and device for the same
JP2006023831A (en) Mobile object detection method and system
KR101720097B1 (en) User device locating method and apparatus for the same
KR100581086B1 (en) Method and apparatus for mobile robot localization using led of rfid tag
WO2018228258A1 (en) Mobile electronic device and method therein
KR102408681B1 (en) Method and apparatus for determining the location of a static object
JP2003295951A (en) Autonomous mobile-body patrolling system and method for compensating for position of autonomous mobile-body
WO2021157136A1 (en) Positioning system
Lee et al. A wearable guidance system with interactive user interface for persons with visual impairment
JP2008070208A (en) Light position detection system, light id tag device, position detection device, and light position detection method
JP2004230539A (en) Method and device for detecting position and attitude of object by robot
TW201621273A (en) Mobile positioning apparatus and positioning method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060714

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071017

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071113