JP5045447B2 - POSITION INFORMATION ACQUISITION DEVICE, POSITION ESTIMATION DEVICE, AND MOBILE BODY - Google Patents
POSITION INFORMATION ACQUISITION DEVICE, POSITION ESTIMATION DEVICE, AND MOBILE BODY Download PDFInfo
- Publication number
- JP5045447B2 JP5045447B2 JP2008004129A JP2008004129A JP5045447B2 JP 5045447 B2 JP5045447 B2 JP 5045447B2 JP 2008004129 A JP2008004129 A JP 2008004129A JP 2008004129 A JP2008004129 A JP 2008004129A JP 5045447 B2 JP5045447 B2 JP 5045447B2
- Authority
- JP
- Japan
- Prior art keywords
- optical signal
- signal
- light
- imaging
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、位置情報取得装置、位置推定装置、及び移動体に関する。 The present invention relates to a position information acquisition device, a position estimation device, and a moving object.
近年、様々な用途で活用が見込まれるロボットが注目されている。例えば、楽器演奏等のアミューズメントを提供するパートナーロボット、被介護者に介護を提供するパートナーロボット、及び生産ラインの生産を手助けするロボットが注目されている。 In recent years, robots that are expected to be used in various applications have attracted attention. For example, a partner robot that provides an amusement such as playing a musical instrument, a partner robot that provides care to a care recipient, and a robot that assists in production of a production line are attracting attention.
高性能なロボットを実現するに際して、ロボットが空間を移動したり、ヒトとの対話に応じた所望の動作を実現したりすることが要求される。空間を移動することが要求される場合、ある空間内の存在位置を高精度に把握することが要求される。この場合には、いわゆる光タグを活用して、空間内のロボットの存在位置を検出する手法を活用すると良い。 When realizing a high-performance robot, it is required that the robot move in a space or realize a desired operation according to a dialogue with a human. When it is required to move in a space, it is required to grasp the position in a certain space with high accuracy. In this case, a technique for detecting the position of the robot in the space using a so-called optical tag may be used.
特許文献1には、光タグに関する技術が開示されている。特許文献1では、詳細情報を検出する高速タグリーダ、及びカテゴリ情報を検出する低速タグリーダを設けている。これによって、カテゴリ情報及び詳細情報を含む多様な属性情報の伝送を実現させている。
なお、特許文献2には光動画像検出装置が開示されている。また、特許文献3には、視覚センサが開示されている。
ところで、ある空間内のロボットの存在位置を推定する際に用いられる位置情報を取得するために、外部に設けられた発光源からの光信号をロボットに組み込んだ撮像素子で検出する場合には次のような問題がある。 By the way, in order to acquire position information used when estimating the position of a robot in a certain space, an optical signal from an external light source is detected by an image sensor incorporated in the robot. There is a problem like this.
撮像素子の撮像面には光信号が入力されない領域があり、この領域で撮像した像は無駄になる。この無駄な像を読み出すのに要する時間だけ、より高い速度で撮像素子を駆動することが阻害される。 There is an area where no optical signal is input on the imaging surface of the imaging element, and an image captured in this area is wasted. Driving the image sensor at a higher speed is hindered by the time required to read out this useless image.
また、光信号がパルス化されている場合には、撮像素子が取得する像には光信号が写らない像があり、この像は無駄になる。撮像素子から出力される無駄な像の数だけ、撮像素子の出力が接続される画像処理部における画像処理の負担を増大させてしまう。 Further, when the optical signal is pulsed, the image acquired by the image sensor includes an image in which the optical signal is not captured, and this image is wasted. The burden of image processing in the image processing unit to which the output of the image sensor is connected is increased by the number of useless images output from the image sensor.
このようにロボットの存在位置を推定する際に用いられる位置情報を無駄なく取得することが強く望まれている。 Thus, it is strongly desired to acquire the position information used when estimating the position of the robot without waste.
本発明は、かかる課題を解決するためになされたものであり、移動体(例えば、ロボット)の存在位置を推定する際に用いられる位置情報を従来よりも無駄なく取得することを目的とする。 The present invention has been made to solve such a problem, and an object of the present invention is to acquire position information used when estimating the position of a moving body (for example, a robot) more efficiently than conventionally.
本発明にかかる位置情報取得装置は、外部から到来する光信号の検出に基づいて位置情報を取得する位置情報取得装置であって、前記光信号を第1及び第2方向へ分岐させる光分岐手段と、前記光分岐手段を介して前記第1方向に導かれる前記光信号を受光する光検出素子と、複数の画素が配置された撮像面を有すると共に、前記光分岐手段を介して前記第2方向に導かれる前記光信号を1つ以上の前記画素で受光する撮像素子と、前記光検出素子の出力に基づいて前記撮像素子に複数の前記画素の一部から信号を読み出させる、又は前記光検出素子の出力に基づいて前記撮像素子が撮像するタイミングを制御する制御部と、を備える。 The position information acquisition apparatus according to the present invention is a position information acquisition apparatus that acquires position information based on detection of an optical signal coming from the outside, and an optical branching unit that branches the optical signal in first and second directions. And a light detection element that receives the optical signal guided in the first direction through the light branching means, an imaging surface on which a plurality of pixels are arranged, and the second through the light branching means. An image sensor that receives the optical signal guided in a direction at one or more of the pixels, and causes the image sensor to read signals from some of the pixels based on an output of the light detection element, or A control unit that controls a timing at which the imaging device captures an image based on an output of the light detection device.
制御部は、光検出素子の出力に基づいて撮像素子に複数の画素の一部から信号を読み出させる。これによって、実際に信号を読み出す領域を撮像面よりも狭い範囲に限定することができる。制御部は、光検出素子の出力に基づいて撮像素子が撮像するタイミングを制御する。これによって、撮像素子が撮像する不要な画像を排除することができる。このようにして不必要な像を排除することができる。 The control unit causes the image sensor to read signals from some of the plurality of pixels based on the output of the light detection element. As a result, it is possible to limit the area where signals are actually read out to a range narrower than the imaging surface. The control unit controls the timing at which the imaging element captures an image based on the output of the light detection element. Thereby, an unnecessary image captured by the image sensor can be eliminated. In this way, unnecessary images can be eliminated.
前記光検出素子は、前記撮像面に対応する受光領域における前記光信号の入射位置を検出する位置検出素子である、と良い。 The light detection element may be a position detection element that detects an incident position of the optical signal in a light receiving region corresponding to the imaging surface.
前記制御部は、前記光検出素子から出力される前記受光領域における前記光信号の入射位置を示す信号に基づいて前記撮像素子の前記撮像面の一部に読出範囲を設定し、前記撮像素子に当該読出範囲内の前記画素から信号を読み出させる、と良い。 The control unit sets a reading range in a part of the imaging surface of the imaging element based on a signal indicating an incident position of the optical signal in the light receiving region output from the light detection element, and It is preferable to read signals from the pixels within the reading range.
前記光信号は、予め外部に設けられた発光源から出力され、少なくとも前記発光源同士を識別する信号が重畳されていることを特徴とする請求項1に記載の位置情報取得装置。
The position information acquisition apparatus according to
前記光検出素子及び/又は前記撮像素子の出力に基づいて前記光信号に重畳された信号を復号する信号復号部を更に備える、と良い。 It is preferable to further include a signal decoding unit that decodes a signal superimposed on the optical signal based on the output of the light detection element and / or the imaging element.
前記光検出素子は、入射光強度に応じた値の電流を出力する受光素子である、と良い。 The light detection element may be a light receiving element that outputs a current having a value corresponding to an incident light intensity.
前記制御部は、前記受光素子から出力される前記光信号の入力又は無入力を示す信号に基づいて、前記撮像素子の前記撮像面に含まれる複数の前記画素の全部又は一部で前記撮像素子に撮像させる、と良い。 The control unit includes the imaging element based on a signal indicating input or non-input of the optical signal output from the light receiving element, in all or part of the plurality of pixels included in the imaging surface of the imaging element. It is good to let them image.
前記光信号は、予め外部に設けられた発光源から出力され、少なくとも前記発光源同士を識別する信号が重畳されている、と良い。 The optical signal may be output from a light source provided outside in advance, and at least a signal for identifying the light sources may be superimposed.
前記受光素子の出力に基づいて前記光信号に重畳された信号を復号する信号復号部を更に備える、と良い。 It is good to further have a signal decoding part which decodes a signal superimposed on the optical signal based on an output of the light receiving element.
前記光検出素子からの出力に基づいて閾値を決定する閾値決定部と、前記閾値決定部により決定された閾値に基づいて前記撮像素子から出力される画像に対して2値化処理をする画像処理部と、を更に備える、と良い。 A threshold value determination unit that determines a threshold value based on an output from the light detection element, and an image process that performs binarization processing on an image output from the imaging element based on the threshold value determined by the threshold value determination unit And a section.
前記光分岐手段は、前記光検出素子及び撮像素子夫々へ前記光信号の一部を導くビームスプリッタである、と良い。 The light branching unit may be a beam splitter that guides a part of the optical signal to each of the light detection element and the image pickup element.
本発明に係る位置推定装置は、外部から到来する光信号の検出に基づいて空間内における位置を推定する位置推定装置であって、前記光信号を第1及び第2方向へ分岐させる光分岐手段と、前記光分岐手段を介して前記第1方向に導かれる前記光信号を受光する光検出素子と、複数の画素が配置された撮像面を有すると共に、前記光分岐手段を介して前記第2方向に導かれる前記光信号を1つ以上の前記画素で受光する撮像素子と、前記光検出素子の出力に基づいて前記撮像素子に複数の前記画素の一部から信号を読み出させる、又は前記光検出素子の出力に基づいて前記撮像素子が撮像するタイミングを制御する制御部と、前記撮像素子から出力される画像に基づいて前記撮像面内の前記光信号の入射位置を検出し、当該検出結果に基づいて前記空間内における居場所を推定する位置推定部と、 を備える。 The position estimation apparatus according to the present invention is a position estimation apparatus that estimates a position in space based on detection of an optical signal coming from the outside, and an optical branching unit that branches the optical signal in first and second directions. And a light detection element that receives the optical signal guided in the first direction through the light branching means, an imaging surface on which a plurality of pixels are arranged, and the second through the light branching means. An image sensor that receives the optical signal guided in a direction at one or more of the pixels, and causes the image sensor to read signals from some of the pixels based on an output of the light detection element, or A control unit that controls the timing at which the imaging device captures an image based on the output of the light detection device, and an incident position of the optical signal within the imaging surface based on an image output from the imaging device, and the detection Based on results And a position estimation unit that estimates a place in the space.
前記位置推定部は、前記光信号が写された画像と前記光信号が写されていない画像との差分を求めることに基づいて前記撮像面内の前記光信号の入射位置を特定する、と良い。 The position estimation unit may specify an incident position of the optical signal in the imaging surface based on obtaining a difference between an image in which the optical signal is copied and an image in which the optical signal is not copied. .
本発明に係る移動体は、上述の位置情報取得装置又は位置推定装置を備える。 The moving body according to the present invention includes the above-described position information acquisition apparatus or position estimation apparatus.
本発明によれば、移動体の存在位置を推定する際に用いられる位置情報を従来よりも無駄なく取得することができる。 ADVANTAGE OF THE INVENTION According to this invention, the positional information used when estimating the presence position of a moving body can be acquired more wastefully than before.
以下、図面を参照しつつ、本発明の実施の形態について説明する。なお、各実施の形態は、説明の便宜上、簡略化されている。図面は簡略的なものであるから、図面の記載を根拠として本発明の技術的範囲を狭く解釈してはならない。図面は、もっぱら技術的事項の説明のためのものであり、図面に示された要素の正確な大きさ等は反映していない。同一の要素には、同一の符号を付し、重複する説明は省略するものとする。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. Each embodiment is simplified for convenience of explanation. Since the drawings are simple, the technical scope of the present invention should not be interpreted narrowly based on the drawings. The drawings are only for explaining the technical matters and do not reflect the exact sizes of the elements shown in the drawings. The same elements are denoted by the same reference numerals, and redundant description is omitted.
[第1の実施形態]
以下、図1乃至図7を参照して本発明の第1の実施形態について説明する。図1は、移動制御システムの構成を示す模式図である。図2は、位置推定装置の概略的な構成を示すブロック図である。図3は、ロボットに組み込まれる撮像ユニットの概略的な構成を示す説明図である。図4は、PSDの概略的な上面構成を示す模式図である。図5は、CMOSイメージャ6の概略的な上面構成を示す模式図である。図6は、位置推定装置の動作を説明するためのフローチャートである。図7は、光信号の入射位置の特定方法を説明するための説明図である。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a schematic diagram illustrating a configuration of a movement control system. FIG. 2 is a block diagram illustrating a schematic configuration of the position estimation apparatus. FIG. 3 is an explanatory diagram illustrating a schematic configuration of an imaging unit incorporated in the robot. FIG. 4 is a schematic diagram showing a schematic top configuration of the PSD. FIG. 5 is a schematic diagram showing a schematic top configuration of the
図1に示すように、移動制御システム300は、ロボット(移動体)100及び発光装置(発光源)200を有する。
As shown in FIG. 1, the
発光装置200は、空間内の所定箇所(例えば、室内の天井等)に予め固定されている。発光装置200は、パルス化された光信号(以下、パルス光信号又は単に光信号と呼ぶこともある)を空間に出力する。
The
発光装置200は、発光部(光源)201及び駆動部202を有する。発光部201は、LD(Laser Diode)又はLED(Light Emitting Diode)といった半導体発光素子である。発光部201は、赤外線の帯域の光を出射する。駆動部202は、予めROM等の記憶部に書き込まれたプログラムに従って、発光部201をパルス駆動する。尚、駆動部202の構成は任意である。また、空間内に複数の発光装置200を設けて、ロボット100の移動範囲をより広範囲又は高精度にさせても良い。
The
ロボット100は、発光装置200から出力される光信号を受信し、これに基づいて自己が存在する場所を検知する。なお、ロボット100は、自律的な移動、ヒトとの対話が可能なロボットであり、図1に示すように、頭部90、胴部91、腕92、及び車輪93を有する。
The
ロボット100の筐体内には、様々な部品が組み込まれる。例えば、ロボット100の動作を制御するコントローラ、コントローラからの指令に基づいて機械的に可動する駆動機構、コントローラによる処理に供する情報を取得するセンサ、センサからの入力を処理する処理回路、表示装置等の報知機構、及び電子機器に電源を供給する二次電池(電源)等がロボット100の筐体内に実装される。
Various parts are incorporated in the housing of the
コントローラは、通常のコンピュータから構成され、CPU、マザーボード、及び外部記憶装置(ハードディスク等)を有する。駆動機構は、モータ、アクチュエータ、及び機械的リンク等によって構成される。センサは、撮像素子、マイクロフォン、及び感熱素子等といった各種センサである。処理回路は、A/D変換回路、及び信号処理回路等といった回路部品である。報知機構は、液晶表示装置、スピーカー、LED(Light Emitting Diode)等といったように映像、音、及び光によって何らかの情報をヒトに伝達させる手段である。 The controller is composed of a normal computer and has a CPU, a motherboard, and an external storage device (such as a hard disk). The drive mechanism is configured by a motor, an actuator, a mechanical link, and the like. The sensors are various sensors such as an image sensor, a microphone, and a thermal element. The processing circuit is a circuit component such as an A / D conversion circuit and a signal processing circuit. The notification mechanism is means for transmitting some information to a human by video, sound, and light, such as a liquid crystal display device, a speaker, and an LED (Light Emitting Diode).
コントローラは、センサから入力された信号に基づいて、駆動機構又は報知機構を制御する。このようにしてロボット100は、必要に応じて空間を移動したり、必要に応じてヒトに対して何らかの情報を報知したりする。
The controller controls the drive mechanism or the notification mechanism based on a signal input from the sensor. In this way, the
ロボット100には、図2に示す位置推定装置60が組み込まれている。位置推定装置60は、発光装置200から出力される光信号に基づいて、この位置推定装置60が組み込まれたロボット100が居る場所を推定する。位置推定装置60をロボット100に組み込むことで、ロボットを空間内で自律的に移動させることができる。これによって、ロボット100の活用範囲を広げることができる。
The
図2に示すように、位置推定装置60は、光学系1、ビームスプリッタ(光分岐手段)2、位置検出センサ(光検出素子)3、信号処理回路4、演算処理部5、及びCMOSイメージャ(撮像素子)6を有する。なお、演算処理部5は、センサ制御部(制御部)5a、画像処理部5b、信号復号部5c、及び位置推定部5dを有する。
As shown in FIG. 2, the
位置推定装置60には、位置を推定する際に用いられる位置情報を取得する位置情報取得装置が組み込まれている。位置情報取得装置は、ビームスプリッタ2、位置検出センサ3、信号処理回路4、センサ制御部5a、及びCMOSイメージャ6により構成される。
The
はじめに位置推定装置60に含まれる要素の入出力関係について説明する。
First, input / output relationships of elements included in the
発光装置200から出力された光信号(OPS(Optical Signal))は、光学系1に入力される。光学系1から出力された光信号は、ビームスプリッタ2に入力される。ビームスプリッタ2で第1方向に分岐された光は、位置検出センサ3に入力される。位置検出センサ3から出力される信号S1は、信号処理回路4に入力される。信号処理回路4から出力される信号S2は、演算処理部5に入力される。ビームスプリッタ2で第2方向に分岐された光は、CMOSイメージャ6に入力される。なお、演算処理部5から出力される信号S3は、CMOSイメージャ6に入力される。また、CMOSイメージャ6から出力される信号S4は、演算処理部5に入力される。
An optical signal (OPS (Optical Signal)) output from the
以下、図3乃至図5も併せて参照しつつ、上述の光学系1、ビームスプリッタ2、位置検出センサ3、及びCMOSイメージャ6について説明する。なお、位置推定装置60は、図3に示す撮像ユニット50を有する。
Hereinafter, the
光学系1は、少なくとも1つ以上の光学素子(例えば、レンズ)を含む。図3に示すように、光学系1は、入射窓10及び対物レンズ11を有する。入射窓10には、発光装置200から空間を介して到来する光信号を含む外来光が入力される。対物レンズ11は、入射窓10を通過した外来光を位置検出センサ3の受光領域及びCMOSイメージャ6の撮像面に結像させる。
The
ビームスプリッタ2は、入力光の半分を直進させ、入力光の残りの半分を反射する光学部品である。図3に示すように、ビームスプリッタ2は、光信号の半分を直進させ、光信号の半分を反射させる。なお、ビームスプリッタ2を通過した光信号は、CMOSイメージャ6に入力される。また、ビームスプリッタ2で反射した光信号は、位置検出センサ3に入力される。
The
位置検出センサ3は、半導体材料からなる一般的な位置検出素子である。位置検出センサ3は、第1導電型の半導体基板の主面に第2導電型の抵抗層が形成される。また、複数の分割された信号取出電極が抵抗層の周囲に形成される。なお、抵抗層は接地電位に接続され、信号取出電極は半導体基板に接続される。
The
図4に示すように、位置検出センサ3は、受光領域20、及び複数の信号取出電極21a〜21dを有する。受光領域20には、上述の抵抗層が形成される。信号取出電極21a〜21dは、受光領域20の周囲に配置される。図4に模式的に示す範囲R1に光信号が入射する場合、受光領域20における光信号の入射位置に応じた値の光電流が各信号取出電極21a〜21dから出力される。
As illustrated in FIG. 4, the
信号取出電極21aからは、信号取出電極21aと範囲R1間の距離に応じた値の光電流が信号S1aとして出力される。信号取出電極21bからは、信号取出電極21bと範囲R1間の距離に応じた値の光電流が信号S1bとして出力される。信号S1aと信号S1b間の比率を検出することによって、受光領域20に入射した光信号のy軸に沿う位置(y座標)を検出することができる。なお、この演算処理は、後述の信号処理回路4で実行される。また、y軸は、外部から位置検出センサ3に到来する光信号の伝播方向に直交する軸線である。
From the
信号取出電極21cからは、信号取出電極21cと範囲R1間の距離に応じた値の光電流が信号S1cとして出力される。信号取出電極21dからは、信号取出電極21dと範囲R1間の距離に応じた値の光電流が信号S1dとして出力される。信号S1cと信号S1d間の比率を検出することによって、受光領域20に入射した光信号のx軸に沿う位置(x座標)を検出することができる。なお、この演算処理は、後述の信号処理回路4で実行される。また、x軸は、外部から位置検出センサ3に到来する光信号の伝播方向に直交し、かつy軸に直交する軸線である。
From the
図2に示す信号処理回路4は、位置検出センサ3から出力される信号S1(S1a〜S1d)に基づいて生成した信号S2(S2a、S2b)を出力する。より具体的には、信号処理回路4は、信号S1aと信号S1bの比率、及び信号S2aと信号S2bの比率を求める。
The signal processing circuit 4 shown in FIG. 2 outputs signals S2 (S2a, S2b) generated based on the signals S1 (S1a to S1d) output from the
ここでは、信号処理回路4は、トランスインピーダンス回路、及び論理回路を有する。位置検出センサ3から入力される信号S1a〜S1dとしての光電流は、トランスインピーダンス回路を介して電圧に変換される。各トラスインピーダンス回路で電圧変換された信号は、論理回路で演算処理され、x座標を示す信号S2a及びy座標を示す信号S2bとして出力される。なお、論理回路の具体的な構成は任意である。
Here, the signal processing circuit 4 includes a transimpedance circuit and a logic circuit. Photocurrents as signals S1a to S1d input from the
図2に示すCMOS(Complementary Metal Oxide Semiconductor)センサ6は、一般的な固体撮像素子である。なお、より好ましくは、ビームスプリッタ2とCMOSイメージャ6間の光路長をビームスプリッタ2と位置検出センサ3間の光路長よりも長くする。
A CMOS (Complementary Metal Oxide Semiconductor)
図5に示すように、CMOSイメージャ6は、撮像面としての撮像領域30、行選択回路31、列選択回路32、スイッチSW1〜SW6、及びデータ転送ライン33を有する。なお、図5では、説明の便宜上、リセット線、電源ライン、画素内のスイッチ、画素内のダイオード構造、及び画素内の増幅器等は図示を省略している。
As shown in FIG. 5, the
撮像領域30には複数の画素11〜66がマトリクス状(2次元状)に形成される。なお、画素11は、1行目の1列目という番地によって特定される画素である。画素66は、6行目の6列目という番地によって特定される画素である。他の画素についても同様である。
In the
撮像領域30と上述の受光領域20とは相似する。これによって、受光領域20上の座標位置と撮像領域30上の座標位置とを簡易に対応づけることができる。なお、撮像領域30の面積は必ずしも受光領域20の面積に一致する必要はない。
The
行選択回路31は、センサ制御部5aからの選択指示に従って特定の行を選択する。列選択回路32は、センサ制御部5aからの選択指示に従って特定の列を選択する。なお、列選択回路32は、スイッチSW1〜6の動作状態を制御することに基づいて列を選択する。行選択回路31によって選択された行に含まれ、かつ列選択回路32によって選択された列に含まれる画素に保持された電圧信号は、データ転送ライン33を介して外部へ出力される。
The
行選択回路31及び列選択回路32の制御に基づいて、撮像領域30に含まれる全画素から電圧信号を出力させることができる。また、行選択回路31及び列選択回路32の制御に基づいて、撮像領域30に含まれる全画素の一部から電圧信号を出力させることもできる。つまり、CMOSイメージャ6は、画素単位で信号の読出しをすることができる。従って、電荷転送方式のCCD(Charge Coupled Device)センサよりも読出範囲を効果的に限定させることができる。
Based on the control of the
上述のように、演算処理部5は、センサ制御部(制御部)5a、画像処理部5b、信号復号部5c、及び位置推定部5dを有する。なお、演算処理部5の各機能は、記憶部に格納されたプログラムがCPUコア等で実行されることによって実現される。
As described above, the
センサ制御部5aは、上述の座標信号S2に基づいて、CMOSイメージャ6の撮像領域30に含まれる画素から実際に信号を読み出す画素の番地を設定する。センサ制御部5aは、信号を読み出す画素の番地を信号S3としてCMOSイメージャ6へ出力する。これによって、CMOSイメージャ6からの指定された番地の画素から電圧信号が順次出力される。つまり、センサ制御部5aは、CMOSイメージャ6に対して、位置検出センサ3の受光領域20に入射した光信号の入射位置に対応する範囲の画素から電圧信号を読み出させる。
The
これによって、電圧信号を読み出す画素を好適に限定することができる。つまり、ロボット100の居場所を推定する際に用いられない像を取得すること自体を抑圧することができる。また、すべての画素から電圧信号を読み出す場合と比較して、電圧信号を読み出す画素を限定することで、CMOSイメージャ6をより高速に駆動することができる。
Thereby, the pixel which reads a voltage signal can be limited suitably. That is, it is possible to suppress acquisition of an image that is not used when estimating the whereabouts of the
CMOSイメージャ6の全画素から全電圧信号を読み出す場合には、行選択回路31及び列選択回路32によって選択的に行及び列を指定することが必要になる。そのため、全画素からの全電圧信号の読出しには所要の時間を要する。画素からの信号読出しに要する時間が長くなるとCMOSイメージャ6のフレームレートが低下する。このため、CMOSイメージャ6で取得した像に基づいて高速にパルス変調された信号を検出することはできない。
When all voltage signals are read from all pixels of the
本実施形態においては、画素から電圧信号を実際に読み出させる読出範囲を撮像範囲30よりも狭くすることで、CMOSイメージャ6をより高速に駆動させることができる。つまり、より高い時間分解能でCMOSイメージャ6に画像を取得させることができる。従って、発光装置200から出力される光信号が非常に短い時間間隔でパルス変調されていたとしても、CMOSイメージャ6で取得した画像に基づいてパルス変調された信号を復号することができる。なお、読出範囲を限定することは、撮像範囲を限定することを排除するものではない。すなわち、読出範囲に対応する範囲で撮像する場合にも本実施形態は適用可能である。
In the present embodiment, the
図2に示す画像処理部5bは、CMOSイメージャ6から読み出される画像(信号S4)に対して画像処理を実行する。具体的には、画像処理部5bは、予め設定された閾値に基づいてCMOSイメージャ6から読み出された画像に2値化処理を実行する。これによって、撮像領域30に入射した光信号を抽出させることができる。
The
位置推定するためにはCMOSイメージャ6で取得した像を観察することは必要ではなく、CMOSイメージャ6の撮像領域30のどの部分に光信号が入射したのかを求めることが必要である。このようにCMOSイメージャ6から読み出される画像に対して2値化処理を施すことによって、より簡単にCMOSイメージャ6の撮像領域30のどの部分に光信号が入射したのかを求めることが可能になる。
In order to estimate the position, it is not necessary to observe the image acquired by the
信号復号部5cは、画像処理部5bで画像処理された複数の画像に基づいて光信号に重畳された信号を復号する。ここでは、発光装置200から出力される光信号には、発光装置200の識別信号が重畳されている。この識別信号を復号することによって、現在受信している光信号を出力している発光装置200を特定することができる。なお、信号復号部5cは、位置検出センサ3の出力に基づいて信号の復号を実行しても良い。
The
位置推定部5dは、信号復号部5cで復号された識別信号に基づいて地図上のどの位置にロボット100が居るのかを大まかに推定する。また、位置推定部5dは、画像処理部5bで画像処理された複数の画像に基づいて光信号が入射した撮像領域30上に位置を検出し、この検出結果に基づいてロボット100の現在の居場所を詳細に推定する。
The
位置推定部5dは、予め地図情報を有している。換言すると、位置推定部5dは、地図情報が格納された記憶領域(ハードディスク、半導体メモリ等)を有している。発光装置200が設けられた場所は、予めこの地図情報に書き込まれている。位置推定部5dは、信号復号部5cの出力に基づいて、地図上のどの位置にいるのかを大まかに推定する。
The
位置推定部5dは、画像処理部5bで画像処理された複数の画像に基づいて光信号が入射した撮像領域30上に位置を検出する。撮像領域30上の光信号の入射位置を検出すれば、発光装置200と撮像ユニット50間の相対的な位置関係が求められる。従って、この位置関係に基づいて発光装置200に対する自己の位置を推定することができる。信号の復号及び光信号の撮像面上の入射位置の検出の双方を実行することで、ロボットが居る地図上の位置を高精度に推定することができる。
The
図6を参照して、位置推定装置60の概略的な動作について説明する。
With reference to FIG. 6, a schematic operation of the
まず、位置検出センサ(PSD(Position Sensitive Detector))を活用して、座標情報を取得する(S1)。位置検出センサ3の受光領域20にスポット状の光信号が入射すると、分割された信号取出電極21a〜21dからは光電流が信号S1a〜S1dとして出力される。信号処理回路4は、信号S1a〜S1dに基づいて、受光領域20上の光信号の入射位置を示す座標信号S2a、S2bを生成し、これらを出力する。座標信号S2a、S2bは、座標情報としても把握することができる。
First, coordinate information is acquired using a position detection sensor (PSD (Position Sensitive Detector)) (S1). When a spot-like optical signal enters the
次に、座標情報に基づいて読出範囲を設定する(S2)。具体的には、センサ制御部5aは、信号処理回路4から出力される座標信号S2に基づいて、CMOSイメージャ6の撮像領域30に含まれる画素から実際に信号を読み出す画素の番地を設定し、信号読出しの対象にした画素の番地を示す信号S3をCMOSイメージャ6に出力する。例えば、CMOSイメージャ6の撮像面における光信号の入射推定位置付近にある複数の画素群を特定し、このように特定した画素群の番地を信号S3としてCMOSイメージャ6に出力する。
Next, a reading range is set based on the coordinate information (S2). Specifically, the
次に、指定された番地の画素から信号を出力させる(S3)。換言すると、指定された読出範囲内の画素から信号を出力させる。CMOSイメージャ6は、信号S3の入力に応じて、指定された番地の画素に保持された電圧信号を読み出し、これを信号S4として出力する。なお、CMOSイメージャ6は、所定の時間間隔で、信号の蓄積、及び蓄積された信号のリセットを行っているものとする。
Next, a signal is output from the pixel at the designated address (S3). In other words, a signal is output from a pixel within the designated readout range. In response to the input of the signal S3, the
次に、取得した像を2値化する(S4)。具体的には、画像処理部5bは、予め設定された閾値に基づいて信号S4に対して2値化処理を実行する。これによって、撮像領域30に入射した光信号を抽出させることができる。
Next, the acquired image is binarized (S4). Specifically, the
次に、撮像領域30における光信号の入射位置を特定する(S5)。具体的には、位置推定部5dは、画像処理部5bで画像処理された複数の画像に基づいて光信号が入射した撮像領域30上の位置を検出する。
Next, the incident position of the optical signal in the
図7を参照して光信号の入射位置の特定方法について説明する。図7(a)及び(b)に光信号が撮像領域30に入射する場合を示し、図7(c)及び(d)に光信号が撮像領域30に入射しない場合の説明図を示す。図7(a)及び(c)は、撮像領域30内に設定された読出範囲R40を示す。図7(b)は、図7(a)のx7b−x7b間の2値化後の強度分布を示す。図7(d)は、図7(c)のx7d−x7d間の2値化後の強度分布を示す。なお、範囲R1には発光装置200からの光信号が入射し、範囲R2にはノイズ光が入射するものとする。
A method for specifying the incident position of the optical signal will be described with reference to FIG. 7A and 7B show a case where an optical signal is incident on the
画像処理部5bは、図7(b)と図7(d)の差分をとる。これによってノイズ光の入射に応じたパターンdp1を排除することができる。これによって位置推定をより高精度に実行することができる。
The
ロボット100が移動する空間は、発光装置200の他にも様々な光源が配置される場合がある。ロボット100が屋外に置かれる場合には、太陽光の影響を当然受ける。但し、発光装置200以外に想定される光源は一定の位置で一定の強度の光を恒常的に出力していることが想定される。したがって、上述のように、発光装置200からの光信号が入力したときの2値画像と、それが無入力のときの2値画像間の差分を求めることによって好適にノイズ光を排除することができる。
In the space in which the
再び図6に戻り説明する。 Returning again to FIG.
次に、信号の復号をする(S6)。具体的には、信号復号部5cは、画像処理部5bで画像処理された複数の画像に基づいて光信号に重畳された信号を復号する。上述のように本実施形態においては、撮像領域30に含まれる画素から信号を実際に読み出す画素を限定する。これによって高い時間分解能で過不足ない範囲で画像を取得することができる。よって、比較的画素数が多いCMOSイメージャ6を活用する場合であっても好適に信号の復号を実現することができる。実際には、時系列に沿ってCMOSイメージャ6から出力される画像を解析することによって信号の復号が実行される。なお、上述のステップS5の前にステップS6を実行しても良い。
Next, the signal is decoded (S6). Specifically, the
次に、居場所の推定をする(S7)。具体的には、位置推定部5dは、信号復号部5cで復号された識別信号に基づいて地図上のどの位置にロボット100が居るのかを大まかに推定する。また、位置推定部5dは、画像処理部5bで画像処理された複数の画像に基づいて光信号が入射した撮像領域30上に位置を検出し、この検出結果に基づいてロボット100の現在の居場所を詳細に推定する。
Next, the whereabouts are estimated (S7). Specifically, the
本実施形態では、センサ制御部5aは、位置検出センサ3における光信号の入射位置を示す座標信号S2に基づいて、CMOSイメージャ6の撮像領域30に読出範囲を設定する。そして、CMOSイメージャ6から読出範囲内の画素に限定して信号を出力させる。具体的には、センサ制御部5aは、信号読出の対象とした画素の番地(アドレス)をCMOSイメージャ6に連絡し、CMOSイメージャ6に指定された番地の画素の電圧信号を順次出力させる。
In the present embodiment, the
これによって、電圧信号を読み出す画素を好適に限定することができる。つまり、ロボット100の居場所を推定する際に用いられない像を取得すること自体を抑圧することができる。また、すべての画素から電圧信号を読み出す場合と比較して、電圧信号を読み出す画素を限定すれば、より高速にCMOSイメージャ6を駆動することができる。つまり、より高い時間分解能でCMOSイメージャ6に画像を取得させる。従って、発光装置200から出力される光信号が非常に短い時間間隔でパルス変調されていたとしても、CMOSイメージャ6で取得した画像に基づいて、パルス変調された光信号を復号することができる。また、上述のように光信号が入力したときの2値画像と光信号が無入力のときの2値画像との差分をとることで背景光の影響を低減させることができる。なお、差分の対象となる画像は、2値化前の画像であっても良い。
Thereby, the pixel which reads a voltage signal can be limited suitably. That is, it is possible to suppress acquisition of an image that is not used when estimating the whereabouts of the
[第2の実施形態]
以下、図8乃至10を用いて、第2の実施形態について説明する。図8は、撮像ユニットの概略的な構成を示す模式図である。図9は、位置推定装置の概略的な構成を示すブロック図である。図10は、位置推定装置の動作を説明するためのフローチャートである。
[Second Embodiment]
Hereinafter, the second embodiment will be described with reference to FIGS. FIG. 8 is a schematic diagram illustrating a schematic configuration of the imaging unit. FIG. 9 is a block diagram illustrating a schematic configuration of the position estimation apparatus. FIG. 10 is a flowchart for explaining the operation of the position estimation apparatus.
本実施形態においては、位置検出センサ3に代えて、フォトダイオード(PD(Photo Diode))7を用いる。このような場合であっても第1の実施形態と同様にロボットの存在位置を推定する際に用いられる位置情報を従来よりも無駄なく取得することができる。
In the present embodiment, a photodiode (PD (Photo Diode)) 7 is used instead of the
図8に示すように、ビームスプリッタ2から出力される光信号はフォトダイオード(光検出素子)7に入力される。
As shown in FIG. 8, the optical signal output from the
図9に示すように、ビームスプリッタ2からの出力される光信号はフォトダイオード7に入力される。フォトダイオード7からは光電流が信号S10として出力される。フォトダイオード7から出力される信号S10はトランスインピーダンス回路8に入力される。トランスインピーダンス回路8から出力される信号S11は演算処理部5のセンサ制御部5aに入力される。
As shown in FIG. 9, the optical signal output from the
フォトダイオード7は、PN接合が形成された受光素子であり、逆バイアスされた状態で入射光量に応じた値の光電流を出力する。トランスインピーダンス回路8は、光電流を電圧に変換し、この電圧を信号S11として出力するアナログ回路である。なお、フォトダイオード7として、PN接合を有するフォトトランジスタを活用しても良い。
The
本実施形態では、センサ制御部5aは、信号S11が予め設定した閾値を超えるかどうかに基づいてフォトダイオード7に光信号が入射したタイミングを検出する。そして、センサ制御部5aは、フォトダイオード7に光信号が入射したタイミングに同期させてCMOSイメージャ6を駆動させる。換言すると、センサ制御部5aは、フォトダイオード7で検出した光信号の入射タイミングに同期させてCMOSイメージャ6に撮像を指示する。
In the present embodiment, the
光信号が写されていない画像は、背景光除去のために活用することができたとしても、撮像領域30に入射する光信号の位置を特定するためには活用することはできない。従って、光信号が写されていない画像の取得数を減らす又はその画像の取得自体を実行しないほうが良い場合がある。本実施形態では、この点に鑑みて、上述のようにCMOSイメージャ6が撮像するタイミングをフォトダイオード7で検出したタイミングに同期させる。このようにして、位置推定に利用されることがない無駄な画像を排除することができる。
Even if the image on which the optical signal is not copied can be used for background light removal, it cannot be used for specifying the position of the optical signal incident on the
なお、信号復号部5cは、フォトダイオード7の出力に基づいて光信号に重畳した信号を復号する。また、トランスインピーダンス回路8と演算処理部5の間に比較回路を設けて、これにより光信号の入力の有無を検出しても良い。この場合、センサ制御部5aは、比較回路の判定結果に基づいてCMOSイメージャ6を制御する。例えば、センサ制御部5aは、比較回路からHレベルの電圧信号が出力される場合にCMOSイメージャ6に撮像を指示する。センサ制御部5aは、比較回路からLレベルの電圧信号が出力される場合にCMOSイメージャ6に撮像を指示しない。
The
次に図10を参照して位置推定装置60の動作について説明する。
Next, the operation of the
まず、光信号を受信する(S1)。具体的には、フォトダイオード7で光信号を受光する。
First, an optical signal is received (S1). Specifically, the
次に、閾値以上であるのかを判定する(S2)。具体的には、センサ制御部5aはトランスインピーダンス回路8から出力される電圧信号S11のレベルが予め設定された閾値以上であるのかを判定する。
Next, it is judged whether it is more than a threshold value (S2). Specifically, the
電圧信号S11が閾値以上の場合には、撮像の指示をする(S3)。具体的には、センサ制御部5aはCMOSイメージャ6に撮像を指示する。
If the voltage signal S11 is greater than or equal to the threshold value, an instruction for imaging is given (S3). Specifically, the
次に撮像を実行する(S4)。具体的には、CMOSイメージャ6は、センサ制御部5aから伝達される撮像指示信号S3を受けて撮像を実行する。そして、CMOSイメージャ6は、撮像した像を信号S4として演算処理部5へ出力する。
Next, imaging is executed (S4). Specifically, the
なお、図10におけるステップS5、S6、及びS7の各ステップは、第1の実施形態における対応するステップに一致する。従って、重複する説明は省略する。 Note that steps S5, S6, and S7 in FIG. 10 correspond to the corresponding steps in the first embodiment. Therefore, the overlapping description is omitted.
また、図10に示すように、ステップS1の後に、信号の復号をする(S7)。具体的には、信号復号部5cは、フォトダイオード7からの出力に基づいて光信号に重畳された信号を復号する。ここでは、CMOSイメージャ6は光信号の入力に同期したタイミングで撮像する。従って、CMOMセンサ6の出力に代えて、フォトダイオード7の出力に基づいて光信号に重畳された信号を復号する。
Further, as shown in FIG. 10, after step S1, the signal is decoded (S7). Specifically, the
本実施形態では、CMOSイメージャ6が撮像するタイミングをフォトダイオード7で検出したタイミングに同期させる。このようにして、位置推定に利用されることがない無駄な画像を排除することができる。
In this embodiment, the timing when the
[第3の実施形態]
以下、図11乃至12を用いて、第3の実施形態について説明する。図11は、演算処理部5の構成を示すブロック図である。図12は、閾値決定部の動作を説明するためのフローチャートである。なお、第1及び第2の実施形態と異なる点についてのみ説明する。本実施形態は、第1及び第2の実施形態の変形例として位置づけられる。
[Third embodiment]
The third embodiment will be described below with reference to FIGS. FIG. 11 is a block diagram illustrating a configuration of the
本実施形態においては、演算処理部5は、閾値決定部5eを有する。閾値決定部5eは、画像処理部5bによる画像の2値化処理に用いられる閾値を位置検出センサ3又はフォトダイオード7の出力値に基づいて決定する。このように閾値を設定することで、撮像領域30に入射した光信号の有無の判定を容易化させることができる。また、撮像した画像に含まれる背景光の影響を効果的に低減させることができる。この点は、特に外来光の照度が強い環境の下でスポット状の光信号を検出する場合に有利である。なお、閾値決定部5eが閾値を決定するとき、位置検出センサ3又はフォトダイオード7には発光装置200からの出力光が入力されていないものとする。また、位置検出センサ3の出力は、位置検出センサ3から出力される光電流の総和に等しい。
In the present embodiment, the
図12を参照して閾値の設定方法について説明する。 A threshold setting method will be described with reference to FIG.
まず、位置検出センサ3又はフォトダイオード7で入射光強度を取得する(S1)。
First, the incident light intensity is acquired by the
次に、この入射光強度に基づいて閾値を決定する(S2)。具体的には、演算処理部5に入力される電圧信号の電圧レベルに応じて閾値を設定する。
Next, a threshold value is determined based on the incident light intensity (S2). Specifically, the threshold value is set according to the voltage level of the voltage signal input to the
本実施形態においては、閾値決定部5eは、画像処理部5bによる画像の2値化処理に用いられる閾値を位置検出センサ3又はフォトダイオード7の出力値に基づいて決定する。このように閾値を設定することで、撮像領域30に入射した光信号の有無の判定を容易化させることができる。また、撮像した画像に含まれる背景光の影響を効果的に低減させることができる。
In the present embodiment, the
本発明は上述の実施の形態に限定されるものではない。位置推定装置60は、図1に示すようなパートーロボットのほかにも、産業用のロボットにも適用することができる。フォトセンサの具体的な構造は任意である。CMOSイメージャ6に代えてCCDセンサを活用しても良い。位置検出センサは、上述の位置検出方式に限定されない。信号処理回路の具体的な構成は任意である。演算処理部5の具体的な構成は任意である。演算処理部5の各機能をハードウェアで実現させても良い。
The present invention is not limited to the above-described embodiment. The
300 移動制御システム
100 ロボット
60 位置推定装置
50 撮像ユニット
1 光学系
2 ビームスプリッタ
3 位置検出センサ
4 信号処理回路
5 演算処理部
6 CMOSイメージャ
7 フォトダイオード
8 トランスインピーダンス回路
5a センサ制御部
5b 画像処理部
5c 信号復号部
5d 位置推定部
5e 閾値決定部
20 受光領域
21a〜21d 信号取出電極
10 入射窓
11 対物レンズ
30 撮像領域
31 行選択回路
32 列選択回路
33 データ転送ライン
300
DESCRIPTION OF
5a
20
10
30
Claims (15)
前記光信号を第1及び第2方向へ分岐させる光分岐手段と、
前記光分岐手段を介して前記第1方向に導かれる前記光信号を受光する光検出素子と、
複数の画素が配置された撮像面を有すると共に、前記光分岐手段を介して前記第2方向に導かれる前記光信号を1つ以上の前記画素で受光する撮像素子と、
前記光検出素子の出力に基づいて前記撮像素子が撮像するタイミングを制御する制御部と、
を備える位置情報取得装置。 A position information acquisition device that acquires position information based on detection of an optical signal coming from the outside,
Optical branching means for branching the optical signal in the first and second directions;
A light detecting element that receives the optical signal guided in the first direction via the optical branching means;
An imaging device having an imaging surface in which a plurality of pixels are arranged, and receiving the optical signal guided in the second direction via the optical branching means by one or more of the pixels;
A control unit for controlling the timing of the image pickup device takes an image based on the output of the previous SL photodetector,
A position information acquisition device comprising:
前記光信号を第1及び第2方向へ分岐させる光分岐手段と、
前記光分岐手段を介して前記第1方向に導かれる前記光信号を受光する光検出素子と、
複数の画素が配置された撮像面を有すると共に、前記光分岐手段を介して前記第2方向に導かれる前記光信号を1つ以上の前記画素で受光する撮像素子と、
前記光検出素子の出力に基づいて前記撮像素子に複数の前記画素の一部から信号を読み出させる制御部と、を備え、
前記光検出素子は、前記撮像面に対応する受光領域における前記光信号の入射位置を検出する位置検出素子である位置情報取得装置。 A position information acquisition device that acquires position information based on detection of an optical signal coming from the outside,
Optical branching means for branching the optical signal in the first and second directions;
A light detecting element that receives the optical signal guided in the first direction via the optical branching means;
An imaging device having an imaging surface in which a plurality of pixels are arranged, and receiving the optical signal guided in the second direction via the optical branching means by one or more of the pixels;
And a read allowed Ru control section signals from some of the plurality of pixels in the imaging device based on an output of the light detection element,
The position information acquisition device , wherein the light detection element is a position detection element that detects an incident position of the optical signal in a light receiving region corresponding to the imaging surface .
前記閾値決定部により決定された閾値に基づいて前記撮像素子から出力される画像に対して2値化処理をする画像処理部と、
を更に備えることを特徴とする請求項1乃至9のいずれか一項に記載の位置情報取得装置。 A threshold value determination unit for determining a threshold value based on an output from the light detection element;
An image processing unit that performs binarization processing on an image output from the image sensor based on the threshold value determined by the threshold value determination unit;
The position information acquisition apparatus according to claim 1, further comprising:
前記光信号を第1及び第2方向へ分岐させる光分岐手段と、
前記光分岐手段を介して前記第1方向に導かれる前記光信号を受光する光検出素子と、
複数の画素が配置された撮像面を有すると共に、前記光分岐手段を介して前記第2方向に導かれる前記光信号を1つ以上の前記画素で受光する撮像素子と、
前記光検出素子の出力に基づいて前記撮像素子が撮像するタイミングを制御する制御部と、
前記撮像素子から出力される画像に基づいて前記撮像面内の前記光信号の入射位置を検出し、当該検出結果に基づいて前記空間内における居場所を推定する位置推定部と、
を備える位置推定装置。 A position estimation device for estimating a position in space based on detection of an optical signal coming from the outside,
Optical branching means for branching the optical signal in the first and second directions;
A light detecting element that receives the optical signal guided in the first direction via the optical branching means;
An imaging device having an imaging surface in which a plurality of pixels are arranged, and receiving the optical signal guided in the second direction via the optical branching means by one or more of the pixels;
A control unit for controlling the timing of the image pickup device takes an image based on the output of the previous SL photodetector,
A position estimation unit that detects an incident position of the optical signal in the imaging surface based on an image output from the imaging element, and estimates a location in the space based on the detection result;
A position estimation apparatus comprising:
前記光信号を第1及び第2方向へ分岐させる光分岐手段と、
前記光分岐手段を介して前記第1方向に導かれる前記光信号を受光する光検出素子と、
複数の画素が配置された撮像面を有すると共に、前記光分岐手段を介して前記第2方向に導かれる前記光信号を1つ以上の前記画素で受光する撮像素子と、
前記光検出素子の出力に基づいて前記撮像素子に複数の前記画素の一部から信号を読み出させる制御部と、
前記撮像素子から出力される画像に基づいて前記撮像面内の前記光信号の入射位置を検出し、当該検出結果に基づいて前記空間内における居場所を推定する位置推定部と、
を備え、
前記光検出素子は、前記撮像面に対応する受光領域における前記光信号の入射位置を検出する位置検出素子である位置推定装置。 A position estimation device for estimating a position in space based on detection of an optical signal coming from the outside,
Optical branching means for branching the optical signal in the first and second directions;
A light detecting element that receives the optical signal guided in the first direction via the optical branching means;
An imaging device having an imaging surface in which a plurality of pixels are arranged, and receiving the optical signal guided in the second direction via the optical branching means by one or more of the pixels;
A plurality of said read allowed Ru control section some signals from pixels in the imaging device based on an output of the light detection element,
A position estimation unit that detects an incident position of the optical signal in the imaging surface based on an image output from the imaging element, and estimates a location in the space based on the detection result;
Equipped with a,
The position estimation device , wherein the light detection element is a position detection element that detects an incident position of the optical signal in a light receiving region corresponding to the imaging surface .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008004129A JP5045447B2 (en) | 2008-01-11 | 2008-01-11 | POSITION INFORMATION ACQUISITION DEVICE, POSITION ESTIMATION DEVICE, AND MOBILE BODY |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008004129A JP5045447B2 (en) | 2008-01-11 | 2008-01-11 | POSITION INFORMATION ACQUISITION DEVICE, POSITION ESTIMATION DEVICE, AND MOBILE BODY |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009168488A JP2009168488A (en) | 2009-07-30 |
JP5045447B2 true JP5045447B2 (en) | 2012-10-10 |
Family
ID=40969842
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008004129A Expired - Fee Related JP5045447B2 (en) | 2008-01-11 | 2008-01-11 | POSITION INFORMATION ACQUISITION DEVICE, POSITION ESTIMATION DEVICE, AND MOBILE BODY |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5045447B2 (en) |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3218477B2 (en) * | 1992-06-25 | 2001-10-15 | バブコック日立株式会社 | Tracking optical wireless communication method and device |
JPH06109424A (en) * | 1992-09-24 | 1994-04-19 | Central Japan Railway Co | Image sensing apparatus for measurement |
JPH0743115A (en) * | 1993-07-26 | 1995-02-10 | Sony Corp | Distance measurement method and distance measurement device |
JPH07190773A (en) * | 1993-12-27 | 1995-07-28 | Wacom Co Ltd | Optical three-dimensional position detecting device |
JPH08304020A (en) * | 1995-04-28 | 1996-11-22 | Ando Electric Co Ltd | Movement-accuracy measuring apparatus |
JP2854831B2 (en) * | 1996-03-05 | 1999-02-10 | 財団法人イメージ情報科学研究所 | Three-dimensional position recognition method and device |
US6297488B1 (en) * | 1999-04-29 | 2001-10-02 | National Research Council Of Canada | Position sensitive light spot detector |
JP3991751B2 (en) * | 2002-04-09 | 2007-10-17 | 日本ビクター株式会社 | Solid-state imaging device and reading method thereof |
JP3762745B2 (en) * | 2002-12-26 | 2006-04-05 | 株式会社国際電気通信基礎技術研究所 | Object identification system, light emitting device, and detection device |
JP4478885B2 (en) * | 2005-06-28 | 2010-06-09 | ソニー株式会社 | Information processing apparatus and method, program, and recording medium |
JP2007018188A (en) * | 2005-07-06 | 2007-01-25 | Hitachi Ltd | System, method and apparatus for information presentation through extended sense of reality, and computer program |
-
2008
- 2008-01-11 JP JP2008004129A patent/JP5045447B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009168488A (en) | 2009-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9652653B2 (en) | Acceleration-based motion tolerance and predictive coding | |
CN205354047U (en) | Mark reads terminal | |
JP4162023B2 (en) | Fingerprint detector | |
JP4805885B2 (en) | Lift detection suitable for navigation on transparent structures | |
KR20140056986A (en) | Motion sensor array device, depth sensing system and method using the same | |
US7868281B2 (en) | Optical navigation system and method of estimating motion with optical lift detection | |
WO2016011671A1 (en) | Identity identification apparatus and operation method for identity identification apparatus | |
US11290643B1 (en) | Efficient digital camera image acquisition and analysis | |
ATE520039T1 (en) | PHOTO CAPTURE DEVICE | |
KR102627014B1 (en) | electronic device and method for recognizing gestures | |
CN101097288A (en) | Focus detection apparatus, method of driving the same and camera system | |
JP5593750B2 (en) | Image processing method and image processing apparatus | |
US9761199B2 (en) | Optical navigation system and detection method thereof adapted for ambient light and liftoff detection | |
US20170177915A1 (en) | Monolithic integrated focal array plane and apparatus employing the array | |
JP4548595B2 (en) | Sensor device | |
JP5045447B2 (en) | POSITION INFORMATION ACQUISITION DEVICE, POSITION ESTIMATION DEVICE, AND MOBILE BODY | |
JP2007265343A (en) | Follow-up device of mobile object and electric wheelchair having the same | |
CN109584278B (en) | Target identification device and method | |
US8289415B2 (en) | Blink signal detection circuit, blink signal detection method, object sensing apparatus, object sensing method, and imaging system | |
JP7269131B2 (en) | Information processing device, line-of-sight detection system, line-of-sight detection method, and line-of-sight detection program | |
EP4086660A1 (en) | Lidar device and electronic apparatus including the same | |
JP2021038063A (en) | Shelf imaging device and information processing device | |
WO2023203896A1 (en) | Information processing device and program | |
US20150193019A1 (en) | Mobile apparatus with optical indexer, and method for indexing using the same | |
US20220046159A1 (en) | Imaging device assembly, three-dimensional shape measuring device, and motion detecting device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101019 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120418 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120424 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120619 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120702 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150727 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |