JP5045447B2 - POSITION INFORMATION ACQUISITION DEVICE, POSITION ESTIMATION DEVICE, AND MOBILE BODY - Google Patents

POSITION INFORMATION ACQUISITION DEVICE, POSITION ESTIMATION DEVICE, AND MOBILE BODY Download PDF

Info

Publication number
JP5045447B2
JP5045447B2 JP2008004129A JP2008004129A JP5045447B2 JP 5045447 B2 JP5045447 B2 JP 5045447B2 JP 2008004129 A JP2008004129 A JP 2008004129A JP 2008004129 A JP2008004129 A JP 2008004129A JP 5045447 B2 JP5045447 B2 JP 5045447B2
Authority
JP
Japan
Prior art keywords
optical signal
signal
light
imaging
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008004129A
Other languages
Japanese (ja)
Other versions
JP2009168488A (en
Inventor
一行 佐々木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008004129A priority Critical patent/JP5045447B2/en
Publication of JP2009168488A publication Critical patent/JP2009168488A/en
Application granted granted Critical
Publication of JP5045447B2 publication Critical patent/JP5045447B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、位置情報取得装置、位置推定装置、及び移動体に関する。   The present invention relates to a position information acquisition device, a position estimation device, and a moving object.

近年、様々な用途で活用が見込まれるロボットが注目されている。例えば、楽器演奏等のアミューズメントを提供するパートナーロボット、被介護者に介護を提供するパートナーロボット、及び生産ラインの生産を手助けするロボットが注目されている。   In recent years, robots that are expected to be used in various applications have attracted attention. For example, a partner robot that provides an amusement such as playing a musical instrument, a partner robot that provides care to a care recipient, and a robot that assists in production of a production line are attracting attention.

高性能なロボットを実現するに際して、ロボットが空間を移動したり、ヒトとの対話に応じた所望の動作を実現したりすることが要求される。空間を移動することが要求される場合、ある空間内の存在位置を高精度に把握することが要求される。この場合には、いわゆる光タグを活用して、空間内のロボットの存在位置を検出する手法を活用すると良い。   When realizing a high-performance robot, it is required that the robot move in a space or realize a desired operation according to a dialogue with a human. When it is required to move in a space, it is required to grasp the position in a certain space with high accuracy. In this case, a technique for detecting the position of the robot in the space using a so-called optical tag may be used.

特許文献1には、光タグに関する技術が開示されている。特許文献1では、詳細情報を検出する高速タグリーダ、及びカテゴリ情報を検出する低速タグリーダを設けている。これによって、カテゴリ情報及び詳細情報を含む多様な属性情報の伝送を実現させている。   Patent Document 1 discloses a technique related to an optical tag. In Patent Document 1, a high-speed tag reader that detects detailed information and a low-speed tag reader that detects category information are provided. Thus, transmission of various attribute information including category information and detailed information is realized.

なお、特許文献2には光動画像検出装置が開示されている。また、特許文献3には、視覚センサが開示されている。
特開2007−184785号公報 特開平5−2198号公報 特開2000−20880号公報
Patent Document 2 discloses an optical moving image detection apparatus. Further, Patent Document 3 discloses a visual sensor.
JP 2007-184785 A Japanese Patent Laid-Open No. 5-2198 JP 2000-20880 A

ところで、ある空間内のロボットの存在位置を推定する際に用いられる位置情報を取得するために、外部に設けられた発光源からの光信号をロボットに組み込んだ撮像素子で検出する場合には次のような問題がある。   By the way, in order to acquire position information used when estimating the position of a robot in a certain space, an optical signal from an external light source is detected by an image sensor incorporated in the robot. There is a problem like this.

撮像素子の撮像面には光信号が入力されない領域があり、この領域で撮像した像は無駄になる。この無駄な像を読み出すのに要する時間だけ、より高い速度で撮像素子を駆動することが阻害される。   There is an area where no optical signal is input on the imaging surface of the imaging element, and an image captured in this area is wasted. Driving the image sensor at a higher speed is hindered by the time required to read out this useless image.

また、光信号がパルス化されている場合には、撮像素子が取得する像には光信号が写らない像があり、この像は無駄になる。撮像素子から出力される無駄な像の数だけ、撮像素子の出力が接続される画像処理部における画像処理の負担を増大させてしまう。   Further, when the optical signal is pulsed, the image acquired by the image sensor includes an image in which the optical signal is not captured, and this image is wasted. The burden of image processing in the image processing unit to which the output of the image sensor is connected is increased by the number of useless images output from the image sensor.

このようにロボットの存在位置を推定する際に用いられる位置情報を無駄なく取得することが強く望まれている。   Thus, it is strongly desired to acquire the position information used when estimating the position of the robot without waste.

本発明は、かかる課題を解決するためになされたものであり、移動体(例えば、ロボット)の存在位置を推定する際に用いられる位置情報を従来よりも無駄なく取得することを目的とする。   The present invention has been made to solve such a problem, and an object of the present invention is to acquire position information used when estimating the position of a moving body (for example, a robot) more efficiently than conventionally.

本発明にかかる位置情報取得装置は、外部から到来する光信号の検出に基づいて位置情報を取得する位置情報取得装置であって、前記光信号を第1及び第2方向へ分岐させる光分岐手段と、前記光分岐手段を介して前記第1方向に導かれる前記光信号を受光する光検出素子と、複数の画素が配置された撮像面を有すると共に、前記光分岐手段を介して前記第2方向に導かれる前記光信号を1つ以上の前記画素で受光する撮像素子と、前記光検出素子の出力に基づいて前記撮像素子に複数の前記画素の一部から信号を読み出させる、又は前記光検出素子の出力に基づいて前記撮像素子が撮像するタイミングを制御する制御部と、を備える。   The position information acquisition apparatus according to the present invention is a position information acquisition apparatus that acquires position information based on detection of an optical signal coming from the outside, and an optical branching unit that branches the optical signal in first and second directions. And a light detection element that receives the optical signal guided in the first direction through the light branching means, an imaging surface on which a plurality of pixels are arranged, and the second through the light branching means. An image sensor that receives the optical signal guided in a direction at one or more of the pixels, and causes the image sensor to read signals from some of the pixels based on an output of the light detection element, or A control unit that controls a timing at which the imaging device captures an image based on an output of the light detection device.

制御部は、光検出素子の出力に基づいて撮像素子に複数の画素の一部から信号を読み出させる。これによって、実際に信号を読み出す領域を撮像面よりも狭い範囲に限定することができる。制御部は、光検出素子の出力に基づいて撮像素子が撮像するタイミングを制御する。これによって、撮像素子が撮像する不要な画像を排除することができる。このようにして不必要な像を排除することができる。   The control unit causes the image sensor to read signals from some of the plurality of pixels based on the output of the light detection element. As a result, it is possible to limit the area where signals are actually read out to a range narrower than the imaging surface. The control unit controls the timing at which the imaging element captures an image based on the output of the light detection element. Thereby, an unnecessary image captured by the image sensor can be eliminated. In this way, unnecessary images can be eliminated.

前記光検出素子は、前記撮像面に対応する受光領域における前記光信号の入射位置を検出する位置検出素子である、と良い。   The light detection element may be a position detection element that detects an incident position of the optical signal in a light receiving region corresponding to the imaging surface.

前記制御部は、前記光検出素子から出力される前記受光領域における前記光信号の入射位置を示す信号に基づいて前記撮像素子の前記撮像面の一部に読出範囲を設定し、前記撮像素子に当該読出範囲内の前記画素から信号を読み出させる、と良い。   The control unit sets a reading range in a part of the imaging surface of the imaging element based on a signal indicating an incident position of the optical signal in the light receiving region output from the light detection element, and It is preferable to read signals from the pixels within the reading range.

前記光信号は、予め外部に設けられた発光源から出力され、少なくとも前記発光源同士を識別する信号が重畳されていることを特徴とする請求項1に記載の位置情報取得装置。   The position information acquisition apparatus according to claim 1, wherein the optical signal is output from a light source provided outside in advance, and at least a signal for identifying the light sources is superimposed thereon.

前記光検出素子及び/又は前記撮像素子の出力に基づいて前記光信号に重畳された信号を復号する信号復号部を更に備える、と良い。   It is preferable to further include a signal decoding unit that decodes a signal superimposed on the optical signal based on the output of the light detection element and / or the imaging element.

前記光検出素子は、入射光強度に応じた値の電流を出力する受光素子である、と良い。   The light detection element may be a light receiving element that outputs a current having a value corresponding to an incident light intensity.

前記制御部は、前記受光素子から出力される前記光信号の入力又は無入力を示す信号に基づいて、前記撮像素子の前記撮像面に含まれる複数の前記画素の全部又は一部で前記撮像素子に撮像させる、と良い。   The control unit includes the imaging element based on a signal indicating input or non-input of the optical signal output from the light receiving element, in all or part of the plurality of pixels included in the imaging surface of the imaging element. It is good to let them image.

前記光信号は、予め外部に設けられた発光源から出力され、少なくとも前記発光源同士を識別する信号が重畳されている、と良い。   The optical signal may be output from a light source provided outside in advance, and at least a signal for identifying the light sources may be superimposed.

前記受光素子の出力に基づいて前記光信号に重畳された信号を復号する信号復号部を更に備える、と良い。   It is good to further have a signal decoding part which decodes a signal superimposed on the optical signal based on an output of the light receiving element.

前記光検出素子からの出力に基づいて閾値を決定する閾値決定部と、前記閾値決定部により決定された閾値に基づいて前記撮像素子から出力される画像に対して2値化処理をする画像処理部と、を更に備える、と良い。   A threshold value determination unit that determines a threshold value based on an output from the light detection element, and an image process that performs binarization processing on an image output from the imaging element based on the threshold value determined by the threshold value determination unit And a section.

前記光分岐手段は、前記光検出素子及び撮像素子夫々へ前記光信号の一部を導くビームスプリッタである、と良い。   The light branching unit may be a beam splitter that guides a part of the optical signal to each of the light detection element and the image pickup element.

本発明に係る位置推定装置は、外部から到来する光信号の検出に基づいて空間内における位置を推定する位置推定装置であって、前記光信号を第1及び第2方向へ分岐させる光分岐手段と、前記光分岐手段を介して前記第1方向に導かれる前記光信号を受光する光検出素子と、複数の画素が配置された撮像面を有すると共に、前記光分岐手段を介して前記第2方向に導かれる前記光信号を1つ以上の前記画素で受光する撮像素子と、前記光検出素子の出力に基づいて前記撮像素子に複数の前記画素の一部から信号を読み出させる、又は前記光検出素子の出力に基づいて前記撮像素子が撮像するタイミングを制御する制御部と、前記撮像素子から出力される画像に基づいて前記撮像面内の前記光信号の入射位置を検出し、当該検出結果に基づいて前記空間内における居場所を推定する位置推定部と、 を備える。   The position estimation apparatus according to the present invention is a position estimation apparatus that estimates a position in space based on detection of an optical signal coming from the outside, and an optical branching unit that branches the optical signal in first and second directions. And a light detection element that receives the optical signal guided in the first direction through the light branching means, an imaging surface on which a plurality of pixels are arranged, and the second through the light branching means. An image sensor that receives the optical signal guided in a direction at one or more of the pixels, and causes the image sensor to read signals from some of the pixels based on an output of the light detection element, or A control unit that controls the timing at which the imaging device captures an image based on the output of the light detection device, and an incident position of the optical signal within the imaging surface based on an image output from the imaging device, and the detection Based on results And a position estimation unit that estimates a place in the space.

前記位置推定部は、前記光信号が写された画像と前記光信号が写されていない画像との差分を求めることに基づいて前記撮像面内の前記光信号の入射位置を特定する、と良い。   The position estimation unit may specify an incident position of the optical signal in the imaging surface based on obtaining a difference between an image in which the optical signal is copied and an image in which the optical signal is not copied. .

本発明に係る移動体は、上述の位置情報取得装置又は位置推定装置を備える。   The moving body according to the present invention includes the above-described position information acquisition apparatus or position estimation apparatus.

本発明によれば、移動体の存在位置を推定する際に用いられる位置情報を従来よりも無駄なく取得することができる。   ADVANTAGE OF THE INVENTION According to this invention, the positional information used when estimating the presence position of a moving body can be acquired more wastefully than before.

以下、図面を参照しつつ、本発明の実施の形態について説明する。なお、各実施の形態は、説明の便宜上、簡略化されている。図面は簡略的なものであるから、図面の記載を根拠として本発明の技術的範囲を狭く解釈してはならない。図面は、もっぱら技術的事項の説明のためのものであり、図面に示された要素の正確な大きさ等は反映していない。同一の要素には、同一の符号を付し、重複する説明は省略するものとする。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Each embodiment is simplified for convenience of explanation. Since the drawings are simple, the technical scope of the present invention should not be interpreted narrowly based on the drawings. The drawings are only for explaining the technical matters and do not reflect the exact sizes of the elements shown in the drawings. The same elements are denoted by the same reference numerals, and redundant description is omitted.

[第1の実施形態]
以下、図1乃至図7を参照して本発明の第1の実施形態について説明する。図1は、移動制御システムの構成を示す模式図である。図2は、位置推定装置の概略的な構成を示すブロック図である。図3は、ロボットに組み込まれる撮像ユニットの概略的な構成を示す説明図である。図4は、PSDの概略的な上面構成を示す模式図である。図5は、CMOSイメージャ6の概略的な上面構成を示す模式図である。図6は、位置推定装置の動作を説明するためのフローチャートである。図7は、光信号の入射位置の特定方法を説明するための説明図である。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a schematic diagram illustrating a configuration of a movement control system. FIG. 2 is a block diagram illustrating a schematic configuration of the position estimation apparatus. FIG. 3 is an explanatory diagram illustrating a schematic configuration of an imaging unit incorporated in the robot. FIG. 4 is a schematic diagram showing a schematic top configuration of the PSD. FIG. 5 is a schematic diagram showing a schematic top configuration of the CMOS imager 6. FIG. 6 is a flowchart for explaining the operation of the position estimation apparatus. FIG. 7 is an explanatory diagram for explaining a method of specifying an incident position of an optical signal.

図1に示すように、移動制御システム300は、ロボット(移動体)100及び発光装置(発光源)200を有する。   As shown in FIG. 1, the movement control system 300 includes a robot (moving body) 100 and a light emitting device (light emitting source) 200.

発光装置200は、空間内の所定箇所(例えば、室内の天井等)に予め固定されている。発光装置200は、パルス化された光信号(以下、パルス光信号又は単に光信号と呼ぶこともある)を空間に出力する。   The light emitting device 200 is fixed in advance at a predetermined location in the space (for example, an indoor ceiling). The light emitting device 200 outputs a pulsed optical signal (hereinafter also referred to as a pulsed optical signal or simply an optical signal) to space.

発光装置200は、発光部(光源)201及び駆動部202を有する。発光部201は、LD(Laser Diode)又はLED(Light Emitting Diode)といった半導体発光素子である。発光部201は、赤外線の帯域の光を出射する。駆動部202は、予めROM等の記憶部に書き込まれたプログラムに従って、発光部201をパルス駆動する。尚、駆動部202の構成は任意である。また、空間内に複数の発光装置200を設けて、ロボット100の移動範囲をより広範囲又は高精度にさせても良い。   The light emitting device 200 includes a light emitting unit (light source) 201 and a driving unit 202. The light emitting unit 201 is a semiconductor light emitting element such as an LD (Laser Diode) or an LED (Light Emitting Diode). The light emitting unit 201 emits light in the infrared band. The drive unit 202 pulse-drives the light emitting unit 201 in accordance with a program previously written in a storage unit such as a ROM. The configuration of the drive unit 202 is arbitrary. In addition, a plurality of light emitting devices 200 may be provided in the space to make the movement range of the robot 100 wider or highly accurate.

ロボット100は、発光装置200から出力される光信号を受信し、これに基づいて自己が存在する場所を検知する。なお、ロボット100は、自律的な移動、ヒトとの対話が可能なロボットであり、図1に示すように、頭部90、胴部91、腕92、及び車輪93を有する。   The robot 100 receives an optical signal output from the light emitting device 200 and detects a place where the robot is present based on the optical signal. Note that the robot 100 is a robot capable of autonomous movement and dialogue with a human, and includes a head 90, a torso 91, arms 92, and wheels 93 as shown in FIG.

ロボット100の筐体内には、様々な部品が組み込まれる。例えば、ロボット100の動作を制御するコントローラ、コントローラからの指令に基づいて機械的に可動する駆動機構、コントローラによる処理に供する情報を取得するセンサ、センサからの入力を処理する処理回路、表示装置等の報知機構、及び電子機器に電源を供給する二次電池(電源)等がロボット100の筐体内に実装される。   Various parts are incorporated in the housing of the robot 100. For example, a controller that controls the operation of the robot 100, a drive mechanism that is mechanically movable based on a command from the controller, a sensor that acquires information to be processed by the controller, a processing circuit that processes input from the sensor, a display device, and the like And a secondary battery (power source) for supplying power to the electronic device are mounted in the housing of the robot 100.

コントローラは、通常のコンピュータから構成され、CPU、マザーボード、及び外部記憶装置(ハードディスク等)を有する。駆動機構は、モータ、アクチュエータ、及び機械的リンク等によって構成される。センサは、撮像素子、マイクロフォン、及び感熱素子等といった各種センサである。処理回路は、A/D変換回路、及び信号処理回路等といった回路部品である。報知機構は、液晶表示装置、スピーカー、LED(Light Emitting Diode)等といったように映像、音、及び光によって何らかの情報をヒトに伝達させる手段である。   The controller is composed of a normal computer and has a CPU, a motherboard, and an external storage device (such as a hard disk). The drive mechanism is configured by a motor, an actuator, a mechanical link, and the like. The sensors are various sensors such as an image sensor, a microphone, and a thermal element. The processing circuit is a circuit component such as an A / D conversion circuit and a signal processing circuit. The notification mechanism is means for transmitting some information to a human by video, sound, and light, such as a liquid crystal display device, a speaker, and an LED (Light Emitting Diode).

コントローラは、センサから入力された信号に基づいて、駆動機構又は報知機構を制御する。このようにしてロボット100は、必要に応じて空間を移動したり、必要に応じてヒトに対して何らかの情報を報知したりする。   The controller controls the drive mechanism or the notification mechanism based on a signal input from the sensor. In this way, the robot 100 moves in the space as necessary, or notifies the human being of some information as necessary.

ロボット100には、図2に示す位置推定装置60が組み込まれている。位置推定装置60は、発光装置200から出力される光信号に基づいて、この位置推定装置60が組み込まれたロボット100が居る場所を推定する。位置推定装置60をロボット100に組み込むことで、ロボットを空間内で自律的に移動させることができる。これによって、ロボット100の活用範囲を広げることができる。   The robot 100 incorporates the position estimation device 60 shown in FIG. Based on the optical signal output from the light emitting device 200, the position estimation device 60 estimates the location where the robot 100 incorporating the position estimation device 60 is present. By incorporating the position estimation device 60 into the robot 100, the robot can be moved autonomously in space. Thereby, the utilization range of the robot 100 can be expanded.

図2に示すように、位置推定装置60は、光学系1、ビームスプリッタ(光分岐手段)2、位置検出センサ(光検出素子)3、信号処理回路4、演算処理部5、及びCMOSイメージャ(撮像素子)6を有する。なお、演算処理部5は、センサ制御部(制御部)5a、画像処理部5b、信号復号部5c、及び位置推定部5dを有する。   As shown in FIG. 2, the position estimation device 60 includes an optical system 1, a beam splitter (light splitting means) 2, a position detection sensor (light detection element) 3, a signal processing circuit 4, an arithmetic processing unit 5, and a CMOS imager ( An imaging device) 6. The arithmetic processing unit 5 includes a sensor control unit (control unit) 5a, an image processing unit 5b, a signal decoding unit 5c, and a position estimation unit 5d.

位置推定装置60には、位置を推定する際に用いられる位置情報を取得する位置情報取得装置が組み込まれている。位置情報取得装置は、ビームスプリッタ2、位置検出センサ3、信号処理回路4、センサ制御部5a、及びCMOSイメージャ6により構成される。   The position estimation apparatus 60 incorporates a position information acquisition apparatus that acquires position information used when estimating the position. The position information acquisition apparatus includes a beam splitter 2, a position detection sensor 3, a signal processing circuit 4, a sensor control unit 5a, and a CMOS imager 6.

はじめに位置推定装置60に含まれる要素の入出力関係について説明する。   First, input / output relationships of elements included in the position estimation device 60 will be described.

発光装置200から出力された光信号(OPS(Optical Signal))は、光学系1に入力される。光学系1から出力された光信号は、ビームスプリッタ2に入力される。ビームスプリッタ2で第1方向に分岐された光は、位置検出センサ3に入力される。位置検出センサ3から出力される信号S1は、信号処理回路4に入力される。信号処理回路4から出力される信号S2は、演算処理部5に入力される。ビームスプリッタ2で第2方向に分岐された光は、CMOSイメージャ6に入力される。なお、演算処理部5から出力される信号S3は、CMOSイメージャ6に入力される。また、CMOSイメージャ6から出力される信号S4は、演算処理部5に入力される。   An optical signal (OPS (Optical Signal)) output from the light emitting device 200 is input to the optical system 1. The optical signal output from the optical system 1 is input to the beam splitter 2. The light branched in the first direction by the beam splitter 2 is input to the position detection sensor 3. The signal S1 output from the position detection sensor 3 is input to the signal processing circuit 4. A signal S2 output from the signal processing circuit 4 is input to the arithmetic processing unit 5. The light branched in the second direction by the beam splitter 2 is input to the CMOS imager 6. The signal S3 output from the arithmetic processing unit 5 is input to the CMOS imager 6. The signal S4 output from the CMOS imager 6 is input to the arithmetic processing unit 5.

以下、図3乃至図5も併せて参照しつつ、上述の光学系1、ビームスプリッタ2、位置検出センサ3、及びCMOSイメージャ6について説明する。なお、位置推定装置60は、図3に示す撮像ユニット50を有する。   Hereinafter, the optical system 1, the beam splitter 2, the position detection sensor 3, and the CMOS imager 6 will be described with reference to FIGS. 3 to 5 together. In addition, the position estimation apparatus 60 has the imaging unit 50 shown in FIG.

光学系1は、少なくとも1つ以上の光学素子(例えば、レンズ)を含む。図3に示すように、光学系1は、入射窓10及び対物レンズ11を有する。入射窓10には、発光装置200から空間を介して到来する光信号を含む外来光が入力される。対物レンズ11は、入射窓10を通過した外来光を位置検出センサ3の受光領域及びCMOSイメージャ6の撮像面に結像させる。   The optical system 1 includes at least one optical element (for example, a lens). As shown in FIG. 3, the optical system 1 includes an entrance window 10 and an objective lens 11. External light including an optical signal that arrives from the light emitting device 200 through space is input to the incident window 10. The objective lens 11 focuses the extraneous light that has passed through the incident window 10 on the light receiving region of the position detection sensor 3 and the imaging surface of the CMOS imager 6.

ビームスプリッタ2は、入力光の半分を直進させ、入力光の残りの半分を反射する光学部品である。図3に示すように、ビームスプリッタ2は、光信号の半分を直進させ、光信号の半分を反射させる。なお、ビームスプリッタ2を通過した光信号は、CMOSイメージャ6に入力される。また、ビームスプリッタ2で反射した光信号は、位置検出センサ3に入力される。   The beam splitter 2 is an optical component that makes a half of input light go straight and reflects the other half of the input light. As shown in FIG. 3, the beam splitter 2 causes a half of the optical signal to go straight and reflects a half of the optical signal. The optical signal that has passed through the beam splitter 2 is input to the CMOS imager 6. The optical signal reflected by the beam splitter 2 is input to the position detection sensor 3.

位置検出センサ3は、半導体材料からなる一般的な位置検出素子である。位置検出センサ3は、第1導電型の半導体基板の主面に第2導電型の抵抗層が形成される。また、複数の分割された信号取出電極が抵抗層の周囲に形成される。なお、抵抗層は接地電位に接続され、信号取出電極は半導体基板に接続される。   The position detection sensor 3 is a general position detection element made of a semiconductor material. In the position detection sensor 3, a second conductive type resistance layer is formed on the main surface of the first conductive type semiconductor substrate. A plurality of divided signal extraction electrodes are formed around the resistance layer. The resistance layer is connected to the ground potential, and the signal extraction electrode is connected to the semiconductor substrate.

図4に示すように、位置検出センサ3は、受光領域20、及び複数の信号取出電極21a〜21dを有する。受光領域20には、上述の抵抗層が形成される。信号取出電極21a〜21dは、受光領域20の周囲に配置される。図4に模式的に示す範囲R1に光信号が入射する場合、受光領域20における光信号の入射位置に応じた値の光電流が各信号取出電極21a〜21dから出力される。   As illustrated in FIG. 4, the position detection sensor 3 includes a light receiving region 20 and a plurality of signal extraction electrodes 21 a to 21 d. In the light receiving region 20, the above-described resistance layer is formed. The signal extraction electrodes 21 a to 21 d are arranged around the light receiving region 20. When an optical signal enters the range R1 schematically shown in FIG. 4, a photocurrent having a value corresponding to the incident position of the optical signal in the light receiving region 20 is output from each of the signal extraction electrodes 21a to 21d.

信号取出電極21aからは、信号取出電極21aと範囲R1間の距離に応じた値の光電流が信号S1aとして出力される。信号取出電極21bからは、信号取出電極21bと範囲R1間の距離に応じた値の光電流が信号S1bとして出力される。信号S1aと信号S1b間の比率を検出することによって、受光領域20に入射した光信号のy軸に沿う位置(y座標)を検出することができる。なお、この演算処理は、後述の信号処理回路4で実行される。また、y軸は、外部から位置検出センサ3に到来する光信号の伝播方向に直交する軸線である。   From the signal extraction electrode 21a, a photocurrent having a value corresponding to the distance between the signal extraction electrode 21a and the range R1 is output as a signal S1a. From the signal extraction electrode 21b, a photocurrent having a value corresponding to the distance between the signal extraction electrode 21b and the range R1 is output as a signal S1b. By detecting the ratio between the signal S1a and the signal S1b, the position along the y-axis (y coordinate) of the optical signal incident on the light receiving region 20 can be detected. This arithmetic processing is executed by a signal processing circuit 4 described later. The y axis is an axis perpendicular to the propagation direction of the optical signal arriving at the position detection sensor 3 from the outside.

信号取出電極21cからは、信号取出電極21cと範囲R1間の距離に応じた値の光電流が信号S1cとして出力される。信号取出電極21dからは、信号取出電極21dと範囲R1間の距離に応じた値の光電流が信号S1dとして出力される。信号S1cと信号S1d間の比率を検出することによって、受光領域20に入射した光信号のx軸に沿う位置(x座標)を検出することができる。なお、この演算処理は、後述の信号処理回路4で実行される。また、x軸は、外部から位置検出センサ3に到来する光信号の伝播方向に直交し、かつy軸に直交する軸線である。   From the signal extraction electrode 21c, a photocurrent having a value corresponding to the distance between the signal extraction electrode 21c and the range R1 is output as a signal S1c. From the signal extraction electrode 21d, a photocurrent having a value corresponding to the distance between the signal extraction electrode 21d and the range R1 is output as a signal S1d. By detecting the ratio between the signal S1c and the signal S1d, the position (x coordinate) along the x-axis of the optical signal incident on the light receiving region 20 can be detected. This arithmetic processing is executed by a signal processing circuit 4 described later. The x axis is an axis that is orthogonal to the propagation direction of the optical signal arriving at the position detection sensor 3 from the outside and orthogonal to the y axis.

図2に示す信号処理回路4は、位置検出センサ3から出力される信号S1(S1a〜S1d)に基づいて生成した信号S2(S2a、S2b)を出力する。より具体的には、信号処理回路4は、信号S1aと信号S1bの比率、及び信号S2aと信号S2bの比率を求める。   The signal processing circuit 4 shown in FIG. 2 outputs signals S2 (S2a, S2b) generated based on the signals S1 (S1a to S1d) output from the position detection sensor 3. More specifically, the signal processing circuit 4 calculates the ratio between the signal S1a and the signal S1b and the ratio between the signal S2a and the signal S2b.

ここでは、信号処理回路4は、トランスインピーダンス回路、及び論理回路を有する。位置検出センサ3から入力される信号S1a〜S1dとしての光電流は、トランスインピーダンス回路を介して電圧に変換される。各トラスインピーダンス回路で電圧変換された信号は、論理回路で演算処理され、x座標を示す信号S2a及びy座標を示す信号S2bとして出力される。なお、論理回路の具体的な構成は任意である。   Here, the signal processing circuit 4 includes a transimpedance circuit and a logic circuit. Photocurrents as signals S1a to S1d input from the position detection sensor 3 are converted into voltages via a transimpedance circuit. The signals that have been voltage-converted by each truss impedance circuit are subjected to arithmetic processing by a logic circuit, and are output as a signal S2a indicating the x coordinate and a signal S2b indicating the y coordinate. Note that the specific configuration of the logic circuit is arbitrary.

図2に示すCMOS(Complementary Metal Oxide Semiconductor)センサ6は、一般的な固体撮像素子である。なお、より好ましくは、ビームスプリッタ2とCMOSイメージャ6間の光路長をビームスプリッタ2と位置検出センサ3間の光路長よりも長くする。   A CMOS (Complementary Metal Oxide Semiconductor) sensor 6 shown in FIG. 2 is a general solid-state imaging device. More preferably, the optical path length between the beam splitter 2 and the CMOS imager 6 is longer than the optical path length between the beam splitter 2 and the position detection sensor 3.

図5に示すように、CMOSイメージャ6は、撮像面としての撮像領域30、行選択回路31、列選択回路32、スイッチSW1〜SW6、及びデータ転送ライン33を有する。なお、図5では、説明の便宜上、リセット線、電源ライン、画素内のスイッチ、画素内のダイオード構造、及び画素内の増幅器等は図示を省略している。   As shown in FIG. 5, the CMOS imager 6 includes an imaging region 30 as an imaging surface, a row selection circuit 31, a column selection circuit 32, switches SW1 to SW6, and a data transfer line 33. In FIG. 5, for convenience of explanation, the reset line, the power supply line, the switch in the pixel, the diode structure in the pixel, the amplifier in the pixel, and the like are not shown.

撮像領域30には複数の画素11〜66がマトリクス状(2次元状)に形成される。なお、画素11は、1行目の1列目という番地によって特定される画素である。画素66は、6行目の6列目という番地によって特定される画素である。他の画素についても同様である。   In the imaging region 30, a plurality of pixels 11 to 66 are formed in a matrix (two-dimensional). Note that the pixel 11 is a pixel specified by the address of the first column in the first row. The pixel 66 is a pixel specified by the address of the sixth row and the sixth column. The same applies to other pixels.

撮像領域30と上述の受光領域20とは相似する。これによって、受光領域20上の座標位置と撮像領域30上の座標位置とを簡易に対応づけることができる。なお、撮像領域30の面積は必ずしも受光領域20の面積に一致する必要はない。   The imaging region 30 and the above-described light receiving region 20 are similar. Thereby, the coordinate position on the light receiving area 20 and the coordinate position on the imaging area 30 can be easily associated with each other. Note that the area of the imaging region 30 does not necessarily match the area of the light receiving region 20.

行選択回路31は、センサ制御部5aからの選択指示に従って特定の行を選択する。列選択回路32は、センサ制御部5aからの選択指示に従って特定の列を選択する。なお、列選択回路32は、スイッチSW1〜6の動作状態を制御することに基づいて列を選択する。行選択回路31によって選択された行に含まれ、かつ列選択回路32によって選択された列に含まれる画素に保持された電圧信号は、データ転送ライン33を介して外部へ出力される。   The row selection circuit 31 selects a specific row according to a selection instruction from the sensor control unit 5a. The column selection circuit 32 selects a specific column in accordance with a selection instruction from the sensor control unit 5a. The column selection circuit 32 selects a column based on controlling the operation state of the switches SW1 to SW6. The voltage signal included in the row selected by the row selection circuit 31 and held in the pixel included in the column selected by the column selection circuit 32 is output to the outside via the data transfer line 33.

行選択回路31及び列選択回路32の制御に基づいて、撮像領域30に含まれる全画素から電圧信号を出力させることができる。また、行選択回路31及び列選択回路32の制御に基づいて、撮像領域30に含まれる全画素の一部から電圧信号を出力させることもできる。つまり、CMOSイメージャ6は、画素単位で信号の読出しをすることができる。従って、電荷転送方式のCCD(Charge Coupled Device)センサよりも読出範囲を効果的に限定させることができる。   Based on the control of the row selection circuit 31 and the column selection circuit 32, voltage signals can be output from all the pixels included in the imaging region 30. Further, based on the control of the row selection circuit 31 and the column selection circuit 32, a voltage signal can be output from a part of all the pixels included in the imaging region 30. That is, the CMOS imager 6 can read out signals in units of pixels. Therefore, the reading range can be more effectively limited than a charge transfer type CCD (Charge Coupled Device) sensor.

上述のように、演算処理部5は、センサ制御部(制御部)5a、画像処理部5b、信号復号部5c、及び位置推定部5dを有する。なお、演算処理部5の各機能は、記憶部に格納されたプログラムがCPUコア等で実行されることによって実現される。   As described above, the arithmetic processing unit 5 includes the sensor control unit (control unit) 5a, the image processing unit 5b, the signal decoding unit 5c, and the position estimation unit 5d. Each function of the arithmetic processing unit 5 is realized by executing a program stored in the storage unit by a CPU core or the like.

センサ制御部5aは、上述の座標信号S2に基づいて、CMOSイメージャ6の撮像領域30に含まれる画素から実際に信号を読み出す画素の番地を設定する。センサ制御部5aは、信号を読み出す画素の番地を信号S3としてCMOSイメージャ6へ出力する。これによって、CMOSイメージャ6からの指定された番地の画素から電圧信号が順次出力される。つまり、センサ制御部5aは、CMOSイメージャ6に対して、位置検出センサ3の受光領域20に入射した光信号の入射位置に対応する範囲の画素から電圧信号を読み出させる。   The sensor control unit 5a sets the address of a pixel that actually reads a signal from the pixels included in the imaging region 30 of the CMOS imager 6 based on the coordinate signal S2. The sensor control unit 5a outputs the address of the pixel from which the signal is read to the CMOS imager 6 as a signal S3. As a result, voltage signals are sequentially output from the designated address pixels from the CMOS imager 6. That is, the sensor control unit 5a causes the CMOS imager 6 to read a voltage signal from pixels in a range corresponding to the incident position of the optical signal incident on the light receiving region 20 of the position detection sensor 3.

これによって、電圧信号を読み出す画素を好適に限定することができる。つまり、ロボット100の居場所を推定する際に用いられない像を取得すること自体を抑圧することができる。また、すべての画素から電圧信号を読み出す場合と比較して、電圧信号を読み出す画素を限定することで、CMOSイメージャ6をより高速に駆動することができる。   Thereby, the pixel which reads a voltage signal can be limited suitably. That is, it is possible to suppress acquisition of an image that is not used when estimating the whereabouts of the robot 100. Further, the CMOS imager 6 can be driven at a higher speed by limiting the pixels from which the voltage signal is read, compared to the case where the voltage signal is read from all the pixels.

CMOSイメージャ6の全画素から全電圧信号を読み出す場合には、行選択回路31及び列選択回路32によって選択的に行及び列を指定することが必要になる。そのため、全画素からの全電圧信号の読出しには所要の時間を要する。画素からの信号読出しに要する時間が長くなるとCMOSイメージャ6のフレームレートが低下する。このため、CMOSイメージャ6で取得した像に基づいて高速にパルス変調された信号を検出することはできない。   When all voltage signals are read from all pixels of the CMOS imager 6, it is necessary to selectively designate rows and columns by the row selection circuit 31 and the column selection circuit 32. Therefore, it takes a required time to read out all voltage signals from all pixels. If the time required to read out signals from the pixels becomes longer, the frame rate of the CMOS imager 6 decreases. For this reason, it is impossible to detect a signal that has been pulse-modulated at high speed based on an image acquired by the CMOS imager 6.

本実施形態においては、画素から電圧信号を実際に読み出させる読出範囲を撮像範囲30よりも狭くすることで、CMOSイメージャ6をより高速に駆動させることができる。つまり、より高い時間分解能でCMOSイメージャ6に画像を取得させることができる。従って、発光装置200から出力される光信号が非常に短い時間間隔でパルス変調されていたとしても、CMOSイメージャ6で取得した画像に基づいてパルス変調された信号を復号することができる。なお、読出範囲を限定することは、撮像範囲を限定することを排除するものではない。すなわち、読出範囲に対応する範囲で撮像する場合にも本実施形態は適用可能である。   In the present embodiment, the CMOS imager 6 can be driven at a higher speed by making the readout range in which the voltage signal is actually read from the pixel narrower than the imaging range 30. That is, the CMOS imager 6 can acquire an image with higher time resolution. Therefore, even if the optical signal output from the light emitting device 200 is pulse-modulated at a very short time interval, the pulse-modulated signal can be decoded based on the image acquired by the CMOS imager 6. Note that limiting the readout range does not exclude limiting the imaging range. In other words, the present embodiment can also be applied when imaging in a range corresponding to the readout range.

図2に示す画像処理部5bは、CMOSイメージャ6から読み出される画像(信号S4)に対して画像処理を実行する。具体的には、画像処理部5bは、予め設定された閾値に基づいてCMOSイメージャ6から読み出された画像に2値化処理を実行する。これによって、撮像領域30に入射した光信号を抽出させることができる。   The image processing unit 5b illustrated in FIG. 2 performs image processing on the image (signal S4) read from the CMOS imager 6. Specifically, the image processing unit 5b executes binarization processing on an image read from the CMOS imager 6 based on a preset threshold value. Thereby, the optical signal incident on the imaging region 30 can be extracted.

位置推定するためにはCMOSイメージャ6で取得した像を観察することは必要ではなく、CMOSイメージャ6の撮像領域30のどの部分に光信号が入射したのかを求めることが必要である。このようにCMOSイメージャ6から読み出される画像に対して2値化処理を施すことによって、より簡単にCMOSイメージャ6の撮像領域30のどの部分に光信号が入射したのかを求めることが可能になる。   In order to estimate the position, it is not necessary to observe the image acquired by the CMOS imager 6, and it is necessary to determine which part of the imaging region 30 of the CMOS imager 6 the optical signal has entered. As described above, by performing the binarization process on the image read from the CMOS imager 6, it is possible to more easily determine in which part of the imaging region 30 of the CMOS imager 6 the optical signal is incident.

信号復号部5cは、画像処理部5bで画像処理された複数の画像に基づいて光信号に重畳された信号を復号する。ここでは、発光装置200から出力される光信号には、発光装置200の識別信号が重畳されている。この識別信号を復号することによって、現在受信している光信号を出力している発光装置200を特定することができる。なお、信号復号部5cは、位置検出センサ3の出力に基づいて信号の復号を実行しても良い。   The signal decoding unit 5c decodes the signal superimposed on the optical signal based on the plurality of images subjected to the image processing by the image processing unit 5b. Here, the identification signal of the light emitting device 200 is superimposed on the optical signal output from the light emitting device 200. By decoding this identification signal, the light emitting device 200 that is outputting the currently received optical signal can be identified. The signal decoding unit 5c may perform signal decoding based on the output of the position detection sensor 3.

位置推定部5dは、信号復号部5cで復号された識別信号に基づいて地図上のどの位置にロボット100が居るのかを大まかに推定する。また、位置推定部5dは、画像処理部5bで画像処理された複数の画像に基づいて光信号が入射した撮像領域30上に位置を検出し、この検出結果に基づいてロボット100の現在の居場所を詳細に推定する。   The position estimation unit 5d roughly estimates at which position on the map the robot 100 is based on the identification signal decoded by the signal decoding unit 5c. The position estimation unit 5d detects a position on the imaging region 30 on which the optical signal is incident based on the plurality of images processed by the image processing unit 5b, and based on the detection result, the current location of the robot 100 Is estimated in detail.

位置推定部5dは、予め地図情報を有している。換言すると、位置推定部5dは、地図情報が格納された記憶領域(ハードディスク、半導体メモリ等)を有している。発光装置200が設けられた場所は、予めこの地図情報に書き込まれている。位置推定部5dは、信号復号部5cの出力に基づいて、地図上のどの位置にいるのかを大まかに推定する。   The position estimation unit 5d has map information in advance. In other words, the position estimation unit 5d has a storage area (hard disk, semiconductor memory, etc.) in which map information is stored. The place where the light emitting device 200 is provided is written in advance in this map information. The position estimation unit 5d roughly estimates the position on the map based on the output of the signal decoding unit 5c.

位置推定部5dは、画像処理部5bで画像処理された複数の画像に基づいて光信号が入射した撮像領域30上に位置を検出する。撮像領域30上の光信号の入射位置を検出すれば、発光装置200と撮像ユニット50間の相対的な位置関係が求められる。従って、この位置関係に基づいて発光装置200に対する自己の位置を推定することができる。信号の復号及び光信号の撮像面上の入射位置の検出の双方を実行することで、ロボットが居る地図上の位置を高精度に推定することができる。   The position estimation unit 5d detects a position on the imaging region 30 where the optical signal is incident based on the plurality of images subjected to the image processing by the image processing unit 5b. If the incident position of the optical signal on the imaging region 30 is detected, the relative positional relationship between the light emitting device 200 and the imaging unit 50 is obtained. Therefore, it is possible to estimate its own position with respect to the light emitting device 200 based on this positional relationship. By executing both decoding of the signal and detection of the incident position of the optical signal on the imaging surface, the position of the robot on the map can be estimated with high accuracy.

図6を参照して、位置推定装置60の概略的な動作について説明する。   With reference to FIG. 6, a schematic operation of the position estimation device 60 will be described.

まず、位置検出センサ(PSD(Position Sensitive Detector))を活用して、座標情報を取得する(S1)。位置検出センサ3の受光領域20にスポット状の光信号が入射すると、分割された信号取出電極21a〜21dからは光電流が信号S1a〜S1dとして出力される。信号処理回路4は、信号S1a〜S1dに基づいて、受光領域20上の光信号の入射位置を示す座標信号S2a、S2bを生成し、これらを出力する。座標信号S2a、S2bは、座標情報としても把握することができる。   First, coordinate information is acquired using a position detection sensor (PSD (Position Sensitive Detector)) (S1). When a spot-like optical signal enters the light receiving region 20 of the position detection sensor 3, photocurrents are output as signals S1a to S1d from the divided signal extraction electrodes 21a to 21d. Based on the signals S1a to S1d, the signal processing circuit 4 generates coordinate signals S2a and S2b indicating the incident positions of the optical signals on the light receiving region 20, and outputs them. The coordinate signals S2a and S2b can also be grasped as coordinate information.

次に、座標情報に基づいて読出範囲を設定する(S2)。具体的には、センサ制御部5aは、信号処理回路4から出力される座標信号S2に基づいて、CMOSイメージャ6の撮像領域30に含まれる画素から実際に信号を読み出す画素の番地を設定し、信号読出しの対象にした画素の番地を示す信号S3をCMOSイメージャ6に出力する。例えば、CMOSイメージャ6の撮像面における光信号の入射推定位置付近にある複数の画素群を特定し、このように特定した画素群の番地を信号S3としてCMOSイメージャ6に出力する。   Next, a reading range is set based on the coordinate information (S2). Specifically, the sensor control unit 5a sets the address of a pixel that actually reads a signal from the pixels included in the imaging region 30 of the CMOS imager 6 based on the coordinate signal S2 output from the signal processing circuit 4, A signal S3 indicating the address of the pixel to be read is output to the CMOS imager 6. For example, a plurality of pixel groups in the vicinity of the estimated optical signal incidence position on the imaging surface of the CMOS imager 6 are specified, and the addresses of the pixel groups specified in this way are output to the CMOS imager 6 as a signal S3.

次に、指定された番地の画素から信号を出力させる(S3)。換言すると、指定された読出範囲内の画素から信号を出力させる。CMOSイメージャ6は、信号S3の入力に応じて、指定された番地の画素に保持された電圧信号を読み出し、これを信号S4として出力する。なお、CMOSイメージャ6は、所定の時間間隔で、信号の蓄積、及び蓄積された信号のリセットを行っているものとする。   Next, a signal is output from the pixel at the designated address (S3). In other words, a signal is output from a pixel within the designated readout range. In response to the input of the signal S3, the CMOS imager 6 reads the voltage signal held in the pixel at the designated address and outputs this as a signal S4. It is assumed that the CMOS imager 6 performs signal accumulation and reset of the accumulated signal at predetermined time intervals.

次に、取得した像を2値化する(S4)。具体的には、画像処理部5bは、予め設定された閾値に基づいて信号S4に対して2値化処理を実行する。これによって、撮像領域30に入射した光信号を抽出させることができる。   Next, the acquired image is binarized (S4). Specifically, the image processing unit 5b performs binarization processing on the signal S4 based on a preset threshold value. Thereby, the optical signal incident on the imaging region 30 can be extracted.

次に、撮像領域30における光信号の入射位置を特定する(S5)。具体的には、位置推定部5dは、画像処理部5bで画像処理された複数の画像に基づいて光信号が入射した撮像領域30上の位置を検出する。   Next, the incident position of the optical signal in the imaging region 30 is specified (S5). Specifically, the position estimation unit 5d detects the position on the imaging region 30 where the optical signal is incident based on a plurality of images subjected to image processing by the image processing unit 5b.

図7を参照して光信号の入射位置の特定方法について説明する。図7(a)及び(b)に光信号が撮像領域30に入射する場合を示し、図7(c)及び(d)に光信号が撮像領域30に入射しない場合の説明図を示す。図7(a)及び(c)は、撮像領域30内に設定された読出範囲R40を示す。図7(b)は、図7(a)のx7b−x7b間の2値化後の強度分布を示す。図7(d)は、図7(c)のx7d−x7d間の2値化後の強度分布を示す。なお、範囲R1には発光装置200からの光信号が入射し、範囲R2にはノイズ光が入射するものとする。   A method for specifying the incident position of the optical signal will be described with reference to FIG. 7A and 7B show a case where an optical signal is incident on the imaging region 30, and FIGS. 7C and 7D are explanatory diagrams when the optical signal is not incident on the imaging region 30. FIG. 7A and 7C show the readout range R40 set in the imaging region 30. FIG. FIG.7 (b) shows the intensity distribution after binarization between x7b-x7b of Fig.7 (a). FIG.7 (d) shows the intensity distribution after binarization between x7d-x7d of FIG.7 (c). It is assumed that an optical signal from the light emitting device 200 enters the range R1, and noise light enters the range R2.

画像処理部5bは、図7(b)と図7(d)の差分をとる。これによってノイズ光の入射に応じたパターンdp1を排除することができる。これによって位置推定をより高精度に実行することができる。   The image processing unit 5b takes the difference between FIG. 7B and FIG. As a result, the pattern dp1 corresponding to the incident noise light can be eliminated. This makes it possible to perform position estimation with higher accuracy.

ロボット100が移動する空間は、発光装置200の他にも様々な光源が配置される場合がある。ロボット100が屋外に置かれる場合には、太陽光の影響を当然受ける。但し、発光装置200以外に想定される光源は一定の位置で一定の強度の光を恒常的に出力していることが想定される。したがって、上述のように、発光装置200からの光信号が入力したときの2値画像と、それが無入力のときの2値画像間の差分を求めることによって好適にノイズ光を排除することができる。   In the space in which the robot 100 moves, various light sources may be arranged in addition to the light emitting device 200. When the robot 100 is placed outdoors, it is naturally affected by sunlight. However, it is assumed that a light source other than the light emitting device 200 constantly outputs light having a constant intensity at a fixed position. Therefore, as described above, noise light can be suitably eliminated by obtaining the difference between the binary image when the light signal from the light emitting device 200 is input and the binary image when the light signal is not input. it can.

再び図6に戻り説明する。   Returning again to FIG.

次に、信号の復号をする(S6)。具体的には、信号復号部5cは、画像処理部5bで画像処理された複数の画像に基づいて光信号に重畳された信号を復号する。上述のように本実施形態においては、撮像領域30に含まれる画素から信号を実際に読み出す画素を限定する。これによって高い時間分解能で過不足ない範囲で画像を取得することができる。よって、比較的画素数が多いCMOSイメージャ6を活用する場合であっても好適に信号の復号を実現することができる。実際には、時系列に沿ってCMOSイメージャ6から出力される画像を解析することによって信号の復号が実行される。なお、上述のステップS5の前にステップS6を実行しても良い。   Next, the signal is decoded (S6). Specifically, the signal decoding unit 5c decodes a signal superimposed on the optical signal based on a plurality of images subjected to image processing by the image processing unit 5b. As described above, in the present embodiment, the pixels that actually read signals from the pixels included in the imaging region 30 are limited. As a result, an image can be acquired with high time resolution within a range that is not excessive or insufficient. Therefore, even when the CMOS imager 6 having a relatively large number of pixels is used, signal decoding can be suitably realized. In practice, decoding of the signal is performed by analyzing an image output from the CMOS imager 6 in time series. Note that step S6 may be executed before step S5 described above.

次に、居場所の推定をする(S7)。具体的には、位置推定部5dは、信号復号部5cで復号された識別信号に基づいて地図上のどの位置にロボット100が居るのかを大まかに推定する。また、位置推定部5dは、画像処理部5bで画像処理された複数の画像に基づいて光信号が入射した撮像領域30上に位置を検出し、この検出結果に基づいてロボット100の現在の居場所を詳細に推定する。   Next, the whereabouts are estimated (S7). Specifically, the position estimating unit 5d roughly estimates at which position on the map the robot 100 is based on the identification signal decoded by the signal decoding unit 5c. The position estimation unit 5d detects a position on the imaging region 30 on which the optical signal is incident based on the plurality of images processed by the image processing unit 5b, and based on the detection result, the current location of the robot 100 Is estimated in detail.

本実施形態では、センサ制御部5aは、位置検出センサ3における光信号の入射位置を示す座標信号S2に基づいて、CMOSイメージャ6の撮像領域30に読出範囲を設定する。そして、CMOSイメージャ6から読出範囲内の画素に限定して信号を出力させる。具体的には、センサ制御部5aは、信号読出の対象とした画素の番地(アドレス)をCMOSイメージャ6に連絡し、CMOSイメージャ6に指定された番地の画素の電圧信号を順次出力させる。   In the present embodiment, the sensor control unit 5a sets a reading range in the imaging region 30 of the CMOS imager 6 based on the coordinate signal S2 indicating the incident position of the optical signal in the position detection sensor 3. Then, a signal is output from the CMOS imager 6 limited to pixels within the readout range. Specifically, the sensor control unit 5a informs the CMOS imager 6 of the address (address) of the pixel to be read out and sequentially outputs the voltage signal of the pixel at the address designated by the CMOS imager 6.

これによって、電圧信号を読み出す画素を好適に限定することができる。つまり、ロボット100の居場所を推定する際に用いられない像を取得すること自体を抑圧することができる。また、すべての画素から電圧信号を読み出す場合と比較して、電圧信号を読み出す画素を限定すれば、より高速にCMOSイメージャ6を駆動することができる。つまり、より高い時間分解能でCMOSイメージャ6に画像を取得させる。従って、発光装置200から出力される光信号が非常に短い時間間隔でパルス変調されていたとしても、CMOSイメージャ6で取得した画像に基づいて、パルス変調された光信号を復号することができる。また、上述のように光信号が入力したときの2値画像と光信号が無入力のときの2値画像との差分をとることで背景光の影響を低減させることができる。なお、差分の対象となる画像は、2値化前の画像であっても良い。   Thereby, the pixel which reads a voltage signal can be limited suitably. That is, it is possible to suppress acquisition of an image that is not used when estimating the whereabouts of the robot 100. Further, the CMOS imager 6 can be driven at a higher speed if the pixels from which the voltage signal is read are limited as compared with the case where the voltage signal is read from all the pixels. That is, the image is acquired by the CMOS imager 6 with higher time resolution. Therefore, even if the optical signal output from the light emitting device 200 is pulse-modulated at a very short time interval, the pulse-modulated optical signal can be decoded based on the image acquired by the CMOS imager 6. In addition, as described above, the influence of background light can be reduced by taking the difference between the binary image when the optical signal is input and the binary image when the optical signal is not input. Note that the image to be subjected to the difference may be an image before binarization.

[第2の実施形態]
以下、図8乃至10を用いて、第2の実施形態について説明する。図8は、撮像ユニットの概略的な構成を示す模式図である。図9は、位置推定装置の概略的な構成を示すブロック図である。図10は、位置推定装置の動作を説明するためのフローチャートである。
[Second Embodiment]
Hereinafter, the second embodiment will be described with reference to FIGS. FIG. 8 is a schematic diagram illustrating a schematic configuration of the imaging unit. FIG. 9 is a block diagram illustrating a schematic configuration of the position estimation apparatus. FIG. 10 is a flowchart for explaining the operation of the position estimation apparatus.

本実施形態においては、位置検出センサ3に代えて、フォトダイオード(PD(Photo Diode))7を用いる。このような場合であっても第1の実施形態と同様にロボットの存在位置を推定する際に用いられる位置情報を従来よりも無駄なく取得することができる。   In the present embodiment, a photodiode (PD (Photo Diode)) 7 is used instead of the position detection sensor 3. Even in such a case, as in the first embodiment, the position information used when estimating the position of the robot can be acquired more efficiently than in the past.

図8に示すように、ビームスプリッタ2から出力される光信号はフォトダイオード(光検出素子)7に入力される。   As shown in FIG. 8, the optical signal output from the beam splitter 2 is input to a photodiode (photodetection element) 7.

図9に示すように、ビームスプリッタ2からの出力される光信号はフォトダイオード7に入力される。フォトダイオード7からは光電流が信号S10として出力される。フォトダイオード7から出力される信号S10はトランスインピーダンス回路8に入力される。トランスインピーダンス回路8から出力される信号S11は演算処理部5のセンサ制御部5aに入力される。   As shown in FIG. 9, the optical signal output from the beam splitter 2 is input to the photodiode 7. A photocurrent is output from the photodiode 7 as a signal S10. A signal S10 output from the photodiode 7 is input to the transimpedance circuit 8. The signal S11 output from the transimpedance circuit 8 is input to the sensor control unit 5a of the arithmetic processing unit 5.

フォトダイオード7は、PN接合が形成された受光素子であり、逆バイアスされた状態で入射光量に応じた値の光電流を出力する。トランスインピーダンス回路8は、光電流を電圧に変換し、この電圧を信号S11として出力するアナログ回路である。なお、フォトダイオード7として、PN接合を有するフォトトランジスタを活用しても良い。   The photodiode 7 is a light receiving element in which a PN junction is formed, and outputs a photocurrent having a value corresponding to the amount of incident light in a reverse biased state. The transimpedance circuit 8 is an analog circuit that converts a photocurrent into a voltage and outputs this voltage as a signal S11. Note that a phototransistor having a PN junction may be used as the photodiode 7.

本実施形態では、センサ制御部5aは、信号S11が予め設定した閾値を超えるかどうかに基づいてフォトダイオード7に光信号が入射したタイミングを検出する。そして、センサ制御部5aは、フォトダイオード7に光信号が入射したタイミングに同期させてCMOSイメージャ6を駆動させる。換言すると、センサ制御部5aは、フォトダイオード7で検出した光信号の入射タイミングに同期させてCMOSイメージャ6に撮像を指示する。   In the present embodiment, the sensor control unit 5a detects the timing at which the optical signal is incident on the photodiode 7 based on whether the signal S11 exceeds a preset threshold value. Then, the sensor control unit 5 a drives the CMOS imager 6 in synchronization with the timing when the optical signal is incident on the photodiode 7. In other words, the sensor control unit 5a instructs the CMOS imager 6 to take an image in synchronization with the incident timing of the optical signal detected by the photodiode 7.

光信号が写されていない画像は、背景光除去のために活用することができたとしても、撮像領域30に入射する光信号の位置を特定するためには活用することはできない。従って、光信号が写されていない画像の取得数を減らす又はその画像の取得自体を実行しないほうが良い場合がある。本実施形態では、この点に鑑みて、上述のようにCMOSイメージャ6が撮像するタイミングをフォトダイオード7で検出したタイミングに同期させる。このようにして、位置推定に利用されることがない無駄な画像を排除することができる。   Even if the image on which the optical signal is not copied can be used for background light removal, it cannot be used for specifying the position of the optical signal incident on the imaging region 30. Therefore, there are cases where it is better to reduce the number of images that are not captured with an optical signal or not to acquire the images themselves. In the present embodiment, in view of this point, the timing at which the CMOS imager 6 images is synchronized with the timing detected by the photodiode 7 as described above. In this way, useless images that are not used for position estimation can be eliminated.

なお、信号復号部5cは、フォトダイオード7の出力に基づいて光信号に重畳した信号を復号する。また、トランスインピーダンス回路8と演算処理部5の間に比較回路を設けて、これにより光信号の入力の有無を検出しても良い。この場合、センサ制御部5aは、比較回路の判定結果に基づいてCMOSイメージャ6を制御する。例えば、センサ制御部5aは、比較回路からHレベルの電圧信号が出力される場合にCMOSイメージャ6に撮像を指示する。センサ制御部5aは、比較回路からLレベルの電圧信号が出力される場合にCMOSイメージャ6に撮像を指示しない。   The signal decoding unit 5c decodes the signal superimposed on the optical signal based on the output of the photodiode 7. Further, a comparison circuit may be provided between the transimpedance circuit 8 and the arithmetic processing unit 5 to detect the presence / absence of an optical signal input. In this case, the sensor control unit 5a controls the CMOS imager 6 based on the determination result of the comparison circuit. For example, the sensor control unit 5a instructs the CMOS imager 6 to perform imaging when an H level voltage signal is output from the comparison circuit. The sensor control unit 5a does not instruct the CMOS imager 6 to take an image when an L level voltage signal is output from the comparison circuit.

次に図10を参照して位置推定装置60の動作について説明する。   Next, the operation of the position estimation device 60 will be described with reference to FIG.

まず、光信号を受信する(S1)。具体的には、フォトダイオード7で光信号を受光する。   First, an optical signal is received (S1). Specifically, the photodiode 7 receives an optical signal.

次に、閾値以上であるのかを判定する(S2)。具体的には、センサ制御部5aはトランスインピーダンス回路8から出力される電圧信号S11のレベルが予め設定された閾値以上であるのかを判定する。   Next, it is judged whether it is more than a threshold value (S2). Specifically, the sensor control unit 5a determines whether the level of the voltage signal S11 output from the transimpedance circuit 8 is equal to or higher than a preset threshold value.

電圧信号S11が閾値以上の場合には、撮像の指示をする(S3)。具体的には、センサ制御部5aはCMOSイメージャ6に撮像を指示する。   If the voltage signal S11 is greater than or equal to the threshold value, an instruction for imaging is given (S3). Specifically, the sensor control unit 5a instructs the CMOS imager 6 to take an image.

次に撮像を実行する(S4)。具体的には、CMOSイメージャ6は、センサ制御部5aから伝達される撮像指示信号S3を受けて撮像を実行する。そして、CMOSイメージャ6は、撮像した像を信号S4として演算処理部5へ出力する。   Next, imaging is executed (S4). Specifically, the CMOS imager 6 receives an imaging instruction signal S3 transmitted from the sensor control unit 5a and executes imaging. Then, the CMOS imager 6 outputs the captured image to the arithmetic processing unit 5 as a signal S4.

なお、図10におけるステップS5、S6、及びS7の各ステップは、第1の実施形態における対応するステップに一致する。従って、重複する説明は省略する。   Note that steps S5, S6, and S7 in FIG. 10 correspond to the corresponding steps in the first embodiment. Therefore, the overlapping description is omitted.

また、図10に示すように、ステップS1の後に、信号の復号をする(S7)。具体的には、信号復号部5cは、フォトダイオード7からの出力に基づいて光信号に重畳された信号を復号する。ここでは、CMOSイメージャ6は光信号の入力に同期したタイミングで撮像する。従って、CMOMセンサ6の出力に代えて、フォトダイオード7の出力に基づいて光信号に重畳された信号を復号する。   Further, as shown in FIG. 10, after step S1, the signal is decoded (S7). Specifically, the signal decoding unit 5 c decodes the signal superimposed on the optical signal based on the output from the photodiode 7. Here, the CMOS imager 6 captures images at a timing synchronized with the input of the optical signal. Therefore, the signal superimposed on the optical signal is decoded based on the output of the photodiode 7 instead of the output of the CMOM sensor 6.

本実施形態では、CMOSイメージャ6が撮像するタイミングをフォトダイオード7で検出したタイミングに同期させる。このようにして、位置推定に利用されることがない無駄な画像を排除することができる。   In this embodiment, the timing when the CMOS imager 6 captures an image is synchronized with the timing detected by the photodiode 7. In this way, useless images that are not used for position estimation can be eliminated.

[第3の実施形態]
以下、図11乃至12を用いて、第3の実施形態について説明する。図11は、演算処理部5の構成を示すブロック図である。図12は、閾値決定部の動作を説明するためのフローチャートである。なお、第1及び第2の実施形態と異なる点についてのみ説明する。本実施形態は、第1及び第2の実施形態の変形例として位置づけられる。
[Third embodiment]
The third embodiment will be described below with reference to FIGS. FIG. 11 is a block diagram illustrating a configuration of the arithmetic processing unit 5. FIG. 12 is a flowchart for explaining the operation of the threshold value determination unit. Only differences from the first and second embodiments will be described. This embodiment is positioned as a modification of the first and second embodiments.

本実施形態においては、演算処理部5は、閾値決定部5eを有する。閾値決定部5eは、画像処理部5bによる画像の2値化処理に用いられる閾値を位置検出センサ3又はフォトダイオード7の出力値に基づいて決定する。このように閾値を設定することで、撮像領域30に入射した光信号の有無の判定を容易化させることができる。また、撮像した画像に含まれる背景光の影響を効果的に低減させることができる。この点は、特に外来光の照度が強い環境の下でスポット状の光信号を検出する場合に有利である。なお、閾値決定部5eが閾値を決定するとき、位置検出センサ3又はフォトダイオード7には発光装置200からの出力光が入力されていないものとする。また、位置検出センサ3の出力は、位置検出センサ3から出力される光電流の総和に等しい。   In the present embodiment, the arithmetic processing unit 5 includes a threshold value determining unit 5e. The threshold determination unit 5e determines a threshold used for the binarization processing of the image by the image processing unit 5b based on the output value of the position detection sensor 3 or the photodiode 7. By setting the threshold value in this way, it is possible to facilitate the determination of the presence or absence of an optical signal that has entered the imaging region 30. In addition, the influence of background light included in the captured image can be effectively reduced. This is advantageous particularly when spot-like optical signals are detected in an environment where the illuminance of external light is strong. In addition, when the threshold value determination part 5e determines a threshold value, the output light from the light-emitting device 200 shall not be input into the position detection sensor 3 or the photodiode 7. FIG. Further, the output of the position detection sensor 3 is equal to the sum of the photocurrents output from the position detection sensor 3.

図12を参照して閾値の設定方法について説明する。   A threshold setting method will be described with reference to FIG.

まず、位置検出センサ3又はフォトダイオード7で入射光強度を取得する(S1)。   First, the incident light intensity is acquired by the position detection sensor 3 or the photodiode 7 (S1).

次に、この入射光強度に基づいて閾値を決定する(S2)。具体的には、演算処理部5に入力される電圧信号の電圧レベルに応じて閾値を設定する。   Next, a threshold value is determined based on the incident light intensity (S2). Specifically, the threshold value is set according to the voltage level of the voltage signal input to the arithmetic processing unit 5.

本実施形態においては、閾値決定部5eは、画像処理部5bによる画像の2値化処理に用いられる閾値を位置検出センサ3又はフォトダイオード7の出力値に基づいて決定する。このように閾値を設定することで、撮像領域30に入射した光信号の有無の判定を容易化させることができる。また、撮像した画像に含まれる背景光の影響を効果的に低減させることができる。   In the present embodiment, the threshold determination unit 5e determines a threshold used for the binarization processing of the image by the image processing unit 5b based on the output value of the position detection sensor 3 or the photodiode 7. By setting the threshold value in this way, it is possible to facilitate the determination of the presence or absence of an optical signal that has entered the imaging region 30. In addition, the influence of background light included in the captured image can be effectively reduced.

本発明は上述の実施の形態に限定されるものではない。位置推定装置60は、図1に示すようなパートーロボットのほかにも、産業用のロボットにも適用することができる。フォトセンサの具体的な構造は任意である。CMOSイメージャ6に代えてCCDセンサを活用しても良い。位置検出センサは、上述の位置検出方式に限定されない。信号処理回路の具体的な構成は任意である。演算処理部5の具体的な構成は任意である。演算処理部5の各機能をハードウェアで実現させても良い。   The present invention is not limited to the above-described embodiment. The position estimation device 60 can be applied to an industrial robot in addition to the part robot as shown in FIG. The specific structure of the photosensor is arbitrary. A CCD sensor may be used instead of the CMOS imager 6. The position detection sensor is not limited to the above-described position detection method. The specific configuration of the signal processing circuit is arbitrary. The specific configuration of the arithmetic processing unit 5 is arbitrary. Each function of the arithmetic processing unit 5 may be realized by hardware.

本発明の第1の実施形態にかかる移動制御システムの構成を示す模式図である。It is a schematic diagram which shows the structure of the movement control system concerning the 1st Embodiment of this invention. 本発明の第1の実施形態にかかる位置推定装置の概略的な構成を示すブロック図である。It is a block diagram which shows the schematic structure of the position estimation apparatus concerning the 1st Embodiment of this invention. 本発明の第1の実施形態にかかる撮像ユニットの概略的な構成を示す模式図である。It is a schematic diagram which shows schematic structure of the imaging unit concerning the 1st Embodiment of this invention. 本発明の第1の実施形態にかかるPSDの概略的な上面構成を示す模式図である。It is a mimetic diagram showing a schematic upper surface composition of PSD concerning a 1st embodiment of the present invention. 本発明の第1の実施形態にかかるCMOSイメージャの概略的な上面構成を示す模式図である。It is a schematic diagram which shows the schematic top surface structure of the CMOS imager concerning the 1st Embodiment of this invention. 本発明の第1の実施形態にかかる位置推定装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the position estimation apparatus concerning the 1st Embodiment of this invention. 本発明の第1の実施形態にかかる入力光の特定方法を説明するための説明図である。It is explanatory drawing for demonstrating the identification method of the input light concerning the 1st Embodiment of this invention. 本発明の第2の実施形態にかかる撮像ユニットの概略的な構成を示す模式図である。It is a schematic diagram which shows schematic structure of the imaging unit concerning the 2nd Embodiment of this invention. 本発明の第2の実施形態にかかる位置推定装置の概略的な構成を示すブロック図である。It is a block diagram which shows the schematic structure of the position estimation apparatus concerning the 2nd Embodiment of this invention. 本発明の第2の実施形態にかかる位置推定装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the position estimation apparatus concerning the 2nd Embodiment of this invention. 本発明の第3の実施形態にかかる演算処理部5の構成を示すブロック図である。It is a block diagram which shows the structure of the arithmetic processing part 5 concerning the 3rd Embodiment of this invention. 本発明の第3の実施形態にかかる閾値決定部の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of the threshold value determination part concerning the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

300 移動制御システム
100 ロボット
60 位置推定装置
50 撮像ユニット

1 光学系
2 ビームスプリッタ
3 位置検出センサ
4 信号処理回路
5 演算処理部
6 CMOSイメージャ
7 フォトダイオード
8 トランスインピーダンス回路

5a センサ制御部
5b 画像処理部
5c 信号復号部
5d 位置推定部
5e 閾値決定部

20 受光領域
21a〜21d 信号取出電極

10 入射窓
11 対物レンズ

30 撮像領域
31 行選択回路
32 列選択回路
33 データ転送ライン
300 Movement Control System 100 Robot 60 Position Estimation Device 50 Imaging Unit

DESCRIPTION OF SYMBOLS 1 Optical system 2 Beam splitter 3 Position detection sensor 4 Signal processing circuit 5 Arithmetic processing part 6 CMOS imager 7 Photodiode 8 Transimpedance circuit

5a Sensor control unit 5b Image processing unit 5c Signal decoding unit 5d Position estimation unit 5e Threshold determination unit

20 Light receiving area 21a-21d Signal extraction electrode

10 Entrance window 11 Objective lens

30 Image pickup area 31 Row selection circuit 32 Column selection circuit 33 Data transfer line

Claims (15)

外部から到来する光信号の検出に基づいて位置情報を取得する位置情報取得装置であって、
前記光信号を第1及び第2方向へ分岐させる光分岐手段と、
前記光分岐手段を介して前記第1方向に導かれる前記光信号を受光する光検出素子と、
複数の画素が配置された撮像面を有すると共に、前記光分岐手段を介して前記第2方向に導かれる前記光信号を1つ以上の前記画素で受光する撮像素子と、
記光検出素子の出力に基づいて前記撮像素子が撮像するタイミングを制御する制御部と、
を備える位置情報取得装置。
A position information acquisition device that acquires position information based on detection of an optical signal coming from the outside,
Optical branching means for branching the optical signal in the first and second directions;
A light detecting element that receives the optical signal guided in the first direction via the optical branching means;
An imaging device having an imaging surface in which a plurality of pixels are arranged, and receiving the optical signal guided in the second direction via the optical branching means by one or more of the pixels;
A control unit for controlling the timing of the image pickup device takes an image based on the output of the previous SL photodetector,
A position information acquisition device comprising:
外部から到来する光信号の検出に基づいて位置情報を取得する位置情報取得装置であって、
前記光信号を第1及び第2方向へ分岐させる光分岐手段と、
前記光分岐手段を介して前記第1方向に導かれる前記光信号を受光する光検出素子と、
複数の画素が配置された撮像面を有すると共に、前記光分岐手段を介して前記第2方向に導かれる前記光信号を1つ以上の前記画素で受光する撮像素子と、
前記光検出素子の出力に基づいて前記撮像素子に複数の前記画素の一部から信号を読み出させる制御部と、を備え
前記光検出素子は、前記撮像面に対応する受光領域における前記光信号の入射位置を検出する位置検出素子である位置情報取得装置。
A position information acquisition device that acquires position information based on detection of an optical signal coming from the outside,
Optical branching means for branching the optical signal in the first and second directions;
A light detecting element that receives the optical signal guided in the first direction via the optical branching means;
An imaging device having an imaging surface in which a plurality of pixels are arranged, and receiving the optical signal guided in the second direction via the optical branching means by one or more of the pixels;
And a read allowed Ru control section signals from some of the plurality of pixels in the imaging device based on an output of the light detection element,
The position information acquisition device , wherein the light detection element is a position detection element that detects an incident position of the optical signal in a light receiving region corresponding to the imaging surface .
前記制御部は、前記光検出素子から出力される前記受光領域における前記光信号の入射位置を示す信号に基づいて前記撮像素子の前記撮像面の一部に読出範囲を設定し、前記撮像素子に当該読出範囲内の前記画素から信号を読み出させることを特徴とする請求項2に記載の位置情報取得装置。   The control unit sets a reading range in a part of the imaging surface of the imaging element based on a signal indicating an incident position of the optical signal in the light receiving region output from the light detection element, and The position information acquisition apparatus according to claim 2, wherein a signal is read from the pixels within the reading range. 前記光信号は、予め外部に設けられた発光源から出力され、少なくとも前記発光源同士を識別する信号が重畳されていることを特徴とする請求項1又は2に記載の位置情報取得装置。 The optical signal in advance is outputted from the light source provided outside, the position information acquisition apparatus according possible to claim 1 or 2, characterized in that signal identifying at least said light emitting sources each other is superimposed. 前記光検出素子及び/又は前記撮像素子の出力に基づいて前記光信号に重畳された信号を復号する信号復号部を更に備えることを特徴とする請求項4に記載の位置情報取得装置。   The position information acquisition apparatus according to claim 4, further comprising a signal decoding unit that decodes a signal superimposed on the optical signal based on an output of the light detection element and / or the imaging element. 前記光検出素子は、入射光強度に応じた値の電流を出力する受光素子であることを特徴とする請求項1又は2に記載の位置情報取得装置。 The light detecting element, the position information acquisition apparatus according to claim 1 or 2, characterized in that a light receiving element for outputting a current having a value corresponding to the incident light intensity. 前記制御部は、前記受光素子から出力される前記光信号の入力又は無入力を示す信号に基づいて、前記撮像素子の前記撮像面に含まれる複数の前記画素の全部又は一部で前記撮像素子に撮像させることを特徴とする請求項6に記載の位置情報取得装置。   The control unit includes the imaging element based on a signal indicating input or non-input of the optical signal output from the light receiving element, in all or part of the plurality of pixels included in the imaging surface of the imaging element. The position information acquisition apparatus according to claim 6, wherein the position information acquisition apparatus performs imaging. 前記光信号は、予め外部に設けられた発光源から出力され、少なくとも前記発光源同士を識別する信号が重畳されていることを特徴とする請求項6に記載の位置情報取得装置。   The position information acquisition apparatus according to claim 6, wherein the optical signal is output from a light source provided outside in advance, and at least a signal for identifying the light sources is superimposed. 前記受光素子の出力に基づいて前記光信号に重畳された信号を復号する信号復号部を更に備えることを特徴とする請求項8に記載の位置情報取得装置。   The position information acquisition apparatus according to claim 8, further comprising a signal decoding unit that decodes a signal superimposed on the optical signal based on an output of the light receiving element. 前記光検出素子からの出力に基づいて閾値を決定する閾値決定部と、
前記閾値決定部により決定された閾値に基づいて前記撮像素子から出力される画像に対して2値化処理をする画像処理部と、
を更に備えることを特徴とする請求項1乃至9のいずれか一項に記載の位置情報取得装置。
A threshold value determination unit for determining a threshold value based on an output from the light detection element;
An image processing unit that performs binarization processing on an image output from the image sensor based on the threshold value determined by the threshold value determination unit;
The position information acquisition apparatus according to claim 1, further comprising:
前記光分岐手段は、前記光検出素子及び撮像素子夫々へ前記光信号の一部を導くビームスプリッタであることを特徴とする請求項1乃至10のいずれか一項に記載の位置情報取得装置。   The position information acquisition apparatus according to claim 1, wherein the optical branching unit is a beam splitter that guides a part of the optical signal to each of the light detection element and the imaging element. 外部から到来する光信号の検出に基づいて空間内における位置を推定する位置推定装置であって、
前記光信号を第1及び第2方向へ分岐させる光分岐手段と、
前記光分岐手段を介して前記第1方向に導かれる前記光信号を受光する光検出素子と、
複数の画素が配置された撮像面を有すると共に、前記光分岐手段を介して前記第2方向に導かれる前記光信号を1つ以上の前記画素で受光する撮像素子と、
記光検出素子の出力に基づいて前記撮像素子が撮像するタイミングを制御する制御部と、
前記撮像素子から出力される画像に基づいて前記撮像面内の前記光信号の入射位置を検出し、当該検出結果に基づいて前記空間内における居場所を推定する位置推定部と、
を備える位置推定装置。
A position estimation device for estimating a position in space based on detection of an optical signal coming from the outside,
Optical branching means for branching the optical signal in the first and second directions;
A light detecting element that receives the optical signal guided in the first direction via the optical branching means;
An imaging device having an imaging surface in which a plurality of pixels are arranged, and receiving the optical signal guided in the second direction via the optical branching means by one or more of the pixels;
A control unit for controlling the timing of the image pickup device takes an image based on the output of the previous SL photodetector,
A position estimation unit that detects an incident position of the optical signal in the imaging surface based on an image output from the imaging element, and estimates a location in the space based on the detection result;
A position estimation apparatus comprising:
外部から到来する光信号の検出に基づいて空間内における位置を推定する位置推定装置であって、
前記光信号を第1及び第2方向へ分岐させる光分岐手段と、
前記光分岐手段を介して前記第1方向に導かれる前記光信号を受光する光検出素子と、
複数の画素が配置された撮像面を有すると共に、前記光分岐手段を介して前記第2方向に導かれる前記光信号を1つ以上の前記画素で受光する撮像素子と、
前記光検出素子の出力に基づいて前記撮像素子に複数の前記画素の一部から信号を読み出させる制御部と、
前記撮像素子から出力される画像に基づいて前記撮像面内の前記光信号の入射位置を検出し、当該検出結果に基づいて前記空間内における居場所を推定する位置推定部と、
を備え
前記光検出素子は、前記撮像面に対応する受光領域における前記光信号の入射位置を検出する位置検出素子である位置推定装置。
A position estimation device for estimating a position in space based on detection of an optical signal coming from the outside,
Optical branching means for branching the optical signal in the first and second directions;
A light detecting element that receives the optical signal guided in the first direction via the optical branching means;
An imaging device having an imaging surface in which a plurality of pixels are arranged, and receiving the optical signal guided in the second direction via the optical branching means by one or more of the pixels;
A plurality of said read allowed Ru control section some signals from pixels in the imaging device based on an output of the light detection element,
A position estimation unit that detects an incident position of the optical signal in the imaging surface based on an image output from the imaging element, and estimates a location in the space based on the detection result;
Equipped with a,
The position estimation device , wherein the light detection element is a position detection element that detects an incident position of the optical signal in a light receiving region corresponding to the imaging surface .
前記位置推定部は、前記光信号が写された画像と前記光信号が写されていない画像との差分を求めることに基づいて前記撮像面内の前記光信号の入射位置を特定することを特徴とする請求項12又は13に記載の位置推定装置。 The position estimating unit specifies an incident position of the optical signal in the imaging surface based on obtaining a difference between an image in which the optical signal is copied and an image in which the optical signal is not copied. The position estimation apparatus according to claim 12 or 13 . 請求項1若しくは2に記載の位置情報取得装置又は請求項12若しくは13に記載の位置推定装置を備える移動体。 A mobile body comprising the position information acquisition apparatus according to claim 1 or 2 or the position estimation apparatus according to claim 12 or 13 .
JP2008004129A 2008-01-11 2008-01-11 POSITION INFORMATION ACQUISITION DEVICE, POSITION ESTIMATION DEVICE, AND MOBILE BODY Expired - Fee Related JP5045447B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008004129A JP5045447B2 (en) 2008-01-11 2008-01-11 POSITION INFORMATION ACQUISITION DEVICE, POSITION ESTIMATION DEVICE, AND MOBILE BODY

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008004129A JP5045447B2 (en) 2008-01-11 2008-01-11 POSITION INFORMATION ACQUISITION DEVICE, POSITION ESTIMATION DEVICE, AND MOBILE BODY

Publications (2)

Publication Number Publication Date
JP2009168488A JP2009168488A (en) 2009-07-30
JP5045447B2 true JP5045447B2 (en) 2012-10-10

Family

ID=40969842

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008004129A Expired - Fee Related JP5045447B2 (en) 2008-01-11 2008-01-11 POSITION INFORMATION ACQUISITION DEVICE, POSITION ESTIMATION DEVICE, AND MOBILE BODY

Country Status (1)

Country Link
JP (1) JP5045447B2 (en)

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3218477B2 (en) * 1992-06-25 2001-10-15 バブコック日立株式会社 Tracking optical wireless communication method and device
JPH06109424A (en) * 1992-09-24 1994-04-19 Central Japan Railway Co Image sensing apparatus for measurement
JPH0743115A (en) * 1993-07-26 1995-02-10 Sony Corp Distance measurement method and distance measurement device
JPH07190773A (en) * 1993-12-27 1995-07-28 Wacom Co Ltd Optical three-dimensional position detecting device
JPH08304020A (en) * 1995-04-28 1996-11-22 Ando Electric Co Ltd Movement-accuracy measuring apparatus
JP2854831B2 (en) * 1996-03-05 1999-02-10 財団法人イメージ情報科学研究所 Three-dimensional position recognition method and device
US6297488B1 (en) * 1999-04-29 2001-10-02 National Research Council Of Canada Position sensitive light spot detector
JP3991751B2 (en) * 2002-04-09 2007-10-17 日本ビクター株式会社 Solid-state imaging device and reading method thereof
JP3762745B2 (en) * 2002-12-26 2006-04-05 株式会社国際電気通信基礎技術研究所 Object identification system, light emitting device, and detection device
JP4478885B2 (en) * 2005-06-28 2010-06-09 ソニー株式会社 Information processing apparatus and method, program, and recording medium
JP2007018188A (en) * 2005-07-06 2007-01-25 Hitachi Ltd System, method and apparatus for information presentation through extended sense of reality, and computer program

Also Published As

Publication number Publication date
JP2009168488A (en) 2009-07-30

Similar Documents

Publication Publication Date Title
US9652653B2 (en) Acceleration-based motion tolerance and predictive coding
CN205354047U (en) Mark reads terminal
JP4162023B2 (en) Fingerprint detector
JP4805885B2 (en) Lift detection suitable for navigation on transparent structures
KR20140056986A (en) Motion sensor array device, depth sensing system and method using the same
US7868281B2 (en) Optical navigation system and method of estimating motion with optical lift detection
WO2016011671A1 (en) Identity identification apparatus and operation method for identity identification apparatus
US11290643B1 (en) Efficient digital camera image acquisition and analysis
ATE520039T1 (en) PHOTO CAPTURE DEVICE
KR102627014B1 (en) electronic device and method for recognizing gestures
CN101097288A (en) Focus detection apparatus, method of driving the same and camera system
JP5593750B2 (en) Image processing method and image processing apparatus
US9761199B2 (en) Optical navigation system and detection method thereof adapted for ambient light and liftoff detection
US20170177915A1 (en) Monolithic integrated focal array plane and apparatus employing the array
JP4548595B2 (en) Sensor device
JP5045447B2 (en) POSITION INFORMATION ACQUISITION DEVICE, POSITION ESTIMATION DEVICE, AND MOBILE BODY
JP2007265343A (en) Follow-up device of mobile object and electric wheelchair having the same
CN109584278B (en) Target identification device and method
US8289415B2 (en) Blink signal detection circuit, blink signal detection method, object sensing apparatus, object sensing method, and imaging system
JP7269131B2 (en) Information processing device, line-of-sight detection system, line-of-sight detection method, and line-of-sight detection program
EP4086660A1 (en) Lidar device and electronic apparatus including the same
JP2021038063A (en) Shelf imaging device and information processing device
WO2023203896A1 (en) Information processing device and program
US20150193019A1 (en) Mobile apparatus with optical indexer, and method for indexing using the same
US20220046159A1 (en) Imaging device assembly, three-dimensional shape measuring device, and motion detecting device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120619

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120702

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees