JP4210955B2 - Imaging apparatus, imaging control method, and imaging control program - Google Patents

Imaging apparatus, imaging control method, and imaging control program Download PDF

Info

Publication number
JP4210955B2
JP4210955B2 JP2006261988A JP2006261988A JP4210955B2 JP 4210955 B2 JP4210955 B2 JP 4210955B2 JP 2006261988 A JP2006261988 A JP 2006261988A JP 2006261988 A JP2006261988 A JP 2006261988A JP 4210955 B2 JP4210955 B2 JP 4210955B2
Authority
JP
Japan
Prior art keywords
distance
imaging
data
information
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006261988A
Other languages
Japanese (ja)
Other versions
JP2008085550A (en
Inventor
宣男 飯塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2006261988A priority Critical patent/JP4210955B2/en
Priority to EP07015216A priority patent/EP1884798B1/en
Priority to US11/890,179 priority patent/US7724353B2/en
Publication of JP2008085550A publication Critical patent/JP2008085550A/en
Application granted granted Critical
Publication of JP4210955B2 publication Critical patent/JP4210955B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Focusing (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮像装置、撮像制御方法及び撮像制御プログラムに関し、詳しくは、撮像対象までの距離を測定し、その測定結果を利用した様々な制御を行う撮像装置、撮像制御方法、及び、撮像制御プログラムに関する。   The present invention relates to an imaging apparatus, an imaging control method, and an imaging control program. More specifically, the imaging apparatus, an imaging control method, and an imaging control that measure various distances to an imaging target and perform various controls using the measurement results. Regarding the program.

従来より、デジタルカメラ等の撮像装置において、AF(自動合焦)機能を備えたものが存在する。AF機能における被写体までの距離測定方法には、一般的に、コンパクトカメラなどに搭載されるPSD型と、レンズ交換式一眼レフカメラなどに搭載されるTTLコントラスト型(あるいはプレシジョン・フォーカス型)とが知られている。   2. Description of the Related Art Conventionally, there are imaging apparatuses such as digital cameras that have an AF (automatic focusing) function. As a method for measuring the distance to a subject in the AF function, there are generally a PSD type mounted on a compact camera or the like, and a TTL contrast type (or precision focus type) mounted on an interchangeable lens single-lens reflex camera or the like. Are known.

ここで、PSD型によるAF技術を説明すると、PSD型は、カメラの前面に設けられた赤外線発光部から赤外光を発射して被写体に照射されて反射された反射光を、同じくカメラの前面に設けられた距離センサで受光することにより、この距離センサで赤外光と反射光との角度から被写体までの距離を取得してAF処理を行う。   Here, the PSD type AF technology will be described. The PSD type emits infrared light from an infrared light emitting unit provided on the front surface of the camera, and reflects the reflected light that is irradiated and reflected on the subject. By receiving light with a distance sensor provided in, the distance sensor obtains the distance to the subject from the angle between the infrared light and the reflected light and performs AF processing.

また、このPSD型よりも精度の高い距離測定技術として、一部の光学測定器においては、例えば特許文献1に記載されるようなレーザーを用いたものが存在する。このレーザー光を用いる技術では、内蔵する半導体レーザー20から発射されたレーザー光について、ビームスプリッターを介して受光される参照光と被検体で反射された測定光とを受光素子29にて受光し、この2つの光の時間差(光周波数差)により被検体までの距離を測定し、焦点検出を行うものである。このようなレーザー光を利用した距離測定によれば、周囲環境や使用する波長領域にもよるもののPSD型と比較して、距離に依存され難く、高い精度で焦点距離を求めることができる。   Further, as a distance measuring technique with higher accuracy than the PSD type, some optical measuring instruments use a laser as described in Patent Document 1, for example. In the technology using this laser beam, the laser beam emitted from the built-in semiconductor laser 20 receives the reference beam received through the beam splitter and the measurement beam reflected by the subject by the light receiving element 29, The distance to the subject is measured by the time difference (optical frequency difference) between the two lights, and focus detection is performed. According to the distance measurement using such a laser beam, the focal length can be obtained with high accuracy with less dependence on the distance as compared with the PSD type depending on the surrounding environment and the wavelength region to be used.

特開平10−90591号公報(第3〜4頁、図1、及び、図2)Japanese Patent Laid-Open No. 10-90591 (pages 3 to 4, FIG. 1 and FIG. 2)

しかしながら、上述のレーザー光を用いた距離測定技術は、安全上の問題から民生機器には採用されることは無く、被写体までの距離が比較的遠い場合において、その被写体までの距離を正確に、且つ、安全に測定し、その測定結果を諸々の撮影制御に反映させることは不可能であった。   However, the distance measurement technique using the laser beam described above is not adopted for consumer devices due to safety issues, and when the distance to the subject is relatively far, the distance to the subject is accurately determined. In addition, it is impossible to measure safely and reflect the measurement results in various photographing controls.

そこで、本発明の目的は、被写体までの距離を正確に測定し、その測定結果を利用して様々な撮影制御を行うことを可能にした撮像装置、撮像制御方法、及び、撮像制御プログラムを提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to provide an imaging apparatus, an imaging control method, and an imaging control program that can accurately measure the distance to a subject and perform various imaging controls using the measurement results. There is to do.

請求項1記載の発明は、撮像手段と、この撮像手段を連続的に駆動させることによって撮像された撮像面から所定の輝度を有する領域を検出する領域検出手段と、この領域検出手段によって検出された領域における輝度の時間的な輝度変化から、前記領域に対応する物体の大きさに関する情報を取得する情報取得手段と、前記撮像面における前記領域の面積、結像距離、および、前記情報取得手段によって取得された情報に基づいて、当該装置と前記物体との距離を算出する距離算出手段と、この距離算出手段によって算出された距離に基づいて、撮像動作に関連する各処理を制御する制御手段とを備えたことを特徴とする。
請求項2記載の発明は、上記請求項1に記載の発明において、前記制御手段は、前記撮像動作に関連する各処理の制御として、前記距離算出手段によって算出された当該装置と前記物体との距離とに基づいて、前記情報取得手段によって取得された情報の再生又は保存を制御することを特徴とする。
請求項3記載の発明は、上記請求項1又は2に記載の発明に加え、表示手段を更に備え、前記制御手段は、前記撮像動作に関連する各処理の制御として、前記距離算出手段によって算出された当該装置と前記物体との距離とに基づいて、撮像に関わる補助情報を前記表示手段に表示するよう制御することを特徴とする。
請求項4記載の発明は、上記請求項1に記載の発明に加え、合焦手段を更に備え、前記制御手段は、前記撮像動作に関連する各処理の制御として、前記距離算出手段によって算出された当該装置と前記物体との距離とに基づいて、前記合焦手段を制御することを特徴とする。
請求項5記載の発明は、上記請求項1に記載の発明において、前記制御手段は、前記撮像動作に関連する各処理の制御として、前記距離算出手段によって算出された当該装置と前記物体との距離とに基づいて、前記撮像手段によって撮像される画像を加工するよう制御することを特徴とする。
請求項6記載の発明は、上記請求項1に記載の発明において、前記制御手段は、前記撮像動作に関連する各処理の制御として、前記距離算出手段によって算出された当該装置と前記物体との距離とに基づいて、当該装置が備える光学系機構を制御することを特徴とする。
請求項7記載の発明は、撮像部を連続的に駆動させることによって撮像された撮像面から所定の輝度を有する領域を検出する領域検出ステップと、この領域検出ステップにて検出された領域における輝度の時間的な輝度変化から、前記領域に対応する物体の大きさに関する情報を取得する情報取得ステップと、前記撮像面における前記領域の面積、結像距離、および、前記情報取得ステップにて取得された情報に基づいて、当該装置と前記物体との距離を算出する距離算出ステップと、この距離算出ステップにて算出された距離に基づいて、撮像動作に関連する各処理を制御する制御ステップとからなることを特徴とする。
請求項8記載の発明は、コンピュータを、撮像部を連続的に駆動させることによって撮像された撮像面から所定の輝度を有する領域を検出する領域検出手段、この領域検出手段によって検出された領域における輝度の時間的な輝度変化から、前記領域に対応する物体の大きさに関する情報を取得する情報取得手段、前記撮像面における前記領域の面積、結像距離、および、前記情報取得手段よって取得された情報に基づいて、当該装置と前記物体との距離を算出する距離算出手段、この距離算出手段によって算出された距離に基づいて、撮像動作に関連する各処理を制御する制御手段として機能させることを特徴とする。
The invention according to claim 1 is detected by the imaging means, the area detecting means for detecting an area having a predetermined luminance from the imaging surface imaged by continuously driving the imaging means, and the area detecting means. Information acquisition means for acquiring information related to the size of the object corresponding to the area from the temporal luminance change in the area, the area of the area on the imaging surface, the imaging distance, and the information acquisition means A distance calculating unit that calculates a distance between the device and the object based on the information acquired by the control unit, and a control unit that controls each process related to the imaging operation based on the distance calculated by the distance calculating unit. It is characterized by comprising.
According to a second aspect of the present invention, in the first aspect of the present invention, the control unit is configured to control the processing between the apparatus and the object calculated by the distance calculation unit as control of each process related to the imaging operation. Based on the distance, reproduction or storage of information acquired by the information acquisition unit is controlled.
The invention according to claim 3 further includes a display means in addition to the invention according to claim 1 or 2, wherein the control means is calculated by the distance calculation means as control of each process related to the imaging operation. Control is performed so that auxiliary information related to imaging is displayed on the display unit based on the distance between the device and the object.
The invention according to claim 4 further includes a focusing unit in addition to the invention according to claim 1, and the control unit is calculated by the distance calculation unit as control of each process related to the imaging operation. The focusing means is controlled based on the distance between the device and the object.
According to a fifth aspect of the present invention, in the first aspect of the present invention, the control unit is configured to control the processing between the apparatus and the object calculated by the distance calculation unit as control of each process related to the imaging operation. Control is performed so as to process an image picked up by the image pickup means based on the distance.
According to a sixth aspect of the present invention, in the first aspect of the present invention, the control unit is configured to control the processing between the apparatus and the object calculated by the distance calculation unit as control of each process related to the imaging operation. Based on the distance, the optical system mechanism included in the apparatus is controlled.
According to a seventh aspect of the present invention, there is provided an area detection step for detecting an area having a predetermined luminance from an imaging surface imaged by continuously driving the imaging section, and luminance in the area detected by the area detection step. Information acquisition step for acquiring information on the size of the object corresponding to the region, the area of the region on the imaging surface, the imaging distance, and the information acquisition step. A distance calculating step for calculating a distance between the device and the object based on the information obtained, and a control step for controlling each process related to the imaging operation based on the distance calculated in the distance calculating step. It is characterized by becoming.
The invention according to claim 8 is an area detecting means for detecting an area having a predetermined luminance from the imaging surface imaged by continuously driving the imaging section of the computer, and in the area detected by the area detecting means. Information acquisition means for acquiring information related to the size of the object corresponding to the region, the area of the region on the imaging surface, the imaging distance, and the information acquisition means obtained from a temporal change in luminance. Based on the information, the distance calculation means for calculating the distance between the device and the object, and the control means for controlling each process related to the imaging operation based on the distance calculated by the distance calculation means. Features.

本発明によれば、連続的に撮像された撮像面から所定の輝度を有する領域を検出し、この検出された領域における輝度の時間的な輝度変化から、この輝度を有する領域に対応する物体の大きさに関する情報を取得する一方、撮像面におけるこの領域の面積、結像距離、および、取得された情報に基づいて、当該装置とこの物体との距離を算出し、算出された距離に基づいて撮像動作に関連する各処理を制御する。したがって、被写体までの距離を正確に測定し、その測定結果を利用して様々な撮影制御を行うことが可能となる。   According to the present invention, an area having a predetermined luminance is detected from an imaging surface that has been continuously imaged, and an object corresponding to the area having the luminance is detected from a temporal change in luminance in the detected area. While acquiring information on the size, the area of this region on the imaging surface, the imaging distance, and the distance between the object and the object are calculated based on the acquired information, and based on the calculated distance Each process related to the imaging operation is controlled. Therefore, it is possible to accurately measure the distance to the subject and perform various shooting controls using the measurement result.

以下、デジタルカメラへの適用を例にして、図面を参照しながら説明する。   Hereinafter, application to a digital camera will be described as an example with reference to the drawings.

<原理説明>
図1は、本実施形態の適用システムの一例を示すデジタルカメラの構成図である。この図において、デジタルカメラ10は、CPU11やROM12及びRAM13並びに不図示の各種周辺回路等を含む典型的には1チップ化されたマイクロプロセッサからなる中央制御部14と、この中央制御部14の周りに適宜に配置された、デジタルカメラ10の動作に必要な、少なくとも、以下の各部を備えて構成されている。
<Principle explanation>
FIG. 1 is a configuration diagram of a digital camera showing an example of an application system of the present embodiment. In this figure, a digital camera 10 includes a central control unit 14 that includes a CPU 11, a ROM 12, a RAM 13, various peripheral circuits (not shown) and the like, and typically a microprocessor formed on a single chip, and the periphery of the central control unit 14. Are provided with at least the following units necessary for the operation of the digital camera 10.

撮像部15は、撮影レンズや絞り機構、焦点合わせ機構、及び、ズーム機構などを含む光学系16と、CCDセンサまたはCMOSセンサなどの二次元イメージセンサからなる撮像デバイス17とで構成される。撮像部21の動作(絞りの大きさやズーム倍率、つまり撮影画角αの調整並びに焦点合わせ、及び、撮像デバイス17の露光並びに読み出し動作)は、中央制御部14とステップモータ181を備えるオートフォーカス制御部18とからの撮影動作指示を受けた撮像制御部19からのコントロールによって制御される。中央制御部14からの撮影動作指示は、撮影構図確認用(いわゆるスルー画像用)または動画撮影用の所定フレームレート(たとえば、毎秒数十乃至は数百枚のフレームレート)のフレーム画像読み出し動作指示、高解像度の静止画撮影動作指示、並びに、それらの動作に必要な絞り値設定やズーム倍率設定等の事前動作指示などであり、また、オートフォーカス制御部18からの撮影動作指示は、光学系16の合焦(ピント合わせ)動作指示である。   The imaging unit 15 includes an optical system 16 including a photographing lens, a diaphragm mechanism, a focusing mechanism, a zoom mechanism, and the like, and an imaging device 17 including a two-dimensional image sensor such as a CCD sensor or a CMOS sensor. The operation of the imaging unit 21 (aperture size and zoom magnification, that is, adjustment and focusing of the shooting angle of view α, and exposure and readout operations of the imaging device 17) is performed by autofocus control including a central control unit 14 and a step motor 181. Control is performed by the control from the imaging control unit 19 that has received an imaging operation instruction from the unit 18. The photographing operation instruction from the central control unit 14 is a frame image reading operation instruction at a predetermined frame rate (for example, several tens to several hundreds frame rate per second) for photographing composition confirmation (so-called through image) or moving image photographing. , High-resolution still image shooting operation instructions, prior operation instructions such as aperture value setting and zoom magnification setting necessary for these operations, and the shooting operation instruction from the autofocus control unit 18 is an optical system 16 focusing (focusing) operation instructions.

撮像部21からは、中央制御部14からの撮影動作指示に応答して、撮影構図確認用や動画用のフレーム画像が上記のフレームレートで周期的に読み出され、あるいは、高解像度の静止画フレーム画像が読み出される。これらのフレーム画像は、画像処理部21において、デジタル信号に変換されると共に、所要の画像処理(たとえば、ガンマ補正処理等)が施された後、FIFOバッファ22を介して中央制御部14に取り込まれる。   In response to a shooting operation instruction from the central control unit 14, a frame image for shooting composition confirmation or a moving image is periodically read out from the imaging unit 21 at the above frame rate, or a high-resolution still image A frame image is read out. These frame images are converted into digital signals in the image processing unit 21 and subjected to necessary image processing (for example, gamma correction processing), and then taken into the central control unit 14 via the FIFO buffer 22. It is.

操作部23は、デジタルカメラ10のユーザ操作用入力インターフェースに必要な各種操作子、たとえば、電源スイッチ、画像撮影と画像再生のモード切替スイッチ、静止画撮影や動画撮影を行うためのシャッタボタン、各種設定メニューを表示するためのメニューボタン、そのメニュー項目を選択したり、画像再生モード時に再生を希望する画像を選択したりするための選択ボタン等を含む。   The operation unit 23 includes various operations necessary for an input interface for user operation of the digital camera 10, such as a power switch, a mode switch between image capturing and image reproduction, a shutter button for performing still image capturing and moving image capturing, A menu button for displaying a setting menu, a selection button for selecting the menu item, and selecting an image desired to be reproduced in the image reproduction mode are included.

表示制御部24は、中央制御部14から適宜に出力される様々な表示データ、たとえば、スルー画像用示データ、メニュー画面用表示データ、画像の再生画面用表示データなどを所定の表示形式に変換して、液晶ディスプレイなどの平面表示デバイスで構成された表示部25に出力する。なお、この表示部25は、タッチパネル26付きのものであり、タッチ検出部27は、タッチパネル26への指またはペン等のタッチ座標を検出して、その検出結果を中央制御部14に出力する。   The display control unit 24 converts various display data appropriately output from the central control unit 14, for example, through-image display data, menu screen display data, and image playback screen display data into a predetermined display format. Then, the data is output to the display unit 25 configured by a flat display device such as a liquid crystal display. The display unit 25 is provided with a touch panel 26, and the touch detection unit 27 detects touch coordinates such as a finger or a pen on the touch panel 26 and outputs the detection result to the central control unit 14.

画像記憶部28は、フラッシュメモリ、ハードディスクまたは光ディスク等の不揮発性(電源をオフにしてもその記憶内容を失わない)の大容量記憶装置によって構成されており、主に、このデジタルカメラ10で撮影された画像を蓄積保存するために用いられる。なお、蓄積保存される各画像は、たとえば、JPEG形式等の圧縮ファイル、または、非圧縮の生データファイル(いわゆるRAWファイル)であり、また、それら画像の保存領域は、ファイルシステムにおけるルート直下であってもよいし、あるいは、そのルート直下に適宜に作成された1階層ないしは多階層構造のフォルダであってもよい。加えて、この画像記憶部28は、固定型であってもよく、あるいは、デジタルカメラ10から取り外して、たとえば、不図示のパーソナルコンピュータに装着可能な汎用形式のメモリデバイスであってもよい。   The image storage unit 28 is configured by a nonvolatile mass storage device such as a flash memory, a hard disk, or an optical disk (the stored contents are not lost even when the power is turned off). Used to store and store the generated images. Each image stored and stored is, for example, a compressed file in JPEG format or the like, or an uncompressed raw data file (so-called RAW file), and the storage area of these images is directly under the root in the file system. Alternatively, it may be a folder having a single hierarchy or a multi-hierarchy structure appropriately created immediately below the root. In addition, the image storage unit 28 may be a fixed type, or may be a general-purpose memory device that can be detached from the digital camera 10 and attached to a personal computer (not shown), for example.

外部インターフェース29は、たとえば、USBやIEEE1394などの汎用プロトコルに対応したデータ入出力部であり、この外部インターフェース29を介し、必要に応じて、不図示のパーソナルコンピュータ等との間で撮影済み画像の転送(画像記憶部28に蓄積保存されている画像をパーソナルコンピュータに転送する)や読み込み(パーソナルコンピュータから画像記憶部28に画像を読み込む)を行うことができるものである。   The external interface 29 is, for example, a data input / output unit compatible with a general-purpose protocol such as USB or IEEE 1394. When the external interface 29 is necessary, a captured image can be exchanged with a personal computer (not shown) as necessary. Transfer (transfer images stored and stored in the image storage unit 28 to a personal computer) and read (read images from the personal computer to the image storage unit 28) can be performed.

電源部30は、充電式の二次電池あるいは使い捨て型の一次電池を含み、中央制御部14をはじめとした、デジタルカメラ10の各部の動作に必要な電源電圧を供給する。   The power supply unit 30 includes a rechargeable secondary battery or a disposable primary battery, and supplies a power supply voltage necessary for the operation of each unit of the digital camera 10 including the central control unit 14.

方位センサ31及び仰角センサ32は、いずれも、このデジタルカメラ10の撮影方向(光学系16の光軸の向き)を検出するものであり、たとえば、方位センサ31は磁北を0度とした方位を検出し、仰角センサ32は水平を0度とした仰角(または俯角)を検出する。   The azimuth sensor 31 and the elevation sensor 32 both detect the photographing direction of the digital camera 10 (the direction of the optical axis of the optical system 16). For example, the azimuth sensor 31 has a azimuth with magnetic north as 0 degrees. Then, the elevation sensor 32 detects an elevation angle (or depression angle) with the horizontal as 0 degree.

ここで、図示の被写体20は人物を模しているが、これは一例である。重要な点は、この被写体20の位置に、輝度変調をかけた任意のデータ(詳細は後述する)を光で送信する物体として発光体33が設けられていることにある。詳細は後述するが、デジタルカメラ10は、この発光体33を含むイメージを撮像デバイス17で時系列的に受光して(連続的に撮像して)取得することにより、そのイメージに含まれる測定対象として、発光体33における輝度変調領域に含まれるデータを復元し、受光したイメージと復元されたデータとに基づいて発光体33までの距離Dを測定して取得することができるようになっている。   Here, the illustrated subject 20 simulates a person, but this is an example. The important point is that a light emitter 33 is provided at the position of the subject 20 as an object for transmitting arbitrary data (details will be described later) subjected to luminance modulation by light. Although details will be described later, the digital camera 10 receives the image including the illuminant 33 in time series with the imaging device 17 (sequentially captures), and acquires the measurement target included in the image. As described above, the data included in the luminance modulation region in the light emitter 33 can be restored, and the distance D to the light emitter 33 can be measured and acquired based on the received image and the restored data. .

図2は、発光体33の構成図である。この図において、発光体33は、可視光領域の光を発射する光源34、送信すべきデータを格納するデータメモリ35、このデータメモリ35に格納されるデータを変調し、その変調情報で光源34の発光輝度を制御する発光制御部36、及び、所定形状且つ所定サイズの発光窓37を備える。さらに、データメモリ35は、任意の情報を保持するガイドデータメモリ351と、発光窓37の形状(ここでは“円形”)データや発光窓37のサイズデータ(ここでは円形であるから直径“R”)並びに発光体33の位置(緯度経度及び高度)データを保持する自己サイズデータメモリ352とを備える。   FIG. 2 is a configuration diagram of the light emitter 33. In this figure, a light emitter 33 modulates the light source 34 that emits light in the visible light region, the data memory 35 that stores data to be transmitted, and the data stored in the data memory 35, and the light source 34 with the modulation information. And a light emission window 37 having a predetermined shape and a predetermined size. Further, the data memory 35 includes a guide data memory 351 for holding arbitrary information, data on the shape of the light emission window 37 (here, “circular”) and size data of the light emission window 37 (here, the diameter is “R” because it is circular). ) And a self-size data memory 352 for holding position (latitude / longitude and altitude) data of the light emitter 33.

また、発光制御部36は、後述の検出・捕捉用プリアンブルデータ(測定用)と検出・捕捉用プリアンブルデータ(データボディ用)との2種類のプリアンブルデータと、互いに異なる二種類の輝度変化パターン(以下、第1パターン系列SAと第2パターン系列SB)とを保持するパターンデータメモリ361と、タイミングジェネレータ362と、制御部363とを備えている。   The light emission control unit 36 also includes two types of preamble data, which are detection / capture preamble data (for measurement) and detection / capture preamble data (for data body), which will be described later, and two different brightness change patterns ( Hereinafter, a pattern data memory 361 that holds the first pattern series SA and the second pattern series SB), a timing generator 362, and a control unit 363 are provided.

タイミングジェネレータ362は、所定周期の安定したクロック信号を発生する。このクロック信号は、デジタルカメラ10の撮像デバイス17のクロック信号と同期している。   The timing generator 362 generates a stable clock signal having a predetermined period. This clock signal is synchronized with the clock signal of the imaging device 17 of the digital camera 10.

制御部363は、タイミングジェネレータ362からのクロック信号に同期してパターンデータメモリ361、ガイドデータメモリ351、及び、自己サイズデータメモリ352に格納されているデータについて、順次、ビットデータを取り出し、そのビット値(“1”データか“0”データか)を判定して、“1”データであればパターンデータメモリ361から第1パターン系列SAを取り出す一方、“0”データであればパターンデータメモリ361から第2パターン系列SBを取り出し、それらの第1パターン系列SA又は第2パターン系列SBを光源34に出力する動作を、送信すべきデータのビット数だけ繰り返す。   The control unit 363 sequentially extracts bit data from the data stored in the pattern data memory 361, the guide data memory 351, and the self-size data memory 352 in synchronization with the clock signal from the timing generator 362, and the bit The value (“1” data or “0” data) is determined, and if it is “1” data, the first pattern series SA is extracted from the pattern data memory 361, while if it is “0” data, the pattern data memory 361. The operation of taking out the second pattern series SB and outputting the first pattern series SA or the second pattern series SB to the light source 34 is repeated for the number of bits of data to be transmitted.

光源34は、第1パターン系列SA、及び、第2パターン系列SBにおいて“1”に相当するタイミングでは発光し、“0”に相当するタイミングでは消灯(または輝度低減)するという点滅動作を行うことにより、発光窓37を介して時系列的に輝度変化を有する光Pを出力する。   The light source 34 performs a blinking operation of emitting light at a timing corresponding to “1” in the first pattern sequence SA and the second pattern sequence SB, and turning off (or reducing luminance) at a timing corresponding to “0”. Thus, the light P having a luminance change in time series is output through the light emission window 37.

なお、同図においては、発光体33を被写体20としての人物に所持させているが、たとえば、看板や案内板等の固定構造物を被写体20とし、それらの看板や案内板等の固定構造物ごとに発光体33を設けるようにしてもよい。この場合、それぞれの発光体33のデータメモリ35に記憶するデータは、設置されている建造物、或いは建造物の外部に備えられたサーバからLANなどのネットワークを介して逐次にダウンロードする仕組みになっていてもよい。また、光源34はパターン系列“1”、“0”で点滅動作を行うようにしていたが、パターン系列が多値のデータに及ぶ場合は、“点灯”、“消灯”のみではなく、多段階の輝度で発光させるようにしてもよい。   In the figure, the light emitter 33 is held by a person as the subject 20, but for example, a fixed structure such as a signboard or a guide plate is used as the subject 20, and the fixed structure such as a signboard or a guide plate is used. You may make it provide the light-emitting body 33 for every. In this case, the data stored in the data memory 35 of each light emitter 33 is downloaded sequentially from the installed building or a server provided outside the building via a network such as a LAN. It may be. In addition, the light source 34 blinks with the pattern series “1” and “0”. However, when the pattern series covers multi-value data, not only “lighting” and “lighting off” but also multiple stages. You may make it light-emit with the brightness | luminance of.

上記のとおり、データメモリ35には、送信すべきデータとして少なくともこの発光体33の形状を示す形状データと、発光体33のサイズデータとが格納されている。たとえば、図2を用いて説明すれば、データメモリ35は、発光窓37の形状として“円形”を示す形状データ、又、そのサイズとして直径を示す、“R”をサイズデータとして夫々格納し、発光制御部36では、これらのデータを変調するようにしている。また、発光制御部36が行う、送信する形状データ、サイズデータの変調方法については、たとえば、上記の形状データ、及び、サイズデータを論理0と論理1からなる二値のデジタルデータとし、“0”データには、これに対応する時系列を伴った輝度変化パターン(第1パターン系列SA)を割当て、“1”データには、上記“0”データとは異なる時系列を伴った輝度変化パターン(第2パターン系列SB)を割当てるのが望ましい。これら二つの輝度変化パターンは、互いに同一の周期で変化し、且つ、商用電源にて規格化された周期や外乱光等、自然界に存在する周期とは異なる周期で変化するのが望ましい。   As described above, the data memory 35 stores at least shape data indicating the shape of the light emitter 33 and size data of the light emitter 33 as data to be transmitted. For example, referring to FIG. 2, the data memory 35 stores shape data indicating “circular” as the shape of the light emission window 37 and “R” indicating the diameter as the size thereof as size data. The light emission controller 36 modulates these data. Also, regarding the modulation method of the shape data and size data to be transmitted performed by the light emission control unit 36, for example, the above shape data and size data are binary digital data composed of logic 0 and logic 1, and “0 "Data is assigned a luminance change pattern (first pattern series SA) with a corresponding time series, and" 1 "data is assigned a luminance change pattern with a time series different from the" 0 "data. It is desirable to assign (second pattern series SB). It is desirable that these two luminance change patterns change in the same cycle and change in a cycle different from the cycle existing in the natural world, such as a cycle standardized by a commercial power supply or disturbance light.

一方、デジタルカメラ10は、前記のとおりの構成(図1参照)を有しており、一般的なデジタルカメラとしての動作、すなわち、静止画や動画を撮影してその画像ファイルを画像記憶部28に蓄積保存する「撮影機能」と、必要に応じて、画像記憶部28に蓄積保存されている任意の画像ファイルを読み出して表示部25に再生表示する「再生機能」とを適宜に実行できることに加え、本実施形態特有の「測距機能」、つまり、被写体20の位置にある発光体33を含むイメージを時系列的に受光して取得することにより、そのイメージに含まれる測定対象として、発光体33の輝度変調領域に含まれるデータを復元し、受光したイメージと復元されたデータとに基づいて発光体33までの距離Dを測定して取得することができる機能を実行できるようになっている。   On the other hand, the digital camera 10 has the above-described configuration (see FIG. 1), and operates as a general digital camera, that is, takes a still image or a moving image and stores the image file as an image storage unit 28. The “shooting function” stored and stored in the image storage unit and the “playback function” that reads out any image file stored and stored in the image storage unit 28 and reproduces and displays it on the display unit 25 can be appropriately executed. In addition, the “ranging function” specific to the present embodiment, that is, by receiving and acquiring an image including the light emitting body 33 at the position of the subject 20 in time series, light emission is performed as a measurement target included in the image. The function of restoring the data included in the luminance modulation area of the body 33 and measuring and acquiring the distance D to the light emitter 33 based on the received image and the restored data is implemented. It has become possible way.

この「測距機能」は、主として、デジタルカメラ10の中央制御部14の機能で提供される。すなわち、デジタルカメラ10の中央制御部14は、デジタルカメラ10の各部の動作を制御するものであり、特に本実施の形態では、撮像デバイス17の取込周期制御、FIFOバッファ22に記憶されているデータの読み出し、撮像デバイス17の受光面17aに結像される発光体33の像の大きさと後述の信号復元手段14cによって復元された形状データ、サイズデータとに基づく発光体33までの距離Dの測定、及び、その測定結果を利用した様々な処理を制御する。   This “ranging function” is mainly provided by the function of the central control unit 14 of the digital camera 10. That is, the central control unit 14 of the digital camera 10 controls the operation of each unit of the digital camera 10, and in particular in the present embodiment, it is stored in the capture cycle control of the imaging device 17 and the FIFO buffer 22. The distance D to the light emitter 33 based on the data reading and the size of the image of the light emitter 33 formed on the light receiving surface 17a of the imaging device 17 and the shape data and size data restored by the signal restoration means 14c described later. Various processes using the measurement and the measurement result are controlled.

図3は、デジタルカメラ10の中央制御部14のRAM13の記憶空間の一部と、その中央制御部14で実現されるいくつかの機能ブロックを示す概念図である。すなわち、(a)はデジタルカメラ10の中央制御部14のRAM13の記憶空間の一部であり、(b)はその中央制御部14で実現されるいくつかの機能ブロックである。これらの図において、RAM13の記憶空間は、結像距離データ格納部13a、結像歪み補正データ格納部13b、距離算出データテーブル格納部13c、検出データリスト格納部13e等の各領域を含み、中央制御部14は、パターンデータメモリ14a、信号領域検出手段14b、信号復元手段14c、ワークメモリ14d等の各機能を含む。   FIG. 3 is a conceptual diagram showing a part of the storage space of the RAM 13 of the central control unit 14 of the digital camera 10 and some functional blocks realized by the central control unit 14. That is, (a) is a part of the storage space of the RAM 13 of the central control unit 14 of the digital camera 10, and (b) is some functional blocks realized by the central control unit 14. In these figures, the storage space of the RAM 13 includes areas such as an imaging distance data storage unit 13a, an imaging distortion correction data storage unit 13b, a distance calculation data table storage unit 13c, a detection data list storage unit 13e, and the like. The control unit 14 includes functions such as a pattern data memory 14a, a signal area detection unit 14b, a signal restoration unit 14c, and a work memory 14d.

光学系16に含まれる撮影レンズは、たとえば、1枚の凸レンズから構成されており、光軸A(図2参照)を中心にして発光体33を含む画角αを後段の撮像デバイス17に結像させるために備えられる。撮像デバイス17は複数の撮像素子を規則的に配列したCCDやCMOSなどのイメージセンサで構成され、二次元で捕らえた発光体33の発光態様を、その受光面17aおける受光割合に基づくイメージとして電気信号に変換して出力するデバイスであり、中央制御部14の制御に基づいて所定のフレームレート(たとえば、30FPS)で出力する。なお、撮像デバイス17として用いられるデバイスは、発光体33の発光態様を二次元で取得できるものであればこれに限ることは無く、たとえば、複数の受光素子、たとえば、フォトダイオードを配列させた構成であってもよい。また、撮像デバイス17はCCDやCMOSなどのイメージセンサで構成しているため符号17aは撮像面と称するのが望ましいが、原理説明では受光面として説明するものとする。   The photographing lens included in the optical system 16 is composed of, for example, a single convex lens, and connects the angle of view α including the light emitter 33 around the optical axis A (see FIG. 2) to the imaging device 17 at the subsequent stage. Provided to image. The imaging device 17 is composed of an image sensor such as a CCD or CMOS in which a plurality of imaging elements are regularly arranged, and the light emission mode of the light emitter 33 captured in two dimensions is electrically converted into an image based on the light reception ratio on the light receiving surface 17a. The device converts the signal into a signal and outputs the signal, and outputs the signal at a predetermined frame rate (for example, 30 FPS) based on the control of the central control unit 14. The device used as the imaging device 17 is not limited to this as long as the light emission mode of the light emitter 33 can be acquired in two dimensions. For example, a configuration in which a plurality of light receiving elements, for example, photodiodes are arranged. It may be. Further, since the imaging device 17 is composed of an image sensor such as a CCD or CMOS, the reference numeral 17a is preferably referred to as an imaging surface, but in the description of the principle, it will be described as a light receiving surface.

ROM12は、中央制御部14のCPU11で実行される様々な制御プログラムを記憶し、RAM13は、それらの制御プログラムの実行エリアとして用いられる他、図3に示した各種データの格納部、たとえば、撮像デバイス17の受光面17aと光学系16に含まれる撮影レンズとの結像距離dを記憶するための結像距離データ格納部13aを備える。本実施の形態においては、光学系16に含まれる撮影レンズは一枚の凸レンズを固定設置しているが、光学ズームを備える撮像装置においては、レンズの移動に応じて結像距離が異なるケースがあるので、その場合は、レンズの位置調整により得られる結像距離や焦点距離を用いるのが望ましい。   The ROM 12 stores various control programs executed by the CPU 11 of the central control unit 14, and the RAM 13 is used as an execution area for these control programs, and also stores various data shown in FIG. An imaging distance data storage unit 13a for storing an imaging distance d between the light receiving surface 17a of the device 17 and a photographic lens included in the optical system 16 is provided. In the present embodiment, the photographic lens included in the optical system 16 has a single convex lens fixedly installed. However, in an imaging apparatus equipped with an optical zoom, there are cases where the imaging distance varies depending on the movement of the lens. In this case, it is desirable to use the imaging distance or focal length obtained by adjusting the position of the lens.

信号復元手段14cは、中央制御部14の制御によって、撮像デバイス17により連続的に撮像されることで時系列的に出力される発光体33の発光態様を30FPSの周期で順次取り込み、それら周期的に取得された発光体33の発光態様に基づいて、輝度変調されたデータをデータメモリ35に格納されていたデータに復元する。たとえば、上記の変調方法で変調されていた場合、これとは逆の方法で復調して、形状データ、及び、サイズデータへ復元する。   Under the control of the central control unit 14, the signal restoration unit 14c sequentially captures the light emission modes of the light emitters 33 that are output in time series by being continuously imaged by the imaging device 17 at a period of 30 FPS. Based on the light emission mode of the illuminant 33 acquired in the above, the luminance-modulated data is restored to the data stored in the data memory 35. For example, in the case of modulation by the above modulation method, the data is demodulated by a reverse method to restore the shape data and size data.

パターンデータメモリ14aは、発光制御部36のパターンデータメモリ361と同様に検出・捕捉用プリアンブルデータ(測定用)と検出・捕捉用プリアンブルデータ(データボディ用)との2種類のプリアンブルデータと、互いに異なる二種類の輝度変化パターン(第1パターン系列SAと第2パターン系列SB)とを保持する。   Similar to the pattern data memory 361 of the light emission control unit 36, the pattern data memory 14a includes two types of preamble data, that is, detection / capture preamble data (for measurement) and detection / capture preamble data (for data body), and Two different types of luminance change patterns (first pattern series SA and second pattern series SB) are held.

信号領域検出手段14bは、FIFOバッファ22に保持されている複数フレームの画像信号から時系列的に輝度変化する画素が検出された際、この輝度変化と同じタイミングで輝度変化している画素群からなる画素領域を特定する機能を有する。信号復元手段14cは、FIFOバッファ22に保持されている複数フレームの画像信号から時系列的に輝度変化する画素が検出された際に、後続してFIFOバッファ22に順次バッファリングされるデータフォーマット38のビット長に相当するフレームデータから、検出された画素の輝度変化に応じた“1”、“0”のビットデータを出力し、さらに、これらのビットデータが、第1パターン系列SA、及び、第2パターン系列SBの何れかに一致しているか判断し、何れかに一致している場合、このパターンに対応するビットを出力し、出力されたビットからサイズデータ、位置データ、及び、ガイドデータに復元する処理を行う。ワークメモリ14dは上記特定された画素領域の撮像面(受光面17a)におけるイメージを保持する。   When a pixel whose luminance changes in time series is detected from a plurality of frames of image signals held in the FIFO buffer 22, the signal area detection unit 14b detects from the pixel group whose luminance changes at the same timing as this luminance change. A function of specifying a pixel region. The signal restoration unit 14 c is a data format 38 that is sequentially buffered in the FIFO buffer 22 when pixels whose luminance changes in time series are detected from the image signals of a plurality of frames held in the FIFO buffer 22. Output bit data of “1” and “0” corresponding to the detected luminance change of the pixel from the frame data corresponding to the bit length of the first pattern sequence SA, and It is determined whether it matches any of the second pattern series SB, and if it matches any of them, a bit corresponding to this pattern is output, and size data, position data, and guide data are output from the output bit. Process to restore to. The work memory 14d holds an image on the imaging surface (light receiving surface 17a) of the specified pixel region.

中央制御部14は、後述の処理によって得られた各データを一時的に記憶するRAM13を備えるとともに、信号復元手段14cにて復元されたデータを取り込み、そのデータに基づいて、測定モードに設定されていれば、発光体33までの距離測定と、デジタルカメラ10の現在位置測定とを実行し、それらの測定結果を表示部25に出力する一方、ガイドモードに設定されていれば、受光(撮像)により取得され、検出データリスト格納部13eのデータレコードに記憶されたガイドデータを表示部25に出力する。結像距離データ格納部13aは、上記原理説明における結像距離dを格納する。また、結像歪み補正データ格納部13bは、撮像デバイス17に結像されたイメージについて、光学系16の撮影レンズの特性による歪を補正するためのデータを格納する。   The central control unit 14 includes a RAM 13 for temporarily storing each data obtained by the processing described later, takes in the data restored by the signal restoration unit 14c, and is set to the measurement mode based on the data. If so, the distance measurement to the light emitter 33 and the current position measurement of the digital camera 10 are executed, and the measurement results are output to the display unit 25. On the other hand, if the guide mode is set, the light reception (imaging) is performed. ), And the guide data stored in the data record of the detection data list storage unit 13e is output to the display unit 25. The imaging distance data storage unit 13a stores the imaging distance d in the above description of the principle. The imaging distortion correction data storage unit 13b stores data for correcting distortion due to the characteristics of the photographing lens of the optical system 16 for the image formed on the imaging device 17.

距離算出データテーブル格納部13cは、後述の原理説明における式(1)、(2)を格納する。現在位置データ格納部13dは、中央制御部14で求められた自己の位置情報を保持するためのものであり、検出データリスト格納部13eは、中央制御部14で演算処理された発光体33までの距離D、自己位置(座標や高度)、及び、受光することにより取得したガイドデータを保持するためのものである。   The distance calculation data table storage unit 13c stores formulas (1) and (2) in the principle description to be described later. The current position data storage unit 13d is for holding its own position information obtained by the central control unit 14, and the detection data list storage unit 13e is up to the light emitter 33 that has been arithmetically processed by the central control unit 14. Distance D, self-position (coordinates and altitude), and guide data acquired by receiving light.

検出データリスト格納部13eは、撮像デバイス17から時系列的に出力される撮像面(受光面17a)から発光体33が検出された場合に、発光体33までの距離や位置(座標や高度)並びにガイドデータを格納するものであるが、本実施の形態においてはデータレコードの形で格納する。これは、たとえば、撮像面(受光面17a)から複数の発光体を検出した場合、各々の発光体について個別に格納するためである。   The detection data list storage unit 13e detects the distance and position (coordinates and altitude) to the light emitter 33 when the light emitter 33 is detected from the imaging surface (light receiving surface 17a) output in time series from the imaging device 17. In the present embodiment, the data is stored in the form of data records. This is because, for example, when a plurality of light emitters are detected from the imaging surface (light receiving surface 17a), each light emitter is stored individually.

ここで、距離の演算についてその原理を説明する。まず、上述の如くRは輝度変調されたデータを受光することによりサイズデータとして得られ発光体33の直径、dは結像距離であり、光学系16に含まれる撮影レンズによって受光できる範囲の最大角はαである。   Here, the principle of distance calculation will be described. First, as described above, R is obtained as size data by receiving luminance-modulated data, and the diameter of the light emitter 33, d is an imaging distance, and is the maximum of the range that can be received by the photographing lens included in the optical system 16. The angle is α.

図4は、撮像デバイス17の受光面17aにおける結像イメージを示す図であり、この図に示すように、受光面17aの水平方向の長さをH、垂直方向の長さをV、発光体33の像を33aとし、像33aの直径をrとする。   FIG. 4 is a diagram showing an image formed on the light receiving surface 17a of the imaging device 17, and as shown in this figure, the horizontal length of the light receiving surface 17a is H, the vertical length is V, and the light emitter. The image 33 is denoted by 33a, and the diameter of the image 33a is denoted by r.

すると、像33aの直径rと結像距離dとから角度βを求めることができる。   Then, the angle β can be obtained from the diameter r of the image 33a and the imaging distance d.

図5は、距離Dの算出概念図である。この図に示すように、光学系16に含まれる撮影レンズの結像位置を対照とし、角度β、距離D、及び、R/2で形成される三角形と、角度β、距離d、及び、r/2で形成される三角形とが相似関係となることがわかる。したがって、これらの関係より三角関数式を用いることで距離Dを測定することができる。距離Dの算出の仕方は次式(1)、(2)の通りとなる。
D=(R/2)/{(tan(β/2))・・・・(1)
β=r/2d ・・・・(2)
FIG. 5 is a conceptual diagram of calculation of the distance D. As shown in this figure, the imaging position of the photographic lens included in the optical system 16 is used as a reference, and the triangle formed by the angle β, the distance D, and R / 2, the angle β, the distance d, and r. It can be seen that the triangle formed by / 2 is similar. Therefore, the distance D can be measured by using a trigonometric function expression from these relationships. The method of calculating the distance D is as shown in the following equations (1) and (2).
D = (R / 2) / {(tan (β / 2)) (1)
β = r / 2d (2)

図6は、制御部363から光源34に出力され、光Pとして送信されるデータフォーマット38の一例を示す図である。データフォーマット38は、検出・捕捉用プリアンブルデータ部(測定用)38a、サイズデータ部38b、位置データ部38c、検出・捕捉用プリアンブルデータ部(ガイドデータ用)38d、及び、ガイドデータ部38eからなり、これらを1単位として、巡回的に出力される。   FIG. 6 is a diagram illustrating an example of a data format 38 output from the control unit 363 to the light source 34 and transmitted as the light P. The data format 38 includes a detection / capture preamble data portion (for measurement) 38a, a size data portion 38b, a position data portion 38c, a detection / capture preamble data portion (for guide data) 38d, and a guide data portion 38e. These are output cyclically with 1 as a unit.

検出・捕捉用プリアンブルデータ部(測定用)38aに格納されるデータは、デジタルカメラ10にて上記データフォーマット38を受光した際に、デジタルカメラ10側が測定モードを設定した際に検出するデータであり、このデータ部を受光することにより、発光体33までの距離や位置に関する演算について、所要の処理動作を実行させるためのものである。   The data stored in the detection / capture preamble data portion (for measurement) 38a is data detected when the digital camera 10 sets the measurement mode when the data format 38 is received by the digital camera 10. By receiving this data portion, a required processing operation is executed for the calculation related to the distance and position to the light emitter 33.

サイズデータ部38bに格納されるデータは、自己サイズデータメモリ352に格納されているデータのうち、発光窓37の形状(ここでは“円形”)データや発光窓37のサイズデータ“R”であり、デジタルカメラ10で、これらのデータに基づいて、発光体33までの距離を測定させるためのものである。   The data stored in the size data portion 38 b is the shape data (here “circular”) of the light emission window 37 and the size data “R” of the light emission window 37 among the data stored in the self size data memory 352. The digital camera 10 is for measuring the distance to the light emitter 33 based on these data.

位置データ部38cに格納されるデータは、自己サイズデータメモリ352に保持されているデータのうち、発光体33の位置(緯度経度及び高度)データであり、デジタルカメラ10は、このデータに基づいて、デジタルカメラ10から見た発光体33の方向及び自己位置を測定させるためのものである。   The data stored in the position data unit 38c is the position (latitude / longitude and altitude) data of the light emitter 33 among the data held in the self-size data memory 352, and the digital camera 10 is based on this data. This is for measuring the direction and the self-position of the light emitter 33 viewed from the digital camera 10.

検出・捕捉用プリアンブルデータ部(ガイドデータ用)38dに格納されるデータは、デジタルカメラ10にて上記データフォーマット38を受光した際に、デジタルカメラ10側がガイドモードを設定した際に検出するデータであり、このデータ部を受光することにより、ガイドデータ部38eに設定されたデータを復元して再生出力させる処理動作を実行させるためのものである。   The data stored in the detection / capture preamble data portion (for guide data) 38d is data detected when the digital camera 10 sets the guide mode when the digital camera 10 receives the data format 38. Yes, by receiving the data portion, the processing operation for restoring and reproducing and outputting the data set in the guide data portion 38e is executed.

ガイドデータ部38eに格納されるデータは、ガイドデータメモリ351に格納されているデータであり、デジタルカメラ10では、このデータに基づいて、たとえば、経路案内や観光案内、撮像に関する補助情報等のオプション処理を必要に応じて実行させるためのものである。   The data stored in the guide data section 38e is data stored in the guide data memory 351. In the digital camera 10, based on this data, for example, options such as route guidance, sightseeing guidance, and auxiliary information related to imaging are provided. This is for causing the processing to be executed as necessary.

図7は、本実施の形態におけるフローチャートを示す図である。このフローチャートは、大きく分けて、信号領域検出処理ブロックS1と、信号復元処理ブロックS2と、測定処理ブロックS3とからなる。   FIG. 7 is a diagram showing a flowchart in the present embodiment. This flowchart is roughly composed of a signal area detection processing block S1, a signal restoration processing block S2, and a measurement processing block S3.

まず、信号領域検出処理ブロックS1では、撮像デバイス17の撮像面(受光面17a)に結像されたイメージをフレームデータとして、まず、プリアンブルパターンのビット数に相当するフレーム数を順次FIFOバッファ22にバッファリングする(ステップS11)。そして、これら、バッファリングされた複数のフレームデータにおいて、輝度が変化している画素の存在の有無を判断する。詳細には、バッファリングされた複数のフレームデータにおいて、最大輝度が所定のピークを超えており、周期的に変化している画素が存在するか否かを判断することで、その画素から時系列的に輝度変調されたデータが送信されているか否かを判断する(ステップS12)。   First, in the signal area detection processing block S1, an image formed on the imaging surface (light receiving surface 17a) of the imaging device 17 is used as frame data, and first, the number of frames corresponding to the number of bits of the preamble pattern is sequentially input to the FIFO buffer 22. Buffering is performed (step S11). Then, in the plurality of buffered frame data, it is determined whether or not there is a pixel whose luminance has changed. Specifically, in a plurality of buffered frame data, the maximum luminance exceeds a predetermined peak, and it is determined whether or not there is a periodically changing pixel, so that the time series from the pixel is determined. In step S12, it is determined whether or not luminance-modulated data is transmitted.

輝度が変化している画素を検出できなければ後述のステップS14の処理を行い、ステップS11に戻るが、画素を検出した場合、パターンデータメモリ14aより、プリアンブルパターンデータ(測定用)とプリアンブルパターンデータ(ガイドデータ用)とを読み出し、これらのプリアンブルパターンと、上記検出された画素からの時系列的な輝度変化とを照合する(ステップS13)。照合した結果、いずれのプリアンブルパターンデータとも完全に一致しない場合は、今回の検出された画素からはデータを得られないものとして、FIFOバッファ22にバッファリングされたフレームデータを破棄し(ステップS14)、再びステップS11の処理に戻るが、いずれかのプリアンブルパターンデータに一致した場合(部分一致を含む)は、方位センサ27を駆動させて、撮像方向を取得し(ステップS15)、また、仰角センサ28を駆動させて撮像仰角(水平角度)γを取得する(ステップS16)。   If a pixel whose luminance has changed cannot be detected, the process of step S14 described later is performed, and the process returns to step S11. However, if a pixel is detected, preamble pattern data (for measurement) and preamble pattern data are detected from the pattern data memory 14a. (For guide data) are read out, and these preamble patterns are collated with the time-series luminance changes from the detected pixels (step S13). As a result of the collation, if it does not completely match any preamble pattern data, the frame data buffered in the FIFO buffer 22 is discarded, assuming that data cannot be obtained from the currently detected pixel (step S14). Then, the process returns to step S11 again, but if it matches any preamble pattern data (including partial match), the azimuth sensor 27 is driven to acquire the imaging direction (step S15), and the elevation sensor 28 is driven to obtain an imaging elevation angle (horizontal angle) γ (step S16).

また、ステップS13において、いずれかのプリアンブルパターンデータに一致した場合、今回の検出された画素をデータを送信している画素と判定し、信号領域検出手段14bに対し、同じタイミングで輝度変化している画素群からなる画素領域を特定するよう制御する(ステップS17)。そして、ステップS15にて取得した撮像方向、ステップS16において取得した撮像仰角は、中央制御部14内のRAM13に一旦保持され、特定された画素領域については、信号領域検出手段14bのワークメモリ14dにそのイメージを格納する(ステップS18)。   In step S13, if any of the preamble pattern data matches, it is determined that the pixel detected this time is a pixel transmitting data, and the luminance of the signal region detection unit 14b is changed at the same timing. Control is performed so as to specify a pixel region composed of a certain pixel group (step S17). The imaging direction acquired in step S15 and the imaging elevation angle acquired in step S16 are temporarily held in the RAM 13 in the central control unit 14, and the specified pixel area is stored in the work memory 14d of the signal area detection unit 14b. The image is stored (step S18).

次に、信号復元処理ブロックS2について説明する。信号復元処理では、まず、信号領域検出処理ブロックS1のステップS17において特定された画素領域から、データフォーマット38のビット数に相当するフレームデータを順次取得し(ステップS21)、FIFOバッファ22に格納しつつ、信号復元手段14cに対して、この輝度変化している領域から “1”、“0”のビットデータに変換する処理、及び、この処理を経て得られたビットデータについて、第1パターン系列SA、第2パターン系列SBとの照合、ビット出力処理、及び、この出力されたビットから、サイズデータ、位置データ、及び、ガイドデータに復元する処理を行わせる(ステップS22)。そして、復元されたこれらのデータのうちサイズデータ及び位置データは、中央制御部14のRAM13に一旦記憶させ、ガイドデータは検出データリスト格納部13eのデータレコードに格納する(ステップS23)。   Next, the signal restoration processing block S2 will be described. In the signal restoration process, first, frame data corresponding to the number of bits of the data format 38 is sequentially obtained from the pixel area specified in step S17 of the signal area detection processing block S1 (step S21), and stored in the FIFO buffer 22. On the other hand, with respect to the signal restoration means 14c, the first pattern series is processed with respect to the process of converting the luminance changing region into bit data of “1” and “0” and the bit data obtained through this process. SA, collation with the second pattern series SB, bit output processing, and processing for restoring the size data, position data, and guide data from the output bits are performed (step S22). Of these restored data, the size data and position data are temporarily stored in the RAM 13 of the central control unit 14, and the guide data are stored in the data record of the detection data list storage unit 13e (step S23).

次に、測定処理ブロックS3について詳述する。
図8は、測定処理ブロックS3の動作フローチャートを示す図である。
Next, the measurement processing block S3 will be described in detail.
FIG. 8 is a diagram showing an operation flowchart of the measurement processing block S3.

測定処理ブロックS3では、まず、ワークメモリ14dに格納された画素領域のイメージを読み出し、この画素領域について発光体33の形状を特定し、測定軸を設定する(ステップS31)。次にこの測定軸上の各画素について重み付けを行い、画素領域に含まれる発光体の「像」の面積を決定する(ステップS32)。   In the measurement processing block S3, first, the image of the pixel area stored in the work memory 14d is read, the shape of the light emitter 33 is specified for this pixel area, and the measurement axis is set (step S31). Next, each pixel on the measurement axis is weighted to determine the area of the “image” of the light emitter included in the pixel region (step S32).

具体的に「像」の測定軸、重み付け、面積の決定方法について説明する。
図9は、「像」の測定軸、重み付け、面積の決定方法の具体的説明図である。図9(a)において、撮像面(受光面17a)から順次得られたフレームデータには、最大輝度が所定のピークを超えており、周期的に変化している画素領域として、発光体33の像33aが候補として設定されるものとする。なお、この図においては、像33aが楕円になっているが、これは、発光体33を斜め45度の方向から見上げた(または見下げた)ことを想定しているからである。発光体33を正面から見た場合は、円形状の像33aとなることはもちろんである。
Specifically, a method for determining the measurement axis, weighting, and area of the “image” will be described.
FIG. 9 is a specific explanatory diagram of a method for determining the measurement axis, weighting, and area of “image”. 9A, in the frame data sequentially obtained from the imaging surface (light receiving surface 17a), the maximum luminance exceeds a predetermined peak, and the pixel region of the illuminant 33 is periodically changed. Assume that the image 33a is set as a candidate. In this figure, the image 33a is an ellipse because it is assumed that the light-emitting body 33 is looked up (or looked down) from an oblique 45 degree direction. Of course, when the illuminant 33 is viewed from the front, it becomes a circular image 33a.

図9(b)の拡大図で説明すると、中央制御部14は、高さ277(9ドット)、幅223(5ドット)からなる像33aについて、最大輝度が所定のピークを越えているドットの一行、若しくは一列の内、最大輝度のピークを持つ画素を多く含む最長の列を測定軸として決定する。そして、この測定軸を中心に、周辺の各画素について、輝度に対応した重み付けを行う。たとえば、図9(b)について考えると、最も輝度の大きい画素の範囲224に対しては最大の重み値“1”を、その周辺範囲225に対しては重み値“0.6”を、更に、最外縁部の範囲226に対しては重み値“0.3”を夫々設定し、高さ277(9ドット)を測定軸として設定する。そして、これらの重み付けより画素の範囲224については“20”、画素の範囲225については7.2、画素の範囲226については、2.4を夫々算出することにより、「像」33aの面積は29.6となる。   Referring to the enlarged view of FIG. 9B, the central control unit 14 determines the dot of which the maximum luminance exceeds a predetermined peak for the image 33a having the height 277 (9 dots) and the width 223 (5 dots). The longest column including many pixels having the maximum luminance peak in one row or column is determined as the measurement axis. Then, weighting corresponding to the luminance is performed on the peripheral pixels around the measurement axis. For example, considering FIG. 9B, the maximum weight value “1” is set for the pixel range 224 having the highest luminance, the weight value “0.6” is set for the peripheral range 225, and The weight value “0.3” is set for the outermost edge range 226, and the height 277 (9 dots) is set as the measurement axis. Then, by calculating “20” for the pixel range 224, 7.2 for the pixel range 225, and 2.4 for the pixel range 226 from these weightings, the area of the “image” 33a is 29.6.

なお、測定軸、重み付けの決定方法、面積の算出方法はこれに限定されるものではなく、より正確に面積を決定できる方法があれば、他の手法を用いても可能である。   Note that the measurement axis, the weighting determination method, and the area calculation method are not limited thereto, and other methods can be used as long as there is a method that can determine the area more accurately.

このように、発光体の「像」の面積が決定すると、この像の形状について、結像歪み補正データ格納部13bから、光学系16に含まれる撮影レンズの特性に基づく歪み補正データを読み出して、そのデータを用いて当該歪みを補正し(ステップS33)、結像距離データ格納部13aから結像距離dを読み出して、測定軸と結像距離dとからβを算出する(ステップS34)。   As described above, when the area of the “image” of the light emitter is determined, the distortion correction data based on the characteristics of the photographing lens included in the optical system 16 is read from the imaging distortion correction data storage unit 13b for the shape of the image. The distortion is corrected using the data (step S33), the imaging distance d is read from the imaging distance data storage unit 13a, and β is calculated from the measurement axis and the imaging distance d (step S34).

ステップS35にてβを算出すると、次にこのβを用いて、距離算出データテーブル格納部13cから前式(1)を読み出し、中央制御部14のRAM13に記憶されたサイズデータから、図5における距離Dを算出する(ステップS35)。なお、「像」33aの形状については円形を概ね45°付近から見た「楕円型」として設定されているため、上記ステップS24において「直径を“R”とした円形」として取得されたサイズデータは、上記設定された形状から、「対角√2Lからなる楕円形」として補正される。そして、この距離DとステップS31で求めた撮影仰角γより、次式(3)により、発光体33の直下までの距離D’(水平方向の距離)を算出する(ステップS36)。
D’=Dcosγ ・・・・(3)
When β is calculated in step S35, next, using the β, the previous equation (1) is read from the distance calculation data table storage unit 13c, and the size data stored in the RAM 13 of the central control unit 14 is used to calculate the value in FIG. The distance D is calculated (step S35). Since the shape of the “image” 33a is set as an “elliptical shape” when the circle is viewed from about 45 °, the size data acquired as “a circle with a diameter“ R ”” in step S24. Is corrected from the set shape as “an ellipse having a diagonal √2L”. Then, a distance D ′ (horizontal distance) to the position immediately below the light emitter 33 is calculated from the distance D and the shooting elevation angle γ obtained in step S31 by the following equation (3) (step S36).
D ′ = Dcosγ (3)

また、上記により算出された距離D’と、方位センサ27から取得したデジタルカメラ10の撮影方向、ステップS24にて取得した位置データより、当該デジタルカメラ10の位置を算出し(ステップS37)、これらの距離データD’、位置データを検出データリスト格納部13eのデータレコードに記憶させる(ステップS38)。   Further, the position of the digital camera 10 is calculated from the distance D ′ calculated as described above, the shooting direction of the digital camera 10 acquired from the orientation sensor 27, and the position data acquired in step S24 (step S37). Distance data D ′ and position data are stored in the data record of the detection data list storage unit 13e (step S38).

このようにして登録されたデータは、デジタルカメラ10において、以下のようにして利用することができる。
図10は、登録データの利用の一例を示すその概念図である。この図において、(a)は、デジタルカメラ10を測定モードにしたときの表示例であり、(b)は、デジタルカメラ10をガイドモードにしたときの表示例である。(a)において、表示部25の画面上には、発光体33までの距離情報(たとえば、“目標までの距離3m”)と、デジタルカメラ10の現在位置情報(たとえば、“あなたの位置 北緯35° 4625.75 東経139° 1843.69”)とが、画面コーナの吹き出し図形に囲まれて表示されている。また、(b)において、表示部25の画面上には、発光体33から送信された所定の案内情報(たとえば、“150m先に正面玄関”)が画面コーナの吹き出し図形に囲まれて表示されている。
The data registered in this way can be used in the digital camera 10 as follows.
FIG. 10 is a conceptual diagram showing an example of use of registration data. In this figure, (a) is a display example when the digital camera 10 is set to the measurement mode, and (b) is a display example when the digital camera 10 is set to the guide mode. In (a), on the screen of the display unit 25, the distance information to the light emitter 33 (for example, “distance to the target 3 m”) and the current position information of the digital camera 10 (for example, “your position north latitude 35” “4625.75 east longitude 139 ° 1843.69 ″) is displayed surrounded by a balloon figure at the screen corner. Also, in (b), on the screen of the display unit 25, predetermined guidance information transmitted from the light emitter 33 (for example, “150m ahead” is surrounded by a balloon figure at the screen corner). ing.

このように、本実施形態のデジタルカメラ10と発光体33との組み合わせによれば、発光体33からの輝度変調光による情報送信により、測距表示や現在位置の表示及び道案内等を行うことができる。また、このような原理説明による測距技術は以下に列挙する応用例において、撮像動作に関連する各処理を制御することが可能になる。   As described above, according to the combination of the digital camera 10 and the light emitter 33 of the present embodiment, the distance measurement display, the current position display, the route guidance, and the like are performed by the information transmission by the luminance modulated light from the light emitter 33. Can do. In addition, the distance measuring technique based on such a principle description can control each process related to the imaging operation in the application examples listed below.

<具体的応用例1>
図11は、広告展示物とカメラ機能を備えた情報端末とからなるシステムの応用例を示す概念図である。図中には二人の人物イ、ロが示されている。これらの人物イ、ロは共に前記の情報端末(原理説明におけるデジタルカメラ)10を所持しており、いずれも所定の場所に設置された広告展示物39に向けてカメラ機能を備えた情報端末10を構えている。ここで、広告展示物39から人物イまでの距離をD1、広告展示物39から人物ロまでの距離をD2としたとき、D1<D2である。つまり、人物イは広告展示物39の文字を目視で読むことができる程度の近くに位置し、人物ロは広告展示物39の文字を目視で判読できない程度に遠くに位置している。なお、ここでは、二人の人物イ、ロしか示していないが、これらの人物イ、ロは、それぞれ、広告展示物39の文字を目視で読むことができる程度の近くに位置する人々の代表、人物ロは広告展示物39の文字を目視で判読できない程度に遠くに位置する人々の代表である。
<Specific application example 1>
FIG. 11 is a conceptual diagram showing an application example of a system including an advertisement exhibit and an information terminal having a camera function. In the figure, two persons A and B are shown. Both of these persons I and B possess the information terminal (digital camera in the explanation of the principle) 10, both of which are information terminals 10 having a camera function toward an advertising exhibit 39 installed at a predetermined place. Is holding. Here, when the distance from the advertisement exhibit 39 to the person A is D1, and the distance from the advertisement exhibit 39 to the person B is D2, D1 <D2. In other words, the character A is located close enough to visually read the characters on the advertisement exhibit 39, and the character B is located far enough to prevent the characters on the advertisement exhibit 39 from being visually read. Here, only two persons I and B are shown, but these persons I and B are representatives of people who are located close enough to read the characters of the advertisement exhibit 39 visually. The character B is a representative of people who are located so far that the characters of the advertisement exhibit 39 cannot be visually read.

広告展示物39には所定の広告情報が掲載されている。この広告情報は図示の例の場合、商品(パーソナルコンピュータ)の印刷画像と、その説明であり、さらに、「クーポン配布中!」の注意書きも記載されている。   In the advertisement exhibit 39, predetermined advertisement information is posted. In the case of the illustrated example, this advertisement information is a printed image of a product (personal computer) and an explanation thereof, and further includes a note “Coupon is being distributed!”.

この広告展示物39は、灯具40からの可視光の照明光40aが照射されており、この照射範囲は上記に説明した発光体33と同様の可視光通信のための光源に相当する。以下、この範囲のことを、先の説明との一貫性を保つために、便宜的に発光体40bということにする。   This advertisement exhibit 39 is irradiated with visible illumination light 40a from the lamp 40, and this irradiation range corresponds to a light source for visible light communication similar to the light emitter 33 described above. Hereinafter, this range is referred to as a light emitter 40b for the sake of convenience in order to maintain consistency with the above description.

灯具40の主たる役割は、照明光40aによって広告展示物39を明るく照らし出して、より多くの人の目に触れるようにすることにあり、副たる役割として、その照明光40aを人の目に識別できない程度の短い時間間隔で輝度変化させることにより、発光体40b(照明光40aの照り返しによる光)の輝度変化パターンによって所望のデータを可視光通信で送信することにある。   The main role of the lamp 40 is to brightly illuminate the advertising exhibit 39 with the illumination light 40a so that it can be seen by more people. As a subordinate role, the illumination light 40a is applied to the human eyes. By changing the luminance at such a short time interval that cannot be identified, the desired data is transmitted by visible light communication according to the luminance change pattern of the light emitter 40b (light due to the illumination light 40a being reflected).

さて、広告展示物39の近くに位置する人物イの情報端末10の表示部25には、図中の符号41で示すように、広告展示物が大きく撮像された撮像画像42と一緒に情報枠43が表示されており、この情報枠43の内部に「“添付情報(割引クーポン)を受信、保存しました。”」が表示されている。なお、ここでは割引クーポンとしているが、これは一例に過ぎない。販促のための情報であればよく、たとえば、特別サービスを提供するためのインターネット上のリンク情報(URL情報)などであってもよい。   In the display unit 25 of the information terminal 10 of the person A located near the advertisement exhibit 39, an information frame is displayed together with a captured image 42 in which the advertisement exhibit is captured as shown by reference numeral 41 in the figure. 43 is displayed, and ““ Attached information (discount coupon) was received and saved inside this information frame 43. "" Is displayed. In addition, although it is set as the discount coupon here, this is only an example. It may be information for sales promotion, for example, link information (URL information) on the Internet for providing a special service.

一方、広告展示物39から遠くに位置する人物ロの情報端末10の表示部25には、図中の符号44で示すように、広告展示物39との距離に対応して、広告展示物が小さく撮像された撮像画像45と一緒に情報枠46が表示されており、この情報枠46の内部にこの広告展示物39の撮像に関する補助情報として「“添付情報(割引クーポン)が配信されていますが、遠すぎてとれません。広告から30m以内に近寄ってください。”」が表示されている。   On the other hand, the display unit 25 of the information terminal 10 of the person B located far from the advertisement exhibit 39 has an advertisement exhibit corresponding to the distance from the advertisement exhibit 39 as indicated by reference numeral 44 in the figure. An information frame 46 is displayed together with a small captured image 45, and ““ attached information (discount coupon) is distributed as auxiliary information regarding the imaging of this advertising exhibit 39 inside the information frame 46. But it ’s too far away. Please approach within 30m from the advertisement. "" Is displayed.

このようにすれば、表示部25に映し出された撮像画像45の広告情報が読み取れる場合にクーポンの取得を許容し、広告情報が読み取れない場合にはクーポンの取得を希望する際には、距離を縮めて撮影することをガイダンスすることができる。すなわち、目視で広告の詳細を読めると期待できる範囲の人(人物イ)に対してだけ、クーポン情報等を配布することができ、一方、広告内容の詳細を読むことができない距離の人(人物ロ)には距離を縮めて撮影することをガイダンスすることができる。なお、ここでは、広告展示物39を例にしているが、これに限らない。広告等に利用される表示媒体であればよく、たとえば、街灯ポスターやディスプレイなどであってもよい。また、表示媒体は、必ずしも目に見える情報を提供する必然性はなく、単に可視光通信による情報提供だけであってもよい。   In this way, when the advertisement information of the captured image 45 projected on the display unit 25 can be read, the coupon is allowed to be acquired. When the advertisement information cannot be read, the distance is set when the coupon is acquired. It is possible to provide guidance for taking a picture at a reduced size. In other words, coupon information etc. can be distributed only to people (persons a) who can expect to read the details of the advertisement visually, while people (persons) who cannot read the details of the advertisement (B) can guide the user to shoot at a shorter distance. Here, the advertisement exhibit 39 is taken as an example, but the present invention is not limited to this. Any display medium may be used as long as it is used for advertisements, for example, a streetlight poster or a display. In addition, the display medium does not necessarily provide visible information, and may simply provide information by visible light communication.

また、ここでは、灯具40からの照明光40aを広告展示物39で反射させているが、可視光通信のスタイルとしてはこれに限定されない。たとえば、バックライト型の表示パネル、バックライト型の大型表示、LED等の自己発光型のディスプレイなどであってもよい。要は、情報端末10を用いて、最終的に変調信号が捕捉できるものならば特に構成を問うものでない。   Here, the illumination light 40a from the lamp 40 is reflected by the advertisement exhibit 39, but the visible light communication style is not limited to this. For example, a backlight-type display panel, a backlight-type large display, a self-luminous display such as an LED, or the like may be used. In short, there is no particular limitation on the configuration as long as the modulation signal can be finally acquired using the information terminal 10.

図12は、光源(灯具40)から送出される情報についての説明図である。この図において、光源(灯具40)から送出される情報は、光源サイズ情報格納部47、配信最大距離格納部48及び配信アプリケーション格納部49を含む。光源サイズ情報は光源(灯具40)から広告展示物39に照射された照明光40aの投光サイズであり、上記原理説明における図6のサイズデータ38bに相当する。この光源サイズ情報は灯具40の設置時に初期値として与えられるが、配信最大距離は配信情報ごとに決められる。つまり、配信最大距離は、広告展示物39の文字列が最大どの距離まで目視判読できるかを規定するための情報であるので、たとえば、広告展示物39が掛け替えられたり、または、広告展示物39が塗り替えられたりしたときに、それらの掛け替え後または塗り替え後における最大の目視判読可能距離によって更新されるものである。   FIG. 12 is an explanatory diagram of information sent from the light source (lamp 40). In this figure, the information sent from the light source (lamp 40) includes a light source size information storage unit 47, a distribution maximum distance storage unit 48, and a distribution application storage unit 49. The light source size information is the projection size of the illumination light 40a emitted from the light source (lamp 40) to the advertisement exhibit 39, and corresponds to the size data 38b in FIG. This light source size information is given as an initial value when the lamp 40 is installed, but the maximum distribution distance is determined for each distribution information. That is, the maximum distribution distance is information for defining the maximum distance at which the character string of the advertisement exhibit 39 can be visually read. For example, the advertisement exhibit 39 can be replaced or the advertisement exhibit 39 Are updated by the maximum visually readable distance after the change or after the change.

なお、先の説明において、データフォーマットに入れていた検出・捕捉用プリアンブル(図6参照)は、プリアンブル*データボディ型のときに必要なフォーマットであるが、信号検出・捕捉の手法は、前記のとおり、ビット0/1を第1パターン系列SA/第2パターン系列SBのパターンに拡散して光源変調する方法など各種あり、本発明が対照とするデータプロトコルレイヤのデータフォーマットとしては、本発明の本質と関係ないので、プリアンブル等信号検出・補足のためのプロトコル部分については、図示、説明を省略する。   In the above description, the detection / capture preamble (see FIG. 6) included in the data format is a format required for the preamble * data body type. However, the signal detection / capture method is described above. As described above, there are various methods such as light source modulation by diffusing bit 0/1 to the pattern of the first pattern sequence SA / second pattern sequence SB. Since it has nothing to do with the essence, the illustration and description of the protocol part for signal detection / supplement such as preamble are omitted.

図13は、広告展示物とカメラ機能を備えた情報端末とからなるシステムの応用例における処理フローを示す図である。この図において、灯具40の照明光40aによって送信された情報(図13参照)を検出、受信すると、まず、その情報から距離範囲情報(配信最大距離格納部48に格納されている情報)を取り出し(ステップS41)、情報送信点(広告展示物39上の照明光40a)までの距離を算出する(ステップS42)。この距離算出の手法は、先に説明したとおりである。   FIG. 13 is a diagram illustrating a processing flow in an application example of a system including an advertisement exhibit and an information terminal having a camera function. In this figure, when the information (see FIG. 13) transmitted by the illumination light 40a of the lamp 40 is detected and received, first, distance range information (information stored in the maximum distribution distance storage unit 48) is extracted from the information. (Step S41), the distance to the information transmission point (the illumination light 40a on the advertisement exhibit 39) is calculated (Step S42). This distance calculation method is as described above.

次いで、測定距離は限定距離範囲であるか否か、すなわち、測定距離が配信最大距離以内であるか否かを判定し(ステップS43)、配信最大距離以内であれば、たとえば、図11の符号41のように、クーポンの取り込みを許容する情報を表示(及び保存その他利用)する(ステップS44)。一方、配信最大距離以内でなければ、たとえば、図11の符号44のように、クーポンの取り込みを許容しない情報を表示すると共に、もっと広告展示物39に近づく旨の情報を表示する(ステップS45)。   Next, it is determined whether or not the measurement distance is within the limited distance range, that is, whether or not the measurement distance is within the maximum delivery distance (step S43). As in 41, information that allows the coupon to be taken in is displayed (and stored or otherwise used) (step S44). On the other hand, if it is not within the maximum distribution distance, for example, as shown by reference numeral 44 in FIG. 11, information that does not allow the coupon to be taken in is displayed, and information indicating that the advertisement exhibit 39 is closer is displayed (step S45). .

このように、この特殊広告への応用例によれば、撮像における各処理の一つとして、光源(灯具40)から送られる情報中の距離条件を参照した上で、情報端末10の表示や動作を決定させることができる。したがって、表示媒体の広告があり、さらに輝度変調された照射光(間接光)を通じて情報が伝送され、そこに情報提供範囲の条件を示す情報を載せるようにしたので、実際に広告を目視確認したユーザだけに、クーポン情報等を配信するという、非常にきめ細かな表示媒体と連動した情報提供を行うことができるようになる。   As described above, according to the application example to the special advertisement, the display or operation of the information terminal 10 is performed after referring to the distance condition in the information transmitted from the light source (lamp 40) as one of the processes in imaging. Can be determined. Therefore, there is an advertisement on the display medium, and information is transmitted through irradiation light (indirect light) that is further modulated in brightness, and information indicating the conditions of the information provision range is put on it, so the advertisement was actually confirmed visually It becomes possible to provide information linked to a very fine display medium in which coupon information and the like are distributed only to the user.

また、「取得可能な情報の種類」と「どれだけ接近すれば取れるか」を示すことができるので、情報が取得できるようにユーザを誘導することで詳しく広告を読ませることを誘引することができ、広告効果の強化が期待できる。   In addition, it is possible to show "type of information that can be acquired" and "how close you can get", so that you can induce the user to read the advertisement in detail by guiding the user so that the information can be acquired It can be expected to enhance advertising effectiveness.

なお、以上の例示では、「“遠かったら”情報を取得させず、距離を縮めることをガイダンスする」というものであったが、その逆に、「“近かったら”情報を取得させず、距離をおくことをガイダンスする」というようにしてもよい。これは、たとえば、展示会の試作商品の撮影において、細部がわかるような近距離でのカメラ撮影を制限させたい場合に適用できる。あるいは、著作権や肖像権の保護にも利用できる。   In the above example, “if you are far”, the information is not acquired and guidance is given to reduce the distance. Conversely, “if you are close”, the information is not acquired and the distance is “Guidance to keep” may be used. This can be applied, for example, when it is desired to limit camera shooting at a short distance so that details can be understood in shooting a prototype product of an exhibition. Or it can be used to protect copyright and portrait rights.

このような○○m以上と指定したい場合と、△△m以下と指定したい場合とを統合できるデータフォーマットとして、配信距離範囲については、上限距離と下限距離をもたせるようにしてもよい。   As a data format that can integrate such a case where it is desired to specify XXm or more and a case where it is desired to specify △ Δm or less, the distribution distance range may have an upper limit distance and a lower limit distance.

図14は、上限距離と下限距離を持たせるようにした情報の説明図であり、(a)はその構造図、(b)はその格納情報の一例である。先の図12の構造との相違点は、配信距離範囲格納部48が下限距離格納部48aと上限距離格納部48bとを含むことにある。たとえば、下限距離格納部48aに“0”(単位はm;以下同様)、上限距離格納部48bに“20”を設定すると、20m以内の配信距離範囲を指定したことになる。または、下限距離格納部48aに“10”、上限距離格納部48bに“0”を設定すると、10m以上の配信距離範囲を指定したことになる。または、下限距離格納部48aに“5”、上限距離格納部48bに“30”を設定すると、5mから30mまでの配信距離範囲を指定したことになる。あるいは、上限、下限にともに“0”を設定した場合は、距離制限なしということになる。   FIG. 14 is an explanatory diagram of information having an upper limit distance and a lower limit distance. (A) is a structural diagram thereof, and (b) is an example of the stored information. The difference from the structure of FIG. 12 is that the delivery distance range storage unit 48 includes a lower limit distance storage unit 48a and an upper limit distance storage unit 48b. For example, when “0” is set in the lower limit distance storage unit 48a (unit is m; the same applies hereinafter) and “20” is set in the upper limit distance storage unit 48b, a delivery distance range within 20 m is designated. Alternatively, when “10” is set in the lower limit distance storage unit 48a and “0” is set in the upper limit distance storage unit 48b, a delivery distance range of 10 m or more is specified. Alternatively, when “5” is set in the lower limit distance storage unit 48a and “30” is set in the upper limit distance storage unit 48b, the delivery distance range from 5 m to 30 m is designated. Alternatively, when “0” is set for both the upper and lower limits, there is no distance limitation.

あるいは、距離情報と距離条件そのものにより、撮影実行の許可・不許可などなど、撮影実行から保存、編集、送信にかかわる各種の操作を制御するようにしてもよい。これはまさに、著作権や肖像権を保護するために「近くからは撮影を許可しない」としたり、その逆に、被写体本人の美意識にそぐわない写真が撮られることを防止するために「きれいに見える距離範囲でしか撮影を許可しない」などの条件付きで被写体側からの撮影コントロールを可能にすることである。   Alternatively, various operations related to storage, editing, and transmission from shooting execution, such as permission / non-permission of shooting execution, may be controlled based on the distance information and the distance condition itself. This is exactly to protect copyrights and portrait rights, and “do not allow photography from nearby”, and conversely, to prevent taking photos that do not match the aesthetic sense of the subject, This is to enable photographing control from the subject side with a condition such as “permit photographing only within a range”.

図15は、撮影実行の許可・不許可などに対応した送出フォーマットの例を示す図である。この図に示すように、送出フォーマットは、先の図12や図14と同じ構造(光源サイズ情報格納部47、配信距離範囲格納部48及び配信アプリケーション格納部49)を含むが、さらに、これらに加えて、撮影動作制限情報格納部50を含む点に相違がある。この撮影動作制限情報格納部50には、情報提供側の希望により、撮影及び保存共に可(A)、撮影可だが保存は最低解像度のみ許可(B)、撮影可だが保存は透かし情報入り画像で許可(C)、撮影可だが保存は警告テキスト文字入り画像で許可(D)、モニタ表示のみ許可(E)などの許可カテゴリ区分のいずれかがセットされる。   FIG. 15 is a diagram showing an example of a transmission format corresponding to permission / non-permission of photographing execution. As shown in this figure, the transmission format includes the same structure (light source size information storage unit 47, distribution distance range storage unit 48, and distribution application storage unit 49) as in the previous FIG. 12 or FIG. In addition, there is a difference in that the photographing operation restriction information storage unit 50 is included. In the photographing operation restriction information storage unit 50, both photographing and storage are possible (A), photographing is possible, but only the minimum resolution is permitted (B), and photographing is possible, but preservation is an image with watermark information. One of permission category classifications such as permission (C), photographing is allowed but saving is permitted with an image including a warning text character (D), and only monitor display is permitted (E) is set.

このようにすれば、A〜Eまでのいずれかの許可カテゴリ区分を選択して、撮影動作制限情報格納部50にセットするだけで、撮影及び保存共に可、撮影可だが保存は最低解像度のみ許可、撮影可だが保存は透かし情報入り画像で許可、撮影可だが保存は警告テキスト文字入り画像で許可、モニタ表示のみ許可などのきめ細かな制限を与えることができる。また、ここでは、画像の表示や保存の制限を条件としているが、これらに加えて、さらに、メール添付等による撮影画像の二次利用(再配布)制限を条件としてもよい。   In this way, it is possible to shoot and save, select the permitted category category from A to E, and set it in the shooting operation restriction information storage unit 50. It is possible to give fine restrictions such as allowing photography but saving with watermarked images, allowing photography but saving with warning text characters, and allowing only monitor display. In addition, here, restrictions are imposed on image display and storage, but in addition to these, restrictions may be imposed on secondary use (redistribution) of captured images by attaching e-mails or the like.

なお、撮影の場合は画像自体も問題になるので、距離条件だけでなく、望遠か広角かなどの光学系の画角情報(測距の時点で必然的に画角の情報は得ている)や、画像の精細度情報なども参照したコントロールを行うとなお望ましいものとすることができる。   In the case of shooting, the image itself also becomes a problem, so not only the distance condition but also the optical field angle information such as telephoto or wide angle (the angle of view information is necessarily obtained at the time of distance measurement). Further, it is more desirable to perform control with reference to image definition information.

<具体的応用例2>
図16は、発光体33までの測距データを光学系16の合焦制御に利用する場合の概念図である。この図においては、撮像動作に関連する各処理として、上述の原理説明のようにして求められた発光体33までの測距データ(距離D’)を用いて、撮像制御部19、中央制御部14を介してオートフォーカス制御部18を制御する。
<Specific application example 2>
FIG. 16 is a conceptual diagram when distance measurement data up to the light emitter 33 is used for focus control of the optical system 16. In this figure, as each process related to the imaging operation, the distance measurement data (distance D ′) to the light emitter 33 obtained as described in the above principle is used, and the imaging controller 19 and the central controller The autofocus control unit 18 is controlled via 14.

詳細には、図1において目標とする被写体20の位置に発光体33が存在しており、且つ、その発光体33の発光に伴う像33aが撮像デバイス17によって撮像されてさえいれば、ファインダ内における発光体33の位置にかかわらず、上述の原理説明にしたがってその発光体33までの距離を測定する。このように発光体33の像33aをファインダのどこかで捉えさえすれば、その発光体33までの距離を測定して、光学系16を合焦させることができるから、通常のオートフォーカスシステムのように、例えばフォーカスロックしたまま元の構図に戻し、シャッタ全押しして撮影を行うという面倒な手順を踏む必要がない。ちなみに、かかるオートフォーカスへの応用においては、発光体33までの測距を行っている間、ピントが正確に合っていない可能性があるため、撮影レンズの絞りを最小(F値最大)にしておくことが望ましい。F値を最大にすると、被写界深度が深くなってパンフォーカスになる(近くから遠くまでピントが合う)からである。   Specifically, as long as the light emitter 33 is present at the target position of the subject 20 in FIG. 1 and the image 33a associated with the light emission of the light emitter 33 is picked up by the image pickup device 17, the inside of the viewfinder Regardless of the position of the light emitter 33, the distance to the light emitter 33 is measured according to the above explanation of the principle. Thus, if the image 33a of the light emitter 33 is captured somewhere in the viewfinder, the distance to the light emitter 33 can be measured and the optical system 16 can be focused. Thus, for example, there is no need to go through the troublesome procedure of returning to the original composition while the focus is locked, and pressing the shutter fully to perform shooting. By the way, in the application to autofocus, there is a possibility that the focus is not accurately adjusted during the distance measurement to the light emitting body 33. Therefore, the aperture of the photographing lens is set to the minimum (F value maximum). It is desirable to keep it. This is because, when the F value is maximized, the depth of field becomes deep and the pan focus is achieved (focusing from near to far).

<具体的応用例3>
図17は、撮像動作に関連する各処理として、発光体33までの測距データを利用して撮影画像に所要の加工を行う場合の概念図である。この図において、上記のようにして求められた発光体33までの測距データ(距離D’)から発光体33までの距離の遠近を判定し、その判定結果に従い、撮影画像に対してシャープネス加工またはボケ加工を施す。ここで、シャープネス加工とは画像の輪郭をハッキリさせる加工のことであり、ボケ加工とは、その逆に、輪郭の鮮鋭さを低下させる加工のことである。一般的に遠方に位置する被写体に対してはシャープさを高めて画像をくっきりさせた方がよいとされており、一方、近くに位置する被写体、とりわけ人物ポートレートの場合には、肌荒れ等のアラが目立たないようにするために若干ボケ気味にした方がよいとされている。たとえば、通常の撮影テクニックにおいて、遠方の被写体を望遠レンズで捉える際には、絞りをできるだけ絞り込んでくっきりした画質にすることが行われており、また、近距離の人物ポートレート撮影においては、ソフトフォーカスレンズやソフトフォーカスフィルタ或いはフォギーフィルタなどを使用して積極的にボケ効果を出すことが行われている。
<Specific application example 3>
FIG. 17 is a conceptual diagram in a case where required processing is performed on a captured image using distance measurement data up to the light emitter 33 as each process related to the imaging operation. In this figure, distance measurement data (distance D ′) to the light emitter 33 determined as described above is used to determine the distance to the light emitter 33, and sharpness processing is performed on the photographed image according to the determination result. Or apply bokeh processing. Here, sharpness processing is processing that clears the contour of an image, and blur processing is processing that reduces the sharpness of the contour. In general, it is better to sharpen the image by increasing sharpness for a subject located far away, while in the case of a subject located nearby, especially for portraits, such as rough skin It is said that it should be slightly blurred to prevent Ara from conspicuous. For example, in normal shooting techniques, when capturing a distant subject with a telephoto lens, the aperture is set as narrow as possible to achieve a clear image quality. A blur effect is actively produced by using a focus lens, a soft focus filter, a foggy filter, or the like.

本実施形態においては、図17に示すように、発光体33までの測距データに基づいて撮影画像に対してシャープネス加工やボケ加工を施すので、特殊なレンズやフィルタ等を使用することなく、かかる通常の撮影テクニックに相当する画像効果を得ることができるから、手間の軽減は勿論のこと、初心者であっても効果的な撮影テクニックを簡単に駆使して、美観に優れた画像を撮影することができる。   In the present embodiment, as shown in FIG. 17, sharpness processing and blur processing are performed on the captured image based on distance measurement data up to the light emitter 33, so that a special lens or filter is not used. You can get the image effect equivalent to such a normal shooting technique, so of course you can shoot an image with excellent aesthetics, even for beginners, easily using effective shooting techniques. be able to.

<具体的応用例4>
図18は、撮像動作に関連する各処理として、発光体33までの測距データを撮影条件の制御、詳細には光学系の制御に応用した場合の概念図である。この図において、上記のようにして求められた発光体33までの測距データ(距離D’)を所定の距離区分ごとに判定する。この距離区分は、たとえば、遠距離、中距離、近距離、マクロ距離等である。光学系16の撮影レンズがマクロ機能付きのズームレンズである場合、その距離区分の判定結果が遠距離であればズームレンズを望遠(最小画角のテレ端)にし、中距離であればズームレンズを中距離(中間画角)にし、近距離であればズームレンズを広角(最大画角のワイド端)にし、または、その距離区分の判定結果がマクロ距離であれば、ズームレンズから最短撮影距離が短いマクロレンズに切り替える。このようにすると、発光体33までの距離に応じて撮影レンズの画角や最短撮影距離をコントロールできるので、常にレンズの画角一杯に被写体20を捉えて撮影することができ、いちいち手作業でズームレンズの倍率やマクロへの切替を行う必要がなくなるという使い勝手上の優れた利便性が得られる。
<Specific application example 4>
FIG. 18 is a conceptual diagram when distance measurement data up to the light-emitting body 33 is applied to control of photographing conditions, specifically to control of an optical system, as each process related to the imaging operation. In this figure, distance measurement data (distance D ′) to the light emitter 33 determined as described above is determined for each predetermined distance section. This distance division is, for example, a long distance, a medium distance, a short distance, a macro distance, or the like. When the photographing lens of the optical system 16 is a zoom lens with a macro function, the zoom lens is set to the telephoto (tele end of the minimum angle of view) if the determination result of the distance classification is a long distance, and the zoom lens if the distance is medium. Is set to the medium distance (intermediate angle of view), the zoom lens is set to the wide angle (wide end of the maximum angle of view) if it is a short distance, or the shortest shooting distance from the zoom lens if the determination result of the distance category is the macro distance Switch to a short macro lens. In this way, the angle of view of the photographic lens and the shortest photographic distance can be controlled according to the distance to the light emitter 33, so that the subject 20 can always be captured and photographed at the full angle of view of the lens. It is possible to obtain an excellent convenience in terms of convenience that it is not necessary to switch to a zoom lens magnification or macro.

本実施形態の適用システムの一例を示すデジタルカメラの構成図である。It is a block diagram of the digital camera which shows an example of the application system of this embodiment. 発光体33の構成図である。3 is a configuration diagram of a light emitter 33. FIG. (a)は情報端末10の中央制御部14のRAM13の記憶空間の一部を示す図、(b)は中央制御部14で実現されるいくつかの機能ブロックを示す図である。(A) is a figure which shows a part of storage space of RAM13 of the central control part 14 of the information terminal 10, (b) is a figure which shows some functional blocks implement | achieved by the central control part 14. FIG. 撮像デバイス17の受光面17aにおける結像イメージを示す図である。3 is a diagram illustrating an image formed on a light receiving surface 17a of the imaging device 17. FIG. 距離Dの算出概念図である。It is a calculation conceptual diagram of the distance D. データフォーマット38の一例を示すである。3 shows an example of a data format 38. 本実施の形態におけるフローチャートを示す図である。It is a figure which shows the flowchart in this Embodiment. 測定処理ブロックS3の動作フローチャートを示す図である。It is a figure which shows the operation | movement flowchart of measurement process block S3. 「像」の測定軸、重み付け、面積の決定方法の具体的説明図である。It is a specific explanatory view of a method for determining the measurement axis, weighting, and area of “image”. 登録データの利用の一例を示すその概念図である。It is the conceptual diagram which shows an example of utilization of registration data. 広告展示物とカメラ機能を備えた情報端末とからなるシステムの応用例を示す概念図である。It is a conceptual diagram which shows the application example of the system which consists of an advertising exhibit and the information terminal provided with the camera function. 光源(灯具40)から送出される情報についての説明図である。It is explanatory drawing about the information sent out from a light source (lamp 40). 広告展示物とカメラ機能を備えた情報端末とからなるシステムの応用例における処理フローを示す図である。It is a figure which shows the processing flow in the application example of the system which consists of an advertising exhibit and the information terminal provided with the camera function. 上限距離と下限距離を持たせるようにした情報の説明図である。It is explanatory drawing of the information which gave the upper limit distance and the lower limit distance. 撮影実行の許可・不許可などに対応した送出フォーマットの例を示す図である。It is a figure which shows the example of the transmission format corresponding to permission / non-permission of imaging | photography execution. 発光体33までの測距データを光学系16の合焦制御に利用する場合の概念図である。It is a conceptual diagram in the case of using distance measurement data to the light emitter 33 for focusing control of the optical system 16. 発光体33までの測距データを利用して撮影画像に所要の加工を行う場合の概念図である。It is a conceptual diagram in the case where required processing is performed on a photographed image using distance measurement data up to the light emitter 33. 発光体33までの測距データを光学系の制御に応用した場合の概念図である。It is a conceptual diagram at the time of applying the ranging data to the light-emitting body 33 to control of an optical system.

符号の説明Explanation of symbols

10 デジタルカメラ(情報端末)
14 中央制御部
17 撮像デバイス
16 光学系
33 発光体
40b 発光体
10 Digital camera (information terminal)
14 Central control unit 17 Imaging device 16 Optical system 33 Light emitter 40b Light emitter

Claims (8)

撮像手段と、
この撮像手段を連続的に駆動させることによって撮像された撮像面から所定の輝度を有する領域を検出する領域検出手段と、
この領域検出手段によって検出された領域における輝度の時間的な輝度変化から、前記領域に対応する物体の大きさに関する情報を取得する情報取得手段と、
前記撮像面における前記領域の面積、結像距離、および、前記情報取得手段によって取得された情報に基づいて、当該装置と前記物体との距離を算出する距離算出手段と、
この距離算出手段によって算出された距離に基づいて、撮像動作に関連する各処理を制御する制御手段と
を備えたことを特徴とする撮像装置。
Imaging means;
An area detecting means for detecting an area having a predetermined luminance from an imaging surface imaged by continuously driving the imaging means;
Information acquisition means for acquiring information related to the size of the object corresponding to the area from the temporal luminance change in the area detected by the area detection means;
A distance calculating unit that calculates a distance between the device and the object based on the area of the region on the imaging surface, the imaging distance, and the information acquired by the information acquiring unit;
An imaging apparatus comprising: control means for controlling each process related to the imaging operation based on the distance calculated by the distance calculating means.
前記制御手段は、前記撮像動作に関連する各処理の制御として、前記距離算出手段によって算出された当該装置と前記物体との距離とに基づいて、前記情報取得手段によって取得された情報の再生又は保存を制御することを特徴とする請求項1に記載の撮像装置。   The control means reproduces the information acquired by the information acquisition means based on the distance between the device calculated by the distance calculation means and the object, or controls each process related to the imaging operation. The imaging apparatus according to claim 1, wherein storage is controlled. 表示手段を更に備え、
前記制御手段は、前記撮像動作に関連する各処理の制御として、前記距離算出手段によって算出された当該装置と前記物体との距離とに基づいて、撮像に関わる補助情報を前記表示手段に表示するよう制御することを特徴とする請求項1又は2に記載の撮像装置。
A display means,
The control means displays auxiliary information related to imaging on the display means based on the distance between the device calculated by the distance calculation means and the object as control of each process related to the imaging operation. The imaging apparatus according to claim 1, wherein the imaging apparatus is controlled as follows.
合焦手段を更に備え、
前記制御手段は、前記撮像動作に関連する各処理の制御として、前記距離算出手段によって算出された当該装置と前記物体との距離とに基づいて、前記合焦手段を制御することを特徴とする請求項1に記載の撮像装置。
Further comprising focusing means,
The control means controls the focusing means based on the distance between the device calculated by the distance calculation means and the object as control of each process related to the imaging operation. The imaging device according to claim 1.
前記制御手段は、前記撮像動作に関連する各処理の制御として、前記距離算出手段によって算出された当該装置と前記物体との距離とに基づいて、前記撮像手段によって撮像される画像を加工するよう制御することを特徴とする請求項1に記載の撮像装置。   The control means processes the image picked up by the image pickup means based on the distance between the device calculated by the distance calculation means and the object as control of each process related to the image pickup operation. The imaging apparatus according to claim 1, wherein the imaging apparatus is controlled. 前記制御手段は、前記撮像動作に関連する各処理の制御として、前記距離算出手段によって算出された当該装置と前記物体との距離とに基づいて、当該装置が備える光学系機構を制御することを特徴とする請求項1に記載の撮像装置。   The control means controls the optical system mechanism provided in the apparatus based on the distance between the apparatus and the object calculated by the distance calculation means as control of each process related to the imaging operation. The imaging apparatus according to claim 1, wherein the imaging apparatus is characterized. 撮像部を連続的に駆動させることによって撮像された撮像面から所定の輝度を有する領域を検出する領域検出ステップと、
この領域検出ステップにて検出された領域における輝度の時間的な輝度変化から、前記領域に対応する物体の大きさに関する情報を取得する情報取得ステップと、
前記撮像面における前記領域の面積、結像距離、および、前記情報取得ステップにて取得された情報に基づいて、当該装置と前記物体との距離を算出する距離算出ステップと、
この距離算出ステップにて算出された距離に基づいて、撮像動作に関連する各処理を制御する制御ステップと
からなることを特徴とする撮像制御方法。
An area detection step of detecting an area having a predetermined luminance from an imaging surface imaged by continuously driving the imaging unit;
An information acquisition step for acquiring information related to the size of the object corresponding to the region from the temporal luminance change of the luminance detected in the region detection step;
A distance calculating step of calculating a distance between the device and the object based on the area of the region on the imaging surface, the imaging distance, and the information acquired in the information acquiring step;
An imaging control method comprising: a control step for controlling each process related to the imaging operation based on the distance calculated in the distance calculating step.
コンピュータを、
撮像部を連続的に駆動させることによって撮像された撮像面から所定の輝度を有する領域を検出する領域検出手段、
この領域検出手段によって検出された領域における輝度の時間的な輝度変化から、前記領域に対応する物体の大きさに関する情報を取得する情報取得手段、
前記撮像面における前記領域の面積、結像距離、および、前記情報取得手段よって取得された情報に基づいて、当該装置と前記物体との距離を算出する距離算出手段、
この距離算出手段によって算出された距離に基づいて、撮像動作に関連する各処理を制御する制御手段
として機能させることを特徴とする撮像制御プログラム。
Computer
Area detecting means for detecting an area having a predetermined luminance from an imaging surface imaged by continuously driving the imaging unit;
Information acquisition means for acquiring information on the size of the object corresponding to the area from the temporal luminance change in the area detected by the area detection means;
A distance calculating means for calculating a distance between the device and the object based on the area of the region on the imaging surface, the imaging distance, and the information acquired by the information acquiring means;
An imaging control program that functions as a control unit that controls each process related to an imaging operation based on the distance calculated by the distance calculation unit.
JP2006261988A 2006-08-03 2006-09-27 Imaging apparatus, imaging control method, and imaging control program Active JP4210955B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2006261988A JP4210955B2 (en) 2006-09-27 2006-09-27 Imaging apparatus, imaging control method, and imaging control program
EP07015216A EP1884798B1 (en) 2006-08-03 2007-08-02 Method for measuring distance to object
US11/890,179 US7724353B2 (en) 2006-08-03 2007-08-03 Method for measuring distance to object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006261988A JP4210955B2 (en) 2006-09-27 2006-09-27 Imaging apparatus, imaging control method, and imaging control program

Publications (2)

Publication Number Publication Date
JP2008085550A JP2008085550A (en) 2008-04-10
JP4210955B2 true JP4210955B2 (en) 2009-01-21

Family

ID=39355966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006261988A Active JP4210955B2 (en) 2006-08-03 2006-09-27 Imaging apparatus, imaging control method, and imaging control program

Country Status (1)

Country Link
JP (1) JP4210955B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010056256A1 (en) * 2008-11-17 2010-05-20 Optoelectronics Co., Ltd High speed optical code reading
JP5423137B2 (en) * 2009-05-14 2014-02-19 カシオ計算機株式会社 Information recording system, imaging device, light emitting device, and program
JP2011055288A (en) * 2009-09-02 2011-03-17 Toshiba Corp Visible light communication apparatus and data receiving method
CN114125257A (en) * 2020-08-25 2022-03-01 北京珠穆朗玛移动通信有限公司 Camera photographing method, camera system and camera

Also Published As

Publication number Publication date
JP2008085550A (en) 2008-04-10

Similar Documents

Publication Publication Date Title
KR102338576B1 (en) Electronic device which stores depth information associating with image in accordance with Property of depth information acquired using image and the controlling method thereof
US8564710B2 (en) Photographing apparatus and photographing method for displaying information related to a subject
CN102148935B (en) Image composition determining apparatus and image composition determining method
US7724353B2 (en) Method for measuring distance to object
US20170256040A1 (en) Self-Image Augmentation
US20140119601A1 (en) Composition determination device, composition determination method, and program
JP2009267792A (en) Imaging apparatus
JP2005128156A (en) Focusing device and method
JP4178419B2 (en) Information display device, display control method, and display control program
US8525913B2 (en) Digital photographing apparatus, method of controlling the same, and computer-readable storage medium
JP2017229033A (en) Imaging apparatus and control method thereof and program
JP2015231118A (en) Image composition device, image composition system and image composition method
JP4210955B2 (en) Imaging apparatus, imaging control method, and imaging control program
JP2008035125A (en) Image pickup device, image processing method, and program
JP4760496B2 (en) Image data generation apparatus and image data generation method
JP6257260B2 (en) Imaging apparatus and control method thereof
JP2013165413A (en) Image display device
JP2007259004A (en) Digital camera, image processor, and image processing program
JP5029765B2 (en) Image data generation apparatus and image data generation method
JP2015092780A (en) Imaging apparatus and imaging method
JP2005148451A (en) Projector having imaging device with spectrum selection mechanism
JP5270870B2 (en) Imaging apparatus and control method thereof
JP6550506B2 (en) Recording apparatus, recording method and recording program
JP6362735B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND CONTROL PROGRAM
JP2024014032A (en) Range finding device and control method therefor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081002

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081015

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4210955

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131107

Year of fee payment: 5