JP2007201681A - Imaging device and method, recording medium and program - Google Patents

Imaging device and method, recording medium and program Download PDF

Info

Publication number
JP2007201681A
JP2007201681A JP2006016161A JP2006016161A JP2007201681A JP 2007201681 A JP2007201681 A JP 2007201681A JP 2006016161 A JP2006016161 A JP 2006016161A JP 2006016161 A JP2006016161 A JP 2006016161A JP 2007201681 A JP2007201681 A JP 2007201681A
Authority
JP
Japan
Prior art keywords
image
sensor
signal
pixel
optical communication
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006016161A
Other languages
Japanese (ja)
Other versions
JP4868217B2 (en
Inventor
Hisanobu Sugiyama
寿伸 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2006016161A priority Critical patent/JP4868217B2/en
Publication of JP2007201681A publication Critical patent/JP2007201681A/en
Application granted granted Critical
Publication of JP4868217B2 publication Critical patent/JP4868217B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To simultaneously acquire a picture and a light signal without deteriorating the resolution of the picture. <P>SOLUTION: A portable telephone 71 has a camera 81 arranged with approximately same angle of view at a place where an image sensor and an optical-communication sensor are close each other, a monitor 82, and an operation input 83. In the portable telephone 71, a picture signal obtained from the image sensor and communication information from a sending light source 3-1 or 3-2 received by the optical communication sensor are acquired by imaging a subject 2-1 and the subject 2-2 having the sending light sources 3-1 and 3-2 such as an LED respectively by the camera 81. In the portable telephone 71, the pictures 92-1 and 92-2 based on the communication information are superimposed on the picture 91 corresponding to the acquired picture signal, and displayed on the monitor 82. The method can be applied to the portable telephone with the camera section imaging the subjects. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、撮像装置および方法、記録媒体、並びにプログラムに関し、特に、画像の解像度を劣化させることなく、画像と光信号を同時に取得することができるようにした撮像装置および方法、記録媒体、並びにプログラムに関する。   The present invention relates to an imaging apparatus and method, a recording medium, and a program, and more particularly to an imaging apparatus and method, a recording medium, and an imaging apparatus that can simultaneously acquire an image and an optical signal without degrading the resolution of the image. Regarding the program.

従来より、イメージセンサの撮像機能と、センサを構成する各画素による光通信機能を備えた2次元アレイ状のセンサが提案されており、また、この2次元アレイ状のセンサを用いた新たなアプリケーションも提案されている(特許文献1参照)。   Conventionally, a two-dimensional array sensor having an imaging function of an image sensor and an optical communication function by each pixel constituting the sensor has been proposed, and a new application using the two-dimensional array sensor is proposed. Has also been proposed (see Patent Document 1).

図1を参照して、2次元アレイ状のセンサの原理について説明する。図1の例においては、2次元アレイ状のセンサ11およびレンズ12を備えたカメラ1と、LED(light-emitting diode)などの発信光源3−1および3−2をそれぞれ備えた被写体2−1および2−2が示されている。   The principle of the two-dimensional array sensor will be described with reference to FIG. In the example of FIG. 1, a camera 1 having a two-dimensional array of sensors 11 and a lens 12, and a subject 2-1 having emitting light sources 3-1 and 3-2 such as LEDs (light-emitting diodes), respectively. And 2-2 are shown.

センサ11は、複数の受光画素(以下、単に画素とも称する)31−nで構成されている。センサ11の画素31−n(例えば、画素31−1および画素31−2)は、レンズ12を介して、センサ11の画角境界21内に存在する被写体2−1および2−2の画像を取得するとともに、発信光源3−1および3−2の点滅パターン22−1および22−2によりコード化された通信情報を検出する。   The sensor 11 includes a plurality of light receiving pixels (hereinafter also simply referred to as pixels) 31-n. The pixel 31-n (for example, the pixel 31-1 and the pixel 31-2) of the sensor 11 receives images of the subjects 2-1 and 2-2 existing within the field angle boundary 21 of the sensor 11 via the lens 12. While acquiring, the communication information encoded by the blink patterns 22-1 and 22-2 of the transmission light sources 3-1 and 3-2 is detected.

すなわち、発信光源3−1および3−2においては、例えば、図2に示されるようなLEDの光源を4KHzで点滅させ、その点滅パターンに8bit程度のデータコードを乗せて、ある間隔をおいて連続的に発光させる。これに対して、センサ11は、LEDの点滅の約3倍の12KHz程度でフレーム操作を行い、センサ11の各受光画素が点滅信号のサンプリング動作を行うことにより、画面上のどの位置で、どのような通信情報が発せられているのかを認識するのである。   That is, in the transmission light sources 3-1 and 3-2, for example, an LED light source as shown in FIG. 2 is blinked at 4 KHz, and a data code of about 8 bits is put on the blinking pattern at a certain interval. Let it emit light continuously. On the other hand, the sensor 11 performs a frame operation at about 12 KHz, which is about three times the blinking of the LED, and each light receiving pixel of the sensor 11 performs a blinking signal sampling operation, which position on the screen It is recognized whether such communication information is being emitted.

このようなセンサ11を構成するデバイスアーキテクチャは、本出願人が先に出願した特許文献2乃至4でも提案されている。例えば、特許文献2および3には、図3に示されるような構成のセンサが記載されている。   Such a device architecture constituting the sensor 11 is also proposed in Patent Documents 2 to 4 previously filed by the present applicant. For example, Patent Documents 2 and 3 describe a sensor configured as shown in FIG.

図3に示されるセンサ11は、画素アレイ31、V(Vertical)デコーダ32、H(Horizontal)デコーダ33、アナログメモリアレイ34、メモリVデコーダ35、コンパレータ36、およびメモリHデコーダ37により構成されている。   The sensor 11 shown in FIG. 3 includes a pixel array 31, a V (Vertical) decoder 32, an H (Horizontal) decoder 33, an analog memory array 34, a memory V decoder 35, a comparator 36, and a memory H decoder 37. .

画素アレイ31は、光を検出する複数の画素(ピクセル)31−n(図1の画素31−1や31−2に対応する)を行列方向に2次元マトリクス状に配置したものであり、各画素31−nより送出される信号は、垂直方向に走る信号線(垂直信号線)38により伝達される。Vデコーダ32およびHデコーダ33は、画素アレイ31の画素31−nの走査(掃引)を制御する。   The pixel array 31 includes a plurality of pixels (pixels) 31-n that detect light (corresponding to the pixels 31-1 and 31-2 in FIG. 1) arranged in a two-dimensional matrix in the matrix direction. A signal transmitted from the pixel 31-n is transmitted through a signal line (vertical signal line) 38 running in the vertical direction. The V decoder 32 and the H decoder 33 control scanning (sweep) of the pixels 31-n of the pixel array 31.

アナログメモリアレイ34は、画素アレイ31からの信号を、メモリセル34−m内に一時的に記憶する。メモリVデコーダ35およびメモリHデコーダ37は、アナログメモリアレイ34のメモリセル34−mの走査(掃引)を制御する。コンパレータ36は、アナログメモリアレイ34のメモリセル34−mから取り出されたデータを比較する。   The analog memory array 34 temporarily stores the signal from the pixel array 31 in the memory cell 34-m. The memory V decoder 35 and the memory H decoder 37 control scanning (sweep) of the memory cell 34-m of the analog memory array 34. The comparator 36 compares the data extracted from the memory cell 34 -m of the analog memory array 34.

ここで、センサ11は、画像を取得する画像取得モードと光通信を行う光通信モードの2つの操作モードを有している。   Here, the sensor 11 has two operation modes of an image acquisition mode for acquiring an image and an optical communication mode for performing optical communication.

画像取得モードにおいては、画像アレイ31に集光された光信号が画素31−n毎に電気信号に変換され、Vデコーダ32による掃引操作により、画像信号が、センサ11上のHデコーダ33より逐次出力される。   In the image acquisition mode, the optical signal collected on the image array 31 is converted into an electrical signal for each pixel 31-n, and the image signal is sequentially transmitted from the H decoder 33 on the sensor 11 by the sweep operation by the V decoder 32. Is output.

一方、光通信モードにおいては、同じ画素アレイ31で受光された光信号は、電気信号に変換された後、下方のアナログメモリアレイ34のメモリセル34−mに書き込まれるとともに、コンパレータ36により既にメモリセル34−mに記憶されている前フレーム操作時の信号と大小が比較される。この比較操作により、光点滅の立ち上がりエッジまたは立ち下がりエッジが検出され、その検出結果(光信号検出結果とも称する)が、バイナリデータとして、メモリHデコーダ37より逐次出力される。   On the other hand, in the optical communication mode, an optical signal received by the same pixel array 31 is converted into an electric signal and then written into the memory cell 34-m of the lower analog memory array 34 and is already stored in the memory by the comparator 36. The magnitude of the signal at the previous frame operation stored in the cell 34-m is compared. By this comparison operation, a rising edge or a falling edge of light flashing is detected, and the detection result (also referred to as an optical signal detection result) is sequentially output from the memory H decoder 37 as binary data.

これらの画像取得モードと光通信モードは、センサ11において、図4に示されるように15乃至60Hz程度のサイクルで切り替わる。なお、図4の例においては、tは時間の経過を表している。   These image acquisition mode and optical communication mode are switched in the sensor 11 at a cycle of about 15 to 60 Hz as shown in FIG. In the example of FIG. 4, t represents the passage of time.

すなわち、センサ11は、画像取得モードにおいて、1サイクル(例えば1/30sec)の期間に、光による電荷の蓄積と画素アレイ31の掃引操作を行い、画像信号を逐次出力する。一方、センサ11は、光通信モードにおいて、1サイクルの期間に、1万乃至数十万fps(例えば12kfps)の高速な画素アレイ31の掃引操作を行い、バイナリデータを逐次出力する。   That is, in the image acquisition mode, the sensor 11 performs charge accumulation by light and a sweep operation of the pixel array 31 during one cycle (for example, 1/30 sec), and sequentially outputs image signals. On the other hand, in the optical communication mode, the sensor 11 performs a sweep operation of the high-speed pixel array 31 of 10,000 to several hundred thousand fps (for example, 12 kfps) during one cycle, and sequentially outputs binary data.

図1に戻って、さらに、このように構成されるセンサ11を用いたアプリケーションの一例を説明する。   Returning to FIG. 1, an example of an application using the sensor 11 configured as described above will be further described.

例えば、被写体2−2に関連する情報として、Webサイトのアドレス(例えば、URL(uniform resource locator))などのデータが乗せられている点滅パターン22−2を発信する発信光源3−2を備えた被写体2−2を、2次元アレイ状のセンサ11を備えたカメラ1で撮像する。なお、カメラ1は、携帯端末や携帯電話機などで構成されることもできる。   For example, as information related to the subject 2-2, a transmission light source 3-2 that transmits a blinking pattern 22-2 on which data such as a website address (for example, URL (uniform resource locator)) is placed is provided. The subject 2-2 is imaged by the camera 1 provided with the two-dimensional array of sensors 11. In addition, the camera 1 can also be comprised with a portable terminal, a mobile telephone, etc.

カメラ1は、被写体2−2の画像を取得するとともに、発信光源3−2の点滅パターン22−2によりコード化された通信情報を検出する。そして、カメラ1は、取得した被写体2−2の画像をモニタ42(図5)に表示するとともに、モニタ42に表示された画像51上に、通信情報から得られるアドレスをアイコン52として重ね合わせて表示する。   The camera 1 acquires an image of the subject 2-2 and detects communication information encoded by the blinking pattern 22-2 of the transmission light source 3-2. Then, the camera 1 displays the acquired image of the subject 2-2 on the monitor 42 (FIG. 5) and superimposes the address obtained from the communication information on the image 51 displayed on the monitor 42 as the icon 52. indicate.

これにより、ユーザは、図5に示されるように、モニタ42に表示されるアイコン52を指示するだけで、カメラ1を被写体2−2に関連したWebサイトなどに接続することができる。   As a result, as shown in FIG. 5, the user can connect the camera 1 to a Web site related to the subject 2-2 by simply pointing the icon 52 displayed on the monitor 42.

図5は、このアプリケーションを実現するカメラ1の構成例を示すブロック図である。   FIG. 5 is a block diagram illustrating a configuration example of the camera 1 that realizes the application.

図5の例において、カメラ1は、図3の構成を有するセンサ11、信号処理プロセッサ41、およびモニタ42により構成される。   In the example of FIG. 5, the camera 1 includes the sensor 11 having the configuration of FIG. 3, a signal processor 41, and a monitor 42.

信号処理プロセッサ41は、画像取得モードにおいて、センサ11からの画像信号を取り込み、A/D(Analog to Digital)変換後、画像生成のための処理を行い、光通信モードにおいて、光信号検出結果を取り込み、この信号のデコード処理を行う。   The signal processor 41 captures the image signal from the sensor 11 in the image acquisition mode, performs A / D (Analog to Digital) conversion, and then performs processing for image generation. In the optical communication mode, the signal processor 41 outputs the optical signal detection result. Capture and decode this signal.

その後、信号処理プロセッサ41は、これらの情報を組み合わせ、例えば、被写体2−2(発信光源3−2)が撮像された画像51の上に、通信情報から得られ、被写体2−2に関連する情報を表すアイコン52を重ね合わせてモニタ42に表示させる処理を行う。   Thereafter, the signal processor 41 combines these pieces of information, for example, is obtained from the communication information on the image 51 in which the subject 2-2 (transmitting light source 3-2) is captured, and is related to the subject 2-2. A process of superimposing icons 52 representing information on the monitor 42 is performed.

これにより、モニタ42には、被写体2−2(発信光源3−2)の画像51上に、被写体2−2に関連する情報を表すアイコン52が重ね合わされて表示される。   As a result, an icon 52 representing information related to the subject 2-2 is superimposed on the image 51 of the subject 2-2 (transmitting light source 3-2) and displayed on the monitor 42.

以上のアプリケーションを実現するカメラ1は、1つのセンサが通常の画像取得と光通信の両機能を備えるため、通常のイメージセンサを備えるカメラと略同等なサイズ、コストで構成することが可能である。   The camera 1 that realizes the above applications can be configured with substantially the same size and cost as a camera equipped with a normal image sensor because one sensor has both functions of normal image acquisition and optical communication. .

国際公開第03/036829号パンフレットInternational Publication No. 03/036829 Pamphlet 特開2003−169251号公報JP 2003-169251 A 特開2005−278038号公報JP 2005-278038 A 特開2005−295381号公報JP 2005-295181 A

しかしながら、このカメラ1においては、画像と光信号を同じ画素アレイ31で受光しているので、それぞれのモードを切り替える必要が生じ、画像と光信号の同時取得が困難であった。   However, in this camera 1, since the image and the optical signal are received by the same pixel array 31, it is necessary to switch between the respective modes, and it is difficult to simultaneously acquire the image and the optical signal.

なお、これに対して、特許文献4においては、センサの画素アレイ内で、画像を取得するための画素と、光通信のための画素を分けて、それぞれを独立に操作することが提案されているが、この方法では、同時取得は可能になっても、光通信用画素の分の画像情報が欠損するため、取得画像の解像度劣化を生じてしまっていた。   On the other hand, Patent Document 4 proposes that a pixel for acquiring an image and a pixel for optical communication are separated and operated independently in the pixel array of the sensor. However, with this method, even if simultaneous acquisition is possible, image information corresponding to the pixels for optical communication is lost, resulting in degradation in resolution of the acquired image.

このため、取得した画像と通信情報を用いての処理を行おうとしても、解像度劣化した画像を用いなければならず、その後の処理の精度に影響していた。   For this reason, even if processing using the acquired image and communication information is performed, an image with degraded resolution must be used, which affects the accuracy of subsequent processing.

また、一般にイメージセンサは、昨今の多画素化、小サイズ化のトレンド(流行)のために、画素サイズをより小さくしようとする傾向があるが、微小な画素では、高速なスキャン(掃引)動作が必要な光通信モードにおいて、十分な検出感度が得ることが困難であることから、多画素化、小サイズ化のイメージセンサを用いることができなかった。   In general, image sensors tend to try to reduce the pixel size due to the recent trend of increasing the number of pixels and reducing the size, but high-speed scanning (sweep) operation is required for small pixels. However, it is difficult to obtain sufficient detection sensitivity in an optical communication mode that requires a large number of pixels, so that it has been impossible to use an image sensor with a large number of pixels and a small size.

本発明は、このような状況に鑑みてなされたものであり、画像の解像度を劣化させることなく、画像と光信号を同時に取得することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to simultaneously acquire an image and an optical signal without degrading the resolution of the image.

本発明の一側面の撮像装置は、被写体を撮像する撮像装置において、情報を符号化した光学信号を発信する発信光源を備えた被写体に対応する画像信号を入力するイメージセンサと、前記イメージセンサに近接する位置に略画角を合わせて配置され、前記発信光源が発信する前記光学信号を受信する光通信センサと、前記イメージセンサを構成する画素と前記光通信センサを構成する画素とを対応付けして、前記イメージセンサにより入力された前記画像信号、および前記光通信センサにより受信された前記光学信号を復号した情報を用いた処理を行う信号処理手段とを備える。   An imaging apparatus according to an aspect of the present invention includes an image sensor that captures an image of a subject, an image sensor that inputs an image signal corresponding to the subject including a transmission light source that transmits an optical signal encoded with information, and the image sensor An optical communication sensor, which is arranged with a substantially angle of view at a close position and receives the optical signal transmitted from the transmission light source, associates a pixel constituting the image sensor and a pixel constituting the optical communication sensor. And a signal processing means for performing processing using information obtained by decoding the image signal input by the image sensor and the optical signal received by the optical communication sensor.

前記情報は、前記被写体に関する情報であることができる。   The information may be information regarding the subject.

前記画像信号に対応する画像を表示する表示手段をさらに備え、前記信号処理手段は、前記光学信号を復号した情報に対応する画像を生成する画像生成手段と、前記イメージセンサを構成する画素と前記光通信センサを構成する画素とを対応付けして、前記イメージセンサにより入力された前記画像信号に、前記画像生成手段により生成された前記画像の画像信号を重畳する処理を行う画像重畳手段とを備え、前記表示手段は、前記信号処理手段により重畳された画像信号に対応する画像を表示することができる。   The image processing device further includes display means for displaying an image corresponding to the image signal, and the signal processing means includes image generation means for generating an image corresponding to information obtained by decoding the optical signal, pixels constituting the image sensor, and Image superimposing means for performing processing for associating the pixels constituting the optical communication sensor and superimposing the image signal of the image generated by the image generating means on the image signal input by the image sensor; The display means can display an image corresponding to the image signal superimposed by the signal processing means.

前記信号処理手段は、前記イメージセンサにより入力された前記画像信号に対応する画像から、被写体を認識する画像認識手段と、前記イメージセンサを構成する画素と前記光通信センサを構成する画素とを対応付けして、前記画像認識手段により認識された被写体を、前記光学信号を復号した情報の発信元として設定する処理を行う発信元設定手段とを備えることができる。   The signal processing means corresponds to an image recognition means for recognizing a subject from an image corresponding to the image signal input by the image sensor, a pixel constituting the image sensor, and a pixel constituting the optical communication sensor. In addition, there may be provided transmission source setting means for performing processing for setting a subject recognized by the image recognition means as a transmission source of information obtained by decoding the optical signal.

前記イメージセンサの光学系を駆動する第1の光学系駆動手段と、前記光通信センサの光学系を駆動する第2の光学系駆動手段と、ユーザの操作に対応するズーム値に基づいて、前記イメージセンサの光学系と、前記光通信センサの光学系を連動させるように、前記第1および第2の光学系駆動手段を制御するズーム制御手段とをさらに備えることができる。   Based on a first optical system driving unit that drives the optical system of the image sensor, a second optical system driving unit that drives the optical system of the optical communication sensor, and a zoom value corresponding to a user operation, An optical system of the image sensor and zoom control means for controlling the first and second optical system driving means may be further provided so that the optical system of the optical communication sensor is interlocked.

前記イメージセンサの光学系を駆動する光学系駆動手段と、ユーザの操作に対応するズーム値に基づいて、前記光学系駆動手段による光学系の駆動を制御するズーム制御手段とをさらに備え、前記信号処理手段は、ユーザの操作に対応するズーム値に基づく前記イメージセンサの画素に対応する前記光通信センサの対応画素を算出する対応画素算出手段を備え、前記対応画素算出手段により算出される前記光通信センサの対応画素に基づいて、前記イメージセンサを構成する画素と前記光通信センサを構成する画素とを対応付けして、前記イメージセンサにより入力された前記画像信号、および前記光通信センサにより受信された前記光学信号を復号した情報を用いた処理を行うことができる。   An optical system driving unit that drives the optical system of the image sensor; and a zoom control unit that controls driving of the optical system by the optical system driving unit based on a zoom value corresponding to a user operation. The processing unit includes a corresponding pixel calculating unit that calculates a corresponding pixel of the optical communication sensor corresponding to a pixel of the image sensor based on a zoom value corresponding to a user operation, and the light calculated by the corresponding pixel calculating unit Based on the corresponding pixel of the communication sensor, the pixel constituting the image sensor and the pixel constituting the optical communication sensor are associated with each other, and the image signal input by the image sensor and received by the optical communication sensor It is possible to perform processing using information obtained by decoding the optical signal.

前記信号処理手段は、前記イメージセンサにより入力された前記画像信号に対応する画像から、前記発信光源に対応する画素を検出する画素検出手段と、前記画素検出手段により検出された前記発信光源に対応する画素と、前記光学信号を受信した前記光通信センサの画素に基づいて、画素ずれの補正量を算出する補正量算出手段とを備え、前記補正量算出手段により算出される前記画素ずれの補正量に基づいて、前記イメージセンサを構成する画素と前記光通信センサを構成する画素とを対応付けして、前記イメージセンサにより入力される前記画像信号、および前記光通信センサにより受信された前記光学信号を復号した情報を用いた処理を行うことができる。   The signal processing means corresponds to a pixel detection means for detecting a pixel corresponding to the transmission light source from an image corresponding to the image signal input by the image sensor, and to the transmission light source detected by the pixel detection means. And correction amount calculation means for calculating a correction amount of pixel shift based on the pixel of the optical communication sensor that has received the optical signal, and correction of the pixel shift calculated by the correction amount calculation means Based on the quantity, the image signal inputted by the image sensor and the optical signal received by the optical communication sensor are associated with the pixels constituting the image sensor and the pixels constituting the optical communication sensor. Processing using information obtained by decoding the signal can be performed.

本発明の一側面の画像処理方法は、被写体を撮像する撮像装置の画像処理方法において、情報を符号化した光学信号を発信する発信光源を備えた被写体に対応する画像信号を入力するイメージセンサを構成する画素と、前記イメージセンサに近接する位置に略画角を合わせて配置され、前記発信光源が発信する前記光学信号を受信する光通信センサを構成する画素とを対応付けして、前記イメージセンサにより入力された前記画像信号、および前記光通信センサにより受信された前記光学信号を復号した情報を用いた処理を行うステップを含む。   An image processing method according to an aspect of the present invention is an image processing method of an imaging apparatus that captures an image of an image sensor that inputs an image signal corresponding to the object including a transmission light source that transmits an optical signal encoded with information. The image is configured by associating a pixel constituting the image sensor with a pixel constituting an optical communication sensor that is disposed at a position close to the image sensor with a substantially angle of view and receives the optical signal transmitted from the transmission light source. And performing a process using information obtained by decoding the image signal input by the sensor and the optical signal received by the optical communication sensor.

本発明の一側面のプログラムは、被写体を撮像する撮像装置に画像処理を行わせるプログラムであって、情報を符号化した光学信号を発信する発信光源を備えた被写体に対応する画像信号を入力するイメージセンサを構成する画素と、前記イメージセンサに近接する位置に略画角を合わせて配置され、前記発信光源が発信する前記光学信号を受信する光通信センサを構成する画素とを対応付けして、前記イメージセンサにより入力された前記画像信号、および前記光通信センサにより受信された前記光学信号を復号した情報を用いた処理を行うステップを含む。   A program according to one aspect of the present invention is a program that causes an imaging device that captures an image of an object to perform image processing, and inputs an image signal corresponding to the object including a transmission light source that transmits an optical signal in which information is encoded. Associating the pixels constituting the image sensor with the pixels constituting the optical communication sensor that is arranged with a substantially angle of view at a position close to the image sensor and that receives the optical signal transmitted by the transmitting light source. Performing a process using information obtained by decoding the image signal input by the image sensor and the optical signal received by the optical communication sensor.

本発明の一側面のプログラムが記録されている記録媒体は、被写体を撮像する撮像装置に画像処理を行わせるプログラムであって、情報を符号化した光学信号を発信する発信光源を備えた被写体に対応する画像信号を入力するイメージセンサを構成する画素と、前記イメージセンサに近接する位置に略画角を合わせて配置され、前記発信光源が発信する前記光学信号を受信する光通信センサを構成する画素とを対応付けして、前記イメージセンサにより入力された前記画像信号、および前記光通信センサにより受信された前記光学信号を復号した情報を用いた処理を行うステップを含む。   A recording medium on which a program according to one aspect of the present invention is recorded is a program that causes an imaging device that captures an image of an object to perform image processing, and is provided on an object including a transmission light source that transmits an optical signal in which information is encoded. A pixel constituting an image sensor that inputs a corresponding image signal and an optical communication sensor that receives the optical signal transmitted from the transmitting light source are arranged at a position close to the image sensor with a substantially angle of view. And performing processing using information obtained by decoding the image signal input by the image sensor and the optical signal received by the optical communication sensor in association with pixels.

本発明の一側面においては、情報を符号化した光学信号を発信する発信光源を備えた被写体に対応する画像信号を入力するイメージセンサを構成する画素と、前記イメージセンサに近接する位置に略画角を合わせて配置され、前記発信光源が発信する前記光学信号を受信する光通信センサを構成する画素とを対応付けして、前記イメージセンサにより入力された前記画像信号、および前記光通信センサにより受信された前記光学信号を復号した情報を用いた処理が行われる。   In one aspect of the present invention, pixels constituting an image sensor that inputs an image signal corresponding to a subject including a light source that transmits an optical signal in which information is encoded, and a schematic image at a position close to the image sensor are provided. The image signal input by the image sensor and the optical communication sensor are associated with the pixels that constitute the optical communication sensor that is arranged at an angle and receives the optical signal transmitted from the light source. Processing using information obtained by decoding the received optical signal is performed.

本発明によれば、画像の解像度を劣化させることなく、容易に、光信号と、光信号を発信する光源の画像を同時に取得することができる。   According to the present invention, an optical signal and an image of a light source that transmits the optical signal can be easily acquired simultaneously without degrading the resolution of the image.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書または図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書または図面に記載されていることを確認するためのものである。従って、明細書または図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described here as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の一側面の撮像装置(例えば、図6の携帯電話機71)は、被写体を撮像する撮像装置において、情報を符号化した光学信号を発信する発信光源(例えば、図6の発信光源3−1)を備えた被写体(例えば、図6の被写体2−1)に対応する画像信号を入力するイメージセンサ(例えば、図7のイメージセンサ122)と、前記イメージセンサに近接する位置に略画角を合わせて配置され、前記発信光源が発信する前記光学信号を受信する光通信センサ(例えば、図7の光通信センサ121)と、前記イメージセンサを構成する画素と前記光通信センサを構成する画素とを対応付けして、前記イメージセンサにより入力された前記画像信号、および前記光通信センサにより受信された前記光学信号を復号した情報を用いた処理を行う信号処理手段(例えば、図11のアプリケーションプロセッサ213)とを備える。   An imaging apparatus according to one aspect of the present invention (for example, the mobile phone 71 in FIG. 6) is a transmission light source (for example, the transmission light source 3- 1) and an image sensor (for example, the image sensor 122 in FIG. 7) for inputting an image signal corresponding to the subject (for example, the subject 2-1 in FIG. 6), and a substantially angle of view at a position close to the image sensor. The optical communication sensor (for example, the optical communication sensor 121 in FIG. 7) that receives the optical signal transmitted from the transmission light source, the pixels that constitute the image sensor, and the pixels that constitute the optical communication sensor And a signal that performs processing using information obtained by decoding the image signal input by the image sensor and the optical signal received by the optical communication sensor. Comprising processing means (e.g., an application processor 213 of FIG. 11) and.

前記画像信号に対応する画像を表示する表示手段(例えば、図6のモニタ82)をさらに備え、前記信号処理手段は、前記光学信号を復号した情報に対応する画像を生成する画像生成手段(例えば、図11の画像生成部232)と、前記イメージセンサを構成する画素と前記光通信センサを構成する画素とを対応付けして、前記イメージセンサにより入力された前記画像信号に、前記画像生成手段により生成された前記画像の画像信号を重畳する処理を行う画像重畳手段(例えば、図11の画像重畳部231)とを備え、前記表示手段は、前記信号処理手段により重畳された画像信号に対応する画像を表示することができる。   The image processing device further includes a display unit (for example, the monitor 82 in FIG. 6) that displays an image corresponding to the image signal, and the signal processing unit generates an image corresponding to information obtained by decoding the optical signal (for example, the monitor 82). , The image generation unit 232 in FIG. 11, the pixels constituting the image sensor and the pixels constituting the optical communication sensor are associated with each other, and the image generation means is connected to the image signal input by the image sensor. Image superimposing means (for example, the image superimposing unit 231 in FIG. 11) that performs processing for superimposing the image signal of the image generated by the image processing unit, and the display means corresponds to the image signal superimposed by the signal processing means. The image to be displayed can be displayed.

前記信号処理手段は、前記イメージセンサにより入力された前記画像信号に対応する画像から、被写体を認識する画像認識手段(例えば、図22の画像認識部341)と、前記イメージセンサを構成する画素と前記光通信センサを構成する画素とを対応付けして、前記画像認識手段により認識された被写体を、前記光学信号を復号した情報の発信元として設定する処理を行う発信元設定手段(例えば、図22の情報処理部342)とを備えることができる。   The signal processing means includes an image recognition means (for example, an image recognition unit 341 in FIG. 22) for recognizing a subject from an image corresponding to the image signal input by the image sensor, and pixels constituting the image sensor. Source setting means (for example, FIG. 5) that performs processing for associating with the pixels constituting the optical communication sensor and setting the subject recognized by the image recognition means as the source of information obtained by decoding the optical signal. 22 information processing units 342).

前記イメージセンサの光学系(例えば、図14のレンズ112−2)を駆動する第1の光学系駆動手段(例えば、図14のズーム駆動部251−2)と、前記光通信センサの光学系(例えば、図14のレンズ112−1)を駆動する第2の光学系駆動手段(例えば、図14のズーム駆動部251−1)と、ユーザの操作に対応するズーム値に基づいて、前記イメージセンサの光学系と、前記光通信センサの光学系を連動させるように、前記第1および第2の光学系駆動手段を制御するズーム制御手段(例えば、図14のズーム制御信号出力部261)とをさらに備えることができる。   First optical system driving means (for example, the zoom driving unit 251-2 in FIG. 14) for driving the optical system of the image sensor (for example, the lens 112-2 in FIG. 14), and the optical system ( For example, the image sensor based on the second optical system driving means (for example, the zoom driving unit 251-1 in FIG. 14) for driving the lens 112-1 in FIG. 14 and the zoom value corresponding to the user's operation. Zoom control means (for example, the zoom control signal output unit 261 in FIG. 14) for controlling the first and second optical system drive means so that the optical system of the optical communication sensor is interlocked. Furthermore, it can be provided.

前記イメージセンサの光学系(例えば、図16のレンズ112−2)を駆動する光学系駆動手段(例えば、図16のズーム駆動部251−2)と、ユーザの操作に対応するズーム値に基づいて、前記光学系駆動手段による光学系の駆動を制御するズーム制御手段(例えば、図16のズーム制御信号出力部261)とをさらに備え、前記信号処理手段は、ユーザの操作に対応するズーム値に基づく前記イメージセンサの画素に対応する前記光通信センサの対応画素を算出する対応画素算出手段(例えば、図16の対応画素換算部301)を備え、前記対応画素算出手段により算出される前記光通信センサの対応画素に基づいて、前記イメージセンサを構成する画素と前記光通信センサを構成する画素とを対応付けして、前記イメージセンサにより入力された前記画像信号、および前記光通信センサにより受信された前記光学信号を復号した情報を用いた処理を行うことができる。   Based on optical system driving means (for example, zoom driving unit 251-2 in FIG. 16) for driving the optical system of the image sensor (for example, lens 112-2 in FIG. 16) and a zoom value corresponding to a user operation. Zoom control means (for example, zoom control signal output unit 261 in FIG. 16) for controlling driving of the optical system by the optical system drive means, and the signal processing means adjusts the zoom value corresponding to the user's operation. And a corresponding pixel calculating unit (for example, corresponding pixel conversion unit 301 in FIG. 16) that calculates a corresponding pixel of the optical communication sensor corresponding to a pixel of the image sensor based on the optical communication calculated by the corresponding pixel calculating unit. Based on the corresponding pixel of the sensor, the pixel constituting the image sensor and the pixel constituting the optical communication sensor are associated with each other by the image sensor. The inputted image signal, and the information obtained by decoding the optical signal received by the optical communication sensor processing can be carried out using.

前記信号処理手段は、前記イメージセンサにより入力された前記画像信号に対応する画像から、前記発信光源に対応する画素を検出する画素検出手段(例えば、図20の画像認識部331)と、前記画素検出手段により検出された前記発信光源に対応する画素と、前記光学信号を受信した前記光通信センサの画素に基づいて、画素ずれの補正量を算出する補正量算出手段(例えば、図20のずれ補正量算出部332)とを備え、前記補正量算出手段により算出される前記画素ずれの補正量に基づいて、前記イメージセンサを構成する画素と前記光通信センサを構成する画素とを対応付けして、前記イメージセンサにより入力された前記画像信号、および前記光通信センサにより受信された前記光学信号を復号した情報を用いた処理を行うことができる。   The signal processing means includes a pixel detection means (for example, the image recognition unit 331 in FIG. 20) for detecting a pixel corresponding to the transmission light source from an image corresponding to the image signal input by the image sensor, and the pixel A correction amount calculation unit (for example, a shift in FIG. 20) that calculates a correction amount of a pixel shift based on the pixel corresponding to the transmission light source detected by the detection unit and the pixel of the optical communication sensor that has received the optical signal. A correction amount calculation unit 332), and the pixels constituting the image sensor and the pixels constituting the optical communication sensor are associated with each other based on the correction amount of the pixel shift calculated by the correction amount calculation unit. And processing using information obtained by decoding the image signal input by the image sensor and the optical signal received by the optical communication sensor. It can be.

本発明の一側面の画像処理方法またはプログラムは、被写体を撮像する撮像装置の画像処理方法またはプログラムにおいて、情報を符号化した光学信号を発信する発信光源を備えた被写体に対応する画像信号を入力するイメージセンサを構成する画素と、前記イメージセンサに近接する位置に略画角を合わせて配置され、前記発信光源が発信する前記光学信号を受信する光通信センサを構成する画素とを対応付けして、前記イメージセンサにより入力された前記画像信号、および前記光通信センサにより受信された前記光学信号を復号した情報を用いた処理を行う(例えば、図13のステップS14)ステップを含む。   An image processing method or program according to one aspect of the present invention is an image processing method or program for an imaging device that captures an image of an object, and inputs an image signal corresponding to the object including a transmission light source that transmits an optical signal encoded with information. The pixels constituting the image sensor and the pixels constituting the optical communication sensor that is arranged with a substantially angle of view at a position close to the image sensor and that receives the optical signal transmitted from the light source. Then, a process using information obtained by decoding the image signal input by the image sensor and the optical signal received by the optical communication sensor is performed (for example, step S14 in FIG. 13).

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図6は、本発明を適用した撮像装置としての携帯電話機の外観の構成を示す図である。なお、図6の例において、発信光源3−1および3−2をそれぞれ備えた被写体2−1および2−2に関しては、図1の例と同様であり、対応する部分には、対応する符号が付してあり、その詳細な説明は繰り返しになるので適宜省略する。   FIG. 6 is a diagram showing an external configuration of a mobile phone as an imaging apparatus to which the present invention is applied. In the example of FIG. 6, the subjects 2-1 and 2-2 provided with the transmission light sources 3-1 and 3-2, respectively, are the same as those in the example of FIG. Since the detailed description will be repeated, it will be omitted as appropriate.

図6に示される携帯電話機71は、カメラ部81、モニタ82、および操作入力部83を有しており、LED(light-emitting diode)などの発信光源3−1および3−2をそれぞれ備えた被写体2−1および被写体2−2を、カメラ部81で撮像することで、撮像により得られる画像信号と発信光源3−1または3−2からの通信情報を取得し、取得した画像信号に対応する画像91上に、通信情報に基づく画像92−1および92−2を重畳して、モニタ82に表示する。   A cellular phone 71 shown in FIG. 6 includes a camera unit 81, a monitor 82, and an operation input unit 83, and includes transmission light sources 3-1 and 3-2 such as LEDs (light-emitting diodes), respectively. By imaging the subject 2-1 and the subject 2-2 with the camera unit 81, the image signal obtained by the imaging and the communication information from the transmission light source 3-1 or 3-2 are acquired, and the acquired image signal is supported. The images 92-1 and 92-2 based on the communication information are superimposed on the image 91 to be displayed and displayed on the monitor 82.

なお、発信光源3−1により発信される点滅パターン22−1は、被写体2−1に関連する情報である、Webサイトのアドレス(例えば、URL(uniform resource locator))や被写体2−1を説明する文などが通信情報としてコード化されたものであり、発信光源3−2により発信される点滅パターン22−2は、被写体2−2に関連する情報である、Webサイトのアドレス(例えば、URL(uniform resource locator))や被写体2−2を説明する文などが通信情報としてコード化されたものである。   The blinking pattern 22-1 transmitted from the transmission light source 3-1 describes the website address (for example, URL (uniform resource locator)) and the subject 2-1, which are information related to the subject 2-1. The blinking pattern 22-2 transmitted by the transmission light source 3-2 is information related to the subject 2-2, for example, a URL (for example, URL) (uniform resource locator)) and a sentence describing the subject 2-2 are encoded as communication information.

カメラ部81は、図7に示されるように、光通信センサ121およびイメージセンサ122が配置されるカメラボード(基板)111と、それぞれの焦点合わせのために、光通信センサ121およびイメージセンサ122の前面に組み込まれるそれぞれの光学系(例えば、レンズ112−1および112−2)で構成されている。   As shown in FIG. 7, the camera unit 81 includes a camera board (substrate) 111 on which the optical communication sensor 121 and the image sensor 122 are arranged, and the optical communication sensor 121 and the image sensor 122 for focusing. Each optical system (for example, lenses 112-1 and 112-2) incorporated in the front surface is configured.

光通信センサ121は、CMOS(Complementary Metal Oxide Semiconductor)などの撮像素子で構成される2次元アレイ状のセンサである。すなわち、CMOS撮像素子は、一般にCCD(Charge Coupled Device)撮像素子に比し、駆動速度が速いので、情報の送信側で発信光源を比較的高い周波数で駆動させても、その点滅パターンを読み取ることができることから、光通信センサ121は、CMOS撮像素子で構成されることが好ましい。   The optical communication sensor 121 is a two-dimensional array sensor composed of an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor). In other words, the CMOS image sensor generally has a higher driving speed than the CCD (Charge Coupled Device) image sensor, so even if the transmitting light source is driven at a relatively high frequency on the information transmission side, the blinking pattern can be read. Therefore, the optical communication sensor 121 is preferably composed of a CMOS image sensor.

イメージセンサ122は、例えば、CCDやCMOSなどの撮像素子で構成される2次元アレイ状のセンサである。すなわち、光通信センサ121およびイメージセンサ122は、同じ撮像素子で構成される必要はない。   The image sensor 122 is, for example, a two-dimensional array sensor composed of an image sensor such as a CCD or a CMOS. That is, the optical communication sensor 121 and the image sensor 122 do not need to be configured with the same image sensor.

図7の例の光通信センサ121およびイメージセンサ122に示される縦および横の点線は、それぞれのセンサにおける縦(V(Vertical)方向)の中央位置および横(H(Horizontal)方向)の中央位置を示しており、光通信センサ121およびイメージセンサ122は、それらの交点(各センサの中心点、すなわち、図8の光軸C1またはC2が通過する点)間の距離(以下、センサ間距離と称する)dが数mm乃至数cmとなるように、同じカメラボード111上に配置されている。   The vertical and horizontal dotted lines shown in the optical communication sensor 121 and the image sensor 122 in the example of FIG. 7 indicate the vertical (V (Vertical) direction) center position and the horizontal (H (Horizontal) direction) center position of each sensor. The optical communication sensor 121 and the image sensor 122 are represented by a distance between their intersections (the center point of each sensor, that is, the point through which the optical axis C1 or C2 in FIG. It is arranged on the same camera board 111 so that d is several mm to several cm.

光通信センサ121は、例えば、受光画素121−1および受光画素121−2に示されるように、複数の受光画素(以下、単に画素とも称する)で構成されている。光通信センサ121の受光画素121−1および画素121−2は、レンズ112−1を介して、光通信センサ121の画角境界131(一点鎖線)内に存在する被写体2−1および2−2が備える発信光源3−1および3−2の点滅パターン22−1および22−2によりコード化された通信情報を検出する。すなわち、光通信センサ121は、光通信モードの場合の図1のセンサ11と基本的に同様の構成をしている。   The optical communication sensor 121 includes a plurality of light receiving pixels (hereinafter also simply referred to as “pixels”), as shown in the light receiving pixels 121-1 and 121-2, for example. The light receiving pixel 121-1 and the pixel 121-2 of the optical communication sensor 121 are connected to the subjects 2-1 and 2-2 existing within the field angle boundary 131 (dashed line) of the optical communication sensor 121 via the lens 112-1. The communication information encoded by the blinking patterns 22-1 and 22-2 of the transmission light sources 3-1 and 3-2 included in is detected. That is, the optical communication sensor 121 has basically the same configuration as the sensor 11 of FIG. 1 in the optical communication mode.

具体的には、図2を参照して上述したように、情報の送信側は、発信光源3−1や3−2を4KHzで点滅させ、その点滅パターンに8bit程度のデータコードを乗せて、ある間隔をおいて連続的に発光させている。したがって、光通信センサ121は、発信光源3−1や3−2の点滅の約3倍の12KHz程度でフレーム操作を行い、光通信センサ121の各画素が点滅信号のサンプリング動作を行うことにより、画面上のどの位置で、どのような通信情報が発せられているのかを検出する。   Specifically, as described above with reference to FIG. 2, the information transmission side blinks the transmission light sources 3-1 and 3-2 at 4 KHz, puts a data code of about 8 bits on the blinking pattern, It emits light continuously at a certain interval. Therefore, the optical communication sensor 121 performs a frame operation at about 12 KHz, which is about three times the blinking of the transmission light sources 3-1 and 3-2, and each pixel of the optical communication sensor 121 performs a blinking signal sampling operation. It is detected what kind of communication information is emitted at which position on the screen.

イメージセンサ122も、図示せぬ複数の画素で構成されており、イメージセンサ122の画素は、レンズ112−2を介して、イメージセンサ122の画角境界132(実線)内に存在し、発信光源3−1および3−2をそれぞれ備えた被写体2−1および2−2の画像に対応する画像信号を取得する。すなわち、イメージセンサ122は、画像取得モードの場合の図1のセンサ11と基本的に同様の構成をしている。   The image sensor 122 is also composed of a plurality of pixels (not shown), and the pixels of the image sensor 122 exist within the angle of view boundary 132 (solid line) of the image sensor 122 via the lens 112-2. Image signals corresponding to the images of the subjects 2-1 and 2-2 provided with 3-1 and 3-2, respectively, are acquired. That is, the image sensor 122 has basically the same configuration as the sensor 11 of FIG. 1 in the image acquisition mode.

図6に戻って、携帯電話機71は、上部筐体と下部筐体が図示せぬヒンジにより折りたたみ可能に構成されている。   Returning to FIG. 6, the mobile phone 71 is configured such that the upper housing and the lower housing can be folded by a hinge (not shown).

モニタ82は、LCD(Liquid Crystal Display)などで構成され、携帯電話機71の上部筐体の、携帯電話機71が折りたたまれた場合に下部筐体と対面する側に設けられている。モニタ82は、イメージセンサ122により取得された画像信号に対応する画像91上に、光通信センサ121により受信された通信情報に基づく画像92−1および92−2が重畳された画面を表示する。   The monitor 82 is composed of an LCD (Liquid Crystal Display) or the like, and is provided on the side of the upper casing of the cellular phone 71 that faces the lower casing when the cellular phone 71 is folded. The monitor 82 displays a screen in which images 92-1 and 92-2 based on communication information received by the optical communication sensor 121 are superimposed on an image 91 corresponding to the image signal acquired by the image sensor 122.

なお、図6の例の場合、モニタ82には、画像92−1として、被写体2−1の名前や説明文が記載される吹き出し型のアイコンが、発信光源3−1から吹き出しているように画像91上に配置されて表示されており、画像92−2として、被写体2−2の名前や説明文が記載される吹き出し型のアイコンが、発信光源3−2から吹き出しているように画像91上に配置されて表示されている。   In the case of the example in FIG. 6, a balloon-type icon in which the name and description of the subject 2-1 are written on the monitor 82 as the image 92-1 is emitted from the transmission light source 3-1. The image 91 is displayed on the image 91 as if a balloon-type icon in which the name and description of the subject 2-2 are written as a balloon from the transmission light source 3-2. It is arranged and displayed above.

すなわち、ユーザが、携帯電話機71を用いて、発信光源3−1および3−2をそれぞれ備えた被写体2−1および2−2を撮像するだけで、モニタ82には、被写体2−1および2−2の名前や説明文が記載される吹き出し型のアイコンが表示されるので、ユーザは、被写体2−1および2−2のことを詳しく知ることができる。   That is, the user simply images the subjects 2-1 and 2-2 provided with the transmission light sources 3-1 and 3-2 using the mobile phone 71, and the subject 2-1 and 2 are displayed on the monitor 82. -2 is displayed, and the user can know the subjects 2-1 and 2-2 in detail.

そして、ユーザにより操作入力部83を構成するボタンなどが操作され、モニタ82に表示される画像92−1または92−2が選択されることに対応して、携帯電話機71は、選択された画像92−1(すなわち、被写体2−1)に関連するさらなる詳しい説明情報に対応する画像を、モニタ82に表示したり、あるいは、選択された画像92−1(すなわち、被写体2−1)に関連したWebサイトなどに接続することもできる。   Then, in response to the user operating a button or the like constituting the operation input unit 83 and selecting the image 92-1 or 92-2 displayed on the monitor 82, the cellular phone 71 selects the selected image. An image corresponding to further detailed description information related to 92-1 (that is, the subject 2-1) is displayed on the monitor 82, or related to the selected image 92-1 (that is, the subject 2-1). You can also connect to a website that you have created.

操作入力部83は、ボタンなどで構成され、例えば、携帯電話機71の下部筐体の、携帯電話機71が折りたたまれた場合に上部筐体に備えられたモニタ82と対面する側に設けられている。   The operation input unit 83 includes buttons and the like. For example, the operation input unit 83 is provided on the side of the lower casing of the mobile phone 71 that faces the monitor 82 provided in the upper casing when the mobile phone 71 is folded. .

なお、以下、被写体2−1および2−2、発信光源3−1および3−2、並びに、点滅パターン22−1および22−2を個々に区別する必要がない場合、単に、被写体2、発信光源3、並びに、点滅パターン22と適宜称する。   Hereinafter, when it is not necessary to individually distinguish the subjects 2-1 and 2-2, the transmission light sources 3-1 and 3-2, and the flashing patterns 22-1 and 22-2, the subject 2, the transmission The light source 3 and the blinking pattern 22 are appropriately referred to.

また、図6の例において、画像92−1または92−2を吹き出し型のアイコンとしたが、吹き出し型のアイコンに限定されず、他のアイコンでもよく、さらに、文字やURLそのものを表示させるようにしてもよい。   In the example of FIG. 6, the image 92-1 or 92-2 is a balloon-type icon, but is not limited to a balloon-type icon, and other icons may be used, and characters and URLs themselves may be displayed. It may be.

図8は、カメラ部81における光通信センサ121およびイメージセンサ122の画角と光軸の関係を示す図である。   FIG. 8 is a diagram illustrating the relationship between the field angle and the optical axis of the optical communication sensor 121 and the image sensor 122 in the camera unit 81.

光通信センサ121およびイメージセンサ122は、センサ間距離dだけ離して、各センサの中心点を通過する光軸C1およびC2が平行になるようにカメラボード111に配置されている。また、カメラ部81においては、光通信センサ121の画角α1と、イメージセンサ122の画角α2の大きさが縦と横(すなわち、センサ面のV方向とH方向)で同じになるように、カメラボード111から、それぞれのレンズ112−1および112−2のレンズ面L1およびL2までの距離(すなわち、焦点距離f1およびf2)が調整されている。   The optical communication sensor 121 and the image sensor 122 are arranged on the camera board 111 so that the optical axes C1 and C2 passing through the center point of each sensor are parallel to each other with a distance d between the sensors. In the camera unit 81, the field angle α1 of the optical communication sensor 121 and the field angle α2 of the image sensor 122 are the same in the vertical and horizontal directions (that is, the V direction and the H direction on the sensor surface). The distances from the camera board 111 to the lens surfaces L1 and L2 of the lenses 112-1 and 112-2 (ie, focal lengths f1 and f2) are adjusted.

すなわち、図8の例の場合、光通信センサ121の画角境界131による投影エリアと、イメージセンサ122の画角境界132による投影エリアの大きさが縦と横で同じになっている。   In other words, in the example of FIG. 8, the size of the projection area formed by the field angle boundary 131 of the optical communication sensor 121 and the size of the projection area formed by the field angle boundary 132 of the image sensor 122 are the same in the vertical and horizontal directions.

なお、図8の例においては、光通信センサ121およびイメージセンサ122をH方向に並べて配置した場合の例が示されており、画角α1およびα2は、光通信センサ121およびイメージセンサ122のH方向の画角を表している。   In the example of FIG. 8, an example in which the optical communication sensor 121 and the image sensor 122 are arranged side by side in the H direction is shown, and the angles of view α <b> 1 and α <b> 2 are the H of the optical communication sensor 121 and the image sensor 122. It represents the angle of view of the direction.

また、光通信センサ121およびイメージセンサ122は、同じサイズである必要はなく、図8の例においては、光通信センサ121よりもイメージセンサ122のサイズが大きい場合が示されている。すなわち、図8のカメラ部81における焦点距離f1およびf2は、光通信センサ121の画角α1と、イメージセンサ122の画角α2の大きさが縦と横で同じになるよう、f1<f2に調整されている。   Further, the optical communication sensor 121 and the image sensor 122 do not need to be the same size, and the example of FIG. 8 shows a case where the size of the image sensor 122 is larger than that of the optical communication sensor 121. That is, the focal lengths f1 and f2 in the camera unit 81 in FIG. 8 satisfy f1 <f2 so that the field angle α1 of the optical communication sensor 121 and the field angle α2 of the image sensor 122 are the same in the vertical and horizontal directions. It has been adjusted.

以上のようにカメラボード111に配置され、光学系が調整されている光通信センサ121およびイメージセンサ122において、被写体(発信光源)からの光を受光する画素について、図9を参照して説明する。なお、図9は、概念図であり、図9の例においては、説明の便宜上、センササイズなどの幾何学的な関係について、あまり正確に示されていない。   Pixels that receive light from the subject (transmitting light source) in the optical communication sensor 121 and the image sensor 122 arranged on the camera board 111 and adjusted in the optical system as described above will be described with reference to FIG. . Note that FIG. 9 is a conceptual diagram, and in the example of FIG. 9, for convenience of explanation, geometric relationships such as sensor size are not shown very accurately.

図9の例においては、センサ間距離dだけ離して配置された光通信センサ121およびイメージセンサ122のそれぞれの画角境界131および132内において、レンズ面L(いまの場合、L=L1=L2)からの距離が、近傍から遠方を仮定した距離D1乃至D3における各センサの投影エリアが示されている。   In the example of FIG. 9, the lens surface L (in this case, L = L1 = L2) within the respective view angle boundaries 131 and 132 of the optical communication sensor 121 and the image sensor 122 that are arranged apart by the inter-sensor distance d. The projection area of each sensor is shown at distances D1 to D3 assuming that the distance from) is far from the vicinity.

なお、各距離D1乃至D3の位置を示す点線の上は、各距離D1乃至D3における光通信センサ121の投影エリアを表し、点線の上に示す白丸囲み数字は、光通信センサ121の画角境界131内における画素の左端からの番号を表し、点線の上に示す垂直線は、光通信センサ121の画素投影境界を表している。すなわち、各距離D1乃至D3の位置を示す点線の上における2つの画素投影境界間は、光通信センサ121の、各距離D1乃至D3における白丸囲み数字が示す番号の画素の画素投影サイズを表している。   The dotted lines indicating the positions of the distances D1 to D3 represent the projection areas of the optical communication sensor 121 at the distances D1 to D3, and the white circled numbers shown on the dotted lines are the angle-of-view boundaries of the optical communication sensor 121. The number from the left end of the pixel in 131 is represented, and the vertical line shown above the dotted line represents the pixel projection boundary of the optical communication sensor 121. That is, between the two pixel projection boundaries on the dotted line indicating the position of each distance D1 to D3 represents the pixel projection size of the pixel of the number indicated by the white circled number at each distance D1 to D3 of the optical communication sensor 121. Yes.

同様に、各距離D1乃至D3の位置を示す点線の下は、各距離D1乃至D3におけるイメージセンサ122の投影エリアを表し、点線の下に示す黒丸囲み数字は、イメージセンサ122の画角境界132内における画素の左端からの番号を表し、点線の下に示す垂直線は、イメージセンサ122の画素投影境界を表している。すなわち、各距離D1乃至D3の位置を示す点線の下における2つの画素投影境界間は、イメージセンサ122の、各距離D1乃至D3における黒丸囲み数字が示す番号の画素の投影サイズを表している。   Similarly, the dotted lines indicating the positions of the distances D1 to D3 indicate the projection area of the image sensor 122 at the distances D1 to D3, and the black circled numbers below the dotted lines are the view angle boundaries 132 of the image sensor 122. The vertical line shown below the dotted line represents the pixel projection boundary of the image sensor 122. That is, between the two pixel projection boundaries below the dotted line indicating the position of each distance D1 to D3 represents the projection size of the pixel of the number indicated by the black circled number at each distance D1 to D3 of the image sensor 122.

すなわち、各距離D1乃至D3における投影エリアに存在する被写体の像は、各センサ上のその画素に結像されることを表している。   That is, the image of the subject existing in the projection area at each distance D1 to D3 is formed on that pixel on each sensor.

1画素の投影サイズは、センサの画素数(解像度)のみにより決定し、センサ上の画素そのもののサイズやセンサそのもののサイズには拠らない。なお、図9の例においては、光通信センサ121およびイメージセンサ122の画素数(解像度)が同じであり、それぞれの1画素の投影サイズも同じである場合が示されている。   The projection size of one pixel is determined only by the number of pixels (resolution) of the sensor, and does not depend on the size of the pixel itself on the sensor or the size of the sensor itself. In the example of FIG. 9, the optical communication sensor 121 and the image sensor 122 have the same number of pixels (resolution), and the projection size of each pixel is also the same.

この場合、イメージセンサ122を起点とする視線161上の被写体(発信光源)の受光画素を考察すると、近傍の距離D1においては、光通信センサ121およびイメージセンサ122の画角の位置のずれ(すなわち、センサ間距離d)により、発信光源P1は、イメージセンサ122の画角境界132の左端から1番目の画素(黒丸囲み数字の1)で受光され、光通信センサ121の画角境界131の左端から2番目の画素(白丸囲み数字の2)で受光される。   In this case, when considering the light receiving pixels of the subject (transmitting light source) on the line of sight 161 starting from the image sensor 122, the displacement of the angle of view between the optical communication sensor 121 and the image sensor 122 (that is, the distance D1 in the vicinity) , The transmission light source P1 is received by the first pixel from the left end of the view angle boundary 132 of the image sensor 122 (black circled number 1) and the left end of the view angle boundary 131 of the optical communication sensor 121. To the second pixel (white circled number 2).

また、距離D1より遠方の距離D2においては、発信光源P2は、イメージセンサ122の画角境界132の左端から1番目の画素(黒丸囲み数字の1)で受光され、光通信センサ121の画角境界131の左端から1および2番目の両画素(白丸囲み数字の1および2)で受光される。   At a distance D2 farther than the distance D1, the transmission light source P2 is received by the first pixel from the left end of the field angle boundary 132 of the image sensor 122 (black circled numeral 1), and the field angle of the optical communication sensor 121. Light is received by both the first and second pixels (white circled numbers 1 and 2) from the left end of the boundary 131.

さらに、距離D2より遠方の距離D3においては、イメージセンサ122の画角境界132の左端から1番目の画素(黒丸囲み数字の1)で受光され、光通信センサ121の画角境界131の左端から1番目の画素(白丸囲み数字の1)で受光される。すなわち、十分遠方においては、光通信センサ121およびイメージセンサ122の両センサともにそれぞれの画角境界から左から1番目の画素で発信光源を受光できるようになる。   Furthermore, at a distance D3 farther than the distance D2, light is received by the first pixel from the left end of the view angle boundary 132 of the image sensor 122 (black circled numeral 1) and from the left end of the view angle boundary 131 of the optical communication sensor 121. Light is received by the first pixel (the white circled number 1). That is, at a sufficiently long distance, both the optical communication sensor 121 and the image sensor 122 can receive the light source from the first pixel from the left from the respective field angle boundaries.

以上より、イメージセンサ122で取得した画像信号と光通信センサ121で取得した通信情報を対応付けようとした場合、画素の投影サイズがセンサ間距離dとほぼ同等な距離(例えば、距離D1)においては画素位置のずれが生じることになるが、被写体がセンサ間距離dに比べ十分遠方に設置されている場合には、画素位置のずれは生じないことになる。   As described above, when an attempt is made to associate the image signal acquired by the image sensor 122 with the communication information acquired by the optical communication sensor 121, the projection size of the pixel is at a distance (for example, the distance D1) that is substantially equivalent to the inter-sensor distance d. However, if the subject is located far away from the inter-sensor distance d, the pixel position will not be displaced.

したがって、画素投影サイズ(すなわち、センサ間距離d)が無視できる程度に遠方に位置する被写体に関しては、あたかも、1つのセンサで画像取得と光通信を実行しているかの如くみなすことが可能になる。   Therefore, for a subject located far enough to ignore the pixel projection size (that is, the inter-sensor distance d), it can be regarded as if image acquisition and optical communication are being performed by one sensor. .

さらに、図10を参照して具体的に説明する。   Furthermore, a specific description will be given with reference to FIG.

図10の例においては、QVGA(Quarter Video Graphics Array)(すなわち、320×240画素)の解像度の光通信センサ121およびイメージセンサ122が、センサ間距離d=10mmでカメラボード111に配置され、光通信センサ121およびイメージセンサ122のそれぞれの画角α1およびα2=60度として光学系が調整された場合の例が示されている。   In the example of FIG. 10, an optical communication sensor 121 and an image sensor 122 having a resolution of QVGA (Quarter Video Graphics Array) (that is, 320 × 240 pixels) are disposed on the camera board 111 with a sensor distance d = 10 mm. An example in which the optical system is adjusted with the angles of view α1 and α2 = 60 degrees of the communication sensor 121 and the image sensor 122 is shown.

この場合、イメージセンサ122を起点とする視線161上の被写体(発信光源)の受光画素を考察すると、レンズ面L(図9)からの距離D=0.35mにおいて、発信光源Q1は、イメージセンサ122の画角境界132の左端からN=K番目の画素で受光され、光通信センサ121の画角境界131の左端からN=K+8番目の画素で受光される。したがって、距離D=0.35mにおいて、光通信センサ121およびイメージセンサ122の受光画素には、QVGA8画素(pixel)分のずれが生じる。   In this case, considering the light receiving pixel of the subject (transmitting light source) on the line of sight 161 starting from the image sensor 122, the transmitting light source Q1 is the image sensor 122 at a distance D = 0.35 m from the lens surface L (FIG. 9). Is received by the N = Kth pixel from the left end of the angle-of-view boundary 132, and received by the N = K + 8th pixel from the left end of the angle-of-view boundary 131 of the optical communication sensor 121. Therefore, at the distance D = 0.35 m, the light receiving pixels of the optical communication sensor 121 and the image sensor 122 are shifted by QVGA 8 pixels.

レンズ面Lからの距離D=0.7mにおいては、発信光源Q2は、イメージセンサ122の画角境界132の左端からN=K番目の画素で受光され、光通信センサ121の画角境界131の左端からN=K+4番目の画素で受光される。したがって、距離D=0.35mにおいて、光通信センサ121およびイメージセンサ122の受光画素には、QVGA4画素(pixel)分のずれが生じる。   At a distance D = 0.7 m from the lens surface L, the transmission light source Q2 is received by the N = K-th pixel from the left end of the field angle boundary 132 of the image sensor 122, and the left end of the field angle boundary 131 of the optical communication sensor 121. To N = K + 4th pixel. Therefore, at the distance D = 0.35 m, the light receiving pixels of the optical communication sensor 121 and the image sensor 122 are displaced by 4 QVGA pixels.

レンズ面Lからの距離D=1.4mにおいては、発信光源Q3は、イメージセンサ122の画角境界132の左端からN=K番目の画素で受光され、光通信センサ121の画角境界131の左端からN=K+2番目の画素で受光される。したがって、距離D=1.4mにおいては、光通信センサ121およびイメージセンサ122の受光画素には、QVGA2画素(pixel)分のずれが生じる。   At a distance D = 1.4 m from the lens surface L, the transmission light source Q3 is received by the N = K-th pixel from the left end of the view angle boundary 132 of the image sensor 122, and the left end of the view angle boundary 131 of the optical communication sensor 121. To N = K + the second pixel. Therefore, at the distance D = 1.4 m, the light receiving pixels of the optical communication sensor 121 and the image sensor 122 are displaced by QVGA 2 pixels.

レンズ面Lからの距離D=2.8mにおいては、発信光源Q4は、イメージセンサ122の画角境界132の左端からN=K番目の画素で受光され、光通信センサ121の画角境界131の左端からN=K+1番目の画素で受光される。したがって、距離D=2.8mにおいては、光通信センサ121およびイメージセンサ122の受光画素には、QVGA1画素(pixel)分のずれが生じる。   At a distance D = 2.8 m from the lens surface L, the transmission light source Q4 is received by the N = K-th pixel from the left end of the view angle boundary 132 of the image sensor 122, and the left end of the view angle boundary 131 of the optical communication sensor 121. To N = K + 1th pixel. Therefore, at the distance D = 2.8 m, the light receiving pixels of the optical communication sensor 121 and the image sensor 122 are shifted by QVGA 1 pixel.

レンズ面Lからの距離D=2.8mよりも無限遠方においては、発信光源Q5は、イメージセンサ122の画角境界132の左端からN=K番目の画素で受光され、光通信センサ121の画角境界131の左端からN=K番目の画素で受光される。したがって、距離D=2.8mよりも無限遠方においては、光通信センサ121およびイメージセンサ122の受光画素には、QVGA1画素(pixel)分のずれも生じない。   At an infinite distance from the distance D from the lens surface L = 2.8 m, the transmission light source Q5 is received by the N = Kth pixel from the left end of the field angle boundary 132 of the image sensor 122 and the field angle of the optical communication sensor 121. Light is received by the N = Kth pixel from the left end of the boundary 131. Therefore, at an infinite distance from the distance D = 2.8 m, the light receiving pixels of the optical communication sensor 121 and the image sensor 122 are not displaced by one QVGA pixel.

以上のように、距離D=2.8m以上においては、生じる画素のずれは、QVGA1画素以下のずれとなり、光通信センサ121およびイメージセンサ122の画素は、略1対1に対応しているとみなすことができる。   As described above, when the distance D is 2.8 m or more, the generated pixel shift is equal to or less than one QVGA pixel, and the pixels of the optical communication sensor 121 and the image sensor 122 are considered to correspond approximately one to one. be able to.

これにより、光通信センサ121およびイメージセンサ122が別々に備えられる携帯電話機71の場合、QVGAであれば、距離D=2.8m以上においては、あたかも、1つのセンサで画像取得と光通信を実行しているかの如くみなすことが可能になる。   Thus, in the case of the cellular phone 71 in which the optical communication sensor 121 and the image sensor 122 are separately provided, if it is QVGA, as long as the distance D = 2.8 m or more, image acquisition and optical communication are executed by one sensor. Can be regarded as if

また、その上、画像解像度も劣化することがないので、例えば、図6を参照して上述したように、イメージセンサ122で取得した画像信号に対応する画像91上に、光通信センサ121で取得した通信情報に基づく画像92−1および92−2を重畳してモニタ82に表示したとしても、画像信号に対応する画像91の位置と通信情報に基づく画像92−1および92−2の位置は、被写体の距離にもよるが、略正確に対応つけられる。   In addition, since the image resolution does not deteriorate, for example, as described above with reference to FIG. 6, the image is acquired by the optical communication sensor 121 on the image 91 corresponding to the image signal acquired by the image sensor 122. Even if the images 92-1 and 92-2 based on the communication information are superimposed and displayed on the monitor 82, the position of the image 91 corresponding to the image signal and the positions of the images 92-1 and 92-2 based on the communication information are Depending on the distance of the subject, it can be matched almost accurately.

これにより、発信光源を備えた複数の被写体を撮像し、発信光源を備えた被写体の画像と通信情報に基づく画像を重畳して、携帯電話機71のように、小さいモニタ82に表示させたとしても、画像における発信光源の位置と、例えば、通信情報に基づく画像(被写体の名前や説明文が記載される吹き出し型のアイコンの吹き出し口)の位置が略一致するので、ユーザはモニタ82を見ただけで、どのアイコンがどの発信光源(被写体)のものであるのかを間違いなく認識することができるようになる。   As a result, even if a plurality of subjects with a transmission light source are imaged and an image of the subject with the transmission light source and an image based on communication information are superimposed and displayed on a small monitor 82 like the mobile phone 71, The position of the transmission light source in the image and, for example, the position of the image based on the communication information (the balloon-shaped icon balloon in which the name and description of the subject are described) substantially match, so the user viewed the monitor 82 This makes it possible to definitely recognize which icon belongs to which transmission light source (subject).

図11は、図6の携帯電話機の内部構成例を示すブロック図である。   FIG. 11 is a block diagram showing an example of the internal configuration of the mobile phone shown in FIG.

図11の例においては、携帯電話機71は、図6のカメラ部81、モニタ82、および操作入力部83の他に、画像信号処理部211、デコード処理部212、およびアプリケーションプロセッサ213により構成されている。   In the example of FIG. 11, the mobile phone 71 includes an image signal processing unit 211, a decoding processing unit 212, and an application processor 213 in addition to the camera unit 81, the monitor 82, and the operation input unit 83 of FIG. 6. Yes.

なお、図11のカメラ部81においては、イメージセンサ122とレンズ112−2の間に、画質維持のための赤外線カットフィルタ221が配置されている。   In the camera unit 81 of FIG. 11, an infrared cut filter 221 for maintaining image quality is disposed between the image sensor 122 and the lens 112-2.

画像信号処理部211およびデコード処理部212は、DSP(Digital Signal Processor)などで構成される。画像信号処理部211は、イメージセンサ122からの生の画像信号(画像RAW信号)に対して、通常のイメージセンサの信号処理と同様に、カラー信号処理、ガンマ補正、AWB(オートホワイトバランス)、自動露出補正などの処理を行う。なお、イメージセンサ122からの出力は、デジタルでもアナログでもよく、アナログ出力の場合には、画像信号処理部211内にA/D(Analog to Digital)変換部が内蔵される。   The image signal processing unit 211 and the decoding processing unit 212 are configured by a DSP (Digital Signal Processor) or the like. The image signal processing unit 211 performs color signal processing, gamma correction, AWB (auto white balance), and the like on the normal image sensor signal processing for the raw image signal (image RAW signal) from the image sensor 122. Perform processing such as automatic exposure compensation. The output from the image sensor 122 may be digital or analog. In the case of analog output, an A / D (Analog to Digital) conversion unit is built in the image signal processing unit 211.

デコード処理部212は、光通信センサ121からの光点滅の検出有無を表すバイナリ信号(すなわち、光点滅検出信号)をデコードする処理を行う。図12を参照して、具体的に説明する。   The decode processing unit 212 performs a process of decoding a binary signal (that is, a light blinking detection signal) indicating whether or not light blinking is detected from the optical communication sensor 121. A specific description will be given with reference to FIG.

図12は、発信光源3から発せられる光信号、すなわち、点滅パターンとして送出されるデータフレームの構造を模式的に示している。   FIG. 12 schematically shows the structure of a data frame transmitted as an optical signal emitted from the transmission light source 3, that is, a blinking pattern.

1つのデータフレームは、8ビット(bit)のスタートビット、8乃至128ビット(bit)のアドレス、任意長の通信情報(データ)、16ビット(bit)の誤り検出ビット、および8ビット(bit)のストップビットにより構成されている。   One data frame includes an 8 bit start bit, an 8 to 128 bit address, an arbitrary length of communication information (data), a 16 bit error detection bit, and an 8 bit bit. Of stop bits.

デコード処理部212は、信号の先頭を示すスタートビットを検出し、スタートビットが検出された画素について、以後、その後ろの信号を読み取っていくことで、バイナリ信号をデコードする。   The decode processing unit 212 detects a start bit indicating the head of the signal, and subsequently reads a signal subsequent to the pixel from which the start bit is detected, thereby decoding the binary signal.

アプリケーションプロセッサ213は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)等を含んで構成され、操作入力部83を介して入力されるユーザの操作に対応する信号や、内蔵するメモリに記憶される各種のプログラムなどを実行することにより、携帯電話機71の各部を制御する。   The application processor 213 includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and responds to user operations input via the operation input unit 83. Each part of the cellular phone 71 is controlled by executing a signal to be executed and various programs stored in a built-in memory.

すなわち、アプリケーションプロセッサ213は、画像信号処理部211およびデコード処理部212に対して、同期信号(またはクロック信号)を供給している。   That is, the application processor 213 supplies a synchronization signal (or clock signal) to the image signal processing unit 211 and the decoding processing unit 212.

画像信号処理部211は、この同期信号から、イメージセンサ122を駆動させる駆動信号(タイミングパルス)を生成し、同期信号および駆動信号を、イメージセンサ122に供給しており、デコード処理部212は、同期信号から、光通信センサ121を駆動させる駆動信号(タイミングパルス)を生成し、同期信号および駆動信号を、光通信センサ121に供給している。   The image signal processing unit 211 generates a drive signal (timing pulse) for driving the image sensor 122 from the synchronization signal, and supplies the synchronization signal and the drive signal to the image sensor 122. The decode processing unit 212 A drive signal (timing pulse) for driving the optical communication sensor 121 is generated from the synchronization signal, and the synchronization signal and the drive signal are supplied to the optical communication sensor 121.

また、アプリケーションプロセッサ213には、画像信号処理部211からのリアルタイムの画像信号と、デコード処理部212からの、光信号を受信した画素の情報(以下、受信画素の情報と称する)と、デコードの結果得られた通信情報が入力される。アプリケーションプロセッサ213は、イメージセンサ122からの画像信号と光通信センサ121からの通信情報を対応付け、融合させることにより、さまざまな機能を実現する。   In addition, the application processor 213 includes a real-time image signal from the image signal processing unit 211, information on a pixel that has received the optical signal from the decoding processing unit 212 (hereinafter referred to as reception pixel information), and decoding. The communication information obtained as a result is input. The application processor 213 realizes various functions by associating and merging the image signal from the image sensor 122 and the communication information from the optical communication sensor 121.

具体的には、図11の例の場合、アプリケーションプロセッサ213は、所定のプログラムを実行することにより、内部に、画像重畳部231と画像生成部232を構成し、イメージセンサ122を構成する画素と光通信センサ121を構成する画素を1対1に対応付けして、イメージセンサ122からの画像信号と光通信センサ121からの通信情報を用いて、イメージセンサ122からの画像信号に対応する画像に、光通信センサ121からの通信情報に基づく画像を重ね合わせ、重ね合わせた画像をモニタ82に表示させる処理を行う。   Specifically, in the case of the example in FIG. 11, the application processor 213 executes a predetermined program to internally configure the image superimposing unit 231 and the image generating unit 232, and the pixels configuring the image sensor 122. The pixels constituting the optical communication sensor 121 are associated one-to-one, and an image corresponding to the image signal from the image sensor 122 is obtained using the image signal from the image sensor 122 and the communication information from the optical communication sensor 121. Then, the image based on the communication information from the optical communication sensor 121 is superposed, and the superposed image is displayed on the monitor 82.

画像生成部232は、デコードの結果得られた通信情報に基づいて、例えば、図6の被写体2−1の名前や説明文が記載される吹き出し型のアイコンである画像92−1や、被写体2−2の名前や説明文が記載される吹き出し型のアイコンである画像92−2を生成し、画像信号として画像重畳部231に出力する。なお、デコード処理部212からの受信画素の情報も、画像生成部232を介して画像重畳部231に供給される。   Based on the communication information obtained as a result of the decoding, the image generation unit 232, for example, the image 92-1 which is a balloon-type icon in which the name and description of the subject 2-1 in FIG. -2 is generated as an image signal, and is output to the image superimposing unit 231 as an image signal. Information on received pixels from the decoding processing unit 212 is also supplied to the image superimposing unit 231 via the image generating unit 232.

画像重畳部231は、デコード処理部212からの受信画素の情報に基づいて、画像信号処理部211からのリアルタイムの画像信号と、画像生成部232により生成された画像信号を重畳し、重畳した画像信号をモニタ82に出力し、重畳した画像信号に対応する画像をモニタ82に表示させる。   The image superimposing unit 231 superimposes the real-time image signal from the image signal processing unit 211 and the image signal generated by the image generation unit 232 on the basis of information on the received pixels from the decoding processing unit 212, and superimposes the image. The signal is output to the monitor 82, and an image corresponding to the superimposed image signal is displayed on the monitor 82.

すなわち、画像重畳部231は、イメージセンサ122を構成する画素と光通信センサ121を構成する画素を1対1に対応付けして、イメージセンサ122からの画像信号に対応する画像上における、光通信センサ121からの受信画素の情報が示す位置に、画像生成部232により生成された画像を重ね合わせて、モニタ82に表示させる。   That is, the image superimposing unit 231 associates the pixels constituting the image sensor 122 with the pixels constituting the optical communication sensor 121 on a one-to-one basis, and performs optical communication on the image corresponding to the image signal from the image sensor 122. The image generated by the image generation unit 232 is superimposed on the position indicated by the information of the received pixels from the sensor 121 and displayed on the monitor 82.

これにより、モニタ82には、図6を参照して上述したように、画像92−1として、被写体2−1の名前や説明文が記載される吹き出し型のアイコンが、発信光源3−1から吹き出しているように画像91上に配置されて表示され、画像92−2として、被写体2−2の名前や説明文が記載される吹き出し型のアイコンが、発信光源3−2から吹き出しているように画像91上に配置されて表示される。   As a result, as described above with reference to FIG. 6, a balloon-type icon on which the name and description of the subject 2-1 are written as the image 92-1 is displayed on the monitor 82 from the transmission light source 3-1. A balloon-type icon that is arranged and displayed on the image 91 as if it is ballooned and in which the name and description of the subject 2-2 are written as the image 92-2 appears to be ballooned from the transmission light source 3-2. Are arranged and displayed on the image 91.

なお、以上においては、光通信センサ121およびイメージセンサ122は同一基板(カメラモード111)に配置された例を説明したが、同一基板上である必要はなく、2つの独立したカメラモジュールを近接して配置する構成も可能である。   In the above description, the example in which the optical communication sensor 121 and the image sensor 122 are arranged on the same substrate (camera mode 111) has been described. However, the optical communication sensor 121 and the image sensor 122 do not have to be on the same substrate, and two independent camera modules are adjacent to each other. It is also possible to arrange them.

また、両センサ(光通信センサ121およびイメージセンサ122)の画素数(解像度)が同じである場合を説明したが、必ずしも同じである必要はない。すなわち、イメージセンサ122を100万画素以上のセンサで構成し、光通信センサ121をQVGA(7.7万画素)のように低解像度のセンサで構成するとして、組み合わせることもできる。   Moreover, although the case where the number of pixels (resolution) of both sensors (the optical communication sensor 121 and the image sensor 122) is the same was described, it does not necessarily need to be the same. In other words, the image sensor 122 may be configured with a sensor having 1 million pixels or more, and the optical communication sensor 121 may be configured with a low resolution sensor such as QVGA (77,000 pixels).

ただし、この場合、アプリケーションプロセッサ213におけるイメージセンサ122を構成する画素と光通信センサ121を構成する画素との対応付けは、2対1や3対1など両者の画素数に応じた比率で行われる。すなわち、アプリケーションプロセッサ213において、イメージセンサ122を構成する画素と光通信センサ121を構成する画素の対応付けは、1対1に限らず、イメージセンサ122を構成する画素群と光通信センサ121を構成する画素群とが1対1に対応つけられている。   However, in this case, the association between the pixels constituting the image sensor 122 and the pixels constituting the optical communication sensor 121 in the application processor 213 is performed at a ratio according to the number of pixels such as 2: 1 or 3: 1. . That is, in the application processor 213, the correspondence between the pixels constituting the image sensor 122 and the pixels constituting the optical communication sensor 121 is not limited to one-to-one, and the pixel group constituting the image sensor 122 and the optical communication sensor 121 are constituted. The corresponding pixel group is associated one-to-one.

次に、図13のフローチャートを参照して、図11のアプリケーションプロセッサ213による画像信号処理について説明する。なお、この画像信号処理は、ユーザにより、操作入力部83を構成する、カメラ起動ボタンなどが操作されることに対応して開始される処理である。   Next, image signal processing by the application processor 213 in FIG. 11 will be described with reference to the flowchart in FIG. This image signal process is a process that is started in response to a user operating a camera activation button or the like constituting the operation input unit 83.

アプリケーションプロセッサ213は、画像信号処理部211およびデコード処理部212に対して、同期信号(またはクロック信号)の供給を開始すると、画像信号処理部211は、その同期信号から、イメージセンサ122を駆動させる駆動信号(タイミングパルス)を生成し、同期信号および駆動信号をイメージセンサ122に供給し始める。   When the application processor 213 starts supplying the synchronization signal (or clock signal) to the image signal processing unit 211 and the decoding processing unit 212, the image signal processing unit 211 drives the image sensor 122 from the synchronization signal. A drive signal (timing pulse) is generated, and supply of the synchronization signal and the drive signal to the image sensor 122 is started.

イメージセンサ122は、画像信号処理部211からの同期信号および駆動信号に基づいて、レンズ112−2を介して、イメージセンサ122の画角境界132内に存在する被写体2−1および2−2の画像に対応する画像信号を取得し、取得した画像信号を画像信号処理部211に出力し始める。   Based on the synchronization signal and the drive signal from the image signal processing unit 211, the image sensor 122 passes through the lens 112-2 to detect the subjects 2-1 and 2-2 existing in the field angle boundary 132 of the image sensor 122. An image signal corresponding to the image is acquired, and output of the acquired image signal to the image signal processing unit 211 is started.

そこで、画像信号処理部211は、イメージセンサ122からの生の画像信号(画像RAW信号)に対して、通常のイメージセンサの信号処理と同様に、カラー信号処理、ガンマ補正、AWB(オートホワイトバランス)、自動露出補正などの処理を行う。   Therefore, the image signal processing unit 211 performs color signal processing, gamma correction, AWB (auto white balance) on the raw image signal (image RAW signal) from the image sensor 122 in the same manner as signal processing of a normal image sensor. ), Automatic exposure compensation, etc.

これに対応して、アプリケーションプロセッサ213の画像重畳部231は、ステップS11において、画像信号処理部211より、信号処理された画像信号を取り込む。   Correspondingly, the image superimposing unit 231 of the application processor 213 takes in the image signal subjected to signal processing from the image signal processing unit 211 in step S11.

一方、デコード処理部212は、アプリケーションプロセッサ213からの同期信号から、光通信センサ121を駆動させる駆動信号(タイミングパルス)を生成し、同期信号および駆動信号を、光通信センサ121に供給し始める。   On the other hand, the decode processing unit 212 generates a drive signal (timing pulse) for driving the optical communication sensor 121 from the synchronization signal from the application processor 213 and starts supplying the synchronization signal and the drive signal to the optical communication sensor 121.

光通信センサ121は、デコード処理部212からの同期信号および駆動信号に基づいて、レンズ112−1を介して、光通信センサ121の画角境界131内に存在する被写体2−1および2−2が備える発信光源3−1および3−2の点滅パターン22−1および22−2によりコード化された通信情報を検出し、その検出された情報(すなわち、光点滅の検出有無を表すバイナリ信号である、光点滅検出信号)を、デコード処理部212に出力し始める。   Based on the synchronization signal and the drive signal from the decoding processing unit 212, the optical communication sensor 121 passes through the lens 112-1 and the subjects 2-1 and 2-2 existing within the field angle boundary 131 of the optical communication sensor 121. Communication information encoded by the blinking patterns 22-1 and 22-2 of the transmission light sources 3-1 and 3-2 included in the information is detected, and the detected information (that is, a binary signal indicating the presence / absence of light blinking detection) is detected. A certain flashing detection signal) starts to be output to the decoding processing unit 212.

デコード処理部212は、光通信センサ121からの光点滅検出信号をデコードする処理を行う。すなわち、デコード処理部212は、光点滅検出信号の先頭を示すスタートビットを検出し、スタートビットが検出された画素について、以後、その後ろの信号を読み取っていくことで、バイナリ信号をデコードする。   The decode processing unit 212 performs a process of decoding the light blinking detection signal from the optical communication sensor 121. That is, the decoding processing unit 212 detects a start bit indicating the head of the light blinking detection signal, and subsequently decodes the binary signal by reading the signal after the pixel where the start bit is detected.

これに対応して、アプリケーションプロセッサ213の画像生成部232は、ステップS12において、デコード処理部212から、デコードの結果得られた通信情報を取得する。なお、このとき、画像生成部232は、光信号を受信した受信画素の情報も取得する。   In response to this, the image generation unit 232 of the application processor 213 acquires communication information obtained as a result of decoding from the decoding processing unit 212 in step S12. At this time, the image generation unit 232 also acquires information on the received pixel that has received the optical signal.

画像生成部232は、ステップS13において、デコード処理部212からの、デコードの結果得られた通信情報に基づいて、例えば、図6の被写体2−1の名前や説明文が記載される吹き出し型のアイコンである画像92−1や、被写体2−2の名前や説明文が記載される吹き出し型のアイコンである画像92−2を生成し、画像信号として画像重畳部231に出力する。なお、デコード処理部212からの信号を受信した画素の情報も、画像生成部232を介して画像重畳部231に出力される。   In step S13, the image generation unit 232, for example, based on the communication information obtained as a result of decoding from the decoding processing unit 212, for example, a balloon type in which the name and description of the subject 2-1 in FIG. An image 92-1 that is an icon and an image 92-2 that is a balloon-type icon in which the name and description of the subject 2-2 are written are generated and output to the image superimposing unit 231 as an image signal. Note that information on the pixel that has received the signal from the decoding processing unit 212 is also output to the image superimposing unit 231 via the image generating unit 232.

画像重畳部231は、ステップS14において、デコード処理部212からの受信画素の情報に基づいて、画像信号処理部211からのリアルタイムの画像信号と、画像生成部232により生成されたアイコンの画像信号を重畳し、重畳した画像信号をモニタ82に出力する。   In step S <b> 14, the image superimposing unit 231 receives the real-time image signal from the image signal processing unit 211 and the icon image signal generated by the image generation unit 232 based on the received pixel information from the decoding processing unit 212. The superimposed image signal is output to the monitor 82.

モニタ82は、ステップS15において、画像重畳部231からの画像信号に対応する画像を表示する。   In step S15, the monitor 82 displays an image corresponding to the image signal from the image superimposing unit 231.

すなわち、画像重畳部231は、ステップS14およびS15において、イメージセンサ122を構成する画素と光通信センサ121を構成する画素を1対1に対応付けして、イメージセンサ122からの画像信号に対応する画像上における、光通信センサ121からの受信画素の情報が示す位置に、画像生成部232により生成された画像を重ね合わせて、モニタ82に表示させる。   That is, the image superimposing unit 231 corresponds to the image signal from the image sensor 122 by associating the pixels constituting the image sensor 122 and the pixels constituting the optical communication sensor 121 in one-to-one correspondence in steps S14 and S15. The image generated by the image generation unit 232 is superimposed on the position indicated by the information of the received pixel from the optical communication sensor 121 on the image and displayed on the monitor 82.

これにより、モニタ82には、図6を参照して上述したように、画像92−1として、被写体2−1の名前や説明文が記載される吹き出し型のアイコンが、発信光源3−1から吹き出しているように画像91上に配置されて表示され、画像92−2として、被写体2−2の名前や説明文が記載される吹き出し型のアイコンが、発信光源3−2から吹き出しているように画像91上に配置されて表示される。   As a result, as described above with reference to FIG. 6, a balloon-type icon on which the name and description of the subject 2-1 are written as the image 92-1 is displayed on the monitor 82 from the transmission light source 3-1. A balloon-type icon that is arranged and displayed on the image 91 as if it is ballooned and in which the name and description of the subject 2-2 are written as the image 92-2 appears to be ballooned from the transmission light source 3-2. Are arranged and displayed on the image 91.

以上のように、光通信用のセンサと、画像取得用のセンサを別々に構成し、各センサの画角を合わせ、所定の距離だけ離して並べて配置し、画像取得用のセンサであるイメージセンサ122を構成する画素と、光通信用のセンサである光通信センサ121を構成する画素を(図13の場合、1対1に)対応付けて、信号処理(例えば、画像信号処理部211からのリアルタイムの画像信号と、画像生成部232により生成されたアイコンの画像信号との重畳処理)を行うようにした。   As described above, the sensor for optical communication and the sensor for image acquisition are configured separately, the angle of view of each sensor is matched, and they are arranged side by side by a predetermined distance, and the image sensor is an image acquisition sensor. The pixels constituting 122 and the pixels constituting the optical communication sensor 121, which is a sensor for optical communication, are associated with each other (one-to-one in the case of FIG. 13) to perform signal processing (for example, from the image signal processing unit 211). The real-time image signal and the image signal of the icon generated by the image generation unit 232 are superimposed).

これにより、画像品質を低下させることなく、画像取得と光通信を同時に行うことができるとともに、イメージセンサ122からの画像信号に対応する画像上の被写体の(発信光源)位置と、光通信センサ121からの受信画素の情報が示す位置を、略一致させることもできる。   Thus, image acquisition and optical communication can be performed simultaneously without degrading the image quality, and the position of the subject (transmitting light source) on the image corresponding to the image signal from the image sensor 122 and the optical communication sensor 121 are reduced. The positions indicated by the information of the received pixels from can be substantially matched.

したがって、例えば、発信光源を備えた複数の被写体に対して画像取得と光通信を行った場合に、光通信により受信された情報と、画像上の発信光源との対応付けを略正確なものとすることができるので、その後の処理(例えば、上述した重畳表示処理)の精度を向上させることができる。   Therefore, for example, when image acquisition and optical communication are performed on a plurality of subjects having a transmission light source, the correspondence between the information received by optical communication and the transmission light source on the image is substantially accurate. Therefore, the accuracy of subsequent processing (for example, the above-described superimposed display processing) can be improved.

なお、一般にイメージセンサは、昨今の多画素化、小サイズ化のトレンド(流行)のために、画素サイズをより小さくしようとする傾向があるが、微小な画素では、従来の画像取得モードと光通信モードを有するカメラの場合、高速なスキャン(掃引)動作が必要な光通信モードにおいて、十分な検出感度が得ることが困難であった。さらに、通常のイメージセンサでは、画質維持のために赤外線カットフィルタが光学系に挿入されるが、それを、例えば、従来の画像取得モードと光通信モードを有するカメラに適用した場合、光通信の媒体として、赤外線を用いることができなくなっていた。   In general, image sensors tend to reduce the pixel size due to the recent trend of increasing the number of pixels and the size (trend). In the case of a camera having a communication mode, it has been difficult to obtain sufficient detection sensitivity in an optical communication mode that requires a high-speed scanning (sweep) operation. Further, in an ordinary image sensor, an infrared cut filter is inserted into the optical system to maintain image quality. However, when it is applied to a camera having a conventional image acquisition mode and an optical communication mode, for example, Infrared rays could not be used as a medium.

また、図5を参照して上述したように、従来の画像取得モードと光通信モードを有するカメラの構成によるアプリケーション展開を考えた場合、画像取得フォーマット(画素数、センサのサイズ)などの選択の余地が狭くなったり、CCDイメージセンサを用いることが困難であったり、通常のイメージセンサで用いられた画像処理ソフトウエアなどをそのまま流用することができなかった。   In addition, as described above with reference to FIG. 5, when considering application development by the configuration of a camera having a conventional image acquisition mode and an optical communication mode, selection of an image acquisition format (number of pixels, sensor size), etc. The room is narrow, it is difficult to use a CCD image sensor, and image processing software used in a normal image sensor cannot be used as it is.

しかしながら、上述したように携帯電話機71を構成することにより、画像取得用のセンサを、CCDやCMOSなどの光通信用のセンサに拠らず、一般のイメージセンサで用いられているものや小サイズのものなどを自由に選択構成することができるとともに、それにより、光通信センサが設計上、機能上、制約を受けることもない。   However, by configuring the mobile phone 71 as described above, the image acquisition sensor does not depend on an optical communication sensor such as a CCD or a CMOS, but is used in a general image sensor or a small size. The optical communication sensor is not restricted in terms of design and function.

さらに、図11を参照して上述したように、画質維持のための赤外線カットフィルタ221を、イメージセンサ122の光学系のみに挿入すればよいので、光通信センサ121では、赤外線の受信が可能になる。すなわち、画像維持とともに、光通信の通信媒体として、可視光のみでなく、赤外線も使用することが可能になる。   Furthermore, as described above with reference to FIG. 11, since the infrared cut filter 221 for maintaining the image quality has only to be inserted into the optical system of the image sensor 122, the optical communication sensor 121 can receive infrared rays. Become. That is, it is possible to use not only visible light but also infrared rays as a communication medium for optical communication together with image maintenance.

また、イメージセンサ122とその後段の画像信号処理部211は、汎用のイメージセンサ用のチップセットを流用可能であり、さらに、画像に特化した部分であれば、アプリケーションプロセッサ中のプログラム資産も、汎用のイメージセンサなどのものが流用可能である。   In addition, the image sensor 122 and the image signal processing unit 211 in the subsequent stage can use a general-purpose image sensor chip set. A general-purpose image sensor or the like can be used.

以上により、アプリケーション開発の効率化も可能となり、開発にかかるコストを低減することができる。   As described above, it is possible to improve the efficiency of application development, and it is possible to reduce development costs.

図14は、図11の携帯電話機の内部構成の他の例を示すブロック図である。なお、図14の例において、カメラ部81、モニタ82、操作入力部83、画像信号処理部211、デコード処理部212、およびアプリケーションプロセッサ213を備える点は、図11の携帯電話機71と共通しているが、ズーム駆動部251−1および251−2が追加された点が異なる。   FIG. 14 is a block diagram showing another example of the internal configuration of the mobile phone shown in FIG. 14 includes the camera unit 81, the monitor 82, the operation input unit 83, the image signal processing unit 211, the decoding processing unit 212, and the application processor 213 in common with the mobile phone 71 of FIG. However, the difference is that zoom drive units 251-1 and 251-2 are added.

また、図14のアプリケーションプロセッサ213は、画像重畳部231および画像生成部232を備える点は、図11のアプリケーションプロセッサ213と共通しているが、ズーム制御信号出力部261が追加された点が異なる。   The application processor 213 in FIG. 14 is common to the application processor 213 in FIG. 11 in that the application processor 213 includes an image superimposing unit 231 and an image generation unit 232, but is different in that a zoom control signal output unit 261 is added. .

すなわち、図14の例の操作入力部83は、ユーザの操作に対応して、例えば、カメラ部81の光学ズームのズーム値をズーム制御信号出力部261に入力する。   That is, the operation input unit 83 in the example of FIG. 14 inputs, for example, the zoom value of the optical zoom of the camera unit 81 to the zoom control signal output unit 261 in response to a user operation.

ズーム制御信号出力部261は、操作入力部83を介して入力されるズーム値を、イメージセンサ122の光学ズーム値として設定し、設定した光学ズーム値(の制御信号)を、ズーム駆動部251−2に供給する。   The zoom control signal output unit 261 sets the zoom value input via the operation input unit 83 as the optical zoom value of the image sensor 122, and sets the set optical zoom value (control signal) to the zoom drive unit 251- 2 is supplied.

このとき、ズーム制御信号出力部261は、イメージセンサ122のレンズ112−2の駆動に連動させて、光通信センサ121のレンズ112−1も駆動するように、操作入力部83を介して入力されるズーム値に基づいて、光通信センサ121の光学ズーム値を設定し、設定した光学ズーム値を、ズーム駆動部251−1に供給する。   At this time, the zoom control signal output unit 261 is input via the operation input unit 83 so as to drive the lens 112-1 of the optical communication sensor 121 in conjunction with the driving of the lens 112-2 of the image sensor 122. Based on the zoom value to be set, the optical zoom value of the optical communication sensor 121 is set, and the set optical zoom value is supplied to the zoom drive unit 251-1.

ズーム駆動部251−1は、ズーム制御信号出力部261から供給される光通信センサ121の光学ズーム値に基づいて、光通信センサ121の光学系であるレンズ112−1の位置を駆動する。ズーム駆動部251−2は、ズーム制御信号出力部261から供給されるイメージセンサ122の光学ズーム値に基づいて、イメージセンサ122の光学系であるレンズ112−2の位置を駆動する。   The zoom drive unit 251-1 drives the position of the lens 112-1 that is the optical system of the optical communication sensor 121 based on the optical zoom value of the optical communication sensor 121 supplied from the zoom control signal output unit 261. The zoom drive unit 251-2 drives the position of the lens 112-2 that is the optical system of the image sensor 122 based on the optical zoom value of the image sensor 122 supplied from the zoom control signal output unit 261.

これにより、イメージセンサ122からは、光学ズーム値に基づいて拡大された画像信号が入力されるとともに、光通信センサ121からは、光学ズーム値に基づいて受光領域が縮小された画素で受光された通信情報が入力される。   As a result, an image signal enlarged based on the optical zoom value is input from the image sensor 122 and received from the optical communication sensor 121 by a pixel whose light receiving area is reduced based on the optical zoom value. Communication information is input.

なお、図14のアプリケーションプロセッサ213による画像処理は、図13を参照して上述した図11のアプリケーションプロセッサ213による画像処理と基本的に同様の処理であり、繰り返しになるのでその説明は省略する。   The image processing by the application processor 213 in FIG. 14 is basically the same processing as the image processing by the application processor 213 in FIG. 11 described above with reference to FIG.

また、図14の例において、光通信センサ121の光学系とイメージセンサ122の光学系を駆動させるズーム駆動部を、ズーム駆動部251−1および251−2として分けて構成するようにしたが、1つで2つの光学系を駆動させるように構成することもできる。   In the example of FIG. 14, the zoom drive unit that drives the optical system of the optical communication sensor 121 and the optical system of the image sensor 122 is configured separately as zoom drive units 251-1 and 251-2. One optical system can be configured to drive two optical systems.

次に、図15を参照して、2倍の光学ズームが設定された場合の画素のずれについて説明する。   Next, with reference to FIG. 15, the pixel shift when the double optical zoom is set will be described.

図15の例においては、図10を参照して上述したように、QVGAの解像度の光通信センサ121およびイメージセンサ122が、センサ間距離d=10mmでカメラボード111に配置され、光通信センサ121およびイメージセンサ122のそれぞれの画角α1およびα2=60度として光学系が調整された状態において、さらに、2倍の光学ズームが設定された場合の例が示されている。   In the example of FIG. 15, as described above with reference to FIG. 10, the optical communication sensor 121 and the image sensor 122 having the QVGA resolution are disposed on the camera board 111 with the inter-sensor distance d = 10 mm. In addition, an example is shown in which the optical zoom is further set in a state where the optical system is adjusted with the field angles α1 and α2 = 60 degrees of the image sensor 122, respectively.

すなわち、2倍の光学ズームの設定により、光通信センサ121およびイメージセンサ122のそれぞれの画角α1およびα2=30度となり、光通信センサ121の画角境界131(一点鎖線)は、光通信センサ121の光軸C1までの距離aが、その1/2の距離a/2となる画角境界281(太い一点鎖線)となり、イメージセンサ122の画角境界132(実線)は、イメージセンサ122の光軸C2までの距離bが、その1/2の距離b/2となる画角境界282(太線)となっている。   That is, by setting the optical zoom of 2 times, the angles of view α1 and α2 of the optical communication sensor 121 and the image sensor 122 become 30 degrees, respectively, and the angle of view boundary 131 (one-dot chain line) of the optical communication sensor 121 is the optical communication sensor. An angle of view boundary 281 (thick alternate long and short dash line) in which the distance a to the optical axis C1 of 121 becomes a distance a / 2 that is 1/2 of the distance a, and the angle of view boundary 132 (solid line) of the image sensor 122 is A field angle boundary 282 (thick line) in which the distance b to the optical axis C2 is a distance b / 2 that is ½ of the distance b.

この場合、レンズ面Lからの距離D=0.35mにおいて、光通信センサ121およびイメージセンサ122の受光画素には、QVGA16画素(pixel)分(すなわち、図10の2倍分)のずれが生じる。レンズ面Lからの距離D=0.7mにおいて、光通信センサ121およびイメージセンサ122の受光画素には、QVGA8画素(pixel)分(すなわち、図10の2倍分)のずれが生じる。なお、図15の例において、説明の便宜上、距離D=0.35mおよび距離D=0.7mの場合の詳細な図示は省略されている。   In this case, at the distance D = 0.35 m from the lens surface L, the light receiving pixels of the optical communication sensor 121 and the image sensor 122 are shifted by QVGA 16 pixels (that is, twice as much as in FIG. 10). At a distance D = 0.7 m from the lens surface L, the light receiving pixels of the optical communication sensor 121 and the image sensor 122 are shifted by QVGA 8 pixels (that is, twice as much as FIG. 10). In the example of FIG. 15, for the convenience of explanation, detailed illustration in the case of the distance D = 0.35 m and the distance D = 0.7 m is omitted.

レンズ面Lからの距離D=1.4mにおいては、イメージセンサ122の画角境界282の左端から1番目の画素が、光通信センサ121の画角境界281の左端から5番目の画素に対応している。すなわち、光通信センサ121およびイメージセンサ122の受光画素には、QVGA4画素(pixel)分(すなわち、図10の2倍分)のずれが生じる。   At the distance D = 1.4 m from the lens surface L, the first pixel from the left end of the view angle boundary 282 of the image sensor 122 corresponds to the fifth pixel from the left end of the view angle boundary 281 of the optical communication sensor 121. Yes. In other words, the light receiving pixels of the optical communication sensor 121 and the image sensor 122 are shifted by QVGA 4 pixels (that is, twice as large as that in FIG. 10).

レンズ面Lからの距離D=2.8mにおいては、イメージセンサ122の画角境界282の左端から1番目の画素が、光通信センサ121の画角境界281の左端から3番目の画素に対応している。すなわち、光通信センサ121およびイメージセンサ122の受光画素には、QVGA2画素(pixel)分(すなわち、図10の2倍分)のずれが生じる。   At the distance D = 2.8 m from the lens surface L, the first pixel from the left end of the view angle boundary 282 of the image sensor 122 corresponds to the third pixel from the left end of the view angle boundary 281 of the optical communication sensor 121. Yes. That is, the light receiving pixels of the optical communication sensor 121 and the image sensor 122 are shifted by two QVGA pixels (that is, twice as many as those in FIG. 10).

レンズ面Lからの距離D=2.8mよりも無限遠方においては、イメージセンサ122の画角境界282の左端から1番目の画素が、光通信センサ121の画角境界281の左端から1番目の画素に対応している。したがって、距離D=2.8mよりも無限遠方においては、光通信センサ121およびイメージセンサ122の受光画素には、QVGA1画素(pixel)分のずれも生じない。   At an infinite distance from the distance D from the lens surface L = 2.8 m, the first pixel from the left end of the view angle boundary 282 of the image sensor 122 is the first pixel from the left end of the view angle boundary 281 of the optical communication sensor 121. It corresponds to. Therefore, at an infinite distance from the distance D = 2.8 m, the light receiving pixels of the optical communication sensor 121 and the image sensor 122 are not displaced by one QVGA pixel.

以上のように、光通信センサ121とイメージセンサ122における同じ光源を受光する画素について、2倍の光学ズームを用いた場合、用いない場合よりも2倍の画素のずれが生じる。   As described above, with respect to the pixels that receive the same light source in the optical communication sensor 121 and the image sensor 122, when the double optical zoom is used, the pixel shift is twice that when the optical zoom is not used.

このようなずれの許容量は、光通信センサ121により受信された通信情報とイメージセンサ122が撮像した画像信号を用いる信号処理用のアプリケーションにより異なるが、例えば、携帯電話機71向けのアプリケーションにおいては、画素解像度があまり大きくなく、モニタ82の画面などが小さいなどのことから、数画素分のずれは、許容範囲とされる。   The allowable amount of such deviation varies depending on the application for signal processing using the communication information received by the optical communication sensor 121 and the image signal captured by the image sensor 122. For example, in the application for the mobile phone 71, Since the pixel resolution is not so large and the screen of the monitor 82 is small, a deviation of several pixels is allowed.

以上のように、カメラ部81に光学ズーム機能を備えた場合であっても、その光学ズームをイメージセンサ122と光通信センサ121で連動させることで、画角関係を維持することができるので、図11の携帯電話機71の場合と同様に、画像品質を低下させることなく、画像取得と光通信を同時に行うことができるとともに、イメージセンサ122からの画像信号に対応する画像上の被写体の(発信光源)位置と、光通信センサ121からの受信画素の情報が示す位置を、略一致させることもできる。   As described above, even when the camera unit 81 has an optical zoom function, the angle of view relationship can be maintained by linking the optical zoom with the image sensor 122 and the optical communication sensor 121. As in the case of the cellular phone 71 of FIG. 11, image acquisition and optical communication can be performed simultaneously without degrading the image quality, and the transmission of the subject on the image corresponding to the image signal from the image sensor 122 is transmitted. The position indicated by the information of the received pixel from the optical communication sensor 121 can be substantially matched.

これにより、カメラ部81に光学ズーム機能を備えた場合であっても、例えば、発信光源を備えた複数の被写体に対して画像取得と光通信を行った場合に、光通信により受信された情報と、画像上の発信光源との対応付けを略正確なものとすることができるので、その後の処理(例えば、上述した重畳表示処理)の精度を向上させることができる。   Thus, even when the camera unit 81 has an optical zoom function, for example, when image acquisition and optical communication are performed on a plurality of subjects having a transmission light source, information received by optical communication Since the correspondence with the transmission light source on the image can be made substantially accurate, the accuracy of the subsequent processing (for example, the above-described superimposed display processing) can be improved.

図16は、図14の携帯電話機の内部構成の他の例を示すブロック図である。なお、図16の例において、カメラ部81、モニタ82、操作入力部83、画像信号処理部211、デコード処理部212、アプリケーションプロセッサ213、およびズーム制御部251−2を備える点は、図14の携帯電話機71と共通しているが、ズーム制御部251−1が除かれた点が異なる。   FIG. 16 is a block diagram showing another example of the internal configuration of the mobile phone shown in FIG. 16 includes the camera unit 81, the monitor 82, the operation input unit 83, the image signal processing unit 211, the decoding processing unit 212, the application processor 213, and the zoom control unit 251-2. Although it is the same as that of the cellular phone 71, it is different in that the zoom control unit 251-1 is removed.

また、図16のアプリケーションプロセッサ213は、画像重畳部231、画像生成部232、およびズーム制御信号出力部261を備える点は、図14のアプリケーションプロセッサ213と共通しているが、対応画素換算部301が追加された点が異なる。   In addition, the application processor 213 in FIG. 16 is common to the application processor 213 in FIG. 14 in that it includes an image superimposing unit 231, an image generating unit 232, and a zoom control signal output unit 261. The point that is added is different.

すなわち、図16の例の操作入力部83は、ユーザの操作に対応して、例えば、カメラ部81の光学ズームのズーム値をズーム制御信号出力部261および対応画素換算部301に入力する。   That is, the operation input unit 83 in the example of FIG. 16 inputs, for example, the zoom value of the optical zoom of the camera unit 81 to the zoom control signal output unit 261 and the corresponding pixel conversion unit 301 in response to a user operation.

ズーム制御信号出力部261は、操作入力部83を介して入力されるズーム値を、イメージセンサ122の光学ズーム値として設定し、設定した光学ズーム値を、ズーム駆動部251−2に供給する。   The zoom control signal output unit 261 sets the zoom value input via the operation input unit 83 as the optical zoom value of the image sensor 122, and supplies the set optical zoom value to the zoom drive unit 251-2.

対応画素換算部301は、操作入力部83を介して入力されるズーム値に基づいて、イメージセンサ122の画素(番号)に対応する光通信センサ121の画素(番号)を算出し、算出した対応画素の情報を、画像重畳部231に供給する。   The corresponding pixel conversion unit 301 calculates the pixel (number) of the optical communication sensor 121 corresponding to the pixel (number) of the image sensor 122 based on the zoom value input via the operation input unit 83, and the calculated correspondence. Pixel information is supplied to the image superimposing unit 231.

画像重畳部231は、対応画素換算部301からの対応画素の情報と、デコード処理部212からの受信画素の情報に基づいて、画像信号処理部211からのリアルタイムの画像信号と、画像生成部232により生成された画像信号を重畳し、重畳した画像信号をモニタ82に出力し、重畳した画像信号に対応する画像をモニタ82に表示させる。   The image superimposing unit 231, based on the corresponding pixel information from the corresponding pixel conversion unit 301 and the received pixel information from the decoding processing unit 212, the real-time image signal from the image signal processing unit 211, and the image generation unit 232. The superimposed image signal is output to the monitor 82, and an image corresponding to the superimposed image signal is displayed on the monitor 82.

図17は、上述した図8においてイメージセンサ122のみが2倍の光学ズームが設定された場合の例が示されている。   FIG. 17 shows an example where only the image sensor 122 in FIG. 8 described above is set to double optical zoom.

光通信センサ121およびイメージセンサ122は、図8の場合と同様に、センサ間距離dだけ離して、各センサの中心点を通過する光軸C1およびC2が平行になるようにカメラボード111に配置されている。また、カメラ部81においては、イメージセンサ122に2倍光学ズームが設定されたことで、イメージセンサ122の画角α2は、光通信センサ121の画角α1の1/2となるように、カメラボード111から、それぞれのレンズ112−1および112−2のレンズ面L1およびL2までの距離(すなわち、焦点距離f1およびf2)が調整されている。   As in the case of FIG. 8, the optical communication sensor 121 and the image sensor 122 are arranged on the camera board 111 so that the optical axes C1 and C2 passing through the center points of the sensors are parallel to each other with a distance d between the sensors. Has been. Further, in the camera unit 81, since the 2 × optical zoom is set in the image sensor 122, the camera angle 81 of the image sensor 122 is set to ½ of the field angle α 1 of the optical communication sensor 121. The distances from the board 111 to the lens surfaces L1 and L2 of the lenses 112-1 and 112-2 (ie, focal lengths f1 and f2) are adjusted.

すなわち、図17の例の場合、イメージセンサ122の画角境界132による投影エリアが、光通信センサ121の画角境界131による投影エリアの1/2になっている。   That is, in the example of FIG. 17, the projection area by the field angle boundary 132 of the image sensor 122 is ½ of the projection area by the field angle boundary 131 of the optical communication sensor 121.

そこで、対応画素換算部301は、光通信センサ121の受光エリアの中心から半分のエリアを、情報抽出エリアEとし、この情報抽出エリアE内の画素を、イメージセンサ122の受光エリアの画素に対応させて、イメージセンサ122の画素に対応する光通信センサ121の画素番号を算出する。   Accordingly, the corresponding pixel conversion unit 301 sets an area half the center of the light receiving area of the optical communication sensor 121 as an information extraction area E, and the pixels in the information extraction area E correspond to the pixels of the light receiving area of the image sensor 122. The pixel number of the optical communication sensor 121 corresponding to the pixel of the image sensor 122 is calculated.

すなわち、対応画素換算部301は、光通信センサ121の画角境界131を、擬似的に、光通信センサ121の光軸C1までの距離aが、その1/2の距離a/2となる画角境界(以下、擬似画角境界とも称する)311(太い一点鎖線)として、画角境界132による投影エリアの画素を、擬似画角境界311による投影エリアの画素に対応させる。   That is, the corresponding pixel conversion unit 301 simulates the angle of view boundary 131 of the optical communication sensor 121 in an image in which the distance a to the optical axis C1 of the optical communication sensor 121 is ½ of the distance a / 2. As a corner boundary (hereinafter also referred to as a pseudo view angle boundary) 311 (thick one-dot chain line), the pixels in the projection area formed by the view angle boundary 132 correspond to the pixels in the projection area formed by the pseudo view angle boundary 311.

図18を参照して具体的に説明する。   This will be specifically described with reference to FIG.

図18の例においては、図10を参照して上述したように、QVGAの解像度の光通信センサ121およびイメージセンサ122が、センサ間距離d=10mmでカメラボード111に配置され、光通信センサ121およびイメージセンサ122のそれぞれの画角α1およびα2=60度として光学系が調整された状態において、さらに、イメージセンサ122にだけ、2倍の光学ズームが設定された場合の例が示されている。   In the example of FIG. 18, as described above with reference to FIG. 10, the optical communication sensor 121 and the image sensor 122 having the QVGA resolution are arranged on the camera board 111 with the inter-sensor distance d = 10 mm. In the state where the optical system is adjusted with the angle of view α1 and α2 = 60 degrees of the image sensor 122 and the image sensor 122, an example in which a double optical zoom is set only for the image sensor 122 is shown. .

すなわち、イメージセンサ122の2倍の光学ズームの設定により、イメージセンサ122の画角α2=30度となり、イメージセンサ122の画角境界132は、イメージセンサ122の光軸C2までの距離が、α2=60度の場合(すなわち、光通信センサ121)の1/2となっており、イメージセンサ122の画素投影サイズは、光通信センサ121の画素投影サイズの1/2となっている。   That is, by setting the optical zoom twice as large as that of the image sensor 122, the angle of view α2 of the image sensor 122 is 30 degrees, and the angle of view boundary 132 of the image sensor 122 has a distance of α2 In other words, the pixel projection size of the image sensor 122 is ½ of the pixel projection size of the optical communication sensor 121.

したがって、対応画素換算部301は、光通信センサ121の画角境界131を、擬似的に、光通信センサ121の光軸C1までの距離aが、その1/2の距離a/2となる擬似画角境界311として、イメージセンサ122の画角境界132による投影エリアの2画素(画角境界132の左端から1乃至320番目の2画素ずつ)を、擬似画角境界311による投影エリアの1画素(画角境界131の左端から81乃至240番目の1画素ずつ)に対応させる。   Therefore, the corresponding pixel conversion unit 301 simulates the field angle boundary 131 of the optical communication sensor 121 in a pseudo manner so that the distance a to the optical axis C1 of the optical communication sensor 121 is a distance a / 2 that is ½ of the distance a. As the angle-of-view boundary 311, two pixels in the projection area by the angle-of-view boundary 132 of the image sensor 122 (two pixels from 1 to 320 from the left end of the angle-of-view boundary 132) are used as one pixel of the projection area by the pseudo-angle boundary 311 Corresponding to each of the 81st to 240th pixels from the left end of the view angle boundary 131.

この場合、レンズ面Lからの距離D=1.4mにおいては、イメージセンサ122の画角境界132の左端から1および2番目の画素(黒丸囲み数字の1および2)が、光通信センサ121の画角境界131の左端から83番目の画素(白丸囲み数字の83)に対応している。この画素は、光通信センサ121の擬似画角境界311の左端から3番目の画素である。したがって、光通信センサ121およびイメージセンサ122の受光画素には、図15の例の場合同様に、イメージセンサ122の2倍ズーム時におけるQVGA4画素(pixel)分のずれが生じている。   In this case, at the distance D = 1.4 m from the lens surface L, the first and second pixels (black circled numbers 1 and 2) from the left end of the view angle boundary 132 of the image sensor 122 are the image of the optical communication sensor 121. This corresponds to the 83rd pixel from the left end of the corner boundary 131 (white circled numeral 83). This pixel is the third pixel from the left end of the pseudo view angle boundary 311 of the optical communication sensor 121. Therefore, as in the case of the example of FIG. 15, the light receiving pixels of the optical communication sensor 121 and the image sensor 122 are shifted by 4 pixels of QVGA when the image sensor 122 is double zoomed.

レンズ面Lからの距離D=2.8mにおいては、イメージセンサ122の画角境界132の左端から1乃至4番目の画素(黒丸囲み数字の1乃至4)が、光通信センサ121の画角境界131の左端から82および83番目の画素(白丸囲み数字の82および83)に対応している。これらの画素は、光通信センサ121の擬似画角境界311の左端から2および3番目の画素である。したがって、光通信センサ121およびイメージセンサ122の受光画素には、図15の例の場合同様に、イメージセンサ122の2倍ズーム時におけるQVGA2画素(pixel)分のずれが生じている。   At the distance D from the lens surface L = 2.8 m, the first to fourth pixels (black circled numbers 1 to 4) from the left end of the field angle boundary 132 of the image sensor 122 are the field angle boundary 131 of the optical communication sensor 121. Corresponds to the 82nd and 83rd pixels (white circled numbers 82 and 83) from the left end. These pixels are the second and third pixels from the left end of the pseudo view angle boundary 311 of the optical communication sensor 121. Therefore, as in the case of the example of FIG. 15, the light receiving pixels of the optical communication sensor 121 and the image sensor 122 are displaced by two QVGA pixels when the image sensor 122 is double zoomed.

レンズ面Lからの距離D=2.8mよりも無限遠方においては、イメージセンサ122の画角境界132の左端から1乃至4番目の画素(黒丸囲み数字の1乃至4)が、光通信センサ121の画角境界131の左端から81乃至82番目の画素(白丸囲み数字の81および82)に対応している。これらの画素は、光通信センサ121の擬似画角境界311の左端から1および2番目の画素である。したがって、距離D=2.8mよりも無限遠方においては、光通信センサ121およびイメージセンサ122の受光画素には、イメージセンサ122の2倍ズーム時におけるQVGA1画素(pixel)分のずれも生じない。   When the distance D from the lens surface L is infinitely farther than 2.8 m, the first to fourth pixels (black circled numbers 1 to 4) from the left end of the field angle boundary 132 of the image sensor 122 are the optical communication sensor 121. This corresponds to the 81st to 82nd pixels (white circled numbers 81 and 82) from the left end of the view angle boundary 131. These pixels are the first and second pixels from the left end of the pseudo view angle boundary 311 of the optical communication sensor 121. Accordingly, at an infinite distance from the distance D = 2.8 m, the light receiving pixels of the optical communication sensor 121 and the image sensor 122 are not displaced by one QVGA pixel when the image sensor 122 is double zoomed.

なお、図16のアプリケーションプロセッサ213においては、イメージセンサ122の画素と光通信センサ121の画素が2対1に対応つけられている。すなわち、ズームを行う場合には、イメージセンサ122を構成する画素と光通信センサ121を構成する画素との対応付けは、ズームの倍率に応じた比率で行われる。   In the application processor 213 of FIG. 16, the pixels of the image sensor 122 and the pixels of the optical communication sensor 121 are associated with each other on a two-to-one basis. That is, when zooming is performed, the pixels constituting the image sensor 122 and the pixels constituting the optical communication sensor 121 are associated with each other at a ratio corresponding to the zoom magnification.

以上のように、対応画素換算部301により、ズーム値(図18の例の場合、2倍)に基づいて、擬似画角境界311による投影エリアの画素(画角境界131の左端から81乃至240番目の画素)を、画角境界282による投影エリアの画素(画角境界282の左端から1乃至320番目の画素)に対応させるようにしたので、カメラ部81の光学ズーム機能を用いる際に、光通信センサ121とイメージセンサ122の光学ズームを連動させなくても、光通信センサ121とイメージセンサ122の光学ズームを連動させる場合と同様の効果を得ることができる。   As described above, the corresponding pixel conversion unit 301 uses the zoom value (in the example of FIG. 18, doubled) to project the pixels in the projection area by the pseudo view angle boundary 311 (81 to 240 from the left end of the view angle boundary 131). The second pixel) is made to correspond to the pixel in the projection area by the angle of view boundary 282 (the first to 320th pixels from the left end of the angle of view boundary 282), so when using the optical zoom function of the camera unit 81, Even if the optical zoom of the optical communication sensor 121 and the image sensor 122 is not linked, the same effect as when the optical zoom of the optical communication sensor 121 and the image sensor 122 is linked can be obtained.

すなわち、カメラ部81に光学ズーム機能を備えた場合であっても、その光学ズームをイメージセンサ122と光通信センサ121で連動させることなく、イメージセンサ122の光学ズームの値さえわかれば、その光学ズームの値に基づいて、画素のずれを算出することで、画角関係を維持することができるので、図11の携帯電話機71の場合と同様に、画像品質を低下させることなく、画像取得と光通信を同時に行うことができるとともに、イメージセンサ122からの画像信号に対応する画像上の被写体の(発信光源)位置と、光通信センサ121からの受信画素の情報が示す位置を、略一致させることもできる。   That is, even if the camera unit 81 has an optical zoom function, the optical zoom is not necessary if the optical zoom value of the image sensor 122 is known without interlocking the optical zoom between the image sensor 122 and the optical communication sensor 121. By calculating the pixel shift based on the zoom value, it is possible to maintain the field angle relationship. Therefore, as in the case of the mobile phone 71 of FIG. Optical communication can be performed at the same time, and the position of the subject (transmitting light source) on the image corresponding to the image signal from the image sensor 122 and the position indicated by the information of the received pixel from the optical communication sensor 121 are substantially matched. You can also

次に、図19のフローチャートを参照して、図16のアプリケーションプロセッサ213による画像信号処理について説明する。なお、図19のステップS33乃至S35およびステップS37は、図13のステップS11乃至S13およびステップS15と基本的に同じ処理であり、繰り返しになるので、その詳細な説明は適宜省略する。   Next, image signal processing by the application processor 213 in FIG. 16 will be described with reference to the flowchart in FIG. Note that steps S33 to S35 and step S37 in FIG. 19 are basically the same processes as steps S11 to S13 and step S15 in FIG. 13 and are repeated, and thus detailed description thereof will be omitted as appropriate.

例えば、ユーザは、図13のステップS15においてモニタ82に表示される画像を拡大して表示させるため、操作入力部83を構成するズームボタンなどを操作する。操作入力部83は、ユーザの操作に対応して、ユーザ所望のズーム値をズーム制御信号出力部261および対応画素換算部301に入力する。   For example, the user operates a zoom button or the like constituting the operation input unit 83 in order to enlarge and display the image displayed on the monitor 82 in step S15 of FIG. The operation input unit 83 inputs a zoom value desired by the user to the zoom control signal output unit 261 and the corresponding pixel conversion unit 301 in response to a user operation.

ズーム制御信号出力部261は、ステップS31において、操作入力部83から入力されるズーム値を、イメージセンサ122の光学ズーム値として設定し、設定した光学ズーム値を、ズーム駆動部251−2に供給する。   In step S31, the zoom control signal output unit 261 sets the zoom value input from the operation input unit 83 as the optical zoom value of the image sensor 122, and supplies the set optical zoom value to the zoom drive unit 251-2. To do.

これに対応して、ズーム駆動部251−2は、ズーム制御信号出力部261から供給されるイメージセンサ122の光学ズーム値に基づいて、イメージセンサ122の光学系であるレンズ112−2の位置を駆動する。   In response to this, the zoom drive unit 251-2 determines the position of the lens 112-2 that is the optical system of the image sensor 122 based on the optical zoom value of the image sensor 122 supplied from the zoom control signal output unit 261. To drive.

対応画素換算部301は、ステップS32において、操作入力部83から入力されるズーム値に基づいて、イメージセンサ122の画素に対応する光通信センサ121の画素を算出し、算出した対応画素の情報を、画像重畳部231に供給する。   In step S <b> 32, the corresponding pixel conversion unit 301 calculates the pixel of the optical communication sensor 121 corresponding to the pixel of the image sensor 122 based on the zoom value input from the operation input unit 83, and uses the calculated corresponding pixel information. And supplied to the image superimposing unit 231.

一方、イメージセンサ122は、画像信号処理部211からの同期信号および駆動信号に基づいて、ズーム駆動部251により光学ズーム値に基づき位置が駆動されたレンズ112−2を介して、イメージセンサ122の画角境界132内に存在する被写体2−1および2−2の画像に対応する画像信号を取得し、取得した画像信号を画像信号処理部211に出力している。   On the other hand, the image sensor 122 is connected to the image sensor 122 via the lens 112-2 whose position is driven based on the optical zoom value by the zoom driving unit 251 based on the synchronization signal and the driving signal from the image signal processing unit 211. Image signals corresponding to the images of the subjects 2-1 and 2-2 existing within the view angle boundary 132 are acquired, and the acquired image signals are output to the image signal processing unit 211.

画像信号処理部211は、イメージセンサ122からの生の画像信号に対して、通常のイメージセンサの信号処理と同様に、カラー信号処理、ガンマ補正、AWB、自動露出補正などの処理を行っている。   The image signal processing unit 211 performs processing such as color signal processing, gamma correction, AWB, and automatic exposure correction on the raw image signal from the image sensor 122 in the same manner as normal image sensor signal processing. .

これに対応して、アプリケーションプロセッサ213の画像重畳部231は、ステップS33において、画像信号処理部211より、信号処理された画像信号を取り込む。   In response to this, the image superimposing unit 231 of the application processor 213 takes in the image signal subjected to signal processing from the image signal processing unit 211 in step S33.

また、光通信センサ121は、デコード処理部212からの同期信号および駆動信号に基づいて、レンズ112−1を介して、光通信センサ121の画角境界131内に存在する被写体2−1および2−2が備える発信光源3−1および3−2の点滅パターン22−1および22−2によりコード化された通信情報を検出し、その光点滅検出信号を、デコード処理部212に出力している。   Further, the optical communication sensor 121 receives the subjects 2-1 and 2 existing in the field angle boundary 131 of the optical communication sensor 121 via the lens 112-1, based on the synchronization signal and the drive signal from the decoding processing unit 212. -2 detects the communication information encoded by the blinking patterns 22-1 and 22-2 of the transmission light sources 3-1 and 3-2 included in -2, and outputs the light blinking detection signal to the decoding processing unit 212. .

デコード処理部212は、光通信センサ121からの光点滅の検出有無を表すバイナリ信号(すなわち、光点滅検出信号)をデコードしている。   The decode processing unit 212 decodes a binary signal (that is, a light blinking detection signal) indicating whether or not light blinking is detected from the optical communication sensor 121.

これに対応して、アプリケーションプロセッサ213の画像生成部232は、ステップS34において、デコード処理部212から、デコードの結果得られた通信情報を取得する。なお、このとき、画像生成部232は、光信号を受信した受信画素の情報も取得する。   In response to this, the image generation unit 232 of the application processor 213 acquires communication information obtained as a result of decoding from the decoding processing unit 212 in step S34. At this time, the image generation unit 232 also acquires information on the received pixel that has received the optical signal.

画像生成部232は、ステップS35において、デコード処理部212からの、デコードの結果得られた通信情報に基づいて、例えば、アイコンなどの画像を生成し、画像信号として画像重畳部231に出力する。なお、デコード処理部212からの受信画素の情報も、画像生成部232を介して画像重畳部231に出力される。   In step S35, the image generation unit 232 generates an image such as an icon based on the communication information obtained as a result of decoding from the decoding processing unit 212, and outputs the image as an image signal to the image superimposing unit 231. Note that received pixel information from the decoding processing unit 212 is also output to the image superimposing unit 231 via the image generating unit 232.

画像重畳部231は、ステップS36において、イメージセンサ122を構成する画素と光通信センサ121を構成する画素を2対1に対応付けして、対応画素換算部301により算出された対応画素の情報と、デコード処理部212からの画素の情報に基づいて、画像信号処理部211からのリアルタイムの画像信号と、画像生成部232により生成されたアイコンの画像信号を重畳し、重畳した画像信号をモニタ82に出力する。   In step S <b> 36, the image superimposing unit 231 associates the pixels constituting the image sensor 122 and the pixels constituting the optical communication sensor 121 in a two-to-one relationship with the corresponding pixel information calculated by the corresponding pixel conversion unit 301. Based on the pixel information from the decode processing unit 212, the real-time image signal from the image signal processing unit 211 and the image signal of the icon generated by the image generation unit 232 are superimposed, and the superimposed image signal is monitored 82. Output to.

モニタ82は、ステップS37において、画像重畳部231からの画像信号に対応する画像を表示する。   In step S <b> 37, the monitor 82 displays an image corresponding to the image signal from the image superimposing unit 231.

以上のように、カメラ部81に光学ズーム機能を備えた場合であっても、その光学ズームをイメージセンサ122と光通信センサ121で連動させたり、あるいは、イメージセンサ122の光学ズームに基づく、光通信センサ121の画素を、イメージセンサ122の画素に対応させることで、画角関係が維持されるので、図11の携帯電話機71の場合と同様に、画像品質を低下させることなく、画像取得と光通信を同時に行うことができる。   As described above, even when the camera unit 81 has an optical zoom function, the optical zoom is linked by the image sensor 122 and the optical communication sensor 121, or the light based on the optical zoom of the image sensor 122 is used. Since the field angle relationship is maintained by making the pixels of the communication sensor 121 correspond to the pixels of the image sensor 122, as in the case of the mobile phone 71 of FIG. Optical communication can be performed simultaneously.

なお、上記説明においては、発信光源を2つのセンサ(イメージセンサ122と光通信センサ121)からある程度遠方に配置させることで、2つのセンサの画素ずれを無視できる場合に効果的な例を説明したが、これは、携帯電話機71のイメージセンサ122とモニタ82の解像度があまり高くない場合が多いことや、ユーザから離れた位置の発信光源を撮像する場合が多いことを想定したためである。   In the above description, an effective example has been described in which the transmission light source is disposed at some distance from the two sensors (the image sensor 122 and the optical communication sensor 121) so that the pixel shift between the two sensors can be ignored. However, this is because it is assumed that the resolution of the image sensor 122 and the monitor 82 of the mobile phone 71 is not so high in many cases, and that the transmitted light source at a position away from the user is often imaged.

したがって、発信光源が2つのセンサの近傍に配置された場合、あるいは、イメージセンサ122とモニタ82の解像度が高く、2つのセンサの画素ずれが目立つような場合には、2つのセンサの画素ずれを補正する必要がある。   Therefore, when the transmission light source is arranged in the vicinity of the two sensors, or when the resolution of the image sensor 122 and the monitor 82 is high and the pixel shift between the two sensors is conspicuous, the pixel shift between the two sensors is reduced. It is necessary to correct.

図20は、2つのセンサの画素ずれを補正する場合の図11の携帯電話機の内部構成例を示している。なお、図20の例において、カメラ部81、モニタ82、操作入力部83、画像信号処理部211、デコード処理部212、およびアプリケーションプロセッサ213を備える点は、図11の携帯電話機71と共通している。   FIG. 20 shows an example of the internal configuration of the mobile phone of FIG. 11 when correcting the pixel shift between the two sensors. In the example of FIG. 20, the camera unit 81, the monitor 82, the operation input unit 83, the image signal processing unit 211, the decoding processing unit 212, and the application processor 213 are common to the mobile phone 71 of FIG. Yes.

また、図20のアプリケーションプロセッサ213は、画像重畳部231および画像生成部232を備える点は、図11のアプリケーションプロセッサ213と共通しているが、画像認識部331およびずれ補正量算出部332が追加された点が異なる。   The application processor 213 in FIG. 20 includes the image superimposing unit 231 and the image generation unit 232 in common with the application processor 213 in FIG. 11, but the image recognition unit 331 and the deviation correction amount calculation unit 332 are added. The difference was made.

画像認識部331は、画像信号処理部211から信号処理後の画像信号を取り込み、画像認識を行うことで、発信光源の位置(結像する画素)を算出し、算出した発信光源の位置をずれ補正算出部332に供給する。具体的には、発信光源の像は、その周辺の像に対してピーク上に光の輝度値が高くなるので、画像認識部331は、隣接する画素の輝度信号に対して特異的に信号強度が高くなる画素を、差分演算処理により抽出して、発信光源の位置を算出する。   The image recognizing unit 331 takes in the image signal after the signal processing from the image signal processing unit 211 and performs image recognition, thereby calculating the position of the transmission light source (pixel to be imaged) and shifting the calculated position of the transmission light source. This is supplied to the correction calculation unit 332. Specifically, since the image of the transmission light source has a light luminance value higher on the peak than the surrounding image, the image recognizing unit 331 has a signal intensity specific to the luminance signal of the adjacent pixel. The pixel having a higher value is extracted by the difference calculation process, and the position of the transmission light source is calculated.

ずれ補正算出部332は、デコード処理部212から、光信号を受信した受信画素の情報(すなわち、発信光源を結像した画素)を取得し、画像認識部331からの発信光源の位置と比較し、比較することで求められたそれらの画素ずれの補正量を算出し、算出した画素ずれの補正量を画像重畳部231に供給する。   The deviation correction calculation unit 332 acquires information on the received pixel that has received the optical signal (that is, the pixel on which the light source is imaged) from the decode processing unit 212 and compares it with the position of the light source from the image recognition unit 331. Then, the correction amount of the pixel shift obtained by the comparison is calculated, and the calculated correction amount of the pixel shift is supplied to the image superimposing unit 231.

なお、発信光源が画角中に複数存在する場合、ずれ補正算出部332は、光通信センサ121による複数の発信光源の位置とイメージセンサ122による複数の発信光源の位置のうち、最も近いもの同士を対応する発信光源とみなして、画素ずれの補正量を算出する。   When there are a plurality of transmission light sources in the angle of view, the deviation correction calculation unit 332 has the closest of the positions of the plurality of transmission light sources by the optical communication sensor 121 and the positions of the plurality of transmission light sources by the image sensor 122. As a corresponding transmission light source, a pixel shift correction amount is calculated.

画像重畳部231は、デコード処理部212からの受信画素の情報と、ずれ補正算出部332からの画素ずれ補正量に基づいて、画像信号処理部211からのリアルタイムの画像信号と、画像生成部232により生成された画像信号を重畳し、重畳した画像信号をモニタ82に出力し、重畳した画像信号に対応する画像をモニタ82に表示させる。   The image superimposing unit 231 receives the real-time image signal from the image signal processing unit 211 and the image generation unit 232 based on the received pixel information from the decoding processing unit 212 and the pixel shift correction amount from the shift correction calculation unit 332. The superimposed image signal is output to the monitor 82, and an image corresponding to the superimposed image signal is displayed on the monitor 82.

次に、図21のフローチャートを参照して、図20のアプリケーションプロセッサ213による画像信号処理について説明する。なお、図21のステップS51,S52,S55,およびS57は、図13のステップS11乃至S13,およびS15と基本的に同じ処理であり、繰り返しになるので、その詳細な説明は適宜省略する。   Next, image signal processing by the application processor 213 in FIG. 20 will be described with reference to the flowchart in FIG. Note that steps S51, S52, S55, and S57 in FIG. 21 are basically the same processes as steps S11 to S13, and S15 in FIG. 13 and are repeated, and thus detailed description thereof will be omitted as appropriate.

イメージセンサ122は、画像信号処理部211からの同期信号および駆動信号に基づいて、レンズ112−2を介して、イメージセンサ122の画角境界132内に存在する被写体2−1および2−2の画像に対応する画像信号を取得し、取得した画像信号を画像信号処理部211に出力しており、画像信号処理部211は、イメージセンサ122からの生の画像信号に対して、通常のイメージセンサの信号処理と同様に、カラー信号処理、ガンマ補正、AWB、自動露出補正などの処理を行っている。   Based on the synchronization signal and the drive signal from the image signal processing unit 211, the image sensor 122 passes through the lens 112-2 to detect the subjects 2-1 and 2-2 existing in the field angle boundary 132 of the image sensor 122. The image signal corresponding to the image is acquired, and the acquired image signal is output to the image signal processing unit 211. The image signal processing unit 211 is a normal image sensor for the raw image signal from the image sensor 122. Similar to the signal processing, color signal processing, gamma correction, AWB, automatic exposure correction, and other processing are performed.

これに対応して、アプリケーションプロセッサ213の画像重畳部231および画像認識部331は、ステップS51において、画像信号処理部211より、信号処理された画像信号を取り込む。   In response to this, the image superimposing unit 231 and the image recognizing unit 331 of the application processor 213 fetch the image signal subjected to signal processing from the image signal processing unit 211 in step S51.

一方、光通信センサ121は、デコード処理部212からの同期信号および駆動信号に基づいて、レンズ112−1を介して、光通信センサ121の画角境界131内に存在する被写体2−1および2−2が備える発信光源3−1および3−2の点滅パターン22−1および22−2によりコード化された通信情報を検出し、その光点滅検出信号を、デコード処理部212に出力しており、デコード処理部212は、光通信センサ121からの光点滅の検出有無を表す光点滅検出信号をデコードしている。   On the other hand, the optical communication sensor 121 receives the subjects 2-1 and 2 existing in the field angle boundary 131 of the optical communication sensor 121 via the lens 112-1, based on the synchronization signal and the drive signal from the decoding processing unit 212. -2 detects the communication information encoded by the blinking patterns 22-1 and 22-2 of the transmission light sources 3-1 and 3-2 included in -2, and outputs the light blinking detection signal to the decode processing unit 212. The decoding processing unit 212 decodes a light blinking detection signal indicating whether or not light blinking is detected from the optical communication sensor 121.

これに対応して、アプリケーションプロセッサ213の画像生成部232は、ステップS52において、デコード処理部212から、デコードの結果得られた通信情報を取得する。なお、このとき、画像生成部232およびずれ補正算出部332は、光信号を受信した受信画素の情報を取得する。   In response to this, the image generation unit 232 of the application processor 213 acquires communication information obtained as a result of decoding from the decoding processing unit 212 in step S52. At this time, the image generation unit 232 and the deviation correction calculation unit 332 acquire information on the reception pixel that has received the optical signal.

画像認識部331は、ステップS53において、画像信号処理部211からの画像信号を用いて、画像認識を行うことで、発信光源の位置(結像する画素)を算出し、算出した発信光源の位置をずれ補正算出部332に供給する。   In step S53, the image recognition unit 331 performs image recognition using the image signal from the image signal processing unit 211, thereby calculating the position of the transmission light source (pixel to be imaged), and the calculated position of the transmission light source. Is supplied to the deviation correction calculation unit 332.

ずれ補正算出部332は、ステップS54において、デコード処理部212からの、光信号を受信した受信画素(すなわち、発信光源を結像した画素)と、画像認識部331からの発信光源の位置と比較し、比較することで求められたそれらの画素ずれの補正量を算出し、算出した画素ずれの補正量を画像重畳部231に供給する。   In step S54, the deviation correction calculation unit 332 compares the received pixel (that is, the pixel on which the transmission light source is imaged) that received the optical signal from the decoding processing unit 212 with the position of the transmission light source from the image recognition unit 331. Then, the correction amount of the pixel shift obtained by the comparison is calculated, and the calculated correction amount of the pixel shift is supplied to the image superimposing unit 231.

画像生成部232は、ステップS55において、デコード処理部212からの、デコードの結果得られた通信情報に基づいて、例えば、アイコンの画像を生成し、画像信号として画像重畳部231に出力する。なお、デコード処理部212からの信号を受信した受信画素の情報も、画像生成部232を介して画像重畳部231に供給される。   In step S55, the image generation unit 232 generates, for example, an icon image based on the communication information obtained as a result of decoding from the decoding processing unit 212, and outputs the image as an image signal to the image superimposing unit 231. Note that information on the received pixel that has received the signal from the decoding processing unit 212 is also supplied to the image superimposing unit 231 via the image generating unit 232.

画像重畳部231は、ステップS56において、イメージセンサ122を構成する画素と光通信センサ121を構成する画素を1対1に対応付けして、デコード処理部212からの画素の情報と、ずれ補正算出部332からの画素ずれ補正量に基づいて、画像信号処理部211からのリアルタイムの画像信号と、画像生成部232により生成されたアイコンの画像信号を重畳し、重畳した画像信号をモニタ82に出力する。   In step S56, the image superimposing unit 231 associates the pixels constituting the image sensor 122 and the pixels constituting the optical communication sensor 121 on a one-to-one basis, and information on the pixels from the decoding processing unit 212 and shift correction calculation. Based on the pixel shift correction amount from the unit 332, the real-time image signal from the image signal processing unit 211 and the image signal of the icon generated by the image generation unit 232 are superimposed, and the superimposed image signal is output to the monitor 82. To do.

モニタ82は、ステップS57において、画像重畳部231からの画像信号に対応する画像を表示する。   In step S57, the monitor 82 displays an image corresponding to the image signal from the image superimposing unit 231.

以上のように、発信光源(被写体)が2つのセンサの近傍に配置されている場合、あるいは、イメージセンサ122とモニタ82の解像度が高く、2つのセンサの画素ずれが目立つような場合であっても、2つのセンサの画素ずれを補正するようにしたので、イメージセンサ122で取得した画像信号と、光通信センサ121で取得した通信情報の対応付けがより正確なものとなる。   As described above, the transmission light source (subject) is disposed in the vicinity of the two sensors, or the resolution of the image sensor 122 and the monitor 82 is high and the pixel shift between the two sensors is conspicuous. In addition, since the pixel shift between the two sensors is corrected, the correspondence between the image signal acquired by the image sensor 122 and the communication information acquired by the optical communication sensor 121 becomes more accurate.

したがって、画像品質を低下させることなく、画像取得と光通信を同時に行うことができるとともに、イメージセンサ122からの画像信号に対応する画像上の被写体の(発信光源)位置と、光通信センサ121からの受信画素の情報が示す位置を、被写体の距離に拠らず、略一致させることもできる。   Accordingly, image acquisition and optical communication can be performed simultaneously without degrading the image quality, and the position of the subject (transmitting light source) on the image corresponding to the image signal from the image sensor 122 and the optical communication sensor 121 The positions indicated by the information of the received pixels can be substantially matched regardless of the distance of the subject.

これにより、例えば、発信光源を備えた複数の被写体に対して画像取得と光通信を行った場合に、光通信により受信された情報と、画像上の発信光源との対応付けを、被写体の距離に拠らず略正確なものとすることができるので、その後の処理(例えば、上述した重畳表示処理)の精度を向上させることができる。   Thus, for example, when image acquisition and optical communication are performed on a plurality of subjects having a transmission light source, the correspondence between the information received by the optical communication and the transmission light source on the image is determined as the subject distance. Therefore, the accuracy of the subsequent processing (for example, the above-described superimposition display processing) can be improved.

なお、図20および図21の説明においては、イメージセンサ122を構成する画素と光通信センサ121を構成する画素を1対1に対応付けする場合を説明したが、上述したように、このずれ補正は、画素数や倍率に応じた比率で対応付けする場合にも適用できる。   In the description of FIG. 20 and FIG. 21, the case where the pixels configuring the image sensor 122 and the pixels configuring the optical communication sensor 121 are associated with each other one to one has been described. Can also be applied in the case of matching at a ratio according to the number of pixels and the magnification.

ここで、上記説明においては、イメージセンサ122を構成する画素と光通信センサ121を構成する画素を対応付けして、光通信により受信された情報と、撮像された画像信号を用いた処理を行う例として、撮像された画像上に、光通信により受信された情報に基づくアイコン画像を表示させる例を説明したが、光通信により受信された情報と、撮像された画像信号を用いた処理であれば、上述した例に限らない。   Here, in the above description, the pixels constituting the image sensor 122 and the pixels constituting the optical communication sensor 121 are associated with each other, and processing using information received through optical communication and the captured image signal is performed. As an example, an example in which an icon image based on information received by optical communication is displayed on a captured image has been described. However, the processing using information received by optical communication and a captured image signal may be used. For example, the present invention is not limited to the example described above.

例えば、発信光源を携帯した人物を撮像する場合に、光通信により受信された情報と、撮像された画像上の発信光源との対応付けを行うことで、光通信により受信された情報が、どの人物が発信したものであるかを通知させることも可能である。   For example, when imaging a person carrying a transmission light source, the information received by optical communication is associated with the information received by optical communication and the transmission light source on the captured image. It is also possible to notify whether a person has sent.

図22は、図11のアプリケーションプロセッサの構成の他の例を示している。なお、図20の例において、カメラ部81、モニタ82、操作入力部83、画像信号処理部211、デコード処理部212、およびアプリケーションプロセッサ213を備える点は、図11の携帯電話機71と共通しているが、図22のアプリケーションプロセッサ213の構成のみ異なる。   FIG. 22 shows another example of the configuration of the application processor of FIG. In the example of FIG. 20, the camera unit 81, the monitor 82, the operation input unit 83, the image signal processing unit 211, the decoding processing unit 212, and the application processor 213 are common to the mobile phone 71 of FIG. However, only the configuration of the application processor 213 in FIG. 22 is different.

すなわち、図22のアプリケーションプロセッサ213は、画像認識部341および情報処理部342により構成され、イメージセンサ122を構成する画素と光通信センサ121を構成する画素を、例えば、1対1に対応付けして、イメージセンサ122からの画像信号と光通信センサ121からの通信情報を用いて、イメージセンサ122からの画像信号から、発信光源を携帯した人物を特定し、特定した人物の情報と、光通信センサ121からの通信情報を対応付ける処理を行う。   That is, the application processor 213 in FIG. 22 includes an image recognition unit 341 and an information processing unit 342, and associates the pixels constituting the image sensor 122 with the pixels constituting the optical communication sensor 121, for example, in a one-to-one correspondence. Then, using the image signal from the image sensor 122 and the communication information from the optical communication sensor 121, the person carrying the transmission light source is identified from the image signal from the image sensor 122, the information of the identified person, and the optical communication A process of associating communication information from the sensor 121 is performed.

例えば、イメージセンサ122と光通信センサ121の画角境界内には、発信光源を携帯した複数の人物がおり、ユーザは、画角境界内に存在する発信光源を携帯した複数の人物をカメラ部81で撮像している。   For example, there are a plurality of persons carrying a transmission light source in the field angle boundary between the image sensor 122 and the optical communication sensor 121, and the user can select a plurality of persons carrying the transmission light source existing in the field angle boundary from the camera unit. 81 is imaged.

画像認識部341は、図20の画像認識部331と同様に、画像信号処理部211から信号処理後の画像信号を取り込み、画像認識を行うことで、発信光源の位置(結像する画素)を算出する。さらに、画像認識部341は、画像認識により、発信光源を携帯した人物を特定し、特定した人物の情報(例えば、名前など)と、算出した発信光源の位置を情報処理部342に供給する。   Similar to the image recognition unit 331 in FIG. 20, the image recognition unit 341 captures the image signal after the signal processing from the image signal processing unit 211 and performs image recognition to thereby determine the position of the light source (pixel to be imaged). calculate. Furthermore, the image recognizing unit 341 identifies the person carrying the transmission light source by image recognition, and supplies the information of the identified person (for example, name) and the calculated position of the transmission light source to the information processing unit 342.

情報処理部342は、イメージセンサ122を構成する画素と光通信センサ121を構成する画素を1対1に対応付けして、デコード処理部212からの受信画素と、画像認識部341からの算出した発信光源の位置に基づいて、特定した人物の情報と、光通信センサ121からの通信情報を対応させ、例えば、通信情報とその通信情報を発信した発信元というような対応関係を、モニタ82を介して通知する。   The information processing unit 342 associates the pixels constituting the image sensor 122 with the pixels constituting the optical communication sensor 121 on a one-to-one basis, and calculates the received pixels from the decoding processing unit 212 and the image recognition unit 341. Based on the position of the transmission light source, the specified person information is associated with the communication information from the optical communication sensor 121. For example, the correspondence relationship such as the communication information and the transmission source that transmitted the communication information is displayed on the monitor 82. Notify through.

これにより、ユーザは、どの通信情報をだれが送信したのかを把握することができる。   Thereby, the user can grasp which communication information is transmitted to whom.

以上のように、アプリケーションプロセッサ213を構成することにより、発信光源を携帯している複数の人物(例えば、3人)を撮像した場合に、イメージセンサ122により得られた画像信号を用いて、画像認識を行い、3人の人物を特定し、特定した3人の人物に、光通信センサ121により得られた通信情報を対応させ、どの人物がどの通信情報を発信したかを、ユーザに正確に通知することもできる。   As described above, by configuring the application processor 213, when a plurality of persons (for example, three persons) carrying the transmission light source are captured, an image is obtained using the image signal obtained by the image sensor 122. 3 persons are identified, the communication information obtained by the optical communication sensor 121 is made to correspond to the specified 3 persons, and which communication information is transmitted to the user accurately. You can also be notified.

また、本発明は、カメラ部81の組み立て後に、光通信センサ121とイメージセンサ122の位置関係を検査する場合に適用することも可能である。   The present invention can also be applied to the case where the positional relationship between the optical communication sensor 121 and the image sensor 122 is inspected after the camera unit 81 is assembled.

図23は、カメラ部81の組み立て後に、光通信センサ121とイメージセンサ122の位置関係を検査する検査装置251の構成例を示す図である。なお、この場合、位置合せ用の光源として特定の情報でコード化された点滅パターンが発信される発信光源が用いられる。   FIG. 23 is a diagram illustrating a configuration example of an inspection apparatus 251 that inspects the positional relationship between the optical communication sensor 121 and the image sensor 122 after the camera unit 81 is assembled. In this case, a transmission light source that transmits a blinking pattern coded with specific information is used as a light source for alignment.

検査装置251は、検査対象の組み立て後のカメラ部81が着脱可能に構成されており、図23の例においては、検査装置251には、図11のカメラ部81が装着されている。   The inspection apparatus 251 is configured to be detachable from the assembled camera unit 81 to be inspected. In the example of FIG. 23, the inspection apparatus 251 is equipped with the camera unit 81 of FIG.

検査装置251は、画像信号処理部361、デコード処理部362、アプリケーションプロセッサ363、操作入力部364、およびモニタ365により構成されている。   The inspection device 251 includes an image signal processing unit 361, a decoding processing unit 362, an application processor 363, an operation input unit 364, and a monitor 365.

画像信号処理部361は、図11の画像信号処理部211と同様に構成されており、装着されたカメラ部81のイメージセンサ122からの生の画像信号に対して、カラー信号処理、ガンマ補正、AWB、自動露出補正などの処理を行う。   The image signal processing unit 361 is configured in the same manner as the image signal processing unit 211 in FIG. 11, and performs color signal processing, gamma correction, and the like on the raw image signal from the image sensor 122 of the attached camera unit 81. Performs processing such as AWB and automatic exposure compensation.

デコード処理部362は、図11のデコード処理部212と同様に構成されており、装着されたカメラ部81の光通信センサ121からの光点滅の検出有無を表すバイナリ信号(すなわち、光点滅検出信号)をデコードする処理を行う。   The decoding processing unit 362 is configured in the same manner as the decoding processing unit 212 of FIG. 11, and is a binary signal (that is, a light flashing detection signal) that indicates the presence or absence of light flashing detection from the optical communication sensor 121 of the attached camera unit 81. ) Is decoded.

アプリケーションプロセッサ363は、図11のアプリケーションプロセッサ213と同様に構成されており、例えば、CPU、ROM、およびRAM等を含んで構成され、操作部364を介して入力されるユーザの操作に対応する信号や、内蔵するメモリに記憶される各種のプログラムなどを実行することにより、検査装置351の各部を制御する。   The application processor 363 is configured in the same manner as the application processor 213 in FIG. 11 and includes, for example, a CPU, a ROM, a RAM, and the like, and a signal corresponding to a user operation input via the operation unit 364. In addition, each part of the inspection apparatus 351 is controlled by executing various programs stored in a built-in memory.

すなわち、アプリケーションプロセッサ213は、画像信号処理部361およびデコード処理部362に対して、同期信号を供給するとともに、所定のプログラムを実行することにより、内部に、受光画素検出部371、画素情報取得部372、および不良品判定部373を構成し、イメージセンサ122を構成する画素と光通信センサ121を構成する画素を、光通信センサ121およびイメージセンサ122画素数や倍率に応じた比率で(いまの場合、1対1)に対応付けして、イメージセンサ122からの画像信号と光通信センサ121からの通信情報を用いて、装着されるカメラ部81の検査を行い、その結果をモニタ365に表示させる処理を行う。   That is, the application processor 213 supplies a synchronization signal to the image signal processing unit 361 and the decoding processing unit 362 and executes a predetermined program, thereby internally including a light receiving pixel detection unit 371 and a pixel information acquisition unit. 372 and the defective product determination unit 373, and the pixels constituting the image sensor 122 and the pixels constituting the optical communication sensor 121 are in proportions according to the number and magnification of the optical communication sensor 121 and the image sensor 122 (current In this case, the attached camera unit 81 is inspected using the image signal from the image sensor 122 and the communication information from the optical communication sensor 121 in association with each other on a one-to-one basis, and the result is displayed on the monitor 365. To perform the process.

受光画素検出部371は、図20の画像認識部331と同様に、画像信号処理部361から信号処理後の画像信号を取り込み、画像認識を行うことで、発信光源の位置(結像する受光画素)を算出し、算出した受光画素の情報を、不良品判定部373に供給する。   Similarly to the image recognition unit 331 in FIG. 20, the light reception pixel detection unit 371 takes in the image signal after the signal processing from the image signal processing unit 361 and performs image recognition, so that the position of the transmission light source (the light reception pixel to be imaged). ) And the calculated information of the light receiving pixels is supplied to the defective product determination unit 373.

通信情報取得部372は、デコード処理部362から通信情報と光信号を受信した画素の情報を取得し、取得した通信情報および画素(受信画素)の情報を、不良品判定部373に供給する。   The communication information acquisition unit 372 acquires the communication information and information on the pixel that has received the optical signal from the decode processing unit 362, and supplies the acquired communication information and information on the pixel (reception pixel) to the defective product determination unit 373.

不良品判定部373には、操作入力部364を介して、カメラ部81の設定情報(各センサの解像度や画角、センサ間距離dなど)、発信光源が設置された位置(距離)とその発信光源が発信する通信情報などが記憶されており、また、これらの情報から、発信光源が設置された距離における2つのセンサ(良品)の画素のずれ量も算出されて記憶されている。   The defective product determination unit 373 receives, via the operation input unit 364, setting information of the camera unit 81 (resolution and angle of view of each sensor, distance d between sensors, etc.), the position (distance) where the transmission light source is installed, and its Communication information transmitted from the transmission light source and the like are stored, and from these pieces of information, pixel shift amounts of the two sensors (non-defective products) at a distance where the transmission light source is installed are calculated and stored.

不良品判定部373は、画素情報取得部372からの通信情報に対応する発信光源が設置された距離における2つのセンサ(良品)の画素のずれ量を読み出す。また、不良品判定部373は、イメージセンサ122を構成する画素と光通信センサ121を構成する画素を1対1に対応付けして、受光画素検出部371からの受光画素と画素情報取得部372からの受信画素を用いて、それらの画素の位置関係(ずれ量)を算出する。   The defective product determination unit 373 reads out pixel shift amounts of the two sensors (non-defective products) at a distance where the transmission light source corresponding to the communication information from the pixel information acquisition unit 372 is installed. In addition, the defective product determination unit 373 associates the pixels configuring the image sensor 122 and the pixels configuring the optical communication sensor 121 on a one-to-one basis, and receives the light reception pixels and the pixel information acquisition unit 372 from the light reception pixel detection unit 371. Are used to calculate the positional relationship (shift amount) of these pixels.

そして、不良品判定部373は、算出した画素のずれ量が、良品の画素のずれ量と一致するか否かを判定し、一致しない場合には、このカメラ部81が不良品であるとし、その判定結果を、モニタ365に表示させ、製造者に通知する。   The defective product determination unit 373 determines whether or not the calculated pixel shift amount matches the non-defective pixel shift amount. If the pixel shift amount does not match, the camera unit 81 is determined to be a defective product. The determination result is displayed on the monitor 365 and notified to the manufacturer.

操作入力部364は、キーボードやマウスなどにより構成され、製造者の操作に対応する操作信号を、アプリケーションプロセッサ213に入力する。モニタ365は、LCDなどにより構成され、アプリケーションプロセッサ213からの画像信号に対応する画像などを表示する。   The operation input unit 364 includes a keyboard, a mouse, and the like, and inputs an operation signal corresponding to the manufacturer's operation to the application processor 213. The monitor 365 is composed of an LCD or the like, and displays an image corresponding to the image signal from the application processor 213.

図24は、光通信センサ121とイメージセンサ122における受光画素を示している。なお、図24の例において、図9の例の場合と対応する部分には対応する符号が付してあり、その説明は繰り返しになるので適宜省略する。   FIG. 24 shows light receiving pixels in the optical communication sensor 121 and the image sensor 122. In the example of FIG. 24, parts corresponding to those in the example of FIG. 9 are denoted by the corresponding reference numerals, and the description thereof will be repeated, and will be omitted as appropriate.

図24の例においては、センサ間距離dだけ離して配置された光通信センサ121およびイメージセンサ122のそれぞれの画角境界131および132内において、レンズ面Lからの距離が、近傍から遠方を仮定した距離D1およびD3における各センサの投影エリアが示されている。   In the example of FIG. 24, it is assumed that the distance from the lens surface L is far from the vicinity within the field angle boundaries 131 and 132 of the optical communication sensor 121 and the image sensor 122 that are separated by the inter-sensor distance d. The projected areas of each sensor at the distances D1 and D3 are shown.

なお、図24の例の場合も、各距離D1およびD3の位置を示す点線の上は、各距離D1およびD3における光通信センサ121の投影エリアを表し、点線の上に示す白丸囲み数字は、光通信センサ121の画角境界131内における画素の左端からの番号を表し、点線の上に示す垂直線は、光通信センサ121の画素投影境界を表している。   Also in the example of FIG. 24, the dotted lines indicating the positions of the distances D1 and D3 represent the projection areas of the optical communication sensor 121 at the distances D1 and D3, and the white circled numbers shown on the dotted lines are The number from the left end of the pixel in the field angle boundary 131 of the optical communication sensor 121 is represented, and the vertical line shown above the dotted line represents the pixel projection boundary of the optical communication sensor 121.

同様に、各距離D1およびD3の位置を示す点線の下は、各距離D1およびD3におけるイメージセンサ122の投影エリアを表し、点線の下に示す黒丸囲み数字は、イメージセンサ122の画角境界132内における画素の左端からの番号を表し、点線の下に示す垂直線は、イメージセンサ122の画素投影境界を表している。   Similarly, the dotted lines indicating the positions of the distances D1 and D3 indicate the projection area of the image sensor 122 at the distances D1 and D3, and the black circled numbers below the dotted lines indicate the angle-of-view boundary 132 of the image sensor 122 The vertical line shown below the dotted line represents the pixel projection boundary of the image sensor 122.

図9を参照して上述したように、イメージセンサ122を起点とする視線161上の被写体(発信光源)の受光画素を考察すると、近傍の距離D1においては、光通信センサ121およびイメージセンサ122の画角のずれ(すなわち、センサ間距離d)により、発信光源P1は、イメージセンサ122における、画角境界132の左端から1番目の画素(黒丸囲み数字の1)で受光され、光通信センサ121における、画角境界131の左端から2番目の画素(白丸囲み数字の2)で受光される。   As described above with reference to FIG. 9, when the light receiving pixels of the subject (transmitting light source) on the line of sight 161 starting from the image sensor 122 are considered, the optical communication sensor 121 and the image sensor 122 are at a nearby distance D1. The transmission light source P1 is received by the first pixel from the left end of the field angle boundary 132 (black circled numeral 1) in the image sensor 122 due to the field angle deviation (that is, the inter-sensor distance d), and the optical communication sensor 121 is received. , The second pixel from the left end of the view angle boundary 131 (white circled number 2).

また、距離D3においては、イメージセンサ122における、画角境界132の左端から1番目の画素(黒丸囲み数字の1)で受光され、光通信センサ121における、画角境界131の左端から1番目の画素(白丸囲み数字の1)で受光される。   At the distance D3, the image sensor 122 receives light at the first pixel from the left end of the view angle boundary 132 (black circled numeral 1), and the optical communication sensor 121 receives the first light from the left end of the view angle boundary 131. Light is received by a pixel (a white circled number 1).

したがって、検査装置351においては、レンズ面Lから距離D1に設置された発信光源P1がイメージセンサ122では、画角境界132の左端から1番目の画素(黒丸囲み数字の1)で受光され、光通信センサ121では、画角境界131の左端から2番目の画素(白丸囲み数字の2)で受光されることが確認されれば、光通信センサ121とイメージセンサ122の位置関係が設計どおりであることがわかる。   Therefore, in the inspection apparatus 351, the transmission light source P1 installed at the distance D1 from the lens surface L is received by the first pixel (black circled numeral 1) from the left end of the angle-of-view boundary 132 in the image sensor 122, and the light In the communication sensor 121, if it is confirmed that light is received by the second pixel from the left end of the angle of view boundary 131 (white circled number 2), the positional relationship between the optical communication sensor 121 and the image sensor 122 is as designed. I understand that.

これにより、簡便化された検査工程を構築することが可能である。   Thereby, it is possible to construct a simplified inspection process.

なお、より簡便化を求めるとすれば、光通信センサ121とイメージセンサ122において、レンズ面Lから距離D1に設置された発信光源P1を受光する画素のずれが、1画素あることが確認されることでも、光通信センサ121とイメージセンサ122の位置関係が設計どおりであることがわかる。   If further simplification is desired, in the optical communication sensor 121 and the image sensor 122, it is confirmed that there is one pixel deviation of the pixel that receives the transmission light source P1 installed at the distance D1 from the lens surface L. It can be seen that the positional relationship between the optical communication sensor 121 and the image sensor 122 is as designed.

また、距離D1と距離D3における受光画素に示されるように、画素のずれ量は、発信光源のレンズ面Lからの距離により異なるため、発信光源を設置する距離に応じて、検査の精度を変更することも可能である。   Further, as shown in the light receiving pixels at the distance D1 and the distance D3, the pixel shift amount varies depending on the distance from the lens surface L of the transmission light source, so the inspection accuracy is changed according to the distance at which the transmission light source is installed. It is also possible to do.

さらに、検査精度を向上させるために、1つの発信光源のみではなく、複数の発信光源を、画角境界内の異なる位置に設置することも可能である。この場合、それぞれの発信光源が、異なるパターンで点滅していれば、発信光源を間違いなく、区別することが可能である。   Furthermore, in order to improve the inspection accuracy, it is possible to install not only one transmission light source but also a plurality of transmission light sources at different positions within the field angle boundary. In this case, if each transmitting light source blinks in a different pattern, it is possible to definitely distinguish the transmitting light source.

図24の例においては、H方向しか示されていないが、H方向だけでなく、V方向に対しても同様に確認される。   In the example of FIG. 24, only the H direction is shown, but the same is confirmed not only in the H direction but also in the V direction.

次に、図25のフローチャートを参照して、図23の検査装置351の検査処理を説明する。なお、この検査処理は、例えば、検査装置351に、検査対象となるカメラ部81が装着されることで開始される。   Next, the inspection process of the inspection apparatus 351 in FIG. 23 will be described with reference to the flowchart in FIG. This inspection process is started when, for example, the camera unit 81 to be inspected is mounted on the inspection apparatus 351.

アプリケーションプロセッサ363は、画像信号処理部361およびデコード処理部362に対して、同期信号(またはクロック信号)の供給を開始すると、画像信号処理部361は、その同期信号から、イメージセンサ122を駆動させる駆動信号(タイミングパルス)を生成し、同期信号および駆動信号をイメージセンサ122に供給し始める。   When the application processor 363 starts supplying the synchronization signal (or clock signal) to the image signal processing unit 361 and the decoding processing unit 362, the image signal processing unit 361 drives the image sensor 122 from the synchronization signal. A drive signal (timing pulse) is generated, and supply of the synchronization signal and the drive signal to the image sensor 122 is started.

イメージセンサ122は、画像信号処理部361からの同期信号および駆動信号に基づいて、レンズ112−2を介して、イメージセンサ122の画角境界132内に存在する被写体の画像に対応する画像信号を取得し、取得した画像信号を画像信号処理部361に出力し始める。   Based on the synchronization signal and the drive signal from the image signal processing unit 361, the image sensor 122 outputs an image signal corresponding to the image of the subject existing within the field angle boundary 132 of the image sensor 122 via the lens 112-2. Obtaining and starting outputting the obtained image signal to the image signal processing unit 361.

そこで、画像信号処理部361は、イメージセンサ122からの生の画像信号に対して、通常のイメージセンサの信号処理と同様に、カラー信号処理、ガンマ補正、AWB、自動露出補正などの処理を行う。   Therefore, the image signal processing unit 361 performs processing such as color signal processing, gamma correction, AWB, and automatic exposure correction on the raw image signal from the image sensor 122 in the same manner as normal signal processing of the image sensor. .

これに対応して、アプリケーションプロセッサ363の受光画素検出部371は、ステップS71において、画像信号処理部361より、信号処理された画像信号を取り込む。   In response to this, the light receiving pixel detection unit 371 of the application processor 363 takes in the image signal subjected to signal processing from the image signal processing unit 361 in step S71.

受光画素検出部371は、ステップS72において、画像信号処理部361から信号処理後の画像信号を取り込み、画像認識を行うことで、発信光源の位置(結像する受光画素)を検出し、検出した受光画素の情報を、不良品判定部373に供給する。   In step S72, the light receiving pixel detecting unit 371 detects and detects the position of the light source (image forming light receiving pixel) by capturing the image signal after the signal processing from the image signal processing unit 361 and performing image recognition. Information on the light receiving pixels is supplied to the defective product determination unit 373.

一方、デコード処理部362は、アプリケーションプロセッサ363からの同期信号から、光通信センサ121を駆動させる駆動信号(タイミングパルス)を生成し、同期信号および駆動信号を、光通信センサ121に供給し始める。   On the other hand, the decode processing unit 362 generates a drive signal (timing pulse) for driving the optical communication sensor 121 from the synchronization signal from the application processor 363 and starts supplying the synchronization signal and the drive signal to the optical communication sensor 121.

光通信センサ121は、デコード処理部362からの同期信号および駆動信号に基づいて、レンズ112−1を介して、光通信センサ121の画角境界131内に存在する被写体2−1および2−2が備える発信光源3−1および3−2の点滅パターン22−1および22−2によりコード化された通信情報を検出し、その検出された情報(すなわち、光点滅の検出有無を表すバイナリ信号である、光点滅検出信号)を、デコード処理部362に出力し始める。   Based on the synchronization signal and the drive signal from the decoding processing unit 362, the optical communication sensor 121 passes through the lens 112-1 and the subjects 2-1 and 2-2 existing in the field angle boundary 131 of the optical communication sensor 121. Communication information encoded by the blinking patterns 22-1 and 22-2 of the transmission light sources 3-1 and 3-2 included in the information is detected, and the detected information (that is, a binary signal indicating the presence / absence of light blinking detection) is detected. A certain light flashing detection signal) starts to be output to the decoding processing unit 362.

デコード処理部362は、光通信センサ121からの光点滅の検出有無を表すバイナリ信号である光点滅検出信号をデコードする処理を行う。   The decode processing unit 362 performs a process of decoding a light blinking detection signal that is a binary signal indicating the presence or absence of light blinking detection from the optical communication sensor 121.

これに対応して、アプリケーションプロセッサ213の通信情報取得部372は、ステップS73において、デコード処理部362から、デコードの結果得られた通信情報と、光信号を受信した画素の情報を取得し、取得した通信情報と、画素(受信画素)の情報を、不良品判定部373に供給する。   In response to this, in step S73, the communication information acquisition unit 372 of the application processor 213 acquires the communication information obtained as a result of decoding and the information of the pixel that has received the optical signal from the decoding processing unit 362, and acquires the information. The communication information and the pixel (reception pixel) information are supplied to the defective product determination unit 373.

不良品判定部373は、ステップS74において、画素情報取得部372からの通信情報に対応する発信光源が設置された距離における2つのセンサ(良品)の画素のずれ量を読み出し、ステップS75において、イメージセンサ122を構成する画素と光通信センサ121を構成する画素を1対1に対応付けして、受光画素検出部371からの受光画素と画素情報取得部372からの受信画素を用いて、それらの画素の位置関係(ずれ量)を算出する。   In step S74, the defective product determination unit 373 reads out pixel shift amounts of the two sensors (non-defective products) at the distance at which the transmission light source corresponding to the communication information from the pixel information acquisition unit 372 is installed. The pixels constituting the sensor 122 and the pixels constituting the optical communication sensor 121 are associated one-to-one, and the light receiving pixels from the light receiving pixel detection unit 371 and the reception pixels from the pixel information acquisition unit 372 are used. The pixel positional relationship (deviation amount) is calculated.

なお、ステップS74において、画素のずれ量ではなく、画素情報取得部372からの通信情報に対応する発信光源が設置された距離における良品のイメージセンサ122の画素と、この画素に対応する良品の光通信センサ121の画素を読み出し、ステップS75において、受光画素検出部371からの受光画素が良品のイメージセンサ122の画素と一致するか、かつ、画素情報取得部372からの受信画素が、良品の光通信センサ121の画素と一致するかを判定するようにすることもできる。   In step S74, the pixel of the non-defective image sensor 122 and the non-defective light corresponding to this pixel at a distance where the transmission light source corresponding to the communication information from the pixel information acquisition unit 372 is installed, not the pixel shift amount. The pixel of the communication sensor 121 is read, and in step S75, the light receiving pixel from the light receiving pixel detection unit 371 matches the pixel of the non-defective image sensor 122, and the reception pixel from the pixel information acquisition unit 372 is non-defective light. It can also be determined whether the pixel matches the pixel of the communication sensor 121.

この場合、ずれ量のみで判定するよりも、さらに精度の高い検査を行うことができる。   In this case, it is possible to perform an inspection with higher accuracy than the determination based on the deviation amount alone.

不良品判定部373は、ステップS76において、算出した画素のずれ量が、良品の画素のずれ量と一致するか否かを判定し、一致すると判定した場合、処理は、ステップS77に進み、このカメラ部81が良品であるとし、例えば、モニタ365に良品の通知を表示させたり、図示せぬ部品装着部などを制御し、カメラ部81を生産ラインにおける良品のラインに仕分ける。   In step S76, the defective product determination unit 373 determines whether or not the calculated pixel shift amount matches the non-defective pixel shift amount. If it is determined that they match, the process proceeds to step S77. Assume that the camera unit 81 is a non-defective product. For example, a non-defective product notification is displayed on the monitor 365 or a component mounting unit (not shown) is controlled to sort the camera unit 81 into a non-defective product line.

ステップS76において、算出した画素のずれ量が、良品の画素のずれ量と一致しないと判定された場合、処理は、ステップS77において、このカメラ部81が不良品であるとし、例えば、モニタ365に不良品の通知を表示させたり、図示せぬ部品装着部などを制御し、カメラ部81を生産ラインにおける不良品のラインに仕分ける。   If it is determined in step S76 that the calculated pixel shift amount does not match the non-defective pixel shift amount, the process determines that the camera unit 81 is defective in step S77. Notification of defective products is displayed, and a component mounting unit (not shown) is controlled to sort the camera unit 81 into defective product lines in the production line.

以上のように、イメージセンサ122からの画像信号と光通信センサ121からの通信情報を対応付けて、イメージセンサ122からの画像信号と光通信センサ121からの通信情報を用いて、装着されるカメラ部81の検査を行うようにしたので、光通信センサとイメージセンサの位置関係を検査する検査においても、簡便化された検査工程を構築することができる。   As described above, an image signal from the image sensor 122 and communication information from the optical communication sensor 121 are associated with each other, and a camera to be mounted using the image signal from the image sensor 122 and the communication information from the optical communication sensor 121. Since the inspection of the part 81 is performed, a simplified inspection process can be established also in the inspection for inspecting the positional relationship between the optical communication sensor and the image sensor.

例えば、近接配置するセンサが両方ともイメージセンサであれば、光源などの点状の被写体を撮像して、光源を受光した画素が設計どおりであるか確認することは簡単であるが、センサの一方が光通信センサの場合、画像の取得ができないことから、困難であった光通信センサとイメージセンサの位置関係の検査を簡便に行うことができる。   For example, if both of the adjacent sensors are image sensors, it is easy to image a pointed subject such as a light source and check whether the pixel receiving the light source is as designed. In the case of an optical communication sensor, since it is impossible to acquire an image, it is possible to easily check the positional relationship between the optical communication sensor and the image sensor, which has been difficult.

これにより、光通信センサとイメージセンサが精度よく配置されることで、画像品質を低下させることなく、画像取得と光通信を同時に行うことができるカメラ部81で構成される携帯電話機71を、ユーザに提供することができる。   As a result, since the optical communication sensor and the image sensor are accurately arranged, the mobile phone 71 including the camera unit 81 that can simultaneously perform image acquisition and optical communication without degrading the image quality is Can be provided.

なお、上記説明においては、カメラ部81を検査対象とする例を説明したが、例えば、図11のカメラ部81、画像信号処理部211、およびデコード処理部212が組み合わされたブロックを検査対象とすることもできる。この場合には、図23の検査装置351から、画像信号処理部361およびデコード処理部362が除かれる。   In the above description, the example in which the camera unit 81 is an inspection target has been described. For example, a block in which the camera unit 81, the image signal processing unit 211, and the decoding processing unit 212 in FIG. You can also In this case, the image signal processing unit 361 and the decoding processing unit 362 are excluded from the inspection apparatus 351 in FIG.

また、上記説明においては、カメラ部81の検査工程を前提に説明したが、同様なプロセスを、例えば、カメラ部81の製造時のセンサの位置合せに適用することもできる。この場合、例えば、遠方の距離に発信光源をおいての粗い位置合せを行ったうえで、光源の設置距離を近づけて、精度の高い位置合せを行うことも可能である。   In the above description, the inspection process of the camera unit 81 has been described. However, a similar process can be applied to, for example, alignment of a sensor when the camera unit 81 is manufactured. In this case, for example, after performing a rough alignment with a transmission light source at a distant distance, it is possible to perform a highly accurate alignment by reducing the installation distance of the light source.

また、上記説明においては、光通信センサおよびイメージセンサが配置されて構成されるカメラ部を備えた携帯電話機を用いて説明したが、本発明は、携帯電話機に限定されず、光通信センサおよびイメージセンサが配置されて構成されるカメラ部を備えたものであれば、PDA(Personal Digital Assistance)やパーソナルコンピュータなどにも適用される。   In the above description, a mobile phone including a camera unit in which an optical communication sensor and an image sensor are arranged has been described. However, the present invention is not limited to the mobile phone, and the optical communication sensor and the image are provided. As long as it has a camera unit in which sensors are arranged, it can also be applied to PDAs (Personal Digital Assistance), personal computers, and the like.

上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

図26は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータ401の構成の例を示すブロック図である。CPU(Central Processing Unit)411は、ROM(Read Only Memory)412、または記憶部418に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)413には、CPU411が実行するプログラムやデータなどが適宜記憶される。これらのCPU411、ROM412、およびRAM413は、バス414により相互に接続されている。   FIG. 26 is a block diagram showing an example of the configuration of a personal computer 401 that executes the above-described series of processing by a program. A CPU (Central Processing Unit) 411 executes various processes according to a program stored in a ROM (Read Only Memory) 412 or a storage unit 418. A RAM (Random Access Memory) 413 appropriately stores programs executed by the CPU 411 and data. The CPU 411, the ROM 412, and the RAM 413 are connected to each other by a bus 414.

CPU411にはまた、バス414を介して入出力インタフェース415が接続されている。入出力インタフェース415には、キーボード、マウス、マイクロホンなどよりなる入力部416、ディスプレイ、スピーカなどよりなる出力部417が接続されている。CPU411は、入力部416から入力される指令に対応して各種の処理を実行する。そして、CPU411は、処理の結果を出力部417に出力する。   An input / output interface 415 is also connected to the CPU 411 via the bus 414. The input / output interface 415 is connected to an input unit 416 including a keyboard, a mouse, and a microphone, and an output unit 417 including a display and a speaker. The CPU 411 executes various processes in response to commands input from the input unit 416. Then, the CPU 411 outputs the processing result to the output unit 417.

入出力インタフェース415に接続されている記憶部418は、例えばハードディスクからなり、CPU411が実行するプログラムや各種のデータを記憶する。通信部319は、インターネットやローカルエリアネットワークなどのネットワークを介して外部の装置と通信する。   The storage unit 418 connected to the input / output interface 415 includes, for example, a hard disk, and stores programs executed by the CPU 411 and various data. The communication unit 319 communicates with an external device via a network such as the Internet or a local area network.

また、通信部419を介してプログラムを取得し、記憶部418に記憶してもよい。   A program may be acquired via the communication unit 419 and stored in the storage unit 418.

入出力インタフェース415に接続されているドライブ420は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア421が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部418に転送され、記憶される。   The drive 420 connected to the input / output interface 415 drives a removable medium 421 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and drives the programs and data recorded therein. Get etc. The acquired program and data are transferred to and stored in the storage unit 418 as necessary.

コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図26に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア421、または、プログラムが一時的もしくは永続的に格納されるROM412や、記憶部418を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部419を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。   As shown in FIG. 26, a program recording medium that stores a program that is installed in a computer and is ready to be executed by the computer includes a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory, DVD (Digital Versatile Disc), a magneto-optical disk, a removable medium 421 that is a package medium composed of a semiconductor memory, a ROM 412 in which a program is temporarily or permanently stored, and a storage unit 418 It is comprised by the hard disk etc. which comprise. The program is stored in the program recording medium using a wired or wireless communication medium such as a local area network, the Internet, or digital satellite broadcasting via a communication unit 419 that is an interface such as a router or a modem as necessary. Done.

なお、本明細書において、プログラム記録媒体に格納されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program stored in the program recording medium is not limited to the processing performed in time series in the order described, but is not necessarily performed in time series. Or the process performed separately is also included.

2次元アレイ状のセンサの原理について説明する図である。It is a figure explaining the principle of a two-dimensional array-like sensor. 通信情報がコード化された点滅パターンを説明する図である。It is a figure explaining the blink pattern in which communication information was coded. 図1のセンサの構成例を示すブロック図である。It is a block diagram which shows the structural example of the sensor of FIG. 図1のセンサの画像取得モードと光通信モードを説明する図である。It is a figure explaining the image acquisition mode and optical communication mode of the sensor of FIG. 図1のカメラの構成例を示す図である。It is a figure which shows the structural example of the camera of FIG. 本発明を適用した携帯電話機の一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the mobile telephone to which this invention is applied. 図6のカメラ部の構成例を示す図である。It is a figure which shows the structural example of the camera part of FIG. 図6の光通信センサおよびイメージセンサの画角と光軸の関係を示す図である。It is a figure which shows the relationship between the angle of view and optical axis of the optical communication sensor and image sensor of FIG. 図6の光通信センサおよびイメージセンサにおける受光画素を説明する図である。It is a figure explaining the light receiving pixel in the optical communication sensor and image sensor of FIG. 図9の受光画素をさらに具体的に説明する図である。FIG. 10 is a diagram for specifically explaining the light receiving pixels of FIG. 9. 図6の携帯電話機の内部構成例を示すブロック図であるIt is a block diagram which shows the example of an internal structure of the mobile telephone of FIG. 図6の発信光源からの光信号であるデータフレームの構成例を示す図である。It is a figure which shows the structural example of the data frame which is an optical signal from the transmission light source of FIG. 図11のアプリケーションプロセッサによる画像信号処理を説明するフローチャートである。12 is a flowchart illustrating image signal processing by the application processor of FIG. 11. 図11の携帯電話機の内部構成の他の例を示すブロック図である。FIG. 12 is a block diagram illustrating another example of the internal configuration of the mobile phone in FIG. 11. 2倍の光学ズームが設定された場合の画素のずれを説明する図である。It is a figure explaining the shift | offset | difference of a pixel when a 2 times optical zoom is set. 図14の携帯電話機の内部構成の他の例を示すブロック図である。FIG. 15 is a block diagram illustrating another example of the internal configuration of the mobile phone of FIG. 14. 図8におけるイメージセンサ122のみが2倍の光学ズームが設定された場合の例を示す図である。FIG. 9 is a diagram illustrating an example when only the image sensor 122 in FIG. 8 is set with a double optical zoom. 図17の受光画素をさらに具体的に説明する図である。FIG. 18 is a diagram for specifically explaining the light receiving pixels in FIG. 17. 図16のアプリケーションプロセッサによる画像信号処理を説明するフローチャートである。It is a flowchart explaining the image signal processing by the application processor of FIG. 図11の携帯電話機の内部構成のさらに他の例を示すブロック図である。FIG. 14 is a block diagram showing still another example of the internal configuration of the mobile phone in FIG. 11. 図20のアプリケーションプロセッサによる画像信号処理を説明するフローチャートである。FIG. 21 is a flowchart for describing image signal processing by the application processor of FIG. 20. FIG. 図11のアプリケーションプロセッサの他の構成例を示すブロック図である。It is a block diagram which shows the other structural example of the application processor of FIG. 本発明を適用した検査装置の一実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of the test | inspection apparatus to which this invention is applied. 図23の光通信センサおよびイメージセンサにおける受光画素を説明する図である。It is a figure explaining the light receiving pixel in the optical communication sensor and image sensor of FIG. 図23の検査装置の検査処理を説明するフローチャートである。It is a flowchart explaining the inspection process of the inspection apparatus of FIG. 本発明を適用したパーソナルコンピュータの構成例を示すブロック図である。It is a block diagram which shows the structural example of the personal computer to which this invention is applied.

符号の説明Explanation of symbols

71 携帯電話機, 81 カメラ部, 82 モニタ, 83 操作入力部, 111カメラボード, 121 光通信センサ, 122 イメージセンサ, 211 画像信号処理部, 212 デコード処理部, 213 アプリケーションプロセッサ, 231 画像重畳部, 232 画像生成部, 251−1,251−2 ズーム駆動部, 261 ズーム制御信号出力部, 301 対応画素換算部, 331 画像認識部, 332 ずれ補正量算出部, 341 画像認識部, 342 情報処理部, 351 検査装置, 361 画像信号処理部, 362 デコード処理部, 363 アプリケーションプロセッサ, 364 操作入力部, 365 モニタ   71 mobile phone, 81 camera unit, 82 monitor, 83 operation input unit, 111 camera board, 121 optical communication sensor, 122 image sensor, 211 image signal processing unit, 212 decode processing unit, 213 application processor, 231 image superimposing unit, 232 Image generation unit, 251-1, 251-2 zoom drive unit, 261 zoom control signal output unit, 301 corresponding pixel conversion unit, 331 image recognition unit, 332 deviation correction amount calculation unit, 341 image recognition unit, 342 information processing unit, 351 inspection device, 361 image signal processing unit, 362 decoding processing unit, 363 application processor, 364 operation input unit, 365 monitor

Claims (10)

被写体を撮像する撮像装置において、
情報を符号化した光学信号を発信する発信光源を備えた被写体に対応する画像信号を入力するイメージセンサと、
前記イメージセンサに近接する位置に略画角を合わせて配置され、前記発信光源が発信する前記光学信号を受信する光通信センサと、
前記イメージセンサを構成する画素と前記光通信センサを構成する画素とを対応付けして、前記イメージセンサにより入力された前記画像信号、および前記光通信センサにより受信された前記光学信号を復号した情報を用いた処理を行う信号処理手段と
を備える撮像装置。
In an imaging device for imaging a subject,
An image sensor for inputting an image signal corresponding to a subject provided with a transmission light source for transmitting an optical signal encoded with information;
An optical communication sensor that is arranged with a substantially angle of view at a position close to the image sensor, and that receives the optical signal transmitted by the transmission light source; and
Information obtained by associating the pixels constituting the image sensor with the pixels constituting the optical communication sensor and decoding the image signal input by the image sensor and the optical signal received by the optical communication sensor An image pickup apparatus comprising: signal processing means for performing processing using a signal.
前記情報は、前記被写体に関する情報である
請求項1に記載の撮像装置。
The imaging apparatus according to claim 1, wherein the information is information related to the subject.
前記画像信号に対応する画像を表示する表示手段をさらに備え、
前記信号処理手段は、
前記光学信号を復号した情報に対応する画像を生成する画像生成手段と、
前記イメージセンサを構成する画素と前記光通信センサを構成する画素とを対応付けして、前記イメージセンサにより入力された前記画像信号に、前記画像生成手段により生成された前記画像の画像信号を重畳する処理を行う画像重畳手段とを備え、
前記表示手段は、前記信号処理手段により重畳された画像信号に対応する画像を表示する
請求項2に記載の撮像装置。
Further comprising display means for displaying an image corresponding to the image signal,
The signal processing means includes
Image generating means for generating an image corresponding to information obtained by decoding the optical signal;
The pixels constituting the image sensor and the pixels constituting the optical communication sensor are associated with each other, and the image signal of the image generated by the image generation unit is superimposed on the image signal input by the image sensor. Image superimposing means for performing processing to perform,
The imaging apparatus according to claim 2, wherein the display unit displays an image corresponding to the image signal superimposed by the signal processing unit.
前記信号処理手段は、
前記イメージセンサにより入力された前記画像信号に対応する画像から、被写体を認識する画像認識手段と、
前記イメージセンサを構成する画素と前記光通信センサを構成する画素とを対応付けして、前記画像認識手段により認識された被写体を、前記光学信号を復号した情報の発信元として設定する処理を行う発信元設定手段とを備える
請求項1に記載の撮像装置。
The signal processing means includes
Image recognition means for recognizing a subject from an image corresponding to the image signal input by the image sensor;
A process of setting a subject recognized by the image recognition unit as a source of information obtained by decoding the optical signal by associating a pixel constituting the image sensor with a pixel constituting the optical communication sensor The imaging apparatus according to claim 1, further comprising a transmission source setting unit.
前記イメージセンサの光学系を駆動する第1の光学系駆動手段と、
前記光通信センサの光学系を駆動する第2の光学系駆動手段と、
ユーザの操作に対応するズーム値に基づいて、前記イメージセンサの光学系と、前記光通信センサの光学系を連動させるように、前記第1および第2の光学系駆動手段を制御するズーム制御手段とをさらに備える
請求項1に記載の撮像装置。
First optical system driving means for driving the optical system of the image sensor;
Second optical system driving means for driving the optical system of the optical communication sensor;
Zoom control means for controlling the first and second optical system driving means so as to interlock the optical system of the image sensor and the optical system of the optical communication sensor based on a zoom value corresponding to a user operation. The imaging device according to claim 1.
前記イメージセンサの光学系を駆動する光学系駆動手段と、
ユーザの操作に対応するズーム値に基づいて、前記光学系駆動手段による光学系の駆動を制御するズーム制御手段とをさらに備え、
前記信号処理手段は、
ユーザの操作に対応するズーム値に基づく前記イメージセンサの画素に対応する前記光通信センサの対応画素を算出する対応画素算出手段を備え、
前記対応画素算出手段により算出される前記光通信センサの対応画素に基づいて、前記イメージセンサを構成する画素と前記光通信センサを構成する画素とを対応付けして、前記イメージセンサにより入力された前記画像信号、および前記光通信センサにより受信された前記光学信号を復号した情報を用いた処理を行う
請求項1に記載の撮像装置。
Optical system driving means for driving the optical system of the image sensor;
Zoom control means for controlling driving of the optical system by the optical system driving means based on a zoom value corresponding to a user operation,
The signal processing means includes
Corresponding pixel calculation means for calculating a corresponding pixel of the optical communication sensor corresponding to a pixel of the image sensor based on a zoom value corresponding to a user operation,
Based on the corresponding pixel of the optical communication sensor calculated by the corresponding pixel calculating means, the pixel configuring the image sensor and the pixel configuring the optical communication sensor are associated with each other and input by the image sensor The imaging device according to claim 1, wherein processing is performed using information obtained by decoding the image signal and the optical signal received by the optical communication sensor.
前記信号処理手段は、
前記イメージセンサにより入力された前記画像信号に対応する画像から、前記発信光源に対応する画素を検出する画素検出手段と、
前記画素検出手段により検出された前記発信光源に対応する画素と、前記光学信号を受信した前記光通信センサの画素に基づいて、画素ずれの補正量を算出する補正量算出手段とを備え、
前記補正量算出手段により算出される前記画素ずれの補正量に基づいて、前記イメージセンサを構成する画素と前記光通信センサを構成する画素とを対応付けして、前記イメージセンサにより入力された前記画像信号、および前記光通信センサにより受信された前記光学信号を復号した情報を用いた処理を行う
請求項1に記載の撮像装置。
The signal processing means includes
Pixel detection means for detecting a pixel corresponding to the transmission light source from an image corresponding to the image signal input by the image sensor;
A correction amount calculation unit that calculates a pixel shift correction amount based on the pixel corresponding to the transmission light source detected by the pixel detection unit and the pixel of the optical communication sensor that has received the optical signal;
Based on the correction amount of the pixel shift calculated by the correction amount calculation means, the pixels constituting the image sensor and the pixels constituting the optical communication sensor are associated with each other and input by the image sensor. The imaging apparatus according to claim 1, wherein processing is performed using information obtained by decoding an image signal and the optical signal received by the optical communication sensor.
被写体を撮像する撮像装置の画像処理方法において、
情報を符号化した光学信号を発信する発信光源を備えた被写体に対応する画像信号を入力するイメージセンサを構成する画素と、
前記イメージセンサに近接する位置に略画角を合わせて配置され、前記発信光源が発信する前記光学信号を受信する光通信センサを構成する画素と
を対応付けして、前記イメージセンサにより入力された前記画像信号、および前記光通信センサにより受信された前記光学信号を復号した情報を用いた処理を行う
ステップを含む画像処理方法。
In an image processing method of an imaging apparatus that images a subject,
Pixels constituting an image sensor that inputs an image signal corresponding to a subject including a light source that transmits an optical signal in which information is encoded;
The image sensor is disposed in a position close to the image sensor with a substantially angle of view, and is associated with a pixel constituting the optical communication sensor that receives the optical signal transmitted from the transmission light source, and is input by the image sensor. An image processing method including a step of performing processing using the image signal and information obtained by decoding the optical signal received by the optical communication sensor.
被写体を撮像する撮像装置に画像処理を行わせるプログラムであって、
情報を符号化した光学信号を発信する発信光源を備えた被写体に対応する画像信号を入力するイメージセンサを構成する画素と、
前記イメージセンサに近接する位置に略画角を合わせて配置され、前記発信光源が発信する前記光学信号を受信する光通信センサを構成する画素と
を対応付けして、前記イメージセンサにより入力された前記画像信号、および前記光通信センサにより受信された前記光学信号を復号した情報を用いた処理を行う
ステップを含むプログラム。
A program that causes an imaging device that images a subject to perform image processing,
Pixels constituting an image sensor that inputs an image signal corresponding to a subject including a light source that transmits an optical signal in which information is encoded;
The image sensor is disposed in a position close to the image sensor with a substantially angle of view, and is associated with a pixel constituting the optical communication sensor that receives the optical signal transmitted from the transmission light source, and is input by the image sensor. A program including a step of performing processing using the image signal and information obtained by decoding the optical signal received by the optical communication sensor.
請求項9に記載のプログラムが記録されている記録媒体。   A recording medium on which the program according to claim 9 is recorded.
JP2006016161A 2006-01-25 2006-01-25 Imaging apparatus and method, recording medium, and program Expired - Fee Related JP4868217B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006016161A JP4868217B2 (en) 2006-01-25 2006-01-25 Imaging apparatus and method, recording medium, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006016161A JP4868217B2 (en) 2006-01-25 2006-01-25 Imaging apparatus and method, recording medium, and program

Publications (2)

Publication Number Publication Date
JP2007201681A true JP2007201681A (en) 2007-08-09
JP4868217B2 JP4868217B2 (en) 2012-02-01

Family

ID=38455829

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006016161A Expired - Fee Related JP4868217B2 (en) 2006-01-25 2006-01-25 Imaging apparatus and method, recording medium, and program

Country Status (1)

Country Link
JP (1) JP4868217B2 (en)

Cited By (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007274052A (en) * 2006-03-30 2007-10-18 Kyocera Corp Visible light receiving device and receiving method
JP2010238196A (en) * 2009-03-31 2010-10-21 Fujitsu Ltd Program, apparatus and method for processing image
JP2010268222A (en) * 2009-05-14 2010-11-25 Casio Computer Co Ltd Information recording system, image capturing apparatus, light emitting device and program
JP2010288207A (en) * 2009-06-15 2010-12-24 Casio Computer Co Ltd Moving image recording apparatus and program
JP2011023819A (en) * 2009-07-13 2011-02-03 Casio Computer Co Ltd Image capturing apparatus and method, and program
JP5564630B1 (en) * 2012-12-27 2014-07-30 パナソニック株式会社 Information communication method
US8823852B2 (en) 2012-05-24 2014-09-02 Panasonic Intellectual Property Corporation Of America Information communication method of obtaining information from a subject by demodulating data specified by a pattern of a bright line included in an obtained image
US8908074B2 (en) 2012-12-27 2014-12-09 Panasonic Intellectual Property Corporation Of America Information communication method
US8965216B2 (en) 2012-12-27 2015-02-24 Panasonic Intellectual Property Corporation Of America Information communication method
JP2015507751A (en) * 2012-01-20 2015-03-12 コーニンクレッカ フィリップス エヌ ヴェ Photodetector
US8988574B2 (en) 2012-12-27 2015-03-24 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using bright line image
US8994865B2 (en) 2012-12-27 2015-03-31 Panasonic Intellectual Property Corporation Of America Information communication method
US9008352B2 (en) 2012-12-27 2015-04-14 Panasonic Intellectual Property Corporation Of America Video display method
US9088363B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US9085927B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US9087349B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US9094120B2 (en) 2012-12-27 2015-07-28 Panasonic Intellectual Property Corporaton Of America Information communication method
US9262954B2 (en) 2012-12-27 2016-02-16 Panasonic Intellectual Property Corporation Of America Visible light communication signal display method and apparatus
US9608725B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
US9608727B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Switched pixel visible light transmitting method, apparatus and program
US9646568B2 (en) 2012-12-27 2017-05-09 Panasonic Intellectual Property Corporation Of America Display method
US9775219B2 (en) 2015-03-09 2017-09-26 Panasonic Intellectual Property Management Co., Ltd. Mobile terminal and device control system
JP2018093479A (en) * 2016-11-30 2018-06-14 株式会社スターワン Information conversion system, information output program, information conversion program, information output device, and information conversion device
CN108810404A (en) * 2017-05-02 2018-11-13 卡西欧计算机株式会社 Information processing unit, information processing method and recording medium
WO2019027617A1 (en) * 2017-07-31 2019-02-07 Qualcomm Incorporated Visible light communication (vlc) via digital imager
US10303945B2 (en) 2012-12-27 2019-05-28 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
US10523876B2 (en) 2012-12-27 2019-12-31 Panasonic Intellectual Property Corporation Of America Information communication method
US10530486B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
CN111052633A (en) * 2017-09-11 2020-04-21 昕诺飞控股有限公司 Detecting coded light with rolling shutter camera
US10951310B2 (en) 2012-12-27 2021-03-16 Panasonic Intellectual Property Corporation Of America Communication method, communication device, and transmitter
US11296788B2 (en) * 2017-06-01 2022-04-05 Panasonic Intellectual Property Corporation Of America Reception device and reception method

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005006195A (en) * 2003-06-13 2005-01-06 Canon Inc Image pickup device, imaging method, and its recording medium and program
JP2005274985A (en) * 2004-03-25 2005-10-06 Fujinon Corp Hybrid camera
JP2005278038A (en) * 2004-03-26 2005-10-06 Sony Corp Imaging device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005006195A (en) * 2003-06-13 2005-01-06 Canon Inc Image pickup device, imaging method, and its recording medium and program
JP2005274985A (en) * 2004-03-25 2005-10-06 Fujinon Corp Hybrid camera
JP2005278038A (en) * 2004-03-26 2005-10-06 Sony Corp Imaging device

Cited By (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007274052A (en) * 2006-03-30 2007-10-18 Kyocera Corp Visible light receiving device and receiving method
JP4610511B2 (en) * 2006-03-30 2011-01-12 京セラ株式会社 Visible light receiving apparatus and visible light receiving method
JP2010238196A (en) * 2009-03-31 2010-10-21 Fujitsu Ltd Program, apparatus and method for processing image
JP2010268222A (en) * 2009-05-14 2010-11-25 Casio Computer Co Ltd Information recording system, image capturing apparatus, light emitting device and program
JP2010288207A (en) * 2009-06-15 2010-12-24 Casio Computer Co Ltd Moving image recording apparatus and program
JP2011023819A (en) * 2009-07-13 2011-02-03 Casio Computer Co Ltd Image capturing apparatus and method, and program
JP2015507751A (en) * 2012-01-20 2015-03-12 コーニンクレッカ フィリップス エヌ ヴェ Photodetector
US9300845B2 (en) 2012-05-24 2016-03-29 Panasonic Intellectual Property Corporation Of America Information communication device for obtaining information from a subject by demodulating a bright line pattern included in an obtained image
US9456109B2 (en) 2012-05-24 2016-09-27 Panasonic Intellectual Property Corporation Of America Information communication method of obtaining information from a subject by demodulating data specified by a pattern of a bright line included in an obtained image
US8823852B2 (en) 2012-05-24 2014-09-02 Panasonic Intellectual Property Corporation Of America Information communication method of obtaining information from a subject by demodulating data specified by a pattern of a bright line included in an obtained image
US9083544B2 (en) 2012-05-24 2015-07-14 Panasonic Intellectual Property Corporation Of America Information communication method of obtaining information from a subject by demodulating data specified by a pattern of a bright line included in an obtained image
US9166810B2 (en) 2012-05-24 2015-10-20 Panasonic Intellectual Property Corporation Of America Information communication device of obtaining information by demodulating a bright line pattern included in an image
US9143339B2 (en) 2012-05-24 2015-09-22 Panasonic Intellectual Property Corporation Of America Information communication device for obtaining information from image data by demodulating a bright line pattern appearing in the image data
US8994841B2 (en) 2012-05-24 2015-03-31 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information specified by stripe pattern of bright lines
US9083543B2 (en) 2012-05-24 2015-07-14 Panasonic Intellectual Property Corporation Of America Information communication method of obtaining information from a subject by demodulating data specified by a pattern of a bright line included in an obtained image
US10218914B2 (en) 2012-12-20 2019-02-26 Panasonic Intellectual Property Corporation Of America Information communication apparatus, method and recording medium using switchable normal mode and visible light communication mode
US9608727B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Switched pixel visible light transmitting method, apparatus and program
US9794489B2 (en) 2012-12-27 2017-10-17 Panasonic Intellectual Property Corporation Of America Information communication method
US9019412B2 (en) 2012-12-27 2015-04-28 Panasonic Intellectual Property Corporation Of America Information communication method for selecting between visible light communication mode and normal imaging mode
US9008352B2 (en) 2012-12-27 2015-04-14 Panasonic Intellectual Property Corporation Of America Video display method
US9088362B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information by demodulating bright line pattern included in an image
US9088363B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US9085927B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US9088360B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US9087349B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US9094120B2 (en) 2012-12-27 2015-07-28 Panasonic Intellectual Property Corporaton Of America Information communication method
US8994865B2 (en) 2012-12-27 2015-03-31 Panasonic Intellectual Property Corporation Of America Information communication method
US8988574B2 (en) 2012-12-27 2015-03-24 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using bright line image
US9184838B2 (en) 2012-12-27 2015-11-10 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using ID list and bright line image
US9203515B2 (en) 2012-12-27 2015-12-01 Panasonic Intellectual Property Corporation Of America Information communication method
US9247180B2 (en) 2012-12-27 2016-01-26 Panasonic Intellectual Property Corporation Of America Video display method using visible light communication image including stripe patterns having different pitches
US9252878B2 (en) 2012-12-27 2016-02-02 Panasonic Intellectual Property Corporation Of America Information communication method
US9258058B2 (en) 2012-12-27 2016-02-09 Panasonic Intellectual Property Corporation Of America Signal transmitting apparatus for transmitting information by bright line pattern in image
US9262954B2 (en) 2012-12-27 2016-02-16 Panasonic Intellectual Property Corporation Of America Visible light communication signal display method and apparatus
US9281895B2 (en) 2012-12-27 2016-03-08 Panasonic Intellectual Property Corporation Of America Information communication method
JP2015046860A (en) * 2012-12-27 2015-03-12 パナソニック株式会社 Information communication method
US9331779B2 (en) 2012-12-27 2016-05-03 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using ID list and bright line image
US9341014B2 (en) 2012-12-27 2016-05-17 Panasonic Intellectual Property Corporation Of America Information communication method using change in luminance
US9380227B2 (en) 2012-12-27 2016-06-28 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using bright line image
US9407368B2 (en) 2012-12-27 2016-08-02 Panasonic Intellectual Property Corporation Of America Information communication method
US9450672B2 (en) 2012-12-27 2016-09-20 Panasonic Intellectual Property Corporation Of America Information communication method of transmitting a signal using change in luminance
US8965216B2 (en) 2012-12-27 2015-02-24 Panasonic Intellectual Property Corporation Of America Information communication method
US9462173B2 (en) 2012-12-27 2016-10-04 Panasonic Intellectual Property Corporation Of America Information communication method
US9467225B2 (en) 2012-12-27 2016-10-11 Panasonic Intellectual Property Corporation Of America Information communication method
US9515731B2 (en) 2012-12-27 2016-12-06 Panasonic Intellectual Property Corporation Of America Information communication method
US9560284B2 (en) 2012-12-27 2017-01-31 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information specified by striped pattern of bright lines
US9564970B2 (en) 2012-12-27 2017-02-07 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using ID list and bright line image
US9571191B2 (en) 2012-12-27 2017-02-14 Panasonic Intellectual Property Corporation Of America Information communication method
US9591232B2 (en) 2012-12-27 2017-03-07 Panasonic Intellectual Property Corporation Of America Information communication method
US9608725B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
US8908074B2 (en) 2012-12-27 2014-12-09 Panasonic Intellectual Property Corporation Of America Information communication method
US9613596B2 (en) 2012-12-27 2017-04-04 Panasonic Intellectual Property Corporation Of America Video display method using visible light communication image including stripe patterns having different pitches
US9635278B2 (en) 2012-12-27 2017-04-25 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information specified by striped pattern of bright lines
US9641766B2 (en) 2012-12-27 2017-05-02 Panasonic Intellectual Property Corporation Of America Information communication method
US9646568B2 (en) 2012-12-27 2017-05-09 Panasonic Intellectual Property Corporation Of America Display method
US9756255B2 (en) 2012-12-27 2017-09-05 Panasonic Intellectual Property Corporation Of America Information communication method
US9768869B2 (en) 2012-12-27 2017-09-19 Panasonic Intellectual Property Corporation Of America Information communication method
US11659284B2 (en) 2012-12-27 2023-05-23 Panasonic Intellectual Property Corporation Of America Information communication method
US9030585B2 (en) 2012-12-27 2015-05-12 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information by demodulating bright line pattern included in image
US9859980B2 (en) 2012-12-27 2018-01-02 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
US9918016B2 (en) 2012-12-27 2018-03-13 Panasonic Intellectual Property Corporation Of America Information communication apparatus, method, and recording medium using switchable normal mode and visible light communication mode
US9998220B2 (en) 2012-12-27 2018-06-12 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
US11490025B2 (en) 2012-12-27 2022-11-01 Panasonic Intellectual Property Corporation Of America Information communication method
US10051194B2 (en) 2012-12-27 2018-08-14 Panasonic Intellectual Property Corporation Of America Information communication method
US11165967B2 (en) 2012-12-27 2021-11-02 Panasonic Intellectual Property Corporation Of America Information communication method
US10951310B2 (en) 2012-12-27 2021-03-16 Panasonic Intellectual Property Corporation Of America Communication method, communication device, and transmitter
US10148354B2 (en) 2012-12-27 2018-12-04 Panasonic Intellectual Property Corporation Of America Luminance change information communication method
US10165192B2 (en) 2012-12-27 2018-12-25 Panasonic Intellectual Property Corporation Of America Information communication method
US10887528B2 (en) 2012-12-27 2021-01-05 Panasonic Intellectual Property Corporation Of America Information communication method
US10205887B2 (en) 2012-12-27 2019-02-12 Panasonic Intellectual Property Corporation Of America Information communication method
JP5564630B1 (en) * 2012-12-27 2014-07-30 パナソニック株式会社 Information communication method
US10225014B2 (en) 2012-12-27 2019-03-05 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using ID list and bright line image
US10303945B2 (en) 2012-12-27 2019-05-28 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
US10334177B2 (en) 2012-12-27 2019-06-25 Panasonic Intellectual Property Corporation Of America Information communication apparatus, method, and recording medium using switchable normal mode and visible light communication mode
US10354599B2 (en) 2012-12-27 2019-07-16 Panasonic Intellectual Property Corporation Of America Display method
US10361780B2 (en) 2012-12-27 2019-07-23 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
US10368005B2 (en) 2012-12-27 2019-07-30 Panasonic Intellectual Property Corporation Of America Information communication method
US10368006B2 (en) 2012-12-27 2019-07-30 Panasonic Intellectual Property Corporation Of America Information communication method
US10447390B2 (en) 2012-12-27 2019-10-15 Panasonic Intellectual Property Corporation Of America Luminance change information communication method
US10455161B2 (en) 2012-12-27 2019-10-22 Panasonic Intellectual Property Corporation Of America Information communication method
US10516832B2 (en) 2012-12-27 2019-12-24 Panasonic Intellectual Property Corporation Of America Information communication method
US10523876B2 (en) 2012-12-27 2019-12-31 Panasonic Intellectual Property Corporation Of America Information communication method
US10521668B2 (en) 2012-12-27 2019-12-31 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
US10531009B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Information communication method
US10531010B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Information communication method
US10530486B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
US10616496B2 (en) 2012-12-27 2020-04-07 Panasonic Intellectual Property Corporation Of America Information communication method
US10742891B2 (en) 2012-12-27 2020-08-11 Panasonic Intellectual Property Corporation Of America Information communication method
US10638051B2 (en) 2012-12-27 2020-04-28 Panasonic Intellectual Property Corporation Of America Information communication method
US10666871B2 (en) 2012-12-27 2020-05-26 Panasonic Intellectual Property Corporation Of America Information communication method
US9775219B2 (en) 2015-03-09 2017-09-26 Panasonic Intellectual Property Management Co., Ltd. Mobile terminal and device control system
JP2018093479A (en) * 2016-11-30 2018-06-14 株式会社スターワン Information conversion system, information output program, information conversion program, information output device, and information conversion device
CN108810404B (en) * 2017-05-02 2020-10-30 卡西欧计算机株式会社 Information processing apparatus, information processing method, and recording medium
JP2018191117A (en) * 2017-05-02 2018-11-29 カシオ計算機株式会社 Information processing apparatus, information processing method and program
CN108810404A (en) * 2017-05-02 2018-11-13 卡西欧计算机株式会社 Information processing unit, information processing method and recording medium
US11296788B2 (en) * 2017-06-01 2022-04-05 Panasonic Intellectual Property Corporation Of America Reception device and reception method
WO2019027617A1 (en) * 2017-07-31 2019-02-07 Qualcomm Incorporated Visible light communication (vlc) via digital imager
CN111052633A (en) * 2017-09-11 2020-04-21 昕诺飞控股有限公司 Detecting coded light with rolling shutter camera
US11284011B2 (en) * 2017-09-11 2022-03-22 Signify Holding B.V. Detecting coded light with rolling-shutter cameras
CN111052633B (en) * 2017-09-11 2023-06-06 昕诺飞控股有限公司 Detecting coded light using a rolling shutter camera

Also Published As

Publication number Publication date
JP4868217B2 (en) 2012-02-01

Similar Documents

Publication Publication Date Title
JP4868217B2 (en) Imaging apparatus and method, recording medium, and program
US8063972B2 (en) Image capture device and control method thereof
US7719568B2 (en) Image processing system for integrating multi-resolution images
JP2007248861A (en) Image display device and receiving device
JP2008259000A (en) Video conference device, control method and program
JP4424088B2 (en) Imaging device
JP2006324834A (en) Device and method for imaging
JP2007172577A (en) Operation information input apparatus
JP2010130087A (en) Monitoring system and method
WO2012137696A1 (en) Image processing apparatus for vehicle
KR100800750B1 (en) Stereoscopic image creation apparatus and method for creating and outputting stereoscopic image
US20120120007A1 (en) Transparent display apparatus and method of controlling the same
US11140327B2 (en) Image-capturing device and method for operating image-capturing system of two cameras
KR100701961B1 (en) Mobile communication terminal enable to shot of panorama and its operating method
JP2009016941A (en) Imaging apparatus
JP2005252660A (en) Photographing system and photographing control method
JP2005303493A (en) Obstacle-adaptive projection type display
JP2011009805A (en) Optical wireless communication terminal unit, optical wireless communication system, optical wireless communication method, and program
JP5750590B2 (en) Imaging device, intercom device, intercom system
JP4825479B2 (en) Monitoring system and monitoring method
KR101147327B1 (en) Camera module and surveillance apparatus having the same
JP2004072297A (en) Image pickup device
JP2010171774A (en) Portable type image projection apparatus, and method and program for projecting image
CN102007767A (en) Imaging position determination method and imaging position determination device
CN1599425A (en) Imaging apparatus, imaging method, imaging system, program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111020

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111102

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees