JP5515472B2 - Imaging apparatus, imaging method, and program - Google Patents

Imaging apparatus, imaging method, and program Download PDF

Info

Publication number
JP5515472B2
JP5515472B2 JP2009165035A JP2009165035A JP5515472B2 JP 5515472 B2 JP5515472 B2 JP 5515472B2 JP 2009165035 A JP2009165035 A JP 2009165035A JP 2009165035 A JP2009165035 A JP 2009165035A JP 5515472 B2 JP5515472 B2 JP 5515472B2
Authority
JP
Japan
Prior art keywords
imaging
image
imaging unit
unit
luminance change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009165035A
Other languages
Japanese (ja)
Other versions
JP2011023819A (en
Inventor
宣男 飯塚
一夫 浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2009165035A priority Critical patent/JP5515472B2/en
Publication of JP2011023819A publication Critical patent/JP2011023819A/en
Application granted granted Critical
Publication of JP5515472B2 publication Critical patent/JP5515472B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、可視光通信技術を用いた撮像装置、撮像方法及びプログラムに関する。   The present invention relates to an imaging device, an imaging method, and a program using visible light communication technology.

LED等の光源を用い、可視光を高周波で点滅して発光させることで任意の情報を発信し、これをフォトダイオード等の受光素子あるいは固体イメージセンサで受信して、発光高に重畳されている情報を復調する可視光通信に関する技術が実用化に向けて種々考えられている。   Arbitrary information is transmitted by using a light source such as an LED and flashing visible light at a high frequency to emit light, which is received by a light receiving element such as a photodiode or a solid-state image sensor, and superimposed on the light emission height. Various technologies related to visible light communication for demodulating information have been considered for practical use.

近年広く一般に普及しているデジタルカメラあるいは携帯電話端末に搭載されたカメラ機能では、CCDやCMOS等の固体イメージセンサを用いており、固体イメージセンサで可視光通信の受信機能を実現すれば、上記デジタルカメラあるいは携帯電話端末の用途をより広げることが可能となる。   The camera functions installed in digital cameras or mobile phone terminals that have been widely used in recent years use solid-state image sensors such as CCDs and CMOSs. If a solid-state image sensor achieves a visible light communication reception function, Applications of digital cameras or mobile phone terminals can be further expanded.

ところで、上記可視光通信では、人間の肉眼では到底視認不可能な数千[Hz]のオーダーで輝度が変化するものであり、固体イメージセンサもそのオーダーに対応して少なくとも2倍のフレームレートで走査駆動されることになる。   By the way, in the above visible light communication, the luminance changes on the order of several thousand [Hz] which cannot be visually recognized by the human naked eye, and the solid-state image sensor also has a frame rate at least twice corresponding to the order. Scan driving is performed.

そのように光源側の輝度変化を撮像するのには充分なフレームレートで走査駆動した場合、撮影画像中の可視光通信で輝度が変化している位置以外では全くの露光不足となるので、全体の画像をモニタ画面に表示させることはできない。   In such a case, when scanning and driving at a frame rate sufficient to capture the luminance change on the light source side, the entire image is underexposed except for the position where the luminance is changed by visible light communication in the captured image. Cannot be displayed on the monitor screen.

反対に、モニタ画面に表示させることを目的としたビデオフレームレート、例えば30[フレーム/秒]で撮影を行なう場合には、当然ながら可視光通信での受信動作を行なうことは非常に困難である。   On the other hand, when shooting at a video frame rate intended to be displayed on the monitor screen, for example, 30 [frames / second], it is of course very difficult to perform a receiving operation using visible light communication. .

上記の如く予想される問題に対し、本願発明者は可視光通信用と画像撮影用の2系統の撮像部を備えてそれぞれの撮影動作を並列的に制御することにより、可視光通信と画像撮影とを両立可能とした提案を行なっている。(例えば、特許文献1)   In order to solve the above-mentioned problems, the inventor of the present application has two imaging units for visible light communication and image photographing, and controls the respective photographing operations in parallel, thereby allowing visible light communication and image photographing. We are making proposals that allow both. (For example, Patent Document 1)

特開2006−020294号公報JP 2006-020294 A

上記特許文献に記載した技術においては、可視光通信用と画像撮影用とで、固体撮像素子で必要とされる解像度が大きく異なるため、可視光通信用の撮像部で得た画像中の光源の位置と、画像撮影用の撮像部で得た画像中の光源の位置とでは座標系が相違するので、両光源の位置を一致させる点において課題が残されている。   In the technique described in the above-mentioned patent document, the resolution required for the solid-state imaging device is greatly different for visible light communication and for image capturing. Therefore, the light source in the image obtained by the imaging unit for visible light communication is different. Since the coordinate system differs between the position and the position of the light source in the image obtained by the image capturing unit for image capturing, a problem remains in that the positions of both light sources are matched.

本発明は上記のような実情に鑑みてなされたもので、その目的とするところは、可視光通信用と画像撮影用の2つの撮像部の撮影条件等が異なる場合であっても正確に一方の撮像部で得た情報を他方の画像に正確に反映させることにある。   The present invention has been made in view of the above circumstances, and the object of the present invention is to accurately detect even if the imaging conditions of the two imaging units for visible light communication and for imaging are different. The information obtained by the imaging unit is accurately reflected in the other image.

請求項1記載の発明は、第1の撮影部と、上記第1の撮影部で得る画像中から時間的な輝度変化を生じている箇所を特定し、当該箇所での輝度変化から情報を復調する可視光通信受信手段と、上記第1の撮影部と平行した撮影光軸をもって近接配置された第2の撮影部と、上記第1及び第2の撮影部の各撮影画角により上記第1の撮影部の撮像画角において上記第2の撮影部の撮像画角外で時間的な輝度変化を生じている箇所については位置の補正を省略し、上記第2の撮影部の撮像画角内で時間的な輝度変化を生じている箇所については上記第1及び第2の撮影部の各解像度の比により、その位置を補正する位置補正手段と、上記可視光通信受信手段で復調した情報を、上記位置補正手段で補正した位置に応じて上記第2の撮影部で得た画像上に合成する画像合成手段と、上記第2の撮影部の撮影画角を表示範囲とし、この表示範囲に上記画像合成手段で合成した画像を表示し、且つ、この表示範囲を外れた位置で上記時間的な輝度変化を生じている箇所についてはその表示に関する処理を省略して表示する表示手段とを具備したことを特徴とする。 According to the first aspect of the present invention, a location where a temporal luminance change is generated is specified from the images obtained by the first imaging unit and the first imaging unit, and information is demodulated from the luminance change at the location. Visible light communication receiving means, a second imaging unit arranged in close proximity with an imaging optical axis parallel to the first imaging unit, and the first and second imaging units according to the first and second imaging units . In the imaging field angle of the second imaging unit , correction of the position is omitted for a portion where a temporal luminance change occurs outside the imaging field angle of the second imaging unit , and within the imaging field angle of the second imaging unit . In the position where the luminance change occurs in time, the position correction means for correcting the position and the information demodulated by the visible light communication receiving means according to the ratio of the resolutions of the first and second imaging units. The image obtained by the second photographing unit according to the position corrected by the position correcting means. The image composition means for compositing above and the shooting angle of view of the second photographing unit as a display range, the image synthesized by the image composition means is displayed in this display range, and at a position outside this display range The location where the temporal luminance change occurs is provided with a display means for omitting the processing related to the display.

請求項2記載の発明は、上記請求項1記載の発明において、上記第2の撮影部は、撮影画角を可変するズーム機能を有し、上記第2の撮影部のズーム機能で設定されている撮影画角を取得する画角取得手段をさらに具備し、上記位置補正手段は、上記画角取得手段で得た第2の撮影部の撮影画角を用いて上記可視光通信受信手段で特定した時間的な輝度変化を生じている箇所の位置を補正することを特徴とする。   According to a second aspect of the present invention, in the first aspect of the invention, the second photographing unit has a zoom function for changing a photographing field angle, and is set by a zoom function of the second photographing unit. An angle-of-view acquisition means for acquiring a current angle of view, wherein the position correction means is identified by the visible light communication receiving means using the angle of view of the second imaging unit obtained by the angle-of-view acquisition means. It is characterized in that the position of the portion where the temporal luminance change is corrected is corrected.

請求項3記載の発明は、上記請求項1記載の発明において、上記位置補正手段は、予め記憶しているルックアップテーブルを参照して上記可視光通信受信手段で特定した時間的な輝度変化を生じている箇所の位置を補正することを特徴とする。   According to a third aspect of the present invention, in the first aspect of the present invention, the position correcting unit refers to a temporal luminance change specified by the visible light communication receiving unit with reference to a lookup table stored in advance. It is characterized in that the position of the occurring portion is corrected.

請求項4記載の発明は、第1の撮影部と、上記第1の撮影部と平行した撮影光軸をもって近接配置された第2の撮影部とを備えた撮像装置での撮像方法であって、上記第1の撮影部で得る画像中から時間的な輝度変化を生じている箇所を特定し、当該箇所での輝度変化から情報を復調する可視光通信受信工程と、上記第1及び第2の撮影部の各撮影画角により上記第1の撮影部の撮像画角において上記第2の撮影部の撮像画角外で時間的な輝度変化を生じている箇所については位置の補正を省略し、上記第2の撮影部の撮像画角内で時間的な輝度変化を生じている箇所については上記第1及び第2の撮影部の各解像度の比により、その位置を補正する位置補正工程と、上記可視光通信受信工程で復調した情報を、上記位置補正工程で補正した位置に応じて上記第2の撮影部で得た画像上に合成する画像合成工程と、上記第2の撮影部の撮影画角を表示範囲とし、この表示範囲に上記画像合成工程で合成した画像を表示し、且つ、この表示範囲を外れた位置で上記時間的な輝度変化を生じている箇所についてはその表示に関する処理を省略して表示する表示工程とを有したことを特徴とする。 According to a fourth aspect of the present invention, there is provided an imaging method in an imaging apparatus including a first imaging unit and a second imaging unit that is disposed in close proximity with an imaging optical axis parallel to the first imaging unit. A visible light communication receiving step of identifying a portion where a temporal luminance change is generated from the image obtained by the first photographing unit, and demodulating information from the luminance change at the portion; and the first and second steps The correction of the position is omitted for a portion where a temporal luminance change occurs outside the imaging field angle of the second imaging unit in the imaging field angle of the first imaging unit due to each imaging field angle of the imaging unit. , by the ratio of the resolutions of the first and second imaging section for the portion occurring temporal luminance change within the imaging field angle of the second imaging unit, and a position correcting step of correcting the position The information demodulated in the visible light communication reception step is corrected in the position correction step. An image composition step for composing on the image obtained by the second photographing unit according to the position, and a photographing field angle of the second photographing unit as a display range, and an image synthesized in the display composition step by the image composition step And a display step of displaying the portion where the temporal luminance change occurs at a position outside the display range by omitting the processing related to the display.

請求項5記載の発明は、第1の撮影部と、上記第1の撮影部と平行した撮影光軸をもって近接配置された第2の撮影部とを備えた撮像装置が内蔵したコンピュータが実行するプログラムであって上記コンピュータを、上記第1の撮影部で得る画像中から時間的な輝度変化を生じている箇所を特定し、当該箇所での輝度変化から情報を復調する可視光通信受信手段、上記第1及び第2の撮影部の各撮影画角により上記第1の撮影部の撮像画角において上記第2の撮影部の撮像画角外で時間的な輝度変化を生じている箇所については位置の補正を省略し、上記第2の撮影部の撮像画角内で時間的な輝度変化を生じている箇所については上記第1及び第2の撮影部の各解像度の比により、その位置を補正する位置補正手段、上記可視光通信受信手段で復調した情報を、上記位置補正手段で補正した位置に応じて上記第2の撮影部で得た画像上に合成する画像合成手段、及び、上記第2の撮影部の撮影画角を表示範囲とし、この表示範囲に上記画像合成手段で合成した画像を表示し、且つ、この表示範囲を外れた位置で上記時間的な輝度変化を生じている箇所についてはその表示に関する処理を省略して表示する表示手段として機能させることを特徴とする。 The invention according to claim 5 is executed by a computer built in an imaging apparatus including a first imaging unit and a second imaging unit that is arranged in close proximity with an imaging optical axis parallel to the first imaging unit. a program, the computer, the first specifies the sections from an image in which obtained by imaging unit are generated temporal luminance change, visible light communication receiving means for demodulating the information from the luminance change in the position The location where the temporal luminance change occurs outside the imaging field angle of the second imaging unit in the imaging field angle of the first imaging unit due to the imaging field angles of the first and second imaging units. It is omitted to correct the position, by the ratio of the resolutions of the first and second imaging section for the portion occurring temporal luminance change within the imaging field angle of the second imaging unit, its position Position correcting means for correcting the visible light communication receiver And the image synthesizing means for synthesizing the information demodulated in step (2) on the image obtained by the second photographing section in accordance with the position corrected by the position correcting means, and the photographing field angle of the second photographing section. In this display range, the image synthesized by the image synthesizing means is displayed, and the processing for the display is omitted for the portion where the temporal luminance change occurs at a position outside the display range. It is made to function as a display means to perform.

本発明によれば、可視光通信用と画像撮影用の2つの撮像部の撮影条件等が異なる場合であっても正確に一方の撮像部で得た情報を他方の画像に正確に反映させることが可能となる。   According to the present invention, even when the imaging conditions of the two imaging units for visible light communication and imaging are different, the information obtained by one imaging unit is accurately reflected in the other image. Is possible.

本発明の一実施形態に係るカメラ機能を備えた携帯電話端末の回路構成を示すブロック図。The block diagram which shows the circuit structure of the mobile telephone terminal provided with the camera function which concerns on one Embodiment of this invention. 同実施形態に係る可視光通信撮像時の処理内容を示すフローチャート。The flowchart which shows the processing content at the time of visible light communication imaging which concerns on the embodiment. 同実施形態に係る撮影画像と通信画像の各光源位置座標の関係を例示する図。The figure which illustrates the relationship between each light source position coordinate of the picked-up image and communication image which concern on the embodiment. 同実施形態に係る撮影画像と通信画像の各光源位置座標の関係を例示する図。The figure which illustrates the relationship between each light source position coordinate of the picked-up image and communication image which concern on the embodiment. 同実施形態に係る撮影画像と通信画像の各光源位置座標の関係を例示する図。The figure which illustrates the relationship between each light source position coordinate of the picked-up image and communication image which concern on the embodiment. 同実施形態に係る撮影画像と通信画像の各光源位置座標の関係を例示する図。The figure which illustrates the relationship between each light source position coordinate of the picked-up image and communication image which concern on the embodiment. 同実施形態に係る合成表示画像を例示する図。The figure which illustrates the synthesized display image which concerns on the same embodiment. 同実施形態に係るズーム撮影時の撮影画像と通信画像の各光源位置座標の関係を例示する図。The figure which illustrates the relationship of each light source position coordinate of the picked-up image at the time of zoom imaging | photography and communication image which concern on the same embodiment. 同実施形態に係るズーム撮影時の撮影画像と通信画像の各光源位置座標の関係を例示する図。The figure which illustrates the relationship of each light source position coordinate of the picked-up image at the time of zoom imaging | photography and communication image which concern on the same embodiment.

以下、本発明をカメラ機能を備えた携帯電話端末に適用した場合の一実施形態について図面を参照して詳細に説明する。   Hereinafter, an embodiment in which the present invention is applied to a mobile phone terminal having a camera function will be described in detail with reference to the drawings.

図1は、本実施形態に係る携帯電話端末10の機能回路構成を示す。この携帯電話端末10は、可視光通信用と画像撮影用の2系統の撮像部IS1,IS2を有する。
可視光通信用の撮像部IS1では、光学レンズ部11で被写体の光像をイメージセンサ12上に結像させる。イメージセンサ12は、例えばQVGA(1/4VGA=縦240画素×横320画素)サイズの撮影解像度を有するCMOSイメージセンサで構成される。
FIG. 1 shows a functional circuit configuration of a mobile phone terminal 10 according to the present embodiment. The cellular phone terminal 10 includes two systems of imaging units IS1 and IS2 for visible light communication and image capturing.
In the imaging unit IS1 for visible light communication, an optical image of the subject is formed on the image sensor 12 by the optical lens unit 11. The image sensor 12 is configured by a CMOS image sensor having a shooting resolution of, for example, QVGA (1/4 VGA = vertical 240 pixels × horizontal 320 pixels) size.

このイメージセンサ12で取得された画像信号は、タイミングジェネレータ(TG)14からのタイミングパルスに同期して動作する増幅器及びA/D変換器(Amp.,A/D)13を介して増幅及びデジタル化された後に、マッチドフィルタ15に入力される。   The image signal acquired by the image sensor 12 is amplified and digitalized via an amplifier and an A / D converter (Amp., A / D) 13 that operate in synchronization with a timing pulse from a timing generator (TG) 14. Is input to the matched filter 15.

マッチドフィルタ15は、順次入力される画像信号に対して相関処理を実行することにより、時間的に“1”“0”の輝度変化を生じている画素位置で、自己相関ピークと呼称される+またはマイナスの強いピーク信号を出力するもので、その出力結果をフィルタバッファ16に送る。上記自己相関ピークは、輝度変化の“1”“0”に対応している。   The matched filter 15 is called an autocorrelation peak at a pixel position where a luminance change of “1” and “0” occurs temporally by executing correlation processing on sequentially input image signals. Alternatively, a strong negative peak signal is output, and the output result is sent to the filter buffer 16. The autocorrelation peak corresponds to “1” “0” of luminance change.

フィルタバッファ16は、マッチドフィルタ15の出力する自己相関ピークを画像中の位置情報と対応付けて順次保持する。   The filter buffer 16 sequentially holds autocorrelation peaks output from the matched filter 15 in association with position information in the image.

もう一方の画像撮影用の撮像部IS2では、光学レンズ部17で被写体の光像をイメージセンサ18上に結像させる。このイメージセンサ18は、例えばVGA(縦480画素×横640画素)サイズの撮影解像度を有するCMOSイメージセンサで構成される。   In the other imaging unit IS2 for taking an image, the optical lens unit 17 forms an optical image of the subject on the image sensor 18. The image sensor 18 is constituted by a CMOS image sensor having a photographing resolution of, for example, a VGA size (480 vertical pixels × horizontal 640 pixels).

イメージセンサ18で取得された画像信号は、図示しない増幅器及びA/D変換器を介して増幅、デジタル化された後に、画像バッファ19に保持される。この画像バッファ19に保持される画像信号は、必要により後述する画像合成処理が施された後に表示バッファ20に保持される。この表示バッファ20の保持内容に基づいて表示部21でイメージセンサ18での撮影画像に基づいたモニタ画像が表示される。   The image signal acquired by the image sensor 18 is amplified and digitized through an amplifier and an A / D converter (not shown) and then held in the image buffer 19. The image signal held in the image buffer 19 is held in the display buffer 20 after being subjected to an image synthesis process described later if necessary. Based on the contents held in the display buffer 20, a monitor image based on the image captured by the image sensor 18 is displayed on the display unit 21.

また、後述するシャッタキーが操作された場合は、あらためてイメージセンサ18で被写体の画像を撮影し、その画像データを画像バッファ19から読出した後に適宜データ圧縮を含むデータファイル化処理を施してから、記録部22に記録する。この記録部22は、携帯電話端末10が内蔵するフラッシュメモリ、あるいは携帯電話端末10に対して着脱自在に装着される、フラッシュメモリを用いたメモリカードで構成される。   When a shutter key, which will be described later, is operated, an image of the subject is captured again by the image sensor 18, and after the image data is read from the image buffer 19, a data file process including data compression is appropriately performed. Records in the recording unit 22. The recording unit 22 includes a flash memory built in the mobile phone terminal 10 or a memory card using a flash memory that is detachably attached to the mobile phone terminal 10.

上記の各回路を制御部23が統括して制御する。制御部23は、この携帯電話端末10全体の動作制御を司るものであり、CPUと、ワークメモリとして機能するメインメモリ、及び上記CPUの動作プログラムや各種固定データを記憶したプログラムメモリを有する。   The control unit 23 controls each circuit described above. The control unit 23 controls the overall operation of the mobile phone terminal 10 and includes a CPU, a main memory that functions as a work memory, and a program memory that stores an operation program of the CPU and various fixed data.

この制御部23に対して、上記フィルタバッファ16、画像バッファ19、表示バッファ20、表示部21、記録部22が接続される他、上記イメージセンサ12、イメージセンサ18、操作部24、データ通信部25、通信データ記憶部26、通信データ解析部27、座標変換処理部28、音声処理部29、表示データ処理部30、画像処理部31、及びステッピングモータ(M)32とも接続される。   In addition to the filter buffer 16, image buffer 19, display buffer 20, display unit 21, and recording unit 22 being connected to the control unit 23, the image sensor 12, the image sensor 18, the operation unit 24, and the data communication unit. 25, a communication data storage unit 26, a communication data analysis unit 27, a coordinate conversion processing unit 28, an audio processing unit 29, a display data processing unit 30, an image processing unit 31, and a stepping motor (M) 32 are also connected.

可視光通信用の撮像部IS1の一部を構成するイメージセンサ12は、可視光通信の信号受信時に制御部23の指示タイミングに応じて例えば60[kHz]のサンプリング周期で画像信号を読出して出力する。   The image sensor 12 constituting a part of the imaging unit IS1 for visible light communication reads and outputs an image signal at a sampling period of, for example, 60 [kHz] according to the instruction timing of the control unit 23 when receiving a signal of visible light communication. To do.

画像撮影用の撮像部IS2の一部を構成するイメージセンサ18は、画像撮影時に制御部23の指示タイミングに応じて例えば30[Hz]のサンプリング周期で画像信号を読出して出力する。   The image sensor 18 constituting a part of the image capturing unit IS2 for image capturing reads and outputs an image signal at a sampling period of, for example, 30 [Hz] according to the instruction timing of the control unit 23 at the time of image capturing.

データ通信部25は、アンテナ33を介して図示しない最寄りの基地局と、例えばCDMA(符号分割多元接続)方式に則ってデータの送受を行なうことで、この携帯電話端末10による音声通話及び各種デジタルデータの送受を実行する。   The data communication unit 25 transmits / receives data to / from a nearby base station (not shown) via the antenna 33 in accordance with, for example, a CDMA (Code Division Multiple Access) system, so that voice communication and various digital signals can be made by the mobile phone terminal 10 Send and receive data.

通信データ記憶部26は、フィルタバッファ16に保持される内容を記憶する一方で、その記憶内容からデータ解析によって復調された可視光通信の受信データを記憶する。   The communication data storage unit 26 stores the contents held in the filter buffer 16, while storing the received data of visible light communication demodulated by data analysis from the stored contents.

通信データ解析部27は、通信データ記憶部26に記憶される内容に対して予め定められた変復調方式、例えば28.8[kHz]の副搬送波(サブキャリア)を採用した4値PPM(Pulse−position modulation)に従って復調処理を行なうことで重畳されていた通信データを解析し、解析結果である受信データを上記通信データ記憶部26に記憶させる。   The communication data analyzing unit 27 employs a predetermined modulation / demodulation method for contents stored in the communication data storage unit 26, for example, a 4-value PPM (Pulse-) using a subcarrier of 28.8 [kHz]. The communication data superimposed by performing demodulation processing according to position modulation) is analyzed, and the received data as the analysis result is stored in the communication data storage unit 26.

座標変換処理部28は、後述する変換式データを予め記憶しており、その変換式データを用いた演算による座標変換処理を実行することで、復調した可視光通信の受信データを合成する撮影画像中の正しい座標位置を算出する。   The coordinate conversion processing unit 28 stores conversion formula data, which will be described later, in advance, and performs a coordinate conversion process based on an operation using the conversion formula data, thereby synthesizing the demodulated received data of visible light communication. Calculate the correct coordinate position.

音声処理部29は、音声通話時に送話器であるマイクロホン34から入力された音声信号をデジタル化して上記データ通信部25へ送出する一方で、データ通信部25を介して受信し、復号化した音声データをアナログ化して受話器であるスピーカ35から拡声放音させる。   The voice processing unit 29 digitizes the voice signal input from the microphone 34 as a transmitter during voice call and sends it to the data communication unit 25, while receiving and decoding it via the data communication unit 25. The voice data is converted into an analog signal and a loud sound is emitted from the speaker 35 which is a receiver.

表示データ処理部30は、通信データ記憶部26に記憶された、可視光通信の受信データを表示用のフォントデータに変換する。   The display data processing unit 30 converts the received data of visible light communication stored in the communication data storage unit 26 into display font data.

画像処理部31は、可視光通信用の撮像部IS1で得た画像データに対し、上記表示データ処理部30からのフォントデータを制御部23から指定される座標位置上に合成処理し、合成結果である画像データを出力するもので、表示データ処理部30から出力された画像データは上記表示部21で表示される。   The image processing unit 31 synthesizes the font data from the display data processing unit 30 on the coordinate position designated by the control unit 23 with respect to the image data obtained by the imaging unit IS1 for visible light communication, and the synthesis result The image data output from the display data processing unit 30 is displayed on the display unit 21.

ステッピングモータ32は、上記制御部23の制御の下に、上記光学レンズ部17を構成する複数の光学レンズ中、特にズーム角度(撮影画角)を可変するズームレンズの位置、及びフォーカス位置を可変するフォーカシングレンズの位置を、それぞれ撮影光軸に沿って個別に移動させる。   Under the control of the control unit 23, the stepping motor 32 changes the position of the zoom lens that can change the zoom angle (shooting angle of view) and the focus position among the plurality of optical lenses that constitute the optical lens unit 17. The position of the focusing lens to be moved is individually moved along the photographing optical axis.

このステッピングモータ30による該ズームレンズ、及びフォーカシングレンズの各駆動位置は、制御部23にフィードバックされる。制御部23は、該ズームレンズの駆動位置から撮影画角を、フォーカシングレンズの駆動位置から合焦距離をそれぞれ容易に取得できる。   The drive positions of the zoom lens and focusing lens by the stepping motor 30 are fed back to the control unit 23. The control unit 23 can easily acquire the photographing field angle from the driving position of the zoom lens and the focusing distance from the driving position of the focusing lens.

次に上記実施形態の動作について説明する。
なお、以下の動作本実施形態では説明を簡略化するために、可視光通信用の撮像部IS1を構成する光学レンズ部11及びイメージセンサ12による撮影画角と、画像撮影用の撮像部IS2を構成する光学レンズ部17及びイメージセンサ18による撮影画角が等しく、且つこれら2つの撮像部IS1,IS2の撮影光軸が平行であるものとする。
Next, the operation of the above embodiment will be described.
In order to simplify the description in the present embodiment, the imaging angle of view by the optical lens unit 11 and the image sensor 12 constituting the imaging unit IS1 for visible light communication and the imaging unit IS2 for imaging are described. It is assumed that the photographing field angles by the optical lens unit 17 and the image sensor 18 are equal, and the photographing optical axes of the two imaging units IS1 and IS2 are parallel.

したがって、これら2つの撮像部IS1,撮像部IS2で得られる画像は、イメージセンサ12,18の解像度の違いと、特に近い位置にある被写体を撮影する際にパララックス(視差)による影響を受ける点を除いて、基本的にほぼ同様の被写体の範囲を撮影する。   Therefore, the images obtained by these two image pickup units IS1 and IS2 are affected by the difference in resolution between the image sensors 12 and 18 and parallax (parallax) when shooting a subject at a particularly close position. Except for, basically, the same subject range is photographed.

図2は、可視光通信を伴う画像撮影時の処理内容を示すもので、その動作制御は制御部23が統括して行なう。   FIG. 2 shows the processing contents at the time of image capturing involving visible light communication, and the control of the control is performed by the control unit 23.

動作当初には、撮像部IS1での撮影動作を実行し、撮影した画像中から可視光通信による光源の位置を抽出して当該位置における輝度変化から情報を復調する(ステップS
101)。
At the beginning of the operation, the imaging operation at the imaging unit IS1 is executed, the position of the light source by visible light communication is extracted from the captured image, and the information is demodulated from the luminance change at the position (step S).
101).

なお、上記可視光通信における輝度変調、復調に係る技術の詳細は特開2003−179556号公報にて公知であるので詳細な説明については省略するが、例えば被写体の画像範囲中にある可視光通信の光源が28.8[kHz]の副搬送波(サブキャリア)を採用した4値PPMであり、本携帯電話端末10がその周波数の可視光通信を対象として受信を行なうものとする。   Note that details of the technology relating to luminance modulation and demodulation in the visible light communication are known in Japanese Patent Application Laid-Open No. 2003-179556, and detailed description thereof is omitted. For example, visible light communication in the image range of the subject is performed. Suppose that the light source is a four-value PPM employing a subcarrier of 28.8 [kHz], and that the cellular phone terminal 10 performs reception for visible light communication of that frequency.

この場合、イメージセンサ12ではサンプリング定理により搬送波の2倍以上の周波数、例えば60[kHz]で駆動されることで、その画像出力から可視光通信による時間的な輝度変化を復調することが可能となる。   In this case, the image sensor 12 is driven at a frequency more than twice the carrier wave, for example, 60 [kHz] according to the sampling theorem, so that it is possible to demodulate temporal luminance change due to visible light communication from the image output. Become.

マッチドフィルタ15の出力をフィルタバッファ16を介して通信データ記憶部26で保持する。可視光通信用の撮影画像中から時間的な輝度変化を生じている位置が検出された場合、通信データ記憶部26ではその検出結果から画像中の位置座標と対応付けて輝度変化を“1”“0”のデータの羅列として記憶する。   The output of the matched filter 15 is held in the communication data storage unit 26 via the filter buffer 16. When a position causing a temporal luminance change is detected from a captured image for visible light communication, the communication data storage unit 26 sets the luminance change to “1” in association with the position coordinate in the image from the detection result. It is stored as an enumeration of “0” data.

制御部23は、通信データ記憶部26の記憶内容に基づいて通信データ解析部27で可視光通信による元の情報を復調させ、復調結果を通信データ記憶部26を記憶させる。   The control unit 23 causes the communication data analysis unit 27 to demodulate the original information by visible light communication based on the stored contents of the communication data storage unit 26, and stores the demodulation result in the communication data storage unit 26.

上記撮像部IS1側の撮影及び復調動作と平行して、画像撮影用の撮像部IS2では所定のフレームレート、例えば30[フレーム/秒]で画像を撮影し、その撮影結果を画像バッファ19に保持する(ステップS102)。   In parallel with the imaging and demodulation operations on the imaging unit IS1 side, the imaging unit IS2 for imaging images captures an image at a predetermined frame rate, for example, 30 [frames / second], and the captured result is held in the image buffer 19. (Step S102).

次いで、通信データ記憶部26にデータが記憶されているか否かにより、撮影画像中から可視光通信によるデータを復調できているか否かを判断する(ステップS103)。   Next, it is determined whether or not the data by the visible light communication can be demodulated from the photographed image depending on whether or not the data is stored in the communication data storage unit 26 (step S103).

ここで、通信データ記憶部26にデータが記憶されておらず、可視光通信によるデータ復調が行なわれていないと判断した場合には、画像バッファ19に保持される画像データのみをそのまま表示バッファ20に保持させることで、表示部21でのモニタ表示を実行(ステップS104)、さらに撮影を続行するべく上記ステップS101からの処理に戻る。   Here, when it is determined that no data is stored in the communication data storage unit 26 and data demodulation by visible light communication is not performed, only the image data held in the image buffer 19 is displayed as it is. , The monitor display on the display unit 21 is executed (step S104), and the process returns to step S101 to continue photographing.

また、上記ステップS103で通信データ記憶部26にデータが記憶されており、可視光通信によるデータ復調が行なわれていると判断した場合には、まず画像解析により信号光源を基点として撮影画像と通信画像の座標系を合致させる(ステップS105)。   If it is determined in step S103 that data is stored in the communication data storage unit 26 and data demodulation by visible light communication is being performed, first, image analysis is performed to communicate with a captured image using a signal light source as a base point. The coordinate system of the image is matched (step S105).

図3(A)は、画像撮影用の撮像部IS2で取得される画像Aを例示するもので、上述した如くVGAサイズ、すなわちタ画像データのサイズが横(a)640ドット×縦(b)480ドットである。同図(A)は、説明を容易にするために撮影画像中に写り込んでいる可視光通信の光源のみの画像Aを示すもので、2つの光源の座標位置を(X1″,Y1″)(X2″,Y2″)とする。   FIG. 3A illustrates the image A acquired by the imaging unit IS2 for image capturing. As described above, the VGA size, that is, the size of the image data is horizontal (a) 640 dots × vertical (b). It is 480 dots. FIG. 2A shows an image A of only a visible light communication light source that is reflected in a photographed image for easy explanation. The coordinate positions of the two light sources are represented by (X1 ″, Y1 ″). (X2 ", Y2").

図3(B)は、可視光通信用の撮像部IS1で取得される画像Bを示すもので、上述した如くQVGA(1/4VGA)サイズ、すなわちタ画像データのサイズが横(a′)320ドット×縦(b′)240ドットである。画像B中に写り込んでいる可視光通信の2つの光源の座標位置を(X1′,Y1′),(X2′,Y2′)とする。   FIG. 3B shows the image B acquired by the imaging unit IS1 for visible light communication. As described above, the QVGA (1/4 VGA) size, that is, the size of the image data is horizontal (a ′) 320. Dot × vertical (b ′) 240 dots. The coordinate positions of the two light sources of visible light communication reflected in the image B are (X1 ′, Y1 ′) and (X2 ′, Y2 ′).

図3(A)と図3(B)とからわかるように、可視光通信用の画像B中の配置を画像撮影用の画像Aの配置に変換するための座標変換は、X座標系の画像補正係数a/a′、Y座標系の画像補正係数b/b′を用いて
X″=X′*a/a′,
Y″=Y′*b/b′ ‥‥(1)
となる。上記2つの画像補正係数は、イメージセンサ12とイメージセンサ18の解像度で決定され、この携帯電話端末10の設計段階で既知の値であるので、この変換式(1)を予め座標変換処理部28に記憶しておくことで、容易に画像中の位置を変換できる。
As can be seen from FIG. 3A and FIG. 3B, the coordinate conversion for converting the arrangement in the image B for visible light communication into the arrangement of the image A for image capturing is an image in the X coordinate system. Using the correction coefficient a / a ′ and the image correction coefficient b / b ′ in the Y coordinate system
X ″ = X ′ * a / a ′,
Y ″ = Y ′ * b / b ′ (1)
It becomes. The two image correction coefficients are determined by the resolutions of the image sensor 12 and the image sensor 18 and are known values at the design stage of the mobile phone terminal 10, so that the conversion equation (1) is preliminarily converted into the coordinate conversion processing unit 28. It is possible to easily convert the position in the image by storing it in.

次に、図4(A)、図4(B)に示すようにデータ光源の位置を基点として撮影画像と通信画像の座標系の補正を行なう。図4(A)は、画像撮影用の撮像部IS2で取得した画像A′中の光源の座標を(x1,y1),(x2,,y2)で示すもので、この図4(A)側の画像Aの光源の位置を基点として、図4(B)に示す、可視光通信用の撮像部IS1で取得した画像B′の光源の位置を補正する。   Next, as shown in FIGS. 4A and 4B, the coordinate system of the captured image and the communication image is corrected using the position of the data light source as a base point. FIG. 4A shows the coordinates of the light source in the image A ′ acquired by the imaging unit IS2 for taking an image as (x1, y1), (x2, y2). This FIG. 4A side The position of the light source in the image B ′ acquired by the imaging unit IS1 for visible light communication shown in FIG. 4B is corrected using the position of the light source in the image A as a base point.

すなわち、上記したX座標系の画像補正係数a/a′、Y座標系の画像補正係数b/b′を用いて、
dx=|x*a/a′−p|,
dy=|y*b/b′−q|‥‥(2)
となる変換を行ない、画像B′に対する画像A′の座標(x1′,y1′),(x2′,y2′)の座標補正を行なう変換式(2)を予め用意しておく。
That is, using the image correction coefficient a / a ′ in the X coordinate system and the image correction coefficient b / b ′ in the Y coordinate system,
dx = | x * a / a′−p |,
dy = | y * b / b′−q | (2)
A conversion formula (2) is prepared in advance for performing coordinate correction of the coordinates (x1 ′, y1 ′) and (x2 ′, y2 ′) of the image A ′ with respect to the image B ′.

解像度の高い撮像部IS2側で撮影された画像A′中の光源の位置座標を基準として、上記変換式(2)を用い、解像度の低い可視光通信用の撮像部IS1側の画像B′中の光源の位置座標を補正する(ステップS106)。   Using the above conversion equation (2) with reference to the position coordinates of the light source in the image A ′ taken on the high-resolution imaging unit IS2 side, the image B ′ on the imaging unit IS1 side for low-viscosity visible light communication is used. The position coordinates of the light source are corrected (step S106).

上記座標の補正により生成された2つの画像A″,B″を図5で示す。図5(A)で示す画像A″中、二人の人物P1,P2の各左胸部分にある、可視光通信の光源の位置座標が(x1,y1),(x2,y2)である。   FIG. 5 shows two images A ″ and B ″ generated by correcting the coordinates. In the image A ″ shown in FIG. 5A, the position coordinates of the light source for visible light communication in the left chest portions of the two persons P1 and P2 are (x1, y1) and (x2, y2).

これに対して、図5(B)に可視光通信用の撮像部IS1側の画像B″を示す。画像B″中の光源の位置座標が(x1′,y1′),(x2′,y2′)であり、この光源位置で得られた通信データを画像化して画像A″上に合成して表示することを目的とする。   In contrast, FIG. 5B shows an image B ″ on the imaging unit IS1 side for visible light communication. The position coordinates of the light source in the image B ″ are (x1 ′, y1 ′), (x2 ′, y2). ′), And the communication data obtained at the light source position is converted into an image and displayed on the image A ″.

画像B″中の光源の位置座標が画像A″中のどこの位置座標に該当するのかを変換式(1)で対応付けることで、上記画像の合成表示が実現できる。   By associating the position coordinate of the light source in the image B ″ corresponding to the position coordinate in the image A ″ with the conversion formula (1), the combined display of the image can be realized.

図6(A)は、上記変形式(1)を用いて図6(B)に示す画像B″に合わせるべく、上記画像A″をその座標軸に沿った領域にブロック状に分割した画像A゜を示す。   FIG. 6A shows an image A ° obtained by dividing the image A ″ into regions along the coordinate axes so as to match the image B ″ shown in FIG. Indicates.

画像B″の座標に対する変換式(1)を行なって画像A゜の座標値に適合化することで、可視光通信の光源の画像A゜中での正しい位置座標を得ることができる(ステップS108)。   By performing the conversion formula (1) for the coordinates of the image B ″ and adapting it to the coordinate values of the image A °, the correct position coordinates in the image A ° of the light source for visible light communication can be obtained (step S108). ).

次いで、上記通信データ記憶部26に記憶される復調された通信データを用い、表示データ処理部30が画像合成用の文字フォントデータ列に変換して画像処理部31に出力する(ステップS109)。   Next, using the demodulated communication data stored in the communication data storage unit 26, the display data processing unit 30 converts it into a character font data string for image composition and outputs it to the image processing unit 31 (step S109).

画像処理部31は、この文字フォントデータ列を用い、それを包囲するような「吹き出し」画像を生成して画像A゜上に合成することで図7に示すような合成画像を生成し、これを表示データとして表示バッファ20に記憶させることで、表示部21で表示させる(ステップS110)。   The image processing unit 31 uses this character font data string to generate a “speech balloon” image that surrounds the character font data sequence and synthesizes it on the image A ° to generate a composite image as shown in FIG. Is stored in the display buffer 20 as display data to be displayed on the display unit 21 (step S110).

この図7では、画像中の人物P1の左胸部の位置座標(x1″,y1″)にある光源に対して第1の吹き出しで可視光通信による文字データ「株式会社ABCD 社員No.12345」が表示されている。   In FIG. 7, the character data “ABCD Employee No. 12345” by visible light communication is emitted with the first balloon against the light source at the position coordinate (x1 ″, y1 ″) of the left chest of the person P1 in the image. It is displayed.

これとともに、画像中の人物P2の左胸部の位置座標(x2″,y2″)にある光源に対して第2の吹き出しで可視光通信による文字データ「株式会社ABCD 社員No.23456」が表示されている。   At the same time, the text data “ABCD Employee No. 23456” by visible light communication is displayed with a second balloon against the light source at the position coordinates (x2 ″, y2 ″) of the left chest of the person P2 in the image. ing.

こうして合成画素を表示した上で、さらに撮影を続行するべく上記ステップS101からの処理に戻る。   After displaying the synthesized pixels in this way, the process returns to the above-described step S101 to continue photographing.

このように本実施形態では、可視光通信用の撮像部IS1と画像撮影用の撮像部IS2の2つの撮像部の解像度が異なる場合であっても、座標変換を行なうことで正確に一方の撮像部で得た情報を他方の画像に正確に反映させることが可能となる。   As described above, in the present embodiment, even if the resolutions of the two imaging units IS1 for visible light communication and the imaging unit IS2 for image capturing are different, one image is accurately captured by performing coordinate conversion. It is possible to accurately reflect the information obtained in the part on the other image.

なお、上記実施形態では、説明を容易にするために、可視光通信用の撮像部IS1と画像撮影用の撮像部IS2とが同一の撮影画角であり、両撮影部で撮影される被写体範囲が略同一であるものとして説明したが、画像撮影用の撮像部IS2側についてはズーム機能を有しており、操作部24のズームキーの操作により撮影画角を所定の範囲内で任意に可変できる。   In the above embodiment, for ease of explanation, the imaging unit IS1 for visible light communication and the imaging unit IS2 for image shooting have the same shooting angle of view, and the subject range shot by both shooting units. However, the image pickup unit IS2 for image shooting has a zoom function, and the shooting angle of view can be arbitrarily varied within a predetermined range by operating the zoom key of the operation unit 24. .

図8(A)は、画像撮影用の撮像部IS2でのズーム倍率が最広角側を基準として「α」であった場合に得られる画像D′を示す。一方、図6(B)は画像撮影用の撮像部IS2の最広角側と同一の撮影画角を有する可視光通信用の撮像部IS1で取得される画像B″である。   FIG. 8A shows an image D ′ obtained when the zoom magnification in the imaging unit IS2 for image capturing is “α” with the widest angle side as a reference. On the other hand, FIG. 6B shows an image B ″ obtained by the visible light communication imaging unit IS1 having the same imaging field angle as the widest angle side of the imaging unit IS2 for imaging.

この場合、上記変換式(1)に加えて、ズーム倍率αを考慮した変換式(1)′を用いることで、図9(A)に示すような画像A゜を得ることができる。ここで変換式(1)′に用いるズーム倍率αは、ステッピングモータ32による光学レンズ部17中のズームレンズの位置駆動に基づいてステッピングモータ32の制御内容から制御部23が取得し、座標変換処理部28に与えられる。   In this case, an image A ° as shown in FIG. 9A can be obtained by using the conversion equation (1) ′ in consideration of the zoom magnification α in addition to the conversion equation (1). Here, the zoom magnification α used in the conversion equation (1) ′ is acquired by the control unit 23 from the control content of the stepping motor 32 based on the position driving of the zoom lens in the optical lens unit 17 by the stepping motor 32, and coordinate conversion processing is performed. Given to part 28.

なお、上記変換式(1)′においては、可視光通信用の撮像部IS1で得た画像に対し、画像の中心位置座標を基準として1/αの範囲のみを有効領域として切出し処理を行ない、その切出し結果をα倍することで可視光通信用の画像の新たな座標系とする。   In the conversion equation (1) ′, the image obtained by the imaging unit IS1 for visible light communication is subjected to a cutting process using only the 1 / α range as an effective area with reference to the center position coordinates of the image. A new coordinate system of the image for visible light communication is obtained by multiplying the cutting result by α.

当初の可視光通信用の画像中の光源位置が上記切出し範囲から外れてしまった場合には、該当する光源の位置が画像撮影用の撮像部IS2で取得する画像では撮影範囲外となっている(写っていない)ことになるので、その変換処理については省略するものとする。   When the light source position in the initial visible light communication image is out of the cutout range, the position of the corresponding light source is out of the shooting range in the image acquired by the image pickup unit IS2. (It is not shown), so the conversion process will be omitted.

また、上記ズーム機能は、所謂「光学ズーム」機能による場合について説明したものであるが、撮影画像の範囲を限定してその限定した範囲を画像処理により拡大し、拡大後の画像を表示する、所謂「デジタルズーム」機能を行なう場合には、上記変換式(1)による座標変換を行なった後、撮影画像の範囲を限定した際にその限定範囲内に光源が位置しているか否かにより可視光通信による通信データの表示を行なうか否かを判断すればよい。   In addition, the zoom function described above is based on the so-called “optical zoom” function, but the range of the captured image is limited, the limited range is expanded by image processing, and the image after expansion is displayed. In the case of performing the so-called “digital zoom” function, when the range of the photographed image is limited after performing the coordinate conversion by the conversion formula (1), the visible light depends on whether or not the light source is located within the limited range. It may be determined whether or not to display communication data by communication.

このように、画像撮影用の撮像部IS2がズーム機能を有している場合には、その機能に対応した光源位置の座標変換を行なうことで、撮影画角が変化しても光源位置に正確に対応した通信データの表示を行なうことができると共に、ズーム動作によって表示範囲を外れる光源に関してはその表示に関する処理を省略することができ、通信データの表示に関する処理を効率化できる。   As described above, when the imaging unit IS2 for image capturing has a zoom function, coordinate conversion of the light source position corresponding to the function is performed, so that the light source position can be accurately adjusted even if the shooting angle of view changes. The communication data corresponding to the above can be displayed, and the processing related to the display of the communication data can be made efficient with respect to the light source that is out of the display range by the zoom operation.

また、上記実施形態では変換式を用いて光源位置の座標変換を行なう場合について説明したが、本発明はこれに限らず、予め可視光通信用の撮像部と画像撮影用の撮像部IS2の各撮影条件の違いを考慮して作成したルックアップテーブルを予め座標変換処理部28に記憶しておくか、あるいは撮影条件が変更される毎に新たにルックアップテーブルを作成して座標変換処理部28に更新設定することにより、当該ルックアップテーブルを用いて変換後の位置座標を読出すように構成することも考えられる。   Moreover, although the case where the coordinate conversion of the light source position is performed using the conversion formula in the above embodiment has been described, the present invention is not limited to this, and each of the imaging unit for visible light communication and the imaging unit IS2 for image capturing is previously provided. A lookup table created in consideration of the difference in imaging conditions is stored in the coordinate conversion processing unit 28 in advance, or a new lookup table is created each time the imaging conditions are changed, and the coordinate conversion processing unit 28 is created. It is also conceivable that the position coordinates after conversion are read out by using the lookup table by updating the setting.

このような構成とすることにより、演算を行なう必要がないため、可視光通信用のデータを受信してから、その受信したデータを撮影画像上に合成して表示させるまでの時間を短縮できる。   With such a configuration, since it is not necessary to perform an operation, it is possible to shorten the time from when the data for visible light communication is received until the received data is combined and displayed on the captured image.

さらに、上記実施形態では、可視光通信用の撮像部IS1に比して画像撮影用の撮像部IS2の法が、取得する画像の解像度が高いものとして説明したが、解像度の高低は上記順序に限るものではなく、可視光通信用の撮像部IS1の方が画像撮影用の撮像部IS2よりも高い解像度を有していてもよい。その場合、上記座標変換式、あるいはルックアップテーブルは解像度の高い方の画像を基準とし、解像度の低い方の画像の光源の位置座標を変換して解像度の高い方の画像に合わせるものとする。   Further, in the above-described embodiment, the method of the imaging unit IS2 for image capturing has been described as having a higher resolution of the image to be acquired compared to the imaging unit IS1 for visible light communication. The imaging unit IS1 for visible light communication may have a higher resolution than the imaging unit IS2 for image capturing. In this case, the coordinate conversion formula or lookup table is based on the image with the higher resolution, and the position coordinates of the light source of the image with the lower resolution are converted to match the image with the higher resolution.

なお、上記実施形態は、本発明をカメラ機能を備えた携帯電話端末に適用した場合について説明したものであるが、本発明はこれに限らず、デジタル(スチル)カメラやビデオムービーカメラ、監視カメラ、観光地等に固定設置される望遠鏡など、各種撮像機器、あるいは撮像機器に搭載されるコンピュータが実行する画像処理プログラム等に適用可能となる。   In addition, although the said embodiment demonstrated the case where this invention was applied to the mobile telephone terminal provided with the camera function, this invention is not restricted to this, A digital (still) camera, a video movie camera, a surveillance camera The present invention can be applied to various imaging devices such as a telescope fixedly installed in a sightseeing spot or the like, or an image processing program executed by a computer mounted on the imaging device.

その他、本発明は上述した実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。また、上述した実施形態で実行される機能は可能な限り適宜組み合わせて実施しても良い。上述した実施形態には種々の段階が含まれており、開示される複数の構成要件による適宜の組み合せにより種々の発明が抽出され得る。例えば、実施形態に示される全構成要件からいくつかの構成要件が削除されても、効果が得られるのであれば、この構成要件が削除された構成が発明として抽出され得る。   In addition, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention in the implementation stage. Further, the functions executed in the above-described embodiments may be combined as appropriate as possible. The above-described embodiment includes various stages, and various inventions can be extracted by an appropriate combination of a plurality of disclosed constituent elements. For example, even if some constituent requirements are deleted from all the constituent requirements shown in the embodiment, if the effect is obtained, a configuration from which the constituent requirements are deleted can be extracted as an invention.

10…携帯電話端末、11…光学レンズ部、12…イメージセンサ、13…増幅器及びA/D変換器(Amp.,A/D)、14…タイミングジェネレータ(TG)、15…マッチドフィルタ、16…フィルタバッファ、17…光学レンズ部、18…イメージセンサ、19…画像バッファ、20…表示バッファ、21…表示部、22…記録部、23…制御部、24…操作部、25…データ通信部、26…通信データ記憶部、27…通信データ解析部、28…座標変換処理部、29…音声処理部、30…表示データ処理部、31…画像処理部、32…ステッピングモータ(M)、33…アンテナ、34…マイクロホン、35…スピーカ、IS1…(可視光通信用)撮像部、IS2…(画像撮影用)撮像部。   DESCRIPTION OF SYMBOLS 10 ... Mobile phone terminal, 11 ... Optical lens part, 12 ... Image sensor, 13 ... Amplifier and A / D converter (Amp., A / D), 14 ... Timing generator (TG), 15 ... Matched filter, 16 ... Filter buffer, 17 ... Optical lens unit, 18 ... Image sensor, 19 ... Image buffer, 20 ... Display buffer, 21 ... Display unit, 22 ... Recording unit, 23 ... Control unit, 24 ... Operation unit, 25 ... Data communication unit, 26 ... Communication data storage unit, 27 ... Communication data analysis unit, 28 ... Coordinate conversion processing unit, 29 ... Audio processing unit, 30 ... Display data processing unit, 31 ... Image processing unit, 32 ... Stepping motor (M), 33 ... Antenna, 34... Microphone, 35. Speaker, IS1... (For visible light communication) imaging unit, IS2.

Claims (5)

第1の撮影部と、
上記第1の撮影部で得る画像中から時間的な輝度変化を生じている箇所を特定し、当該箇所での輝度変化から情報を復調する可視光通信受信手段と、
上記第1の撮影部と平行した撮影光軸をもって近接配置された第2の撮影部と、
上記第1及び第2の撮影部の各撮影画角により上記第1の撮影部の撮像画角において上記第2の撮影部の撮像画角外で時間的な輝度変化を生じている箇所については位置の補正を省略し、上記第2の撮影部の撮像画角内で時間的な輝度変化を生じている箇所については上記第1及び第2の撮影部の各解像度の比により、その位置を補正する位置補正手段と、
上記可視光通信受信手段で復調した情報を、上記位置補正手段で補正した位置に応じて上記第2の撮影部で得た画像上に合成する画像合成手段と、
上記第2の撮影部の撮影画角を表示範囲とし、この表示範囲に上記画像合成手段で合成した画像を表示し、且つ、この表示範囲を外れた位置で上記時間的な輝度変化を生じている箇所についてはその表示に関する処理を省略して表示する表示手段と
を具備したことを特徴とする撮像装置。
A first imaging unit;
A visible light communication receiving means for identifying a location where a temporal luminance change has occurred in the image obtained by the first imaging unit, and demodulating information from the luminance change at the location;
A second imaging unit disposed close to the first imaging unit in parallel with the imaging optical axis;
With respect to the location where a temporal luminance change occurs outside the imaging field angle of the second imaging unit in the imaging field angle of the first imaging unit due to each imaging field angle of the first and second imaging units. omitting the correction of the position, by the ratio of the resolutions of the first and second imaging section for the portion occurring temporal luminance change within the imaging field angle of the second imaging unit, the position Position correcting means for correcting;
Image synthesizing means for synthesizing the information demodulated by the visible light communication receiving means on the image obtained by the second photographing unit according to the position corrected by the position correcting means;
The shooting angle of view of the second imaging unit is set as a display range, an image synthesized by the image synthesizing means is displayed in the display range, and the temporal luminance change occurs at a position outside the display range. An image pickup apparatus, comprising: a display unit configured to display a portion where the display is omitted while omitting processing related to the display.
上記第2の撮影部は、撮影画角を可変するズーム機能を有し、
上記第2の撮影部のズーム機能で設定されている撮影画角を取得する画角取得手段をさらに具備し、
上記位置補正手段は、上記画角取得手段で得た第2の撮影部の撮影画角を用いて上記可視光通信受信手段で特定した時間的な輝度変化を生じている箇所の位置を補正する
ことを特徴とする請求項1記載の撮像装置。
The second photographing unit has a zoom function for changing the photographing angle of view,
An angle of view acquiring means for acquiring an angle of view set by the zoom function of the second imaging unit;
The position correction unit corrects the position of the portion where the temporal luminance change specified by the visible light communication reception unit is generated, using the shooting field angle of the second imaging unit obtained by the field angle acquisition unit. The imaging apparatus according to claim 1.
上記位置補正手段は、予め記憶しているルックアップテーブルを参照して上記可視光通信受信手段で特定した時間的な輝度変化を生じている箇所の位置を補正する
ことを特徴とする請求項1記載の撮像装置。
2. The position correcting means corrects the position of a portion where a temporal luminance change is specified by the visible light communication receiving means with reference to a lookup table stored in advance. The imaging device described.
第1の撮影部と、上記第1の撮影部と平行した撮影光軸をもって近接配置された第2の撮影部とを備えた撮像装置での撮像方法であって、
上記第1の撮影部で得る画像中から時間的な輝度変化を生じている箇所を特定し、当該箇所での輝度変化から情報を復調する可視光通信受信工程と、
上記第1及び第2の撮影部の各撮影画角により上記第1の撮影部の撮像画角において上記第2の撮影部の撮像画角外で時間的な輝度変化を生じている箇所については位置の補正を省略し、上記第2の撮影部の撮像画角内で時間的な輝度変化を生じている箇所については上記第1及び第2の撮影部の各解像度の比により、その位置を補正する位置補正工程と、
上記可視光通信受信工程で復調した情報を、上記位置補正工程で補正した位置に応じて上記第2の撮影部で得た画像上に合成する画像合成工程と、
上記第2の撮影部の撮影画角を表示範囲とし、この表示範囲に上記画像合成工程で合成した画像を表示し、且つ、この表示範囲を外れた位置で上記時間的な輝度変化を生じている箇所についてはその表示に関する処理を省略して表示する表示工程と
を有したことを特徴とする撮像方法。
An imaging method in an imaging apparatus including a first imaging unit and a second imaging unit that is disposed in close proximity with an imaging optical axis parallel to the first imaging unit,
A visible light communication receiving step of identifying a location where a temporal luminance change has occurred in the image obtained by the first imaging unit, and demodulating information from the luminance change at the location;
With respect to the location where a temporal luminance change occurs outside the imaging field angle of the second imaging unit in the imaging field angle of the first imaging unit due to each imaging field angle of the first and second imaging units. omitting the correction of the position, by the ratio of the resolutions of the first and second imaging section for the portion occurring temporal luminance change within the imaging field angle of the second imaging unit, the position A position correction process to be corrected;
An image synthesizing step for synthesizing the information demodulated in the visible light communication receiving step on the image obtained by the second imaging unit according to the position corrected in the position correcting step;
The image angle of view of the second imaging unit is set as a display range, the image synthesized in the image synthesis step is displayed in the display range, and the temporal luminance change occurs at a position outside the display range. And a display step of displaying the display portion by omitting processing related to the display.
第1の撮影部と、上記第1の撮影部と平行した撮影光軸をもって近接配置された第2の撮影部とを備えた撮像装置が内蔵したコンピュータが実行するプログラムであって、上記コンピュータを、
上記第1の撮影部で得る画像中から時間的な輝度変化を生じている箇所を特定し、当該箇所での輝度変化から情報を復調する可視光通信受信手段、
上記第1及び第2の撮影部の各撮影画角により上記第1の撮影部の撮像画角において上記第2の撮影部の撮像画角外で時間的な輝度変化を生じている箇所については位置の補正を省略し、上記第2の撮影部の撮像画角内で時間的な輝度変化を生じている箇所については上記第1及び第2の撮影部の各解像度の比により、その位置を補正する位置補正手段、
上記可視光通信受信手段で復調した情報を、上記位置補正手段で補正した位置に応じて上記第2の撮影部で得た画像上に合成する画像合成手段、及び、
上記第2の撮影部の撮影画角を表示範囲とし、この表示範囲に上記画像合成手段で合成した画像を表示し、且つ、この表示範囲を外れた位置で上記時間的な輝度変化を生じている箇所についてはその表示に関する処理を省略して表示する表示手段
として機能させることを特徴とする、コンピュータが読取り可能なプログラム。
A program executed by a computer built in an imaging apparatus that includes a first imaging unit and a second imaging unit that is disposed in close proximity with an imaging optical axis parallel to the first imaging unit, the computer being ,
Visible light communication receiving means for identifying a location where a temporal luminance change occurs in the image obtained by the first imaging unit, and demodulating information from the luminance change at the location;
With respect to the location where a temporal luminance change occurs outside the imaging field angle of the second imaging unit in the imaging field angle of the first imaging unit due to each imaging field angle of the first and second imaging units. omitting the correction of the position, by the ratio of the resolutions of the first and second imaging section for the portion occurring temporal luminance change within the imaging field angle of the second imaging unit, the position Position correcting means for correcting,
Image synthesizing means for synthesizing the information demodulated by the visible light communication receiving means on the image obtained by the second photographing unit according to the position corrected by the position correcting means; and
The shooting angle of view of the second imaging unit is set as a display range, an image synthesized by the image synthesizing means is displayed in the display range, and the temporal luminance change occurs at a position outside the display range. A computer-readable program that functions as a display means for displaying a location where a process related to the display is omitted.
JP2009165035A 2009-07-13 2009-07-13 Imaging apparatus, imaging method, and program Active JP5515472B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009165035A JP5515472B2 (en) 2009-07-13 2009-07-13 Imaging apparatus, imaging method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009165035A JP5515472B2 (en) 2009-07-13 2009-07-13 Imaging apparatus, imaging method, and program

Publications (2)

Publication Number Publication Date
JP2011023819A JP2011023819A (en) 2011-02-03
JP5515472B2 true JP5515472B2 (en) 2014-06-11

Family

ID=43633540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009165035A Active JP5515472B2 (en) 2009-07-13 2009-07-13 Imaging apparatus, imaging method, and program

Country Status (1)

Country Link
JP (1) JP5515472B2 (en)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9544977B2 (en) 2011-06-30 2017-01-10 Lutron Electronics Co., Inc. Method of programming a load control device using a smart phone
US10271407B2 (en) 2011-06-30 2019-04-23 Lutron Electronics Co., Inc. Load control device having Internet connectivity
WO2013003813A1 (en) 2011-06-30 2013-01-03 Lutron Electronics Co., Inc. Device and method of optically transmitting digital information from a smart phone to a load control device
US9368025B2 (en) 2011-08-29 2016-06-14 Lutron Electronics Co., Inc. Two-part load control system mountable to a single electrical wallbox
EP2858269B1 (en) 2012-05-24 2018-02-28 Panasonic Intellectual Property Corporation of America Information communication method
US8988574B2 (en) 2012-12-27 2015-03-24 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using bright line image
US9413171B2 (en) 2012-12-21 2016-08-09 Lutron Electronics Co., Inc. Network access coordination of load control devices
US10019047B2 (en) 2012-12-21 2018-07-10 Lutron Electronics Co., Inc. Operational coordination of load control devices for control of electrical loads
US10244086B2 (en) 2012-12-21 2019-03-26 Lutron Electronics Co., Inc. Multiple network access load control devices
US9087349B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US9252878B2 (en) 2012-12-27 2016-02-02 Panasonic Intellectual Property Corporation Of America Information communication method
US10303945B2 (en) 2012-12-27 2019-05-28 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
US9560284B2 (en) 2012-12-27 2017-01-31 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information specified by striped pattern of bright lines
US8922666B2 (en) 2012-12-27 2014-12-30 Panasonic Intellectual Property Corporation Of America Information communication method
US9608727B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Switched pixel visible light transmitting method, apparatus and program
US9088360B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
CN104871452B (en) 2012-12-27 2018-04-27 松下电器(美国)知识产权公司 Visual optical communication method and visual optical communication apparatus
CN107360379B (en) * 2012-12-27 2020-06-30 松下电器(美国)知识产权公司 Information communication method
WO2014103157A1 (en) 2012-12-27 2014-07-03 パナソニック株式会社 Video display method
MX342734B (en) 2012-12-27 2016-10-07 Panasonic Ip Corp America Information communication method.
US10530486B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
US9608725B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
WO2014103329A1 (en) 2012-12-27 2014-07-03 パナソニック株式会社 Visible-light-communication-signal display method and display device
WO2014103341A1 (en) 2012-12-27 2014-07-03 パナソニック株式会社 Information communication method
US10951310B2 (en) 2012-12-27 2021-03-16 Panasonic Intellectual Property Corporation Of America Communication method, communication device, and transmitter
US10523876B2 (en) 2012-12-27 2019-12-31 Panasonic Intellectual Property Corporation Of America Information communication method
US10135629B2 (en) 2013-03-15 2018-11-20 Lutron Electronics Co., Inc. Load control device user interface and database management using near field communication (NFC)
JP6591262B2 (en) 2014-11-14 2019-10-16 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America REPRODUCTION METHOD, REPRODUCTION DEVICE, AND PROGRAM
JP6122233B1 (en) 2015-11-06 2017-04-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Visible light signal generation method, signal generation apparatus, and program
WO2017081870A1 (en) 2015-11-12 2017-05-18 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Display method, program and display device
EP3393132B1 (en) 2015-12-17 2022-11-02 Panasonic Intellectual Property Corporation of America Display method and display device
CN110114988B (en) 2016-11-10 2021-09-07 松下电器(美国)知识产权公司 Transmission method, transmission device, and recording medium
JP6645473B2 (en) * 2017-05-02 2020-02-14 カシオ計算機株式会社 Information processing apparatus, information processing method and program
US20190036604A1 (en) * 2017-07-31 2019-01-31 Qualcomm Incorporated Visible light communication (vlc) via digital imager
JP7158307B2 (en) * 2019-02-07 2022-10-21 シャープ株式会社 ELECTRONIC DEVICE, CONTROL PROGRAM, CONTROL DEVICE, AND CONTROL METHOD
CN110572576A (en) * 2019-09-20 2019-12-13 广州速率信息技术有限公司 Method and system for shooting visible light and thermal imaging overlay image and electronic equipment
WO2022254789A1 (en) * 2021-05-31 2022-12-08 ソニーグループ株式会社 Reception device and transmission/reception system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4868217B2 (en) * 2006-01-25 2012-02-01 ソニー株式会社 Imaging apparatus and method, recording medium, and program

Also Published As

Publication number Publication date
JP2011023819A (en) 2011-02-03

Similar Documents

Publication Publication Date Title
JP5515472B2 (en) Imaging apparatus, imaging method, and program
JP5131257B2 (en) Display control apparatus and display control program
KR101953614B1 (en) Apparatus and method for processing a image of camera device and terminal equipment having a camera
US8619120B2 (en) Imaging apparatus, imaging method and recording medium with program recorded therein
JP4631558B2 (en) Imaging apparatus and image processing program
EP2811668A1 (en) Visible light receiving method and apparatus using the same
US20080232780A1 (en) Imaging system and imaging apparatus
JP5578442B2 (en) Imaging apparatus, image composition method, and program
KR20130094113A (en) Apparatus and method for processing a camera data
JP2007215091A (en) Imaging apparatus and program therefor
JP4802884B2 (en) Imaging apparatus, captured image recording method, and program
JPWO2014054498A1 (en) Imaging apparatus and image display method
JP2006270263A (en) Photographing system
KR101438237B1 (en) Method for taking pictures in mobie communication terminal having camera module and apparatus therefor
WO2020158069A1 (en) Imaging device, imaging method, and program
JP2008124830A (en) Imaging apparatus
JP2008160620A (en) Image processing apparatus and imaging apparatus
JP2011216958A (en) Imaging apparatus and program
WO2014097792A1 (en) Imaging device, signal processing method, and signal processing program
JP2009253925A (en) Imaging apparatus and imaging method, and imaging control program
JP2007074371A (en) Photographing device, display device, and photographing display system
JP2013251840A (en) Imaging apparatus, imaging method and program
KR100769672B1 (en) Mobile communication terminal having the function of video communication
WO2015052959A1 (en) Imaging device, imaging system, imaging method and imaging program
JP6409083B2 (en) Imaging apparatus, imaging method, and imaging program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120712

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131227

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140304

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140317

R150 Certificate of patent or registration of utility model

Ref document number: 5515472

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150