JP2014056450A - Image processing device and program - Google Patents

Image processing device and program Download PDF

Info

Publication number
JP2014056450A
JP2014056450A JP2012201103A JP2012201103A JP2014056450A JP 2014056450 A JP2014056450 A JP 2014056450A JP 2012201103 A JP2012201103 A JP 2012201103A JP 2012201103 A JP2012201103 A JP 2012201103A JP 2014056450 A JP2014056450 A JP 2014056450A
Authority
JP
Japan
Prior art keywords
image
binarized
marker
pattern
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012201103A
Other languages
Japanese (ja)
Other versions
JP6065477B2 (en
Inventor
Shogo Hashimoto
章吾 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012201103A priority Critical patent/JP6065477B2/en
Publication of JP2014056450A publication Critical patent/JP2014056450A/en
Application granted granted Critical
Publication of JP6065477B2 publication Critical patent/JP6065477B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To simultaneously realize improvement of a detection rate of an augmented reality marker and improvement of detection processing speed thereof.SOLUTION: An LED 12 is disposed as a light emitter at the position of each corner of an AR marker 11 (four-point positions). When the AR marker 11 surrounded by a plurality of LEDs 12 is photographed, the photographed image is binarized in accordance with luminance of an LED 12, the plurality of LEDs 12 are detected from within the binarized image, an area surrounded by the plurality of LEDs 12 are then further binarized, and the AR marker 11 is detected on the basis of the binarized image.

Description

本発明は、撮影された画像の中から拡張現実マーカを検出する画像処理装置及びプログラムに関する。   The present invention relates to an image processing apparatus and a program for detecting an augmented reality marker from a captured image.

一般に、スマートフォンなどの携帯端末装置にあっては、その多機能化が進み、カメラ機能(撮像機能)のほかに、AR(Augmented Reality:拡張現実)機能という画像処理機能が搭載されており、撮影された画像内の所定の位置に仮想画像(例えば、キャラクタ画像など)を合成して表示するようにしている。すなわち、被写体の位置又はその付近に印刷物としての拡張現実マーカ(ARマーカ)が配置されている状態において、その被写体が撮像機能によって撮影されると、携帯端末装置は、その撮影画像を解析することによりその中に含まれているARマーカを認識し、このARマーカの位置に仮想画像を合成して表示するようにしている。その際、ARマーカを検出するために、撮影された画像を例えば、グレースケール化し、そのグレースケール画像を適応型二値化法を用いて二値化するようにしている。このように適応型二値化法を用いて画像を二値化する技術としては、例えば、特許文献1などが提案されている。   In general, mobile terminal devices such as smartphones have become more multifunctional, and in addition to the camera function (imaging function), an image processing function called AR (Augmented Reality) function is installed. A virtual image (for example, a character image) is synthesized and displayed at a predetermined position in the displayed image. That is, in a state where an augmented reality marker (AR marker) as a printed matter is arranged at or near the position of the subject, when the subject is photographed by the imaging function, the mobile terminal device analyzes the photographed image. By recognizing the AR marker contained therein, a virtual image is synthesized and displayed at the position of the AR marker. At this time, in order to detect the AR marker, the photographed image is converted into a gray scale, for example, and the gray scale image is binarized using an adaptive binarization method. As a technique for binarizing an image using the adaptive binarization method as described above, for example, Patent Document 1 is proposed.

特開平7−57080号公報JP 7-57080 A

しかしながら、上述した特許文献1のように、適応型二値化法を用いて撮影画像を二値化する技術にあっては、撮影された画像をフレーム毎に二値化処理するようにしているが、例えば、スマートフォンなどの携帯端末装置のCPU性能では、その処理が重くなり過ぎてしまい、処理速度が遅くなり、ARマーカをスムーズに検出することができないという問題があった。
また、一般に、ARマーカにあっては、そのマーカ領域を特定するために、例えば、正方形の黒枠内に白パターン(マーク模様)を配置するといったデザイン的な制約があった。
However, in the technique for binarizing a captured image using the adaptive binarization method as described in Patent Document 1 described above, the captured image is binarized for each frame. However, for example, in the CPU performance of a mobile terminal device such as a smartphone, the processing becomes too heavy, the processing speed becomes slow, and the AR marker cannot be detected smoothly.
In general, the AR marker has a design restriction such as arranging a white pattern (mark pattern) in a square black frame in order to specify the marker region.

本発明の課題は、拡張現実マーカの検出率向上と検出処理速度の向上を同時に実現できるようにすることである。   An object of the present invention is to make it possible to improve the detection rate of the augmented reality marker and the detection processing speed at the same time.

上述した課題を解決するために本発明の画像処理装置は、
複数の発光体によって囲まれている拡張現実マーカを撮影する撮影手段と、
前記撮影手段によって撮影された撮影画像を所定の閾値で二値化する処理を行う第1の二値化手段と、
前記第1の二値化手段により二値化された二値化画像の中から前記複数の発光体を検出する第1の検出手段と、
前記第1の検出手段によって検出された複数の発光体によって囲まれている領域を二値化処理する第2の二値化手段と、
前記第2の二値化手段により二値化された二値化画像を基に前記拡張現実マーカを検出する第2の検出手段と、
を備えることを特徴とする画像処理装置である。
In order to solve the above-described problems, the image processing apparatus of the present invention provides:
Photographing means for photographing an augmented reality marker surrounded by a plurality of light emitters;
A first binarization unit that performs processing of binarizing a captured image captured by the imaging unit with a predetermined threshold;
First detection means for detecting the plurality of light emitters from the binarized image binarized by the first binarization means;
A second binarization unit that binarizes a region surrounded by a plurality of light emitters detected by the first detection unit;
Second detection means for detecting the augmented reality marker based on the binarized image binarized by the second binarization means;
An image processing apparatus comprising:

本発明によれば、拡張現実マーカの検出率向上と検出処理速度の向上を同時に実現することができる。   According to the present invention, it is possible to simultaneously improve the augmented reality marker detection rate and the detection processing speed.

画像処理装置として適用したカメラ機能付き多機能型携帯電話機の基本的な構成要素を示したブロック図。The block diagram which showed the basic component of the multifunctional mobile phone with a camera function applied as an image processing apparatus. (1)〜(4)は、複数のLED12によって囲まれたARマーカ11を示すと共に、それを撮影した画像を二値化した後の検出イメージを示した図。(1)-(4) is the figure which showed the detection image after binarizing the image which image | photographed the AR marker 11 enclosed by several LED12, and image | photographed it. (1)、(2)は、同時撮影した複数種のARマーカ11の中から所定のARマーカ11のみを検出する場合を説明するための図。(1), (2) is a figure for demonstrating the case where only the predetermined AR marker 11 is detected from the multiple types of AR marker 11 imaged simultaneously. 拡張現実撮影モードの切り換えに応じて実行開始される拡張現実処理を説明するためのフローチャート。The flowchart for demonstrating the augmented reality process started execution according to switching of an augmented reality photography mode. (1)〜(4)は、第1実施形態の変形例として、各LED12の輝度が異なる場合での図2(1)〜(4)に対応する図。(1)-(4) is a figure corresponding to FIG.2 (1)-(4) in the case where the brightness | luminance of each LED12 differs as a modification of 1st Embodiment. (1)、(2)は、第1実施形態の変形例として、各LED12の発光色(三原色)が異なる場合での図2(1)、(2)に対応する図。(1), (2) is a figure corresponding to Drawing 2 (1) and (2) in the case where the luminescent color (three primary colors) of each LED12 differs as a modification of a 1st embodiment. (1)、(2)は、第1実施形態の変形例として、各LED12の点滅状態(点灯、消灯、点滅)が異なる場合での図2(1)、(2)に対応する図。(1), (2) is a figure corresponding to Drawing 2 (1) and (2) in the case where the blinking state (lighting, light extinction, blinking) of each LED12 differs as a modification of a 1st embodiment. (1)〜(4)は、第1実施形態の変形例として、ARマーク11の向きを変更する処理を説明するための図。(1)-(4) is a figure for demonstrating the process which changes the direction of the AR mark 11 as a modification of 1st Embodiment. 第2実施形態において、拡張現実撮影モードの切り換えに応じて実行開始される拡張現実処理を説明するためのフローチャート。9 is a flowchart for explaining augmented reality processing that is started in response to switching of an augmented reality shooting mode in the second embodiment. 第2実施形態において使用する動作テーブルTを示した図。The figure which showed the operation | movement table T used in 2nd Embodiment.

以下、本発明の実施の形態について、図面を参照して詳細に説明する。
(実施形態1)
先ず、図1〜図4を参照して本発明の第1実施形態を説明する。
本実施形態は、画像処理装置としてカメラ機能付き多機能型携帯電話機(スマートフォン)に適用した場合を例示したもので、図1は、このカメラ機能付き多機能型携帯電話機の基本的な構成要素を示したブロック図である。
この多機能型携帯電話機は、通話機能、電子メール機能、インターネット接続機能、カメラ機能の基本機能のほか、カメラ機能によって撮影された画像内に所定の仮想画像(例えば、キャラクタ画像)を合成して表示する拡張現実処理機能などを備えている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(Embodiment 1)
First, a first embodiment of the present invention will be described with reference to FIGS.
This embodiment exemplifies a case where the image processing apparatus is applied to a multi-function mobile phone (smart phone) with a camera function. FIG. 1 illustrates basic components of the multi-function mobile phone with a camera function. It is the block diagram shown.
This multi-function mobile phone synthesizes a predetermined virtual image (for example, a character image) in an image photographed by the camera function, in addition to the basic function of the call function, e-mail function, Internet connection function, and camera function. It has an augmented reality processing function to display.

CPU1は、二次電池(図示省略)を備えた電源部2からの電力供給によって動作し、記憶部3内の各種のプログラムに応じてこの携帯電話機の全体動作を制御する中央演算処理装置である。記憶部3には、プログラムメモリM1、ワークメモリM2などが設けられている。プログラムメモリM1は、図4に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているほか、それに必要とする情報などが記憶されている。ワークメモリM2は、携帯電話機が動作するために必要となる各種の情報(例えば、撮影された画像、フラグ、タイマなど)を一時的に記憶するワーク領域である。なお、記憶部3は、例えば、SDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、また、その一部が図示しない所定の外部サーバの領域を含むものであってもよい。   The CPU 1 is a central processing unit that operates by supplying power from a power supply unit 2 having a secondary battery (not shown) and controls the overall operation of the mobile phone according to various programs in the storage unit 3. . The storage unit 3 is provided with a program memory M1, a work memory M2, and the like. The program memory M1 stores a program and various applications for realizing the present embodiment in accordance with the operation procedure shown in FIG. 4, and stores information necessary for the program. The work memory M2 is a work area that temporarily stores various types of information (for example, captured images, flags, timers, and the like) necessary for the operation of the mobile phone. The storage unit 3 may be configured to include a removable portable memory (recording medium) such as an SD card or an IC card, and a part of the storage unit 3 has a predetermined external server area (not shown). It may be included.

無線通信部4は、音声通話機能、電子メール機能、インターネット接続機能時に使用される広域通信部であり、通話機能の動作時には音声信号処理部5を介して通話用スピーカSPから音声出力させ、また、通話用マイクMCからの入力音声データを音声信号処理部5から取り込んでアンテナから発信出力させる。タッチ入力表示部6は、表示部6Aとタッチ入力部6Bを有する構成で、高精細な表示部6Aの前面にタッチ入力部6Bを配置することによりソフトウェアキー(タッチキー)を割り当て配置してその機能名を表示したり、指などによるタッチ操作を感知してそのタッチ操作に応じたデータを入力したりするデバイスである。表示部6Aは、高精細液晶ディスプレイなどであり、カメラ機能の使用時には撮影された画像をライブビュー画像(モニタ画像)として表示するファインダ画面となる。   The wireless communication unit 4 is a wide-area communication unit used at the time of a voice call function, an e-mail function, and an Internet connection function, and outputs voice from the call speaker SP via the voice signal processing unit 5 when the call function operates. Then, the input voice data from the call microphone MC is taken from the voice signal processing unit 5 and transmitted from the antenna. The touch input display unit 6 includes a display unit 6A and a touch input unit 6B. The touch input unit 6B is arranged on the front surface of the high-definition display unit 6A, and software keys (touch keys) are allocated and arranged. This device displays a function name, detects a touch operation with a finger or the like, and inputs data corresponding to the touch operation. The display unit 6A is a high-definition liquid crystal display or the like, and serves as a finder screen that displays a captured image as a live view image (monitor image) when the camera function is used.

撮像部7は、被写体を高精細に撮影可能なカメラ部を構成するもので、ズームレンズやフォーカスレンズ(図示省略)などを備えたレンズ部7Aと、CCD又はCMOSなどの撮像素子7Bと、照度計などの各種のセンサを備えたセンサ部7Cを有するほか、更に撮像素子7Bで光電変換された画像信号(アナログ値の信号)に対して、色分離やRGBの色成分毎のゲイン調整などを行ってデジタル値のデータに変換するアナログ処理回路7Dと、このアナログ処理回路7Dによりデジタル変換された画像データに対して色補間処理(デモザイク処理)などを施すデジタル信号処理回路7Eを有する構成となっている。本実施形態では、例えば、夜景撮影モード、夕焼け撮影モードなどの各種の撮影モードに切り換え可能となっており、この各種の撮影モードの中には拡張現実撮影モードが含まれている。この拡張現実撮影モードは、拡張現実処理機能を使用して撮影を行う撮影モードで、この拡張現実撮影モードに切り換えられると、オートフォーカス(AF)調整機能、自動露出(AE)調整機能、自動ホワイトバランス(AWB)調整機能を動作させるようにしている。   The imaging unit 7 constitutes a camera unit capable of photographing a subject with high definition. The imaging unit 7 includes a lens unit 7A including a zoom lens and a focus lens (not shown), an imaging element 7B such as a CCD or a CMOS, and illuminance. In addition to having a sensor unit 7C including various sensors such as a meter, color separation and gain adjustment for each RGB color component are further performed on an image signal (analog value signal) photoelectrically converted by the image sensor 7B. An analog processing circuit 7D that performs conversion to digital value data and a digital signal processing circuit 7E that performs color interpolation processing (demosaic processing) on the image data digitally converted by the analog processing circuit 7D. ing. In this embodiment, for example, it is possible to switch to various shooting modes such as a night scene shooting mode and a sunset shooting mode, and these various shooting modes include an augmented reality shooting mode. This augmented reality shooting mode is a shooting mode in which shooting is performed using the augmented reality processing function. When switched to this augmented reality shooting mode, an autofocus (AF) adjustment function, an automatic exposure (AE) adjustment function, and an automatic white The balance (AWB) adjustment function is operated.

図2は、拡張現実処理時に使用される拡張現実マーカ(ARマーカ)11を説明するための図である。
図2(1)、(2)は、ARマーカ11を被写体として撮影した場合の撮影画像を示している。ARマーカ11は、例えば、電子機器の表面に配設されているもので、正方形の黒枠内に任意形状の白領域のパターン(図示の例ではL字パターン)を配置した構成で、黒の領域と白の領域とは所定の割合となっている。このARマーカ11の黒枠四隅の各位置(4点位置)には、複数個の発光体として発光ダイオード(LED)12が配設されている。
FIG. 2 is a diagram for explaining an augmented reality marker (AR marker) 11 used during augmented reality processing.
FIGS. 2A and 2B show captured images when the AR marker 11 is captured as a subject. The AR marker 11 is disposed on the surface of an electronic device, for example, and has a configuration in which a white area pattern (an L-shaped pattern in the illustrated example) having an arbitrary shape is disposed in a square black frame, The white area has a predetermined ratio. A light emitting diode (LED) 12 is disposed as a plurality of light emitters at each of the four corner positions (four positions) of the AR marker 11.

言い換えれば、ARマーカ11の全体は、複数個(4個)の発光体(LED)12によって囲まれている。そして、各LED12は、発光面が小さい点光源であり、同一のLEDである。すなわち、各LED12は、同一輝度で発光する同一サイズのLEDで、その発光面がARマーカ11の黒枠四隅の位置にそれぞれ配設されている。この各LED12を配置した電子機器は、例えば、各LED12の点灯、消灯などを制御するようにしている。このようなLED12付きのARマーカ11が撮像部7によって撮影されると、その撮影画像は、ARマーカ11に対する撮影向きに応じて図2(1)あるいは(2)に示すような画像内容となる。   In other words, the entire AR marker 11 is surrounded by a plurality (four) of light emitters (LEDs) 12. And each LED12 is a point light source with a small light emission surface, and is the same LED. That is, each LED 12 is an LED of the same size that emits light with the same luminance, and its light emitting surface is disposed at the positions of the four corners of the black frame of the AR marker 11. The electronic device in which each LED 12 is arranged controls, for example, lighting and extinguishing of each LED 12. When such an AR marker 11 with LED 12 is photographed by the imaging unit 7, the photographed image has an image content as shown in FIG. 2 (1) or (2) depending on the photographing direction with respect to the AR marker 11. .

図2(1)は、複数のLED12によって囲まれたLED12付きのARマーカ11をその正面側から撮影した場合の撮影画像を示した図である。また、図2(2)は、LED12付きのARマーカ11をその背面側の斜め右方向(図中、正面の右上方向)から撮影した場合を示した図である。ここで、図2(1)、(2)は、撮影画像内においてLED12付きのARマーカ11を概念的に示した図である。図中、円形は、LED12の発光面を示し、正方形の黒枠は、ARマーカ11を構成する外枠を示し、内部のL字パターンは、ARマーカ11を構成する白領域を示しているが、実際のLED12、ARマーカ11と区別せずに撮影画像内でもLED12、ARマーカ11と呼称するものとする(以下、同様)。このようにしてARマーカ11が撮像部7によって撮影されると、CPU1は、撮像素子7Bに映っている撮影画像(実画像)を解析することによってARマーカ11を検出するが、その際、その撮影画像を各LED12の輝度に合わせた閾値を用いた固定閾値二値化法によって二値化することによって各LED12をそれぞれ検出するようにしている。   FIG. 2A is a diagram illustrating a captured image when the AR marker 11 with the LED 12 surrounded by the plurality of LEDs 12 is captured from the front side. FIG. 2 (2) is a diagram showing a case where the AR marker 11 with the LED 12 is photographed from an oblique right direction on the back side (upper right direction on the front in the figure). Here, FIGS. 2A and 2B are diagrams conceptually showing the AR marker 11 with the LED 12 in the captured image. In the figure, the circle indicates the light emitting surface of the LED 12, the square black frame indicates the outer frame that constitutes the AR marker 11, and the internal L-shaped pattern indicates the white region that constitutes the AR marker 11, The LED 12 and AR marker 11 are also referred to in the captured image without being distinguished from the actual LED 12 and AR marker 11 (hereinafter the same). When the AR marker 11 is photographed by the imaging unit 7 in this way, the CPU 1 detects the AR marker 11 by analyzing the photographed image (actual image) shown on the image sensor 7B. Each LED 12 is detected by binarizing the captured image by a fixed threshold binarization method using a threshold value that matches the luminance of each LED 12.

図2(3)は、図2(1)で示した向きから撮影した画像を二値化した後の検出イメージを示した図であり、図2(4)は、図2(2)で示した向きから撮影した画像を二値化した後の検出イメージを示した図で、各LED12だけが検出された場合を例示している。なお、図中、破線で囲んだ領域は、ARマーカ11が存在する領域(以下、同様)を示し、円形は、検出した発光面を示している。このように複数のLED12を検出すると、それらのLED12によって囲まれている領域内を適応型二値化法に従って二値化して、その二値化画像を基にARマーカ11の検出を行うようにしている。このように第1実施形態においては、撮影画像をLED12の輝度に応じて二値化して、その二値化画像の中から複数のLED12を検出した後、この各LED12によって囲まれている領域内を更に二値化してその二値化画像を基にARマーカ11を検出する動作をフレーム毎に繰り返すようにしている。これによってARマーカ11を検出すると、CPU1は、その検出したARマーカ11の位置に所定の仮想画像(例えば、キャラクタ画像など)を合成して重畳表示させるようにしている。   FIG. 2 (3) is a diagram showing a detection image after binarizing the image taken from the orientation shown in FIG. 2 (1), and FIG. 2 (4) is shown in FIG. 2 (2). The figure which showed the detection image after binarizing the image image | photographed from the direction which illustrated is the case where only each LED12 is detected. In the figure, a region surrounded by a broken line indicates a region where the AR marker 11 exists (hereinafter the same), and a circle indicates a detected light emitting surface. When a plurality of LEDs 12 are detected in this way, the area surrounded by the LEDs 12 is binarized according to the adaptive binarization method, and the AR marker 11 is detected based on the binarized image. ing. As described above, in the first embodiment, the captured image is binarized according to the luminance of the LED 12, and after detecting a plurality of LEDs 12 from the binarized image, within the region surrounded by the LEDs 12. Is further binarized, and the operation of detecting the AR marker 11 based on the binarized image is repeated for each frame. When the AR marker 11 is detected in this way, the CPU 1 synthesizes a predetermined virtual image (for example, a character image) at the position of the detected AR marker 11 and displays it superimposed.

図3は、同時撮影した複数種のARマーカ11の中から所定のARマーカ11のみを検出する場合を説明するための図である。
上述したARマーカ11側の電子機器には、4種類のARマーカ11が隣接配設されており、そのいずれかのARマーカ11を囲むLED12のみを選択的に点灯するようにしている。図3(1)は、電子機器の表面に配設されている4種類のARマーカ11を同時に撮影した場合を示した図である。図示の例では、各ARマーカ11の黒枠四隅の各位置(4点位置)には、図2の場合と同様に、LED12が配設されているが、隅部が隣り合うARマーカ11には共通のLED12が配設されている場合を例示している。ここで、図示の例は、4種類のARマーカ11のうちそのいずれかのARマーカ11のみを選択的に有効とするために、そのARマーカ11の周囲に存在している4個のLED12が点灯され、その他のLED12が全て消灯されている場合で、図中、塗りつぶしの円形は、点灯中の各LED12を示している。
FIG. 3 is a diagram for explaining a case where only a predetermined AR marker 11 is detected from a plurality of types of AR markers 11 taken at the same time.
The above-described electronic device on the AR marker 11 side is provided with four types of AR markers 11 adjacent to each other, and only the LEDs 12 surrounding any one of the AR markers 11 are selectively lit. FIG. 3A is a diagram showing a case where four types of AR markers 11 arranged on the surface of the electronic device are photographed simultaneously. In the example shown in the figure, the LED 12 is arranged at each of the four corners (four positions) of the black frame of each AR marker 11 as in the case of FIG. The case where common LED12 is arrange | positioned is illustrated. Here, in the illustrated example, in order to selectively enable only one of the four types of AR markers 11, four LEDs 12 existing around the AR marker 11 are provided. In the case where the other LEDs 12 are turned on and all the other LEDs 12 are turned off, the filled circles in the figure indicate the LEDs 12 that are turned on.

図3(2)は、図3(1)で示した撮影画像をLED12の輝度に合わせた閾値を用いた固定閾値二値化法によって二値化した後の検出イメージを示している。この場合、点灯中の4個のLED12だけが検出されるために、この点灯中のLED12によって囲まれた領域(図中、破線で囲んだ領域)に対して、適応型二値化法に従って二値化する処理を行う。これによってその領域内に存在しているARマーカ11だけが検出されることになる。CPU1は、検出したARマーカ11の位置に所定の仮想画像(例えば、キャラクタ画像など)を合成して表示させるようにしている。   FIG. 3B shows a detection image after the captured image shown in FIG. 3A is binarized by a fixed threshold binarization method using a threshold that matches the luminance of the LED 12. In this case, since only the four LEDs 12 that are lit are detected, the region surrounded by the LEDs 12 that are lit (regions surrounded by broken lines in the figure) is binarized according to the adaptive binarization method. Performs the process of converting to a value. As a result, only the AR marker 11 existing in the area is detected. The CPU 1 synthesizes and displays a predetermined virtual image (for example, a character image) at the detected position of the AR marker 11.

次に、本実施形態における多機能型携帯電話機の動作概念を図4に示すフローチャートを参照して説明する。ここで、このフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。なお、図4は、多機能型携帯電話機の全体動作のうち、本実施形態の特徴部分の動作概要を示したフローチャートであり、この図3のフローから抜けた際には、全体動作のメインフロー(図示省略)に戻る。   Next, the operation concept of the multi-function mobile phone in the present embodiment will be described with reference to the flowchart shown in FIG. Here, each function described in this flowchart is stored in the form of a readable program code, and operations according to the program code are sequentially executed. Further, it is possible to sequentially execute the operation according to the above-described program code transmitted via a transmission medium such as a network. FIG. 4 is a flowchart showing an outline of the operation of the characteristic part of the present embodiment in the overall operation of the multi-function mobile phone. When the flow of FIG. 3 is exited, the main flow of the overall operation is shown. Return to (not shown).

図4は、拡張現実撮影モードの切り換えに応じて実行開始される拡張現実処理を説明するためのフローチャートである。
先ず、CPU1は、ユーザ操作などにより拡張現実撮影モードに切り換えられると、拡張現実撮影アプリケーションを起動させた後、撮像素子7Bに映っている撮影画像(実画像)を取得し(ステップA1)、LED12の輝度に合わせた閾値を用いた固定閾値二値化法によって撮影画像(実画像)を二値化する(ステップA2)。このようにLED12の輝度に合わせた閾値を用いて二値化することにより撮影画像内からLED12のみが検出可能となるが、この場合、LED12の輝度は、ユーザ操作により予め任意に設定されており、その設定値(輝度値)を読み出すことによって二値化処理を行うようにしている。
FIG. 4 is a flowchart for explaining augmented reality processing that is started in response to switching of the augmented reality shooting mode.
First, when the CPU 1 is switched to the augmented reality shooting mode by a user operation or the like, after starting the augmented reality shooting application, the CPU 1 acquires a shot image (actual image) reflected on the image sensor 7B (step A1), and the LED 12 The captured image (actual image) is binarized by a fixed threshold binarization method using a threshold that matches the luminance of the image (step A2). In this way, by binarizing using a threshold value that matches the luminance of the LED 12, only the LED 12 can be detected from the captured image. In this case, the luminance of the LED 12 is arbitrarily set in advance by a user operation. The binarization process is performed by reading the set value (luminance value).

そして、二値化した二値化画像を基に4点全てのLED12を検出することができたか否かを調べ(ステップA3)、4点のLED12を検出することができなければ(ステップA3でNO)、最初から処理をやり直すためにステップA1に戻るが、4点のLED12を検出することができたとき、例えば、図2(3)や(4)あるいは図3(2)に示すように二値化画像内から4点全てのLED12を検出できたときには(ステップA3でYES)、そのLED12の4点座標をそれぞれ取得する(ステップA4)。これによって取得した4点座標を基に二値化画像内でのARマーカ11の領域を特定すると共に、この特定したARマーカ11の領域内において、大津の二値化法(大津展之氏の論文、判別および最小2乗基準に基づく自動しきい値選定法」、電子通信学会論文誌、Vol.J63−D、No.4、pp.349−356(1980)を参照。)を使用して、ARマーカ11の領域内での二値化閾値を算出する(ステップA5)。この場合、大津の二値化法ではARマーカ11の領域内においてクラス内分散及びクラス間分散を基準として、クラス内分散が最小となり、クラス間分散が最大となる閾値を二値化閾値として算出取得する。   Then, based on the binarized binarized image, it is checked whether or not all four LEDs 12 can be detected (step A3), and if four LEDs 12 cannot be detected (step A3). NO), the process returns to step A1 to redo the process from the beginning, but when four LEDs 12 can be detected, for example, as shown in FIG. 2 (3), (4) or FIG. 3 (2) When all four LEDs 12 can be detected from the binarized image (YES in step A3), the four-point coordinates of the LEDs 12 are acquired (step A4). The area of the AR marker 11 in the binarized image is specified based on the acquired four-point coordinates, and the binarization method of Otsu (Mr. "Automatic threshold selection method based on paper, discrimination and least square criterion", see IEICE Transactions, Vol. J63-D, No. 4, pp. 349-356 (1980)). The binarization threshold value in the area of the AR marker 11 is calculated (step A5). In this case, in the Otsu's binarization method, the threshold that minimizes the intra-class variance and maximizes the inter-class variance is calculated as the binarization threshold based on the intra-class variance and the inter-class variance in the area of the AR marker 11. get.

そして、上述のようにして二値化した二値化画像を基にARマーカ11を検出することかできたかを調べる(ステップA6)。この場合、ARマーカ11内に描かれている白領域のパターンを特定することによりARマーカ11の認識を行う。その結果、ARマーカ11を検出することができなければ(ステップA6でNO)、最初から処理をやり直すためにステップA1に戻るが、ARマーカ11を正常に検出することができたときには(ステップA6でYES)、仮想画像を読み出して撮影画像内のARマーカ11上に重畳して合成表示させる(ステップA7)。以下、拡張現実処理の終了がユーザ操作により指示されたかを調べ(ステップA8)、終了指示があれば(ステップA8でYES)、図4のフローから抜けるが、拡張現実処理の終了指示がなければ(ステップA8でNO)、上述のステップA1に戻って、以下、上述の動作を繰り返す。   Then, it is examined whether the AR marker 11 can be detected based on the binarized image binarized as described above (step A6). In this case, the AR marker 11 is recognized by specifying the pattern of the white area drawn in the AR marker 11. As a result, if the AR marker 11 cannot be detected (NO in step A6), the process returns to step A1 to redo the process from the beginning, but when the AR marker 11 can be normally detected (step A6). YES), the virtual image is read out and superimposed and displayed on the AR marker 11 in the captured image (step A7). Thereafter, it is checked whether or not the end of augmented reality processing is instructed by a user operation (step A8). If there is an end instruction (YES in step A8), the flow of FIG. (NO in step A8), the process returns to the above-described step A1, and the above-described operation is repeated.

以上のように、第1実施形態においてCPU1は、複数のLED12によって囲まれているARマーカ11が撮像部7によって撮影されると、その撮影画像をLED12の輝度に応じて二値化してその二値化画像の中から複数のLED12を検出した後、この複数のLED12によって囲まれている領域を更に二値化してその二値化画像を基にARマーカ11を検出するようにしたので、LED12を検出するだけでマーカ領域を特定することができ、マーク認識処理速度を向上させることができるほか、LED12の認識はマーク枠(黒枠)の認識よりも精度が高いためにマーク認識率を向上させることができる。このように高認識率を維持しながら認識処理速度の向上が可能となり、実用性に富んだものとなる。また、従来のARマーカ11は、マークを特定するために黒枠を配置するという制約があったが、本実施形態においては、複数のLED12によってマークを特定することが可能となるために、黒枠の役目も有することになり、マーカデザインの自由度が向上する。   As described above, in the first embodiment, when the AR marker 11 surrounded by the plurality of LEDs 12 is captured by the imaging unit 7, the CPU 1 binarizes the captured image according to the luminance of the LED 12. After detecting the plurality of LEDs 12 from the binarized image, the area surrounded by the plurality of LEDs 12 is further binarized, and the AR marker 11 is detected based on the binarized image. The marker area can be specified simply by detecting the mark, the mark recognition processing speed can be improved, and the recognition of the LED 12 is more accurate than the recognition of the mark frame (black frame), so the mark recognition rate is improved. be able to. In this way, the recognition processing speed can be improved while maintaining a high recognition rate, which is highly practical. In addition, the conventional AR marker 11 has a restriction that a black frame is arranged in order to specify a mark. However, in the present embodiment, since a mark can be specified by a plurality of LEDs 12, It also has a role, and the degree of freedom in marker design is improved.

その撮影画像を二値化する場合に、LED12の輝度に合わせた閾値を用いた固定閾値二値化法によって二値化するようにしたので、LED12の検出する場合にその誤検出(誤認識)の確率を大幅に低くすることが可能となる。この場合、図3で示したように、電子機器側に複数種類のARマーカ11が隣接配設されていて、そのいずれかのARマーカ11を囲むLED12のみが選択的に点灯されている場合には、その撮影画像の中から点灯中のLED12によって囲まれた領域を二値化することにより、その領域内に存在しているARマーカ11だけを検出することが可能となる。   When the captured image is binarized, binarization is performed by a fixed threshold binarization method using a threshold value that matches the luminance of the LED 12, so that erroneous detection (false recognition) is detected when the LED 12 is detected. It is possible to significantly reduce the probability of. In this case, as shown in FIG. 3, when a plurality of types of AR markers 11 are adjacently disposed on the electronic device side, and only the LEDs 12 surrounding any one of the AR markers 11 are selectively lit. By binarizing the area surrounded by the lit LED 12 from the captured image, it is possible to detect only the AR marker 11 present in the area.

なお、上述した第1実施形態において各LED12は、同一の輝度で発光するようにしたが、各LED12の輝度が異なるようにしてもよい。
図5は、各LED12の輝度が異なる場合であり、図5(1)は、図2(1)と同様に、ARマーカ11をその正面側から撮影した場合を示し、図5(2)は、図2(2)と同様に、ARマーカ11をその背面側の斜め右方向から撮影した場合を示した図である。図5(1)は、図中、左上及び右下のLED12の輝度が“暗め”、右上のLED12の輝度が“明るめ”、左下のLED12の輝度が“中間”の場合である。図5(2)は、図中、上及び右のLED12の輝度が“暗め”、下のLED12の輝度が“明るめ”、左のLED12の輝度が“中間”の場合である。
In the first embodiment described above, each LED 12 emits light with the same luminance, but the luminance of each LED 12 may be different.
FIG. 5 shows a case where the brightness of each LED 12 is different. FIG. 5 (1) shows a case where the AR marker 11 is photographed from the front side as in FIG. 2 (1), and FIG. FIG. 3 is a diagram showing a case where the AR marker 11 is photographed from a diagonally right direction on the back side, similarly to FIG. 2 (2). FIG. 5A shows the case where the luminance of the upper left and lower right LEDs 12 is “dark”, the upper right LED 12 is “bright”, and the lower left LED 12 is “intermediate”. FIG. 5B shows a case where the luminance of the upper and right LEDs 12 is “dark”, the luminance of the lower LED 12 is “bright”, and the luminance of the left LED 12 is “intermediate”.

図5(3)は、図5(1)で示した向きから撮影した画像を二値化した後の検出イメージを示した図であり、また、図5(4)は、図5(2)で示した向きから撮影した画像を二値化した後の検出イメージを示した図であり、二値化画像内から各LED12だけが検出された場合である。なお、図中、破線で囲んだ領域は、ARマーカ11が存在する領域を示し、円形は、検出された発光面を示しているが、その大きさの相違は、対応するLED12の輝度の違いを示している。CPU1は、上述のようにLED12の輝度の違いに応じた輝度パターンを認識し、この輝度パターンが予め決められているパターンであることを条件にLED12を検出したものとする。   FIG. 5 (3) is a diagram showing a detection image after binarizing the image photographed from the direction shown in FIG. 5 (1), and FIG. 5 (4) is a diagram of FIG. 5 (2). FIG. 6 is a diagram illustrating a detection image after binarizing an image photographed from the direction shown in FIG. 6, in which only each LED 12 is detected from the binarized image. In the figure, the area surrounded by the broken line indicates the area where the AR marker 11 exists, and the circle indicates the detected light emitting surface. The difference in size is the difference in luminance of the corresponding LED 12. Is shown. It is assumed that the CPU 1 recognizes the luminance pattern according to the difference in luminance of the LED 12 as described above, and detects the LED 12 on the condition that this luminance pattern is a predetermined pattern.

このように撮影画像を二値化した二値化画像の中から複数のLED12を検出する場合に、各LED12の輝度の違いに応じた輝度パターンを認識し、この輝度パターンが予め決められているパターンであることを条件にLED12を検出したものとすれば、LED12の検出精度をより向上させることが可能となる。   When a plurality of LEDs 12 are detected from the binarized image obtained by binarizing the captured image in this way, a luminance pattern corresponding to the difference in luminance of each LED 12 is recognized, and this luminance pattern is determined in advance. If the LED 12 is detected on the condition that it is a pattern, the detection accuracy of the LED 12 can be further improved.

また、上述した第1実施形態において各LED12は、同一の色で発光するようにしたが、各LED12の発光色が異なるようにしてもよい。
図6は、各LED12の発光色(三原色)が異なる場合であり、図6(1)は、図2(1)と同様に、ARマーカ11をその正面側から撮影した場合を示し、図6(2)は、図2(2)と同様に、ARマーカ11をその背面側の斜め右方向から撮影した場合を示した図である。図6(1)は、図中、右上及び左下のLED12の発光色が“緑色”、左上のLED12の発光色が“赤色”、右下のLED12の発光色が“青色”の場合である。図6(2)は、図中、上及び下のLED12の発光色が“緑色”、右のLED12の発光色が“赤色”、左のLED12の発光色が“青色”の場合である。CPU1は、上述のようにLED12の発光色の違いに応じた色パターンを認識し、この色パターンが予め決められているパターンであることを条件にLED12を検出したものとする。
In the first embodiment described above, each LED 12 emits light with the same color, but the light emission color of each LED 12 may be different.
FIG. 6 shows a case where the emission colors (three primary colors) of the LEDs 12 are different. FIG. 6A shows a case where the AR marker 11 is photographed from the front side as in FIG. (2) is the figure which showed the case where the AR marker 11 was image | photographed from the diagonal right direction of the back side like FIG. 2 (2). FIG. 6A shows a case where the emission color of the upper right and lower left LEDs 12 is “green”, the emission color of the upper left LED 12 is “red”, and the emission color of the lower right LED 12 is “blue”. FIG. 6B shows the case where the emission color of the upper and lower LEDs 12 is “green”, the emission color of the right LED 12 is “red”, and the emission color of the left LED 12 is “blue”. Assume that the CPU 1 recognizes the color pattern according to the difference in the emission color of the LED 12 as described above and detects the LED 12 on the condition that this color pattern is a predetermined pattern.

このように撮影画像を二値化した二値化画像の中から複数のLED12を検出する場合に、各LED12の発光色の違いに応じた色パターンを認識し、この色パターンが予め決められているパターンであることを条件にLED12を検出したものとすれば、LED12の検出精度をより向上させることが可能となる。   When a plurality of LEDs 12 are detected from the binarized image obtained by binarizing the captured image in this way, a color pattern corresponding to the difference in the emission color of each LED 12 is recognized, and this color pattern is determined in advance. If the LED 12 is detected on the condition that it is a pattern, the detection accuracy of the LED 12 can be further improved.

また、上述した第1実施形態において各LED12は、点灯発光するようにしたが、各LED12の点滅状態(点灯、消灯、点滅)が異なるようにしてもよい。
図7は、各LED12の点滅状態(点灯、消灯、点滅)が異なる場合であり、図7(1)は、図2(1)と同様に、ARマーカ11をその正面側から撮影した場合を示し、図7(2)は、図2(2)と同様に、ARマーカ11をその背面側の斜め右方向から撮影した場合を示した図である。なお、この場合の撮影画像は、所定時間(例えば、1秒)に相当する複数フレーム分の画像であり、LED12の点滅は、例えば、1秒間に数回、点灯/消灯を繰り返す。図7(1)は、図中、左上及び右上のLED12が“点滅”、左下及び右下のLED12が“点灯”の場合である。図7(2)は、図中、右及び下のLED12が“点滅”、左及び上のLED12が“消灯”の場合である。CPU1は、上述のようにLED12の点滅状態の違いに応じた点滅パターンを認識し、この点滅パターンが予め決められているパターンであることを条件にLED12を検出したものとする。
In the first embodiment described above, each LED 12 emits light and emits light. However, the blinking states (lighting, extinguishing, and blinking) of each LED 12 may be different.
FIG. 7 shows a case where the blinking states (lighting, extinguishing, blinking) of each LED 12 are different. FIG. 7A shows a case where the AR marker 11 is photographed from the front side as in FIG. FIG. 7 (2) is a diagram showing a case where the AR marker 11 is photographed from the oblique right direction on the back side thereof, similarly to FIG. 2 (2). The captured image in this case is an image for a plurality of frames corresponding to a predetermined time (for example, 1 second), and the blinking of the LED 12 is repeatedly turned on / off several times per second, for example. FIG. 7A shows the case where the upper left and upper right LEDs 12 are “flashing” and the lower left and lower right LEDs 12 are “lit”. FIG. 7B shows the case where the right and lower LEDs 12 are “flashing” and the left and upper LEDs 12 are “off”. Assume that the CPU 1 recognizes the blinking pattern corresponding to the difference in the blinking state of the LED 12 as described above, and detects the LED 12 on the condition that this blinking pattern is a predetermined pattern.

このように撮影画像を二値化した二値化画像の中から複数のLED12を検出する場合に、各LED12の点滅状態の違いに応じた点滅パターンを認識し、この点滅パターンが予め決められているパターンであることを条件にLED12を検出したものとすれば、LED12の検出精度をより向上させることが可能となる。   When a plurality of LEDs 12 are detected from the binarized image obtained by binarizing the captured image in this way, the blinking pattern corresponding to the difference in the blinking state of each LED 12 is recognized, and this blinking pattern is determined in advance. If the LED 12 is detected on the condition that it is a pattern, the detection accuracy of the LED 12 can be further improved.

また、上述したようにLED12の発光状態に応じた発光パターン(輝度パターン、色パターン、点滅パターン)を認識した場合に、その発光パターンに応じてARマーク11の向きを特定し、そのARマーク11が所定の向きでない場合には、ARマーク11が所定の向きとなるように、発光パターンを含めてARマーク11の全体を回転させてその向きを変更する処理を行うようにしてもよい。図8は、ARマーク11の向きを変更する処理を説明するための図である。図8(1)は、上述した所定の向きとして、予めユーザ操作によって記憶されているLED12の発光パターン(色パターン)とARマーク11の向きを示した図で、上述した図2(1)と同様にARマーク11をその正面から撮影した場合である。   Further, as described above, when the light emission pattern (luminance pattern, color pattern, blinking pattern) corresponding to the light emission state of the LED 12 is recognized, the direction of the AR mark 11 is specified according to the light emission pattern, and the AR mark 11 If is not a predetermined orientation, the entire AR mark 11 including the light emission pattern may be rotated to change the orientation so that the AR mark 11 has a predetermined orientation. FIG. 8 is a diagram for explaining the process of changing the direction of the AR mark 11. FIG. 8A is a diagram showing the light emission pattern (color pattern) of the LED 12 and the direction of the AR mark 11 stored in advance by a user operation as the predetermined direction described above, and FIG. Similarly, the AR mark 11 is taken from the front.

図8(2)は、実際のLED12付きARマーク11を示し、図8(3)は、実際のLED12付きARマーク11を斜め方向から撮影した場合の撮影画像内の発光パターン(色パターン)を示した図である。図8(1)に示す発光パターン(色パターン)は、“正方形”であるのに対し、図8(3)に示す発光パターン(色パターン)は、“ひし形”であるため、この“ひし形”が所定の向きとなるように発光パターン(ARマーク11を含む)の全体を回転させてその向きを変更すると、変更後の発光パターンは、図8(4)に示すように“正方形”となる。   FIG. 8 (2) shows an actual AR mark 11 with an LED 12, and FIG. 8 (3) shows a light emission pattern (color pattern) in a photographed image when the actual AR mark 11 with an LED 12 is photographed from an oblique direction. FIG. The light emission pattern (color pattern) shown in FIG. 8 (1) is “square”, whereas the light emission pattern (color pattern) shown in FIG. 8 (3) is “diamond”. When the entire light emission pattern (including the AR mark 11) is rotated so as to be in a predetermined direction and the direction is changed, the changed light emission pattern becomes “square” as shown in FIG. 8 (4). .

このようにLED12の発光状態に応じた発光パターンに応じてARマーク11の向きを特定し、そのARマーク11が所定の向きでない場合には、ARマーク11が所定の向きとなるように、発光パターンを含めてARマーク11の全体を回転させてその向きを変更する処理を行うようにすれば、発光パターンで囲まれている領域を二値化してマークを検出する処理が容易なものとなる。   In this way, the direction of the AR mark 11 is specified according to the light emission pattern corresponding to the light emission state of the LED 12, and when the AR mark 11 is not in a predetermined direction, the light emission is performed so that the AR mark 11 is in the predetermined direction. If the process of rotating the entire AR mark 11 including the pattern and changing the direction thereof is performed, the process of detecting the mark by binarizing the area surrounded by the light emission pattern becomes easy. .

(第2実施形態)
以下、この発明の第2実施形態について図9及び図10を参照して説明する。
なお、上述した第1実施形態においては、撮影画像をLED12の輝度に応じて二値化してその二値化画像の中から複数のLED12を検出した後、この各LED12によって囲まれている領域を更に二値化してその二値化画像を基にARマーカ11を検出する動作をフレーム毎に繰り返すようにしたが、この第2実施形態においては、上述した一連の動作でARマーカ11を検出することができた場合に、次回のフレーム以降ではLED検出動作のみを繰り返すようにしたものである。更に、所定の仮想画像(例えば、キャラクタ画像など)を合成表示させる場合に、複数のLED12によって特定した発光パターンの種類に応じて仮想画像の表示動作を制御するようにしたものである。ここで、両実施形態において基本的あるいは名称的に同一のものは、同一符号を付して示し、その説明を省略すると共に、以下、第2実施形態の特徴部分を中心に説明するものとする。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described with reference to FIGS.
In the first embodiment described above, after the captured image is binarized according to the luminance of the LED 12 and a plurality of LEDs 12 are detected from the binarized image, the region surrounded by the LEDs 12 is determined. Further, the operation of binarizing and detecting the AR marker 11 based on the binarized image is repeated for each frame. In the second embodiment, the AR marker 11 is detected by the series of operations described above. If it is possible, only the LED detection operation is repeated after the next frame. Furthermore, when a predetermined virtual image (for example, a character image) is compositely displayed, the display operation of the virtual image is controlled according to the type of light emission pattern specified by the plurality of LEDs 12. Here, in both the embodiments, the same or the same names are denoted by the same reference numerals, the description thereof will be omitted, and the following description will focus on the features of the second embodiment. .

図9は、第2実施形態において、拡張現実撮影モードの切り換えに応じて実行開始される拡張現実処理を説明するためのフローチャートである。
先ず、CPU1は、上述した図4のステップA1〜A6に対応する同様の処理を行う(ステップB1〜B6)。すなわち、撮影画像(実画像)を取得し(ステップB1)、LED12の輝度に合わせた閾値を用いた固定閾値二値化法によって撮影画像を二値化する(ステップB2)。そして、二値化した二値化画像を基に4点のLED12を検出することができたか否かを調べる(ステップB3)。
FIG. 9 is a flowchart for explaining augmented reality processing that is started in response to switching of the augmented reality shooting mode in the second embodiment.
First, the CPU 1 performs a similar process corresponding to steps A1 to A6 of FIG. 4 described above (steps B1 to B6). That is, a photographed image (actual image) is acquired (step B1), and the photographed image is binarized by a fixed threshold binarization method using a threshold matched to the luminance of the LED 12 (step B2). Then, it is checked whether or not the four LEDs 12 can be detected based on the binarized binarized image (step B3).

その結果、4点のLED12を検出することができなければ(ステップB3でNO)、最初から処理をやり直すためにステップB1に戻るが、4点のLED12を検出することができたときには(ステップB3でYES)、そのLED12の4点座標を取得する(ステップB4)。これによって取得した4点座標を基に二値化画像内でのARマーカ11の領域を特定すると共に、この特定したARマーカ11の領域内において、大津の二値化法を使用して、ARマーカ11の領域内での二値化閾値を算出する(ステップB5)。そして、二値化した二値化画像を基にARマーカ11を検出することかできたかを調べ(ステップB6)、ARマーカ11を検出することができなければ(ステップB6でNO)、最初から処理をやり直すためにステップB1に戻る。   As a result, if four LEDs 12 cannot be detected (NO in step B3), the process returns to step B1 to restart the process from the beginning, but when four LEDs 12 can be detected (step B3). YES), the four-point coordinates of the LED 12 are acquired (step B4). The area of the AR marker 11 in the binarized image is specified on the basis of the four-point coordinates acquired in this way, and in the area of the specified AR marker 11, using the binarization method of Otsu, A binarization threshold value in the area of the marker 11 is calculated (step B5). Then, it is checked whether or not the AR marker 11 can be detected based on the binarized binarized image (step B6). If the AR marker 11 cannot be detected (NO in step B6), from the beginning. Return to step B1 to redo the process.

ここで、ARマーカ11を検出することができたときには(ステップB6でYES)、検出した各ARマーカ11からその発光パターンを特定すると共に、その発光パターンの種類を一時記憶しておく(ステップB7)。そして、この発光パターンの種類に基づいて動作テーブルT(図10を参照)を検索することにより仮想画像の表示動作を特定する(ステップB8)。
図10は、この動作テーブルTを説明するための図である。動作テーブルTは、「発光パターンの種類」に対応付けて仮想画像の「表示動作」を記憶する構成で、図示の例では、発光パターン(色パターン)の種類として、赤色が1個、緑色が2個、青色が1個の発光パターンに対応して「動作A」が記憶され、赤色が1個、緑色が1個、青色が2個の発光パターンに対応して「動作B」が記憶され、赤色が2個、緑色が1個、青色が1個の発光パターンに対応して「動作C」が記憶されている。
Here, when the AR marker 11 can be detected (YES in step B6), the light emission pattern is specified from each detected AR marker 11, and the type of the light emission pattern is temporarily stored (step B7). ). Then, the display operation of the virtual image is specified by searching the operation table T (see FIG. 10) based on the type of the light emission pattern (step B8).
FIG. 10 is a diagram for explaining the operation table T. The operation table T is configured to store the “display operation” of the virtual image in association with the “type of light emission pattern”. In the illustrated example, as the type of light emission pattern (color pattern), one red color and one green color are displayed. “Operation A” is stored corresponding to two light emission patterns, blue, and “Operation B” is stored corresponding to one red, one green, and two blue light emission patterns. “Operation C” is stored corresponding to the light emission patterns of two red, one green, and one blue.

これによって特定した表示動作の仮想画像を撮影画像内のARマーカ11上に重畳して合成表示させる(ステップB9)。このようにしてARマーカ11を検出してその位置に仮想画像を表示させた後は、撮影画像(実画像)を取得し(ステップB10)、LED12の輝度に合わせた閾値を用いた固定閾値二値化法によって撮影画像を二値化する(ステップB11)。そして、二値化した二値化画像を基に4点のLED12を検出することができたか否かを調べる(ステップB12)。   The virtual image of the display operation specified in this way is superimposed and displayed on the AR marker 11 in the captured image (step B9). After detecting the AR marker 11 and displaying the virtual image at the position in this way, a captured image (actual image) is acquired (step B10), and a fixed threshold value 2 using a threshold value that matches the luminance of the LED 12 is acquired. The captured image is binarized by the binarization method (step B11). Then, it is examined whether or not four LEDs 12 can be detected based on the binarized binarized image (step B12).

ここで、4点のLED12を検出することができたときには(ステップB12でYES)、そのLED12の4点座標を取得する(ステップB13)。これによって取得した4点座標を基に二値化画像内でのARマーカ11の領域を特定すると共に、この特定したARマーカ11の領域の中心位置に仮想画像を重畳して合成表示させる(ステップB14)。この場合、上述のステップB7で一時記憶した発光パターンの種類に対応して動作テーブルT1を検索することにより、それに対応付けられている仮想画像の表示動作を読み出して、仮想画像を合成表示させる。   Here, when four LEDs 12 can be detected (YES in step B12), the four-point coordinates of the LEDs 12 are acquired (step B13). The area of the AR marker 11 in the binarized image is specified based on the four-point coordinates acquired in this way, and the virtual image is superimposed and displayed on the center position of the specified area of the AR marker 11 (step B14). In this case, by searching the operation table T1 corresponding to the type of the light emission pattern temporarily stored in step B7 described above, the display operation of the virtual image associated therewith is read, and the virtual image is synthesized and displayed.

そして、以下、拡張現実処理の終了がユーザ操作により指示されたかを調べ(ステップB15)、終了指示があれば(ステップB15でYES)、図9のフローから抜けるが、拡張現実処理の終了指示がなければ(ステップB15でNO)、上述のステップB10に戻って、以下、ARマーカ11を検出する動作を繰り返す。このようにARマーカ11を検出する動作を繰り返して実行している状態において、ARマーカ11を見失ってそれを検出することができなくなったときには(ステップB12でNO)、最初から処理をやり直すためにステップB1に戻る。   Thereafter, it is checked whether or not the end of augmented reality processing is instructed by a user operation (step B15). If there is an end instruction (YES in step B15), the flow of FIG. If not (NO in step B15), the process returns to step B10 described above, and the operation for detecting the AR marker 11 is repeated. In such a state that the operation of detecting the AR marker 11 is repeatedly executed, when the AR marker 11 is lost and cannot be detected (NO in step B12), the process is restarted from the beginning. Return to Step B1.

以上のように、第2実施形態においては、ARマーカ11を検出した場合に、次回のフレーム以降では複数のLED12(発光パターン)のみを検出する動作のみを繰り返すようにしたので、ARマーカ11を検出する動作が省略することができる。したがって、高認識率を維持しながら認識処理速度の向上が可能となる。   As described above, in the second embodiment, when the AR marker 11 is detected, only the operation of detecting only the plurality of LEDs 12 (light emission patterns) is repeated after the next frame. The detecting operation can be omitted. Therefore, the recognition processing speed can be improved while maintaining a high recognition rate.

また、所定の仮想画像を合成表示させる場合に、複数のLED12によって特定した発光パターンの種類に応じて仮想画像の表示動作を制御するようにしたので、発光パターンを変化させるだけで仮想画像の表示動作を変えることができ、変化に富んだ表示を容易に実現することが可能となる。   In addition, when a predetermined virtual image is synthesized and displayed, the display operation of the virtual image is controlled according to the type of the light emission pattern specified by the plurality of LEDs 12, so that the virtual image can be displayed only by changing the light emission pattern. The operation can be changed, and a display rich in change can be easily realized.

なお、上述した各実施形態においてARマーカ11は、正方形の黒枠内に任意形状の白領域のパターンなどを配置した構成であるが、ARマーカ11の構成はこれに限らず、任意である。また、LED12をARマーカ11の四隅に配置するようにしたが、ARマーカ11の形状などに応じてLED12の配置位置や個数なども任意である。すなわち、LED12を配置することによってARマーカ11の領域を特定することが可能であれば、LED12の配置位置や個数などは任意である。   In each of the above-described embodiments, the AR marker 11 has a configuration in which a pattern of a white region having an arbitrary shape is arranged in a square black frame, but the configuration of the AR marker 11 is not limited to this and is arbitrary. Further, although the LEDs 12 are arranged at the four corners of the AR marker 11, the arrangement position and the number of the LEDs 12 are arbitrary according to the shape of the AR marker 11 and the like. That is, if the area of the AR marker 11 can be specified by arranging the LEDs 12, the arrangement position and the number of the LEDs 12 are arbitrary.

また、上述した各実施形態においては、LED12の4点座標を基に二値化画像内でのARマーカ11の領域内を二値化する場合に、大津の二値化法を使用するようにしたが、この場合の二値化は、これに限らず、任意である。   In the above-described embodiments, when binarizing the area of the AR marker 11 in the binarized image based on the four-point coordinates of the LED 12, the binarization method of Otsu is used. However, the binarization in this case is not limited to this and is arbitrary.

また、上述した実施形態においては、カメラ機能付き多機能型携帯電話機(スマートフォン)に適用した場合を例示したが、これに限らず、カメラ機能付きパーソナルコンピュータ・PDA(個人向け携帯型情報通信機器)・音楽プレイヤー・電子ゲーム機などであってもよく、勿論、デジタルカメラ自体であってもよい。   In the above-described embodiment, the case where the present invention is applied to a multi-function mobile phone (smart phone) with a camera function has been illustrated. -It may be a music player, an electronic game machine, etc. Of course, it may be a digital camera itself.

また、上述した各実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。   Further, the “apparatus” and “unit” shown in each of the above-described embodiments may be separated into a plurality of cases by function, and are not limited to a single case. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.

以上、この発明の実施形態について説明したが、この発明は、これに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下、本願出願の特許請求の範囲に記載された発明を付記する。
(付記)
(請求項1)
請求項1に記載の発明は、
複数の発光体によって囲まれている拡張現実マーカを撮影する撮影手段と、
前記撮影手段によって撮影された撮影画像を所定の閾値で二値化する処理を行う第1の二値化手段と、
前記第1の二値化手段により二値化された二値化画像の中から前記複数の発光体を検出する処理を行う第1の検出手段と、
前記第1の検出手段によって検出された複数の発光体によって囲まれている領域を二値化する処理を行う第2の二値化手段と、
前記第2の二値化手段により二値化された二値化画像を基に前記拡張現実マーカを検出する処理を行う第2の検出手段と、
を備えることを特徴とする画像処理装置である。
(請求項2)
請求項2に記載の発明は、請求項1記載の画像処理装置において、
前記第1の二値化手段は、前記複数の発光体によって囲まれている拡張現実マーカが前記撮影手段によって撮影された場合に、その撮影画像を前記発光体の輝度に合わせた閾値を用いた固定閾値二値化法によって二値化する処理を行う、
ようにしたことを特徴とする画像処理装置である。
(請求項3)
請求項3に記載の発明は、請求項1あるいは請求項2に記載の画像処理装置において、
前記第1の二値化手段により二値化された二値化画像の中から前記各発光体の輝度の違いに応じた輝度パターンを認識する輝度パターン認識手段を更に備え、
前記第1の検出手段は、前記輝度パターン認識手段によって認識された輝度パターンが予め決められているパターンであることを条件に前記複数の発光体を検出したものとする、
ようにしたことを特徴とする画像処理装置である。
(請求項4)
請求項4に記載の発明は、請求項1あるいは請求項2に記載の画像処理装置において、
前記第1の二値化手段により二値化された二値化画像の中から前記各発光体の発光色の違いに応じた色パターンを認識する色パターン認識手段を更に備え、
前記第1の検出手段は、前記色パターン認識手段によって認識された色パターンが予め決められているパターンであることを条件に前記複数の発光体を検出したものとする、
ようにしたことを特徴とする画像処理装置である。
(請求項5)
請求項5に記載の発明は、請求項1あるいは請求項2に記載の画像処理装置において、
前記第1の二値化手段により二値化された二値化画像の中から前記各発光体の点滅状態に応じた点滅パターンを認識する点滅パターン認識手段を更に備え、
前記第1の検出手段は、前記点滅パターン認識手段によって認識された点滅パターンが予め決められているパターンであることを条件に前記複数の発光体を検出したものとする、
ようにしたことを特徴とする画像処理装置である。
(請求項6)
請求項6に記載の発明は、請求項1〜請求項5のいずれかに記載の画像処理装置において、
前記第1の二値化手段により二値化された二値化画像の中から前記各発光体の発光状態に応じた発光パターンを認識する発光パターン認識手段と、
前記発光パターン認識手段によって認識された発光パターンに基づいて前記拡張現実マーカの向きを認識する向き認識手段と、
前記向き認識手段によって認識された認識結果に基づいて前記拡張現実マーカを所定の向きに変更する変更手段と、
を更に備える、
ようにしたことを特徴とする画像処理装置である。
(請求項7)
請求項7に記載の発明は、請求項1〜請求項6のいずれかに記載の画像処理装置において、
前記第1の二値化手段、前記第1の検出手段、前記第2の二値化手段、前記第2の検出手段の動作を順次実行している状態において前記第2の検出手段で拡張現実マーカが検出された場合には、それ以降、前記第1の二値化手段及び前記第1の検出手段の発光体検出動作を繰り返し実行させ、この発光体検出動作の繰り返し実行中において前記第1の検出手段によって発光体を検出できなかった場合には、再度、前記第1の二値化手段、前記第1の検出手段、前記第2の二値化手段、前記第2の検出手段の動作を順次実行させる制御手段を更に備える、
ようにしたことを特徴とする画像処理装置である。
(請求項8)
請求項8に記載の発明は、請求項1〜請求項7のいずれかに記載の画像処理装置において、
前記第2の検出手段により拡張現実マーカが検出された場合に、前記撮影画像内のマーク位置に仮想画像を表示させる仮想画像表示手段と、
前記複数の発光体の発光状態に応じた発光パターンに対応付けて前記仮想画像の表示動作を記憶する動作記憶手段と、
前記第1の二値化手段により二値化された二値化画像の中から前記各発光体の発光状態に応じた発光パターンを認識する発光パターン認識手段と、
前記発光パターン認識手段によって認識された発光パターンに対応する表示動作を前記動作記憶手段から読み出し、その表示動作に応じて前記仮想画像を制御する仮想画像制御手段と、
を更に備える、
ようにしたことを特徴とする画像処理装置である。
(請求項9)
請求項9に記載の発明は、
コンピュータに対して、
複数の発光体によって囲まれている拡張現実マーカを撮影する機能と、
前記撮影された撮影画像を所定の閾値で二値化する処理を行う機能と、
前記二値化された二値化画像の中から前記複数の発光体を検出する処理を行う機能と、
前記検出された複数の発光体によって囲まれている領域を二値化する処理を行う機能と、
前記領域が二値化された二値化画像を基に前記拡張現実マーカを検出する処理を行う機能と、
を実現させるためのプログラムである。
The embodiment of the present invention has been described above. However, the present invention is not limited to this, and includes the invention described in the claims and the equivalent scope thereof.
Hereinafter, the invention described in the claims of the present application will be appended.
(Appendix)
(Claim 1)
The invention described in claim 1
Photographing means for photographing an augmented reality marker surrounded by a plurality of light emitters;
A first binarization unit that performs processing of binarizing a captured image captured by the imaging unit with a predetermined threshold;
First detection means for performing processing for detecting the plurality of light emitters from the binarized image binarized by the first binarization means;
Second binarizing means for binarizing an area surrounded by a plurality of light emitters detected by the first detecting means;
Second detection means for performing processing for detecting the augmented reality marker based on the binarized image binarized by the second binarization means;
An image processing apparatus comprising:
(Claim 2)
The invention according to claim 2 is the image processing apparatus according to claim 1,
The first binarization unit uses a threshold value that matches the captured image with the luminance of the light emitter when the augmented reality marker surrounded by the plurality of light emitters is captured by the image capturing unit. Perform binarization processing by the fixed threshold binarization method,
This is an image processing apparatus characterized by being configured as described above.
(Claim 3)
The invention according to claim 3 is the image processing apparatus according to claim 1 or 2,
A luminance pattern recognizing unit for recognizing a luminance pattern according to a difference in luminance of each light emitter from the binarized image binarized by the first binarizing unit;
The first detection means detects the plurality of light emitters on the condition that the brightness pattern recognized by the brightness pattern recognition means is a predetermined pattern.
This is an image processing apparatus characterized by being configured as described above.
(Claim 4)
The invention according to claim 4 is the image processing apparatus according to claim 1 or 2, wherein
A color pattern recognizing unit for recognizing a color pattern corresponding to a difference in emission color of each light emitter from the binarized image binarized by the first binarizing unit;
The first detection means detects the plurality of light emitters on the condition that the color pattern recognized by the color pattern recognition means is a predetermined pattern.
This is an image processing apparatus characterized by being configured as described above.
(Claim 5)
The invention according to claim 5 is the image processing apparatus according to claim 1 or 2, wherein
A blinking pattern recognition means for recognizing a blinking pattern corresponding to a blinking state of each of the light emitters from the binarized image binarized by the first binarization means;
The first detection means detects the plurality of light emitters on the condition that the blinking pattern recognized by the blinking pattern recognition means is a predetermined pattern.
This is an image processing apparatus characterized by being configured as described above.
(Claim 6)
The invention according to claim 6 is the image processing apparatus according to any one of claims 1 to 5,
A light emission pattern recognition means for recognizing a light emission pattern corresponding to the light emission state of each light emitter from the binarized image binarized by the first binarization means;
Direction recognition means for recognizing the direction of the augmented reality marker based on the light emission pattern recognized by the light emission pattern recognition means;
Changing means for changing the augmented reality marker to a predetermined direction based on a recognition result recognized by the orientation recognition means;
Further comprising
This is an image processing apparatus characterized by being configured as described above.
(Claim 7)
The invention according to claim 7 is the image processing apparatus according to any one of claims 1 to 6,
Augmented reality by the second detection means in the state where the operations of the first binarization means, the first detection means, the second binarization means, and the second detection means are sequentially executed. When the marker is detected, thereafter, the light emitter detection operation of the first binarizing unit and the first detection unit is repeatedly executed, and the first detection unit is repeatedly executed during the repetition of the light emitter detection operation. If the illuminant cannot be detected by the detecting means, the operations of the first binarizing means, the first detecting means, the second binarizing means, and the second detecting means are performed again. Are further provided with control means for sequentially executing
This is an image processing apparatus characterized by being configured as described above.
(Claim 8)
The invention according to claim 8 is the image processing apparatus according to any one of claims 1 to 7,
Virtual image display means for displaying a virtual image at a mark position in the captured image when an augmented reality marker is detected by the second detection means;
Operation storage means for storing the display operation of the virtual image in association with a light emission pattern according to a light emission state of the plurality of light emitters;
A light emission pattern recognition means for recognizing a light emission pattern corresponding to the light emission state of each light emitter from the binarized image binarized by the first binarization means;
A virtual image control unit that reads a display operation corresponding to the light emission pattern recognized by the light emission pattern recognition unit from the operation storage unit and controls the virtual image according to the display operation;
Further comprising
This is an image processing apparatus characterized by being configured as described above.
(Claim 9)
The invention according to claim 9 is:
Against the computer,
A function of shooting an augmented reality marker surrounded by a plurality of light emitters;
A function of performing a process of binarizing the captured image with a predetermined threshold;
A function of performing processing for detecting the plurality of light emitters from the binarized binarized image;
A function of binarizing a region surrounded by the detected plurality of light emitters;
A function of performing processing for detecting the augmented reality marker based on a binarized image in which the region is binarized;
It is a program for realizing.

1 CPU
3 記憶部
6 タッチ入力表示部
6A 表示部
7 撮像部
11 ARマーカ
12 LED
M1 プログラムメモリ
1 CPU
3 Storage Unit 6 Touch Input Display Unit 6A Display Unit 7 Imaging Unit 11 AR Marker 12 LED
M1 program memory

Claims (9)

複数の発光体によって囲まれている拡張現実マーカを撮影する撮影手段と、
前記撮影手段によって撮影された撮影画像を所定の閾値で二値化する処理を行う第1の二値化手段と、
前記第1の二値化手段により二値化された二値化画像の中から前記複数の発光体を検出する処理を行う第1の検出手段と、
前記第1の検出手段によって検出された複数の発光体によって囲まれている領域を二値化する処理を行う第2の二値化手段と、
前記第2の二値化手段により二値化された二値化画像を基に前記拡張現実マーカを検出する処理を行う第2の検出手段と、
を備えることを特徴とする画像処理装置。
Photographing means for photographing an augmented reality marker surrounded by a plurality of light emitters;
A first binarization unit that performs processing of binarizing a captured image captured by the imaging unit with a predetermined threshold;
First detection means for performing processing for detecting the plurality of light emitters from the binarized image binarized by the first binarization means;
Second binarizing means for binarizing an area surrounded by a plurality of light emitters detected by the first detecting means;
Second detection means for performing processing for detecting the augmented reality marker based on the binarized image binarized by the second binarization means;
An image processing apparatus comprising:
前記第1の二値化手段は、前記複数の発光体によって囲まれている拡張現実マーカが前記撮影手段によって撮影された場合に、その撮影画像を前記発光体の輝度に合わせた閾値を用いた固定閾値二値化法によって二値化する処理を行う、
ようにしたことを特徴とする請求項1記載の画像処理装置。
The first binarization unit uses a threshold value that matches the captured image with the luminance of the light emitter when the augmented reality marker surrounded by the plurality of light emitters is captured by the image capturing unit. Perform binarization processing by the fixed threshold binarization method,
The image processing apparatus according to claim 1, which is configured as described above.
前記第1の二値化手段により二値化された二値化画像の中から前記各発光体の輝度の違いに応じた輝度パターンを認識する輝度パターン認識手段を更に備え、
前記第1の検出手段は、前記輝度パターン認識手段によって認識された輝度パターンが予め決められているパターンであることを条件に前記複数の発光体を検出したものとする、
ようにしたことを特徴とする請求項1あるいは請求項2に記載の画像処理装置。
A luminance pattern recognizing unit for recognizing a luminance pattern according to a difference in luminance of each light emitter from the binarized image binarized by the first binarizing unit;
The first detection means detects the plurality of light emitters on the condition that the brightness pattern recognized by the brightness pattern recognition means is a predetermined pattern.
The image processing apparatus according to claim 1, wherein the image processing apparatus is configured as described above.
前記第1の二値化手段により二値化された二値化画像の中から前記各発光体の発光色の違いに応じた色パターンを認識する色パターン認識手段を更に備え、
前記第1の検出手段は、前記色パターン認識手段によって認識された色パターンが予め決められているパターンであることを条件に前記複数の発光体を検出したものとする、
ようにしたことを特徴とする請求項1あるいは請求項2に記載の画像処理装置。
A color pattern recognizing unit for recognizing a color pattern corresponding to a difference in emission color of each light emitter from the binarized image binarized by the first binarizing unit;
The first detection means detects the plurality of light emitters on the condition that the color pattern recognized by the color pattern recognition means is a predetermined pattern.
The image processing apparatus according to claim 1, wherein the image processing apparatus is configured as described above.
前記第1の二値化手段により二値化された二値化画像の中から前記各発光体の点滅状態に応じた点滅パターンを認識する点滅パターン認識手段を更に備え、
前記第1の検出手段は、前記点滅パターン認識手段によって認識された点滅パターンが予め決められているパターンであることを条件に前記複数の発光体を検出したものとする、
ようにしたことを特徴とする請求項1あるいは請求項2に記載の画像処理装置。
A blinking pattern recognition means for recognizing a blinking pattern corresponding to a blinking state of each of the light emitters from the binarized image binarized by the first binarization means;
The first detection means detects the plurality of light emitters on the condition that the blinking pattern recognized by the blinking pattern recognition means is a predetermined pattern.
The image processing apparatus according to claim 1, wherein the image processing apparatus is configured as described above.
前記第1の二値化手段により二値化された二値化画像の中から前記各発光体の発光状態に応じた発光パターンを認識する発光パターン認識手段と、
前記発光パターン認識手段によって認識された発光パターンに基づいて前記拡張現実マーカの向きを認識する向き認識手段と、
前記向き認識手段によって認識された認識結果に基づいて前記拡張現実マーカを所定の向きに変更する変更手段と、
を更に備える、
ようにしたことを特徴とする請求項1〜請求項5のいずれかに記載の画像処理装置。
A light emission pattern recognition means for recognizing a light emission pattern corresponding to the light emission state of each light emitter from the binarized image binarized by the first binarization means;
Direction recognition means for recognizing the direction of the augmented reality marker based on the light emission pattern recognized by the light emission pattern recognition means;
Changing means for changing the augmented reality marker to a predetermined direction based on a recognition result recognized by the orientation recognition means;
Further comprising
The image processing apparatus according to claim 1, wherein the image processing apparatus is configured as described above.
前記第1の二値化手段、前記第1の検出手段、前記第2の二値化手段、前記第2の検出手段の動作を順次実行している状態において前記第2の検出手段で拡張現実マーカが検出された場合には、それ以降、前記第1の二値化手段及び前記第1の検出手段の発光体検出動作を繰り返し実行させ、この発光体検出動作の繰り返し実行中において前記第1の検出手段によって発光体を検出できなかった場合には、再度、前記第1の二値化手段、前記第1の検出手段、前記第2の二値化手段、前記第2の検出手段の動作を順次実行させる制御手段を更に備える、
ようにしたことを特徴とする請求項1〜請求項6のいずれかに記載の画像処理装置。
Augmented reality by the second detection means in the state where the operations of the first binarization means, the first detection means, the second binarization means, and the second detection means are sequentially executed. When the marker is detected, thereafter, the light emitter detection operation of the first binarizing unit and the first detection unit is repeatedly executed, and the first detection unit is repeatedly executed during the repetition of the light emitter detection operation. If the illuminant cannot be detected by the detecting means, the operations of the first binarizing means, the first detecting means, the second binarizing means, and the second detecting means are performed again. Are further provided with control means for sequentially executing
The image processing apparatus according to claim 1, wherein the image processing apparatus is configured as described above.
前記第2の検出手段により拡張現実マーカが検出された場合に、前記撮影画像内のマーク位置に仮想画像を表示させる仮想画像表示手段と、
前記複数の発光体の発光状態に応じた発光パターンに対応付けて前記仮想画像の表示動作を記憶する動作記憶手段と、
前記第1の二値化手段により二値化された二値化画像の中から前記各発光体の発光状態に応じた発光パターンを認識する発光パターン認識手段と、
前記発光パターン認識手段によって認識された発光パターンに対応する表示動作を前記動作記憶手段から読み出し、その表示動作に応じて前記仮想画像を制御する仮想画像制御手段と、
を更に備える、
ようにしたことを特徴とする請求項1〜請求項7のいずれかに記載の画像処理装置。
Virtual image display means for displaying a virtual image at a mark position in the captured image when an augmented reality marker is detected by the second detection means;
Operation storage means for storing the display operation of the virtual image in association with a light emission pattern according to a light emission state of the plurality of light emitters;
A light emission pattern recognition means for recognizing a light emission pattern corresponding to the light emission state of each light emitter from the binarized image binarized by the first binarization means;
A virtual image control unit that reads a display operation corresponding to the light emission pattern recognized by the light emission pattern recognition unit from the operation storage unit and controls the virtual image according to the display operation;
Further comprising
The image processing apparatus according to claim 1, wherein the image processing apparatus is configured as described above.
コンピュータに対して、
複数の発光体によって囲まれている拡張現実マーカを撮影する機能と、
前記撮影された撮影画像を所定の閾値で二値化する処理を行う機能と、
前記二値化された二値化画像の中から前記複数の発光体を検出する処理を行う機能と、
前記検出された複数の発光体によって囲まれている領域を二値化する処理を行う機能と、
前記領域が二値化された二値化画像を基に前記拡張現実マーカを検出する処理を行う機能と、
を実現させるためのプログラム。
Against the computer,
A function of shooting an augmented reality marker surrounded by a plurality of light emitters;
A function of performing a process of binarizing the captured image with a predetermined threshold;
A function of performing processing for detecting the plurality of light emitters from the binarized binarized image;
A function of binarizing a region surrounded by the detected plurality of light emitters;
A function of performing processing for detecting the augmented reality marker based on a binarized image in which the region is binarized;
A program to realize
JP2012201103A 2012-09-13 2012-09-13 Image processing apparatus and program Active JP6065477B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012201103A JP6065477B2 (en) 2012-09-13 2012-09-13 Image processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012201103A JP6065477B2 (en) 2012-09-13 2012-09-13 Image processing apparatus and program

Publications (2)

Publication Number Publication Date
JP2014056450A true JP2014056450A (en) 2014-03-27
JP6065477B2 JP6065477B2 (en) 2017-01-25

Family

ID=50613708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012201103A Active JP6065477B2 (en) 2012-09-13 2012-09-13 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP6065477B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016167132A (en) * 2015-03-09 2016-09-15 株式会社タカラトミー Image display system
JPWO2016031190A1 (en) * 2014-08-27 2017-06-29 日本電気株式会社 Information processing apparatus and recognition support method
JP2018022242A (en) * 2016-08-01 2018-02-08 大豊精機株式会社 Composite system and target marker
KR20210132345A (en) * 2020-04-27 2021-11-04 (유)엔와이텔 A mobile guide node as an ar marker to support augmented reality experience service
JP7377721B2 (en) 2020-01-07 2023-11-10 日本放送協会 Marker detection device and its program, and marker light emitting device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256876A (en) * 2002-03-04 2003-09-12 Sony Corp Device and method for displaying composite sense of reality, recording medium and computer program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003256876A (en) * 2002-03-04 2003-09-12 Sony Corp Device and method for displaying composite sense of reality, recording medium and computer program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2016031190A1 (en) * 2014-08-27 2017-06-29 日本電気株式会社 Information processing apparatus and recognition support method
US10824900B2 (en) 2014-08-27 2020-11-03 Nec Corporation Information processing device and recognition support method
US11580720B2 (en) 2014-08-27 2023-02-14 Nec Corporation Information processing device and recognition support method
US11915516B2 (en) 2014-08-27 2024-02-27 Nec Corporation Information processing device and recognition support method
JP2016167132A (en) * 2015-03-09 2016-09-15 株式会社タカラトミー Image display system
JP2018022242A (en) * 2016-08-01 2018-02-08 大豊精機株式会社 Composite system and target marker
JP7377721B2 (en) 2020-01-07 2023-11-10 日本放送協会 Marker detection device and its program, and marker light emitting device
KR20210132345A (en) * 2020-04-27 2021-11-04 (유)엔와이텔 A mobile guide node as an ar marker to support augmented reality experience service
KR102502035B1 (en) * 2020-04-27 2023-02-21 (유)엔와이텔 A mobile guide node as an ar marker to support augmented reality experience service

Also Published As

Publication number Publication date
JP6065477B2 (en) 2017-01-25

Similar Documents

Publication Publication Date Title
US20210392241A1 (en) User feedback for real-time checking and improving quality of scanned image
US10855910B2 (en) Electronic device, method, and program
JP5776903B2 (en) Image processing apparatus, image processing method, and program
US10742889B2 (en) Image photographing method, image photographing apparatus, and terminal
US20180367732A1 (en) Visual cues for managing image capture
KR20200017072A (en) Electronic device and method for providing notification relative to image displayed via display and image stored in memory based on image analysis
JP6065477B2 (en) Image processing apparatus and program
US20090227283A1 (en) Electronic device
US20180240213A1 (en) Information processing system, information processing method, and program
US20100329552A1 (en) Method and apparatus for guiding user with suitable composition, and digital photographing apparatus
JP2017058812A (en) Image display apparatus, image display method and program
KR20170074742A (en) Image processing device, image processing method amd program
JP4694957B2 (en) Information presenting apparatus, information presenting method, and program thereof
US20220329729A1 (en) Photographing method, storage medium and electronic device
CN109040729B (en) Image white balance correction method and device, storage medium and terminal
JP5930194B2 (en) Terminal device and program
CN115706850A (en) Method, apparatus, storage medium, and program product for image capturing
JP2010252266A (en) Image arrangement apparatus
JP5880459B2 (en) Electronic device, display control method and program
US9524702B2 (en) Display control device, display control method, and recording medium
JP2018032991A (en) Image display unit, image display method and computer program for image display
JP2016187180A (en) Control device and program
CN108848266A (en) Control method, electronic device, storage medium and computer equipment
JP7416231B2 (en) Installation support device, installation support method, and program
JP2012105016A (en) Imaging apparatus and controlling method for the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160502

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160824

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161017

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161212

R150 Certificate of patent or registration of utility model

Ref document number: 6065477

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150