JP2013186691A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2013186691A
JP2013186691A JP2012051219A JP2012051219A JP2013186691A JP 2013186691 A JP2013186691 A JP 2013186691A JP 2012051219 A JP2012051219 A JP 2012051219A JP 2012051219 A JP2012051219 A JP 2012051219A JP 2013186691 A JP2013186691 A JP 2013186691A
Authority
JP
Japan
Prior art keywords
augmented reality
virtual object
marker
image processing
reality marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012051219A
Other languages
Japanese (ja)
Inventor
Atsuhide Takahashi
敦英 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012051219A priority Critical patent/JP2013186691A/en
Priority to US13/789,527 priority patent/US9007400B2/en
Priority to CN201310075130.7A priority patent/CN103312971B/en
Publication of JP2013186691A publication Critical patent/JP2013186691A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable easy display of a virtual object in a direction desired by a user when performing superimposed display of the virtual object in an image in which an augmented reality marker is photographed.SOLUTION: A CPU 1 specifies the direction of an AR marker from within an actual image captured in an image sensor 17B as a photographing direction, rotates a virtual object so that the front of the virtual object is directed to the photographing direction with reference to a state where the front of the virtual object is directed to a reference direction (e.g., front) predetermined for the AR marker, and performs superimposed display on a touch input display unit 16.

Description

本発明は、撮影された実画像内の拡張現実マーカを認識して仮想オブジェクトを合成表示する画像処理装置及び画像処理方法並びにプログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program for recognizing an augmented reality marker in a captured real image and combining and displaying a virtual object.

一般に、スマートフォンなどの携帯端末装置にあっては、その多機能化が進み、カメラ機能(撮像機能)のほかに、AR(Augmented
Reality:拡張現実)という画像処理機能などが搭載されており、カメラ機能により撮影された画像内の所定の位置に3次元の仮想オブジェクト(例えば、キャラクタ画像など)を重畳して表示するようにしている。すなわち、被写体の位置又はその付近に印刷物としての拡張現実マーカ(ARマーカ:正方形の黒枠内に白パターンを描いたマーカ)が配置されている状態において、その被写体が撮像機能によって撮影されると、携帯端末装置は、その撮影画像を解析することによりその中に含まれているARマーカを認識し、このARマーカの位置に仮想オブジェクトを重畳合成して表示するようにしている。このようにARマーカの位置に仮想オブジェクトを重畳表示する技術として従来においては、ARマーカのパターンの大きさや傾きに基づいてマーカが置かれている3次元の位置及び方向を検出して、撮影された画像上の表示位置及び表示方向を決定するようにした技術が開示されている(特許文献1参照)。
In general, mobile terminal devices such as smartphones have become more multifunctional, and in addition to camera functions (imaging functions), AR (Augmented)
Reality (augmented reality) has an image processing function and so on, and a three-dimensional virtual object (for example, a character image) is superimposed and displayed at a predetermined position in the image captured by the camera function. Yes. That is, when an augmented reality marker (AR marker: a marker in which a white pattern is drawn in a square black frame) is placed at or near the subject, the subject is photographed by the imaging function. The mobile terminal device recognizes an AR marker included in the captured image by analyzing the captured image, and superimposes and displays a virtual object on the position of the AR marker. Conventionally, as a technique for superimposing and displaying a virtual object at the position of the AR marker, conventionally, the three-dimensional position and direction where the marker is placed are detected based on the size and inclination of the AR marker pattern. A technique for determining a display position and a display direction on an image is disclosed (see Patent Document 1).

特開平7−57080号公報JP 7-57080 A

ところで、撮影画像内のARマーカを認識する場合には、ARマーカを構成する黒枠内の白パターンに応じてARマーカの所定方向(例えば、正面)を判別し、そのARマーカの正面に仮想オブジェクトの表示方向を決定するようにしている。図6は、拡張現実マーカ(ARマーカ)の正面に仮想オブジェクト(キャラクタ)の正面(顔)が向くように表示させた場合を例示した図である。この例においてARマーカは、正方形の黒枠内に任意形状の白領域のパターンを配置した構成で、黒の領域と白の領域とは所定の割合となっている。   By the way, when recognizing an AR marker in a captured image, a predetermined direction (for example, front) of the AR marker is determined according to a white pattern in a black frame constituting the AR marker, and a virtual object is placed in front of the AR marker. The display direction is determined. FIG. 6 is a diagram illustrating a case where the virtual object (character) is displayed so that the front (face) of the virtual object (character) faces the front of the augmented reality marker (AR marker). In this example, the AR marker has a configuration in which a pattern of a white region having an arbitrary shape is arranged in a square black frame, and the black region and the white region have a predetermined ratio.

携帯端末装置は、撮影された画像(実画像)を解析し、その中のARマーカの黒枠部分に着目して、ARマーカの領域(黒枠の領域)を検出した後、ARマーカ内に描かれている白領域のパターンを特定することによりARマーカを認識するようにしている。この場合、白領域のパターン形状に基づいてARマーカの正面を判断し、その正面に仮想オブジェクトが向くように画像上のARマーカの位置に3次元の仮想オブジェクトを重畳表示させるようにしている。なお、図示の例は、ARマーカの正面に仮想オブジェクト(キャラクタ)の正面(顔)が向くように表示させた場合である。   The mobile terminal device analyzes the captured image (actual image), pays attention to the black frame portion of the AR marker therein, detects the AR marker region (black frame region), and then draws it in the AR marker. The AR marker is recognized by specifying the pattern of the white area. In this case, the front of the AR marker is determined based on the pattern shape of the white area, and a three-dimensional virtual object is superimposed and displayed at the position of the AR marker on the image so that the virtual object faces the front. In the example shown in the figure, the virtual object (character) is displayed so that the front (face) of the virtual object (character) faces the front of the AR marker.

しかしながら、上述のようにARマーカの正面に3次元の仮想オブジェクトの正面が向くように仮想オブジェクトを回転制御して重畳表示させるために、例えば、撮影者の位置がARマーカの正面から外れて、ARマーカの背面方向から撮影を行う場合には、後ろ向きの仮想オブジェクトが表示され、また、ARマーカの側面方向から撮影を行う場合には、横向きの仮想オブジェクトが表示されることになる。その結果、ARマーカの正面方向からの撮影が困難な場合、ユーザは、後ろ向きの仮想オブジェクトあるいは横向きの仮想オブジェクトしか見ることができなくなる。   However, as described above, in order to rotate and display the virtual object so that the front of the three-dimensional virtual object faces the front of the AR marker, for example, the position of the photographer deviates from the front of the AR marker. When shooting from the back direction of the AR marker, a backward virtual object is displayed, and when shooting from the side direction of the AR marker, a horizontal virtual object is displayed. As a result, when shooting from the front direction of the AR marker is difficult, the user can only see the backward virtual object or the horizontal virtual object.

本発明の課題は、拡張現実マーカを撮影した画像内に仮想オブジェクトを重畳表示する場合、ユーザの所望する向きに仮想オブジェクトを容易に表示できるようにすることである。   An object of the present invention is to make it possible to easily display a virtual object in a direction desired by a user when the virtual object is superimposed and displayed in an image obtained by capturing an augmented reality marker.

上述した課題を解決するために本発明の画像処理装置は、
撮像素子を備える撮像手段と、
前記撮像素子に映っている実画像の中から拡張現実マーカを検出する検出手段と、
前記検出手段により検出された拡張現実マーカを認識する認識手段と、
前記マーカ認識手段により拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定手段と、
前記拡張現実マーカに対して予め決められている基準方向を基準として、前記撮影方向特定手段により特定された撮影方向に基づいて仮想オブジェクトが所定方向に向くように変更し重畳表示させる表示制御手段と、
を備えたことを特徴とする画像処理装置である。
In order to solve the above-described problems, the image processing apparatus of the present invention provides:
Imaging means comprising an imaging element;
Detecting means for detecting an augmented reality marker from an actual image shown on the image sensor;
Recognizing means for recognizing the augmented reality marker detected by the detecting means;
A shooting direction specifying means for specifying a shooting direction when an augmented reality marker is recognized by the marker recognition means;
Display control means for changing and superimposing a virtual object to be directed in a predetermined direction based on the shooting direction specified by the shooting direction specifying means with reference to a reference direction predetermined for the augmented reality marker; ,
An image processing apparatus comprising:

上述した課題を解決するために本発明の画像処理方法は、
撮像素子に映っている実画像の中から拡張現実マーカを検出する検出ステップと、
前記検出された拡張現実マーカを認識する認識ステップと、
前記拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定ステップと、
前記拡張現実マーカに対して予め決められている基準方向を基準として、前記特定された撮影方向に基づいて仮想オブジェクトが所定方向に向くように変更し重畳表示させる表示制御ステップと、
を含むことを特徴とする画像処理方法である。
In order to solve the above-described problem, the image processing method of the present invention
A detection step of detecting an augmented reality marker from an actual image reflected on the image sensor;
A recognition step for recognizing the detected augmented reality marker;
A shooting direction specifying step of specifying a shooting direction when the augmented reality marker is recognized;
A display control step of changing and superimposing a virtual object so as to face a predetermined direction based on the specified shooting direction with reference to a reference direction predetermined for the augmented reality marker;
The image processing method characterized by including.

上述した課題を解決するために本発明のプログラムは、
コンピュータに対して、
撮像素子に映っている実画像の中から拡張現実マーカを検出する検出機能と、
前記検出された拡張現実マーカを認識する認識機能と、
前記拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定機能と、
前記拡張現実マーカに対して予め決められている基準方向を基準として、前記特定された撮影方向に基づいて仮想オブジェクトが所定方向に向くように変更し重畳表示させる表示制御機能と、
を実現させるためのプログラムである。
In order to solve the above-described problems, the program of the present invention
Against the computer,
A detection function that detects an augmented reality marker from an actual image shown on the image sensor;
A recognition function for recognizing the detected augmented reality marker;
A shooting direction specifying function for specifying a shooting direction when the augmented reality marker is recognized;
A display control function for changing and displaying a virtual object so as to face a predetermined direction based on the specified shooting direction with reference to a reference direction predetermined for the augmented reality marker;
It is a program for realizing.

本発明によれば、拡張現実マーカを撮影した画像内に仮想オブジェクトを重畳表示する場合、ユーザの所望する向きに仮想オブジェクトを容易に表示することができ、ユーザにあっては撮影位置を変えることなく、所望する向きの仮想オブジェクトを見ることができる。   According to the present invention, when a virtual object is superimposed and displayed in an image obtained by shooting an augmented reality marker, the virtual object can be easily displayed in a direction desired by the user, and the user can change the shooting position. Without being able to see the virtual object in the desired orientation.

カメラ機能付き多機能型携帯電話機1と、植物の育成環境を観測する観測装置2とを示した図。The figure which showed the multifunctional mobile phone 1 with a camera function, and the observation apparatus 2 which observes the cultivation environment of a plant. 画像処理装置として適用したカメラ機能付き多機能型携帯電話機1の基本的な構成要素を示したブロック図。The block diagram which showed the basic component of the multifunctional mobile telephone 1 with a camera function applied as an image processing apparatus. (1)、(2)は、拡張現実マーカ(ARマーカ)の向きと、ARマーカに対する視点方向を説明するための図。(1), (2) is a figure for demonstrating the direction of an augmented reality marker (AR marker), and the viewpoint direction with respect to AR marker. (1)〜(3)は、仮想オブジェクト(キャラクタ画像)の表示例を示した図。(1)-(3) is the figure which showed the example of a display of a virtual object (character image). 拡張現実感撮影モードの切り換えに応じて実行開始される拡張現実感処理を説明するためのフローチャート。The flowchart for demonstrating the augmented reality process started execution according to switching of an augmented reality imaging | photography mode. 従来例を説明するための図で、拡張現実マーカ(ARマーカ)の正面に仮想オブジェクト(キャラクタ)の正面(顔)が向くように表示させた場合を例示した図。It is a figure for demonstrating a prior art example, and the figure which illustrated the case where it displayed so that the front (face) of a virtual object (character) might face the front of an augmented reality marker (AR marker).

以下、図1〜図5を参照して本発明の実施形態を説明する。
本実施形態は、画像処理装置としてカメラ機能付き多機能型携帯電話機(スマートフォン)に適用した場合を例示したもので、図1は、カメラ機能付き多機能型携帯電話機1と、植物の育成環境を観測する観測装置2とを示した図である。
この多機能型携帯電話機1は、通話機能、電子メール機能、インターネット接続機能、カメラ機能の基本機能のほか、カメラ機能によって撮影された実画像内に所定の仮想オブジェクト(例えば、キャラクタ画像)を合成して表示する拡張現実感処理機能と、観測装置2との間で近距離通信によりデータの送受信が可能な近距離通信機能などを備えた構成となっている。
Hereinafter, embodiments of the present invention will be described with reference to FIGS.
This embodiment exemplifies the case where the present invention is applied to a multifunctional mobile phone with a camera function (smartphone) as an image processing apparatus. FIG. 1 shows a multifunctional cellular phone 1 with a camera function and a plant growing environment. It is the figure which showed the observation apparatus 2 to observe.
The multi-function mobile phone 1 synthesizes a predetermined virtual object (for example, a character image) in a real image photographed by the camera function, in addition to the basic function of the call function, the e-mail function, the Internet connection function, and the camera function. And an augmented reality processing function to be displayed, and a short-range communication function capable of transmitting and receiving data to and from the observation device 2 by short-range communication.

観測装置2は、植木や草花などの植物の生育環境(土壌の水分量、周囲温度など)を検出する各種のセンサを備えているほか、多機能型携帯電話機1との間で近距離通信によりデータの送受信が可能な近距離通信機能などを備え、その筺体全体は細長状の中空の棒体を成している。そして、この棒体全体は、先細り状に形成され、その下部を鉢3の土壌内に埋め込む(刺し込む)構成で、その下部側の表面には、通気・通水用として複数個の細孔2aが形成され、また、上端面には、仮想オブジェクトを表示させるための拡張現実マーカ(ARマーカ)2bが印刷配置されている。なお、ARマーカは、観測装置2への直接印刷に限らず、ARマーカが印刷されているシールを観測装置2の上端面に貼り付けるようにしてもよい。また、観測装置2の上端の一側部には弧状の取手2cを突出形成(一体成型)されている。   The observation device 2 includes various sensors for detecting the growth environment of plants such as plants and flowers (the amount of moisture in the soil, the ambient temperature, etc.), and by short-range communication with the multi-function mobile phone 1. It is equipped with a short-range communication function capable of transmitting and receiving data, and the entire casing forms an elongated hollow rod. The entire rod body is formed in a tapered shape, and the lower part thereof is embedded (stabbed) in the soil of the pot 3, and the lower surface has a plurality of pores for ventilation and water passage. 2a is formed, and an augmented reality marker (AR marker) 2b for displaying a virtual object is printed on the upper end surface. The AR marker is not limited to direct printing on the observation device 2, and a sticker on which the AR marker is printed may be attached to the upper end surface of the observation device 2. In addition, an arc-shaped handle 2c is formed to protrude (integral molding) on one side of the upper end of the observation device 2.

図2は、このカメラ機能付き多機能型携帯電話機1の基本的な構成要素を示したブロック図である。
CPU11は、二次電池(図示省略)を備えた電源部12からの電力供給によって動作し、記憶部13内の各種のプログラムに応じてこの携帯電話機1の全体動作を制御する中央演算処理装置である。記憶部13には、プログラムメモリM1、ワークメモリM2などが設けられている。プログラムメモリM1は、図5に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているほか、それに必要とする情報などが記憶されている。ワークメモリM2は、携帯電話機1が動作するために必要となる各種の情報(例えば、撮影された画像、フラグ、タイマなど)を一時的に記憶するワーク領域である。なお、記憶部13は、例えば、SDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、また、その一部が図示しない所定の外部サーバの領域を含むものであってもよい。
FIG. 2 is a block diagram showing basic components of the multi-function mobile phone 1 with a camera function.
The CPU 11 is a central processing unit that operates by supplying power from a power supply unit 12 including a secondary battery (not shown) and controls the overall operation of the mobile phone 1 according to various programs in the storage unit 13. is there. The storage unit 13 is provided with a program memory M1, a work memory M2, and the like. The program memory M1 stores a program and various applications for realizing the present embodiment in accordance with the operation procedure shown in FIG. 5, and stores information necessary for the program. The work memory M2 is a work area that temporarily stores various types of information (for example, captured images, flags, timers, and the like) that are necessary for the mobile phone 1 to operate. The storage unit 13 may be configured to include a removable portable memory (recording medium) such as an SD card or an IC card, and a part of the storage unit 13 has a predetermined external server area (not shown). It may be included.

無線通信部14は、音声通話機能、電子メール機能、インターネット接続機能時に使用される広域通信部であり、通話機能の動作時には音声信号処理部15を介して通話用スピーカSPから音声出力させ、また、通話用マイクMCからの入力音声データを音声信号処理部5から取り込んでアンテナから発信出力させる。タッチ入力表示部16は、表示部16Aとタッチ入力部16Bを有する構成で、高精細な表示部16Aの前面にタッチ入力部16Bを配置することによりソフトウェアキー(タッチキー)を割り当て配置してその機能名を表示したり、指などによるタッチ操作を感知してそのタッチ操作に応じたデータを入力したりするデバイスである。表示部16Aは、高精細液晶ディスプレイなどであり、カメラ機能の使用時には撮影された画像をライブビュー画像(モニタ画像)として表示するファインダ画面となる。   The wireless communication unit 14 is a wide-area communication unit used at the time of a voice call function, an e-mail function, and an Internet connection function, and outputs voice from the call speaker SP via the voice signal processing unit 15 when the call function is operated. Then, the input voice data from the call microphone MC is taken from the voice signal processing unit 5 and transmitted from the antenna. The touch input display unit 16 includes a display unit 16A and a touch input unit 16B. The touch input unit 16B is arranged on the front surface of the high-definition display unit 16A, and software keys (touch keys) are allocated and arranged. This device displays a function name, detects a touch operation with a finger or the like, and inputs data corresponding to the touch operation. The display unit 16A is a high-definition liquid crystal display or the like, and serves as a finder screen that displays a captured image as a live view image (monitor image) when the camera function is used.

撮像部17は、被写体を高精細に撮影可能なカメラ部を構成するもので、ズームレンズやフォーカスレンズ(図示省略)などを備えたレンズ部17Aと、CCD又はCMOSなどの撮像素子17Bと、照度計などの各種のセンサを備えたセンサ部17Cを有するほか、更に撮像素子17Bで光電変換された画像信号(アナログ値の信号)に対して、色分離やRGBの色成分毎のゲイン調整などを行ってデジタル値のデータに変換するアナログ処理回路17Dと、このアナログ処理回路17Dによりデジタル変換された画像データに対して色補間処理(デモザイク処理)などを施すデジタル信号処理回路17Eを有する構成となっている。また、本実施形態では、例えば、夜景撮影モード、夕焼け撮影モード、拡張現実感撮影モードなどの各種の撮影モードに切り換え可能となっている。この拡張現実感撮影モードは、拡張現実感処理機能を使用して撮影を行う撮影モードである。なお、ユーザは、拡張現実感処理機能の起動時に、観測装置2の上端面(ARマーカ)を含めて撮像部17により拡大撮影するようにしている。   The imaging unit 17 constitutes a camera unit capable of photographing a subject with high definition, and includes a lens unit 17A including a zoom lens and a focus lens (not shown), an imaging element 17B such as a CCD or a CMOS, and illuminance. In addition to having a sensor unit 17C including various sensors such as a meter, color separation and gain adjustment for each RGB color component are further performed on an image signal (analog value signal) photoelectrically converted by the image sensor 17B. An analog processing circuit 17D that performs conversion to digital value data and a digital signal processing circuit 17E that performs color interpolation processing (demosaic processing) on the image data digitally converted by the analog processing circuit 17D. ing. In the present embodiment, for example, it is possible to switch to various shooting modes such as a night scene shooting mode, a sunset shooting mode, and an augmented reality shooting mode. This augmented reality shooting mode is a shooting mode in which shooting is performed using the augmented reality processing function. It should be noted that when the augmented reality processing function is activated, the user performs enlarged shooting with the imaging unit 17 including the upper end surface (AR marker) of the observation device 2.

図3は、拡張現実マーカ(ARマーカ)の向きと、そのARマーカに対する視点方向を説明するための図である。
図中、矢印方向は、ARマーカをユーザが見ている視点方向(撮影方向)を示し、図3(1)は、ARマーカを正面(予め決められている基準方向:デフォルトの向き)から見ている場合であり、図3(2)は、ARマーカを背面から見ている場合である。本実施形態においては、撮像素子17Bに映っている実画像の中からARマーカを検出した後、ARマーカを認識してそのARマーカの位置、大きさ、姿勢を検出し、この位置、大きさ、姿勢に応じて仮想オブジェクトの表示サイズ、表示位置、表示方向(向き)を特定するようにしている。
FIG. 3 is a diagram for explaining the direction of the augmented reality marker (AR marker) and the viewpoint direction with respect to the AR marker.
In the figure, the arrow direction indicates the viewpoint direction (shooting direction) in which the user looks at the AR marker, and FIG. 3 (1) shows the AR marker as seen from the front (predetermined reference direction: default direction). FIG. 3B shows the case where the AR marker is viewed from the back. In the present embodiment, after detecting an AR marker from an actual image shown on the image sensor 17B, the AR marker is recognized and the position, size, and orientation of the AR marker are detected, and this position, size. The display size, display position, and display direction (orientation) of the virtual object are specified according to the posture.

そして、ARマーカの正面に仮想オブジェクトの正面が向くように実画像内のARマーカの位置にその仮想オブジェクトを重畳表示させるようにしている。この場合、二次元の実画像内に三次元の仮想オブジェクトを描画するようにしている。なお、上述のようにARマーカの正面に仮想オブジェクトの正面が向くように仮想オブジェクトを表示するモードをデフォルト方向表示モードと称する。   The virtual object is superimposed and displayed at the position of the AR marker in the real image so that the front of the virtual object faces the front of the AR marker. In this case, a three-dimensional virtual object is drawn in a two-dimensional real image. Note that a mode in which a virtual object is displayed so that the front of the virtual object faces the front of the AR marker as described above is referred to as a default direction display mode.

図4(1)は、上述のデフォルト方向表示モードにおいて、図3(1)の方向、つまり、ARマーカの正面(デフォルトの向き)から見た場合(撮影した場合)における仮想オブジェクトの表示例を示した図である。ここで、仮想オブジェクは、植物(球根)を人間化(キャラクタ化)したオブジェクトを例示したもので、上述のデフォルト方向表示モードでは、仮想オブジェクト(キャラクタ画像)の顔(正面)がARマーカの正面に向くように表示されるため、その顔(正面)が撮影方向に向くようになる。図4(2)は、デフォルト方向表示モードにおいて、図3(2)の方向、ARマーカの背面から見た場合(撮影した場合)における仮想オブジェクトの表示例を示した図である。ここで、仮想オブジェクトは、その顔(正面)がARマーカの正面に向くように表示されるため、その後ろ姿(背面)が撮影方向に向くようになる。   FIG. 4A shows a display example of the virtual object in the above-described default direction display mode when viewed from the direction of FIG. 3A, that is, when viewed from the front (default orientation) of the AR marker. FIG. Here, the virtual object is an example of an object obtained by humanizing (characterizing) a plant (bulb). In the default direction display mode described above, the face (front) of the virtual object (character image) is the front of the AR marker. Is displayed so that the face (front) faces in the shooting direction. FIG. 4B is a diagram showing a display example of the virtual object in the default direction display mode when viewed from the back of the AR marker in the direction of FIG. Here, since the virtual object is displayed with its face (front) facing the front of the AR marker, its rear view (back) is directed to the shooting direction.

本実施形態においては、上述のデフォルト方向表示モードから撮影方向表示モードに任意に切り換え可能となっている。この撮影方向表示モードでは、ARマーカの姿勢(マーカの向きなど)から撮影者の位置方向(撮影方向)を特定し、ARマーカの正面(デフォルトの向き)に仮想オブジェクトの正面が向いている状態を基準として、撮影方向に仮想オブジェクトの正面が向くように仮想オブジェクトを回転させて重畳表示させるモード(視点向き表示モード)である。すなわち、実画像と仮想オブジェクトとを幾何学的に整合させるためにユーザ(撮影者)の位置、姿勢を実画像内のARマーカの位置、姿勢によって推測するが、デフォルト方向表示モードと撮影方向表示モードでは実画像と仮想オブジェクトとの整合の仕方を変えるようにしている。   In the present embodiment, it is possible to arbitrarily switch from the default direction display mode to the shooting direction display mode. In this shooting direction display mode, the position direction (shooting direction) of the photographer is specified from the posture of the AR marker (such as the direction of the marker), and the front of the virtual object faces the front (default direction) of the AR marker. Is a mode (viewpoint direction display mode) in which the virtual object is rotated and superimposed so that the front of the virtual object faces the shooting direction. That is, in order to geometrically match the real image with the virtual object, the position and orientation of the user (photographer) are estimated based on the position and orientation of the AR marker in the real image. In the mode, the way of matching between the real image and the virtual object is changed.

その結果、撮影方向表示モードでは、撮像素子17Bに映っている実画像内において、ARマーカの正面(デフォルトの向き)がどの向きであるかに拘わらず、撮影者に対して仮想オブジェクトの正面が正対するようにその仮想オブジェクトを回転させるための回転角度を算出し(ARマーカのデフォルトの向き(正面)から撮影方向までの角度を算出し)、この仮想オブジェクトをその角度分回転させた後に実画像内のARマーカの位置に重畳して合成表示させるようにしている。   As a result, in the shooting direction display mode, the front of the virtual object is displayed with respect to the photographer regardless of the direction of the front (default orientation) of the AR marker in the actual image shown on the image sensor 17B. A rotation angle for rotating the virtual object so as to face directly is calculated (an angle from the default direction (front) of the AR marker to the photographing direction is calculated), and the virtual object is rotated by that angle and then the virtual object is rotated. The image is superimposed and displayed at the position of the AR marker in the image.

図4(3)は、撮影方向表示モードに切り替えた時点において、ARマーカの背面から見た場合(撮影した場合)における仮想オブジェクトの表示例を示した図で、例えば、ARマーカの背面から撮影した場合でも仮想オブジェクトの顔(正面)が撮影方向に向くようになる。同様に、ARマーカの右側面や左側面などからARマーカを見た場合(撮影した場合)でも仮想オブジェクトの顔(正面)が撮影方向に向くようになる。なお、撮影方向表示モードを解除して上述のデフォルト方向表示モードに切り替えられると、仮想オブジェクトは、その顔(正面)がARマーカの正面に向くように表示される表示状態に戻る。   FIG. 4 (3) is a diagram showing a display example of the virtual object when viewed from the back side of the AR marker (when taken) at the time of switching to the shooting direction display mode, for example, shooting from the back side of the AR marker. Even in this case, the face (front) of the virtual object is directed in the shooting direction. Similarly, even when the AR marker is viewed from the right side surface or the left side surface of the AR marker (when imaged), the face (front surface) of the virtual object is directed in the imaging direction. When the shooting direction display mode is canceled and the mode is switched to the default direction display mode, the virtual object returns to a display state in which the face (front) is displayed so as to face the front of the AR marker.

次に、本実施形態における多機能型携帯電話機の動作概念を図5に示すフローチャートを参照して説明する。ここで、このフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。なお、図5は、多機能型携帯電話機の全体動作のうち、本実施形態の特徴部分の動作概要を示したフローチャートであり、この図3のフローから抜けた際には、多機能型携帯電話機の全体動作を示すメインフロー(図示省略)に戻る。   Next, the operation concept of the multi-function mobile phone in this embodiment will be described with reference to the flowchart shown in FIG. Here, each function described in this flowchart is stored in the form of a readable program code, and operations according to the program code are sequentially executed. Further, it is possible to sequentially execute the operation according to the above-described program code transmitted via a transmission medium such as a network. FIG. 5 is a flowchart showing an outline of the operation of the characteristic part of the present embodiment in the overall operation of the multifunction mobile phone. When the flow of FIG. The process returns to the main flow (not shown) showing the overall operation.

図5は、拡張現実感撮影モードの切り換えに応じて実行開始される拡張現実感処理を説明するためのフローチャートである。
先ず、CPU11は、ユーザ操作などにより拡張現実感撮影モードに切り換えられると、拡張現実感撮影アプリケーション(拡張現実感処理機能)を起動(ステップS1)させた後、撮像素子17Bに映っている画像(実画像)を取得し(ステップS2)、この取得した実画像をその明度に応じてグレースケール化する(ステップS3)。そして、このグレースケールの画像に対して二値化処理、例えば、適応型二値化法に従った二値化処理(ステップS4)を行った後、この二値化画像を基にARマーカの領域を検出する処理を行う(ステップS5)。この場合、例えば、正方形の黒枠をARマーカの領域として検出するようにしている。
FIG. 5 is a flowchart for explaining augmented reality processing that is started in response to switching of the augmented reality shooting mode.
First, when the CPU 11 is switched to the augmented reality shooting mode by a user operation or the like, after starting the augmented reality shooting application (augmented reality processing function) (step S1), the image (shown on the image sensor 17B) (Real image) is acquired (step S2), and the acquired real image is converted into a gray scale according to the brightness (step S3). Then, after binarization processing, for example, binarization processing (step S4) according to the adaptive binarization method, is performed on the grayscale image, the AR marker is converted based on the binarized image. Processing for detecting an area is performed (step S5). In this case, for example, a square black frame is detected as an AR marker region.

このようにしてARマーカの領域を検出した後は、ARマーカを認識する処理を行う(ステップS6)。この場合、ARマーカ内に描かれている白領域のパターンを特定して、その白領域の画像を複数の領域に分割した後、0〜255の数値でデータ化(パターンファイル化)する。そして、登録されているパターン(デフォルトのパターン)と比較するテンプレートマッチングを行ってARマーカの認識を行う。その結果、ARマーカを認識することができなければ(ステップS7でNO)、上述のステップS2に戻って次のフレームの実画像を取得するが、ARマーカを正常に認識することができたときには(ステップS7でYES)、回転成分と並進成分からなる4行4列の行列(変換行列)を用いてマーカ座標系からカメラ座標系に変換する処理を行う(ステップS8)。   After detecting the AR marker area in this way, processing for recognizing the AR marker is performed (step S6). In this case, the pattern of the white area drawn in the AR marker is specified, and the image of the white area is divided into a plurality of areas and then converted into data (pattern file) with a numerical value of 0 to 255. Then, the AR marker is recognized by performing template matching to be compared with a registered pattern (default pattern). As a result, if the AR marker cannot be recognized (NO in step S7), the process returns to the above-described step S2 to acquire the actual image of the next frame, but when the AR marker can be normally recognized. (YES in step S7), a process of converting from the marker coordinate system to the camera coordinate system is performed using a 4 × 4 matrix (conversion matrix) composed of a rotation component and a translation component (step S8).

そして、表示切り換えボタン(図示省略)が操作されたかを調べる(ステップ9)。ここで、表示切り換えボタンは、ARマーカの正面(デフォルトの向き)に仮想オブジェクトの正面が向くように仮想オブジェクトを表示させる表示モード(デフォルト方向表示モード)から表示切り換えボタンを操作された時点において、撮影方向に仮想オブジェクトの正面が向くように仮想オブジェクトを表示させる表示モード(撮影方向表示モード)への切り換えを指示するボタンである。表示切り換えボタンが操作されず、デフォルト方向表示モードのままであれば(ステップS9でNO)、ARマーカ内に描かれている白領域のパターンを特定して、そのパターン部分の位置、大きさ、姿勢を検出する(ステップS10)。   Then, it is checked whether a display switching button (not shown) has been operated (step 9). Here, when the display switching button is operated from the display mode (default direction display mode) in which the virtual object is displayed so that the front of the virtual object faces the front (default orientation) of the AR marker, This is a button for instructing switching to a display mode (shooting direction display mode) for displaying a virtual object so that the front of the virtual object faces the shooting direction. If the display switching button is not operated and the default direction display mode is maintained (NO in step S9), the pattern of the white area drawn in the AR marker is specified, and the position, size, The posture is detected (step S10).

次に、仮想オブジェクトの向きをARマーカの正面(デフォルトの向き)として決定する(ステップS11)。その後、ステップS14に移り、上述のカメラ座標系に射影行列を適用して奥行き感を持たせるクリップ座標系に変換する。更にスクリーン座標系に変換して三次元の仮想オブジェクトを実画像内のARマーカの位置に重畳して合成表示させる三次元描画処理を行う(ステップS15)。この場合、描画された仮想オブジェクトは、上述のマーカパターンの大きさに比例したものとなり、仮想オブジェクトの正面がARマーカの正面に向くようになる。   Next, the orientation of the virtual object is determined as the front (default orientation) of the AR marker (step S11). Thereafter, the process proceeds to step S14, where the projection coordinate matrix is applied to the above-described camera coordinate system to convert it into a clip coordinate system that gives a sense of depth. Further, a three-dimensional drawing process is performed in which the three-dimensional virtual object is superimposed and superimposed on the position of the AR marker in the real image by being converted into a screen coordinate system (step S15). In this case, the drawn virtual object is proportional to the size of the marker pattern described above, and the front surface of the virtual object faces the front surface of the AR marker.

いま、ARマーカの正面から撮影を行った場合には、図4(1)に示すように、仮想オブジェクトの顔(正面)が撮影方向に向くようになるが、ARマーカの背面から撮影を行った場合には、図4(2)に示すように、仮想オブジェクトの背面が撮影方向に向くようになる。そして、拡張現実感処理の終了がユーザ操作により指示されたかを調べ(ステップS16)、その終了が指示されたときには(ステップS16でYES)、図5のフローから抜けるが、拡張現実感処理の終了が指示されなければ(ステップS16でNO)、上述のステップS2に戻る。   Now, when shooting is performed from the front of the AR marker, as shown in FIG. 4A, the face (front) of the virtual object is directed in the shooting direction, but shooting is performed from the back of the AR marker. In this case, as shown in FIG. 4 (2), the rear surface of the virtual object is directed to the shooting direction. Then, it is checked whether or not the end of the augmented reality process is instructed by a user operation (step S16). When the end is instructed (YES in step S16), the process exits the flow of FIG. Is not instructed (NO in step S16), the process returns to step S2.

一方、表示切り換えボタンが操作されたとき、つまり、デフォルト方向表示モードから撮影方向表示モードに切り換えられたときには(ステップS9でYES)、ARマーカ内に描かれている白領域のパターンを特定して、そのパターン部分の位置、大きさ、姿勢を検出する(ステップS12)。この場合、拡張現実マーカの正面(デフォルトの向き)を基準として、撮像素子7Bに映っている実画像内のマーカの形状やその傾きに応じたマーカの向きが撮影者の位置方向(撮影方向)となる。   On the other hand, when the display switching button is operated, that is, when the mode is switched from the default direction display mode to the shooting direction display mode (YES in step S9), the pattern of the white area drawn in the AR marker is specified. Then, the position, size, and posture of the pattern portion are detected (step S12). In this case, with the front of the augmented reality marker (default orientation) as a reference, the marker orientation in the actual image shown on the image sensor 7B and the orientation of the marker according to the inclination is the photographer's position direction (imaging direction). It becomes.

そして、ARマーカの正面(デフォルトの向き)を基準に、ARマーカのデフォルトの向き(正面)からマーカの現在の向き(撮影方向)までの回転角度を算出して仮想オブジェクトの向きを決定する(ステップS13)。その後、上述のカメラ座標系に射影行列を適用して奥行き感を持たせるクリップ座標系に変換する(ステップS14)。更にスクリーン座標系に変換して三次元の仮想オブジェクトを実画像内のARマーカの位置に重畳して合成表示させる三次元描画処理を行う(ステップS15)。このように撮影方向表示モードにおいて、ARマーカの背面から撮影を行った場合には、図4(3)に示すように仮想オブジェクトの顔(正面)が撮影方向に向くようになる。そして、拡張現実感処理の終了が指示されたときには(ステップS16でYES)、図5のフローから抜けるが、その終了が指示されなければ(ステップS16でNO)、上述のステップS2に戻る。   Then, based on the front (default orientation) of the AR marker, the rotation angle from the default orientation (front) of the AR marker to the current orientation (imaging direction) of the marker is calculated to determine the orientation of the virtual object ( Step S13). Thereafter, the projection matrix is applied to the above-mentioned camera coordinate system to convert it into a clip coordinate system that gives a sense of depth (step S14). Further, a three-dimensional drawing process is performed in which the three-dimensional virtual object is superimposed and superimposed on the position of the AR marker in the real image by being converted into a screen coordinate system (step S15). As described above, in the shooting direction display mode, when shooting is performed from the back of the AR marker, the face (front) of the virtual object is directed to the shooting direction as shown in FIG. Then, when the end of augmented reality processing is instructed (YES in step S16), the process goes out of the flow of FIG. 5, but when the end is not instructed (NO in step S16), the process returns to step S2.

以上のように、本実施形態において多機能型携帯電話機1は、ARマーカに対して予め決められている基準方向(例えば、正面)に仮想オブジェクトの正面が向いている状態を基準として、撮影方向に仮想オブジェクトの正面が向くように仮想オブジェクトを回転させて重畳表示させるようにしたので、ユーザの所望する向きに仮想オブジェクトを容易に表示させることができ、ユーザにあっては撮影する位置(視点位置)を変えることなく、所望する向きの仮想オブジェクトを見ることが可能となる。   As described above, in the present embodiment, the multi-function mobile phone 1 uses the shooting direction based on the state in which the front of the virtual object is facing the reference direction (for example, the front) determined in advance with respect to the AR marker. Since the virtual object is rotated and superimposed so that the front of the virtual object is directed to the virtual object, the virtual object can be easily displayed in the direction desired by the user. It is possible to see a virtual object in a desired direction without changing the position.

また、本実施形態においては、デフォルト方向表示モードから撮影方向表示モードへの切り換えを可能としたから、ARマーカの正面に仮想オブジェクトの正面が向くように重畳表示させる状態から、撮影方向に仮想オブジェクトの正面が向くように仮想オブジェクトを回転させて重畳表示させる状態に切り換えることができる。このようにデフォルト方向表示モードと撮影方向表示モードでは実画像と仮想オブジェクトとの整合の仕方を変えることによりユーザの要望に応じた表示が可能となる。   In the present embodiment, since it is possible to switch from the default direction display mode to the shooting direction display mode, the virtual object is displayed in the shooting direction from the state of being superimposed so that the front of the virtual object faces the front of the AR marker. It is possible to switch to a state in which the virtual object is rotated and superimposed so that the front side of the screen faces. As described above, in the default direction display mode and the shooting direction display mode, display according to the user's request can be performed by changing the matching method of the real image and the virtual object.

ARマーカの正面(デフォルトの向き)を基準に、ARマーカのデフォルトの向き(正面)からマーカの現在の向き(撮影方向)までの回転角度を算出して仮想オブジェクトの向きを決定し、仮想オブジェクトをその角度分回転させて重畳表示させるようにしたので、ARマーカの向きを基準に仮想オブジェクトの向きを制御することができる。   Based on the front (default orientation) of the AR marker, the rotation angle from the default orientation (front) of the AR marker to the current orientation (imaging direction) of the marker is calculated to determine the orientation of the virtual object. Is rotated by that angle and displayed in a superimposed manner, so that the direction of the virtual object can be controlled based on the direction of the AR marker.

ARマーカは、鉢内の植物の生育環境を観測する観測装置2に装着され、この観測装置2の装着されているARマーカが撮影された際に、撮像素子17Bに映っている実画像の中からARマーカを検出するようにしたので、植物用の観測装置2に有効なものとなる。すなわち、観測装置2が鉢内の土壌に刺し込まれている状態においてARマーカの向きを変えるために観測装置2を刺し変えたり、観測装置2を回してしまったりすると、土壌との接触状態が変化して生育環境が変わってしまうが、このような場合、ユーザにあっては観測装置2を動かさず(ARマーカの向きを変えず)に、所望する向きの仮想オブジェクトを見ることができる。また、窓際などに鉢が設置されている場合(撮影方向が制限されている場合)、撮影する位置(視点位置)を変えることなく、所望する向きの仮想オブジェクトを見ることができる。   The AR marker is attached to the observation device 2 that observes the growth environment of the plant in the pot, and when the AR marker attached to the observation device 2 is photographed, the AR marker is in the actual image reflected on the image sensor 17B. Since the AR marker is detected from the above, it is effective for the plant observation apparatus 2. That is, when the observation device 2 is stuck in the soil in the pot and the observation device 2 is changed to change the direction of the AR marker or the observation device 2 is turned, the contact state with the soil is changed. In such a case, the user can see the virtual object in the desired direction without moving the observation device 2 (without changing the direction of the AR marker). In addition, when a bowl is installed near the window (when the shooting direction is limited), a virtual object in a desired direction can be viewed without changing the shooting position (viewpoint position).

なお、上述した実施形態においては、ARマーカの正面(デフォルトの向き)を基準に、ARマーカのデフォルトの向き(正面)からマーカの現在の向き(撮影方向)までの回転角度を算出して仮想オブジェクトの向きを決定するようにしたが、に回転角度を算出する代わりに、例えば、方位計(電子コンパス)付きの加速度センサ(図示省略)を使用して、多機能型携帯電話機1の筺体(装置本体)の姿勢を検出し、この装置本体の姿勢に基づいて仮想オブジェクトの向きを決定するようにしてもよい。この場合、図5のフローのその一部を変更するだけで、基本的には同様の動作によって実現可能であり、図5のステップS13の「回転角度を算出して仮想オブジェクトの向きを決定する」を「電子コンパス付き加速度センサの検出結果(装置本体の姿勢)に基づいて仮想オブジェクトの向きを決定する」に代えればよい。すなわち、登録されているデフォルトのパターンを電子コンパス付き加速度センサの検出結果(装置本体の姿勢)に基づいて回転することにより仮想オブジェクトの向きを変更すればよい。   In the above-described embodiment, the rotation angle from the AR marker default orientation (front) to the current marker orientation (imaging direction) is calculated based on the AR marker front (default orientation) as a reference. Although the orientation of the object is determined, instead of calculating the rotation angle, for example, an acceleration sensor (not shown) with an azimuth meter (electronic compass) is used, and the casing of the multifunctional mobile phone 1 ( The orientation of the virtual object may be determined based on the orientation of the device body. In this case, it can be realized by basically the same operation by changing only a part of the flow of FIG. 5, and “the rotation angle is calculated and the orientation of the virtual object is determined in step S13 of FIG. 5. ”May be replaced with“ determine the orientation of the virtual object based on the detection result of the acceleration sensor with an electronic compass (the posture of the apparatus main body) ”. That is, the orientation of the virtual object may be changed by rotating the registered default pattern based on the detection result of the acceleration sensor with an electronic compass (the posture of the apparatus main body).

このように電子コンパス付きの加速度センサの検出結果(装置本体の姿勢)に基づいて仮想オブジェクトの向きを決定するようにすれば、撮影された画像をパターンファイル化することなく、登録されているデフォルトのパターンファイルを電子コンパス付き加速度センサの検出結果(装置本体の姿勢)に基づいて三次元回転させるだけで仮想オブジェクトの向きを変更することができるので、撮影された画像のパターンファイル化が不要となり、ノイズが乗る可能性もなくなって、仮想オブジェクトの向きを正確に変更することが可能となる。   In this way, if the orientation of the virtual object is determined based on the detection result of the acceleration sensor with an electronic compass (the posture of the apparatus main body), the registered default can be obtained without making the captured image into a pattern file. Because the orientation of the virtual object can be changed by simply rotating the pattern file three-dimensionally based on the detection result of the acceleration sensor with an electronic compass (posture of the device body), there is no need to create a pattern file for the captured image. The possibility of noise is eliminated, and the orientation of the virtual object can be accurately changed.

また、上述した実施形態においては、デフォルト方向表示モードにおいて、仮想オブジェクトの顔(正面)がARマーカの正面に向くように表示するようにしたが、ARマーカの背面に向くように表示するようにしてもよく、ARマーカのデフォルトの向きは任意である。
また、上述した実施形態においては、撮影方向表示モードにおいて、仮想オブジェクトの顔(正面)を向くように表示したが、これに限らず左右のどちらかでもよく、また背面でもよい。更に角度によって設定するなど所定の向きでもよい。そして仮想オブジェクトの方向は、ユーザが指定してもよい。
In the above-described embodiment, in the default direction display mode, the virtual object face (front) is displayed so as to face the front of the AR marker. However, the virtual object is displayed so as to face the back of the AR marker. The default orientation of the AR marker is arbitrary.
In the above-described embodiment, the image is displayed so as to face the face (front) of the virtual object in the shooting direction display mode. Further, it may be set in a predetermined direction such as by setting an angle. The direction of the virtual object may be specified by the user.

また、上述した実施形態においては、ARマーカを鉢内の植物の生育環境を観測する観測装置2の上面に装着するようにしたが、植物の根元や鉢の外側などに装着するようにしてもよく、勿論、植物に関するARマーカにも限らない。   In the above-described embodiment, the AR marker is mounted on the upper surface of the observation device 2 for observing the growth environment of the plant in the pot. However, the AR marker may be mounted on the root of the plant or the outside of the pot. Of course, it is not limited to AR markers related to plants.

また、上述した実施形態においては、仮想オブジェクトは、植物(球根)をキャラクタ化したオブジェクトを例示したが、これに限らないことは勿論である。また、ARマーカの種類に対応して複数種の仮想オブジェクトを記憶しておき、マーカ認識によって特定されたARマーカに対応付けられている仮想オブジェクトを表示させるようにしてもよい。   In the above-described embodiment, the virtual object is exemplified by an object that characterizes a plant (bulb). However, the present invention is not limited to this. Also, a plurality of types of virtual objects may be stored corresponding to the types of AR markers, and the virtual objects associated with the AR markers specified by marker recognition may be displayed.

また、上述した実施形態においては、カメラ機能付き多機能型携帯電話機(スマートフォン)に適用した場合を例示したが、これに限らず、カメラ機能付きパーソナルコンピュータ・PDA(個人向け携帯型情報通信機器)・音楽プレイヤー・電子ゲーム機などであってもよく、勿論、デジタルカメラ自体であってもよい。   In the above-described embodiment, the case where the present invention is applied to a multi-function mobile phone (smart phone) with a camera function has been illustrated. -It may be a music player, an electronic game machine, etc. Of course, it may be a digital camera itself.

また、上述した実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。   Further, the “apparatus” and “unit” shown in the above-described embodiments may be separated into a plurality of cases by function, and are not limited to a single case. In addition, each step described in the above-described flowchart is not limited to time-series processing, and a plurality of steps may be processed in parallel or separately.

以上、この発明の実施形態について説明したが、この発明は、これに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下、本願出願の特許請求の範囲に記載された発明を付記する。
(付記)
(請求項1)
請求項1に記載の発明は、
撮像素子を備える撮像手段と、
前記撮像素子に映っている実画像の中から拡張現実マーカを検出する検出手段と、
前記検出手段により検出された拡張現実マーカを認識する認識手段と、
前記マーカ認識手段により拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定手段と、
前記拡張現実マーカに対して予め決められている基準方向を基準として、前記撮影方向特定手段により特定された撮影方向に基づいて仮想オブジェクトが所定方向に向くように変更し重畳表示させる表示制御手段と、
を備えたことを特徴とする画像処理装置である。
(請求項2)
請求項2に記載の発明は、請求項1に記載の画像処理装置において、
前記撮影方向特定手段は、前記認識手段により拡張現実マーカが認識された場合に前記拡張現実マーカの向きを撮影方向として特定する、
ようにしたことを特徴とする画像処理装置である。
(請求項3)
請求項3に記載の発明は、請求項1に記載の画像処理装置において、
前記認識手段により拡張現実マーカが認識された場合にその拡張現実マーカの正面に仮想オブジェクトの正面が向くように重畳表示させる状態と、前記撮影方向特定手段により特定された撮影方向に仮想オブジェクトの所定の方向が向くように仮想オブジェクトを回転させて重畳表示させる状態とを切り換える切換手段を更に備える、
ようにしたことを特徴とする請求項1あるいは請求項2に記載の画像処理装置である。
(請求項4)
請求項4に記載の発明は、請求項1〜請求項3のいずれかに記載の画像処理装置において、
前記表示制御手段は、前記拡張現実マーカに対して予め決められている基準方向から前記撮影方向特定手段により特定された撮影方向までの角度を算出し、仮想オブジェクトをその角度分回転させて重畳表示させる、
ようにしたことを特徴とする画像処理装置である。
(請求項5)
請求項5に記載の発明は、請求項1〜請求項3のいずれかに記載の画像処理装置において、
当該装置本体の姿勢を検出する姿勢検出手段を更に設け、
前記第2の表示手段は、前記姿勢検出手段により検出された姿勢に基づいて前記撮影方向特定手段により特定された撮影方向に仮想オブジェクトの正面が向くように仮想オブジェクトを回転させて重畳表示させる、
ようにしたことを特徴とする画像処理装置である。
(請求項6)
請求項6に記載の発明は、請求項1〜請求項5のいずれかに記載の画像処理装置において、
前記所定の方向は、ユーザが設定した方向である、
ことを特徴とする画像処理装置である。
(請求項7)
請求項7に記載の発明は、請求項1〜請求項6のいずれかに記載の画像処理装置において、
前記拡張現実マーカは、鉢内の植物の生育環境を観測する観測装置に装着され、
前記観測装置の装着されている拡張現実マーカが前記撮像手段により撮影された際に、前記検出手段は、前記撮像素子に映っている実画像の中から拡張現実マーカを検出する、
ようにしたことを特徴とする画像処理装置である。
(請求項8)
請求項8に記載の発明は、
撮像素子に映っている実画像の中から拡張現実マーカを検出する検出ステップと、
前記検出された拡張現実マーカを認識する認識ステップと、
前記拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定ステップと、
前記拡張現実マーカに対して予め決められている基準方向を基準として、前記特定された撮影方向に基づいて仮想オブジェクトが所定方向に向くように変更し重畳表示させる表示制御ステップと、
を含むことを特徴とする画像処理方法である。
(請求項9)
請求項9に記載の発明は、
コンピュータに対して、
撮像素子に映っている実画像の中から拡張現実マーカを検出する検出機能と、
前記検出された拡張現実マーカを認識する認識機能と、
前記拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定機能と、
前記拡張現実マーカに対して予め決められている基準方向を基準として、前記特定された撮影方向に基づいて仮想オブジェクトが所定方向に向くように変更し重畳表示させる表示制御機能と、
を実現させるためのプログラムである。
The embodiment of the present invention has been described above. However, the present invention is not limited to this, and includes the invention described in the claims and the equivalent scope thereof.
Hereinafter, the invention described in the claims of the present application will be appended.
(Appendix)
(Claim 1)
The invention described in claim 1
Imaging means comprising an imaging element;
Detecting means for detecting an augmented reality marker from an actual image shown on the image sensor;
Recognizing means for recognizing the augmented reality marker detected by the detecting means;
A shooting direction specifying means for specifying a shooting direction when an augmented reality marker is recognized by the marker recognition means;
Display control means for changing and superimposing a virtual object to be directed in a predetermined direction based on the shooting direction specified by the shooting direction specifying means with reference to a reference direction predetermined for the augmented reality marker; ,
An image processing apparatus comprising:
(Claim 2)
The invention according to claim 2 is the image processing apparatus according to claim 1,
The shooting direction specifying means specifies the direction of the augmented reality marker as a shooting direction when the augmented reality marker is recognized by the recognition means;
This is an image processing apparatus characterized by being configured as described above.
(Claim 3)
The invention according to claim 3 is the image processing apparatus according to claim 1,
When the augmented reality marker is recognized by the recognizing means, a state in which the virtual object is superimposed and displayed so that the front of the virtual object faces the front of the augmented reality marker, and a predetermined virtual object is set in the shooting direction specified by the shooting direction specifying means. A switching means for switching between a state in which the virtual object is rotated and displayed in a superimposed manner so that the direction of
The image processing apparatus according to claim 1, wherein the image processing apparatus is configured as described above.
(Claim 4)
The invention according to claim 4 is the image processing apparatus according to any one of claims 1 to 3,
The display control means calculates an angle from a predetermined reference direction to the shooting direction specified by the shooting direction specifying means with respect to the augmented reality marker, rotates the virtual object by the angle, and superimposes the virtual object. Let
This is an image processing apparatus characterized by being configured as described above.
(Claim 5)
The invention according to claim 5 is the image processing apparatus according to any one of claims 1 to 3,
Further provided is a posture detecting means for detecting the posture of the apparatus body,
The second display means rotates and superimposes the virtual object so that the front of the virtual object faces the shooting direction specified by the shooting direction specifying means based on the attitude detected by the attitude detection means,
This is an image processing apparatus characterized by being configured as described above.
(Claim 6)
The invention according to claim 6 is the image processing apparatus according to any one of claims 1 to 5,
The predetermined direction is a direction set by the user.
An image processing apparatus characterized by this.
(Claim 7)
The invention according to claim 7 is the image processing apparatus according to any one of claims 1 to 6,
The augmented reality marker is attached to an observation device that observes the growth environment of the plant in the pot,
When the augmented reality marker on which the observation device is mounted is photographed by the imaging unit, the detection unit detects the augmented reality marker from the actual image reflected on the imaging element.
This is an image processing apparatus characterized by being configured as described above.
(Claim 8)
The invention according to claim 8 provides:
A detection step of detecting an augmented reality marker from an actual image reflected on the image sensor;
A recognition step for recognizing the detected augmented reality marker;
A shooting direction specifying step of specifying a shooting direction when the augmented reality marker is recognized;
A display control step of changing and superimposing a virtual object so as to face a predetermined direction based on the specified shooting direction with reference to a reference direction predetermined for the augmented reality marker;
The image processing method characterized by including.
(Claim 9)
The invention according to claim 9 is:
Against the computer,
A detection function that detects an augmented reality marker from an actual image shown on the image sensor;
A recognition function for recognizing the detected augmented reality marker;
A shooting direction specifying function for specifying a shooting direction when the augmented reality marker is recognized;
A display control function for changing and displaying a virtual object so as to face a predetermined direction based on the specified shooting direction with reference to a reference direction predetermined for the augmented reality marker;
It is a program for realizing.

1 多機能型携帯電話機
2 観測装置
11 CPU
13 記憶部
16 タッチ入力表示部
17 撮像部
17A レンズ部
17B 撮像素子
17C センサ部
17D アナログ処理回路
17E デジタル信号処理回路
1 Multi-function mobile phone 2 Observation device 11 CPU
DESCRIPTION OF SYMBOLS 13 Memory | storage part 16 Touch input display part 17 Imaging part 17A Lens part 17B Imaging element 17C Sensor part 17D Analog processing circuit 17E Digital signal processing circuit

Claims (9)

撮像素子を備える撮像手段と、
前記撮像素子に映っている実画像の中から拡張現実マーカを検出する検出手段と、
前記検出手段により検出された拡張現実マーカを認識する認識手段と、
前記認識手段により拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定手段と、
前記拡張現実マーカに対して予め決められている基準方向を基準として、前記撮影方向特定手段により特定された撮影方向に基づいて仮想オブジェクトが所定の方向に向くように変更し重畳表示させる表示制御手段と、
を備えたことを特徴とする画像処理装置。
Imaging means comprising an imaging element;
Detecting means for detecting an augmented reality marker from an actual image shown on the image sensor;
Recognizing means for recognizing the augmented reality marker detected by the detecting means;
Shooting direction specifying means for specifying a shooting direction when an augmented reality marker is recognized by the recognition means;
Display control means for changing and displaying the virtual object in a predetermined direction based on the shooting direction specified by the shooting direction specifying means with reference to a reference direction predetermined for the augmented reality marker When,
An image processing apparatus comprising:
前記撮影方向特定手段は、前記認識手段により拡張現実マーカが認識された場合に前記拡張現実マーカの向きを撮影方向として特定する、
ようにしたことを特徴とする請求項1に記載の画像処理装置。
The shooting direction specifying means specifies the direction of the augmented reality marker as a shooting direction when the augmented reality marker is recognized by the recognition means;
The image processing apparatus according to claim 1, which is configured as described above.
前記認識手段により拡張現実マーカが認識された場合にその拡張現実マーカの正面に仮想オブジェクトの正面が向くように重畳表示させる状態と、前記撮影方向特定手段により特定された撮影方向に仮想オブジェクトの所定の方向が向くように仮想オブジェクトを回転させて重畳表示させる状態とを切り換える切換手段を更に備える、
ようにしたことを特徴とする請求項1あるいは請求項2に記載の画像処理装置。
When the augmented reality marker is recognized by the recognizing means, a state in which the virtual object is superimposed and displayed so that the front of the virtual object faces the front of the augmented reality marker, and a predetermined virtual object is set in the shooting direction specified by the shooting direction specifying means. A switching means for switching between a state in which the virtual object is rotated and displayed in a superimposed manner so that the direction of
The image processing apparatus according to claim 1, wherein the image processing apparatus is configured as described above.
前記表示制御手段は、前記拡張現実マーカに対して予め決められている基準方向から前記撮影方向特定手段により特定された撮影方向までの角度を算出し、仮想オブジェクトをその角度分回転させて重畳表示させる、
ようにしたことを特徴とする請求項1〜請求項3のいずれかに記載の画像処理装置。
The display control means calculates an angle from a predetermined reference direction to the shooting direction specified by the shooting direction specifying means with respect to the augmented reality marker, rotates the virtual object by the angle, and superimposes the virtual object. Let
The image processing apparatus according to claim 1, wherein the image processing apparatus is configured as described above.
当該装置本体の姿勢を検出する姿勢検出手段を更に設け、
前記第2の表示手段は、前記姿勢検出手段により検出された姿勢に基づいて前記撮影方向特定手段により特定された撮影方向に仮想オブジェクトの正面が向くように仮想オブジェクトを回転させて重畳表示させる、
ようにしたことを特徴とする請求項1〜請求項3のいずれかに記載の画像処理装置。
Further provided is a posture detecting means for detecting the posture of the apparatus body,
The second display means rotates and superimposes the virtual object so that the front of the virtual object faces the shooting direction specified by the shooting direction specifying means based on the attitude detected by the attitude detection means,
The image processing apparatus according to claim 1, wherein the image processing apparatus is configured as described above.
前記所定の方向は、ユーザが設定した方向である、
ことを特徴とする請求項1〜請求項5のいずれかに記載の画像処理装置。
The predetermined direction is a direction set by the user.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記拡張現実マーカは、鉢内の植物の生育環境を観測する観測装置に装着され、
前記観測装置の装着されている拡張現実マーカが前記撮像手段により撮影された際に、前記検出手段は、前記撮像素子に映っている実画像の中から拡張現実マーカを検出する、
ようにしたことを特徴とする請求項1〜請求項6のいずれかに記載の画像処理装置。
The augmented reality marker is attached to an observation device that observes the growth environment of the plant in the pot,
When the augmented reality marker on which the observation device is mounted is photographed by the imaging unit, the detection unit detects the augmented reality marker from the actual image reflected on the imaging element.
The image processing apparatus according to claim 1, wherein the image processing apparatus is configured as described above.
撮像素子に映っている実画像の中から拡張現実マーカを検出する検出ステップと、
前記検出された拡張現実マーカを認識する認識ステップと、
前記拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定ステップと、
前記拡張現実マーカに対して予め決められている基準方向を基準として、前記特定された撮影方向に基づいて仮想オブジェクトが所定方向に向くように変更し重畳表示させる表示制御ステップと、
を含むことを特徴とする画像処理方法。
A detection step of detecting an augmented reality marker from an actual image reflected on the image sensor;
A recognition step for recognizing the detected augmented reality marker;
A shooting direction specifying step of specifying a shooting direction when the augmented reality marker is recognized;
A display control step of changing and superimposing a virtual object so as to face a predetermined direction based on the specified shooting direction with reference to a reference direction predetermined for the augmented reality marker;
An image processing method comprising:
コンピュータに対して、
撮像素子に映っている実画像の中から拡張現実マーカを検出する検出機能と、
前記検出された拡張現実マーカを認識する認識機能と、
前記拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定機能と、
前記拡張現実マーカに対して予め決められている基準方向を基準として、前記特定された撮影方向に基づいて仮想オブジェクトが所定方向に向くように変更し重畳表示させる表示制御機能と、
を実現させるためのプログラム。
Against the computer,
A detection function that detects an augmented reality marker from an actual image shown on the image sensor;
A recognition function for recognizing the detected augmented reality marker;
A shooting direction specifying function for specifying a shooting direction when the augmented reality marker is recognized;
A display control function for changing and displaying a virtual object so as to face a predetermined direction based on the specified shooting direction with reference to a reference direction predetermined for the augmented reality marker;
A program to realize
JP2012051219A 2012-03-08 2012-03-08 Image processing device, image processing method, and program Pending JP2013186691A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012051219A JP2013186691A (en) 2012-03-08 2012-03-08 Image processing device, image processing method, and program
US13/789,527 US9007400B2 (en) 2012-03-08 2013-03-07 Image processing device, image processing method and computer-readable medium
CN201310075130.7A CN103312971B (en) 2012-03-08 2013-03-08 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012051219A JP2013186691A (en) 2012-03-08 2012-03-08 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2013186691A true JP2013186691A (en) 2013-09-19

Family

ID=49113719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012051219A Pending JP2013186691A (en) 2012-03-08 2012-03-08 Image processing device, image processing method, and program

Country Status (3)

Country Link
US (1) US9007400B2 (en)
JP (1) JP2013186691A (en)
CN (1) CN103312971B (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2991039A1 (en) 2014-08-27 2016-03-02 Ricoh Company, Ltd. Image processing apparatus, image processing method, and computer program product
JP2017191245A (en) * 2016-04-14 2017-10-19 株式会社豊田総合研究所 AR System
WO2018123022A1 (en) * 2016-12-28 2018-07-05 株式会社メガハウス Computer program, display device, head worn display device, and marker
JP6410874B1 (en) * 2017-05-30 2018-10-24 株式会社タカラトミー AR video generator
KR101914660B1 (en) * 2016-11-30 2018-11-06 스마트한 주식회사 Method and apparatus for controlling displaying of augmented reality contents based on gyro sensor
JP2019045325A (en) * 2017-09-04 2019-03-22 株式会社島津ビジネスシステムズ Weather distribution display device, weather distribution display method and weather distribution display program

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5960836B2 (en) * 2012-10-31 2016-08-02 擴張世界有限公司 Image display system, electronic device, program, and image display method
JP6157094B2 (en) * 2012-11-21 2017-07-05 キヤノン株式会社 COMMUNICATION DEVICE, SETTING DEVICE, COMMUNICATION METHOD, SETTING METHOD, AND PROGRAM
US20140270477A1 (en) * 2013-03-14 2014-09-18 Jonathan Coon Systems and methods for displaying a three-dimensional model from a photogrammetric scan
JP6155893B2 (en) * 2013-06-20 2017-07-05 カシオ計算機株式会社 Image processing apparatus and program
US9370714B2 (en) * 2013-08-16 2016-06-21 Disney Enterprises, Inc. Light communication between user devices and physical objects
TWI484437B (en) * 2013-10-07 2015-05-11 Teknowledge Dev Corp Method for collocating clothing accessory on human body
CN110989284A (en) * 2014-04-22 2020-04-10 日本电信电话株式会社 Video presentation device, video presentation method, and program
HK1201682A2 (en) * 2014-07-11 2015-09-04 Idvision Ltd Augmented reality system
US9883110B2 (en) * 2015-05-09 2018-01-30 CNZ, Inc. Toggling between augmented reality view and rendered view modes to provide an enriched user experience
US10589625B1 (en) * 2015-12-11 2020-03-17 Disney Enterprises, Inc. Systems and methods for augmenting an appearance of an actual vehicle component with a virtual vehicle component
US10969748B1 (en) 2015-12-28 2021-04-06 Disney Enterprises, Inc. Systems and methods for using a vehicle as a motion base for a simulated experience
US11524242B2 (en) 2016-01-20 2022-12-13 Disney Enterprises, Inc. Systems and methods for providing customized instances of a game within a virtual space
CN105867617B (en) * 2016-03-25 2018-12-25 京东方科技集团股份有限公司 Augmented reality equipment, system, image processing method and device
RU2636676C2 (en) * 2016-05-12 2017-11-27 Общество с ограниченной ответственностью "Торговый дом "Технолайн" ООО "Торговый дом "Технолайн" Method of creating augmented reality elements and graphic media for its implementation
JP6916460B2 (en) * 2016-08-31 2021-08-11 カシオ計算機株式会社 Object display system, user terminal device, object display method and program
CN107295305A (en) * 2017-06-30 2017-10-24 深圳前海弘稼科技有限公司 The display methods and display system of a kind of chamber planting
US11132703B2 (en) * 2017-09-15 2021-09-28 Eric Koenig Platform for providing augmented reality based advertisements
US10585471B2 (en) 2017-10-03 2020-03-10 Disney Enterprises, Inc. Systems and methods to provide an interactive space based on predicted events
WO2019088798A1 (en) * 2017-11-06 2019-05-09 디에스글로벌 (주) Sticker with user-edited image printed thereon and method for manufacturing same
CN109643182B (en) * 2017-12-29 2022-01-07 达闼机器人有限公司 Information processing method and device, cloud processing equipment and computer program product
US10970560B2 (en) 2018-01-12 2021-04-06 Disney Enterprises, Inc. Systems and methods to trigger presentation of in-vehicle content
US10841632B2 (en) 2018-08-08 2020-11-17 Disney Enterprises, Inc. Sequential multiplayer storytelling in connected vehicles
US10818089B2 (en) * 2018-09-25 2020-10-27 Disney Enterprises, Inc. Systems and methods to provide a shared interactive experience across multiple presentation devices
US10918949B2 (en) 2019-07-01 2021-02-16 Disney Enterprises, Inc. Systems and methods to provide a sports-based interactive experience
US10785621B1 (en) 2019-07-30 2020-09-22 Disney Enterprises, Inc. Systems and methods to provide an interactive space based on vehicle-to-vehicle communications
CN114730212A (en) * 2019-12-05 2022-07-08 Oppo广东移动通信有限公司 Method and system for associating device coordinate systems in a multi-person AR system
CN111246173A (en) * 2020-01-20 2020-06-05 北京云端文化传媒股份有限公司 Self-adaptive adjusting system for photographic studio
US11076276B1 (en) 2020-03-13 2021-07-27 Disney Enterprises, Inc. Systems and methods to provide wireless communication between computing platforms and articles
CN112053449A (en) * 2020-09-09 2020-12-08 脸萌有限公司 Augmented reality-based display method, device and storage medium

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4869430B1 (en) * 2010-09-24 2012-02-08 任天堂株式会社 Image processing program, image processing apparatus, image processing system, and image processing method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0757080A (en) 1993-08-20 1995-03-03 Fujitsu Ltd Adaptive binarization control system
JP2005234757A (en) 2004-02-18 2005-09-02 Nippon Telegr & Teleph Corp <Ntt> Extended reality sense system, image composition display method and program
PT103264B (en) * 2005-04-22 2007-02-28 Ydreams Informatica Sa VIRTUAL MIRADOUR: INFORMATION VISUALIZATION SYSTEM OVERCOMING THE REAL IMAGE
CN101587542A (en) * 2009-06-26 2009-11-25 上海大学 Field depth blending strengthening display method and system based on eye movement tracking
US9901828B2 (en) * 2010-03-30 2018-02-27 Sony Interactive Entertainment America Llc Method for an augmented reality character to maintain and exhibit awareness of an observer

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4869430B1 (en) * 2010-09-24 2012-02-08 任天堂株式会社 Image processing program, image processing apparatus, image processing system, and image processing method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2991039A1 (en) 2014-08-27 2016-03-02 Ricoh Company, Ltd. Image processing apparatus, image processing method, and computer program product
JP2017191245A (en) * 2016-04-14 2017-10-19 株式会社豊田総合研究所 AR System
KR101914660B1 (en) * 2016-11-30 2018-11-06 스마트한 주식회사 Method and apparatus for controlling displaying of augmented reality contents based on gyro sensor
WO2018123022A1 (en) * 2016-12-28 2018-07-05 株式会社メガハウス Computer program, display device, head worn display device, and marker
JPWO2018123022A1 (en) * 2016-12-28 2019-11-14 株式会社メガハウス Computer program, display device, head-mounted display device, marker
JP6410874B1 (en) * 2017-05-30 2018-10-24 株式会社タカラトミー AR video generator
JP2018205828A (en) * 2017-05-30 2018-12-27 株式会社タカラトミー Ar video generation device
JP2019045325A (en) * 2017-09-04 2019-03-22 株式会社島津ビジネスシステムズ Weather distribution display device, weather distribution display method and weather distribution display program
JP7140478B2 (en) 2017-09-04 2022-09-21 株式会社島津ビジネスシステムズ WEATHER DISPLAY DEVICE, WEATHER DISPLAY METHOD AND WEATHER DISPLAY PROGRAM

Also Published As

Publication number Publication date
CN103312971B (en) 2016-12-28
US20130235078A1 (en) 2013-09-12
CN103312971A (en) 2013-09-18
US9007400B2 (en) 2015-04-14

Similar Documents

Publication Publication Date Title
JP2013186691A (en) Image processing device, image processing method, and program
CN110502954B (en) Video analysis method and device
US10026207B2 (en) Image display device, image display method and storage medium
JP5776903B2 (en) Image processing apparatus, image processing method, and program
KR20150113889A (en) Image processing apparatus, image processing method, and storage medium
JP2013162487A (en) Image display apparatus and imaging apparatus
KR20150119793A (en) Imaging apparatus, camera unit, display unit, image-taking method, display method and computer readable recording medium recording program thereon
JP5750696B2 (en) Display device and display program
WO2015159775A1 (en) Image processing apparatus, communication system, communication method, and image-capturing device
CN108259817B (en) Picture shooting system and method
CN111147744B (en) Shooting method, data processing device, electronic equipment and storage medium
US20150206282A1 (en) Image processing device, image processing method, and image processing program
KR101822169B1 (en) Electronic device for providing panorama image and control method thereof
JP2009060338A (en) Display device and electronic camera
JP2018032991A (en) Image display unit, image display method and computer program for image display
JP5458411B2 (en) Photographed image display device, photographed image display method, and electronic map output by photographed image display method
JP2017199972A (en) Terminal device, information acquisition system, information acquisition method, and program
CN115516494A (en) Method for generating image and electronic device thereof
US9571717B2 (en) Imaging device, imaging system, imaging method, and computer-readable recording medium
JP2015139124A (en) Device, system and method for image generation, and program
JP5670092B2 (en) Topographic display system, portable terminal, topographic display method and program
JP2012227717A (en) Display device, display program, and display method
JP2013037476A (en) Observation device, observation method and imaging apparatus
JP6370598B2 (en) Imaging device
JP2015204037A (en) Image processing device, communication system, and communication method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150805

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160118

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160126

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160219