JP2013186691A - 画像処理装置及び画像処理方法並びにプログラム - Google Patents

画像処理装置及び画像処理方法並びにプログラム Download PDF

Info

Publication number
JP2013186691A
JP2013186691A JP2012051219A JP2012051219A JP2013186691A JP 2013186691 A JP2013186691 A JP 2013186691A JP 2012051219 A JP2012051219 A JP 2012051219A JP 2012051219 A JP2012051219 A JP 2012051219A JP 2013186691 A JP2013186691 A JP 2013186691A
Authority
JP
Japan
Prior art keywords
augmented reality
virtual object
marker
image processing
reality marker
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012051219A
Other languages
English (en)
Inventor
Atsuhide Takahashi
敦英 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2012051219A priority Critical patent/JP2013186691A/ja
Priority to US13/789,527 priority patent/US9007400B2/en
Priority to CN201310075130.7A priority patent/CN103312971B/zh
Publication of JP2013186691A publication Critical patent/JP2013186691A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Abstract

【課題】拡張現実マーカを撮影した画像内に仮想オブジェクトを重畳表示する場合、ユーザの所望する向きに仮想オブジェクトを容易に表示できるようにする。
【解決手段】CPU1は、撮像素子17Bに映っている実画像の中からARマーカの向きを撮影方向として特定し、ARマーカに対して予め決められている基準方向(例えば、正面)に仮想オブジェクトの正面が向いている状態を基準として、撮影方向に仮想オブジェクトの正面が向くように仮想オブジェクトを回転させてタッチ入力表示部16に重畳表示させる。
【選択図】 図1

Description

本発明は、撮影された実画像内の拡張現実マーカを認識して仮想オブジェクトを合成表示する画像処理装置及び画像処理方法並びにプログラムに関する。
一般に、スマートフォンなどの携帯端末装置にあっては、その多機能化が進み、カメラ機能(撮像機能)のほかに、AR(Augmented
Reality:拡張現実)という画像処理機能などが搭載されており、カメラ機能により撮影された画像内の所定の位置に3次元の仮想オブジェクト(例えば、キャラクタ画像など)を重畳して表示するようにしている。すなわち、被写体の位置又はその付近に印刷物としての拡張現実マーカ(ARマーカ:正方形の黒枠内に白パターンを描いたマーカ)が配置されている状態において、その被写体が撮像機能によって撮影されると、携帯端末装置は、その撮影画像を解析することによりその中に含まれているARマーカを認識し、このARマーカの位置に仮想オブジェクトを重畳合成して表示するようにしている。このようにARマーカの位置に仮想オブジェクトを重畳表示する技術として従来においては、ARマーカのパターンの大きさや傾きに基づいてマーカが置かれている3次元の位置及び方向を検出して、撮影された画像上の表示位置及び表示方向を決定するようにした技術が開示されている(特許文献1参照)。
特開平7−57080号公報
ところで、撮影画像内のARマーカを認識する場合には、ARマーカを構成する黒枠内の白パターンに応じてARマーカの所定方向(例えば、正面)を判別し、そのARマーカの正面に仮想オブジェクトの表示方向を決定するようにしている。図6は、拡張現実マーカ(ARマーカ)の正面に仮想オブジェクト(キャラクタ)の正面(顔)が向くように表示させた場合を例示した図である。この例においてARマーカは、正方形の黒枠内に任意形状の白領域のパターンを配置した構成で、黒の領域と白の領域とは所定の割合となっている。
携帯端末装置は、撮影された画像(実画像)を解析し、その中のARマーカの黒枠部分に着目して、ARマーカの領域(黒枠の領域)を検出した後、ARマーカ内に描かれている白領域のパターンを特定することによりARマーカを認識するようにしている。この場合、白領域のパターン形状に基づいてARマーカの正面を判断し、その正面に仮想オブジェクトが向くように画像上のARマーカの位置に3次元の仮想オブジェクトを重畳表示させるようにしている。なお、図示の例は、ARマーカの正面に仮想オブジェクト(キャラクタ)の正面(顔)が向くように表示させた場合である。
しかしながら、上述のようにARマーカの正面に3次元の仮想オブジェクトの正面が向くように仮想オブジェクトを回転制御して重畳表示させるために、例えば、撮影者の位置がARマーカの正面から外れて、ARマーカの背面方向から撮影を行う場合には、後ろ向きの仮想オブジェクトが表示され、また、ARマーカの側面方向から撮影を行う場合には、横向きの仮想オブジェクトが表示されることになる。その結果、ARマーカの正面方向からの撮影が困難な場合、ユーザは、後ろ向きの仮想オブジェクトあるいは横向きの仮想オブジェクトしか見ることができなくなる。
本発明の課題は、拡張現実マーカを撮影した画像内に仮想オブジェクトを重畳表示する場合、ユーザの所望する向きに仮想オブジェクトを容易に表示できるようにすることである。
上述した課題を解決するために本発明の画像処理装置は、
撮像素子を備える撮像手段と、
前記撮像素子に映っている実画像の中から拡張現実マーカを検出する検出手段と、
前記検出手段により検出された拡張現実マーカを認識する認識手段と、
前記マーカ認識手段により拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定手段と、
前記拡張現実マーカに対して予め決められている基準方向を基準として、前記撮影方向特定手段により特定された撮影方向に基づいて仮想オブジェクトが所定方向に向くように変更し重畳表示させる表示制御手段と、
を備えたことを特徴とする画像処理装置である。
上述した課題を解決するために本発明の画像処理方法は、
撮像素子に映っている実画像の中から拡張現実マーカを検出する検出ステップと、
前記検出された拡張現実マーカを認識する認識ステップと、
前記拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定ステップと、
前記拡張現実マーカに対して予め決められている基準方向を基準として、前記特定された撮影方向に基づいて仮想オブジェクトが所定方向に向くように変更し重畳表示させる表示制御ステップと、
を含むことを特徴とする画像処理方法である。
上述した課題を解決するために本発明のプログラムは、
コンピュータに対して、
撮像素子に映っている実画像の中から拡張現実マーカを検出する検出機能と、
前記検出された拡張現実マーカを認識する認識機能と、
前記拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定機能と、
前記拡張現実マーカに対して予め決められている基準方向を基準として、前記特定された撮影方向に基づいて仮想オブジェクトが所定方向に向くように変更し重畳表示させる表示制御機能と、
を実現させるためのプログラムである。
本発明によれば、拡張現実マーカを撮影した画像内に仮想オブジェクトを重畳表示する場合、ユーザの所望する向きに仮想オブジェクトを容易に表示することができ、ユーザにあっては撮影位置を変えることなく、所望する向きの仮想オブジェクトを見ることができる。
カメラ機能付き多機能型携帯電話機1と、植物の育成環境を観測する観測装置2とを示した図。 画像処理装置として適用したカメラ機能付き多機能型携帯電話機1の基本的な構成要素を示したブロック図。 (1)、(2)は、拡張現実マーカ(ARマーカ)の向きと、ARマーカに対する視点方向を説明するための図。 (1)〜(3)は、仮想オブジェクト(キャラクタ画像)の表示例を示した図。 拡張現実感撮影モードの切り換えに応じて実行開始される拡張現実感処理を説明するためのフローチャート。 従来例を説明するための図で、拡張現実マーカ(ARマーカ)の正面に仮想オブジェクト(キャラクタ)の正面(顔)が向くように表示させた場合を例示した図。
以下、図1〜図5を参照して本発明の実施形態を説明する。
本実施形態は、画像処理装置としてカメラ機能付き多機能型携帯電話機(スマートフォン)に適用した場合を例示したもので、図1は、カメラ機能付き多機能型携帯電話機1と、植物の育成環境を観測する観測装置2とを示した図である。
この多機能型携帯電話機1は、通話機能、電子メール機能、インターネット接続機能、カメラ機能の基本機能のほか、カメラ機能によって撮影された実画像内に所定の仮想オブジェクト(例えば、キャラクタ画像)を合成して表示する拡張現実感処理機能と、観測装置2との間で近距離通信によりデータの送受信が可能な近距離通信機能などを備えた構成となっている。
観測装置2は、植木や草花などの植物の生育環境(土壌の水分量、周囲温度など)を検出する各種のセンサを備えているほか、多機能型携帯電話機1との間で近距離通信によりデータの送受信が可能な近距離通信機能などを備え、その筺体全体は細長状の中空の棒体を成している。そして、この棒体全体は、先細り状に形成され、その下部を鉢3の土壌内に埋め込む(刺し込む)構成で、その下部側の表面には、通気・通水用として複数個の細孔2aが形成され、また、上端面には、仮想オブジェクトを表示させるための拡張現実マーカ(ARマーカ)2bが印刷配置されている。なお、ARマーカは、観測装置2への直接印刷に限らず、ARマーカが印刷されているシールを観測装置2の上端面に貼り付けるようにしてもよい。また、観測装置2の上端の一側部には弧状の取手2cを突出形成(一体成型)されている。
図2は、このカメラ機能付き多機能型携帯電話機1の基本的な構成要素を示したブロック図である。
CPU11は、二次電池(図示省略)を備えた電源部12からの電力供給によって動作し、記憶部13内の各種のプログラムに応じてこの携帯電話機1の全体動作を制御する中央演算処理装置である。記憶部13には、プログラムメモリM1、ワークメモリM2などが設けられている。プログラムメモリM1は、図5に示した動作手順に応じて本実施形態を実現するためのプログラムや各種のアプリケーションなどが格納されているほか、それに必要とする情報などが記憶されている。ワークメモリM2は、携帯電話機1が動作するために必要となる各種の情報(例えば、撮影された画像、フラグ、タイマなど)を一時的に記憶するワーク領域である。なお、記憶部13は、例えば、SDカード、ICカードなど、着脱自在な可搬型メモリ(記録メディア)を含む構成であってもよく、また、その一部が図示しない所定の外部サーバの領域を含むものであってもよい。
無線通信部14は、音声通話機能、電子メール機能、インターネット接続機能時に使用される広域通信部であり、通話機能の動作時には音声信号処理部15を介して通話用スピーカSPから音声出力させ、また、通話用マイクMCからの入力音声データを音声信号処理部5から取り込んでアンテナから発信出力させる。タッチ入力表示部16は、表示部16Aとタッチ入力部16Bを有する構成で、高精細な表示部16Aの前面にタッチ入力部16Bを配置することによりソフトウェアキー(タッチキー)を割り当て配置してその機能名を表示したり、指などによるタッチ操作を感知してそのタッチ操作に応じたデータを入力したりするデバイスである。表示部16Aは、高精細液晶ディスプレイなどであり、カメラ機能の使用時には撮影された画像をライブビュー画像(モニタ画像)として表示するファインダ画面となる。
撮像部17は、被写体を高精細に撮影可能なカメラ部を構成するもので、ズームレンズやフォーカスレンズ(図示省略)などを備えたレンズ部17Aと、CCD又はCMOSなどの撮像素子17Bと、照度計などの各種のセンサを備えたセンサ部17Cを有するほか、更に撮像素子17Bで光電変換された画像信号(アナログ値の信号)に対して、色分離やRGBの色成分毎のゲイン調整などを行ってデジタル値のデータに変換するアナログ処理回路17Dと、このアナログ処理回路17Dによりデジタル変換された画像データに対して色補間処理(デモザイク処理)などを施すデジタル信号処理回路17Eを有する構成となっている。また、本実施形態では、例えば、夜景撮影モード、夕焼け撮影モード、拡張現実感撮影モードなどの各種の撮影モードに切り換え可能となっている。この拡張現実感撮影モードは、拡張現実感処理機能を使用して撮影を行う撮影モードである。なお、ユーザは、拡張現実感処理機能の起動時に、観測装置2の上端面(ARマーカ)を含めて撮像部17により拡大撮影するようにしている。
図3は、拡張現実マーカ(ARマーカ)の向きと、そのARマーカに対する視点方向を説明するための図である。
図中、矢印方向は、ARマーカをユーザが見ている視点方向(撮影方向)を示し、図3(1)は、ARマーカを正面(予め決められている基準方向:デフォルトの向き)から見ている場合であり、図3(2)は、ARマーカを背面から見ている場合である。本実施形態においては、撮像素子17Bに映っている実画像の中からARマーカを検出した後、ARマーカを認識してそのARマーカの位置、大きさ、姿勢を検出し、この位置、大きさ、姿勢に応じて仮想オブジェクトの表示サイズ、表示位置、表示方向(向き)を特定するようにしている。
そして、ARマーカの正面に仮想オブジェクトの正面が向くように実画像内のARマーカの位置にその仮想オブジェクトを重畳表示させるようにしている。この場合、二次元の実画像内に三次元の仮想オブジェクトを描画するようにしている。なお、上述のようにARマーカの正面に仮想オブジェクトの正面が向くように仮想オブジェクトを表示するモードをデフォルト方向表示モードと称する。
図4(1)は、上述のデフォルト方向表示モードにおいて、図3(1)の方向、つまり、ARマーカの正面(デフォルトの向き)から見た場合(撮影した場合)における仮想オブジェクトの表示例を示した図である。ここで、仮想オブジェクは、植物(球根)を人間化(キャラクタ化)したオブジェクトを例示したもので、上述のデフォルト方向表示モードでは、仮想オブジェクト(キャラクタ画像)の顔(正面)がARマーカの正面に向くように表示されるため、その顔(正面)が撮影方向に向くようになる。図4(2)は、デフォルト方向表示モードにおいて、図3(2)の方向、ARマーカの背面から見た場合(撮影した場合)における仮想オブジェクトの表示例を示した図である。ここで、仮想オブジェクトは、その顔(正面)がARマーカの正面に向くように表示されるため、その後ろ姿(背面)が撮影方向に向くようになる。
本実施形態においては、上述のデフォルト方向表示モードから撮影方向表示モードに任意に切り換え可能となっている。この撮影方向表示モードでは、ARマーカの姿勢(マーカの向きなど)から撮影者の位置方向(撮影方向)を特定し、ARマーカの正面(デフォルトの向き)に仮想オブジェクトの正面が向いている状態を基準として、撮影方向に仮想オブジェクトの正面が向くように仮想オブジェクトを回転させて重畳表示させるモード(視点向き表示モード)である。すなわち、実画像と仮想オブジェクトとを幾何学的に整合させるためにユーザ(撮影者)の位置、姿勢を実画像内のARマーカの位置、姿勢によって推測するが、デフォルト方向表示モードと撮影方向表示モードでは実画像と仮想オブジェクトとの整合の仕方を変えるようにしている。
その結果、撮影方向表示モードでは、撮像素子17Bに映っている実画像内において、ARマーカの正面(デフォルトの向き)がどの向きであるかに拘わらず、撮影者に対して仮想オブジェクトの正面が正対するようにその仮想オブジェクトを回転させるための回転角度を算出し(ARマーカのデフォルトの向き(正面)から撮影方向までの角度を算出し)、この仮想オブジェクトをその角度分回転させた後に実画像内のARマーカの位置に重畳して合成表示させるようにしている。
図4(3)は、撮影方向表示モードに切り替えた時点において、ARマーカの背面から見た場合(撮影した場合)における仮想オブジェクトの表示例を示した図で、例えば、ARマーカの背面から撮影した場合でも仮想オブジェクトの顔(正面)が撮影方向に向くようになる。同様に、ARマーカの右側面や左側面などからARマーカを見た場合(撮影した場合)でも仮想オブジェクトの顔(正面)が撮影方向に向くようになる。なお、撮影方向表示モードを解除して上述のデフォルト方向表示モードに切り替えられると、仮想オブジェクトは、その顔(正面)がARマーカの正面に向くように表示される表示状態に戻る。
次に、本実施形態における多機能型携帯電話機の動作概念を図5に示すフローチャートを参照して説明する。ここで、このフローチャートに記述されている各機能は、読み取り可能なプログラムコードの形態で格納されており、このプログラムコードにしたがった動作が逐次実行される。また、ネットワークなどの伝送媒体を介して伝送されてきた上述のプログラムコードに従った動作を逐次実行することもできる。なお、図5は、多機能型携帯電話機の全体動作のうち、本実施形態の特徴部分の動作概要を示したフローチャートであり、この図3のフローから抜けた際には、多機能型携帯電話機の全体動作を示すメインフロー(図示省略)に戻る。
図5は、拡張現実感撮影モードの切り換えに応じて実行開始される拡張現実感処理を説明するためのフローチャートである。
先ず、CPU11は、ユーザ操作などにより拡張現実感撮影モードに切り換えられると、拡張現実感撮影アプリケーション(拡張現実感処理機能)を起動(ステップS1)させた後、撮像素子17Bに映っている画像(実画像)を取得し(ステップS2)、この取得した実画像をその明度に応じてグレースケール化する(ステップS3)。そして、このグレースケールの画像に対して二値化処理、例えば、適応型二値化法に従った二値化処理(ステップS4)を行った後、この二値化画像を基にARマーカの領域を検出する処理を行う(ステップS5)。この場合、例えば、正方形の黒枠をARマーカの領域として検出するようにしている。
このようにしてARマーカの領域を検出した後は、ARマーカを認識する処理を行う(ステップS6)。この場合、ARマーカ内に描かれている白領域のパターンを特定して、その白領域の画像を複数の領域に分割した後、0〜255の数値でデータ化(パターンファイル化)する。そして、登録されているパターン(デフォルトのパターン)と比較するテンプレートマッチングを行ってARマーカの認識を行う。その結果、ARマーカを認識することができなければ(ステップS7でNO)、上述のステップS2に戻って次のフレームの実画像を取得するが、ARマーカを正常に認識することができたときには(ステップS7でYES)、回転成分と並進成分からなる4行4列の行列(変換行列)を用いてマーカ座標系からカメラ座標系に変換する処理を行う(ステップS8)。
そして、表示切り換えボタン(図示省略)が操作されたかを調べる(ステップ9)。ここで、表示切り換えボタンは、ARマーカの正面(デフォルトの向き)に仮想オブジェクトの正面が向くように仮想オブジェクトを表示させる表示モード(デフォルト方向表示モード)から表示切り換えボタンを操作された時点において、撮影方向に仮想オブジェクトの正面が向くように仮想オブジェクトを表示させる表示モード(撮影方向表示モード)への切り換えを指示するボタンである。表示切り換えボタンが操作されず、デフォルト方向表示モードのままであれば(ステップS9でNO)、ARマーカ内に描かれている白領域のパターンを特定して、そのパターン部分の位置、大きさ、姿勢を検出する(ステップS10)。
次に、仮想オブジェクトの向きをARマーカの正面(デフォルトの向き)として決定する(ステップS11)。その後、ステップS14に移り、上述のカメラ座標系に射影行列を適用して奥行き感を持たせるクリップ座標系に変換する。更にスクリーン座標系に変換して三次元の仮想オブジェクトを実画像内のARマーカの位置に重畳して合成表示させる三次元描画処理を行う(ステップS15)。この場合、描画された仮想オブジェクトは、上述のマーカパターンの大きさに比例したものとなり、仮想オブジェクトの正面がARマーカの正面に向くようになる。
いま、ARマーカの正面から撮影を行った場合には、図4(1)に示すように、仮想オブジェクトの顔(正面)が撮影方向に向くようになるが、ARマーカの背面から撮影を行った場合には、図4(2)に示すように、仮想オブジェクトの背面が撮影方向に向くようになる。そして、拡張現実感処理の終了がユーザ操作により指示されたかを調べ(ステップS16)、その終了が指示されたときには(ステップS16でYES)、図5のフローから抜けるが、拡張現実感処理の終了が指示されなければ(ステップS16でNO)、上述のステップS2に戻る。
一方、表示切り換えボタンが操作されたとき、つまり、デフォルト方向表示モードから撮影方向表示モードに切り換えられたときには(ステップS9でYES)、ARマーカ内に描かれている白領域のパターンを特定して、そのパターン部分の位置、大きさ、姿勢を検出する(ステップS12)。この場合、拡張現実マーカの正面(デフォルトの向き)を基準として、撮像素子7Bに映っている実画像内のマーカの形状やその傾きに応じたマーカの向きが撮影者の位置方向(撮影方向)となる。
そして、ARマーカの正面(デフォルトの向き)を基準に、ARマーカのデフォルトの向き(正面)からマーカの現在の向き(撮影方向)までの回転角度を算出して仮想オブジェクトの向きを決定する(ステップS13)。その後、上述のカメラ座標系に射影行列を適用して奥行き感を持たせるクリップ座標系に変換する(ステップS14)。更にスクリーン座標系に変換して三次元の仮想オブジェクトを実画像内のARマーカの位置に重畳して合成表示させる三次元描画処理を行う(ステップS15)。このように撮影方向表示モードにおいて、ARマーカの背面から撮影を行った場合には、図4(3)に示すように仮想オブジェクトの顔(正面)が撮影方向に向くようになる。そして、拡張現実感処理の終了が指示されたときには(ステップS16でYES)、図5のフローから抜けるが、その終了が指示されなければ(ステップS16でNO)、上述のステップS2に戻る。
以上のように、本実施形態において多機能型携帯電話機1は、ARマーカに対して予め決められている基準方向(例えば、正面)に仮想オブジェクトの正面が向いている状態を基準として、撮影方向に仮想オブジェクトの正面が向くように仮想オブジェクトを回転させて重畳表示させるようにしたので、ユーザの所望する向きに仮想オブジェクトを容易に表示させることができ、ユーザにあっては撮影する位置(視点位置)を変えることなく、所望する向きの仮想オブジェクトを見ることが可能となる。
また、本実施形態においては、デフォルト方向表示モードから撮影方向表示モードへの切り換えを可能としたから、ARマーカの正面に仮想オブジェクトの正面が向くように重畳表示させる状態から、撮影方向に仮想オブジェクトの正面が向くように仮想オブジェクトを回転させて重畳表示させる状態に切り換えることができる。このようにデフォルト方向表示モードと撮影方向表示モードでは実画像と仮想オブジェクトとの整合の仕方を変えることによりユーザの要望に応じた表示が可能となる。
ARマーカの正面(デフォルトの向き)を基準に、ARマーカのデフォルトの向き(正面)からマーカの現在の向き(撮影方向)までの回転角度を算出して仮想オブジェクトの向きを決定し、仮想オブジェクトをその角度分回転させて重畳表示させるようにしたので、ARマーカの向きを基準に仮想オブジェクトの向きを制御することができる。
ARマーカは、鉢内の植物の生育環境を観測する観測装置2に装着され、この観測装置2の装着されているARマーカが撮影された際に、撮像素子17Bに映っている実画像の中からARマーカを検出するようにしたので、植物用の観測装置2に有効なものとなる。すなわち、観測装置2が鉢内の土壌に刺し込まれている状態においてARマーカの向きを変えるために観測装置2を刺し変えたり、観測装置2を回してしまったりすると、土壌との接触状態が変化して生育環境が変わってしまうが、このような場合、ユーザにあっては観測装置2を動かさず(ARマーカの向きを変えず)に、所望する向きの仮想オブジェクトを見ることができる。また、窓際などに鉢が設置されている場合(撮影方向が制限されている場合)、撮影する位置(視点位置)を変えることなく、所望する向きの仮想オブジェクトを見ることができる。
なお、上述した実施形態においては、ARマーカの正面(デフォルトの向き)を基準に、ARマーカのデフォルトの向き(正面)からマーカの現在の向き(撮影方向)までの回転角度を算出して仮想オブジェクトの向きを決定するようにしたが、に回転角度を算出する代わりに、例えば、方位計(電子コンパス)付きの加速度センサ(図示省略)を使用して、多機能型携帯電話機1の筺体(装置本体)の姿勢を検出し、この装置本体の姿勢に基づいて仮想オブジェクトの向きを決定するようにしてもよい。この場合、図5のフローのその一部を変更するだけで、基本的には同様の動作によって実現可能であり、図5のステップS13の「回転角度を算出して仮想オブジェクトの向きを決定する」を「電子コンパス付き加速度センサの検出結果(装置本体の姿勢)に基づいて仮想オブジェクトの向きを決定する」に代えればよい。すなわち、登録されているデフォルトのパターンを電子コンパス付き加速度センサの検出結果(装置本体の姿勢)に基づいて回転することにより仮想オブジェクトの向きを変更すればよい。
このように電子コンパス付きの加速度センサの検出結果(装置本体の姿勢)に基づいて仮想オブジェクトの向きを決定するようにすれば、撮影された画像をパターンファイル化することなく、登録されているデフォルトのパターンファイルを電子コンパス付き加速度センサの検出結果(装置本体の姿勢)に基づいて三次元回転させるだけで仮想オブジェクトの向きを変更することができるので、撮影された画像のパターンファイル化が不要となり、ノイズが乗る可能性もなくなって、仮想オブジェクトの向きを正確に変更することが可能となる。
また、上述した実施形態においては、デフォルト方向表示モードにおいて、仮想オブジェクトの顔(正面)がARマーカの正面に向くように表示するようにしたが、ARマーカの背面に向くように表示するようにしてもよく、ARマーカのデフォルトの向きは任意である。
また、上述した実施形態においては、撮影方向表示モードにおいて、仮想オブジェクトの顔(正面)を向くように表示したが、これに限らず左右のどちらかでもよく、また背面でもよい。更に角度によって設定するなど所定の向きでもよい。そして仮想オブジェクトの方向は、ユーザが指定してもよい。
また、上述した実施形態においては、ARマーカを鉢内の植物の生育環境を観測する観測装置2の上面に装着するようにしたが、植物の根元や鉢の外側などに装着するようにしてもよく、勿論、植物に関するARマーカにも限らない。
また、上述した実施形態においては、仮想オブジェクトは、植物(球根)をキャラクタ化したオブジェクトを例示したが、これに限らないことは勿論である。また、ARマーカの種類に対応して複数種の仮想オブジェクトを記憶しておき、マーカ認識によって特定されたARマーカに対応付けられている仮想オブジェクトを表示させるようにしてもよい。
また、上述した実施形態においては、カメラ機能付き多機能型携帯電話機(スマートフォン)に適用した場合を例示したが、これに限らず、カメラ機能付きパーソナルコンピュータ・PDA(個人向け携帯型情報通信機器)・音楽プレイヤー・電子ゲーム機などであってもよく、勿論、デジタルカメラ自体であってもよい。
また、上述した実施形態において示した“装置”や“部”とは、機能別に複数の筐体に分離されていてもよく、単一の筐体に限らない。また、上述したフローチャートに記述した各ステップは、時系列的な処理に限らず、複数のステップを並列的に処理したり、別個独立して処理したりするようにしてもよい。
以上、この発明の実施形態について説明したが、この発明は、これに限定されるものではなく、特許請求の範囲に記載された発明とその均等の範囲を含むものである。
以下、本願出願の特許請求の範囲に記載された発明を付記する。
(付記)
(請求項1)
請求項1に記載の発明は、
撮像素子を備える撮像手段と、
前記撮像素子に映っている実画像の中から拡張現実マーカを検出する検出手段と、
前記検出手段により検出された拡張現実マーカを認識する認識手段と、
前記マーカ認識手段により拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定手段と、
前記拡張現実マーカに対して予め決められている基準方向を基準として、前記撮影方向特定手段により特定された撮影方向に基づいて仮想オブジェクトが所定方向に向くように変更し重畳表示させる表示制御手段と、
を備えたことを特徴とする画像処理装置である。
(請求項2)
請求項2に記載の発明は、請求項1に記載の画像処理装置において、
前記撮影方向特定手段は、前記認識手段により拡張現実マーカが認識された場合に前記拡張現実マーカの向きを撮影方向として特定する、
ようにしたことを特徴とする画像処理装置である。
(請求項3)
請求項3に記載の発明は、請求項1に記載の画像処理装置において、
前記認識手段により拡張現実マーカが認識された場合にその拡張現実マーカの正面に仮想オブジェクトの正面が向くように重畳表示させる状態と、前記撮影方向特定手段により特定された撮影方向に仮想オブジェクトの所定の方向が向くように仮想オブジェクトを回転させて重畳表示させる状態とを切り換える切換手段を更に備える、
ようにしたことを特徴とする請求項1あるいは請求項2に記載の画像処理装置である。
(請求項4)
請求項4に記載の発明は、請求項1〜請求項3のいずれかに記載の画像処理装置において、
前記表示制御手段は、前記拡張現実マーカに対して予め決められている基準方向から前記撮影方向特定手段により特定された撮影方向までの角度を算出し、仮想オブジェクトをその角度分回転させて重畳表示させる、
ようにしたことを特徴とする画像処理装置である。
(請求項5)
請求項5に記載の発明は、請求項1〜請求項3のいずれかに記載の画像処理装置において、
当該装置本体の姿勢を検出する姿勢検出手段を更に設け、
前記第2の表示手段は、前記姿勢検出手段により検出された姿勢に基づいて前記撮影方向特定手段により特定された撮影方向に仮想オブジェクトの正面が向くように仮想オブジェクトを回転させて重畳表示させる、
ようにしたことを特徴とする画像処理装置である。
(請求項6)
請求項6に記載の発明は、請求項1〜請求項5のいずれかに記載の画像処理装置において、
前記所定の方向は、ユーザが設定した方向である、
ことを特徴とする画像処理装置である。
(請求項7)
請求項7に記載の発明は、請求項1〜請求項6のいずれかに記載の画像処理装置において、
前記拡張現実マーカは、鉢内の植物の生育環境を観測する観測装置に装着され、
前記観測装置の装着されている拡張現実マーカが前記撮像手段により撮影された際に、前記検出手段は、前記撮像素子に映っている実画像の中から拡張現実マーカを検出する、
ようにしたことを特徴とする画像処理装置である。
(請求項8)
請求項8に記載の発明は、
撮像素子に映っている実画像の中から拡張現実マーカを検出する検出ステップと、
前記検出された拡張現実マーカを認識する認識ステップと、
前記拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定ステップと、
前記拡張現実マーカに対して予め決められている基準方向を基準として、前記特定された撮影方向に基づいて仮想オブジェクトが所定方向に向くように変更し重畳表示させる表示制御ステップと、
を含むことを特徴とする画像処理方法である。
(請求項9)
請求項9に記載の発明は、
コンピュータに対して、
撮像素子に映っている実画像の中から拡張現実マーカを検出する検出機能と、
前記検出された拡張現実マーカを認識する認識機能と、
前記拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定機能と、
前記拡張現実マーカに対して予め決められている基準方向を基準として、前記特定された撮影方向に基づいて仮想オブジェクトが所定方向に向くように変更し重畳表示させる表示制御機能と、
を実現させるためのプログラムである。
1 多機能型携帯電話機
2 観測装置
11 CPU
13 記憶部
16 タッチ入力表示部
17 撮像部
17A レンズ部
17B 撮像素子
17C センサ部
17D アナログ処理回路
17E デジタル信号処理回路

Claims (9)

  1. 撮像素子を備える撮像手段と、
    前記撮像素子に映っている実画像の中から拡張現実マーカを検出する検出手段と、
    前記検出手段により検出された拡張現実マーカを認識する認識手段と、
    前記認識手段により拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定手段と、
    前記拡張現実マーカに対して予め決められている基準方向を基準として、前記撮影方向特定手段により特定された撮影方向に基づいて仮想オブジェクトが所定の方向に向くように変更し重畳表示させる表示制御手段と、
    を備えたことを特徴とする画像処理装置。
  2. 前記撮影方向特定手段は、前記認識手段により拡張現実マーカが認識された場合に前記拡張現実マーカの向きを撮影方向として特定する、
    ようにしたことを特徴とする請求項1に記載の画像処理装置。
  3. 前記認識手段により拡張現実マーカが認識された場合にその拡張現実マーカの正面に仮想オブジェクトの正面が向くように重畳表示させる状態と、前記撮影方向特定手段により特定された撮影方向に仮想オブジェクトの所定の方向が向くように仮想オブジェクトを回転させて重畳表示させる状態とを切り換える切換手段を更に備える、
    ようにしたことを特徴とする請求項1あるいは請求項2に記載の画像処理装置。
  4. 前記表示制御手段は、前記拡張現実マーカに対して予め決められている基準方向から前記撮影方向特定手段により特定された撮影方向までの角度を算出し、仮想オブジェクトをその角度分回転させて重畳表示させる、
    ようにしたことを特徴とする請求項1〜請求項3のいずれかに記載の画像処理装置。
  5. 当該装置本体の姿勢を検出する姿勢検出手段を更に設け、
    前記第2の表示手段は、前記姿勢検出手段により検出された姿勢に基づいて前記撮影方向特定手段により特定された撮影方向に仮想オブジェクトの正面が向くように仮想オブジェクトを回転させて重畳表示させる、
    ようにしたことを特徴とする請求項1〜請求項3のいずれかに記載の画像処理装置。
  6. 前記所定の方向は、ユーザが設定した方向である、
    ことを特徴とする請求項1〜請求項5のいずれかに記載の画像処理装置。
  7. 前記拡張現実マーカは、鉢内の植物の生育環境を観測する観測装置に装着され、
    前記観測装置の装着されている拡張現実マーカが前記撮像手段により撮影された際に、前記検出手段は、前記撮像素子に映っている実画像の中から拡張現実マーカを検出する、
    ようにしたことを特徴とする請求項1〜請求項6のいずれかに記載の画像処理装置。
  8. 撮像素子に映っている実画像の中から拡張現実マーカを検出する検出ステップと、
    前記検出された拡張現実マーカを認識する認識ステップと、
    前記拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定ステップと、
    前記拡張現実マーカに対して予め決められている基準方向を基準として、前記特定された撮影方向に基づいて仮想オブジェクトが所定方向に向くように変更し重畳表示させる表示制御ステップと、
    を含むことを特徴とする画像処理方法。
  9. コンピュータに対して、
    撮像素子に映っている実画像の中から拡張現実マーカを検出する検出機能と、
    前記検出された拡張現実マーカを認識する認識機能と、
    前記拡張現実マーカが認識された場合に撮影方向を特定する撮影方向特定機能と、
    前記拡張現実マーカに対して予め決められている基準方向を基準として、前記特定された撮影方向に基づいて仮想オブジェクトが所定方向に向くように変更し重畳表示させる表示制御機能と、
    を実現させるためのプログラム。
JP2012051219A 2012-03-08 2012-03-08 画像処理装置及び画像処理方法並びにプログラム Pending JP2013186691A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012051219A JP2013186691A (ja) 2012-03-08 2012-03-08 画像処理装置及び画像処理方法並びにプログラム
US13/789,527 US9007400B2 (en) 2012-03-08 2013-03-07 Image processing device, image processing method and computer-readable medium
CN201310075130.7A CN103312971B (zh) 2012-03-08 2013-03-08 图像处理装置及图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012051219A JP2013186691A (ja) 2012-03-08 2012-03-08 画像処理装置及び画像処理方法並びにプログラム

Publications (1)

Publication Number Publication Date
JP2013186691A true JP2013186691A (ja) 2013-09-19

Family

ID=49113719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012051219A Pending JP2013186691A (ja) 2012-03-08 2012-03-08 画像処理装置及び画像処理方法並びにプログラム

Country Status (3)

Country Link
US (1) US9007400B2 (ja)
JP (1) JP2013186691A (ja)
CN (1) CN103312971B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2991039A1 (en) 2014-08-27 2016-03-02 Ricoh Company, Ltd. Image processing apparatus, image processing method, and computer program product
JP2017191245A (ja) * 2016-04-14 2017-10-19 株式会社豊田総合研究所 Arシステム
WO2018123022A1 (ja) * 2016-12-28 2018-07-05 株式会社メガハウス コンピュータプログラム、表示装置、頭部装着型表示装置、マーカ
JP6410874B1 (ja) * 2017-05-30 2018-10-24 株式会社タカラトミー Ar映像生成装置
KR101914660B1 (ko) * 2016-11-30 2018-11-06 스마트한 주식회사 자이로 센서를 기반으로 증강현실 컨텐츠의 표시를 제어하는 방법 및 그 장치
JP2019045325A (ja) * 2017-09-04 2019-03-22 株式会社島津ビジネスシステムズ 気象分布表示装置、気象分布表示方法および気象分布表示プログラム

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2916204A4 (en) * 2012-10-31 2016-06-29 Warld Ltd IMAGE DISPLAY SYSTEM, ELECTRONIC DEVICE, PROGRAM, AND IMAGE DISPLAY METHOD
JP6157094B2 (ja) * 2012-11-21 2017-07-05 キヤノン株式会社 通信装置、設定装置、通信方法、設定方法、及び、プログラム
US20140270477A1 (en) * 2013-03-14 2014-09-18 Jonathan Coon Systems and methods for displaying a three-dimensional model from a photogrammetric scan
JP6155893B2 (ja) * 2013-06-20 2017-07-05 カシオ計算機株式会社 画像処理装置、及びプログラム
US9370714B2 (en) * 2013-08-16 2016-06-21 Disney Enterprises, Inc. Light communication between user devices and physical objects
TWI484437B (zh) * 2013-10-07 2015-05-11 Teknowledge Dev Corp 人體服飾配件的搭配方法
CN110989285A (zh) * 2014-04-22 2020-04-10 日本电信电话株式会社 视频生成装置、视频生成方法、数据结构以及程序
HK1201682A2 (en) * 2014-07-11 2015-09-04 Idvision Ltd Augmented reality system
US9883110B2 (en) * 2015-05-09 2018-01-30 CNZ, Inc. Toggling between augmented reality view and rendered view modes to provide an enriched user experience
US10589625B1 (en) * 2015-12-11 2020-03-17 Disney Enterprises, Inc. Systems and methods for augmenting an appearance of an actual vehicle component with a virtual vehicle component
US10969748B1 (en) 2015-12-28 2021-04-06 Disney Enterprises, Inc. Systems and methods for using a vehicle as a motion base for a simulated experience
US11524242B2 (en) 2016-01-20 2022-12-13 Disney Enterprises, Inc. Systems and methods for providing customized instances of a game within a virtual space
CN105867617B (zh) 2016-03-25 2018-12-25 京东方科技集团股份有限公司 增强现实设备、系统、图像处理方法及装置
RU2636676C2 (ru) * 2016-05-12 2017-11-27 Общество с ограниченной ответственностью "Торговый дом "Технолайн" ООО "Торговый дом "Технолайн" Способ формирования элементов дополненной реальности и графический носитель для его реализации
JP6916460B2 (ja) * 2016-08-31 2021-08-11 カシオ計算機株式会社 オブジェクト表示システム、ユーザ端末装置、オブジェクト表示方法及びプログラム
CN107295305A (zh) * 2017-06-30 2017-10-24 深圳前海弘稼科技有限公司 一种温室种植的显示方法及显示系统
US11132703B2 (en) * 2017-09-15 2021-09-28 Eric Koenig Platform for providing augmented reality based advertisements
US10585471B2 (en) 2017-10-03 2020-03-10 Disney Enterprises, Inc. Systems and methods to provide an interactive space based on predicted events
WO2019088798A1 (ko) * 2017-11-06 2019-05-09 디에스글로벌 (주) 사용자 편집 이미지가 인쇄된 스티커 및 이의 제조 방법
WO2019127325A1 (zh) * 2017-12-29 2019-07-04 深圳前海达闼云端智能科技有限公司 信息处理方法、装置、云处理设备及计算机程序产品
US10970560B2 (en) 2018-01-12 2021-04-06 Disney Enterprises, Inc. Systems and methods to trigger presentation of in-vehicle content
US10841632B2 (en) 2018-08-08 2020-11-17 Disney Enterprises, Inc. Sequential multiplayer storytelling in connected vehicles
US10818089B2 (en) * 2018-09-25 2020-10-27 Disney Enterprises, Inc. Systems and methods to provide a shared interactive experience across multiple presentation devices
US10918949B2 (en) 2019-07-01 2021-02-16 Disney Enterprises, Inc. Systems and methods to provide a sports-based interactive experience
US10785621B1 (en) 2019-07-30 2020-09-22 Disney Enterprises, Inc. Systems and methods to provide an interactive space based on vehicle-to-vehicle communications
EP4058874A4 (en) * 2019-12-05 2023-05-03 Guangdong Oppo Mobile Telecommunications Corp., Ltd. METHOD AND SYSTEM FOR ASSIGNING DEVICE COORDINATE SYSTEMS IN A MULTIPLE AR SYSTEM
CN111246173A (zh) * 2020-01-20 2020-06-05 北京云端文化传媒股份有限公司 一种摄影工作室用自适应性调节系统
US11076276B1 (en) 2020-03-13 2021-07-27 Disney Enterprises, Inc. Systems and methods to provide wireless communication between computing platforms and articles
CN112053449A (zh) * 2020-09-09 2020-12-08 脸萌有限公司 基于增强现实的显示方法、设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4869430B1 (ja) * 2010-09-24 2012-02-08 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0757080A (ja) 1993-08-20 1995-03-03 Fujitsu Ltd 適応2値化制御方式
JP2005234757A (ja) 2004-02-18 2005-09-02 Nippon Telegr & Teleph Corp <Ntt> 拡張現実感システムおよび画像合成表示方法とプログラム
PT103264B (pt) * 2005-04-22 2007-02-28 Ydreams Informatica Sa Miradouro virtual: sistema de visualização de informação sobreposta a imagem real
CN101587542A (zh) * 2009-06-26 2009-11-25 上海大学 基于眼动轨迹跟踪的景深融合增强显示方法及系统
US9901828B2 (en) * 2010-03-30 2018-02-27 Sony Interactive Entertainment America Llc Method for an augmented reality character to maintain and exhibit awareness of an observer

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4869430B1 (ja) * 2010-09-24 2012-02-08 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および、画像処理方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2991039A1 (en) 2014-08-27 2016-03-02 Ricoh Company, Ltd. Image processing apparatus, image processing method, and computer program product
JP2017191245A (ja) * 2016-04-14 2017-10-19 株式会社豊田総合研究所 Arシステム
KR101914660B1 (ko) * 2016-11-30 2018-11-06 스마트한 주식회사 자이로 센서를 기반으로 증강현실 컨텐츠의 표시를 제어하는 방법 및 그 장치
WO2018123022A1 (ja) * 2016-12-28 2018-07-05 株式会社メガハウス コンピュータプログラム、表示装置、頭部装着型表示装置、マーカ
JPWO2018123022A1 (ja) * 2016-12-28 2019-11-14 株式会社メガハウス コンピュータプログラム、表示装置、頭部装着型表示装置、マーカ
JP6410874B1 (ja) * 2017-05-30 2018-10-24 株式会社タカラトミー Ar映像生成装置
JP2018205828A (ja) * 2017-05-30 2018-12-27 株式会社タカラトミー Ar映像生成装置
JP2019045325A (ja) * 2017-09-04 2019-03-22 株式会社島津ビジネスシステムズ 気象分布表示装置、気象分布表示方法および気象分布表示プログラム
JP7140478B2 (ja) 2017-09-04 2022-09-21 株式会社島津ビジネスシステムズ 気象分布表示装置、気象分布表示方法および気象分布表示プログラム

Also Published As

Publication number Publication date
CN103312971A (zh) 2013-09-18
CN103312971B (zh) 2016-12-28
US20130235078A1 (en) 2013-09-12
US9007400B2 (en) 2015-04-14

Similar Documents

Publication Publication Date Title
JP2013186691A (ja) 画像処理装置及び画像処理方法並びにプログラム
CN110502954B (zh) 视频分析的方法和装置
US10026207B2 (en) Image display device, image display method and storage medium
JP5776903B2 (ja) 画像処理装置及び画像処理方法並びにプログラム
KR20150113889A (ko) 화상처리장치, 화상처리방법 및 기억매체
JP2013162487A (ja) 画像表示装置及び撮像装置
KR20150119793A (ko) 촬상 장치, 카메라 유닛, 표시 유닛, 촬영 방법, 표시 방법 및 기록 매체
JP5750696B2 (ja) 表示装置および表示プログラム
WO2015159775A1 (ja) 画像処理装置、通信システム及び通信方法並びに撮像装置
CN108259817B (zh) 图片拍摄系统及方法
CN111147744B (zh) 拍摄方法、数据处理方法、装置、电子设备及存储介质
US20150206282A1 (en) Image processing device, image processing method, and image processing program
KR101822169B1 (ko) 파노라마 영상을 제공하는 전자 장치 및 그 제어 방법
JP2009060338A (ja) 表示装置、電子カメラ
JP2018032991A (ja) 画像表示装置、画像表示方法及び画像表示用コンピュータプログラム
JP5458411B2 (ja) 撮影画像表示装置、撮影画像表示方法、及び撮影画像表示方法によって出力される電子地図
JP2017199972A (ja) 端末装置、情報取得システム、情報取得方法およびプログラム
CN115516494A (zh) 用于生成图像的方法及其电子装置
US9571717B2 (en) Imaging device, imaging system, imaging method, and computer-readable recording medium
JP2015139124A (ja) 画像生成装置、画像生成システム、画像生成方法、及びプログラム
JP5670092B2 (ja) 地形表示システム、携帯端末、地形表示方法およびプログラム
JP2012227717A (ja) 表示装置、表示プログラムおよび表示方法
JP2013037476A (ja) 観察装置、観察方法、及び撮像装置
JP6370598B2 (ja) 撮像装置
JP2015204037A (ja) 画像処理装置、通信システム及び通信方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150805

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160118

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160126

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160219