JP2016081110A - 画像表示装置、画像表示方法及びプログラム - Google Patents

画像表示装置、画像表示方法及びプログラム Download PDF

Info

Publication number
JP2016081110A
JP2016081110A JP2014208822A JP2014208822A JP2016081110A JP 2016081110 A JP2016081110 A JP 2016081110A JP 2014208822 A JP2014208822 A JP 2014208822A JP 2014208822 A JP2014208822 A JP 2014208822A JP 2016081110 A JP2016081110 A JP 2016081110A
Authority
JP
Japan
Prior art keywords
image
captured image
optical recognition
recognition code
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014208822A
Other languages
English (en)
Other versions
JP5812550B1 (ja
Inventor
葉 田中
Yo Tanaka
葉 田中
哲哉 岡田
Tetsuya Okada
哲哉 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
B Core Inc
Original Assignee
B Core Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by B Core Inc filed Critical B Core Inc
Priority to JP2014208822A priority Critical patent/JP5812550B1/ja
Priority to US14/878,623 priority patent/US20160104323A1/en
Application granted granted Critical
Publication of JP5812550B1 publication Critical patent/JP5812550B1/ja
Publication of JP2016081110A publication Critical patent/JP2016081110A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】柔軟性の高いコードをARマーカとして利用することを可能とする。【解決手段】撮像画像取得部102は、カメラによって撮像された、複数のエレメントが線状に形成されることによって識別情報を表す光学式認識コードを含む撮像画像を取得する。画像表示処理部105は、取得された撮像画像に含まれる光学式認識コードによって表される識別情報に対応する3次元オブジェクト画像を、当該撮像画像上に重畳表示する。撮像画像上に重畳表示される3次元オブジェクト画像の向きは、当該撮像画像上における光学式認識コードの向き及びカメラの傾きに基づいて決定される。【選択図】図4

Description

本発明は、画像表示装置、画像表示方法及びプログラムに関する。
近年では、拡張現実(AR:Augmented Reality)と称される技術(以下、AR技術と表記)が注目されている。
このAR技術によれば、例えばカメラが搭載されたスマートフォンのような画像表示装置によって撮像された現実空間の画像上に仮想的なオブジェクト(以下、仮想オブジェクトと表記)の画像を重畳表示することができる。
なお、AR技術においては、ARマーカと称される所定の形状のコード(マーク)が現実空間に配置される。このようなARマーカを画像表示装置を用いて撮像することによって、当該ARマーカに対応する仮想オブジェクトの画像が表示される。この仮想オブジェクトの画像には、例えば3次元画像が含まれる。
特開2013−134538号公報
ところで、上述したARマーカは、例えば略正方形状の所定の範囲内に白の領域と黒の領域とが配置されることによって構成されるマーク(以下、ARマークと表記)である場合が多い。
このようなARマークの場合、上述した現実空間の画像上において当該ARマークの例えば4隅の点を抽出することによって当該ARマークの向き及び当該ARマーカが配置された現実空間を撮像する画像表示装置の位置(角度)を検出し、当該検出された向き及び位置に応じた仮想オブジェクトの画像を表示することができる。
しかしながら、上記したようにARマーカの向き及び当該ARマーカが配置された現実空間を撮像する画像表示装置の位置を検出可能とするためには、ある程度の大きさ(面積)のARマーク(略正方形状を有するマーク)を用意する必要がある。このため、このようなARマークの場合には、例えば現実空間の画像上で複数の仮想オブジェクトの画像を重ねて表示するようなことが困難である。すなわち、上記した略正方形状を有するマークでは、利用態様が制限され、柔軟性が低い。
そこで、本発明の目的は、柔軟性の高いコードをARマーカとして利用することが可能な画像表示装置、画像表示方法及びプログラムを提供することにある。
本発明の1つの態様によれば、カメラによって撮像された、複数のエレメントが線状に形成されることによって識別情報を表す光学式認識コードを含む撮像画像を取得する取得手段と、前記取得された撮像画像に含まれる光学式認識コードによって表される識別情報に対応する3次元オブジェクト画像を、当該撮像画像上に重畳表示する表示処理手段とを具備し、前記撮像画像上に重畳表示される3次元オブジェクト画像の向きは、前記撮像画像上における前記光学式認識コードの向き及び前記カメラの傾きに基づいて決定されることを特徴とする画像表示装置が提供される。
本発明は、柔軟性の高いコードをARマーカとして利用することを可能とする。
本発明の実施形態に係る画像表示装置の外観の一例を示す図。 カラービットコードについて説明するための図。 図1に示す画像表示装置10のハードウェア構成の一例を示す図。 本実施形態に係る画像表示装置10の主として機能構成を示すブロック図。 本実施形態に係る画像表示装置10の処理手順を示すフローチャート。 表示画像の表示態様について説明するための図。 表示画像の表示態様について説明するための図。 表示画像の表示態様について説明するための図。 表示画像の表示態様について説明するための図。
以下、図面を参照して、本発明の実施形態について説明する。
図1は、本実施形態に係る画像表示装置の外観の一例を示す図である。本実施形態において、画像表示装置は、カメラを備えた情報処理装置であり、例えばスマートフォン、タブレット端末及びパーソナルコンピュータ(PC)等を含む。なお、図1においては、画像表示装置10がスマートフォンである場合を示している。図1に示す画像表示装置(スマートフォン)10の場合、図示されていないが、例えば背面にカメラが搭載(内臓)されている。
本実施形態に係る画像表示装置10は、カメラによって光学式認識コード(光学式シンボル)を撮像することによって、当該光学式認識コードを読み取ることができる。なお、本実施形態に係る画像表示装置10において読み取ることができる光学式認識コードは、例えば複数のエレメントが線状(棒状)に形成されたコードである。具体的には、光学式認識コードは、例えば3以上の色彩のうちの1の色彩が付されたセル(エレメント)が複数配列されてなるコード(以下、カラービットコードと表記)を含む。このカラービットコードによれば、複数配列された各セルに付されている色彩の遷移によって識別情報(例えば、ID等)を表すことができる。
以下の説明においては、本実施形態に係る画像表示装置10によって読み取られる光学式認識コードはカラービットコードであるものとして説明する。
ここで、図2を参照して、カラービットコードについて説明する。なお、図2においては、便宜的にカラービットコードの一部分のみが示されている。
図2に示すように、カラービットコードは、例えば赤色、緑色及び青色のうちの1の色彩が付されたセル20が複数配列されて構成されている。図2において、赤色はR、緑色はG、青色はBとして示されている。なお、図2においては、説明の便宜上、カラービットコードに3色の色彩(赤色、緑色、青色)が用いられている例が示されているが、各セルに含まれている色彩の遷移を識別することができるのであれば、4色以上の色彩がカラービットコードに用いられても構わない。
カラービットコードを構成するセル20は、1つの色彩が付される範囲または領域であり、種々の形状を有することができる。図2に示す例では、複数のセル20の各々は四角形状であるが、例えば丸形状または三角形状等であっても構わない。このような複数のセル20を線状に配列することによってカラービットコードが形成される。なお、線状とは、直線であってもよいし、曲線であってもよい。
なお、カラービットコードを構成するセル20の数は、予め規定されているものとする。また、カラービットコードは上記したように色彩の遷移によって特定のデータを表すものであるから、当該カラービットコードにおいては、隣接するセル20同士には同色は付されず、異なる色彩が付される。カラービットコードはこれらの条件等に基づいて作成される。
また、カラービットコードを構成する複数のセル20には、端点セルが含まれる。端点セルは、線状に連なったセル群から構成されるカラービットコードの端点に位置するセルである。コード内にあるセルは2つのセルと隣接するが、端点セルだけは1つのセルとしか隣接しない。こうした端点セルは必ずコード内に2つある。2つの端点の色は必ず異なる。端点セルの色でどちらが起点なのかどうかは判定できるようになっている。
上記したようなカラービットコードによれば例えば3色の色彩の遷移(配列)によって特定の識別情報を表すことができるため、当該カラービットコードにおける各色彩の占める領域の大きさ及び形状の制限は緩く、当該カラービットコードが例えば凹凸のある表面や柔軟性のある素材上に付された場合であっても、高い読み取り精度を実現することができる。
なお、本実施形態において、上記したカラービットコードは、拡張現実(AR:Augmented Reality)と称される技術(AR技術)におけるARマーカとして利用される。すなわち、本実施形態に係る画像表示装置10は、現実空間にARマーカとして配置されたカラービットコードが上記したカメラによって撮像された際に、当該カメラによって撮像された画像(以下、撮像画像と表記)に含まれるカラービットコードによって表される識別情報に対応する仮想的なオブジェクト(3次元オブジェクト)の画像(映像)を、当該撮像画像上に表示する機能を有する。
図3は、図1に示す画像表示装置10のハードウェア構成の一例を示す。ここでは、上記したように画像表示装置10がスマートフォンであるものとして説明する。
図3に示すように、画像表示装置10においては、バス11に、不揮発性メモリ12、CPU13、メインメモリ14、無線通信部15、ディスプレイ16、タッチパネル17及び加速度センサ18等が接続されている。なお、図3においては、上述したカメラについては省略されているものとする。
不揮発性メモリ12は、例えばオペレーティングシステム(OS)や上記したカラービットコードの読み取り処理及びAR技術に関する処理を実現するためのプログラムを含む各種プログラムを格納する。
CPU13は、例えば不揮発性メモリ12に格納されている各種プログラムを実行する。なお、CPU13は、画像表示装置10全体の制御を司るものである。
メインメモリ14は、例えばCPU13が各種プログラムを実行する際に必要とされるワークエリア等として使用される。
無線通信部15は、インターネット等のネットワークを介して各種サーバ装置等の外部装置との通信を制御する機能を有する。また、無線通信部15は、例えば無線LAN、Bluetooth(登録商標)及びWifi(登録商標)等の無線通信機能を有する。
ディスプレイ16は、例えば液晶表示パネル及び表示制御を行う駆動回路を備えることにより、各種データ等を表示する機能を有する。なお、上述した画像表示装置10に備えられているカメラによって撮像された画像は、このディスプレイ16に表示することができる。
タッチパネル17は、ディスプレイ16の前面に重畳して配置され、例えばユーザの指先等で指定された画面上の位置を検出する機能を有する。これにより、タッチパネル17は、画像表示装置10に対するユーザの各種操作を検知することができる。
加速度センサ18は、画像表示装置10に対して作用する加速度(例えば、重力加速度)を検出するセンサである。この加速度センサ18は、例えば直交3軸(x軸、y軸及びz軸)の各軸方向の加速度を検出可能な3軸加速度センサ(3次元加速度センサ)であるものとする。画像表示装置10においては、このような加速度センサ18を用いることによって、当該画像表示装置10(に備えられているカメラ)の傾きを検出することができる。なお、本実施形態においては加速度センサ18が用いられるものとして説明するが、画像表示装置10の傾きを検出することができるセンサであれば他のセンサ(例えば、ジャイロセンサ等)が用いられても構わない。
図4は、本実施形態に係る画像表示装置10の主として機能構成を示すブロック図である。図4に示すように、画像表示装置10は、格納部101、撮像画像取得部102、デコード処理部103、表示画像生成部104及び画像表示処理部105を含む。
本実施形態において、格納部101は、例えば図3に示す不揮発性メモリ12等に格納される。また、撮像画像取得部102、デコード処理部103、表示画像生成部104及び画像表示処理部105は、例えば図3に示すCPU13(つまり、画像表示装置10のコンピュータ)が不揮発性メモリ12に格納されているプログラムを実行することにより実現されるものとする。なお、このプログラムは、コンピュータ読み取り可能な記憶媒体に予め格納して頒布可能である。また、このプログラムは、例えばネットワークを介して画像表示装置10にダウンロードされても構わない。
格納部101には、上述したカラービットコードによって表される識別情報に対応づけて、当該識別情報に対応する3次元オブジェクトの画像(以下、3次元オブジェクト画像と表記)が予め格納されている。
撮像画像取得部102は、上記したように画像表示装置10に備えられているカメラによって現実空間に配置されているカラービットコードが撮像されることによって得られる撮像画像(データ)を取得する。すなわち、撮像画像取得部102によって取得される撮像画像は、カラービットコードを含み、色情報の最小単位である複数の画素(ピクセル)から構成される。なお、ここでは、画像表示装置10に備えられているカメラによって撮像された撮像画像が取得されるものとして説明したが、撮像画像取得部102は、例えば画像表示装置10の外部のカメラによって撮像された撮像画像を取得しても構わない。
デコード処理部103は、撮像画像取得部102によって取得された撮像画像に含まれるカラービットコードを読み取る(デコードする)処理を実行する。デコード処理部103によるデコードは、カラービットコードにおける色彩の遷移(つまり、当該カラービットコードを構成する複数のセル20の各々に付されている色彩の遷移)に基づいて行われる。これにより、デコード処理部103は、撮像画像に含まれるカラービットコードによって表される識別情報を取得する。
表示画像生成部104は、デコード処理部103によって取得された識別情報に対応づけて格納部101に格納されている3次元オブジェクト画像を取得する。また、表示画像生成部104は、撮像画像取得部102によって取得された撮像画像上におけるカラービットコードの向きを算出する。更に、表示画像生成部104は、上記した加速度センサ18を用いて検出された画像表示装置10の傾きに基づいてカラービットコードに対する画像表示装置10(に備えられるカメラ)の相対位置を算出する。
表示画像生成部104は、算出された撮像画像上におけるカラービットコードの向き及び画像表示装置10の相対位置に基づいて、取得された3次元オブジェクト画像の向きを変化させた表示画像を生成する。換言すれば、表示画像における3次元オブジェクト画像の向きは、撮影画像上におけるカラービットコードの向き及び画像表示装置10(に備えられるカメラ)の傾きに基づいて決定される。
画像表示処理部105は、表示画像生成部104によって生成された表示画像(3次元オブジェクト画像)を、撮影画像に含まれるカラービット上に表示する。
次に、図5のフローチャートを参照して、本実施形態に係る画像表示装置10の処理手順について説明する。
まず、画像表示装置10を利用するユーザは、当該画像表示装置10を操作することによって当該画像表示装置10に備えられているカメラを起動する。この場合、現実空間に配置された(または貼り付けられた)カラービットコードがカメラの画角内に含まれるようにユーザがカメラ位置を調整することにより、当該カメラは、カラービットコードを撮像することができる。なお、本実施形態におけるカラービットコード(ARマーカ)は、略水平面上に配置されていることを想定している。
このようにカメラによってカラービットコードが撮像された場合、撮像画像取得部102は、当該カラービットコードを含む撮像画像を取得する(ステップS1)。
次に、デコード処理部103は、ステップS1において取得された撮像画像に含まれるカラービットコードに対してデコード処理(読み取り処理)を実行する(ステップS2)。以下、ステップS2のデコード処理について具体的に説明する。
まず、デコード処理部103は、撮像画像を各色領域に区分けする処理(以下、色領域区分け処理と表記)を実行する。ここで、一般的に撮像画像は背景を含めて様々な色彩で構成されており、それらのパターンも様々である。このため、色領域区分け処理においては、この撮像画像中の色彩を色空間の中で赤色、緑色、青色及び無彩色に区分けし、各画素の色彩をいずれかの領域に当てはめる処理(均色化処理)が行われる。すなわち、色領域区分け処理においては、撮像画像中の各画素に対するラベリング処理が実行される。
なお、上記した赤色、緑色及び青色はカラービットコードを構成する各セルに付される色彩として定義された色彩(以下、構成色と表記)であるが、色領域区分け処理においては、例えば照明、彩色、退色等を考慮して色空間上でこれらの構成色と認定することができる一定の範囲に包含される色彩であれば、当該色彩(の画素)を当該構成色として区分けするものとする。すなわち、例えば赤色の領域を区分けする場合には、当該赤色を中心とする一定の範囲の色彩の画素の全てを赤色の領域として認定する。また、無彩色とは、色領域区分け処理において赤色、緑色及び青色として認定される色彩以外の色彩である。
また、上記したように撮像画像に対して均色化処理が行われるが、一般的に当該撮像画像にはノイズ成分が混入している場合が多い。このノイズに相当する微小部位の色彩異変に対しては例えばその周囲の色彩に合わせる、または、平均化する等のノイズ除去処理を行うことによって、当該ノイズを除去することが好ましい。
次に、デコード処理部103は、色領域区分け処理によって区分けされた各色領域に基づいて複数の構成色(赤色、緑色及び青色)の領域が配列されてなるカラービットコードの領域(以下、コード領域と表記)を切り出す処理(以下、コード切り出し処理と表記)を実行する。このコード切り出し処理においては、各色領域の周囲の色彩(例えば、他の構成色の領域及び無彩色の領域の配置等)やカラービットコードを構成するセルの数等に基づいてコード領域が切り出される。
なお、上記した色領域区分け処理及びコード切り出し処理については、例えば特開2008−287414号公報等に開示されているため、ここではその詳細な説明については省略する。
次に、デコード処理部103は、撮像画像に含まれるカラービットコードの有効性を検証する処理を実行する。具体的には、コード切り出し処理によって撮像画像から切り出されたコード領域において配列されている複数の色領域の数が予め規定されているカラービットコードにおいて配列されるセル20の数と一致する場合には、撮像画像に含まれるカラービットコードが有効であると判定する。一方、コード切り出し処理によって撮像画像から切り出されたコード領域において配列されている複数の色領域の数が予め規定されているカラービットコードを構成するセル20の数と一致しない場合には、撮像画像に含まれるカラービットコードが有効でないと判定する。
ここでは、カラービットコードの有効性の検証に予め規定されているセル20の数を用いるものとして説明したが、当該検証にカラービットコードにおいて有効な色彩(セル)の配列に関するルール等が用いられても構わない。すなわち、上記した撮像画像から切り出されたコード領域において配列されている複数の色領域(色彩)の順番(配列)がルールに合致する場合には撮像画像に含まれるカラービットコードが有効であると判定され、当該ルールに合致しない場合には当該カラービットコードが有効でないと判定されるようにしてもよい。
ここで説明したカラービットコードの有効性の検証処理は一例であり、他の処理によってカラービットコードの有効性が検証されても構わない。具体的には、チェックディジット等により有効性(整合性)が検証されても構わない。
カラービットコードが有効であると判定された場合、デコード処理部103は、コード切り出し処理によって撮像画像から切り出されたコード領域において配列されている複数の色領域における色彩の遷移(つまり、当該複数の色領域の順番)に基づいてカラービットコードをデコードする。これによれば、カラービットコードにおける例えば始点セル20から終点セル20までの色彩の遷移によって表される識別情報が取得される。一方、カラービットコードが有効でないと判定された場合には、例えばユーザに対してカラービットコードをデコードすることができない旨が通知されて、処理が終了される。
上述したようにデコード処理部103によるデコード処理が実行されると、表示画像生成部104は、デコード処理部103によって取得された識別情報に対応づけて格納部101に格納されている3次元オブジェクト画像(つまり、当該識別情報に対応する3次元オブジェクト画像)を取得する(ステップS3)。
次に、表示画像生成部104は、撮像画像取得部102によって取得された撮像画像上における当該撮像画像に含まれるカラービットコードの両端(に位置する端点セル20)の位置を抽出する(ステップS4)。
更に、既述のように端点セル(に付された色彩)は識別可能であり、当該端点セルが始点セルであるか終点セルであるかは認識され得る。これにより、表示画像生成部104は、例えば上述した撮像画像から切り出されたコード領域において配列されている複数の色領域(つまり、複数のセル20)の中からカラービットコードの両端に該当する2つセル20(始点セル20及び終点セル20)を抽出する。この場合、表示画像生成部104は、抽出された始点セル20の位置(座標)及び終点セル20の位置(座標)を取得する。
表示画像生成部104は、抽出されたカラービットコードの両端の位置(つまり、始点セル20の位置及び終点セル20の位置)に基づいて、撮像画像上における当該カラービットコードの向きを算出する(ステップS5)。なお、画像表示装置10内部においては、現実空間に配置される(つまり、カメラによって撮像される)カラービットコードの形状(及び大きさ)の情報が予め保持されているものとする。これにより、表示画像生成部104は、始点セル20の位置及び終点セル20の位置からカラービットコードの向きを算出することが可能となる。
なお、画像表示装置10内部には、上記したカラービットコードの形状及び大きさの情報以外に、当該画像表示装置10に備えられるカメラの画角(つまり、当該カメラによる撮像範囲)に関する情報等も予め保持されている。
ここで、ARマーカとして一般的に利用されている例えば略正方形状の所定の範囲内に白の領域と黒の領域とが配置されることによって構成されるマーク(以下、ARマークと表記)の場合、当該ARマークの例えば4隅の点(の位置)を抽出することによって当該マークに対する画像表示装置10の位置(角度)を検出することができる。これにより、ARマークと画像表示装置10の位置関係とに応じて3次元オブジェクト画像の向き等を変えることができる。
これに対して、本実施形態においてARマーカとして利用されるカラービットコードからは上述したように当該カラービットコードの両端(始点セル20及び終点セル20)の位置しか抽出することができない。この場合、撮像画像からは上述したように当該撮像画像上におけるカラービットコードの向きは算出することができるものの、当該カラービットコードに対する画像表示装置10の位置(相対位置)までは算出することができない。
そこで、本実施形態に係る画像表示装置10においては、カメラによって撮像されたカラービットコードに対する画像表示装置10の位置を算出するために、当該画像表示装置10に備えられている加速度センサ18を用いる。
この場合、表示画像生成部104は、加速度センサ18によって検出された加速度(画像表示装置10に対して作用する重力加速度)を取得する。これにより、表示画像生成部104は、取得された重力加速度に基づいて画像表示装置10(に備えられるカメラ)の傾きを検出(算出)する(ステップS6)。
表示画像生成部104は、ステップS4において抽出されたカラービットコードの両端の位置(つまり、撮像画像上におけるカラービットコードの位置)、ステップS6において検出された画像表示装置10の傾き、画像表示装置10内に予め保持されている情報(カラービットコードの形状及び大きさの情報、画像表示装置10に備えられているカメラの画角に関する情報等)に基づいて、カラービットコードに対する画像表示装置10(に備えられるカメラ)の相対位置を算出する(ステップS7)。
表示画像生成部104は、ステップS5において算出された撮像画像上におけるカラービットコードの向き及びステップS7において算出されたカラービットコードに対する画像表示装置10の相対位置に基づいて、ステップS3において取得された3次元オブジェクト画像の向きを変化させた表示画像(3次元オブジェクト画像)を生成する(ステップS8)。この場合において、表示画像生成部104によって生成される表示画像は、例えばカラービットコードの向きに対応する方向を向いた3次元オブジェクトを、当該カラービットコードに対する画像表示装置10の相対位置から見たような画像である。なお、この場合における3次元オブジェクト(画像)の大きさは、上記したカラービットコードに対する画像表示装置10の相対位置に基づいて定められればよい。具体的には、カラービットコードから画像表示装置10までの距離が遠い場合にはより小さい3次元オブジェクト(画像)が表示されるようにし、当該カラービットコードから画像表示装置10までの距離が近い場合にはより大きな3次元オブジェクト(画像)が表示されるようにすることができる。
すなわち、表示画像生成部104によって生成される表示画像(つまり、3次元オブジェクト画像の向き)は、カラービットコードと画像表示装置10との位置関係に応じて変化する。
画像表示処理部105は、ステップS8において生成された表示画像を、ステップS1において取得された撮像画像上に重畳表示する(ステップS9)。具体的には、表示画像は、撮像画像に含まれるカラービットコード上に表示される。なお、表示画像は、撮影画像に含まれるカラービットコード上以外(例えば、当該カラービットコードの近傍等)に表示されても構わない。
上述したように、図5に示す処理によれば、例えば線状に形成されたカラービットコードをARマーカとして利用した場合であっても、当該カラービットコードと画像表示装置10との位置関係に応じて向きを変化させた3次元オブジェクト画像を撮像画像(に含まれるカラービットコード)上に表示することができる。
なお、図5に示す処理は、カラービットコード(が配置された現実空間)がカメラによって撮像される(すなわち、撮像画像が取得される)度に実行される。
また、ここでは撮像画像に含まれるカラービットコード(つまり、撮像画像から切り出されるコード領域)の数は1つであるものとして主に説明したが、当該撮像画像内に複数のカラービットコードが含まれている場合には、当該カラービットコードの各々に対してステップS2〜S9の処理が実行されればよい。
以下、図6〜図9を参照して、表示画像の表示態様の一例について説明する。図6は、カラービットコードが配置された現実空間を表す図である。なお、図6〜図9を用いた説明においては、カラービットコードの両端に該当する2つのセル20を始点セル20a及び終点セル20bとする。
図6に示すように現実空間に配置されたカラービットコードが矢印201の方向からカメラによって撮像された場合には、図7に示すように、所定のキャラクタの3次元オブジェクト画像211が当該カラービットコード上に表示される。具体的には、図7に示す例では、例えば直線状に形成されたカラービットコードにおける始点セル20aを右側、終点セル20bを左側とする向きを向いた3次元オブジェクトを、矢印201の方向から見たような3次元オブジェクト画像211(つまり、当該3次元オブジェクトの正面を少し上から見たような画像)が表示されている。
一方、図6に示すように現実空間に配置されたカラービットコードが矢印202の方向からカメラによって撮像された場合には、図8に示すように、所定のキャラクタの3次元オブジェクト画像212が当該カラービットコード上に表示される。具体的には、図8に示す例では、図7と同様にカラービットコードにおける始点セル20aを右側、終点セル20bを左側とする向きを向いた3次元オブジェクトを、矢印202の方向から見たような3次元オブジェクト画像212(つまり、当該3次元オブジェクトの左側面を少し上から見たような画像)が表示されている。
なお、例えばカラービットコードが近接して複数配置されているような場合において、当該複数のカラービットコードがカメラによって撮像された場合には、図9に示すように、当該複数のカラービットコードの各々の上に3次元オブジェクト画像213及び214が重なるように表示される。
上記したように本実施形態においては、カメラによって撮像されたカラービットコード(光学式認識コード)を含む撮影画像を取得し、当該取得された撮影画像に含まれるカラービットコードによって表される識別情報に対応する3次元オブジェクト画像を、当該撮像画像上(例えば、カラービットコード上)に重畳表示する。この撮像画像上に重畳表示される3次元オブジェクト画像の向きは、撮像画像上におけるカラービットコードの向き及びカメラの傾きに基づいて決定される。
具体的には、撮像画像上におけるカラービットコードの両端に位置する始点セル20及び終点セル20の位置に基づいてカラービットコードの向きを算出し、加速度センサ18を用いて検出されたカメラの傾きに基づいてカラービットコードに対するカメラの相対位置を算出し、当該カラービットコードの向き及び当該カメラの相対位置に基づいて3次元オブジェクト画像の向きを変化させた表示画像を生成する。
すなわち、本実施形態においては、カメラの位置(角度)に応じて、様々な角度からの3次元オブジェクト(画像)を表示することが可能となる。
本実施形態においては、このような構成により、ARマーカとして一般的に利用されている略正方形状の所定の範囲内に白の領域と黒の領域とが配置されることによって構成されるARマーク等と比較してより柔軟性の高いカラービットコードをARマーカとして利用することが可能となる。
例えば、上記したARマークを利用する場合にはある程度の大きさのARマークを用意する必要があるのに対して、カラービットコードは当該カラービットコードが占める領域の大きさ及び形状の制限が緩い。このため、本実施形態によれば、例えば上述した図9に示すように複数のセル20を直線状に配列した複数のカラービットコードを並べて配置することによって、複数の3次元オブジェクト(画像)を重なるように表示することも可能である。
また、カラービットコードは高い読み取り精度を実現することが可能であるため、例えば上記したARマークでは読取不能な位置からであっても当該カラービットコードであれば読み取ることができる場合がある。すなわち、カラービットコードは、ARマークと比較して読み取り可能な範囲が広い。また、本実施形態においては、カラービットコードを読み取ることさえできれば、3次元オブジェクト画像を表示させることができる。よって、本実施形態によれば、ARマークを利用する場合と比較してより広い範囲でAR(技術)を利用することが可能となる。
すなわち、本実施形態によれば、スマートフォンのような画像表示装置10が有する加速度センサ18を用いることによってカラービットをARマーカとして利用することが可能となるため、AR技術を利用する場合においても、一般的なARマークと比較して有利なカラービットコードの特長を活かすことができる(つまり、カラービットコードの利益を享受することができる)。
なお、本実施形態に係る画像表示装置10の利用態様としては種々のものが想定される。近年ではカードゲームが世界的に普及しているが、カードゲームにおいて用いられるカード(の端等)にカラービットコードを付して、本実施形態に係る画像表示装置10を使用することができる。この場合には、カード(に付されているカラービットコード)を画像表示装置10に備えられたカメラで撮像することによって、例えば当該撮像された撮像画像上において例えば当該カードに対応するキャラクタの3次元画像(映像)を重畳表示することができる。このように本実施形態に係る画像表示装置10をカードゲームにおいて利用した場合には、当該カードゲームの興趣性を飛躍的に向上させることが可能となる。
更に、大きなカラービットコードをARマーカとして利用する場合には、例えば人の横(の床面等)に当該カラービットコードを配置して、画像表示装置10を使用することができる。この場合には、人及びカラービットコードの両方がカメラの画角内に含まれるように撮像することによって、例えば当該撮像された撮像画像上において等身大のキャラクタの3次元画像を重畳表示することができる。これによれば、撮像画像内において人が等身大のキャラクタと肩を組んだり、握手したりした状態を画像表示装置10上で表示し、必要に応じて当該画像を保存することができる。また、部屋等に複数のカラービットコードを配置して画像表示装置10を使用した場合には、当該部屋を画像表示装置10に備えられたカメラで撮像することによって、当該撮像された撮像画像(つまり、部屋の画像)上において所望の家具等が配置(表示)された画像を得るようなことも可能となる。
また、例えば博物館の展示品の近傍に設けられている表示板の隅にカラービットコードを付して、画像表示装置10を使用することができる。この場合には、表示板(に付されているカラービットコード)を画像表示装置10に備えられているカメラで撮像することによって、例えば展示品に関する説明用の3次元画像(映像)を表示することができる。
また、例えば街中の看板(またはポスター)等の隅にカラービットコードを印字して、画像表示装置10を使用することができる。この場合には、ポスター(に印字されているカラービットコード)を画像表示装置10に備えられているカメラで撮像することによって、例えば当該看板の位置(つまり、画像表示装置10を使用するユーザの位置)や当該看板周辺の情報を3次元画像として表示することができる。カラービットコードは、バーコード及びQRコード(登録商標)と異なり、読み込むために接近する必要がない点で大きな利点がある。
また、例えば3色のLEDを利用した看板(以下、LED看板と表記)が普及しているが、当該LED看板における3色を構成色とするカラービットコードをデザイン化して当該LED看板の一部に表示して、画像表示装置10を使用することができる。この場合には、LED看板の一部に表示されたカラーヒットコードを画像表示装置10に備えられているカメラで撮像することによって、画像表示装置10上(つまり、撮像画像上)で様々な情報を3次元画像として表示することができる。更に、例えば角度を変えると異なる画像を表示するようなことも可能である。
なお、本実施形態においては、画像表示装置10に備えられるカメラによって撮像される(読み取られる)カラービットコード(によって表される識別情報)に対応する3次元オブジェクト画像が当該画像表示装置10内(格納部101)に格納されているものとして説明したが、当該3次元オブジェクト画像は、画像表示装置10の外部のサーバ装置等に格納されていてもよい。この場合、画像表示装置10は、カラービットコードを読み取ることによって取得された識別情報をサーバ装置に送信し、当該識別情報に対応する3次元オブジェクト画像を当該サーバ装置から取得すればよい。
また、本実施形態においてはARマーカとしてカラービットコードを利用するものとして説明したが、本実施形態は、コードの両端(つまり、2点)の位置を抽出可能なコードであれば、例えばバーコード、二次元コード及びグリッド型カラーコードのような他のコードを利用することも可能である。更に、本実施形態は、カラービットコードのように複数のエレメントが線状(棒状)に形成されたコードのみではなく、任意の2点の表示のみを利用して3次元画像を表示することも可能である。
なお、本願発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組合せてもよい。
10…画像表示装置、11…バス、12…不揮発性メモリ、13…CPU、14…メインメモリ、15…無線通信部、16…ディスプレイ、17…タッチパネル、18…加速度センサ、101…格納部、102…撮像画像取得部、103…デコード処理部、104…表示画像生成部、105…画像表示処理部
本発明の1つの態様によれば、カメラによって撮像された、それぞれ区別可能な始点エレメント及び終点エレメントが両端に位置するように複数のエレメントが線状に形成されることによって識別情報を表す光学式認識コードを含む撮像画像を取得する取得手段と、前記取得された撮像画像に含まれる光学式認識コードによって表される識別情報に対応する3次元オブジェクト画像を、当該撮像画像上に重畳表示する表示処理手段とを具備し、前記撮像画像上に重畳表示される3次元オブジェクト画像の向きは、前記撮像画像上における前記始点エレメント及び前記終点エレメントの位置に基づいて算出される前記光学式認識コードの向き前記カメラの傾きに基づいて決定されることを特徴とする画像表示装置が提供される。

Claims (6)

  1. カメラによって撮像された、複数のエレメントが線状に形成されることによって識別情報を表す光学式認識コードを含む撮像画像を取得する取得手段と、
    前記取得された撮像画像に含まれる光学式認識コードによって表される識別情報に対応する3次元オブジェクト画像を、当該撮像画像上に重畳表示する表示処理手段と
    を具備し、
    前記撮像画像上に重畳表示される3次元オブジェクト画像の向きは、前記撮像画像上における前記光学式認識コードの向き及び前記カメラの傾きに基づいて決定される
    ことを特徴とする画像表示装置。
  2. カメラによって撮像された、複数のエレメントが線状に形成されることによって識別情報を表す光学式認識コードを含む撮像画像を取得する第1の取得手段と、
    前記第1の取得手段によって取得された撮像画像に含まれる光学式認識コードを読み取ることによって、当該光学式認識コードによって表される識別情報を取得する第2の取得手段と、
    前記第2の取得手段によって取得された識別情報に対応する3次元オブジェクト画像を取得する第3の取得手段と、
    前記撮像画像上における前記線状に形成された光学式認識コードの両端に位置するエレメントの位置を抽出する抽出手段と、
    前記抽出された光学式認識コードの両端に位置するエレメントの位置に基づいて前記撮像画像上における当該光学式認識コードの向きを算出する第1の算出手段と、
    前記カメラの傾きを検出する検出手段と、
    前記検出されたカメラの傾きに基づいて前記光学式認識コードに対する前記カメラの相対位置を算出する第2の算出手段と、
    前記第1の算出手段によって算出された前記撮像画像上における前記光学式認識コードの向き及び前記第2の算出手段によって算出された前記カメラの相対位置に基づいて、前記第3の取得手段によって取得された3次元オブジェクト画像の向きを変化させた表示画像を生成する生成手段と、
    前記生成された表示画像を、前記撮像画像上に重畳表示する表示処理手段と
    を具備することを特徴とする画像表示装置。
  3. 前記光学式認識コードは、3以上の色彩のうちの1の色彩が付されたセルが複数配列されてなるコードを含むことを特徴とする請求項2記載の画像表示装置。
  4. 前記表示処理手段は、前記生成された表示画像を、前記撮像画像に含まれる光学式認識コード上に表示することを特徴とする請求項3記載の画像表示装置。
  5. 画像表示装置が実行する画像表示方法であって、
    カメラによって撮像された、複数のエレメントが線状に形成されることによって識別情報を表す光学式認識コードを含む撮像画像を取得するステップと、
    前記取得された撮像画像に含まれる光学式認識コードによって表される識別情報に対応する3次元オブジェクト画像を、当該撮像画像上に重畳表示するステップと
    を具備し、
    前記撮像画像上に重畳表示される3次元オブジェクト画像の向きは、前記撮像画像上における前記光学式認識コードの向き及び前記カメラの傾きに基づいて決定される
    ことを特徴とする画像表示方法。
  6. 画像表示装置のコンピュータによって実行されるプログラムであって、
    前記コンピュータに、
    カメラによって撮像された、複数のエレメントが線状に形成されることによって識別情報を表す光学式認識コードを含む撮像画像を取得するステップと、
    前記取得された撮像画像に含まれる光学式認識コードによって表される識別情報対応する3次元オブジェクト画像を、当該撮像画像上に重畳表示するステップと
    を実行させ、
    前記撮像画像上に重畳表示される3次元オブジェクト画像の向きは、前記撮像画像上における前記光学式認識コードの向き及び前記カメラの傾きに基づいて決定される
    ことを特徴とするプログラム。
JP2014208822A 2014-10-10 2014-10-10 画像表示装置、画像表示方法及びプログラム Active JP5812550B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014208822A JP5812550B1 (ja) 2014-10-10 2014-10-10 画像表示装置、画像表示方法及びプログラム
US14/878,623 US20160104323A1 (en) 2014-10-10 2015-10-08 Image display device and image display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014208822A JP5812550B1 (ja) 2014-10-10 2014-10-10 画像表示装置、画像表示方法及びプログラム

Publications (2)

Publication Number Publication Date
JP5812550B1 JP5812550B1 (ja) 2015-11-17
JP2016081110A true JP2016081110A (ja) 2016-05-16

Family

ID=54595835

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014208822A Active JP5812550B1 (ja) 2014-10-10 2014-10-10 画像表示装置、画像表示方法及びプログラム

Country Status (2)

Country Link
US (1) US20160104323A1 (ja)
JP (1) JP5812550B1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018043732A1 (ja) * 2016-08-31 2018-03-08 カシオ計算機株式会社 オブジェクト表示システム、ユーザ端末装置、オブジェクト表示方法及びプログラム
JP6345295B1 (ja) * 2017-03-29 2018-06-20 株式会社ナビット 翻訳システム
JP2019045325A (ja) * 2017-09-04 2019-03-22 株式会社島津ビジネスシステムズ 気象分布表示装置、気象分布表示方法および気象分布表示プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
RU2702495C1 (ru) * 2019-03-13 2019-10-08 Общество с ограниченной ответственностью "ТрансИнжКом" Способ и система сбора информации для устройства совмещенной реальности в режиме реального времени
CN115439615B (zh) * 2022-11-07 2023-02-17 山东济矿鲁能煤电股份有限公司阳城煤矿 一种基于三维bim的分布式综合管理系统

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030076980A1 (en) * 2001-10-04 2003-04-24 Siemens Corporate Research, Inc.. Coded visual markers for tracking and camera calibration in mobile computing systems
JP2004287699A (ja) * 2003-03-20 2004-10-14 Tama Tlo Kk 画像合成装置及びその合成方法
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
JP2009289066A (ja) * 2008-05-29 2009-12-10 B-Core Inc 位置特定方法及び色彩特定方法及びid作成方法
US8400548B2 (en) * 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
KR101325757B1 (ko) * 2010-07-09 2013-11-08 주식회사 팬택 가상 마커 생성을 이용한 증강 현실 제공 장치 및 방법
EP2608153A1 (en) * 2011-12-21 2013-06-26 Harman Becker Automotive Systems GmbH Method and system for playing an augmented reality game in a motor vehicle
US9293118B2 (en) * 2012-03-30 2016-03-22 Sony Corporation Client device
JP2014071838A (ja) * 2012-10-01 2014-04-21 Dainippon Printing Co Ltd 画像処理装置およびカードゲーム具
US9336629B2 (en) * 2013-01-30 2016-05-10 F3 & Associates, Inc. Coordinate geometry augmented reality process
US9928652B2 (en) * 2013-03-01 2018-03-27 Apple Inc. Registration between actual mobile device position and environmental model
JP6323040B2 (ja) * 2014-02-12 2018-05-16 株式会社リコー 画像処理装置、画像処理方法およびプログラム

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018043732A1 (ja) * 2016-08-31 2018-03-08 カシオ計算機株式会社 オブジェクト表示システム、ユーザ端末装置、オブジェクト表示方法及びプログラム
JP2018036869A (ja) * 2016-08-31 2018-03-08 カシオ計算機株式会社 オブジェクト表示システム、ユーザ端末装置、オブジェクト表示方法及びプログラム
US10831436B2 (en) 2016-08-31 2020-11-10 Casio Computer Co., Ltd. Object display system, user communication device, and object display method and program
JP6345295B1 (ja) * 2017-03-29 2018-06-20 株式会社ナビット 翻訳システム
JP2018169677A (ja) * 2017-03-29 2018-11-01 株式会社ナビット 翻訳システム
JP2019045325A (ja) * 2017-09-04 2019-03-22 株式会社島津ビジネスシステムズ 気象分布表示装置、気象分布表示方法および気象分布表示プログラム

Also Published As

Publication number Publication date
JP5812550B1 (ja) 2015-11-17
US20160104323A1 (en) 2016-04-14

Similar Documents

Publication Publication Date Title
JP5812550B1 (ja) 画像表示装置、画像表示方法及びプログラム
US11195307B2 (en) Image processing apparatus, image processing method, and program
JP5739671B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
CN103189827B (zh) 对象显示装置以及对象显示方法
US10186084B2 (en) Image processing to enhance variety of displayable augmented reality objects
JP5778967B2 (ja) 情報処理プログラム、情報処理方法、情報処理装置および情報処理システム
CN111937046A (zh) 混合现实系统、程序、方法和便携式终端装置
JP2009020614A (ja) 複合現実感システムに用いるマーカユニット、複合現実感システム、マーカユニット作成支援システム、及び、マーカユニット作成支援プログラム
JP6224327B2 (ja) 情報処理システム、情報処理装置、情報処理方法、および情報処理用プログラム
JP5735861B2 (ja) 画像表示プログラム、画像表示装置、画像表示方法、画像表示システム、マーカ
CN103198286B (zh) 信息处理终端、信息处理方法和程序
US20240071016A1 (en) Mixed reality system, program, mobile terminal device, and method
CN110737414B (zh) 交互显示方法、装置、终端设备及存储介质
CN110737326A (zh) 虚拟对象的显示方法、装置、终端设备及存储介质
JP2012216074A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2006072669A (ja) 画像処理装置、ゲーム装置および画像処理方法
CN110598605B (zh) 定位方法、装置、终端设备及存储介质
KR101100036B1 (ko) 코드 타입 마커
JP6296319B1 (ja) 情報処理装置、表示方法、読取方法、およびコンピュータ読み取り可能な非一時的記憶媒体
JP2020057430A (ja) 複合現実システム、プログラム、携帯端末装置、及び方法
JP2019175326A (ja) プログラム、記録媒体及び画像生成方法
JP2011123748A (ja) 携帯端末、描画システム及び描画方法
KR20180090140A (ko) 실물 작품을 이용한 모션 기능을 갖는 가상 작품 생성 장치 및 방법

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150914

R150 Certificate of patent or registration of utility model

Ref document number: 5812550

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250