JP6371547B2 - 画像処理装置、方法、および、プログラム - Google Patents

画像処理装置、方法、および、プログラム Download PDF

Info

Publication number
JP6371547B2
JP6371547B2 JP2014059304A JP2014059304A JP6371547B2 JP 6371547 B2 JP6371547 B2 JP 6371547B2 JP 2014059304 A JP2014059304 A JP 2014059304A JP 2014059304 A JP2014059304 A JP 2014059304A JP 6371547 B2 JP6371547 B2 JP 6371547B2
Authority
JP
Japan
Prior art keywords
image
projected
projection
display unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014059304A
Other languages
English (en)
Other versions
JP2015184838A (ja
Inventor
大木 光晴
光晴 大木
Original Assignee
大木 光晴
光晴 大木
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 大木 光晴, 光晴 大木 filed Critical 大木 光晴
Priority to JP2014059304A priority Critical patent/JP6371547B2/ja
Publication of JP2015184838A publication Critical patent/JP2015184838A/ja
Application granted granted Critical
Publication of JP6371547B2 publication Critical patent/JP6371547B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Description

本技術は、ユーザに対して画像を適切に表示させる方法、装置、並びに、プログラムに関する。
近年、拡張現実感(AR:Augmented Reality)を用いたアプリケーションが実現されてきている。たとえば、スマートフォンやタブレットPCを用いて、紙面などの対象物体を撮影すると、撮影された画像の中に、情報を重畳させて表示させるアプリケーションである。より具体的には、株式会社中日新聞社東京本社が提供する「東京AR」というアプリケーションである。また、非特許文献1のFigure 1にも、同様のアプリケーションの例が記載されている。さらに、特許文献1にも同様のアプリケーションが開示されている。
これらアプリケーションの具体的な使用手順を、図を用いて説明する。
図1の(ア)内の100が従来のAR装置(具体的にはスマートフォンあるいはタブレットPCなど)である。AR装置100には、画像表示部110と、撮像部120を有している。撮像部120は、画像表示部110に対して反対側に設置されており、図中には見えていない。撮像部120により、4つの点線130、131、132および133で示した範囲の内側が撮影される。ちなみに、4つの点線で示した範囲の内側を視野角という。また、200は紙面である。紙面とは、たとえば、雑誌の特定の1ページである。あるいは、新聞紙の一面である。あるいは、街中のポスターである。図1の(ア)では、紙面200に、自動車の写真が掲載されている例を示している。ユーザが、撮像部120を用いて、紙面200を撮影すると、AR装置100は、画像を解析して、所望の処理を行い、画像表示部110に画像と情報を表示する。すなわち、撮像部120により撮影された画像300(図1の(イ))は、画像表示部110にて表示され、さらに、情報310(図1の(ウ))も重畳して表示される。図1の例では、情報310は、「展示場で試乗できます」というテキスト情報である。図1の(ア)の画像表示部110には、このような画像300と情報310を表示している状況を示している。
図1の(ア)の400は、ユーザの目を示している。図1の(ア)は、ユーザが、画像表示部110を見ている場面である。
ユーザの目400から見える光景を、図2に示す。ユーザからは、図2に示すように、AR装置100が見える。AR装置100内の画像表示部110には、画像300および情報310が見える。また、AR装置100の外側には、実世界の風景が見える。すなわち、紙面200が見える。図2において、紙面200と、画像表示部110内の画像300とは、一体感がない。これは、対象物体である自動車の大きさが違うからである。
仮に、撮影された画像300の一部分のみ(図1の(イ)の320で示された点線矩形領域)を画像表示部110に表示させる場合を考えてみよう。この場合、情報310も、図1の(イ)の330の部分のみを画像表示部110に表示させる。画像300に対する部分画像320の位置関係と、情報310に対する部分情報330の位置関係は同じとする。この場合、ユーザの目400から見える光景を、図3に示す。ユーザからは、図3に示すように、AR装置100が見える。AR装置100内の画像表示部110には、部分画像320および部分情報330が見える。また、AR装置100の外側には、実世界の風景が見える。すなわち、紙面200が見える。図2と違い、紙面200と、画像表示部110内の画像320とは、一体感がある。これは、同じ大きさだからである。あたかも、画像表示部110は透明なガラスのようであり、画像表示部110の部分は、透明なガラスを通して、紙面200を直接見ているかのような錯覚をユーザに起こさせることができるので、一体感を感じる。そして、透明なガラス部分に、部分情報330が書かれているように感じる。
撮影された画像300の全体を画像表示部110に表示させるのではなく、画像300の適切な一部分(部分画像320)を表示させることで、実際の風景に対して、一体感のある画像表示をすることができる。しかしながら、表示するために適切な部分画像の領域は、ユーザの目400と画像表示部110と紙面200の位置関係に依存するため、それら位置関係が不明である以上、適切な部分画像を求めることができなかった。すなわち、図3に示すような光景を提示することは不可能であった。
以上をまとめると、従来技術では、ユーザの目400から見えるAR装置100は、実際の風景に対して、一体感のある画像表示をすることができなかったという欠点があった。
特開2012−195732号公報
Schmalstieg, Dieter, and Daniel Wagner. "Mobile phones as a platform for augmented reality." connections 1 (2009): 3.
前述のとおり、特許文献1や非特許文献1に記載の技術を用いることで、拡張現実感(AR:Augmented Reality)を実現できるが、表示に関しては一体感がなかった。
本技術は、このような状況に鑑みてなされたものであり、一体感のある画像表示をさせるようにするものである。
本技術の一側面の画像表示装置は、画像表示部と第1の撮像部を有する画像処理装置であって、上記第1の撮像部から撮影された第1の画像から、「上記画像処理装置が投影されている物体」の投影像(第1の投影像と呼ぶ)を検出する第1の検出部と、上記第1の投影像の中から上記画像処理装置の投影像(第2の投影像と呼ぶ)と、上記第1の投影像の中から上記第2の投影像の外側に投影されている風景の投影像(第3の投影像と呼ぶ)の2つの投影像を求める第2の検出部と、上記第2の投影像と第3の投影像の位置関係に依存して、切り出し領域を決定する領域決定部と、第2の画像から上記切り出し領域に対応する部分を切り出し、上記画像表示部に表示させる画像表示制御部とを備える。これにより、一体感のある画像表示を可能とする。
特に、上記「上記画像処理装置が投影されている物体」とは、人の目、あるいは、人が装着している眼鏡のレンズ部分であることを特徴とすると良い。これにより、一体感のある画像表示を可能とする。
さらに、第2の撮像部を有し、上記第2の画像とは、上記第2の撮像部で撮影された画像であることを特徴とすると良い。これにより、一体感のある画像表示を可能とする。
本技術の一側面の画像表示方法は、画像表示部と第1の撮像部を有する装置にて画像表示を行う画像処理方法であって、上記第1の撮像部から撮影された第1の画像から、「上記画像処理装置が投影されている物体」の投影像(第1の投影像と呼ぶ)を検出する第1の検出ステップと、上記第1の投影像の中から上記画像処理装置の投影像(第2の投影像と呼ぶ)と、上記第1の投影像の中から上記第2の投影像の外側に投影されている風景の投影像(第3の投影像と呼ぶ)の2つの投影像を求める第2の検出ステップと、上記第2の投影像と第3の投影像の位置関係に依存して、切り出し領域を決定する領域決定ステップと、第2の画像から上記切り出し領域に対応する部分を切り出し、上記画像表示部に表示させる画像表示制御ステップとを含む。これにより、一体感のある画像表示を可能とする。
本技術の一側面のプログラムは、画像表示部と第1の撮像部を有する装置にて画像表示を行う画像処理プログラムであって、上記第1の撮像部から撮影された第1の画像から、「上記画像処理装置が投影されている物体」の投影像(第1の投影像と呼ぶ)を検出する第1の検出ステップと、上記第1の投影像の中から上記画像処理装置の投影像(第2の投影像と呼ぶ)と、上記第1の投影像の中から上記第2の投影像の外側に投影されている風景の投影像(第3の投影像と呼ぶ)の2つの投影像を求める第2の検出ステップと、上記第2の投影像と第3の投影像の位置関係に依存して、切り出し領域を決定する領域決定ステップと、第2の画像から上記切り出し領域に対応する部分を切り出し、上記画像表示部に表示させる画像表示制御ステップとを含む。これにより、一体感のある画像表示を可能とする。
本技術の一側面においては、画像表示部と第1の撮像部を有する装置にて画像表示を行うものであり、上記第1の撮像部から撮影された第1の画像から、「上記画像処理装置が投影されている物体」の投影像(第1の投影像と呼ぶ)を検出し、そして、上記第1の投影像の中から上記画像処理装置の投影像(第2の投影像と呼ぶ)と、上記第1の投影像の中から上記第2の投影像の外側に投影されている風景の投影像(第3の投影像と呼ぶ)の2つの投影像を求め、さらに、上記第2の投影像と第3の投影像の位置関係に依存して、切り出し領域を決定し、そして、第2の画像から上記切り出し領域に対応する部分を切り出し、上記画像表示部に表示させる。これにより、一体感のある画像表示を可能とする。
本技術の一側面によれば、一体感のある画像を表示させることができる。
従来の装置を説明するための図である。 従来の装置による一体感のない表示状態を説明するための図である。 一体感のある理想的な表示方法を説明するための図である。 本発明の実施例の装置を説明するための図である。 本発明の実施例の装置の各部の位置関係を説明するための図である。 対象とする紙面を説明するための図である。 本発明の第1の実施例において、本発明の実施例の装置にダウンロードされる画像および情報を説明するための図である。 本発明の第1の実施例において、ユーザの瞳に投影された画像を説明するための図である。 本発明の第1の実施例での処理を説明するフローチャートである。 本発明の第1の実施例を説明する図である。 本発明の第1の実施例を説明する図である。 本発明の第1の実施例を説明する図である。 本発明の第1の実施例を説明する図である。 本発明の第1の実施例を説明する図である。 本発明の第1の実施例の改良に関する説明図である。 本発明の第2の実施例での処理を説明するフローチャートである。 本発明の第2の実施例を説明する図である。 本発明の第2の実施例を説明する図である。
<第1の実施例>
図4に本発明の実施例であるAR装置10を示す。なお、この実施例においては、ARの体験をユーザに提供する画像処理装置に関するものであり、以降では、AR装置と命名して述べていく。AR装置10には、Central Processing Unit(CPU、中央演算処理部)11と、操作部12と、画像表示部13と、メモリ14と、第1の撮像部(内向き撮像部)15と、第2の撮像部(外向き撮像部)16と、ネットワークインターフェース部17とを有し、さらに、11乃至17間でのデータのやりとりを行うことができるようにバス18も有している。
このようなAR装置のハードウエア構成は、米IBM社のパーソナル・コンピュータ「P C/ A T( P e r s o n a l C o m p u t e r / A d v a n c e d T e c h n o l o g y)」の互換機又は後継機を採用することができる。勿論、他のアーキテクチャを備えたコンピュータを採用しても良い。また、通常、メモリ14には、オペレーティング・システムが格納されており、このオペレーティング・システム上で、本発明の第1の実施例の処理(以降、AR動作と呼ぶことにする)を行うプログラムが実行される。AR動作を行うプログラムも、あらかじめ、メモリ14上に格納されている。CPU11は、各種演算処理を実行できる。操作部12から、ユーザは各種命令をAR装置10に対して、与えることができる。操作部12は、画像表示装置13と一体化されており、タッチパネルによる入力ができるようにしても良い。画像表示部13には、画像や情報を表示できる。メモリ14には、AR動作を行うプログラムのほか、CPU11で計算されたデータ、第1の撮像部(内向き撮像部)15で撮影された画像、第2の撮像部(外向き撮像部)16で撮影された画像、ネットワークインターフェース部17を介してネットワーク上のデータをダウンロードしたものなどを格納することができる。第1の撮像部(内向き撮像部)15あるいは第2の撮像部(外向き撮像部)16は、たとえば、レンズとイメージセンサより成り、外界を撮影して、画像を生成することができる。ネットワークインターフェース部17を介して、AR装置10は、インターネット等のネットワークに接続でき、インターネット上の各種情報にアクセスできる。
図5に示すように、第1の撮像部(内向き撮像部)15は、画像表示部13と同じ面に配置されており、第2の撮像部(外向き撮像部)16は、反対の面に配置されている。ユーザは、AR装置10の画像表示部13を見ながら操作を行うので、第1の撮像部(内向き撮像部)15は、ユーザの顔を撮影することが可能である。第2の撮像部(外向き撮像部)16は、AR装置10に対して、ユーザの顔とは反対側の方向を撮影できる。なお、画像表示部13、第1の撮像部(内向き撮像部)15、および、第2の撮像部(外向き撮像部)16の位置関係を見やすくするために、図5ではAR装置10の厚みを厚くして図示しているが、実際には、厚みは1〜2cmという薄さである。また、図5に示すように、画像表示部13の大きさは、横がWDであり、縦がHDであるとする。そして、画像表示部13の左側がWLだけ、右側がWRだけ、上側がHUだけ、下側がHLだけ、それぞれ大きいのが、AR装置10であるとする。
このAR装置10を用いた、具体的な使用手順を示す。
ユーザは、まず、AR動作を行いたい対象物(ポスターなどの紙面)を用意する。あるいは、街中を歩いていて、対象物を見つける。この紙面の隅には、2次元バーコード(QRコード)が描かれている。図6に、紙面の例を示しておく。図6の20が紙面であり、隅には、2次元バーコード21が記載されている。紙面20には図に示すように自動車の写真が掲載されているとする。
ユーザは、AR装置10に対して、AR動作の前処理を行うように、操作部12を介して、AR装置10に命令するとともに、AR装置10をQRコード21に向ける。AR装置10は、この命令を受けると、第2の撮像部(外向き撮像部)16により撮影を行う。そして、撮影画像の中のQRコード21を認識し、QRコード21により指定されたネットワーク上の情報付き画像データ30をダウンロードする。この情報付き画像データ30は、「紙面20と同じ画像31と、その画像上に情報32が重畳されている」という形式のデータである。情報付き画像データ30と、それを構成する画像31と情報32の例を、図7に示す。また、本実施例では、情報付き画像データ30は、静止画として、以降説明するが、アニメーションGIFなど動画でも良い。
次に、ユーザは、AR装置10を紙面20全体の方向に向ける。そして、AR装置10に対して、AR動作の開始を行うように、操作部12を介して、AR装置10に命令する。
AR装置10は、AR動作の開始を行う命令を受けると、画像表示部13の全面に白色を表示させる。全面白色にする理由は、後述するように画像表示部13の投影像を検出しやすくするためであり、検出できるのであれば、他の色を表示させても良い。そして、第1の撮像部(内向き撮像部)15により撮影を行う。撮像された画像には、ユーザの顔が写っている。AR装置では、顔認識技術や目の検出技術を使うことで、ユーザの瞳を検出する。検出方法は、たとえば、「新覚碧、渡邉恵理子、小舘香椎子 『Haar−like 特徴を用いた目検出処理による顔認証の高精度化』 平成20 年度電子情報通信学会東京支部学生会研究発表会 講演番号80」、「辻徳生、柴田真吾、長谷川勉、倉爪亮 『視線計測のためのLMedSを用いた虹彩検出法』 画像の認識・理解シンポジウム(MIRU2004) 2004 年7 月」あるいは「丸山勇人、松岡敦子 『ドライバーモニタシステムの紹介』 OKIテクニカルレビュー 第220号 Vol.79 No.2 (2012年11月)」に記載の手法を使えば良い。
画像内に瞳を検出した後は、その瞳に投影されている外界の風景を展開する。具体的には、「Ko Nishino, Shree K. Nayar: Eyes for relighting. ACM Trans. Graph. 23(3): 704-711 (2004)」あるいは「Ko Nishino, Shree K. Nayar: The World in an Eye. CVPR (1) 2004: 444-451」に記載の手法を使えば良い。なお、ここで言う「展開」とは、「Ko Nishino, Shree K. Nayar: Eyes for relighting. ACM Trans. Graph. 23(3): 704-711 (2004)」のFigure 5の左図から右図を作成することを意味する。あるいは、「Ko Nishino, Shree K. Nayar: The World in an Eye. CVPR (1) 2004: 444-451」のFigure 1からFigure 11を作成することを意味する。
ユーザは、AR装置10を見ているので、当然、瞳には、AR装置10の投影像が写っている。もちろん、その周辺には、外界である紙面20の投影像も写っている。展開した画像は、ユーザの目(瞳)から見える光景である。展開画像の例を、図8に示す。図8では、瞳の部分を上記手法により展開した画像を、展開画像IEと記している。画像IEの中には、紙面20の瞳へ投影された投影像(図には、紙面20の投影像部分と記している)、AR装置10の瞳へ投影された投影像(図には、AR装置10の投影像部分と記している)、および、画像表示部13の瞳へ投影された投影像(図には、画像表示部13の投影像部分と記している)がある。「紙面20の瞳へ投影された投影像」と「画像表示部13の瞳へ投影された投影像」の位置関係から、適切な領域を情報付き画像データ30から切り取ることが出来る。そして、切り取った画像を表示させることで、一体感のある表示をさせることが出来る。
以上が、具体的な使用手順と、その手順に沿ったAR装置10での動作の簡易説明である。
それでは、以下で、詳しく処理の流れを説明していく。
図9に本発明の第1の実施例の処理の流れを示す。
図9のステップ1で、ユーザからの前処理を行う指示を待つ。すなわち、ユーザが、操作部12を介してAR動作の前処理を行う指示をするまで、ステップ1で待ち続ける。ユーザからの前処理を行う指示が来ると、ステップ2へ進む。
ステップ2へ進む段階では、ユーザが、AR装置10をQRコード21に向けている。ステップ2では、第2の撮像部(外向き撮像部)16にて撮影を行い、そして、撮影された画像はバス18を介してCPU11へ送られる。CPU11では、この画像内のQRコード21を検出し、解析を行う。なお、QRコードの検出および解析は、既知の手法であり、その説明を省略する。QRコード21には、ネットワーク上の情報付き画像データ30の所在場所が記録されている。QRコード21の解析結果から、QRコード21により指定されたネットワーク上の情報付き画像データ30をダウンロードする。なお、ダウンロードは、ネットワークインターフェース部17を介して行われ、ダウンロードされた情報付き画像データ30は、バス18を介してメモリ14に格納される。なお、ネットワーク上にあらかじめ用意されている情報付き画像データ30は、「紙面20と同じ画像31と、その画像上に情報32が重畳されている」という形式のデータである。
ステップ2の後、ステップ3に進む。
ステップ3では、ユーザからのAR動作開始の指示を待つ。すなわち、ユーザが操作部12を介して、AR動作開始の指示をするまで、ステップ3で待ち続ける。ユーザからのAR動作開始の指示が来ると、ステップ4へ進む。
ステップ4では、画像表示部13の全面に白色を表示させる。そして、第1の撮像部(内向き撮像部)15により撮影を行う。撮像された画像は、バス18を介して、CPU11に送られる。CPU11では、従来からある顔認識手法や目の検出手法を使って、瞳の検出を行う。さらに、ステップ4では、画像内に瞳を検出した後、CPU11にて、その瞳に投影されている外界の風景を展開する。展開画像をIEとする。展開画像IEの例を、図8に示す。図8の説明は既出してあるので、省略する。
ステップ4の後、ステップ5に進む。
ステップ5では、CPU11にて、画像IEの中から、高輝度白色四角領域を検出する。この領域をAreaDispとする。これは、画像内の物体のセグメンテーション技術を使って、画素値が大きな値である四角領域を検出することで行える。この手法は既知の技術なので、詳細説明を省略する。
ステップ5により、画像IE内に投影されている画像表示装置13の投影像の位置が、AreaDispとして確定される。これは、撮影時に画像表示部13の全面を白色に表示していたからである。図8には、「画像表示部13の投影像部分」と「AreaDisp」が同じ領域となる様子を示している。
ステップ5の後、ステップ6に進む。
ステップ6では、CPU11にて、高輝度白色四角領域AreaDispの横方向の長さに対して、「WL/WD」倍した領域を左方に拡大し、「WR/WD」倍した領域を右方に拡大する。そして、高輝度白色四角領域AreaDispの縦方向の長さに対して、「HU/HD」倍した領域を上方に拡大し、「HL/HD」倍した領域を下方に拡大する。このように、上下左右に拡大した領域をAreaDeviceとする。このAreaDeviceは、画像IEの中で、AR装置10が投影されている投影像の部分と同じである。図5に示したように、AR装置10と、画像表示装置13の大きさの割合を考えれば明らかである。図8には、「AR装置10の投影像部分」と「AreaDevice」が同じ領域となる様子を示している。
ステップ6の後、ステップ7に進む。
ステップ7では、メモリ14に格納されている画像31が、バス18を介して、CPU11に送られる。そして、CPU11にて、情報付き画像データを構成している画像31(情報付き画像データ30から、情報32を除外した画像31)と、画像IE(ただしAreaDeviceの領域は除く)とのマッチングにより、画像間の位置関係を求める。画像IEには、前述のとおり、AR装置10の瞳へ投影された投影像のほかに、紙面20の瞳へ投影された投影像も写っている。そこで、AreaDeviceの領域は除く画像IEの中から、紙面20と同じ画像である画像31を探索することは可能である。CPU11では、具体的には、領域AreaDisp以外の任意の位置(x,y)について、P(x0,y0)=IE(x,y)を満たすような(x0,y0)と(x,y)の関係式(式1)を求める処理を行う。
Figure 0006371547
ここで、P(x0,y0)は、画像31の位置(x0,y0)における画素値であり、IE(x,y)は、画像IEの(x,y)における画素値である。つまり、画像IEを、2×2行列Mと2次元ベクトルNで変形することにより、画像31となるようなMおよびNを求める処理をしている。このNは、2枚の画像間の平行移動成分を表しており、Mは回転およびスケーリングを表現している。2枚の画像のマッチング(位置関係の計算)の手法は、特徴点によるマッチング手法など、既知の手法を使えば良いので、その詳細説明を省略する。なお、2枚の画像間の位置関係は、ホモグラフィ行列(射影変換行列)という3×3行列で表現するのが一般的である。しかしながら、本発明の実施例においては、ユーザは、紙面20と平行になるようにAR装置10を構えることが想定されるので、2次元アフィン変換(MおよびN)で位置関係を表現することが可能である。
ステップ7の後、ステップ8に進む。
ステップ8では、メモリ14に格納されている情報付き画像データ30が、バス18を介して、CPU11に送られる。そして、CPU11にて、ステップ7で求まったマッチング関係から、情報付き画像データ30の中からAreaDispに対応する領域を切り取る作業を行う。具体的には、画像IE内で高輝度白色四角領域AreaDispの4頂点の座標を(X1,Y1)、(X2,Y2)、(X3,Y3)、および、(X4,Y4)として、式2を計算し、(X01,Y01)、(X02,Y02)、(X03,Y03)、および、(X04,Y04)を求める。
Figure 0006371547
さらに、ステップ8では、(X01,Y01)、(X02,Y02)、(X03,Y03)、および、(X04,Y04)で囲まれる領域を画像31から切り取ることを、CPU11にて行う。
ステップ8の後、ステップ9に進む。
ステップ9では、切り取った画像を、バス18を介して、画像表示部13にて表示をさせる。そして、AR動作を終了させる。
このようにして、あたかも、画像表示部13は透明なガラスのようであり、画像表示部13の部分は、透明なガラスを通して、紙面20を直接見ているかのような錯覚をユーザに起こさせることができるので、一体感を感じる。そして、透明なガラス部分に、情報32(正確には、情報32の一部分)が書かれているように感じる。
上記処理により、どうして、ユーザから見て、画像表示部13には、同じ大きさの画像が表示できるかについて以下で説明する。ステップ4での状況を図10に図示する。ユーザの目は40である。また、画像表示部13には、白色が表示されている。第1の撮像部15から、ユーザの目(瞳)が撮影される。撮影された画像を展開することで、図8に示す画像IEを得ることが出来る。この画像IEは、瞳に反射された物体が写っている。つまり、ユーザの目(瞳)から見た風景である。そして、図11に示すように、画像IEの各位置は、ステップ7で求まったMおよびNを使って位置変換することで、画像31の対応位置に変換できる。したがって、AreaDispの領域に対応する領域を、MおよびNにより求めることで、図11に示すように、「AreaDispがMおよびNで変換される領域」が求まる。なお、実際には、ステップ8にて、領域の四隅を変換して求めている。したがって、画像31の中で「AreaDispがMおよびNで変換される領域(図11参照)」部分を、AreaDisp部分に表示してあげれば、図12に示すような風景を、ユーザは見ることが出来る。このようにして、あたかも、画像表示部13は透明なガラスのようであり、画像表示部13の部分は、透明なガラスを通して、紙面20を直接見ているかのような錯覚をユーザに起こさせることができるので、一体感を感じる。なお、もちろん、上記実施例においては、さらに、情報32(正確には、情報32の一部分)も提示している。すなわち、図13のような状況になり、ユーザの目40からは、紙面20と画像表示部13での表示が一体感のある風景として感じることが出来る。
また、上記本発明の第1の実施例においては、QRコードにより情報付き画像データ30をダウンロードするとして説明したが、以下のような方法で情報付き画像データ30を取得しても良い。すなわち、紙面20を撮影し、紙面20内に描かれている物体を認識する。そして、認識された物体に対する情報を、インターネット上で検索して、検索された情報を付加することで、情報付き画像データ30を作成しても良い。
また、画像表示部13が3D表示可能なデバイス(立体表示ディスプレイ)であるとする。この場合、図9の処理において、ステップ4で、左目を検出する処理と、右目を検出する処理の2つの処理を行うことで、「左目のための画像表示部13で表示すべき画像」と、「右目のための画像表示部13で表示すべき画像」を得ることが出来る。そして、これら画像を、それぞれ、左目用の画像と右目用の画像として、画像表示部13に表示させることで、外界と一体感があり、かつ、奥行きのある立体映像を表示することも可能である。
ところで、図13から分かるように、情報32は、一部分しか表示されていない。ユーザは、情報32のすべてを知りたければ、たとえば、AR装置10を、右方向(図13に示した矢印50)に動かして、AR動作を再度行えばよい。これにより、紙面20の右側方向をさらに見ることができる。つまり、図13の位置においては、図14の(ア)に示すような風景をユーザは見ていたが、移動により、同図(イ)に示す風景を見ることが出来る。つまり、情報32の他の部分を見ることができる。もちろん、移動後も、紙面20と画像表示部13での表示には一体感がある。
以上で第1の実施例の説明を終える。
<第1の実施に関する改良例>
さて、情報32のすべてを知るために、AR装置10を移動(図13の矢印50)させて、その後に、AR動作(図9の処理)を再度行うと良いと述べた。しかし、図9のステップ4で行う「瞳位置の検出、および、瞳に映った投影像の平面への展開」の処理には、処理量が多いため、多少の時間を有する。そこで、移動前のAR処理(図9の処理)の結果と、AR装置10の移動量から、簡易的に、移動後の「情報付き画像データ30の中でAreaDispに対応する領域」を確定させる手法について、ここで述べる。すなわち、第1の実施例に関する改良(高速化)である。
AR装置10の移動量は、図4では図示省略した加速度センサやジャイロセンサを用いて計算しても良いが、ここでは、第2の撮像部(外向き撮像部)16により、移動前と移動後で撮影を行い、これら2枚の画像から移動量を検知する手法について述べる。
移動前に、前述のように図9に示す処理(AR処理)を行う。そして、移動の前に、第2の撮像部(外向き撮像部)16を使い撮影を行う。さらに、移動の後に、第2の撮像部(外向き撮像部)16を使い再度撮影を行う。図15に、移動前に第2の撮像部(外向き撮像部)16により撮影された画像(ア)と、移動後に第2の撮像部(外向き撮像部)16により撮影された画像(イ)と、説明のためにそれら2枚の画像を重ねて表示した画像(ウ)を示す。第2の撮像部(外向き撮像部)16は、紙面20の方向を向いているので、当然、紙面20が写っている。さらに、紙面20の周りには、たとえば、紙面20が貼ってある壁(図中の60)が写っている。
これら2枚の画像のマッチングを行うことで、2枚の画像の位置ずれを求める(図中の矢印で示したベクトル70)。ただし、位置ずれを表すベクトル70は、たとえば、紙面20の横幅を単位長さとして数値化しているとする。「情報付き画像データ30の中でAreaDispに対応する領域」を、情報付き画像データ30の横幅を単位長さとして、ベクトル70だけ移動させる。移動させた後の「情報付き画像データ30の中でAreaDispに対応する領域」を画像表示部13にて表示すれば良い。ここでは、AR装置の移動量が、紙面20の横幅を単位として、どの程度移動したか(ベクトル70)を計算して、その移動量と等価な量だけ、情報付き画像データ30から切り出す領域を移動させている。これにより、移動後も、画像表示部13にて、ほぼ一体感のある画像を表示できる。
なお、正確には、ユーザの目40とAR装置10の位置関係に基づき、移動後の「情報付き画像データ30の中でAreaDispに対応する領域」を計算しなくてはいけない。しかし、上述のように簡易的に求めることで、移動後は「瞳位置の検出、および、瞳に映った投影像の平面への展開」の処理を行わないので、高速化が可能である。
以上で第1の実施に関する改良例の説明を終える。
<第2の実施例>
次に、第1の実施例と同じ装置(AR装置10)を用いて、AR動作以外の使い方を説明する。すなわち、AR装置10をデジタルカメラとして使用する場合を説明する。
図16に本発明の第2の実施例の処理の流れを示す。なお、デジタルカメラで撮影する対象として、第1の実施例と同様の紙面20とする。
図16のステップ11で、ユーザからの撮影指示を待つ。すなわち、ユーザが、操作部12を介して撮影指示をするまで、ステップ11で待ち続ける。ユーザからの指示が来ると、ステップ12へ進む。
ステップ12では、第2の撮像部(外向き撮像部)16にて撮影を行い、そして、撮影された画像はバス18を介してメモリ14へ送られる。この画像をISとする。この画像には、紙面20が写っている。
ステップ12の後、ステップ13に進む。
ステップ13では、画像表示部13の全面に白色を表示させる。そして、第1の撮像部(内向き撮像部)15により撮影を行う。撮像された画像は、バス18を介して、CPU11に送られる。CPU11では、従来からある顔認識手法や目の検出手法を使って、瞳の検出を行う。さらに、ステップ14では、画像内に瞳を検出した後、CPU11にて、その瞳に投影されている外界の風景を展開する。展開画像をIEとする。
ステップ13の後、ステップ14に進む。
ステップ14では、CPU11にて、画像IEの中から、高輝度白色四角領域を検出する。この領域をAreaDispとする。これは、画像内の物体のセグメンテーション技術を使って、画素値が大きな値である四角領域を検出することで行える。この手法は既知の技術なので、詳細説明を省略する。
ステップ14の後、ステップ15に進む。
ステップ15では、CPU11にて、高輝度白色四角領域AreaDispの横方向の長さに対して、「WL/WD」倍した領域を左方に拡大し、「WR/WD」倍した領域を右方に拡大する。そして、高輝度白色四角領域AreaDispの縦方向の長さに対して、「HU/HD」倍した領域を上方に拡大し、「HL/HD」倍した領域を下方に拡大する。このように、上下左右に拡大した領域をAreaDeviceとする。
ステップ15の後、ステップ16に進む。
ステップ16では、メモリ14に格納されている画像ISが、バス18を介して、CPU11に送られる。そして、CPU11にて、画像ISと、画像IE(ただしAreaDeviceの領域は除く)とのマッチングにより、画像間の位置関係を求める。画像IEには、前述のとおり、AR装置10の瞳へ投影された投影像のほかに、紙面20の瞳へ投影された投影像も写っている。そこで、AreaDeviceの領域は除く画像IEと、紙面20が写っている画像ISとのマッチングは可能である。この処理は、図9のステップ7と同様である。
ステップ16の後、ステップ17に進む。
ステップ17では、CPU11にて、ステップ16で求まったマッチング関係から、画像ISの中でAreaDispに対応する領域を切り取る作業を行う。この処理は、図9のステップ8と同様である。
ステップ17の後、ステップ18に進む。
ステップ18では、CPU11にて切り取った画像を、バス18を介して、画像表示部13にて表示をさせるとともに、画像表示部13で表示している画像を、バス18を介してメモリ14に格納する。そして、一連の処理を終了させる。
ステップ18で格納された画像が、どのような画像であるかをここに記す。AR装置10の画像表示部13が仮に透明なガラスであったとする。ユーザの目から見て、この透明なガラスを通してみた風景が、ステップ18で格納された画像と同じである。理由は、第1の実施例において、AR装置10の画像表示部13が一体感のある画像を表示できると説明したことから明らかである。
ステップ18での状況を図17に図示する。ユーザの目は40である。また、画像表示部13には、画像ISからステップ17で切り取られた画像が表示されている。ユーザの目から見ると、図18の(ア)のように見える。あたかも、画像表示部13は透明なガラスのようであり、画像表示部13の部分は、透明なガラスを通して、紙面20を直接見ているかのような錯覚をユーザに起こさせることができる。そして、画像表示部13で表示されている画像(画像ISから切り取られた画像)が、メモリ14に格納される。
さて、このようにして格納された画像は、紙面20の車の一部分しか映っていない(図18の(ア)の画像表示部13部分の画像)。そこで、ユーザは、もう少し、ワイドな画角で車全体を撮影したいと考える。この場合、ユーザは、AR装置10を、手前側(図17に示した矢印51)に動かして、図16の処理を再度行えばよい。
このように移動することで、AR装置10はユーザの目40に近づくので、ユーザから見るとAR装置10は大きく見える。また、図16の処理が行われるので、AR装置10の画像表示部13には一体感のある画像を表示していることになる。したがって、移動後は、ユーザの目から見ると、図18の(イ)のように見える。あたかも、画像表示部13は透明なガラスのようであり、画像表示部13の部分は、透明なガラスを通して、紙面20を直接見ているかのような錯覚をユーザに起こさせることができる。そして、画像表示部13で表示されている画像(画像ISから切り取られた画像)が、メモリ14に格納される。ユーザの目40と紙面20の位置関係は、同じなので、図18の(ア)の紙面20と、(イ)の紙面20は同じ大きさである。一方、画像表示部13は、(ア)に比べて(イ)は大きく見える。したがって、移動前よりも、ワイドな画角の画像をメモリ14に格納することが出来る。
AR装置10をユーザの目40に対して、移動させることで、画角を変更して撮影することができる。第2の実施例から分かるように、本発明は、デジタルカメラの画角調整用のユーザインターフェースとして使うことが出来るというメリットもある。
以上で第2の実施例の説明を終える。
上記複数の実施例について説明したが、本発明の根幹をなす訴求ポイントを以下で述べる。ユーザの目(あるいは、ユーザがつけている眼鏡など)に写った光景より、本発明の装置が、ユーザから見たときに、外界に対してどのような位置にあるかを検出する。そして、検出された位置に応じて、画像から適切な領域を切り出して、装置に表示させるという点が、本発明の訴求ポイントである。これにより、外界と一体感のある画像の表示(第1の実施例)や、撮影したい画角を簡単に設定すること(第2の実施例)ができる。
以上、本発明の実施形態を詳述してきたが、具体的な構成は本実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
さらに、本技術は、以下の構成とすることも可能である。
[1]
画像表示部と第1の撮像部を有する画像処理装置であって、
上記第1の撮像部から撮影された第1の画像から、「上記画像処理装置が投影されている物体」の投影像(第1の投影像と呼ぶ)を検出する第1の検出部と、
上記第1の投影像の中から上記画像処理装置の投影像(第2の投影像と呼ぶ)と、上記第1の投影像の中から上記第2の投影像の外側に投影されている風景の投影像(第3の投影像と呼ぶ)の2つの投影像を求める第2の検出部と、
上記第2の投影像と第3の投影像の位置関係に依存して、切り出し領域を決定する領域決定部と、
第2の画像から上記切り出し領域に対応する部分を切り出し、上記画像表示部に表示させる画像表示制御部と
を備える画像処理装置。
[2]
上記「上記画像処理装置が投影されている物体」とは、人の目、あるいは、人が装着している眼鏡のレンズ部分であることを
特徴とする[1]に記載の画像処理装置。
[3]
さらに、第2の撮像部を有し、
上記第2の画像とは、上記第2の撮像部で撮影された画像であることを
特徴とする[1]あるいは[2]に記載の画像処理装置。
[4]
画像表示部と第1の撮像部を有する装置にて画像表示を行う画像処理方法であって、
上記第1の撮像部から撮影された第1の画像から、「上記画像処理装置が投影されている物体」の投影像(第1の投影像と呼ぶ)を検出する第1の検出ステップと、
上記第1の投影像の中から上記画像処理装置の投影像(第2の投影像と呼ぶ)と、上記第1の投影像の中から上記第2の投影像の外側に投影されている風景の投影像(第3の投影像と呼ぶ)の2つの投影像を求める第2の検出ステップと、
上記第2の投影像と第3の投影像の位置関係に依存して、切り出し領域を決定する領域決定ステップと、
第2の画像から上記切り出し領域に対応する部分を切り出し、上記画像表示部に表示させる画像表示制御ステップと
を含む画像処理方法。
[5]
画像表示部と第1の撮像部を有する装置にて画像表示を行う画像処理プログラムであって、
上記第1の撮像部から撮影された第1の画像から、「上記画像処理装置が投影されている物体」の投影像(第1の投影像と呼ぶ)を検出する第1の検出ステップと、
上記第1の投影像の中から上記画像処理装置の投影像(第2の投影像と呼ぶ)と、上記第1の投影像の中から上記第2の投影像の外側に投影されている風景の投影像(第3の投影像と呼ぶ)の2つの投影像を求める第2の検出ステップと、
上記第2の投影像と第3の投影像の位置関係に依存して、切り出し領域を決定する領域決定ステップと、
第2の画像から上記切り出し領域に対応する部分を切り出し、上記画像表示部に表示させる画像表示制御ステップと
を含む処理をコンピュータに実行させる画像処理プログラム。
10…画像処理装置(AR装置)
11…中央演算処理部
12…操作部
13…画像表示部
14…メモリ
15…第1の撮像部
16…第2の撮像部
17…ネットワークインターフェース部
18…バス
20…紙面
21…2次元バーコード
30…情報付き画像データ
31…画像
32…情報
40…ユーザの目
60…壁
100…従来の画像処理装置(従来のAR装置)
110…画像表示部
120…撮像部
200…紙面
300…画像
310…情報
400…ユーザの目

Claims (5)

  1. 画像表示部と第1の撮像部を有する画像処理装置であって、
    上記第1の撮像部から撮影された第1の画像から、「上記画像処理装置が投影されている物体」の投影像(第1の投影像と呼ぶ)を検出する第1の検出部と、
    上記第1の投影像の中から上記画像処理装置の投影像(第2の投影像と呼ぶ)と、上記第1の投影像の中から上記第2の投影像の外側に投影されている風景の投影像(第3の投影像と呼ぶ)の2つの投影像を求める第2の検出部と、
    上記第2の投影像と第3の投影像の位置関係に依存して、切り出し領域を決定する領域決定部と、
    第2の画像から上記切り出し領域に対応する部分を切り出し、上記画像表示部に表示させる画像表示制御部と
    を備える画像処理装置。
  2. 上記「上記画像処理装置が投影されている物体」とは、人の目、あるいは、人が装着している眼鏡のレンズ部分であることを
    特徴とする請求項1記載の画像処理装置。
  3. さらに、第2の撮像部を有し、
    上記第2の画像とは、上記第2の撮像部で撮影された画像であることを
    特徴とする請求項1あるいは請求項2記載の画像処理装置。
  4. 画像表示部と第1の撮像部を有する装置にて画像表示を行う画像処理方法であって、
    上記第1の撮像部から撮影された第1の画像から、「上記装置が投影されている物体」の投影像(第1の投影像と呼ぶ)を検出する第1の検出ステップと、
    上記第1の投影像の中から上記装置の投影像(第2の投影像と呼ぶ)と、上記第1の投影像の中から上記第2の投影像の外側に投影されている風景の投影像(第3の投影像と呼ぶ)の2つの投影像を求める第2の検出ステップと、
    上記第2の投影像と第3の投影像の位置関係に依存して、切り出し領域を決定する領域決定ステップと、
    第2の画像から上記切り出し領域に対応する部分を切り出し、上記画像表示部に表示させる画像表示制御ステップと
    を含む画像処理方法。
  5. 画像表示部と第1の撮像部を有する装置にて画像表示を行う画像処理プログラムであって
    上記第1の撮像部から撮影された第1の画像から、「上記装置が投影されている物体」の投影像(第1の投影像と呼ぶ)を検出する第1の検出ステップと、
    上記第1の投影像の中から上記装置の投影像(第2の投影像と呼ぶ)と、上記第1の投影像の中から上記第2の投影像の外側に投影されている風景の投影像(第3の投影像と呼ぶ)の2つの投影像を求める第2の検出ステップと、
    上記第2の投影像と第3の投影像の位置関係に依存して、切り出し領域を決定する領域決定ステップと、
    第2の画像から上記切り出し領域に対応する部分を切り出し、上記画像表示部に表示させる画像表示制御ステップと
    を含む処理をコンピュータに実行させる画像処理プログラム。
JP2014059304A 2014-03-21 2014-03-21 画像処理装置、方法、および、プログラム Expired - Fee Related JP6371547B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014059304A JP6371547B2 (ja) 2014-03-21 2014-03-21 画像処理装置、方法、および、プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014059304A JP6371547B2 (ja) 2014-03-21 2014-03-21 画像処理装置、方法、および、プログラム

Publications (2)

Publication Number Publication Date
JP2015184838A JP2015184838A (ja) 2015-10-22
JP6371547B2 true JP6371547B2 (ja) 2018-08-08

Family

ID=54351314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014059304A Expired - Fee Related JP6371547B2 (ja) 2014-03-21 2014-03-21 画像処理装置、方法、および、プログラム

Country Status (1)

Country Link
JP (1) JP6371547B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106713854A (zh) * 2016-12-12 2017-05-24 大连文森特软件科技有限公司 基于ar增强现实技术和无线通信技术的绘画辅助系统
CN112911148B (zh) * 2021-01-28 2022-10-14 维沃移动通信有限公司 图像处理方法、装置及电子设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110084983A1 (en) * 2009-09-29 2011-04-14 Wavelength & Resonance LLC Systems and Methods for Interaction With a Virtual Environment
JP2015022589A (ja) * 2013-07-19 2015-02-02 国立大学法人大阪大学 表示装置、表示方法、表示プログラム、及び、表示プログラムを記憶した情報記憶媒体

Also Published As

Publication number Publication date
JP2015184838A (ja) 2015-10-22

Similar Documents

Publication Publication Date Title
US11262835B2 (en) Human-body-gesture-based region and volume selection for HMD
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
US10785469B2 (en) Generation apparatus and method for generating a virtual viewpoint image
JP2012212345A (ja) 端末装置、オブジェクト制御方法及びプログラム
US10748000B2 (en) Method, electronic device, and recording medium for notifying of surrounding situation information
JP5387668B2 (ja) 情報処理端末、情報処理方法、およびプログラム
KR20230072757A (ko) 웨어러블 전자 장치 및 웨어러블 전자 장치의 동작 방법
WO2015072091A1 (ja) 画像処理装置、画像処理方法及びプログラム記憶媒体
JP6371547B2 (ja) 画像処理装置、方法、および、プログラム
RU2735066C1 (ru) Способ отображения широкоформатного объекта дополненной реальности
JP6405539B2 (ja) 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法
CN114201028B (zh) 扩增实境系统与其锚定显示虚拟对象的方法
JP7401245B2 (ja) 画像合成装置、画像合成装置の制御方法およびプログラム
JP6859763B2 (ja) プログラム、情報処理装置
JP2016115148A (ja) 情報処理装置、情報処理システム、情報処理方法、及びプログラム
JP7118383B1 (ja) 表示システム、表示方法、及び表示プログラム
JP7138994B1 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
EP3130994A1 (en) Display control device, display control method, and program
US10964056B1 (en) Dense-based object tracking using multiple reference images
US20240203012A1 (en) Electronic device for generating three-dimensional photo based on images acquired from plurality of cameras, and method therefor
WO2023219612A1 (en) Adaptive resizing of manipulatable and readable objects
KR20220099584A (ko) 이미지 처리 방법, 장치, 전자 장치 및 컴퓨터 판독 가능 저장 매체
JP2024017389A (ja) 画像処理装置、画像処理方法及びプログラム
JP2023108550A (ja) 情報処理装置及び情報処理プログラム
JP2016023962A (ja) 被写体の大きさを測定する方法、被写体の大きさを測定する装置、被写体の大きさを測定するプログラム、画像表示方法、画像表示装置、および、画像表示プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180713

R150 Certificate of patent or registration of utility model

Ref document number: 6371547

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees