JP2016053788A - 情報端末装置、情報処理方法、システムおよびプログラム - Google Patents

情報端末装置、情報処理方法、システムおよびプログラム Download PDF

Info

Publication number
JP2016053788A
JP2016053788A JP2014178874A JP2014178874A JP2016053788A JP 2016053788 A JP2016053788 A JP 2016053788A JP 2014178874 A JP2014178874 A JP 2014178874A JP 2014178874 A JP2014178874 A JP 2014178874A JP 2016053788 A JP2016053788 A JP 2016053788A
Authority
JP
Japan
Prior art keywords
posture
unit
image
information
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014178874A
Other languages
English (en)
Other versions
JP6417797B2 (ja
Inventor
岡本 拓也
Takuya Okamoto
拓也 岡本
吉田 浩之
Hiroyuki Yoshida
浩之 吉田
里江子 石原
Rieko Ishihara
里江子 石原
祐貴 河田
Yuki Kawada
祐貴 河田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014178874A priority Critical patent/JP6417797B2/ja
Priority to US14/836,175 priority patent/US10078915B2/en
Publication of JP2016053788A publication Critical patent/JP2016053788A/ja
Application granted granted Critical
Publication of JP6417797B2 publication Critical patent/JP6417797B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • G06T3/604Rotation of whole images or parts thereof using coordinate rotation digital computer [CORDIC] devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Architecture (AREA)

Abstract

【課題】現実の空間に配置されているようにオブジェクト画像の形状を変化させる。
【解決手段】情報端末装置は、被写体を撮像して撮像画像を生成する撮像部と、撮像部の初期姿勢を設定する初期設定部と、撮像部の初期姿勢からの姿勢変化を表す姿勢情報を検出する姿勢検出部と、姿勢情報に応じて、仮想の3次元空間であるオブジェクト座標に配置された予め設定された仮想オブジェクトの姿勢を補正する姿勢補正部と、仮想オブジェクトを撮像画像の表示画面を表す2次元座標であるデバイス座標に射影するための変換関数に基づき、姿勢が補正された仮想オブジェクトをデバイス座標に射影したオブジェクト画像を生成する射影部と、撮像画像にオブジェクト画像を合成した合成画像を生成する合成部と、合成画像を表示する表示部と、撮像画像を記録する画像記録部と、姿勢情報を撮像画像に同期させて記録する姿勢記録部とを備える。
【選択図】図4

Description

本発明は、情報端末装置、情報処理方法、システムおよびプログラムに関する。
カメラにより撮像された撮像画像上に、仮想的なオブジェクト画像を重ねて表示する拡張現実感(AR)と呼ばれる技術が知られている。従来のAR技術では、撮像画像上の特徴点またはマーカー等を検出し、検出した特徴点またはマーカーの形状等に応じてオブジェクト画像の形状または位置を変更する。このため、従来のAR技術では、カメラの姿勢が変化すると、オブジェクト画像の形状または位置も現実の空間に配置されているように変化する。
ところで、また、従来のAR技術では、撮像画像に重畳したオブジェクト画像を時系列で記録し、再生時において、記録時に重畳されたオブジェクト画像をそのまま再生することができた。しかし、従来のAR技術では、記録時に重畳されたオブジェクト画像を、他のオブジェクト画像に置き換えたり、オブジェクト画像の形状または位置等を設定し直したりすることはできなかった。
本発明は、上記に鑑みてなされたものであって、再生時において、記録時に表示したオブジェクト画像に代えて他のオブジェクト画像を表示したり、オブジェクト画像の形状または位置等を設定し直したりしても、現実の空間に配置されているようにオブジェクト画像の形状を変化させることができる情報端末装置、情報処理方法、システムおよびプログラムを提供する。
上述した課題を解決し、目的を達成するために、本発明に係る情報端末装置は、被写体を撮像して撮像画像を生成する撮像部と、前記撮像部の初期姿勢を設定する初期設定部と、前記撮像部の前記初期姿勢からの姿勢変化を表す姿勢情報を検出する姿勢検出部と、前記姿勢情報に応じて、仮想の3次元空間であるオブジェクト座標に配置された予め設定された仮想オブジェクトの姿勢を補正する姿勢補正部と、前記仮想オブジェクトを前記撮像画像の表示画面を表す2次元座標であるデバイス座標に射影するための変換関数に基づき、姿勢が補正された前記仮想オブジェクトを前記デバイス座標に射影したオブジェクト画像を生成する射影部と、前記撮像画像に前記オブジェクト画像を合成した合成画像を生成する合成部と、前記合成画像を表示する表示部と、前記撮像画像を記録する画像記録部と、前記姿勢情報を前記撮像画像に同期させて記録する姿勢記録部と、を備える。
本発明は、上記に鑑みてなされたものであって、再生時において、記録時に表示したオブジェクト画像に代えて他のオブジェクト画像を表示したり、オブジェクト画像の形状または位置等を設定し直したりしても、現実の空間に配置されているようにオブジェクト画像の形状を変化させることができるという効果を奏する。
図1は、実施形態に係る情報端末装置10の表面から見た外観図である。 図2は、実施形態に係る情報端末装置10の裏面から見た外観図である。 図3は、実施形態に係る情報端末装置10の処理の概要を示す図である。 図4は、実施形態に係る情報端末装置10の構成を示す図である。 図5は、射影を説明するための図である。 図6は、初期設定を説明するための図である。 図7は、撮像画像とオブジェクト画像との合成を説明するための図である。 図8は、撮像部31の姿勢に応じた、仮想オブジェクト101の姿勢の補正を説明するための図である。 図9は、情報端末装置10の姿勢の変化に応じて、オブジェクト画像21の形状が変化する様子について示す図である。 図10は、オブジェクト画像21に対する操作を説明するための図である。 図11は、デバイス座標上の平行移動量を、オブジェクト座標上の平行移動量に変換する処理を説明するための図である。 図12は、変換関数の補正を説明するための図である。 図13は、記録時における情報端末装置10の処理フローを示す図である。 図14は、記録終了時に保存されるデータの一例を示す図である。 図15は、再生時における情報端末装置10の処理フローを示す図である。 図16は、実施形態に係る情報端末装置10のハードウェア構成を示す図である。
以下、実施形態である情報端末装置10について説明する。
図1は、実施形態に係る情報端末装置10の表面から見た外観図である。図2は、実施形態に係る情報端末装置10の裏面から見た外観図である。
情報端末装置10は、例えば、いわゆるタブレット型の装置であって、薄板状の外観を有する。情報端末装置10は、図1に示すように、薄板の表面側にタッチパネルディスプレイ11を備える。また、情報端末装置10は、図2に示すように、裏面側にカメラ部12を備える。
情報端末装置10は、表示機能、入力機能および撮像機能を有し、ユーザにより携帯可能な装置であれば、タブレット型の装置に限らず他の装置であってもよい。情報端末装置10は、一例として、記録装置一体型の撮像装置であってもよいし、携帯電話機であってもよいし、ゲーム機であってもよいし、小型のコンピュータであってもよい。
図3は、実施形態に係る情報端末装置10の処理の概要を示す図である。情報端末装置10は、撮像した画像を記録および表示をしている場合、または、撮像した画像を表示のみしている場合(スルー画像を表示している場合)において、オブジェクト画像21を撮像画像に重畳して表示する。オブジェクト画像21は、仮想的な3次元空間に配置された仮想オブジェクトを2次元空間に射影することにより生成される。
ここで、情報端末装置10は、オブジェクト画像21の形状を、情報端末装置10の姿勢の変化に応じて、あたかも現実の空間に配置されている物体を撮像しているように変化させる。例えば、図3に示すように、情報端末装置10は、長方形の用紙が壁20に貼り付けているように、情報端末装置10の姿勢の変化に応じてオブジェクト画像21の形状を変化させる。
図4は、実施形態に係る情報端末装置10の構成を示す図である。情報端末装置10は、撮像部31と、画像格納部32と、画像記録部33と、画像再生部34と、画像選択部35と、姿勢検出部41と、姿勢格納部42と、姿勢記録部43と、姿勢読出部44と、姿勢選択部45と、オブジェクト格納部46と、姿勢補正部47と、初期設定部51と、関数格納部52と、操作入力部61と、操作格納部62と、操作記録部63と、操作読出部64と、操作選択部65と、関数補正部66と、射影部71と、合成部72と、表示部73とを備える。
撮像部31は、カメラ部12を含み、被写体を撮像して撮像画像を生成する。画像格納部32は、撮像画像を格納する。画像記録部33は、撮像部31により生成された撮像画像を画像格納部32に記録する。画像再生部34は、画像格納部32に格納された撮像画像を再生する。
画像選択部35は、記録時またはスルー画像表示時において、撮像部31によって生成された現在の撮像画像を合成部72に与える。画像選択部35は、再生時において、画像再生部34が再生した撮像画像を合成部72に与える。
姿勢検出部41は、撮像部31の初期姿勢からの姿勢変化を表す姿勢情報を検出する。より具体的には、姿勢検出部41は、撮像部31の初期姿勢の撮影方向(光軸の方向)からの向きの変化を検出する。
姿勢格納部42は、姿勢情報を格納する。姿勢記録部43は、姿勢検出部41により検出された姿勢情報を、画像記録部33により記録される撮像画像に同期させて姿勢格納部42に記録する。本例においては、姿勢記録部43は、撮像開始時刻からの経過時間とともに姿勢情報を記録する。
姿勢読出部44は、姿勢格納部42に格納された姿勢情報を、画像再生部34により再生される撮像画像と同期させて読み出す。本例においては、姿勢読出部44は、画像再生部34により再生される撮像画像の経過時間に対応する姿勢情報を読み出す。
姿勢選択部45は、記録時またはスルー画像表示時において、姿勢検出部41によって検出された現在の姿勢情報を姿勢補正部47に与える。姿勢選択部45は、再生時において、姿勢読出部44が読み出した姿勢情報を姿勢補正部47に与える。
オブジェクト格納部46は、仮想の3次元空間であるオブジェクト座標に配置された、予め設定された形状の3次元の仮想オブジェクトを表す3次元データを格納する。仮想オブジェクトは、オブジェクト座標における、予め設定された位置に、予め設定された姿勢(基準姿勢)で配置されている。オブジェクト座標は、表面に写真、図または文字等が描かれていてもよい。また、オブジェクト格納部46は、複数の仮想オブジェクトを記憶しており、ユーザ等により選択された1つの仮想オブジェクトを出力してもよい。
本例においては、オブジェクト格納部46は、表面に写真、図または文字等が描かれた用紙状(長方形の平面状)の仮想オブジェクトを記憶する。
姿勢補正部47は、与えられた姿勢情報に応じて仮想オブジェクトの姿勢を補正する。より具体的には、姿勢補正部47は、撮像部31の姿勢の変化(撮像部31の撮影方向の向きの変化)とは逆に動かすように、仮想オブジェクトの姿勢を基準姿勢から補正する。
なお、姿勢補正部47は、記録時またはスルー画像表示時においては、姿勢検出部41によって検出された現在の姿勢情報に応じて仮想オブジェクトの姿勢を補正する。姿勢補正部47は、再生時においては、姿勢読出部44が読み出した姿勢情報に応じて仮想オブジェクトの姿勢を補正する。姿勢補正部47は、姿勢を補正した後の仮想オブジェクトを射影部71に与える。
初期設定部51は、ユーザの設定操作に応じて、撮像部31の初期姿勢を設定する。初期設定部51は、初期設定時において、ユーザに対して、デバイス座標上に基準の形状および基準の大きさのオブジェクト画像を表示させる。そして、初期設定部51は、基準の形状および基準の大きさのオブジェクト画像を表示させて、撮像部31の姿勢(撮影方向)をユーザに決定させる。初期設定部51は、ユーザが決定した撮像部31の姿勢を、初期姿勢として設定する。姿勢検出部41は、このときに決定された初期姿勢からの変化量を姿勢情報として出力する。
関数格納部52は、仮想オブジェクトをデバイス座標に射影するための変換関数を格納する。デバイス座標は、撮像画像の表示画面を表す2次元座標である。変換関数は、基準姿勢の仮想オブジェクトから、撮像部31が初期姿勢のときに表示される基準のデバイス画像を生成する関数である。関数格納部52は、オブジェクト格納部46が複数の仮想オブジェクトを格納している場合には、それぞれの仮想オブジェクトに対応して複数の変換関数を格納する。そして、この場合、関数格納部52は、初期設定時において、初期設定部51により対応する1つの変換関数が選択される。
操作入力部61は、ユーザによるオブジェクト画像に対するデバイス座標での操作情報を入力する。本例においては、操作入力部61は、オブジェクト画像のデバイス座標での平行移動量、回転量および拡大縮小率を操作情報として入力する。操作入力部61は、一例として、タッチパネルディスプレイ11に表示されたオブジェクト画像に対する操作(平行移動、回転および拡大縮小)を検出して、デバイス座標での平行移動量、回転量および拡大縮小率を入力する。
操作格納部62は、操作情報を格納する。操作記録部63は、操作入力部61により入力された操作情報を、画像記録部33により記録される撮像画像に同期させて操作格納部62に記録する。本例においては、操作記録部63は、撮像開始時刻からの経過時間とともに操作情報を記録する。
操作読出部64は、操作格納部62に格納された操作情報を、画像再生部34により再生される撮像画像と同期させて読み出す。本例においては、操作読出部64は、画像再生部34により再生される撮像画像の経過時間に対応する操作情報を読み出す。
操作選択部65は、記録時またはスルー画像表示時において、操作入力部61によって入力された現在の操作情報を関数補正部66に与える。また、操作選択部65は、再生時において、ユーザの操作に基づき、記録時の操作を反映するモードと記録時の操作を反映しないモードとを選択する。操作選択部65は、再生時において、記録時の操作を反映するモード(操作反映モード)の場合、操作読出部64が読み出した操作情報を関数補正部66に与える。操作選択部65は、再生時において、記録時の操作を反映しないモード(操作非反映モード)の場合、操作入力部61によって入力された現在の操作情報を関数補正部66に与える。
関数補正部66は、操作情報に応じた移動量分、仮想オブジェクトがオブジェクト座標上で移動するように、変換関数を補正する。
例えば、関数補正部66は、デバイス座標での平行移動量を、変換関数の逆関数によりオブジェクト座標での平行移動量に変換する。そして、関数補正部66は、変換したオブジェクト座標での平行移動量分、仮想オブジェクトを平行移動させるように変換関数を補正する。
また、関数補正部66は、デバイス座標での回転量分、オブジェクト座標において仮想オブジェクトを回転させるように変換関数を補正する。また、関数補正部66は、デバイス座標での拡大縮小率分、オブジェクト座標において仮想オブジェクトを拡大縮小させるように変換関数を補正する。
なお、関数補正部66は、記録時またはスルー画像表示時においては、操作入力部61によって入力された現在の操作情報に応じて変換関数を補正する。また、関数補正部66は、再生時において、操作反映モードの場合、操作読出部64によって読み出された操作情報に応じて変換関数を補正する。関数補正部66は、再生時において、操作非反映モードの場合、操作入力部61によって入力された現在の操作情報に応じて変換関数を補正する。関数補正部66は、補正した変換関数を射影部71に与える。
射影部71は、関数補正部66により補正された変換関数に基づき、姿勢補正部47により姿勢が補正された仮想オブジェクトをデバイス座標に射影したオブジェクト画像を生成する。射影部71は、生成したオブジェクト画像を合成部72に与える。
合成部72は、与えられた撮像画像に、オブジェクト画像を合成した合成画像を生成する。なお、合成部72は、記録時またはスルー画像表示時において、撮像部31によって生成された現在の撮像画像にオブジェクト画像を合成する。また、合成部72は、再生時において、画像再生部34が再生した撮像画像にオブジェクト画像を合成する。合成部72は、合成画像を表示部73に与える。
表示部73は、例えば、タッチパネルディスプレイ11を含み、与えられた合成画像を表示する。
図5は、射影を説明するための図である。3次元空間であるオブジェクト座標に配置された仮想オブジェクト101を、2次元空間であるデバイス座標に射影する場合、情報端末装置10は、図5に示すように、オブジェクト座標上のある一点から仮想オブジェクト101を見た場合の2次元の像を取得すればよい。このような像を取得するための関数が変換関数であり、一般に、行列で表される。本例においては、3次元の仮想オブジェクト101が長方形の平面状のオブジェクトである。従って、デバイス座標には、矩形のオブジェクト画像が射影される。
図6は、初期設定を説明するための図である。情報端末装置10は、撮像の開始に先立って、初期姿勢を設定する。
本例においては、初期設定部51は、初期設定時において、デバイス座標上に、予め定められた形状および大きさの基準オブジェクト画像102を予め定められた位置に配置して、ユーザに基準オブジェクト画像102を表示させるときの情報端末装置10の姿勢を設定させる。
本例においては、3次元の仮想オブジェクトが長方形の平面状のオブジェクトであり、基準オブジェクト画像102は、長方形である。ユーザは、情報端末装置10の姿勢が、このような基準オブジェクト画像102が例えば壁上に張られているように見えるときに決定ボタン等を押す。
そして、初期設定部51は、ユーザにより決定ボタン等が押されたときの、姿勢を初期姿勢として設定する。これにより、初期設定部51は、基準オブジェクト画像102が壁に貼り付けられているように初期姿勢を設定することができる。
なお、変換関数は、基準オブジェクト画像102のデバイス座標上での位置および形状と、基準姿勢の仮想オブジェクトのオブジェクト座標上での位置および形状とに基づき、所定のアルゴリズムにより算出される。本例においては、変換関数は、基準オブジェクト画像102の4点の頂点のデバイス座標での位置と、基準姿勢の仮想オブジェクトの4点の頂点のオブジェクト座標での位置とに基づき、所定のアルゴリズムで算出される。このような変換関数は、予め登録されている。
なお、本例においては、オブジェクト座標からデバイス座標への射影のための変換関数は、行列Hで表される。行列Hは、行列Pと、行列Mとの積で表される。行列Pは、射影行列であり、行列Mは、仮想オブジェクトの位置および傾きを表す行列である。また、変換関数の逆関数は、行列Gで表される。行列Gは、行列Hの逆行列である。
このように情報端末装置10は、撮像の開始に先立って初期姿勢を設定するので、初期姿勢におけるオブジェクト画像の形状を基準とし、初期姿勢からの姿勢変化量に基づきオブジェクト画像の形状を変化させることができる。本例の場合においては、情報端末装置10は、長方形の基準オブジェクト画像102を現実の壁、床、板等の表面上に貼り付いているように設定することにより、仮想オブジェクトの形状を現実の壁、床、板等に貼り付いているように変化させることができる。
図7は、撮像画像とオブジェクト画像との合成を説明するための図である。合成部72は、撮像画像とオブジェクト画像とを合成して、合成画像を生成する。
合成部72は、一例として、撮像画像の上に、オブジェクト画像を重ねて合成画像を生成する。すなわち、合成部72は、撮像画像を背景、オブジェクト画像を前景として合成画像を生成する。これにより、本例の場合においては、情報端末装置10は、仮想オブジェクトが壁等の表面上に貼り付いているような合成画像を生成することができる。
図8は、撮像部31の姿勢に応じた、仮想オブジェクト101の姿勢の補正を説明するための図である。姿勢補正部47は、与えられた姿勢情報に応じて、情報端末装置10の撮像部31の姿勢の変化とは逆に動かすように、仮想オブジェクト101の姿勢を補正する。
具体的には、実空間座標における情報端末装置10の撮像部31の、初期設定時における初期姿勢からの変化量(姿勢変換量)をA=(α,β,γ)とした場合、姿勢補正部47は、仮想オブジェクト101の姿勢を、姿勢変換量Aに逆符号を乗じた姿勢補正量B=(−α,−β,−γ)分、基準姿勢から回転補正する。
本例においては、姿勢検出部41が、姿勢情報として、互いに直交するx軸、y軸およびz軸のそれぞれを中心とした、初期姿勢からの回転角の変化量(ロール角の変化量α、ピッチ角の変化量βおよびヨー角の変化量γ)を検出する。そして、姿勢補正部47は、オブジェクト座標において、仮想オブジェクト101のロール角、ピッチ角およびヨー角のそれぞれを、予め設定されている基準姿勢から、姿勢情報とは逆符号の回転角分(−α,−β,−γ)、回転させる。これにより、姿勢補正部47は、仮想オブジェクト101の姿勢を情報端末装置10の撮像部31の姿勢の変化とは逆に動かすように補正することができる。
図9は、情報端末装置10の姿勢の変化に応じて、オブジェクト画像21の形状が変化する様子について示す図である。姿勢補正部47が仮想オブジェクトの姿勢を補正した結果、情報端末装置10は、撮影方向が変化した場合であっても、静止している物体を異なる方向から撮像したように、矩形のオブジェクト画像21の形状を変化させることができる。
例えば、図9に示すように、情報端末装置10は、仮想オブジェクトが用紙のような長方形の面状の物体であり、撮影方向を例えばA,B,Cのように変化させた場合には、用紙が壁20に貼り付いているように、オブジェクト画像21の形状を変化させることができる。
図10は、オブジェクト画像21に対する操作を説明するための図である。操作入力部61は、タッチパネルディスプレイ11に表示されたオブジェクト画像21に対する操作(平行移動操作、回転操作および拡大縮小操作)を検出して、デバイス座標での平行移動量、回転量および拡大縮小率を入力することができる。
また、操作入力部61は、記録時またはスルー画像表示時において、これらの操作を入力することができる。また、操作入力部61は、記録時における一時停止中にもこれらの操作を入力することができる。
また、操作入力部61は、再生時において、記録時の操作を反映しないモード(操作非反映モード)の場合に、操作情報を入力することができる。さらに、操作入力部61は、再生時において、記録時の操作を反映する操作反映モードの場合に、再生の一時停止をすれば、これらの操作を入力することができる。
図11は、デバイス座標上の平行移動量を、オブジェクト座標上の平行移動量に変換する処理を説明するための図である。図12は、変換関数の補正を説明するための図である。
平行移動操作、回転操作または拡大縮小操作がされた場合、関数補正部66は、操作情報に応じて、変換関数を補正する。
例えば、平行移動操作をした場合には、次のように変換関数を補正する。まず、図11に示すように、関数補正部66は、現在の変換関数の逆関数を表す行列Gを取得する。行列Gは、行列Hの逆関数である。関数補正部66は、変換関数の逆関数を表す行列Gにより、ユーザにより入力されたデバイス座標での平行移動量を表す行列Xを、オブジェクト座標での平行移動量を表す行列Tに変換する。具体的には、関数補正部66は、行列Gに行列Xを乗じて、行列Tを算出する。
続いて、関数補正部66は、行列Tにより仮想オブジェクト101を平行移動させるように、変換関数を表す行列Hを補正する。具体的には、関数補正部66は、仮想オブジェクト101の位置および傾きを表す行列Mに、平行移動量を表す行列Tを乗じて、行列M´を生成する。そして、関数補正部66は、行列Pに行列M´を乗じて、新たな行列H´を生成する。
また、回転操作をした場合には、関数補正部66は、デバイス座標での回転量分、オブジェクト座標において仮想オブジェクト101を回転させるように変換関数を補正する。具体的には、関数補正部66は、仮想オブジェクト101の位置および傾きを表す行列Mを、デバイス座標での回転量分、回転補正して、新たな行列M´を生成する。そして、関数補正部66は、行列Pに行列M´を乗じて、新たな行列H´を生成する。
また、拡大縮小操作をした場合には、関数補正部66は、デバイス座標での拡大縮小率分、オブジェクト座標において仮想オブジェクト101をデバイス座標で拡大縮小させるように変換関数を補正する。具体的には、関数補正部66は、仮想オブジェクト101の位置および傾きを表す行列Mを、デバイス座標での拡大縮小率分、拡大縮小補正をして、新たな行列M´を生成する。そして、関数補正部66は、行列Pに行列M´を乗じて、新たな行列H´を生成する。
そして、射影部71は、新たな行列H´により仮想オブジェクト101をデバイス座標に射影してオブジェクト画像21を生成する。
以後、関数補正部66は、ユーザにより操作がされる毎に、直前の変換関数を表す行列Hを操作情報に基づき補正する。これにより、関数補正部66は、動画像の記録中または再生中等にユーザが操作をする毎に、変換関数を補正することができる。
図13は、記録時における情報端末装置10の処理フローを示す図である。情報端末装置10は、動画像の記録時にステップS11から処理を開始する。
まず、ステップS11において、情報端末装置10は、仮想オブジェクトの選択を受け付ける。情報端末装置10は、一例として、複数の仮想オブジェクトをユーザに提示して、何れか1つの仮想オブジェクトの選択を受け付けてもよい。
続いて、ステップS12において、情報端末装置10は、選択された仮想オブジェクトに対応する変換関数を取得するとともに、初期姿勢を設定する。続いて、ステップS13において、情報端末装置10は、ユーザによる記録開始指示を受け付けて、動画像の記録を開始する。続いて、ステップS14において、情報端末装置10は、記録開始時刻を記録する。
動画像の記録を開始すると、情報端末装置10は、一定時間毎(例えば1フレーム時間毎)にステップS15からステップS24の処理を実行する。
ステップS15において、情報端末装置10は、記録開始時刻からの経過時間tを取得する。続いて、ステップS16において、情報端末装置10は、操作情報を入力する。続いて、ステップS17において、情報端末装置10は、入力した操作情報に基づき変換関数を補正する。なお、情報端末装置10は、操作情報が入力されていなければ、変換関数を補正しない。
続いて、ステップS18において、情報端末装置10は、姿勢情報を検出する。続いて、ステップS19において、情報端末装置10は、検出した姿勢情報に基づき、仮想の3次元空間であるオブジェクト座標に配置された仮想オブジェクトの姿勢を補正する。
続いて、ステップS20において、情報端末装置10は、オブジェクト座標に配置された仮想オブジェクトを、変換関数を用いて、撮像画像が配置される2次元空間であるデバイス座標に射影して、オブジェクト画像を生成する。
続いて、ステップS21において、情報端末装置10は、撮像画像とオブジェクト画像とを合成して合成画像を生成する。続いて、ステップS22において、情報端末装置10は、合成画像を表示する。
続いて、ステップS23において、情報端末装置10は、ステップS16で入力した操作情報およびステップS18で検出した姿勢情報を、経過時間tに対応付けて記録する。続いて、ステップS24において、記録が終了されたか否かを判断する。終了していない場合(ステップS24のNo)、情報端末装置10は、経過時間tを例えば1フレーム分増加させて、処理をステップS15に戻す。情報端末装置10は、処理がステップS15に戻されると、1フレーム分進んだ経過時間tに対してステップS15以降の処理を繰り返す。
記録が終了した場合(ステップS24のYes)、情報端末装置10は、処理をステップS25に進める。ステップS25において、情報端末装置10は、動画像データ、仮想オブジェクト、経過時間t毎の姿勢情報、および、経過時間t毎の操作情報をファイル化して保存する。そして、情報端末装置10は、ステップS25を終了すると、本フローを終了する。
図14は、記録終了時に保存されるデータの一例を示す図である。情報端末装置10は、記録終了時において、図14に示すようなデータをファイル化して保存する。
具体的には、情報端末装置10は、動画像データのファイル名および仮想オブジェクトのファイル名を保存する。
また、情報端末装置10は、経過時間t毎に、ロール角α、ピッチ角βおよびヨー角γの変化量で表される姿勢情報を保存する。また、情報端末装置10は、経過時間t毎に、平行移動量(x,y,z)、回転量rおよび拡大縮小率sを含む操作情報を保存する。
図15は、再生時における情報端末装置10の処理フローを示す図である。情報端末装置10は、動画像の再生時にステップS41から処理を開始する。
まず、ステップS41において、情報端末装置10は、記録されたファイルを読み出す。続いて、ステップS42において、情報端末装置10は、仮想オブジェクトを選択する。この場合において、情報端末装置10は、記録時にファイルに保存された仮想オブジェクトを選択してもよいし、他の仮想オブジェクトを選択してもよい。
続いて、ステップS43において、情報端末装置10は、選択した仮想オブジェクトに対応する変換関数を取得する。続いて、ステップS44において、情報端末装置10は、ユーザの選択に従って、記録時の操作を反映するモード(操作反映モード)、または、記録時の操作を反映しないモード(操作非反映モード)の何れかを設定する。
続いて、ステップS45において、情報端末装置10は、ユーザによる再生開始指示を受け付けて、ファイルに保存された動画像の再生を開始する。
動画像の再生を開始すると、情報端末装置10は、一定時間毎(例えば1フレーム時間毎)にステップS46からステップS56の処理を実行する。
ステップS46において、情報端末装置10は、動画像の記録開始時刻からの経過時間tを取得する。続いて、ステップS47において、情報端末装置10は、操作モードを判断する。情報端末装置10は、操作反映モードである場合(ステップS47のYes)、ステップS48において、ファイルから経過時間tの操作情報を読み出す。情報端末装置10は、操作非反映モードである場合(ステップS47のNo)、ステップS49において、現在の操作情報を入力する。なお、情報端末装置10は、操作反映モードである場合であっても、一時停止動作中であれば、現在の操作情報を入力してもよい。
ステップS48またはステップS49の処理を終了すると、ステップS50において、情報端末装置10は、操作情報に基づき変換関数を補正する。
続いて、ステップS51において、情報端末装置10は、ファイルから経過時間tの姿勢情報を読み出す。続いて、ステップS52において、情報端末装置10は、読み出した姿勢情報に基づき、仮想の3次元空間であるオブジェクト座標に配置された仮想オブジェクトの姿勢を補正する。
続いて、ステップS53において、情報端末装置10は、オブジェクト座標に配置された仮想オブジェクトを、変換関数を用いて、撮像画像が配置される2次元空間であるデバイス座標に射影して、オブジェクト画像を生成する。
続いて、ステップS54において、情報端末装置10は、再生された撮像画像とオブジェクト画像とを合成して合成画像を生成する。続いて、ステップS55において、情報端末装置10は、合成画像を表示する。
続いて、ステップS56において、情報端末装置10は、再生が終了されたか否かを判断する。終了していない場合(ステップS56のNo)、情報端末装置10は、経過時間tを例えば1フレーム分増加させて、処理をステップS46に戻す。情報端末装置10は、処理がステップS46に戻されると、1フレーム分進んだ経過時間tに対してステップS46以降の処理を繰り返す。
再生が終了した場合(ステップS56のYes)、情報端末装置10は、本フローを終了する。
以上のように本実施形態に係る情報端末装置10は、撮像部31の姿勢に応じて仮想オブジェクトの姿勢を補正する。これにより、情報端末装置10によれば、撮像部31の姿勢が変化しても、仮想オブジェクトが現実の空間に配置されているように、仮想オブジェクトを射影して得られたオブジェクト画像の形状を変化させることができる。
また、情報端末装置10は、姿勢情報を撮像画像に同期させて記録する。これにより、情報端末装置10によれば、再生時においても、仮想オブジェクトが現実の空間に配置されているように形状を変化させることができる。この場合、情報端末装置10は、射影後の2次元のオブジェクト画像ではなく、姿勢情報を撮像画像に同期させて記録するので、元となる仮想オブジェクトを他の仮想オブジェクトに変更しても、変更後の仮想オブジェクトを、現実の空間に配置されているように形状を変化させることができる。
また、情報端末装置10は、仮想オブジェクトの配置を操作する操作情報を撮像画像と同期させて記録しておき、再生時において、記録時における操作情報を反映させるか否かを選択できる。そして、情報端末装置10は、記録時における操作情報を反映しない場合には、現在の操作(再生時に入力する操作)により仮想オブジェクトを記録時と異なる位置に配置させることができる。
また、情報端末装置10は、姿勢情報を撮像画像と同期させて記録しているので、再生時において、仮想オブジェクトの表示位置を記録時と異なる位置に配置しても、現実の空間に配置されているように仮想オブジェクトの形状を変更することができる。
(ハードウェア構成)
図16は、情報端末装置10のハードウェア構成を示す図である。
本実施形態に係る情報端末装置10は、例えば図16に示すようなハードウェア構成により実現される。情報端末装置10は、CPU(Central Processing Unit)201と、RAM(Random Access Memory)202と、ROM(Read Only Memory)203と、記憶装置204と、タッチパネルディスプレイ11と、カメラ部12と、ネットワークI/F部207と、加速度センサ211と、ジャイロセンサ212と、磁気センサ213と、GPS(Global Positioning System)センサ214とを備える。そして、これらの各部は、バスにより接続される。
CPU201は、プログラムに従って演算処理および制御処理等を実行するプロセッサである。CPU201は、RAM202の所定領域を作業領域として、ROM203および記憶装置204等に記憶されたプログラムとの協働により各種処理を実行する。
RAM202は、SDRAM(Synchronous Dynamic Random Access Memory)等のメモリである。RAM202は、CPU201の作業領域として機能する。ROM203は、プログラムおよび各種情報を書き換え不可能に記憶するメモリである。
記憶装置204は、フラッシュメモリ等の半導体による記憶媒体、または、磁気的若しくは光学的に記録可能な記憶媒体等にデータを書き込みおよび読み出しをする装置である。記憶装置204は、CPU201からの制御に応じて、記憶媒体にデータの書き込みおよび読み出しをする。
タッチパネルディスプレイ11は、CPU201の制御に応じて、ディスプレイに情報を表示し、ディスプレイに対して操作された情報を入力するデバイスである。カメラ部12は、被写体を撮像して動画像信号を生成するデバイスである。ネットワークI/F部207は、CPU201からの制御に応じて外部の機器とネットワークを介して通信する。
加速度センサ211は、情報端末装置10の加速度および加速度の方向を検出する。ジャイロセンサ212は、情報端末装置10の姿勢を検出する。磁気センサ213は、情報端末装置10が向いている方位を検出する。GPSセンサ214は、情報端末装置10の位置(緯度、経度および高度)を検出する。
本実施形態に係る情報端末装置10で実行されるプログラムは、撮像モジュール、画像格納モジュール、画像記録モジュール、画像再生モジュール、画像選択モジュール、姿勢検出モジュール、姿勢格納モジュール、姿勢記録モジュール、姿勢読出モジュール、姿勢選択モジュール、オブジェクト格納モジュール、姿勢補正モジュール、初期設定モジュール、関数格納モジュール、操作入力モジュール、操作格納モジュール、操作記録モジュール、操作読出モジュール、操作選択モジュール、関数補正モジュール、射影モジュール、合成モジュールおよび表示モジュールを含むモジュール構成となっている。このプログラムは、CPU201(プロセッサ)によりRAM202上に展開して実行されることにより、情報端末装置10を撮像部31、画像格納部32、画像記録部33、画像再生部34、画像選択部35、姿勢検出部41、姿勢格納部42、姿勢記録部43、姿勢読出部44、姿勢選択部45、オブジェクト格納部46、姿勢補正部47、初期設定部51、関数格納部52、操作入力部61、操作格納部62、操作記録部63、操作読出部64、操作選択部65、関数補正部66、射影部71、合成部72および表示部73として機能させる。
なお、情報端末装置10は、このような構成に限らず、これらの構成要素の少なくとも一部をハードウェア回路(例えば半導体集積回路)により実現した構成であってもよい。例えば、撮像部31は、カメラ部12と撮像モジュールとにより実現された構成であってよい。また、姿勢検出部41は、加速度センサ211、ジャイロセンサ212、磁気センサ213およびGPS(Global Positioning System)センサ214の少なくとも1つ、姿勢検出モジュールにより実現された構成であってよい。
また、本実施形態に係る情報端末装置10で実行されるプログラムは、コンピュータにインストール可能な形式または実行可能な形式のファイルで、CD−ROM、フレキシブルディスク、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、本実施形態に係る情報端末装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の情報端末装置10で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成してもよい。また、情報端末装置10で実行されるプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
また、本実施形態に係る情報端末装置10と同様の構成が、端末装置と、端末装置とネットワークを介して接続可能な情報処理装置とを備えるシステムにより実現されてもよい。この場合、端末装置と情報処理装置とはネットワークを介してデータをやり取りをしながら処理を実行する。そして、端末装置および情報処理装置を備えるシステムは、例えば、端末装置が、撮像部31、姿勢検出部41、操作入力部61および表示部73として機能する。そして、情報処理装置が、画像格納部32、画像記録部33、画像再生部34、画像選択部35、姿勢格納部42、姿勢記録部43、姿勢読出部44、姿勢選択部45、オブジェクト格納部46、姿勢補正部47、初期設定部51、関数格納部52、操作格納部62、操作記録部63、操作読出部64、操作選択部65、関数補正部66、射影部71および合成部72として機能する。なお、情報処理装置の一部の機能を端末装置が実行してもよい。
以上、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。
10 情報端末装置
11 タッチパネルディスプレイ
12 カメラ部
20 壁
21 オブジェクト画像
31 撮像部
32 画像格納部
33 画像記録部
34 画像再生部
35 画像選択部
41 姿勢検出部
42 姿勢格納部
43 姿勢記録部
44 姿勢読出部
45 姿勢選択部
46 オブジェクト格納部
47 姿勢補正部
51 初期設定部
52 関数格納部
61 操作入力部
62 操作格納部
63 操作記録部
64 操作読出部
65 操作選択部
66 関数補正部
71 射影部
72 合成部
73 表示部
101 仮想オブジェクト
102 基準オブジェクト画像
201 CPU
202 RAM
203 ROM
204 記憶装置
207 ネットワークI/F部
211 加速度センサ
212 ジャイロセンサ
213 磁気センサ
214 GPSセンサ
特開2005−267033号公報

Claims (14)

  1. 被写体を撮像して撮像画像を生成する撮像部と、
    前記撮像部の初期姿勢を設定する初期設定部と、
    前記撮像部の前記初期姿勢からの姿勢変化を表す姿勢情報を検出する姿勢検出部と、
    前記姿勢情報に応じて、仮想の3次元空間であるオブジェクト座標に配置された予め設定された仮想オブジェクトの姿勢を補正する姿勢補正部と、
    前記仮想オブジェクトを前記撮像画像の表示画面を表す2次元座標であるデバイス座標に射影するための変換関数に基づき、姿勢が補正された前記仮想オブジェクトを前記デバイス座標に射影したオブジェクト画像を生成する射影部と、
    前記撮像画像に前記オブジェクト画像を合成した合成画像を生成する合成部と、
    前記合成画像を表示する表示部と、
    前記撮像画像を記録する画像記録部と、
    前記姿勢情報を前記撮像画像に同期させて記録する姿勢記録部と、
    を備える情報端末装置。
  2. 前記変換関数は、基準姿勢の前記仮想オブジェクトから、前記撮像部が前記初期姿勢のときに表示される基準のデバイス画像を生成する関数であり、
    前記姿勢補正部は、前記撮像部の姿勢の変化とは逆に動かすように、前記仮想オブジェクトの姿勢を前記基準姿勢から補正する
    請求項1に記載の情報端末装置。
  3. 前記姿勢情報は、ロール角、ピッチ角およびヨー角の前記初期姿勢からの変化量で表され、
    前記姿勢補正部は、前記仮想オブジェクトのロール角、ピッチ角およびヨー角を、前記姿勢情報とは逆符号の回転角分、前記基準姿勢から回転させる
    請求項2に記載の情報端末装置。
  4. 記録された前記撮像画像を再生する画像再生部と、
    記録された前記姿勢情報を前記撮像画像に同期させて読み出す姿勢読出部と、
    をさらに備え、
    再生時において、前記姿勢補正部は、前記姿勢読出部によって読み出された前記姿勢情報に応じて前記仮想オブジェクトの姿勢を補正し、
    前記合成部は、再生時において、前記画像再生部により再生された前記撮像画像に、前記オブジェクト画像を合成した前記合成画像を生成する
    請求項1から3の何れか1項に記載の情報端末装置。
  5. ユーザによる前記オブジェクト画像に対する前記デバイス座標での操作情報を入力する操作入力部と、
    前記操作情報を前記撮像画像に同期させて記録する操作記録部と、
    前記操作情報に応じた移動量分、前記仮想オブジェクトがオブジェクト座標上で移動するように、前記変換関数を補正する関数補正部と、
    をさらに備え、
    前記射影部は、前記関数補正部により補正された前記変換関数に基づき、前記オブジェクト画像を生成する
    請求項4に記載の情報端末装置。
  6. 記録された前記操作情報を前記撮像画像に同期させて読み出す操作読出部をさらに備え、
    前記関数補正部は、再生時において、前記操作読出部によって読み出された前記操作情報に応じて前記変換関数を補正する
    請求項5に記載の情報端末装置。
  7. 前記操作入力部は、再生時において、ユーザの操作に基づき、記録時の操作を反映するモードと記録時の操作を反映しないモードとを選択し、
    前記関数補正部は、記録時の操作を反映するモードの場合、前記操作読出部によって読み出された前記操作情報に応じて前記変換関数を補正し、
    前記関数補正部は、記録時の操作を反映しないモードの場合、前記操作入力部によって入力された現在の前記操作情報に応じて前記変換関数を補正する
    請求項6に記載の情報端末装置。
  8. 前記操作入力部は、前記オブジェクト画像の前記デバイス座標での平行移動量を前記操作情報として入力し、
    前記関数補正部は、前記デバイス座標での平行移動量を、前記変換関数の逆関数により前記オブジェクト座標での平行移動量に変換し、変換した前記オブジェクト座標での平行移動量分、前記仮想オブジェクトを平行移動させるように前記変換関数を補正する
    請求項5から7の何れか1項に記載の情報端末装置。
  9. 前記操作入力部は、前記オブジェクト画像の前記デバイス座標での回転量を前記操作情報として入力し、
    前記関数補正部は、前記デバイス座標での回転量分、前記オブジェクト座標において前記仮想オブジェクトを回転させるように前記変換関数を補正する
    請求項5から8の何れか1項に記載の情報端末装置。
  10. 前記操作入力部は、前記オブジェクト画像の前記デバイス座標での拡大縮小率を前記操作情報として入力し、
    前記関数補正部は、前記デバイス座標での拡大縮小率分、前記オブジェクト座標において前記仮想オブジェクトを拡大縮小させるように前記変換関数を補正する
    請求項5から9の何れか1項に記載の情報端末装置。
  11. 前記仮想オブジェクトは、長方形の平面状のオブジェクトであり、
    前記オブジェクト画像は、矩形である
    請求項1から10の何れか1項に記載の情報端末装置。
  12. 撮像部により被写体を撮像して撮像画像を生成し、
    前記撮像部の初期姿勢を設定し、
    前記撮像部の前記初期姿勢からの姿勢変化を表す姿勢情報を検出し、
    前記姿勢情報に応じて、仮想の3次元空間であるオブジェクト座標に配置された予め設定された仮想オブジェクトの姿勢を補正し、
    前記仮想オブジェクトを前記撮像画像の表示画面を表す2次元座標であるデバイス座標に射影するための変換関数に基づき、姿勢が補正された前記仮想オブジェクトを前記デバイス座標に射影したオブジェクト画像を生成し、
    前記撮像画像に前記オブジェクト画像を合成した合成画像を生成し、
    前記合成画像を表示し、
    前記撮像画像を記録し、
    前記姿勢情報を前記撮像画像に同期させて記録する
    情報処理方法。
  13. 端末装置と、前記端末装置とネットワークを介して接続可能な情報処理装置とを備えるシステムであって、
    被写体を撮像して撮像画像を生成する撮像部と、
    前記撮像部の初期姿勢を設定する初期設定部と、
    前記撮像部の前記初期姿勢からの姿勢変化を表す姿勢情報を検出する姿勢検出部と、
    前記姿勢情報に応じて、仮想の3次元空間であるオブジェクト座標に配置された予め設定された仮想オブジェクトの姿勢を補正する姿勢補正部と、
    前記仮想オブジェクトを前記撮像画像の表示画面を表す2次元座標であるデバイス座標に射影するための変換関数に基づき、姿勢が補正された前記仮想オブジェクトを前記デバイス座標に射影したオブジェクト画像を生成する射影部と、
    前記撮像画像に前記オブジェクト画像を合成した合成画像を生成する合成部と、
    前記合成画像を表示する表示部と、
    前記撮像画像を記録する画像記録部と、
    前記姿勢情報を前記撮像画像に同期させて記録する姿勢記録部と、
    を備えるシステム。
  14. コンピュータを情報端末装置として機能させるためのプログラムであって、
    前記情報端末装置を、
    被写体を撮像して撮像画像を生成する撮像部の初期姿勢を設定する初期設定部と、
    前記撮像部の前記初期姿勢からの姿勢変化を表す姿勢情報を検出する姿勢検出部と、
    前記姿勢情報に応じて、仮想の3次元空間であるオブジェクト座標に配置された予め設定された仮想オブジェクトの姿勢を補正する姿勢補正部と、
    前記仮想オブジェクトを前記撮像画像の表示画面を表す2次元座標であるデバイス座標に射影するための変換関数に基づき、姿勢が補正された前記仮想オブジェクトを前記デバイス座標に射影したオブジェクト画像を生成する射影部と、
    前記撮像画像に前記オブジェクト画像を合成した合成画像を生成する合成部と、
    前記撮像画像を記録する画像記録部と、
    前記姿勢情報を前記撮像画像に同期させて記録する姿勢記録部と、
    として機能させるプログラム。
JP2014178874A 2014-09-03 2014-09-03 情報端末装置、情報処理方法、システムおよびプログラム Expired - Fee Related JP6417797B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014178874A JP6417797B2 (ja) 2014-09-03 2014-09-03 情報端末装置、情報処理方法、システムおよびプログラム
US14/836,175 US10078915B2 (en) 2014-09-03 2015-08-26 Information terminal apparatus, information processing method, and system, configured to correct posture of a virtual object depending on changed posture information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014178874A JP6417797B2 (ja) 2014-09-03 2014-09-03 情報端末装置、情報処理方法、システムおよびプログラム

Publications (2)

Publication Number Publication Date
JP2016053788A true JP2016053788A (ja) 2016-04-14
JP6417797B2 JP6417797B2 (ja) 2018-11-07

Family

ID=55403077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014178874A Expired - Fee Related JP6417797B2 (ja) 2014-09-03 2014-09-03 情報端末装置、情報処理方法、システムおよびプログラム

Country Status (2)

Country Link
US (1) US10078915B2 (ja)
JP (1) JP6417797B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200137659A (ko) * 2019-05-31 2020-12-09 주식회사 소울핑거 변형 오브젝트를 제공하기 위한 증강현실 영상 제공 시스템 및 방법
CN115278184A (zh) * 2022-07-18 2022-11-01 峰米(重庆)创新科技有限公司 投影画面校正方法及装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105354820B (zh) * 2015-09-30 2018-05-22 深圳多新哆技术有限责任公司 调整虚拟现实图像的方法及装置
US10469803B2 (en) * 2016-04-08 2019-11-05 Maxx Media Group, LLC System and method for producing three-dimensional images from a live video production that appear to project forward of or vertically above an electronic display
CN108399603B (zh) * 2017-02-07 2022-12-06 厦门雅迅网络股份有限公司 一种图像快速旋转的方法及装置
US11127212B1 (en) * 2017-08-24 2021-09-21 Sean Asher Wilens Method of projecting virtual reality imagery for augmenting real world objects and surfaces
CN109126121B (zh) * 2018-06-01 2022-01-04 成都通甲优博科技有限责任公司 Ar终端互联方法、系统、装置及计算机可读存储介质
WO2020110506A1 (ja) * 2018-11-28 2020-06-04 ソニーセミコンダクタソリューションズ株式会社 表示装置および表示制御装置
US11410439B2 (en) * 2019-05-09 2022-08-09 Snap Inc. Sequence-of-sequences model for 3D object recognition
CN113643356B (zh) * 2020-04-27 2024-05-28 北京达佳互联信息技术有限公司 相机位姿确定、虚拟物体显示方法、装置及电子设备
CN113706699B (zh) * 2021-10-27 2022-02-08 腾讯科技(深圳)有限公司 数据处理方法、装置、电子设备及计算机可读存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285789A (ja) * 2005-04-01 2006-10-19 Canon Inc 画像処理方法、画像処理装置
JP2008146497A (ja) * 2006-12-12 2008-06-26 Canon Inc 画像処理装置、画像処理方法
JP2008287588A (ja) * 2007-05-18 2008-11-27 Canon Inc 画像処理装置および方法
JP2012135337A (ja) * 2010-12-24 2012-07-19 Nintendo Co Ltd ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理方法
JP2012168798A (ja) * 2011-02-15 2012-09-06 Sony Corp 情報処理装置、オーサリング方法及びプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7469381B2 (en) * 2007-01-07 2008-12-23 Apple Inc. List scrolling and document translation, scaling, and rotation on a touch-screen display
JP3944019B2 (ja) * 2002-07-31 2007-07-11 キヤノン株式会社 情報処理装置および方法
JP4371863B2 (ja) 2004-03-12 2009-11-25 キヤノン株式会社 再生装置及び方法
JP4458886B2 (ja) 2004-03-17 2010-04-28 キヤノン株式会社 複合現実感画像の記録装置及び記録方法
US7720436B2 (en) * 2006-01-09 2010-05-18 Nokia Corporation Displaying network objects in mobile devices based on geolocation
JP5047090B2 (ja) * 2008-07-31 2012-10-10 キヤノン株式会社 システム
US9298260B2 (en) * 2010-03-12 2016-03-29 Broadcom Corporation Tactile communication system with communications based on capabilities of a remote system
US9348141B2 (en) * 2010-10-27 2016-05-24 Microsoft Technology Licensing, Llc Low-latency fusing of virtual and real content
JP5724543B2 (ja) * 2011-03-31 2015-05-27 ソニー株式会社 端末装置、オブジェクト制御方法及びプログラム
JP5838747B2 (ja) * 2011-11-11 2016-01-06 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9679414B2 (en) * 2013-03-01 2017-06-13 Apple Inc. Federated mobile device positioning
US9514571B2 (en) * 2013-07-25 2016-12-06 Microsoft Technology Licensing, Llc Late stage reprojection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006285789A (ja) * 2005-04-01 2006-10-19 Canon Inc 画像処理方法、画像処理装置
JP2008146497A (ja) * 2006-12-12 2008-06-26 Canon Inc 画像処理装置、画像処理方法
JP2008287588A (ja) * 2007-05-18 2008-11-27 Canon Inc 画像処理装置および方法
JP2012135337A (ja) * 2010-12-24 2012-07-19 Nintendo Co Ltd ゲームシステム、ゲーム装置、ゲームプログラム、およびゲーム処理方法
JP2012168798A (ja) * 2011-02-15 2012-09-06 Sony Corp 情報処理装置、オーサリング方法及びプログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200137659A (ko) * 2019-05-31 2020-12-09 주식회사 소울핑거 변형 오브젝트를 제공하기 위한 증강현실 영상 제공 시스템 및 방법
KR102294717B1 (ko) * 2019-05-31 2021-08-30 주식회사 퍼피레드 변형 오브젝트를 제공하기 위한 증강현실 영상 제공 시스템 및 방법
CN115278184A (zh) * 2022-07-18 2022-11-01 峰米(重庆)创新科技有限公司 投影画面校正方法及装置
CN115278184B (zh) * 2022-07-18 2024-03-15 峰米(重庆)创新科技有限公司 投影画面校正方法及装置

Also Published As

Publication number Publication date
US20160063713A1 (en) 2016-03-03
US10078915B2 (en) 2018-09-18
JP6417797B2 (ja) 2018-11-07

Similar Documents

Publication Publication Date Title
JP6417797B2 (ja) 情報端末装置、情報処理方法、システムおよびプログラム
JP5754312B2 (ja) 画像処理装置及び画像処理方法、並びにプログラム
US10785469B2 (en) Generation apparatus and method for generating a virtual viewpoint image
US20130329072A1 (en) Motion-Based Image Stitching
US20100238325A1 (en) Image processor and recording medium
JP5799863B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2007266667A (ja) カメラ付き携帯機器、その制御方法及びその撮影支援方法
JP2013027021A (ja) 全方位撮像装置及び全方位撮像方法
US10887565B2 (en) Information processing device and information processing method
JP2010072813A (ja) 画像処理装置および画像処理プログラム
JP6515512B2 (ja) 表示装置、表示装置のキャリブレーション方法、およびキャリブレーションプログラム
JP5966657B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP7244185B2 (ja) ナビゲーションガイドを生成するための方法および装置
KR101518696B1 (ko) 증강현실 컨텐츠의 생성 및 재생 시스템과, 이를 이용한 방법
WO2020084312A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP6181363B2 (ja) 画像処理装置、画像処理方法、動画作成方法、動画作成システム及びプログラム
JP5891879B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5200816B2 (ja) 撮像装置、撮像装置の画像処理方法及び画像処理プログラム
JP2010258613A (ja) 動画処理システム、動画処理方法、動画処理プログラム、および動画処理装置
JP7533619B2 (ja) 情報処理装置、情報処理方法、及びコンピュータプログラム
JP2014241621A (ja) 撮像装置、及びプログラム
JP2019041188A (ja) 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
JP5696525B2 (ja) 撮像装置、撮像方法及びプログラム
US20230260150A1 (en) Image capture apparatus and control method thereof
US20220317442A1 (en) Image processing apparatus and control method for image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180703

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180911

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180924

R151 Written notification of patent or utility model registration

Ref document number: 6417797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees