JP3926837B2 - 表示制御方法および装置、プログラム、並びに携帯機器 - Google Patents

表示制御方法および装置、プログラム、並びに携帯機器 Download PDF

Info

Publication number
JP3926837B2
JP3926837B2 JP2006514063A JP2006514063A JP3926837B2 JP 3926837 B2 JP3926837 B2 JP 3926837B2 JP 2006514063 A JP2006514063 A JP 2006514063A JP 2006514063 A JP2006514063 A JP 2006514063A JP 3926837 B2 JP3926837 B2 JP 3926837B2
Authority
JP
Japan
Prior art keywords
image
display
distance
camera
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006514063A
Other languages
English (en)
Other versions
JPWO2005119591A1 (ja
Inventor
秀人 本村
寛仁 菰淵
克洋 金森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Application granted granted Critical
Publication of JP3926837B2 publication Critical patent/JP3926837B2/ja
Publication of JPWO2005119591A1 publication Critical patent/JPWO2005119591A1/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Description

本発明は、画像計測や画像認識を用いた表示制御方法に関するものであり、特に、カメラが搭載された機器の位置や向きを、カメラの撮影画像を用いて検出し、検出した機器の位置や向きに基づいて表示を制御する技術に関する。
近年、インターネットの普及によってコンピュータや家電機器が相互に接続され、遠隔操作やメディア融合など、いわゆるユビキタスネットワーク社会が形成されつつある。その特徴は、いつでもどこでもコミュニケーションが取れる自由度の高さにあり、ユーザは機器の違いや機器との物理的距離などを意識せずに行動することができる。ユビキタスネットワーク社会の実現には、まずシステム側としてネットワーク接続が必須条件になるが、ユーザと機器との間のいわゆるユーザーインターフェイスの自由度の高さも前提条件になる。ハードウェア・ソフトウェアとして機器が接続されていても、これを利用するユーザがシステムと自由にコミュニケーションできなくては、ユビキタスとはいえない。すなわち、システムの使いやすさ、いわゆるユーザビリティを高める技術が必要となる。
システムのユーザビリティを高める直感的な操作方法を実現するには、システムがユーザの意図を自動的に理解する必要があり、その実現にあたっては、例えば、インターフェースデバイスの位置や向きを検出する技術が有効である。
このようなインターフェースデバイスの1つとして、ポインティングマーカーがある。例えば、特許文献1では、ユーザは自分とは輝度または色が異なっている物体(青色LEDなど)を、ポインティングマーカーとして手に持つ。システムは、ポインティングマーカーの位置を撮像センサによって検出し、検出した位置に応じて表示映像を操作する。これにより、ユーザはシステムの操作方法を理解する必要がなく、直感的、体感的にシステムとコミュニケーションできる。
また、被写体との輝度や色の違いを利用して、撮影画像からマーカーを抽出する方法がある(例えば、特許文献2参照)。予め撮影しておいた基準マーカーの位置と現在のマーカーの位置とを比較し、被写体と撮像センサとの距離を検出する。ユーザはシステム起動時に所定の初期化処理を実行して基準マーカーを登録すればよく、後はシステムが、逐次撮影されるマーカーの位置変化を検出し、被写体と撮像センサの距離を自動的に取得する。
また、コンピュータグラフィックスを利用して構築した仮想空間内で、ユーザがあたかも実物を直接操作しているかのような感覚を与える、いわゆる仮想現実システムでは、ユーザが機器を意識しないで直接、仮想空間内をコントロールできる。例えば、ユーザが手に持った携帯型のディスプレイを3次元的に移動させると、システム側はその移動を加速度センサ等で検知し、動きに合わせて表示画像を切り替える(例えば、特許文献3参照)。仮想現実空間内における視点変更を、手で持ったディスプレイの位置と向きの変更によって、直感的にシステムに与えることができる。
特開2001−356875号公報(図1) 特開2000−230806号公報(図1) 特開平11−18025号公報(図11)
しかしながら、まず特許文献1の技術では、特別なマーカーを準備しなければならず、汎用性に欠け、利用シーンが限られてしまうという問題がある。すなわち、マーカー検出のために被写体との輝度や色の違いを利用しているので、マーカーとして、例えばどのような被写体よりも明るい物や、どのような被写体にも含まれない色を与える必要がある。
また、特許文献2の技術では、1個の撮像センサによって複数のマーカーをとらえ、被写体と撮像センサの距離を検出している。しかしながら、撮像センサの3次元的な位置は検出できない。すなわち、同一距離となる球面上はすべて位置情報として同一と扱われるため、ユーザビリティの点で問題が残る。
一方、特許文献3の技術では、加速度センサ等を利用しており、マーカーを撮像する必要がなく、システム構成の汎用性において優れている。しかしながら、例えば加速度センサは等速運動に対応できず、センサ感度の点で問題がある。この点については、磁気センサや超音波センサなどで多角的に位置・向き情報を検出し補完し合ういわゆるセンサーユージョンが有効であるが、センサの追加は、システムのコストアップにつながるとともに、デバイスの容積や重量を増加させる。また、センサは常時動作である場合が多く、センサ数の増加は、機器の消費電力アップにつながり、特に、携帯型の機器では由由しき問題となる。
そこで、本発明は上記の事情に鑑みてなされたものであり、簡易な構成によって機器の位置や向きを検出し、検出した機器の位置や向きに基づいて簡単に表示画像の表示を制御することができる表示制御方法および表示制御装置を提供することを目的とする。
上記目的を達成するため、本発明に係る表示制御方法は、幾何学的関係が既知である第1および第2のカメラが搭載された機器の位置に基づいて、表示画像の表示を制御する方法であって、前記第1のカメラが、画像特徴が既知の対象物を含む第1の画像を撮影し、前記第2のカメラが、前記対象物周辺のシーンを含む第2の画像を撮影し、前記第1の画像から、前記対象物の画像特徴を抽出し、抽出した前記対象物の画像特徴を、既知である前記対象物の画像特徴と比較して、前記対象物から前記機器までの距離と前記対象物から見た前記機器の方向とを算出し、前記第2の画像から、前記第2の画像の画像特徴を抽出し、抽出した前記第2の画像の画像特徴を、前記第2のカメラによって撮影された過去の画像から抽出した画像特徴と比較して、前記対象物から前記機器までの距離と前記対象物から見た前記機器の方向とを算出し、前記第1の画像に基づいて算出した前記距離および前記方向と、前記第2の画像に基づいて算出した前記距離および前記方向とに基づいて、前記表示画像の表示を制御することを特徴とする。
本発明によると、2個のカメラによって、機器の位置や向きを検出できるので、検出のために要する機器の容積や重量の増加を抑えることができ、簡単に表示画像の表示を制御することができる。また、消費電力も低く抑えることができる。
本発明の実施の形態に係る表示制御方法は、幾何学的関係が既知である第1および第2のカメラが搭載された機器の位置に基づいて、表示画像の表示を制御する方法であって、前記第1のカメラが、画像特徴が既知の対象物を含む第1の画像を撮影し、前記第2のカメラが、前記対象物周辺のシーンを含む第2の画像を撮影し、前記第1の画像から、前記対象物の画像特徴を抽出し、抽出した前記対象物の画像特徴を、既知である前記対象物の画像特徴と比較して、前記対象物から前記機器までの距離を算出し、前記第2の画像から、前記第2の画像の画像特徴を抽出し、前記第1の画像から抽出した前記対象物の画像特徴、および前記第2の画像から抽出した前記第2の画像の画像特徴のうち少なくともいずれか一方を用いて、前記対象物から見た前記機器の方向を算出し、算出した前記対象物から前記機器までの距離、および前記機器の方向に基づいて、前記表示画像の表示を制御することを特徴とする。
これによって、第1のカメラによって撮影された,画像特徴が既知の対象物を含む第1の画像から、対象物から機器までの距離が算出されるとともに、第2のカメラによって撮影された第2の画像から、対象物から見た機器の方向が算出される。すなわち、2個のカメラによって、対象物を基準とした当該機器の距離と方向、すなわち3次元的位置を検出することができる。そして、この機器の3次元的位置により簡単に表示画像の表示を制御することができる。
ここで、前記対象物は、前記機器を利用するユーザの顔であることが好ましい。これによって、ユーザが機器を手で持って、第1のカメラによって自分の顔を撮影するとともに、第2のカメラによって周辺の風景を撮影するだけで、自分の顔を基準とした機器の3次元位置が算出される。
また、前記機器の方向を算出する際に、前記第2の画像から抽出した前記第2の画像の画像特徴を、前記第2のカメラによって撮影された過去の画像から抽出した画像特徴と比較して、前記機器の方向を算出してもよい。また、前記機器の方向を算出する際に、前記第1の画像から抽出した前記対象物の画像特徴を、既知である前記対象物の画像特徴と比較して、前記機器の方向を算出してもよい。
また、前記表示制御方法は、さらに、前記対象物に対する前記機器の向きを、前記第1の画像から抽出した前記対象物の画像特徴、および前記第2の画像から抽出した前記第2の画像の画像特徴のうち少なくともいずれか一方を用いて算出し、前記表示画像の表示を制御する際に、算出した前記対象物から前記機器までの距離、前記機器の方向、および前記機器の向きに基づいて、前記表示画像の表示を制御してもよい。これによって、機器の3次元的位置だけでなく、さらに機器の向きにも応じてより簡単に表示画像の表示を制御することができる。
なお、本発明は、このような表示制御方法として実現することができるだけでなく、このような表示制御方法が含む特徴的なステップを手段とする表示制御装置として実現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体やインターネット等の伝送媒体を介して配信することができるのは言うまでもない。
以下、本発明の実施の形態について、図面を参照して説明する。
図1は本発明の一実施形態に係る表示制御方法を実行する様子を示す図である。図1において、本発明に係る機器としての携帯電話20は、幾何学的関係が既知である第1および第2のカメラとしての自分側カメラ21および他人側カメラ22が搭載されており、かつ、携帯電話20の位置と向きに応じて表示映像を切り替えるインタラクティブ表示システムが、実現されている。
ユーザ10は携帯電話20を手で持ち、画面(図示省略)の映像を見ている。携帯電話20に搭載された2台のカメラ21,22のうち、自分側カメラ21は、画像特徴が既知の対象物としてユーザ10の顔を撮影する。一方、相手側カメラ22は、自分側カメラ21と光軸を共有し、撮影方向は反対側を向いている。したがって、ユーザ10は相手側カメラ22の撮影画角に入ることはなく、相手側カメラ22はユーザ10の向かい側のシーンを撮影する。携帯電話20の内部には、後述する位置検出装置としての位置向き検出回路30が搭載されており、この位置向き検出回路30が、ユーザ10の手の動きによって決定される携帯電話20の位置と向きを検出する。画面には携帯電話20の位置と向きに応じた映像が表示され、ユーザ10は携帯電話20を動かすことによって、見たい映像を自由に選ぶことができる。
携帯電話は、その携帯性から、表示部(ディスプレイ)の大きさに自ずと限界があり、表示できる画像サイズに上限がある。そこで、テレビやコンピュータ向けに広く流通している画像・映像を携帯電話のディスプレイに表示した場合、細部が読み取りにくいという視認性の問題が生じる。視認性を上げるためには、注目点を中心に画像を拡大すればよいが、このとき、ボタンやダイヤルの代わりに携帯電話の位置や向きの変更によって、画像拡大が直感的に実行できると、利便性が向上する。また、細部を確認した後、再び全体画像を見たい場合に、表示映像の大きさや切り出し範囲を、携帯電話の位置や向きの変更によって直接的に変更できると、操作性の面で有効である。インタラクティブ表示システムにおける映像切り替え機能は、画像の拡大、縮小に限らず、映し出される被写体の向きや被写体を照らす照明の陰影の変化など様々な機能に適用可能であり、映像の表現力、リアリティ、視認性等の向上に大きく寄与する。
図1に示すように、携帯電話20の位置は、ユーザ10の両目の中央を回転中心とした回転座標系で表すものとする。回転中心から携帯電話20までの距離をro、位置座標法線NLに対する水平方向の回転角度をθo、位置座標法線NLに対する鉛直方向の回転角度をφoとする。
図2は相対座標による表現を示すための概念図である。図2のように、携帯電話20画面の可読距離の最短位置を距離ro=0.0、ユーザ10が腕を最も伸ばした位置を距離ro=1.0とする。またユーザ10が携帯電話20を持つ腕を左右に振る範囲で、右端をθo=1.0、左端をθo=−1.0とし、位置座標法線NLの方向をθo=0.0とする。同様に、ユーザ10が携帯電話20を持つ腕を上下に振る範囲で、上端をφo=1.0、下端をφo=−1.0とし、位置座標法線NLの方向をφo=0.0とする。
なお、上述した位置座標定義は一例であり、本発明は、位置座標の定義方法を制限するものではない。
図3は携帯電話20の向きの表現を示すための概念図である。図3に示すように、携帯電話20(図3では模式的に表現)の向きは、基準面との水平方向の角度と鉛直方向の角度で表す。基準面は任意に設定可能であり、図3では、初期状態で撮影したユーザ10の両目と鼻の位置から決定される面RSとする。図3の携帯電話20の向きは、基準面RSとの水平方向の角度θcおよび鉛直方向の角度φcによって表される。なお、回転中心は両目の中央に制限されることはなく、ユーザ10の回転中心付近に設定すればいい。
図4は本発明の一実施形態に係る表示制御装置の構成を示すブロック図である。図4の表示制御装置30は、自分側カメラ21の撮影画像である第1の画像IM1、および相手側カメラ22の撮影画像である第2の画像IM2に基づいて、携帯電話20の位置(ro,θo,φo)と向き(θc,φc)を算出し、表示画像の表示を制御する。表示制御装置30は、図4に示すように顔特徴抽出部31、大きさ比較部32a、位置比較部32b、形状比較部32c、メモリ33、距離算出部34、方向算出部35、シーン特徴抽出部36、大きさ比較部37a、位置比較部37b,形状比較部37c、メモリ38、向き算出部39、および表示制御部41を備えている。なお、大きさ比較部32a、メモリ33および距離算出部34によって、第1の算出手段が構成されており、位置比較部37b,形状比較部37c、メモリ38および方向算出部35によって、第2の算出手段が構成されている。
第1の特徴抽出手段としての顔特徴抽出部31は、第1の画像IM1から目、鼻、口等の顔部位を中心に顔特徴点を抽出し、顔特徴信号S1を出力する。顔特徴信号S1は、大きさ比較部32a、位置比較部32bおよび形状比較部32cにそれぞれ供給される。メモリ33には、予め抽出された顔特徴点が基準図形として蓄積されている。第2の特徴抽出手段としてのシーン特徴抽出部36は、第2の画像IM2からシーン特徴点を抽出し、シーン特徴信号S2を出力する。シーン特徴信号S2は、大きさ比較部37a、位置抽出部37bおよび形状抽出部37cにそれぞれ供給される。メモリ38には、過去の画像から抽出された特徴点や、マーカー図形の情報が格納されている。
大きさ比較部32aは、顔特徴信号SIから得られた画像特徴(マーカー図形)とメモリ33に蓄積された基準図形との大きさを比較する。距離算出部34は、大きさ比較部32aによる比較結果から距離roを算出する。
図5は距離roを求める方法の一例を説明するための図である。図5の例では、瞳の中心に顔特徴点を設け、瞳の中心同士をつなぐ線分をマーカー図形として設定している。メモリ33には、基準マーカー図形として、距離ro=0.0の位置で撮影した画像A1から得た瞳中心同士をつなぐ線分L1と、距離ro=1.0の位置で撮影した画像A2から得た瞳中心同士をつなぐ線分L2とが、予め格納されている。線分L1の長さを(de,near,base)とし、線分L2の長さを(de,far,base)とする。このとき、顔特徴点信号S1から得られた瞳中心同士をつなぐ線分の長さ(瞳間距離)がdeであったとすると、距離roは次の式で与えられる。
ro=(de,near,base−de)/(de,near,base−de,far,base)
自分側カメラ21で撮影される撮影画像IM1には常にユーザ10の顔が映っているため、このように瞳中心をつなぐ線分をマーカー図形として設定する方法によると、任意の撮影シーンからマーカーを抽出する場合に比べて、安定した検出が期待できる。
なお、ここでは、距離ro=0.0,1.0の2箇所におけるマーカー図形を初期データとして用いるものとしたが、初期データの与え方および距離roの算出はこれに限られるものではない。例えば、携帯電話の電源投入後のシステム初期化時に瞳検出を行い、この瞳間距離を基準にして、瞳間距離の変化倍率を算出し、距離roの変化倍率に利用してもかまわない。
また、ここでは、瞳中心をつなぐ線分をマーカー図形として利用し、その大きさとして線分の長さを用いたが、マーカー図形の種類、サイズ、個数、およびその大きさの定義については、様々なものが考えられる。
一方、携帯電話20の方向すなわち角度θo,φoは、自分側カメラ21と相手側カメラ22によって協調して検出することが有効である。図6は携帯電話20を水平方向に動かした場合(角度θo)に、自分側カメラ21および相手側カメラ22によって撮影される画像のイメージを示す。図6では、ユーザ10の目の前の机に、鉛筆、ノートおよびマグカップが置かれている。
すなわち、自分側カメラ21は回転中心であるユーザ10を常に映しているため、携帯電話20を水平方向に動かした場合であっても、自分側カメラ21からはほぼ同じ映像が得られる(画像C1,C2,C3)。もちろん、手で動かすので、ロボットアームの機械的な回転とは異なり、画像C1〜C3が全く同一の映像になることはなく、このため、マーカー図形の位置は一応、互いに異なる。ところが、その違いはさほど大きくはないため、画像C1〜C3から角度θoを検出した場合、その解像度は低くなる。
一方、相手側カメラ22はユーザ10の向かい側のシーンをとらえるため、画像B1,B2,B3に示すように、得られる映像は携帯電話20の動きに応じて大きく変化する。ここで、画像B2から、ノートや鉛筆のエッジの輝度差等を用いて特徴点を抽出し、角度θoの検出を開始したとする。その後、ユーザ10が左手側へ携帯電話20を移動させると、画像B1のように、ノートの一部が画像中から消え、鉛筆の全体が映し出される。逆に、右手側に携帯電話20を移動させると、画像B3のように、マグカップが画像に現れる。そこで、相手側カメラ22の移動に伴う特徴点追跡を複数点、並列に実行する。これにより、一部の特徴点が画像中から消滅しても、他の特徴点から角度θoを検出することができる。また、画像に現れた物体から新たな特徴点が検出されたとき、これを特徴点追跡の対象に追加する。このように、相手側カメラ22によって撮影された画像中の特徴点を追跡することによって、すなわち、第2の画像IM2から抽出した画像特徴を、過去の画像から抽出した画像特徴と比較することによって、角度θoを高い解像度で検出できる。ただし、相手側カメラ22では撮影される物体が任意であるため、常に顔画像を撮影している自分側カメラ21と比べると、特徴検出の安定性には欠ける。
すなわち、自分側カメラ21はユーザ10の顔を常に撮影しているため、マーカーの検出は安定しているが、移動量が小さいので、角度θoを細かく検出するには不向きである。一方、相手側カメラ22は撮影画像が大きく変化するため、特徴点の移動量が大きく、角度θoを細かく算出できるものの、撮影されるシーンが任意であるため、マーカー検出の精度が不安定になる可能性がある。
このように、自分側カメラ21と相手側カメラ22はともに、角度θoの検出においてメリットとデメリットを持っているため、互いに補完動作することによって、検出精度を向上させることができる。例えば、相手側カメラ22の画像について特徴点の検出に失敗したときは、自分側カメラ21の画像から角度θoを検出するようにし、相手側カメラ22の画像についての特徴点検出が回復するまで、自分側カメラ21を利用するようにすればよい。
また、例えば自分側カメラ21の画像および相手側カメラ22の画像それぞれから算出された角度θoの平均値を用いることとしても構わない。また、例えば自分側カメラ21の画像および相手側カメラ22の画像それぞれから算出された角度θoのうち、過去の履歴や所定の閾値等から特異な値とされる値を用いないこととしても構わない。
鉛直方向の回転角度φoも、水平方向の回転角度θoと同様にして検出することができる。なお、自分側カメラ21の映像は、水平方向の動きに比べて変化が大きくなるため、検出精度は多少向上すると考えられる。ただし、自分側カメラ21と相手側カメラ22のメリットデメリットの関係は、水平方向と同様であり、したがって、位置検出精度の向上のために、補完動作による協調処理は有効である。
すなわち、方向算出部35は、位置比較部32bによる比較結果と、位置比較部37bによる比較結果とを用いて、角度θo,φoすなわち携帯電話20の方向を算出する。
2台のカメラの撮影映像による協調処理は、距離roの検出においても有効である。すなわち、第2の画像IM2からもマーカー図形の大きさの変化を用いて距離roを求めることができる。なお、任意のシーンからマーカー図形を抽出するため、検出は不安定になる可能性はあるが、第1の画像IM1からのマーカー抽出も何らかの原因によって失敗する可能性があるため、第2の画像IM2からの距離検出はバックアップとして有効である。
また、携帯電話20の向きは、マーカー図形の位置比較または形状比較によって検出することができる。図7は携帯電話20の向きを変更した際に自分側カメラ21によって撮影される映像のイメージを示す。図7において、画像D1は、携帯電話20が水平方向に角度θcだけ回転したときの映像である。画像D1では、ユーザ10は画像の横方向(この例では右側)に移動している。画像D2は、携帯電話20が鉛直方向に角度φcだけ回転したときの映像である。画像D2では、ユーザ10は画像の縦方向(この例では上)に移動している。
よって、マーカー図形(例えば肩のエッジ)の位置の移動量を求めれば、携帯電話20の向きは検出できる。また、マーカー図形の形状に着目すると、向きの変化によって、図形は扁平し、例えば円は楕円に変形する。そこで、マーカー図形の形状の変化から、携帯電話20の向きを検出することも可能である。相手側カメラ22の撮影画像からも、同様に、携帯電話20の向きを検出することができる。
すなわち、向き算出部39は、位置比較部32bおよび形状比較部32cの比較結果と、位置比較部37bおよび形状比較部37cの比較結果を用いて、角度θc,φcすなわち携帯電話20の向きを算出する。
なお、自分側カメラ21によって撮影した第1の画像IM1においては、ユーザ10の顔の背景にある照明をマーカーにした方が有効な場合もある。このような場合、第1の画像IM1をシーン特徴点抽出部36に与えて、マーカー図形を抽出するようにしてもよい。
表示制御部41は、ユーザ10によって選択された画像記憶部43に記憶されている画像を表示部44へ表示する。また、表示制御部41は、距離算出部34によって算出された距離ro、方向算出部35によって算出された角度θo,φo、および向き算出部39によって算出された角度θc,φcに基づいて、表示部44に表示している画像(表示画像)の表示を制御する。なお、画像記憶部43には、撮影された方向や大きさが異なる複数の画像があらかじめ記憶されているものとする。
図8は拡大または縮小表示の制御を説明するための図である。ここで、表示部44には最初は表示画像Eが表示されているものとする。表示制御部41は、距離算出部34によって算出された距離roに応じて、図8に示す表示画像Eを拡大または縮小して表示する制御を行う。すなわち、表示制御部41は、ユーザ10によって携帯電話20が動かされ、例えば距離roが短くなったとすると、図8に示す表示画像E1のように画像を拡大して表示するように制御する。一方、例えば距離roが長くなったとすると、表示制御部41は、図8に示す表示画像E2のように画像を縮小して表示するように制御する。また、表示制御部41は、向き算出部39によって算出された角度θc,φcにより、表示画像Eを拡大または縮小する際の中心位置を制御する。
図9は表示方向の変更表示の制御を説明するための図である。ここで、表示部44には最初は表示画像Eが表示されているものとする。表示制御部41は、方向算出部35によって算出された角度θo,φoに応じて、図9に示す表示画像Eの表示方向を変更して表示する制御を行う。すなわち、表示制御部41は、ユーザ10によって携帯電話20が動かされ、例えば右方向(角度θoが正方向)へ移動したとすると、図9に示す表示画像E3のように右方向から見た画像を表示するように制御する。一方、例えば左方向(角度θoが負方向)へ移動したとすると、表示制御部41は、表示画像E4のように左方向から見た画像を表示するように制御する。また、例えば上方向(角度φoが正方向)へ移動したとすると、表示制御部41は、表示画像E5のように下方向から見た画像を表示するように制御する。一方、例えば下方向(角度φoが負方向)へ移動したとすると、表示制御部41は、表示画像E6のように上方向から見た画像を表示するように制御する。
なお、表示制御部41は、上記のように初期位置からユーザ10によって携帯電話20が動かされ、その初期位置からの移動量(相対的な値)に応じて表示画像の表示を制御しているが、これに限られるものではない。例えば、表示制御部41は、距離算出部34によって算出された距離ro、方向算出部35によって算出された角度θo,φo、および向き算出部39によって算出された角度θc,φcそのものの値(絶対的な値)に応じて、表示画像の表示を制御しても構わない。
また、表示制御部41は、画像記憶部43に記憶されている画像を表示部44へ表示するものとしているが、携帯電話20が備える画像記憶部43に記憶されている画像だけでなく、例えばオンラインショッピングにおける画像のようにインターネット等のネットワークを介して取得される画像の表示を制御しても構わない。
また、表示制御部41は、表示画像の表示を制御する際に、撮影された方向や大きさが異なる複数の画像を用いず、1枚の画像をメモリ42に格納し、この画像を画像処理することによって表示画像の表示を制御しても構わない。
図10は位置向き検出回路の他の構成を示すブロック図である。本実施形態では、ユーザ10を回転中心とする回転座標系で携帯電話20の位置を記述するため、図6で説明したように、携帯電話20の方向の検出は、相手側カメラ22で撮影した第2の画像IM2を用いる方が好ましい。このような観点から、図10の構成では、図4の構成と比べて回路規模を大幅に削減している。
すなわち、図10の位置向き検出回路30Aにおいて、角度θo,φoは、相手側カメラ22で撮影した第2の画像IM2から、位置比較部37bおよび方向算出部35Aによって検出する。向きθc,φcについても、マーカー図形の位置の違いが位置比較部37bによって算出されるので、これを利用して、向き算出部39Aによって検出する。一方、距離roは、顔画像からのマーカー抽出が安定しているため、自分側カメラ21で撮影した第1の画像IM1を利用して検出する。
図11も位置向き検出回路の他の構成を示すブロック図である。検出の要となるマーカーは、任意の被写体よりも、特定の対象物の方が精度よく検出できる。そこで、図11の構成では、顔画像からマーカーを抽出する処理を優先することによって、図4の構成と比べて回路規模を大幅に削減している。
すなわち、図11の位置向き検出回路30Bにおいて、角度θo,φoの検出は、相手側カメラ22で撮影された第2の画像IM2から、位置比較部37bおよび方向算出部35によって実行する。一方、距離roと向きθc,φcは、自分側カメラ21で撮影された第1の画像IM1から、大きさ比較部32a、距離算出部34Aおよび向き算出部39Bによって,顔画像をマーカー図形として検出する。
なお、本実施の形態では、ユーザ10が携帯電話20を手で動かす場合を例にとって説明したが、機器の移動方法は任意であり、本発明が制限するものではない。
また、2個のカメラの位置は厳密にいえば異なっているが、通常は、カメラは小型であるため、その違いは無視できる。仮に無視できない場合でも、2つのカメラの幾何的位置換算で補正すればいいし、2つのカメラ位置の平均値を採用できる場合もあろう。
なお、本実施の形態では、自分側カメラ21と相手側カメラ22の光軸が一致している。光軸が一致しているとき、2つのカメラ21,22は幾何学的に最も簡単な位置関係にある。すなわち、これは2つのカメラ21,22の間の幾何的変換を単純化するためのアイデアである。ただし、本発明では、2つのカメラの光軸が一致している必要はなく、幾何学的関係が既知であれば、2つのカメラは任意の位置関係にあってかまわない。
また、本実施の形態では、2個のカメラを用いるものとしたが、例えば、1台の広角カメラによって、広い視野をカバーして撮影してもかまわない。すなわち、2つの撮影画像のうち、その1つが、画像特徴が既知の対象物を含んでいればよい。
本発明は、2個のカメラという簡易な構成によって実現できるので、携帯型の機器に容易に導入可能である。検出された機器位置や向きに応じた映像をディスプレイに逐次表示することによって、ディスプレイの表示面積が狭い場合であっても、ユーザはディスプレイを窓として、被写体全体を見たり、手にとった感覚でリアリティ豊かに被写体を観察できたりするので、例えばオンラインショッピングの実用性を大幅に向上することができる。また、本発明は、実写とコンピュータグラフィックスの併用が有効な医療用途やデジタルアーカイブなどの博物館用途にも利用できる。
図1は本発明の一実施形態に係る表示制御方法の実行状態を示す図である。 図2は図1の状態の相対座標による表現を示すための概念図である。 図3は機器の向きの表現を示すための概念図である。 図4は本発明の一実施形態に係る表示制御装置の構成を示すブロック図である。 図5は機器までの距離の検出方法の一例を説明するための図である。 図6は機器の方向の検出方法の一例を説明するための図である。 図7は機器の向きの検出方法の一例を説明するための図である。 図8は拡大または縮小表示の制御を説明するための図である。 図9は表示方向の変更表示の制御を説明するための図である。 図10は図4の構成の変形例である。 図11は図4の構成の変形例である。
符号の説明
10 ユーザ
20 携帯電話(機器)
21 自分側カメラ(第1のカメラ)
22 他人側カメラ(第2のカメラ)
30,30A,30B 表示制御装置
31 顔特徴抽出部(第1の特徴抽出部)
32a,37a 大きさ比較部
32b,37b 位置比較部
32c,37c 形状比較部
33,38,42 メモリ
34,34A 距離算出部
35,35A 方向算出部
36 シーン特徴抽出部(第2の特徴抽出部)
39,39A,39B 向き算出部
41 表示制御部
43 画像記憶部
44 表示部
IM1 第1の画像
IM2 第2の画像

Claims (8)

  1. 幾何学的関係が既知である第1および第2のカメラが搭載された機器の位置に基づいて、表示画像の表示を制御する方法であって、
    前記第1のカメラが、画像特徴が既知の対象物を含む第1の画像を撮影し、
    前記第2のカメラが、前記対象物周辺のシーンを含む第2の画像を撮影し、
    前記第1の画像から、前記対象物の画像特徴を抽出し、
    抽出した前記対象物の画像特徴を、既知である前記対象物の画像特徴と比較して、前記対象物から前記機器までの距離と前記対象物から見た前記機器の方向とを算出し、
    前記第2の画像から、前記第2の画像の画像特徴を抽出し、
    抽出した前記第2の画像の画像特徴を、前記第2のカメラによって撮影された過去の画像から抽出した画像特徴と比較して、前記対象物から前記機器までの距離と前記対象物から見た前記機器の方向とを算出し、
    前記第1の画像に基づいて算出した前記距離および前記方向と、前記第2の画像に基づいて算出した前記距離および前記方向とに基づいて、前記表示画像の表示を制御する
    ことを特徴とする表示制御方法。
  2. 前記対象物は、前記機器を利用するユーザの顔である
    ことを特徴とする請求項1記載の表示制御方法。
  3. 前記表示制御方法は、さらに、
    前記対象物に対する前記機器の向きを、前記第1の画像から抽出した前記対象物の画像特徴、および前記第2の画像から抽出した前記第2の画像の画像特徴のうち少なくともいずれか一方を用いて算出し、
    前記表示画像の表示を制御する際に、算出した前記対象物から前記機器までの距離、前記機器の方向、および前記機器の向きに基づいて、前記表示画像の表示を制御する
    ことを特徴とする請求項1記載の表示制御方法。
  4. 幾何学的関係が既知である第1および第2のカメラが搭載された機器の位置に基づいて、表示画像の表示を制御する装置であって、
    前記第1のカメラによって撮影された,画像特徴が既知の対象物を含む第1の画像から、前記対象物の画像特徴を抽出する第1の特徴抽出手段と、
    前記第1の特徴抽出手段によって抽出された前記対象物の画像特徴と、既知である前記対象物の画像特徴とを比較して、前記対象物から前記機器までの距離と前記対象物から見た前記機器の方向とを算出する第1の算出手段と、
    前記第2のカメラによって撮影された、前記対象物周辺のシーンを含む第2の画像から、前記第2の画像の画像特徴を抽出する第2の特徴抽出手段と、
    前記第2の特徴抽出手段によって抽出された前記第2の画像の画像特徴を、前記第2のカメラによって撮影された過去の画像から抽出した画像特徴と比較して、前記対象物から前記機器までの距離と前記対象物から見た前記機器の方向とを算出する第2の算出手段と、
    前記第1の算出手段によって算出された前記距離および前記方向と、前記第2の算出手段によって算出された前記距離および前記方向とに基づいて、前記表示画像の表示を制御する表示制御手段と
    を備えることを特徴とする表示制御装置。
  5. 幾何学的関係が既知である第1および第2のカメラが搭載された携帯機器であって、
    当該携帯機器の位置に基づいて表示画像の表示を制御する請求項記載の表示制御装置
    を備えることを特徴とする携帯機器。
  6. 幾何学的関係が既知である第1および第2のカメラが搭載された機器の位置に基づいて、表示画像の表示を制御するためのプログラムであって、
    前記第1のカメラによって撮影された,画像特徴が既知の対象物を含む第1の画像から、前記対象物の画像特徴を抽出するステップと、
    抽出された前記対象物の画像特徴と、既知である前記対象物の画像特徴とを比較して、前記対象物から前記機器までの距離と前記対象物から見た前記機器の方向とを算出するステップと、
    前記第2のカメラによって撮影された,前記対象物周辺のシーンを含む第2の画像から、前記第2の画像の画像特徴を抽出するステップと、
    抽出された前記第2の画像の画像特徴を、前記第2のカメラによって撮影された過去の画像から抽出した画像特徴と比較して、前記対象物から前記機器までの距離と前記対象物から見た前記機器の方向とを算出するステップと、
    前記第1の画像に基づいて算出された前記距離および前記方向と、前記第2の画像に基づいて算出された前記距離および前記方向とに基づいて、前記表示画像の表示を制御するステップとをコンピュータに実行させる
    ことを特徴とするプログラム。
  7. 前記表示画像の表示を制御する際に、前記第1の画像に基づいて算出した前記距離および前記方向と、前記第2の画像に基づいて算出した前記距離および前記方向とを補完的に用いて、前記対象物から前記機器までの距離と前記対象物から見た前記機器の方向とを算出し、算出した前記距離および前記方向に基づいて前記表示画像の表示を制御する
    ことを特徴とする請求項1記載の表示制御方法。
  8. 前記第2の画像の画像特徴を抽出することができなかった場合、前記第2の画像の画像特徴を抽出することができるまでは、前記表示画像の表示を制御する際に、前記第1の画像に基づいて算出した前記距離および前記方向に基づいて、前記表示画像の表示を制御する
    ことを特徴とする請求項記載の表示制御方法。
JP2006514063A 2004-06-04 2005-05-19 表示制御方法および装置、プログラム、並びに携帯機器 Expired - Fee Related JP3926837B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2004167242 2004-06-04
JP2004167242 2004-06-04
PCT/JP2005/009180 WO2005119591A1 (ja) 2004-06-04 2005-05-19 表示制御方法および装置、プログラム、並びに携帯機器

Publications (2)

Publication Number Publication Date
JP3926837B2 true JP3926837B2 (ja) 2007-06-06
JPWO2005119591A1 JPWO2005119591A1 (ja) 2008-04-03

Family

ID=35463086

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006514063A Expired - Fee Related JP3926837B2 (ja) 2004-06-04 2005-05-19 表示制御方法および装置、プログラム、並びに携帯機器

Country Status (4)

Country Link
US (1) US7535486B2 (ja)
JP (1) JP3926837B2 (ja)
CN (1) CN100461212C (ja)
WO (1) WO2005119591A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248655A (ja) * 2010-05-27 2011-12-08 Ntt Comware Corp ユーザ視点空間映像提示装置、ユーザ視点空間映像提示方法及びプログラム
JP2012522415A (ja) * 2009-03-27 2012-09-20 ソニーモバイルコミュニケーションズ, エービー タッチスクリーン機能を変更するためのシステム及び方法

Families Citing this family (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040162637A1 (en) 2002-07-25 2004-08-19 Yulun Wang Medical tele-robotic system with a master remote station with an arbitrator
US6925357B2 (en) 2002-07-25 2005-08-02 Intouch Health, Inc. Medical tele-robotic system
US7813836B2 (en) 2003-12-09 2010-10-12 Intouch Technologies, Inc. Protocol for a remotely controlled videoconferencing robot
US20050204438A1 (en) 2004-02-26 2005-09-15 Yulun Wang Graphical interface for a remote presence system
US8077963B2 (en) 2004-07-13 2011-12-13 Yulun Wang Mobile robot with a head-based movement mapping scheme
US9198728B2 (en) 2005-09-30 2015-12-01 Intouch Technologies, Inc. Multi-camera mobile teleconferencing platform
US8849679B2 (en) 2006-06-15 2014-09-30 Intouch Technologies, Inc. Remote controlled robot system that provides medical images
US7860382B2 (en) * 2006-10-02 2010-12-28 Sony Ericsson Mobile Communications Ab Selecting autofocus area in an image
US9596401B2 (en) 2006-10-02 2017-03-14 Sony Corporation Focusing an image based on a direction of a face of a user
JP4656331B2 (ja) * 2006-12-27 2011-03-23 富士フイルム株式会社 撮像装置および撮像方法
FR2911707B1 (fr) * 2007-01-22 2009-07-10 Total Immersion Sa Procede et dispositifs de realite augmentee utilisant un suivi automatique, en temps reel, d'objets geometriques planaires textures, sans marqueur, dans un flux video.
WO2008094892A2 (en) * 2007-01-29 2008-08-07 Vergence Media, Inc. Methodology to optimize and provide streaming object rotation using composite images
US20080231726A1 (en) * 2007-03-23 2008-09-25 Motorola, Inc. Apparatus and method for image color correction in a portable device
US20080266326A1 (en) * 2007-04-25 2008-10-30 Ati Technologies Ulc Automatic image reorientation
US9160783B2 (en) 2007-05-09 2015-10-13 Intouch Technologies, Inc. Robot system that operates through a network firewall
SG150414A1 (en) * 2007-09-05 2009-03-30 Creative Tech Ltd Methods for processing a composite video image with feature indication
US8209635B2 (en) * 2007-12-20 2012-06-26 Sony Mobile Communications Ab System and method for dynamically changing a display
US8384718B2 (en) * 2008-01-10 2013-02-26 Sony Corporation System and method for navigating a 3D graphical user interface
CN101489082B (zh) * 2008-01-18 2011-12-28 华硕电脑股份有限公司 电子装置、影像串流的处理模块与处理方法
US10875182B2 (en) 2008-03-20 2020-12-29 Teladoc Health, Inc. Remote presence system mounted to operating room hardware
US8179418B2 (en) 2008-04-14 2012-05-15 Intouch Technologies, Inc. Robotic based health care system
US8170241B2 (en) 2008-04-17 2012-05-01 Intouch Technologies, Inc. Mobile tele-presence system with a microphone system
JP2009294728A (ja) * 2008-06-02 2009-12-17 Sony Ericsson Mobilecommunications Japan Inc 表示処理装置、表示処理方法、表示処理プログラム、及び携帯端末装置
US8269842B2 (en) * 2008-06-11 2012-09-18 Nokia Corporation Camera gestures for user interface control
US8098894B2 (en) * 2008-06-20 2012-01-17 Yahoo! Inc. Mobile imaging device as navigator
JP2010009502A (ja) * 2008-06-30 2010-01-14 Nec Corp 携帯端末、表示動作制御方法、及び表示制御プログラム
US9193065B2 (en) 2008-07-10 2015-11-24 Intouch Technologies, Inc. Docking system for a tele-presence robot
US9842192B2 (en) 2008-07-11 2017-12-12 Intouch Technologies, Inc. Tele-presence robot system with multi-cast features
US8340819B2 (en) 2008-09-18 2012-12-25 Intouch Technologies, Inc. Mobile videoconferencing robot system with network adaptive driving
US8996165B2 (en) 2008-10-21 2015-03-31 Intouch Technologies, Inc. Telepresence robot with a camera boom
US8463435B2 (en) 2008-11-25 2013-06-11 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US9138891B2 (en) 2008-11-25 2015-09-22 Intouch Technologies, Inc. Server connectivity control for tele-presence robot
US8849680B2 (en) 2009-01-29 2014-09-30 Intouch Technologies, Inc. Documentation through a remote presence robot
US8897920B2 (en) 2009-04-17 2014-11-25 Intouch Technologies, Inc. Tele-presence robot system with software modularity, projector and laser pointer
US8384755B2 (en) 2009-08-26 2013-02-26 Intouch Technologies, Inc. Portable remote presence robot
US11399153B2 (en) * 2009-08-26 2022-07-26 Teladoc Health, Inc. Portable telepresence apparatus
JP5343773B2 (ja) * 2009-09-04 2013-11-13 ソニー株式会社 情報処理装置、表示制御方法及び表示制御プログラム
JP5448739B2 (ja) * 2009-11-18 2014-03-19 富士フイルム株式会社 画像再生装置、撮像装置、画像再生方法
TW201129084A (en) * 2010-02-02 2011-08-16 Hon Hai Prec Ind Co Ltd Controlling system and method for camera, adjusting apparatus for camera including the same
US11154981B2 (en) 2010-02-04 2021-10-26 Teladoc Health, Inc. Robot user interface for telepresence robot system
JP2011165068A (ja) * 2010-02-12 2011-08-25 Nec System Technologies Ltd 画像生成装置、画像表示システム、画像生成方法、及びプログラム
US8670017B2 (en) 2010-03-04 2014-03-11 Intouch Technologies, Inc. Remote presence system including a cart that supports a robot face and an overhead camera
US8826184B2 (en) * 2010-04-05 2014-09-02 Lg Electronics Inc. Mobile terminal and image display controlling method thereof
US10343283B2 (en) 2010-05-24 2019-07-09 Intouch Technologies, Inc. Telepresence robot system that can be accessed by a cellular phone
US10808882B2 (en) 2010-05-26 2020-10-20 Intouch Technologies, Inc. Tele-robotic system with a robot face placed on a chair
US9411413B2 (en) 2010-08-04 2016-08-09 Apple Inc. Three dimensional user interface effects on a display
US8913056B2 (en) * 2010-08-04 2014-12-16 Apple Inc. Three dimensional user interface effects on a display by using properties of motion
KR101409951B1 (ko) 2010-08-17 2014-07-02 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 원격 디스플레이 제어
EP2447915A1 (en) * 2010-10-27 2012-05-02 Sony Ericsson Mobile Communications AB Real time three-dimensional menu/icon shading
US9264664B2 (en) 2010-12-03 2016-02-16 Intouch Technologies, Inc. Systems and methods for dynamic bandwidth allocation
US9323250B2 (en) 2011-01-28 2016-04-26 Intouch Technologies, Inc. Time-dependent navigation of telepresence robots
JP5905031B2 (ja) 2011-01-28 2016-04-20 インタッチ テクノロジーズ インコーポレイテッド モバイルテレプレゼンスロボットとのインタフェーシング
US10769739B2 (en) 2011-04-25 2020-09-08 Intouch Technologies, Inc. Systems and methods for management of information among medical providers and facilities
US8843346B2 (en) * 2011-05-13 2014-09-23 Amazon Technologies, Inc. Using spatial information with device interaction
US9098611B2 (en) 2012-11-26 2015-08-04 Intouch Technologies, Inc. Enhanced video interaction for a user interface of a telepresence network
US20140139616A1 (en) 2012-01-27 2014-05-22 Intouch Technologies, Inc. Enhanced Diagnostics for a Telepresence Robot
US20130002722A1 (en) * 2011-07-01 2013-01-03 Krimon Yuri I Adaptive text font and image adjustments in smart handheld devices for improved usability
US8754831B2 (en) * 2011-08-02 2014-06-17 Microsoft Corporation Changing between display device viewing modes
US8836751B2 (en) 2011-11-08 2014-09-16 Intouch Technologies, Inc. Tele-presence system with a user interface that displays different communication links
WO2013069796A1 (ja) * 2011-11-10 2013-05-16 株式会社ニコン 電子機器、情報システム及びサーバ
US9251313B2 (en) 2012-04-11 2016-02-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US8902278B2 (en) 2012-04-11 2014-12-02 Intouch Technologies, Inc. Systems and methods for visualizing and managing telepresence devices in healthcare networks
US9201495B2 (en) * 2012-04-24 2015-12-01 Mobitv, Inc. Control of perspective in multi-dimensional media
WO2013176762A1 (en) 2012-05-22 2013-11-28 Intouch Technologies, Inc. Social behavior rules for a medical telepresence robot
US9361021B2 (en) 2012-05-22 2016-06-07 Irobot Corporation Graphical user interfaces including touchpad driving interfaces for telemedicine devices
JP2013061988A (ja) * 2013-01-04 2013-04-04 Fujitsu Ltd 表示制御装置、表示制御方法および表示制御プログラム
KR20140093513A (ko) * 2013-01-18 2014-07-28 삼성전자주식회사 휴대 단말기의 디스플레이 제어 장치 및 방법
KR102536174B1 (ko) 2013-04-08 2023-05-26 스냅 아이엔씨 멀티-카메라 장치를 사용하는 거리 추정
JP2014041642A (ja) * 2013-10-16 2014-03-06 Nec Corp 携帯端末、表示動作制御方法、及び表示制御プログラム
CN103795864B (zh) * 2014-01-29 2016-09-28 华为技术有限公司 移动终端前后摄像头的选择方法和移动终端
JP6260366B2 (ja) * 2014-03-11 2018-01-17 沖電気工業株式会社 制御装置、制御方法、プログラムおよび端末
US9807316B2 (en) * 2014-09-04 2017-10-31 Htc Corporation Method for image segmentation
KR102402048B1 (ko) * 2015-10-14 2022-05-26 삼성전자주식회사 전자 장치 및 그 제어 방법
CN108154058B (zh) * 2016-12-05 2021-04-23 北京小米移动软件有限公司 图形码展示、位置区域确定方法及装置
US11200743B2 (en) * 2017-03-30 2021-12-14 Christopher Carmichael Social network access via virtual-reality
DE102017108194A1 (de) * 2017-04-18 2018-10-18 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Fahrzeugs
US11862302B2 (en) 2017-04-24 2024-01-02 Teladoc Health, Inc. Automated transcription and documentation of tele-health encounters
US10483007B2 (en) 2017-07-25 2019-11-19 Intouch Technologies, Inc. Modular telehealth cart with thermal imaging and touch screen user interface
US11636944B2 (en) 2017-08-25 2023-04-25 Teladoc Health, Inc. Connectivity infrastructure for a telehealth platform
US10617299B2 (en) 2018-04-27 2020-04-14 Intouch Technologies, Inc. Telehealth cart that supports a removable tablet with seamless audio/video switching

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3626210B2 (ja) 1991-11-14 2005-03-02 中部電力株式会社 動画像に基づくカメラの3次元運動検出方法およびその装置
SE507680C2 (sv) 1997-01-13 1998-07-06 Qualisys Ab Metod och anordning för att bestämma positionen av ett objekt
JP4251673B2 (ja) 1997-06-24 2009-04-08 富士通株式会社 画像呈示装置
JP4281139B2 (ja) 1999-02-09 2009-06-17 ソニー株式会社 位置認識装置、位置認識方法及び仮想画像立体合成装置
JP2000259856A (ja) * 1999-03-09 2000-09-22 Nippon Telegr & Teleph Corp <Ntt> 3次元コンピュータグラフィックス表示方法及び装置
DE60133386T2 (de) * 2000-05-17 2009-04-02 Koninklijke Philips Electronics N.V. Vorrichtung und verfahren zur anzeige eines ziels mittels bildverarbeitung ohne drei dimensionales modellieren
JP2001356875A (ja) 2000-06-13 2001-12-26 Toshiba Corp ポインタ表示システム
JP2002007027A (ja) * 2000-06-27 2002-01-11 Masanori Idesawa 画像情報表示装置
JP2002164990A (ja) 2000-11-28 2002-06-07 Kyocera Corp 携帯通信端末装置
JP4025516B2 (ja) 2001-04-25 2007-12-19 日本電信電話株式会社 マウス代替方法、マウス代替プログラム、および同プログラムを記録した記録媒体
JP2002366272A (ja) 2001-06-05 2002-12-20 Kyocera Corp 携帯端末装置および表示画面のスクロール方法
JP3899241B2 (ja) * 2001-06-13 2007-03-28 シャープ株式会社 画像表示システム、画像表示方法、プログラムおよび記録媒体
KR100438841B1 (ko) * 2002-04-23 2004-07-05 삼성전자주식회사 이용자 검증 및 데이터 베이스 자동 갱신 방법, 및 이를이용한 얼굴 인식 시스템
JP2004021870A (ja) 2002-06-20 2004-01-22 Matsushita Electric Ind Co Ltd 視線入力機能付携帯電話
JP3851601B2 (ja) 2002-09-27 2006-11-29 富士写真フイルム株式会社 携帯端末装置
JP3948387B2 (ja) 2002-10-24 2007-07-25 松下電器産業株式会社 ディジタルカメラおよびディジタルカメラ付き携帯電話装置
WO2004080064A1 (ja) * 2003-03-06 2004-09-16 Fujitsu Limited 情報処理装置、情報処理方法及び情報処理プログラム
JP4053444B2 (ja) * 2003-03-07 2008-02-27 シャープ株式会社 携帯可能な多機能電子機器
JP2004312194A (ja) 2003-04-03 2004-11-04 Konica Minolta Photo Imaging Inc ポインティングデバイス機能付き携帯電話及び携帯電話
US7057620B2 (en) * 2003-08-25 2006-06-06 Ati Technologies Inc. Method and apparatus for graphics rendering on a mobile device
US7301528B2 (en) * 2004-03-23 2007-11-27 Fujitsu Limited Distinguishing tilt and translation motion components in handheld devices

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012522415A (ja) * 2009-03-27 2012-09-20 ソニーモバイルコミュニケーションズ, エービー タッチスクリーン機能を変更するためのシステム及び方法
JP2011248655A (ja) * 2010-05-27 2011-12-08 Ntt Comware Corp ユーザ視点空間映像提示装置、ユーザ視点空間映像提示方法及びプログラム

Also Published As

Publication number Publication date
CN1934584A (zh) 2007-03-21
US7535486B2 (en) 2009-05-19
US20070019000A1 (en) 2007-01-25
JPWO2005119591A1 (ja) 2008-04-03
WO2005119591A1 (ja) 2005-12-15
CN100461212C (zh) 2009-02-11

Similar Documents

Publication Publication Date Title
JP3926837B2 (ja) 表示制御方法および装置、プログラム、並びに携帯機器
CN108615248B (zh) 相机姿态追踪过程的重定位方法、装置、设备及存储介质
CN108734736B (zh) 相机姿态追踪方法、装置、设备及存储介质
EP3218781B1 (en) Spatial interaction in augmented reality
JP5739671B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、及び情報処理方法
KR20140090159A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
JP7005161B2 (ja) 電子機器及びその制御方法
JP2013092964A (ja) 画像処理装置、画像処理方法及びプログラム
TW201346640A (zh) 影像處理裝置及電腦程式產品
WO2015093130A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20220084303A1 (en) Augmented reality eyewear with 3d costumes
US20220400243A1 (en) Image processing apparatus and image processing method
JP6172233B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR102278229B1 (ko) 전자기기 및 그 제어 방법
JP7005160B2 (ja) 電子機器及びその制御方法
CN113066189B (zh) 一种增强现实设备及虚实物体遮挡显示方法
CN114201028B (zh) 扩增实境系统与其锚定显示虚拟对象的方法
JP6065084B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR101473234B1 (ko) 신체 트래킹에 기반한 영상 디스플레이 방법 및 시스템
CN112308981A (zh) 图像处理方法、装置、电子设备及存储介质
TWI779332B (zh) 擴增實境系統與其錨定顯示虛擬物件的方法
JP5520772B2 (ja) 立体画像の表示システム及び表示方法
López et al. Multimodal sensing-based camera applications
JP5991418B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN114764295A (zh) 立体场景切换方法、装置、终端及存储介质

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20070222

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070228

R150 Certificate of patent or registration of utility model

Ref document number: 3926837

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110309

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120309

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130309

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140309

Year of fee payment: 7

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees