JP2001025033A - 動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体 - Google Patents

動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体

Info

Publication number
JP2001025033A
JP2001025033A JP11190146A JP19014699A JP2001025033A JP 2001025033 A JP2001025033 A JP 2001025033A JP 11190146 A JP11190146 A JP 11190146A JP 19014699 A JP19014699 A JP 19014699A JP 2001025033 A JP2001025033 A JP 2001025033A
Authority
JP
Japan
Prior art keywords
user
image
dimensional position
body part
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11190146A
Other languages
English (en)
Inventor
Kenichi Kida
憲一 木田
Masayuki Ihara
雅行 井原
Shinichi Shiwa
新一 志和
Satoshi Ishibashi
聡 石橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP11190146A priority Critical patent/JP2001025033A/ja
Publication of JP2001025033A publication Critical patent/JP2001025033A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

(57)【要約】 【課題】 画像処理および解析に要する時間を短縮し、
動作認識の信頼性を向上させる。 【解決手段】 入出力装置3は、液晶シャッタ眼鏡1に
取り付けられたセンサより3次元位置情報を受信し、複
数のカメラ7−1〜7−Nより画像情報を受信する。入
出力装置3は、各画像上において3次元位置情報が示す
位置を特定し、特定した位置を基準点として所定の範囲
を選択し、画像処理の対象となる領域を限定する。入出
力装置3は、各画像上の選択した範囲より使用者の領域
を抽出し、使用者の領域を身体部位ごとに分割し、同一
身体部位を含む複数画像に基づき使用者の各身体部位の
3次元位置を求め、使用者の動作を推測する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、立体視を用いた仮
想現実システムにおいて使用者の実時間動作を認識する
動作認識方法、動作認識装置及び動作認識プログラムを
記録した記録媒体に関するものである。
【0002】
【従来の技術】従来より、架空の世界を構築し、この世
界を現実のように知覚させる仮想現実システムが提案さ
れている。この仮想現実システムでは、1つまたは複数
のスクリーンを配置し、使用者を映像で囲むような構造
になっている。使用者は、立体視眼鏡である液晶シャッ
タ眼鏡を装着するため、スクリーンに映る仮想空間を立
体的に見ることができる。このとき、使用者の実時間動
作を認識し、この動作を仮想空間に反映させることで、
使用者は、仮想空間を擬似的に体験することができる。
【0003】このような仮想現実システムでは、モーシ
ョンキャプチャ(Motion Capture)を用いて使用者の動
作を認識している。モーションキャプチャは、人体に取
り付けた複数の磁気センサ等によって3次元空間での人
体の動き(各関節の動き)を連続的に測定し、デジタル
データとして取り込むための装置である。モーションキ
ャプチャを使用すれば、使用者の動作を実時間で認識す
ることが可能である。しかし、この方法では、肩、肘と
いった人体の各関節点にセンサを装着する必要があり、
これら複数のセンサとの接続のために複数のケーブルが
必要となる。したがって、使用者の動きがケーブルによ
って制限されるという問題点があり、さらに他の磁気の
影響を受けると、正しく測定できないという問題点があ
った。
【0004】これに対して、互いに異なる方向から撮像
するように設置された複数のカメラで画像を取り込み、
取り込んだ画像を処理して解析することにより、使用者
の動作を認識する方法がある。この方法では、使用者の
動きを制限しないため、自由な動作が可能である。しか
し、仮想現実システムでは、スクリーンに映像を投影す
る関係上、周囲にスクリーンが配置された、使用者を収
容する空間の照明を暗くしている。このため、カメラで
撮像する画像も全体的に暗くなり、使用者の領域を抽出
することが難しくなるので、画像処理および解析に長時
間を必要とするという問題点があり、さらに動作認識の
信頼性が低いという問題点があった。
【0005】
【発明が解決しようとする課題】以上のように従来の仮
想現実システムでは、モーションキャプチャを用いて使
用者の動作を認識しようとすると、使用者の動きがケー
ブルによって制限されるという問題点があり、他の磁気
の影響を受けると、正しく測定できないという問題点が
あった。また、画像処理によって使用者の動作を認識し
ようとすると、画像処理および解析に長時間を必要と
し、動作認識の信頼性が低くなるという問題点があっ
た。本発明は、上記課題を解決するためになされたもの
で、使用者の動きを制限しない画像処理を用いて使用者
の動作を認識する際に、画像処理および解析に要する時
間を短縮することができ、動作認識の信頼性を向上させ
ることができる動作認識方法、動作認識装置及び動作認
識プログラムを記録した記録媒体を提供することを目的
とする。
【0006】
【課題を解決するための手段】本発明の動作認識方法
は、立体視眼鏡に取り付けられたセンサにより3次元位
置を検出する検出過程(ステップ100)と、3次元位
置情報を送信する送信過程(ステップ101)と、仮想
現実システム内の上記使用者を含む空間の画像を複数の
カメラにより取り込む画像取込過程(ステップ102)
と、取り込んだ画像情報を送信する送信過程(ステップ
103)と、センサから送信された3次元位置情報およ
びカメラから送信された画像情報を受信する受信過程
(ステップ104,105)と、受信した各画像上にお
いて3次元位置情報が示す位置を特定する特定過程(ス
テップ106)と、この特定された位置を基準点として
所定の範囲を選択することを各画像ごとに行う範囲選択
過程(ステップ107)と、各画像上の選択した範囲よ
り使用者の領域を抽出する領域抽出過程(ステップ10
8)と、各画像より抽出した使用者の領域を身体部位ご
とに分割する領域分割過程(ステップ109)と、同一
身体部位を含む複数画像に基づき使用者の各身体部位の
3次元位置を求める位置検出過程(ステップ110)
と、使用者の各身体部位の3次元位置を基に使用者の動
作を推測する動作推測過程(ステップ111)とを有す
るものである。本発明の動作認識方法では、使用者の頭
部に装着された立体視眼鏡のセンサで3次元位置を検出
することにより、カメラで取り込んだ画像上で使用者の
頭部があると推定される位置を特定でき、この位置を基
準点として所定の範囲、すなわち使用者の身体があると
推定される範囲を選択することができる。これにより、
カメラで取り込んだ画像上で使用者の大まかな領域を把
握し、画像処理の対象となる領域を限定することができ
る。
【0007】また、本発明の動作認識装置(3)は、立
体視眼鏡(1)に取り付けられたセンサ(1a)より3
次元位置情報を受信すると共に、仮想現実システム内の
上記使用者を含む空間の画像を取り込んだ複数のカメラ
(7−1〜7−N)より画像情報を受信する受信手段
(30)と、受信した各画像上において3次元位置情報
が示す位置を特定する特定手段(31)と、特定手段に
よって特定された位置を基準点とする所定の範囲を各画
像から抽出するために、上記所定の範囲を定めた範囲デ
ータを記憶する範囲データ記憶手段(32)と、特定手
段によって特定された位置を基準点として上記範囲デー
タが指定する範囲を選択することを各画像ごとに行う範
囲選択手段(33)と、各画像上の選択した範囲より使
用者の領域を抽出する領域抽出手段(34−1〜34−
N)と、各画像より抽出した使用者の領域を身体部位ご
とに分割する領域分割手段(35−1〜35−N)と、
同一身体部位を含む複数画像に基づき使用者の各身体部
位の3次元位置を求める位置検出手段(36)と、使用
者の各身体部位の3次元位置を基に使用者の動作を推測
する動作推測手段(37)とを有するものである。
【0008】また、本発明の動作認識プログラムを記録
した記録媒体は、立体視眼鏡に取り付けられたセンサよ
り3次元位置情報を受信すると共に、仮想現実システム
内の上記使用者を含む空間の画像を取り込んだ複数のカ
メラより画像情報を受信する受信過程と、受信した各画
像上において3次元位置情報が示す位置を特定する特定
過程と、この特定された位置を基準点として所定の範囲
を選択することを各画像ごとに行う範囲選択過程と、各
画像上の選択した範囲より使用者の領域を抽出する領域
抽出過程と、各画像より抽出した使用者の領域を身体部
位ごとに分割する領域分割過程と、同一身体部位を含む
複数画像に基づき使用者の各身体部位の3次元位置を求
める位置検出過程と、使用者の各身体部位の3次元位置
を基に使用者の動作を推測する動作推測過程とをコンピ
ュータに実行させるための動作認識プログラムを記録し
たものである。
【0009】
【発明の実施の形態】[実施の形態の1]次に、本発明
の実施の形態について図面を参照して詳細に説明する。
図1は、本発明の第1の実施の形態となる仮想現実シス
テムの構成を示すブロック図である。図1の仮想現実シ
ステムは、システム内に実在する使用者が装着する立体
視眼鏡である液晶シャッタ眼鏡1と、磁界発生源である
トランスミッタ2と、システム全体を制御する入出力装
置(動作認識装置)3と、映像をスクリーンに投影する
ためのプロジェクター4と、プロジェクター4からの光
を反射する鏡5と、スクリーン6と、スクリーン6に囲
まれた使用者を撮像する複数のカメラ7−1〜7−Nと
から構成されている。なお、図1では、複数のカメラ7
−1〜7−Nのうち、7−1,7−Nのみ記載してい
る。
【0010】立体視を用いた仮想現実システムは、例え
ば前方のスクリーンの他に上下左右にもスクリーンを配
置して、使用者を映像で囲むような構造になっている。
使用者は、液晶シャッタ眼鏡1を装着するため、あたか
もその世界の中に入り込んでいるかのような高い現実感
を得ることができる。
【0011】液晶シャッタ眼鏡1は、天井から吊り下げ
られたケーブルによって入出力装置3と接続されてい
る。この液晶シャッタ眼鏡1には、トランスミッタ2か
ら発生した磁界を検出する磁気センサが取り付けられて
いる。この磁気センサは、検出した磁界に基づいて自身
の3次元位置を検出し、3次元位置情報を入出力装置3
に送信する。入出力装置3は、磁気センサから送信され
た3次元位置情報とカメラ7−1〜7−Nから送信され
た画像情報とを受信した後、これらの情報に応じた映像
データをプロジェクター4に出力する。
【0012】プロジェクター4は、入出力装置3から出
力された映像データを光情報に変換して鏡5に投影す
る。鏡5は、プロジェクター4からの光を反射してスク
リーン6に投影する。入出力装置3から出力される映像
データは、左右の眼に異なる映像を提示するデータとな
っており、この映像をスクリーン6に投影することによ
り、液晶シャッタ眼鏡1を装着した使用者に立体感を与
え、立体感のある仮想空間を使用者に提示することが可
能となる。
【0013】次に、以上のような仮想現実システムの動
作を説明する。図2は、磁気センサ1a、カメラ7−1
〜7−N、入出力装置3のブロック図、図3(a)は、
磁気センサ1aの動作を示すフローチャート図、図3
(b)は、カメラ7−1〜7−Nの動作を示すフローチ
ャート図、図3(c)は、入出力装置3の動作を示すフ
ローチャート図である。
【0014】液晶シャッタ眼鏡1に取り付けられた磁気
センサ1aは、検出手段10と送信手段11とを備えて
いる。検出手段10には、トランスミッタ2から発生し
た磁界により誘導電流が生じる。検出手段10は、この
誘導電流に応じて自身の3次元位置、つまり使用者の頭
部の3次元位置を検出する(ステップ100)。
【0015】送信手段11は、検出手段10によって検
出された3次元位置情報を入出力装置3に送信する(ス
テップ101)。一方、スクリーン6に囲まれた空間を
互いに異なる方向から撮像するように設置されたカメラ
7−1〜7−Nは、それぞれ画像取込手段70−1〜7
0−Nと送信手段71−1〜71−Nとを備えている。
【0016】各カメラ7−1〜7−Nの画像取込手段7
0−1〜70−Nは、スクリーン6に囲まれた空間の画
像を取り込む(ステップ102)。そして、送信手段7
1−1〜71−Nは、画像取込手段70−1〜70−N
によって取り込まれた画像情報を入出力装置3に送信す
る(ステップ103)。
【0017】次に、入出力装置3は、受信手段30と、
特定手段31と、範囲データ記憶手段32と、範囲選択
手段33と、領域抽出手段34−1〜34−Nと、領域
分割手段35−1〜35−Nと、位置検出手段36と、
動作推測手段37とを備えている。領域抽出手段34−
1〜34−Nと領域分割手段35−1〜35−Nは、カ
メラ7−1〜7−Nごとに設けられている。
【0018】入出力装置3の受信手段30は、磁気セン
サ1aから送信された3次元位置情報とカメラ7−1〜
7−Nから送信された画像情報とを受信する(ステップ
104,105)。入出力装置3は、3次元位置情報と
画像情報を受信しない場合、これらを受信するまで待機
状態となる。
【0019】3次元位置情報と画像情報を受信すると、
入出力装置3の特定手段31は、カメラ7−1〜7−N
から受信した各画像上において3次元位置情報が示す位
置を特定する(ステップ106)。範囲データ記憶手段
32は、特定手段31によって特定された位置を基準点
とする所定の範囲を各画像から抽出するために、上記所
定の範囲を定めた範囲データを記憶している。この範囲
データは、使用者によって予め設定される。
【0020】範囲選択手段33は、特定手段31によっ
て特定された位置を基準点として上記範囲データが指定
する範囲を選択することを、各画像ごとに行う(ステッ
プ107)。続いて、領域抽出手段34−1〜34−N
は、範囲選択手段33が選択した各画像中の範囲より使
用者の領域をそれぞれ抽出する(ステップ108)。
【0021】使用者の領域を抽出するには、平滑化フィ
ルタ処理により画像上のノイズを除去し、次に微分フィ
ルタ処理によりエッジを求め、最後に2値化処理によっ
て使用者の輪郭を抽出する。領域分割手段35−1〜3
5−Nは、領域抽出手段34−1〜34−Nによって抽
出された使用者の領域を例えば右上腕、左上腕、右大
腿、左大腿といった各身体部位ごとに分割する(ステッ
プ109)。
【0022】こうして、使用者の各身体部位の画像がカ
メラ7−1〜7−Nの台数分だけ得られることになる。
次に、位置検出手段36は、同一身体部位を含む複数画
像に基づき使用者の各身体部位の3次元位置を求める
(ステップ110)。動作推測手段37は、位置検出手
段36によって得られた各身体部位の3次元位置により
使用者の位置を推測する(ステップ111)。
【0023】使用者の動作を認識することができれば、
この動作をスクリーン6に映る仮想空間に反映させるこ
とができる。例えば、入出力装置3は、使用者の動作に
応じた人体がスクリーン6に投影されるように映像デー
タを生成し、この映像データをプロジェクター4に出力
する。これにより、使用者の動作を真似して動く人物が
スクリーン6に投影される。
【0024】図4(a)は、従来の動作認識方法におけ
る画像処理対象領域を示す図、図4(b)は、本発明の
動作認識方法における画像処理対象領域を示す図であ
る。従来の画像処理を用いた動作認識方法では、図4
(a)のようにカメラで撮影した画像中の全画素を画像
処理の対象としていた。この場合、使用者の領域を抽出
する処理に長時間を必要とし、さらに誤った動作認識を
する場合もある。
【0025】本発明の動作認識方法では、使用者の頭部
に装着された液晶シャッタ眼鏡1の磁気センサ1aで3
次元位置を検出することにより、カメラ7−1〜7−N
で取り込んだ画像上で使用者の頭部があると推定される
位置を特定でき、この位置を基準点として所定の範囲、
すなわち使用者の身体があると推定される範囲を選択す
ることができる。
【0026】こうして、本発明では、図4(b)のよう
にカメラ7−1〜7−Nで取り込んだ画像上で使用者の
大まかな領域を把握し、画像処理の対象となる領域を限
定する。したがって、画像処理の対象となる画素数が減
るので、画像処理および解析に要する時間を短縮するこ
とができ、さらに動作認識の信頼性を向上させることが
できる。
【0027】[実施の形態の2]図5は、本発明の第2
の実施の形態となる入出力装置3の構成を示すブロック
図である。実施の形態の1の入出力装置(動作認識装
置)3の構成はコンピュータで実現することができる。
本実施の形態の入出力装置3は、CPU112、ROM
(Read Only Memory)113、RAM(Random Access M
emory )114、フロッピィディスク装置等の補助記憶
装置115、ハードディスク装置等の大容量の補助記憶
装置116、磁気センサ1aとのインタフェースとなる
インタフェース装置117、カメラ7−1〜7−Nとの
インタフェースとなるインタフェース装置118、プロ
ジェクター4とのインタフェースとなるインタフェース
装置119といった構成を有している。
【0028】図5の装置において、本発明の動作認識方
法を実現させるためのプログラムは、フロッピィディス
ク、CD−ROM、メモリカード等の記録媒体に記録さ
れた状態で提供される。この記録媒体を入出力装置3の
補助記憶装置115に挿入すると、媒体に記録されたプ
ログラムが読み取られる。そして、CPU112は、読
み込んだプログラムをRAM114あるいは補助記憶装
置116に書き込み、このプログラムに従って図3
(c)で説明したような処理を実行する。こうして、実
施の形態の1と同様の動作を実現することができる。
【0029】
【発明の効果】本発明によれば、画像処理を用いて使用
者の動作を認識するので、使用者の動きを制限すること
がなくなる。また、カメラで取り込んだ画像上で画像処
理の対象となる領域を限定することができるので、画像
処理および解析に要する時間を短縮することができ、動
作認識の信頼性を向上させることができる。
【図面の簡単な説明】
【図1】 本発明の第1の実施の形態となる仮想現実シ
ステムの構成を示すブロック図である。
【図2】 図1の磁気センサ、カメラ及び入出力装置の
ブロック図である。
【図3】 磁気センサ、カメラ及び入出力装置の動作を
示すフローチャート図である。
【図4】 従来の動作認識方法及び本発明の動作認識方
法における画像処理対象領域を示す図である。
【図5】 本発明の第2の実施の形態となる入出力装置
の構成を示すブロック図である。
【符号の説明】
1…液晶シャッタ眼鏡、2…トランスミッタ、3…入出
力装置、4…プロジェクター、5…鏡、6…スクリー
ン、7−1、7−N…カメラ、1a…磁気センサ、10
…検出手段、11…送信手段、30…受信手段、31…
特定手段、32…範囲データ記憶手段、33…範囲選択
手段、34−1、34−N…領域抽出手段、35−1、
35−N…領域分割手段、36…位置検出手段、37…
動作推測手段、70−1、70−N…画像取込手段、7
1−1、71−N…送信手段。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 志和 新一 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 (72)発明者 石橋 聡 東京都新宿区西新宿三丁目19番2号 日本 電信電話株式会社内 Fターム(参考) 2F065 AA04 AA51 BB05 CC16 DD06 FF04 FF67 JJ03 JJ05 JJ19 LL12 QQ00 QQ04 QQ13 QQ32 QQ33 QQ34 SS01 SS12 5B057 BA06 DA07 DB03 5C061 AA03 AA21 AB04

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 1つ又は複数のスクリーンを配置した仮
    想現実システムにおいて、この仮想現実システム内に実
    在する立体視眼鏡を装着した使用者の実時間動作を認識
    する動作認識方法であって、 立体視眼鏡に取り付けられたセンサにより3次元位置を
    検出する検出過程と、3次元位置情報を送信する送信過
    程と、 仮想現実システム内の前記使用者を含む空間の画像を複
    数のカメラにより取り込む画像取込過程と、取り込んだ
    画像情報を送信する送信過程と、 センサから送信された3次元位置情報およびカメラから
    送信された画像情報を受信する受信過程と、 受信した各画像上において3次元位置情報が示す位置を
    特定する特定過程と、 この特定された位置を基準点として所定の範囲を選択す
    ることを各画像ごとに行う範囲選択過程と、 各画像上の選択した範囲より使用者の領域を抽出する領
    域抽出過程と、 各画像より抽出した使用者の領域を身体部位ごとに分割
    する領域分割過程と、 同一身体部位を含む複数画像に基づき使用者の各身体部
    位の3次元位置を求める位置検出過程と、 使用者の各身体部位の3次元位置を基に使用者の動作を
    推測する動作推測過程とを有することを特徴とする動作
    認識方法。
  2. 【請求項2】 1つ又は複数のスクリーンを配置した仮
    想現実システムにおいて、この仮想現実システム内に実
    在する立体視眼鏡を装着した使用者の実時間動作を認識
    する動作認識装置であって、 立体視眼鏡に取り付けられたセンサより3次元位置情報
    を受信すると共に、仮想現実システム内の前記使用者を
    含む空間の画像を取り込んだ複数のカメラより画像情報
    を受信する受信手段と、 受信した各画像上において3次元位置情報が示す位置を
    特定する特定手段と、 特定手段によって特定された位置を基準点とする所定の
    範囲を各画像から抽出するために、前記所定の範囲を定
    めた範囲データを記憶する範囲データ記憶手段と、 特定手段によって特定された位置を基準点として前記範
    囲データが指定する範囲を選択することを各画像ごとに
    行う範囲選択手段と、 各画像上の選択した範囲より使用者の領域を抽出する領
    域抽出手段と、 各画像より抽出した使用者の領域を身体部位ごとに分割
    する領域分割手段と、 同一身体部位を含む複数画像に基づき使用者の各身体部
    位の3次元位置を求める位置検出手段と、 使用者の各身体部位の3次元位置を基に使用者の動作を
    推測する動作推測手段とを有することを特徴とする動作
    認識装置。
  3. 【請求項3】 1つ又は複数のスクリーンを配置した仮
    想現実システムにおいて、この仮想現実システム内に実
    在する立体視眼鏡を装着した使用者の実時間動作を認識
    する動作認識プログラムを記録した記録媒体であって、 立体視眼鏡に取り付けられたセンサより3次元位置情報
    を受信すると共に、仮想現実システム内の前記使用者を
    含む空間の画像を取り込んだ複数のカメラより画像情報
    を受信する受信過程と、 受信した各画像上において3次元位置情報が示す位置を
    特定する特定過程と、 この特定された位置を基準点として所定の範囲を選択す
    ることを各画像ごとに行う範囲選択過程と、 各画像上の選択した範囲より使用者の領域を抽出する領
    域抽出過程と、 各画像より抽出した使用者の領域を身体部位ごとに分割
    する領域分割過程と、 同一身体部位を含む複数画像に基づき使用者の各身体部
    位の3次元位置を求める位置検出過程と、 使用者の各身体部位の3次元位置を基に使用者の動作を
    推測する動作推測過程とをコンピュータに実行させるた
    めの動作認識プログラムを記録した記録媒体。
JP11190146A 1999-07-05 1999-07-05 動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体 Pending JP2001025033A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11190146A JP2001025033A (ja) 1999-07-05 1999-07-05 動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11190146A JP2001025033A (ja) 1999-07-05 1999-07-05 動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体

Publications (1)

Publication Number Publication Date
JP2001025033A true JP2001025033A (ja) 2001-01-26

Family

ID=16253184

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11190146A Pending JP2001025033A (ja) 1999-07-05 1999-07-05 動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体

Country Status (1)

Country Link
JP (1) JP2001025033A (ja)

Similar Documents

Publication Publication Date Title
US7825948B2 (en) 3D video conferencing
US7554575B2 (en) Fast imaging system calibration
US9697415B2 (en) Recording medium, image processing method, and information terminal
CN108463840B (zh) 信息处理设备、信息处理方法以及记录介质
CN108603749A (zh) 信息处理装置、信息处理方法和记录介质
US20160044298A1 (en) Augmented reality with motion sensing
WO2018140107A1 (en) System for 3d image filtering
KR20170134256A (ko) 얼굴 윤곽 보정 방법 및 장치
TWI701941B (zh) 圖像處理方法及裝置、電子設備及儲存介質
KR20170089260A (ko) 모바일 기기를 이용한 3차원 얼굴 모델 생성 장치 및 방법
CN109074681A (zh) 信息处理装置、信息处理方法和程序
JP2001008235A (ja) 3次元データの再構成のための画像入力方法及び多眼式データ入力装置
US20120194513A1 (en) Image processing apparatus and method with three-dimensional model creation capability, and recording medium
WO2014199786A1 (ja) 撮影システム
JP6851475B2 (ja) 情報処理装置および情報処理方法
JP4682372B2 (ja) 視線方向の検出装置、視線方向の検出方法およびコンピュータに当該視線方向の検出方法を実行させるためのプログラム
JP5805013B2 (ja) 撮像画像表示装置、撮像画像表示方法、プログラム
JP2001025032A (ja) 動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体
JP6934575B2 (ja) 情報処理装置および物体検出方法
CN113763472B (zh) 一种视点宽度的确定方法、装置及存储介质
JP2001025033A (ja) 動作認識方法、動作認識装置及び動作認識プログラムを記録した記録媒体
CN112971712A (zh) 生物体信息取得装置、终端装置、取得方法、记录介质
CN112153300A (zh) 多目摄像头曝光方法、装置、设备及介质
JP6780639B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
CN110110614A (zh) 一种基于3d相机的手势识别装置及方法