JP2016192688A - 映像表示システム及び映像表示方法 - Google Patents
映像表示システム及び映像表示方法 Download PDFInfo
- Publication number
- JP2016192688A JP2016192688A JP2015071764A JP2015071764A JP2016192688A JP 2016192688 A JP2016192688 A JP 2016192688A JP 2015071764 A JP2015071764 A JP 2015071764A JP 2015071764 A JP2015071764 A JP 2015071764A JP 2016192688 A JP2016192688 A JP 2016192688A
- Authority
- JP
- Japan
- Prior art keywords
- video
- user
- display
- image
- imaging device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 178
- 238000009877 rendering Methods 0.000 claims abstract description 54
- 238000012545 processing Methods 0.000 claims abstract description 30
- 230000008569 process Effects 0.000 claims description 127
- 238000003384 imaging method Methods 0.000 claims description 89
- 239000002131 composite material Substances 0.000 claims description 79
- 230000007704 transition Effects 0.000 claims description 43
- 238000001514 detection method Methods 0.000 claims description 31
- 238000009434 installation Methods 0.000 abstract description 17
- 230000003993 interaction Effects 0.000 abstract description 5
- 230000008859 change Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 22
- 238000000605 extraction Methods 0.000 description 21
- 238000004891 communication Methods 0.000 description 19
- 238000013507 mapping Methods 0.000 description 19
- 239000000284 extract Substances 0.000 description 15
- 238000005259 measurement Methods 0.000 description 15
- 238000013500 data storage Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 230000004048 modification Effects 0.000 description 10
- 238000012986 modification Methods 0.000 description 10
- 239000011521 glass Substances 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 6
- 210000001015 abdomen Anatomy 0.000 description 5
- 239000000203 mixture Substances 0.000 description 5
- 230000002194 synthesizing effect Effects 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 230000002452 interceptive effect Effects 0.000 description 3
- 230000015572 biosynthetic process Effects 0.000 description 2
- 239000004566 building material Substances 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 240000006829 Ficus sundaica Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000001154 acute effect Effects 0.000 description 1
- 210000003423 ankle Anatomy 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000001513 elbow Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000005357 flat glass Substances 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Abstract
【解決手段】カメラにより撮像されたユーザの映像を取得し、当該映像を所定数の映像片に分割した際の該映像片毎にカメラから映像片中の対象物までの間の距離を示した距離データを取得し、ユーザの映像及び距離データを用いたレンダリング処理を実行することによってユーザの三次元映像を生成する映像表示システムにおいて、ユーザの目の高さを検知し、検知した目の高さとカメラの設置高さが異なるとき、双方の高さの差及びカメラとユーザとの間の距離に基づいて、検知した目の高さにある仮想的な視点から見たときのユーザの三次元映像を取得するためのレンダリング処理を実行する。
【選択図】図16
Description
また、本発明の他の目的は、ディスプレイに映し出されるユーザの映像を見ている第二のユーザの顔が横移動したときに、実際の見え方を反映してディスプレイの表示映像を変化させることである。さらに、本発明の第三の目的は、ディスプレイに映し出されるユーザの映像の表示サイズを、当該ユーザと撮像装置との間の距離が変化した際に適切に調整することである。
上記の構成では、ユーザの三次元映像及び背景の三次元映像を合成し、背景の手前にユーザが位置した合成映像を表示する。このような奥行感を有する合成映像が表示されることで、ディスプレイにユーザの映像を表示させながら行われる対話の臨場感がより向上することになる。
上記の構成では、ユーザの三次元映像及び背景の三次元映像に加えて、前景の三次元映像を更に合成し、ユーザの手前に前景が位置した合成映像を表示する。これにより、より一層奥行感を有する合成映像が表示されるようになる。この結果、ディスプレイにユーザの映像を表示させながら行われる対話の臨場感が一段と向上することになる。
上記の構成によれば、撮像装置とユーザとの間の距離、すなわち奥行距離が変化したとしても、ディスプレイには、変化前の表示サイズのままでユーザの三次元映像が表示されることになる。すなわち、ユーザの奥行距離が変化した場合、変化後の合成映像は、実際にユーザと対面して当該ユーザを見たときの見え方(すなわち、自らの視覚を通じて認識したユーザの大きさ)を反映した表示サイズにてユーザの三次元映像を表示したものとなる。この結果、ディスプレイにユーザの映像を表示させながら行われる対話の臨場感がより一層向上することになる。
上記の構成によれば、ユーザの映像及び背景の映像を合成して得られる合成映像において、ユーザの映像及び背景の映像のそれぞれの表示位置や表示サイズ等を個別に調整することが可能である。そして、第二のユーザの顔が横移動したときには、ユーザの三次元映像の表示位置、及び、背景の三次元映像の中で合成映像中に含まれる範囲のうちの一方を、他方のずれ量よりも大きいずれ量だけ横方向にずらした状態へ合成映像を遷移させることとしている。これにより、第二のユーザの顔が横移動した後のディスプレイには、移動後の顔の位置から実際にユーザと対面して当該ユーザを見たときの見え方、を再現した映像が表示されるようになる。この結果、ディスプレイにユーザの映像を表示させながら行われる対話の臨場感が、更に向上することとなる。
上記の構成によれば、互いに撮像方向が異なる複数の撮像装置によってユーザの映像を撮像する場合に、撮像装置別に三次元映像片を生成し、最終的に三次元映像片同士を結合してユーザの三次元映像を取得する。一方、撮像装置別に生成される三次元映像片のうち、ユーザの目を含む部分の三次元映像片を生成する際には、ユーザの目の高さにある仮想的な視点から見たときの三次元映像を取得するためのレンダリング処理を実行する。これにより、三次元映像片同士を結合してなるユーザの三次元映像をディスプレイに表示すれば、当該ユーザの目線とディスプレイを見ている者の目線とを合わせることが可能となる。
上記の構成では、基準方向の法線方向と異なる撮像方向にてユーザの映像を撮像し、その映像から三次元映像片を生成する場合に、上記の撮像方向にて撮像した映像に基づいて生成したユーザの三次元映像片を、上記の法線方向から仮想的に見た場合の三次元映像片へ変換する。そして、変換後の三次元映像片を用いてユーザの三次元映像を取得する。このようにして得られた三次元映像は、上記の法線方向から見たときの映像となっており、ディスプレイに表示した際には適切に表示されるようになる。具体的に説明すると、ユーザの三次元映像中、三次元映像片同士を結合した部分付近が屈曲しているかのように見えてしまうのを抑制することが可能となる。
上記の方法によれば、ユーザの目の高さと撮像装置の設置高さとが異なっていても、ディスプレイを見ている者の目線とディスプレイに映し出される者(すなわち、ユーザ)の目線とを合わせることが可能となる。これにより、ディスプレイにユーザの映像を表示させながら行われる対話の臨場感を向上させることが可能となる。
以上の作用により、本発明の映像表示システムや映像表示方法によれば、ディスプレイにユーザの映像を表示させながら行われる対話の臨場感(リアリティ)を向上させることが可能となる。
先ず、本システムSの基本構成について説明する。本システムSは、二人のユーザ(すなわち、Aさん及びBさん)がお互いの映像を見ながら対面対話をするために用いられ、より具体的には、各ユーザに対して対話相手の等身大の映像を表示し、対話相手の音声を再生するものである。このような視聴覚的効果を得るために、各ユーザは、通信ユニット100を保有している。つまり、本システムSは、各ユーザが保有する通信ユニット100によって構成されている。
本システムSを用いた対面対話では、Bさん側のディスプレイ5にAさんの映像及びその背景の映像が表示され、Aさん側のディスプレイ5にBさんの映像及びその背景の映像が表示される。ここで、各ディスプレイ5に表示される人物映像及び背景映像は、カメラ2が同時に撮像したものではなく、異なるタイミングで撮像されたものとなっている。すなわち、各ディスプレイ5には、異なるタイミングで撮像された人物映像及び背景映像を合成した合成映像が表示されることになる。また、本システムSでは、人物映像及び背景映像に加えて、前景の映像を更に合成した合成映像を表示することとしている。
本システムSにおいて、ディスプレイ5には三次元映像が表示されることになっている。より具体的に説明すると、前節にて説明したように、ディスプレイ5には、背景映像、人物映像及び前景映像を合成した合成映像が表示されることになっているが、合成される各映像は、三次元化された映像(三次元映像)となっている。この三次元映像は、カメラ2が撮像した2次元映像(具体的には、RGB形式のフレーム画像からなる映像)と、その映像についての深度データと、を用いて3DCGによるレンダリング処理を実行することで得られる。ここで、レンダリング処理とは、厳密にはサーフェスレンダリング方式の映像表示処理であり、仮想的に設定された視点から見た際の三次元映像を生成するための処理である。
次に、ホームサーバ1の機能、特に、映像表示処理に関する機能について説明する。なお、Aさん側のホームサーバ1及びBさん側のホームサーバ1の双方は、同様の機能を有しており、対面対話の実施にあたり双方向通信して同様のデータ処理を実行する。このため、以下では、一方のホームサーバ1(例えば、Bさん側のホームサーバ1)の機能のみを説明することとする。
本システムSでは、同システムを用いた対面対話の臨場感を向上させるために、各ユーザの目線や顔の位置に応じて、ディスプレイ5に表示させる映像やその表示サイズを調整・変更することとしている。具体的には、下記(R1)〜(R3)の映像表示プロセスを行う。
(R1)目線高さ合わせ用のプロセス
(R2)顔移動時のプロセス
(R3)奥行距離変化時のプロセス
本システムSでは、前述したように、カメラ2が床から約1mの高さに設置されている。したがって、Aさんの身長次第では、Aさんの目の高さとカメラ2が設置されている高さとが異なってしまう。かかる場合、Bさん側のディスプレイ5に表示されるAさんの映像が、実際にAさんと対面した場合に見えるAさんの姿(像)とは異なったものとなる。
α=arctan(H/L) (1)
AさんとBさんとが実際に対面している場面においてBさんの顔が横移動したとき、Bさんの視界(Bさんの目に映る像)は、顔移動に伴って変化する。このような顔移動に伴う見え方の変化を映像表示システムで再現するには、ディスプレイ5に表示される映像を、ディスプレイ5を見ている者の顔の移動に連動させて変化させる必要がある。このため、従来の映像表示システムでは、図9に示すように、ディスプレイ5を見ている者(例えば、Bさん)の顔が横移動すると、ディスプレイ5に表示されている映像が鉛直軸を中心に回転するように切り替わるようになっていた。具体的には、同図に示すように、表示映像として、左部と右部との間で奥行距離が異なった映像がディスプレイ5に表示されていた。図9は、従来の映像表示システムの構成例を示した図であり、ディスプレイ5を見ているBさんの移動に連動して表示映像が変化する様子を図示している。
t1=d1×sinθ (2)
t2=dw×sinθ (3)
t3=df×sinθ (4)
対面対話の実行時、Aさんは、通常、Aさん側のカメラ2から基準距離d1だけ離れた位置に立っている。このとき、カメラ2が撮像したAさんの映像をディスプレイ5にて表示すると、当該映像は図12に示すように等身大サイズで表示される。一方、Aさんが上記の位置よりも後方に移動したとき、カメラ2の撮像映像をそのままのサイズにてディスプレイ5にて表示すると、当該映像は、図12に示すように等身大サイズよりも幾分小さいサイズで表示されるようになる。このような表示サイズの変化は、カメラ2のレンズの光学的特性に起因して不可避的に生じる。なお、図12は、従来の映像表示システムの構成例を示した図であり、Aさんの奥行距離が大きくなるほどディスプレイ5に表示されるAさんの映像の表示サイズが小さくなる様子を図示している。
次に、本システムSを用いた対面対話のうち、映像表示に係る一連のデータ処理、すなわち映像表示フローについて、その流れを説明する。ここで、以下に説明する映像表示フォローにおいては本発明の映像表示方法が適用されている。すなわち、以下では、本発明の映像表示方法に関する説明として、当該映像表示方法を適用した映像表示フローの流れを説明することとする。換言すると、以下に述べる映像表示フロー中の各ステップは、本発明の映像表示方法の構成要素に相当する。
上述した本システムSの構成では、各ユーザの映像を撮像するカメラ2が一台ずつ設けられていることとした。すなわち、上記の実施形態では、単一のカメラ2にてユーザの映像を撮像し、ディスプレイ5には、単一のカメラ2にて撮像された映像を元にした三次元映像を表示することとした。これに対して、互いに撮像方向から異なる複数のカメラ2にてユーザの映像を撮像すれば、より多くの視点からユーザの映像を取得することが可能となる。この結果、カメラ2の撮像映像を用いたレンダリング処理によって生成されるユーザの三次元映像については、単一のカメラ2のみでは視認され得ない死角領域をより少なくし、三次元映像を見る際の視点(仮想的な視点)の設定位置に対する自由度についても高くなる。
上記の実施形態では、本発明の映像表示システム及び映像表示方法について具体例を挙げて説明した。ただし、上記の実施形態は、本発明の理解を容易にするための一例に過ぎず、本発明を限定するものではない。すなわち、本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることは勿論である。
2 カメラ(撮像装置)
3 マイク
4 赤外線センサ
4a 発光部
4b 受光部
5 ディスプレイ
5a タッチパネル
6 スピーカ
11 データ送信部
12 データ受信部
13 背景映像記憶部
14 第1深度データ記憶部
15 実映像記憶部
16 人物映像抽出部
17 骨格モデル記憶部
18 第2深度データ記憶部
19 前景映像抽出部
20 高さ検知部
21 三次元映像生成部
22 合成映像表示部
23 判定部
24 顔移動検知部
100 通信ユニット
GN 外部通信ネットワーク
S 本システム
Claims (8)
- 撮像装置により撮像されたユーザの映像を取得する映像取得部と、
前記映像を所定数の映像片に分割した際の該映像片毎に、前記撮像装置から前記映像片中の対象物との間の距離を示した距離データを取得する距離データ取得部と、
前記ユーザの映像及び前記距離データを用いたレンダリング処理を実行することによって前記ユーザの三次元映像を生成する三次元映像生成部と、
前記ユーザの目の高さを検知する高さ検知部と、を有し、
前記撮像装置が設置されている高さ及び前記高さ検知部が検知した前記目の高さの双方が異なるとき、前記三次元映像生成部は、前記双方の差及び前記撮像装置と前記ユーザとの間の距離に基づいて、前記高さ検知部が検知した前記目の高さにある仮想的な視点から見たときの前記ユーザの前記三次元映像を取得するための前記レンダリング処理を実行することを特徴とする映像表示システム。 - 前記映像取得部は、前記撮像装置により撮像された前記ユーザの映像、及び、前記撮像装置により撮像された背景の映像をそれぞれ取得し、
前記距離データ取得部は、前記ユーザの映像及び前記背景の映像のそれぞれについて、前記距離データを取得し、
前記三次元映像生成部は、前記ユーザの映像及び当該ユーザの映像について取得された前記距離データを用いた前記レンダリング処理を実行することによって前記ユーザの前記三次元映像を生成すると共に、前記背景の映像及び当該背景の映像について取得された前記距離データを用いた前記レンダリング処理を実行することによって前記背景の前記三次元映像を生成し、
前記ユーザの前記三次元映像と前記背景の前記三次元映像とを合成し、前記背景の手前に前記ユーザが位置した合成映像をディスプレイに表示させる合成映像表示部を有することを特徴とする請求項1に記載の映像表示システム。 - 前記映像取得部は、前記撮像装置により撮像された前景の映像を更に取得し、
前記距離データ取得部は、前記前景の映像についての前記距離データを更に取得し、
前記三次元映像生成部は、前記前景の映像及び当該前景の映像について取得された前記距離データを用いた前記レンダリング処理を実行することによって前記前景の前記三次元映像を更に生成し、
前記合成映像表示部は、前記ユーザの前記三次元映像と前記背景の前記三次元映像と前記前景の前記三次元映像とを合成し、前記背景の手前に前記ユーザが位置し、かつ、前記ユーザの手前に前記前景が位置している前記合成映像を前記ディスプレイに表示させることを特徴とする請求項2に記載の映像表示システム。 - 前記距離データに基づいて、前記撮像装置と前記ユーザとの間の距離が変化したかどうかを判定する判定部を備え、
前記撮像装置が前記ユーザの映像を撮像している間に、前記撮像装置と前記ユーザとの間の距離が変化したと前記判定部が判定したとき、前記合成映像表示部は、前記合成映像における前記ユーザの映像の表示サイズを、前記撮像装置と前記ユーザとの間の距離が変化する前の前記表示サイズとなるように調整することを特徴とする請求項2又は3に記載の映像表示システム。 - 前記ディスプレイに表示された前記合成映像を見る第二のユーザの顔が前記ディスプレイの幅方向に移動したことを検知する顔移動検知部を有し、
該顔移動検知部が前記顔の移動を検知したとき、前記合成映像表示部は、前記ディスプレイに表示されている前記合成映像を、前記顔移動検知部が前記顔の移動を検知する前の状態から遷移させる遷移処理を実行し、該遷移処理では、前記合成映像における前記ユーザの前記三次元映像の表示位置、及び、前記背景の前記三次元映像の中で前記合成映像中に含まれる範囲のうちの一方を、他方のずれ量よりも大きいずれ量だけ前記幅方向に沿ってずらした状態へ前記合成映像を遷移させることを特徴とする請求項2乃至4のいずれか一項に記載の映像表示システム。 - 前記映像取得部は、互いに異なる撮像方向にて前記ユーザの映像を撮像する複数の前記撮像装置により撮像された前記ユーザの映像を、前記撮像装置別に取得し、
前記距離データ取得部は、前記ユーザの映像についての前記距離データを前記撮像装置別に取得し、
前記三次元映像生成部は、
前記撮像装置別に取得された前記ユーザの映像と、前記撮像装置別に取得された前記距離データと、に基づいて、前記撮像装置別の前記ユーザの三次元映像片を生成する映像片生成工程と、
前記ユーザの前記三次元映像を生成するために、前記撮像装置別の前記ユーザの前記三次元映像片の各々を、当該各々に含まれる共通の映像領域同士が重なり合うように結合する結合工程と、
を行い、前記映像片生成工程において前記ユーザの目を含む部分の前記三次元映像片を生成する際、前記双方が異なるときには、前記双方の差及び前記撮像装置と前記ユーザとの間の距離に基づいて、前記仮想的な視点から見たときの前記三次元映像片を取得するための前記レンダリング処理を実行することを特徴とする請求項2乃至5のいずれか一項に記載の映像表示システム。 - 前記撮像方向が基準面の法線方向と異なるとき、前記三次元映像生成部は、前記映像片生成工程において、前記撮像方向にて撮像した映像に基づいて生成した前記ユーザの前記三次元映像片を、前記法線方向から仮想的に見た場合の前記三次元映像片へ変換することを特徴とする請求項6に記載の映像表示システム。
- コンピュータが、撮像装置により撮像されたユーザの映像を取得することと、
コンピュータが、前記映像を所定数の映像片に分割した際の該映像片毎に、前記撮像装置から前記映像片中の対象物との間の距離を示した距離データを取得することと、
コンピュータが、前記ユーザの映像及び前記距離データを用いたレンダリング処理を実行することによって前記ユーザの三次元映像を生成することと、
コンピュータが、前記ユーザの目の高さを検知することと、を有し、
前記撮像装置が設置されている高さ及び検知した前記目の高さの双方が異なるとき、コンピュータは、前記双方の差及び前記撮像装置と前記ユーザとの間の距離に基づいて、検知した前記目の高さにある仮想的な視点から見たときの前記ユーザの前記三次元映像を取得するための前記レンダリング処理を実行することを特徴とする映像表示方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015071764A JP6461679B2 (ja) | 2015-03-31 | 2015-03-31 | 映像表示システム及び映像表示方法 |
PCT/JP2016/060533 WO2016159166A1 (ja) | 2015-03-31 | 2016-03-30 | 映像表示システム及び映像表示方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015071764A JP6461679B2 (ja) | 2015-03-31 | 2015-03-31 | 映像表示システム及び映像表示方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016192688A true JP2016192688A (ja) | 2016-11-10 |
JP6461679B2 JP6461679B2 (ja) | 2019-01-30 |
Family
ID=57004772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015071764A Active JP6461679B2 (ja) | 2015-03-31 | 2015-03-31 | 映像表示システム及び映像表示方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6461679B2 (ja) |
WO (1) | WO2016159166A1 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019121074A (ja) * | 2017-12-28 | 2019-07-22 | 凸版印刷株式会社 | Vr空間における自撮り装置、方法、およびプログラム |
WO2020153890A1 (en) * | 2019-01-25 | 2020-07-30 | Flatfrog Laboratories Ab | A videoconferencing terminal and method of operating the same |
US11740741B2 (en) | 2017-02-06 | 2023-08-29 | Flatfrog Laboratories Ab | Optical coupling in touch-sensing systems |
US11893189B2 (en) | 2020-02-10 | 2024-02-06 | Flatfrog Laboratories Ab | Touch-sensing apparatus |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108737907B (zh) * | 2017-04-18 | 2020-05-12 | 杭州海康威视数字技术股份有限公司 | 一种生成字幕的方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005065051A (ja) * | 2003-08-18 | 2005-03-10 | Sony Corp | 撮像装置 |
JP2006503365A (ja) * | 2002-10-17 | 2006-01-26 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 2次元表示装置を用いて擬似3次元表示を生成する方法及びシステム |
JP2009500878A (ja) * | 2005-04-11 | 2009-01-08 | ヒューマンアイズ テクノロジーズ リミテッド | 奥行錯覚デジタル撮像 |
JP2014071871A (ja) * | 2012-10-02 | 2014-04-21 | Nippon Telegr & Teleph Corp <Ntt> | 映像コミュニケーションシステム及び映像コミュニケーション方法 |
JP2016509683A (ja) * | 2012-12-18 | 2016-03-31 | ヴィルコフスキー,ニッシ | 外観を撮像及び表示する装置、システム及び方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1998153A (zh) * | 2004-05-10 | 2007-07-11 | 辉达公司 | 用于视频数据的处理器 |
-
2015
- 2015-03-31 JP JP2015071764A patent/JP6461679B2/ja active Active
-
2016
- 2016-03-30 WO PCT/JP2016/060533 patent/WO2016159166A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006503365A (ja) * | 2002-10-17 | 2006-01-26 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 2次元表示装置を用いて擬似3次元表示を生成する方法及びシステム |
JP2005065051A (ja) * | 2003-08-18 | 2005-03-10 | Sony Corp | 撮像装置 |
JP2009500878A (ja) * | 2005-04-11 | 2009-01-08 | ヒューマンアイズ テクノロジーズ リミテッド | 奥行錯覚デジタル撮像 |
JP2014071871A (ja) * | 2012-10-02 | 2014-04-21 | Nippon Telegr & Teleph Corp <Ntt> | 映像コミュニケーションシステム及び映像コミュニケーション方法 |
JP2016509683A (ja) * | 2012-12-18 | 2016-03-31 | ヴィルコフスキー,ニッシ | 外観を撮像及び表示する装置、システム及び方法 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11740741B2 (en) | 2017-02-06 | 2023-08-29 | Flatfrog Laboratories Ab | Optical coupling in touch-sensing systems |
JP2019121074A (ja) * | 2017-12-28 | 2019-07-22 | 凸版印刷株式会社 | Vr空間における自撮り装置、方法、およびプログラム |
JP7020115B2 (ja) | 2017-12-28 | 2022-02-16 | 凸版印刷株式会社 | Vr空間における自撮り装置、方法、およびプログラム |
WO2020153890A1 (en) * | 2019-01-25 | 2020-07-30 | Flatfrog Laboratories Ab | A videoconferencing terminal and method of operating the same |
US11943563B2 (en) | 2019-01-25 | 2024-03-26 | FlatFrog Laboratories, AB | Videoconferencing terminal and method of operating the same |
US11893189B2 (en) | 2020-02-10 | 2024-02-06 | Flatfrog Laboratories Ab | Touch-sensing apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP6461679B2 (ja) | 2019-01-30 |
WO2016159166A1 (ja) | 2016-10-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6496172B2 (ja) | 映像表示システム及び映像表示方法 | |
US8928659B2 (en) | Telepresence systems with viewer perspective adjustment | |
JP6461679B2 (ja) | 映像表示システム及び映像表示方法 | |
US11010958B2 (en) | Method and system for generating an image of a subject in a scene | |
US9538160B1 (en) | Immersive stereoscopic video acquisition, encoding and virtual reality playback methods and apparatus | |
US8199186B2 (en) | Three-dimensional (3D) imaging based on motionparallax | |
US20130113701A1 (en) | Image generation device | |
JPH08237629A (ja) | 視差修正および存在感を提供するビデオ会議システムおよび方法 | |
KR102279143B1 (ko) | 계층화된 증강 엔터테인먼트 경험 | |
JP2014511049A (ja) | 運動視差を有する3次元ディスプレイ | |
WO2017094543A1 (ja) | 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、パラメーターの設定方法 | |
KR20110002025A (ko) | 디지털 이미지를 수정하기 위한 방법 및 장치 | |
JP5833526B2 (ja) | 映像コミュニケーションシステム及び映像コミュニケーション方法 | |
CN103747236A (zh) | 结合人眼跟踪的立体视频处理系统及方法 | |
JP5478357B2 (ja) | 表示装置および表示方法 | |
US10404964B2 (en) | Method for processing media content and technical equipment for the same | |
JP2014182597A (ja) | 仮想現実提示システム、仮想現実提示装置、仮想現実提示方法 | |
WO2016159165A1 (ja) | 映像表示システム及び映像表示方法 | |
WO2017141584A1 (ja) | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム | |
US20230179756A1 (en) | Information processing device, information processing method, and program | |
WO2017043662A1 (ja) | 画像表示システム及び画像表示方法 | |
JP6595591B2 (ja) | 没入ビデオを生成する目的のための画像データを収集する方法及びそれらの画像データに基づく空間可視化方法 | |
US20230122149A1 (en) | Asymmetric communication system with viewer position indications | |
JP6550307B2 (ja) | 画像表示システム及び画像表示方法 | |
WO2022209130A1 (ja) | 情報処理装置、情報処理方法、およびシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180328 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181226 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6461679 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |