JP7118383B1 - 表示システム、表示方法、及び表示プログラム - Google Patents

表示システム、表示方法、及び表示プログラム Download PDF

Info

Publication number
JP7118383B1
JP7118383B1 JP2022071929A JP2022071929A JP7118383B1 JP 7118383 B1 JP7118383 B1 JP 7118383B1 JP 2022071929 A JP2022071929 A JP 2022071929A JP 2022071929 A JP2022071929 A JP 2022071929A JP 7118383 B1 JP7118383 B1 JP 7118383B1
Authority
JP
Japan
Prior art keywords
screen
viewer
display
face
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022071929A
Other languages
English (en)
Other versions
JP2023161493A (ja
Inventor
慎二 吉田
英起 多田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NURVE, INC.
Original Assignee
NURVE, INC.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NURVE, INC. filed Critical NURVE, INC.
Priority to JP2022071929A priority Critical patent/JP7118383B1/ja
Application granted granted Critical
Publication of JP7118383B1 publication Critical patent/JP7118383B1/ja
Publication of JP2023161493A publication Critical patent/JP2023161493A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】スクリーンに映った画像に対する空間拡張感や没入感を視聴者が容易に得ることができる表示システム等を提供する。【解決手段】表示システムは、コンテンツの画像データを記憶するコンテンツデータ記憶部と、該コンテンツをスクリーンに表示可能な表示手段と、スクリーンを見る視聴者の顔を撮像するカメラと、スクリーンとカメラとの位置関係及びスクリーンに対するカメラの光軸の角度を記憶する設定値記憶部と、カメラにより撮像された画像から視聴者の顔を検出する検出部と、該画像における視聴者の顔の位置と、スクリーンとカメラとの位置関係と、上記相対的な角度とに基づいて、スクリーンに対する視聴者の顔の相対的な位置関係を算出する相対関係算出部と、コンテンツの少なくとも一部の画像領域をスクリーンに表示させ、上記相対的な位置関係に基づいて、スクリーンに表示されるコンテンツ内の画像領域を制御する表示制御部とを備える。【選択図】図1

Description

本発明は、動画又は静止画を用いて構成されるコンテンツを表示する表示システム、表示方法、及び表示プログラムに関する。
近年、全天球カメラや魚眼レンズにより撮影されたパノラマ画像や、3次元コンピュータグラフィックス(3DCG)で作成されたパノラマ画像又は3D画像からなるコンテンツが、ゲームなどのエンターテインメントだけでなく、観光案内や不動産の内覧、職業訓練など幅広い分野で活用されている。
例えば特許文献1には、撮影装置により全天球画像を生成し、スマートフォンに出力する撮影システムが開示されている。
特開2017-84422号公報
一般に、テレビやディスプレイ、デジタルサイネージなどのスクリーンに表示される画像は、視聴者がどのような角度から見ても変化することはない。つまり、スクリーンを正面から見ても、下から見上げても、現実の被写体とは異なり、視聴者は同じ画像しか視認することができない。そのため、視聴者は、スクリーンに映った画像をあくまで画像として認識するに留まり、画像内の空間が現実空間と繋がっているような空間拡張感や、画像内の空間に入り込んだような没入感を持つことは困難である。
スマートフォンやタブレット端末、パーソナルコンピュータに接続されたディスプレイにパノラマ画像が表示されている場合、視聴者は、スワイプやドラッグ操作を行うことにより、スクリーンに表示されるパノラマ画像内の画像領域を変化させることができる(例えば特許文献1参照)。また、スマートフォン等の向きを変えることで、スクリーンに映る画像領域が変化するコンテンツも存在する。しかしながら、いずれにしても、スクリーンに映るパノラマ画像内の画像領域を変化させるためには、スワイプや端末の向きを変えるといったデバイスに対する操作が必要になるため、やはり、視聴者が空間拡張感や没入感を得ることは困難である。
近年では、ヘッドマウントディスプレイ又はVRゴーグルと呼ばれるゴーグル型の表示装置が普及している。このような表示装置においては、ゴーグルを装着した視聴者の頭の動きに合わせて、パノラマ画像や3D画像として表示される画像領域が変化するため、視聴者は画像への没入感を比較的容易に得ることができる。しかしながら、この場合、VRゴーグルを用意する必要が生じるため、手軽に利用できるとは言い難い。また、重さのあるVRゴーグルを装着すること自体が、視聴者にとって没入感の妨げになることもある。
本発明は上記に鑑みてなされたものであって、スクリーンに映った画像に対する空間拡張感や没入感を視聴者が容易に得ることができる表示システム、表示方法、及び表示プログラムを提供することを目的とする。
上記課題を解決するために、本発明の一態様である表示システムは、動画又は静止画を用いて構成されるコンテンツをスクリーンに表示可能な表示手段と、前記スクリーンを見る視聴者の顔を撮像可能な位置に設置されたカメラと、前記スクリーンと前記カメラとの位置関係、及び、前記スクリーンに対する前記カメラの光軸の角度を記憶する設定値記憶部と、前記カメラにより撮像された画像から前記視聴者の顔を検出する検出部と、前記画像における前記視聴者の顔の位置と、前記スクリーンと前記カメラとの位置関係と、前記相対的な角度とに基づいて、前記スクリーンに対する前記視聴者の顔の相対的な位置関係を算出する相対関係算出部と、前記コンテンツの少なくとも一部の画像領域を前記スクリーンに表示させると共に、前記相対的な位置関係に基づいて、前記スクリーンに表示される前記コンテンツ内の画像領域を制御する表示制御部と、を備えるものである。
上記表示システムにおいて、前記表示制御部は、前記視聴者の顔が前記スクリーンの面と平行に移動した場合に、前記スクリーンに表示される前記コンテンツ内の画像領域を、前記視聴者の顔の移動方向と反対方向にシフトさせても良い。
上記表示システムにおいて、前記コンテンツは、天球面に対応する座標が設定されたパノラマ画像であり、前記表示制御部は、前記天球面の中心に設定された仮想的なカメラの画角に含まれる画像領域を前記スクリーンに表示させると共に、該仮想的なカメラの画角の中心方向を示す方向ベクトルを、前記スクリーンの中心点から前記視聴者の顔に向かう方向ベクトルの回転方向と同じ方向に回転させても良い。
上記表示システムにおいて、前記設定値記憶部は、さらに、前記スクリーンにおいて前記コンテンツが表示される領域である表示領域のサイズを記憶し、前記表示制御部は、前記表示領域のサイズと前記相対的な位置関係とに基づいて、前記表示領域に表示される前記コンテンツ内の画像領域を制御しても良い。
上記表示システムにおいて、前記表示制御部は、前記視聴者の顔が前記スクリーンから遠ざかった場合に、前記スクリーンに表示される前記コンテンツ内の画像領域を狭くすると共に、該画像領域のサイズを前記表示領域に合わせて拡大し、前記視聴者の顔が前記スクリーンに近づいた場合に、前記スクリーンに表示される前記コンテンツ内の画像領域を広くすると共に、該画像領域のサイズを前記表示領域に合わせて縮小しても良い。
上記表示システムにおいて、前記表示制御部は、前記スクリーンに表示されるコンテンツが窓越しの景色として前記視聴者に認識されるように制御を行っても良い。
上記表示システムにおいて、前記表示手段は、前記コンテンツを前記スクリーンに投影するように構成されたプロジェクタを含んでも良い。
上記表示システムにおいて、前記表示手段は、液晶パネル又は有機ELパネルを有する表示装置であっても良い。
本発明の別の態様である表示方法は、動画又は静止画を用いて構成されるコンテンツをスクリーンに表示させる表示方法であって、前記スクリーンを見る視聴者の顔を、カメラにより撮像する撮像ステップと、前記カメラにより撮像された画像から前記視聴者の顔を検出する検出ステップと、前記画像における前記視聴者の顔の位置と、前記スクリーンと前記カメラとの位置関係と、前記スクリーンに対する前記カメラの光軸の角度とに基づいて、前記スクリーンに対する前記視聴者の顔の相対的な位置関係を算出する相対関係算出ステップと、前記コンテンツの少なくとも一部の画像領域を前記スクリーンに表示させると共に、前記相対的な位置関係に基づいて、前記スクリーンに表示される前記コンテンツ内の画像領域を制御する表示制御ステップと、を含むものである。
本発明の別の態様である表示プログラムは、動画又は静止画を用いて構成されるコンテンツをスクリーンに表示させる表示プログラムであって、前記スクリーンを見る視聴者の顔を、カメラに撮像させる撮像ステップと、前記カメラにより撮像された画像から前記視聴者の顔を検出する検出ステップと、前記画像における前記視聴者の顔の位置と、前記スクリーンと前記カメラとの位置関係と、前記スクリーンに対する前記カメラの光軸の角度とに基づいて、前記スクリーンに対する前記視聴者の顔の相対的な位置関係を算出する相対関係算出ステップと、前記コンテンツの少なくとも一部の画像領域を前記スクリーンに表示させると共に、前記相対的な位置関係に基づいて、前記スクリーンに表示される前記コンテンツ内の画像領域を制御する表示制御ステップと、をコンピュータに実行させるものである。
本発明によれば、スクリーンに対する視聴者の顔の相対的な位置関係に基づいて、スクリーンに表示されるコンテンツ内の画像領域を制御するので、視聴者は、スクリーンに映った画像に対する空間拡張感や没入感を容易に得ることが可能となる。
本発明の第1の実施形態に係る表示システムの概略構成を示す模式図である。 図1に示す情報処理装置の概略的な機能構成を示すブロック図である。 パノラマ画像の表示原理を説明するための模式図である。 窓越しの景色の見え方を示す模式図である。 窓越しの景色の見え方(視聴者が平行移動した場合)を示す模式図である。 窓越しの景色の見え方(視聴者が窓から遠ざかった場合)を示す模式図である。 窓越しの景色の見え方(視聴者が窓に近づいた場合)を示す模式図である。 図1に示す情報処理装置における表示制御の動作を示すフローチャートである。 スクリーンに対する視聴者の相対的な位置関係を説明するための模式図である。 パノラマ画像の表示における初期設定状態を例示する模式図である。 カメラが視聴者を撮像することにより得られる画像を例示する模式図である。 図1に示す表示システムにおける表示制御(視聴者が平行移動した場合)を説明するための模式図である。 図1に示す表示システムにおける表示制御(視聴者がスクリーンから遠ざかった場合)を説明するための模式図である。 図1に示す表示システムにおける表示制御(視聴者がスクリーンに近づいた場合)を説明するための模式図である。 本発明の第2の実施形態に係る表示システムの概略構成を示す模式図である。 本発明の第3の実施形態に係る表示システムの概略構成を示す模式図である。 図16に示す表示システムの概略的な機能構成を示すブロック図である。
以下、本発明の実施形態に係る画表示システム、表示方法、及び表示プログラムについて、図面を参照しながら説明する。なお、これらの実施形態によって本発明が限定されるものではない。また、各図面の記載において、同一部分には同一の符号を付して示している。
(第1の実施形態)
図1は、本発明の第1の実施形態に係る表示システムを示す模式図である。図1に示すように、本実施形態に係る表示システム1は、動画又は静止画を用いて構成されるコンテンツ(画像)をスクリーンに表示可能な表示手段10と、画像が表示される画面を見る視聴者100の顔を撮像可能な位置に設置されたカメラ20と、表示手段10に画像データを出力してコンテンツを表示させる情報処理装置30とを備える。
本実施形態において、表示手段10は、情報処理装置30から出力される画像データに基づいて、スクリーン12に画像を投影するプロジェクタ11を含む。図1においては、平面状のスクリーン12を図示しているが、スクリーンの形状は平面状に限定されず、例えば、円柱側面状、球面状、非球面状のように、凸状又凹状に湾曲していても良い。また、プロジェクタ11は、スクリーン12の代わりに、建物の壁などに画像を投影しても良い。
スクリーン12において画像が表示(投影)される領域である表示領域Scのサイズは、プロジェクタ11とスクリーン12との距離及びプロジェクタ11からの投影角により決定される。投影角は、プロジェクタ11に対する操作又は情報処理装置30によるプロジェクタ11に対する制御により調整することができる。
カメラ20は、CCDやCMOS等の固体撮像素子を有し、動画撮影が可能なデジタルカメラである。カメラ20は、被写体を撮像することにより画像信号を生成し、該画像信号をデジタル変換して情報処理装置30に出力する。カメラ20は、USB(Universal Serial Bus)等により情報処理装置30と有線で接続されていても良いし、Wi-Fi(Wireless Fidelity)、Bluetooth(登録商標)等の無線通信により接続されていても良い。
カメラ20のスペックは、例えば、歩く、顔を動かすといった視聴者100の通常の動作を検知可能な程度のフレームレートと、画像処理により視聴者100の顔101を検出可能な程度の解像度を有していれば、特に限定されない。例えば、カメラ20として、汎用のウェブカメラを使用しても良い。また、後述するように、スマートフォンやタブレット端末等に内蔵されているカメラを使用しても良い。
なお、図1において、カメラ20はスクリーン12の上部に設置されているが、カメラ20の位置は、スクリーン12を見る視聴者100の顔101を撮像可能な位置であれば特に限定されない。例えば、スクリーン12の側方や下方にカメラ20を設置しても良いし、スクリーン12から離れた位置にカメラ20を設置しても良い。
情報処理装置30は、例えば、パーソナルコンピュータ(PC)、ノートPC、タブレット端末等の汎用のコンピュータによって構成することができる。情報処理装置30は、動画又は静止画を用いて構成されるコンテンツを表示するための画像データ(以下、コンテンツデータともいう)に基づいて、表示手段10にコンテンツを表示させると共に、カメラ20から入力された画像信号に基づいて、表示手段10におけるコンテンツの表示を制御する。情報処理装置30は、表示手段10(図1においてはプロジェクタ11)と有線で接続されていても良いし、無線接続されていても良い。
図2は、情報処理装置30の概略的な機能構成を示すブロック図である。図2に示すように、情報処理装置30は、外部インタフェース31と、記憶部32と、プロセッサ33とを備える。また、情報処理装置30は、表示部34及び操作入力部35を備えても良い。
外部インタフェース31は、情報処理装置30を外部機器と接続し、外部機器との間でデータを送受信するインタフェースである。また、情報処理装置30がプロジェクタ11又はカメラ20と無線接続される場合には、情報処理装置30は、当該情報処理装置30をLAN、電気通信回線等の通信ネットワークに接続し、通信ネットワークに接続された他の機器との間で通信を行う通信インタフェースを備えても良い。通信インタフェースは、例えばソフトモデム、ケーブルモデム、無線モデム、ADSLモデム等を用いて構成することができる。
記憶部32は、例えばROM、RAM等の半導体メモリやハードディスクなどのコンピュータ読取可能な記憶媒体を用いて構成することができる。記憶部32は、プログラム記憶部321、コンテンツデータ記憶部322、及び、設定値記憶部323を含む。プログラム記憶部321は、オペレーティングシステムプログラム、ドライバプログラム、及び、各種機能を実行するアプリケーションプログラムや、これらのプログラムの実行中に使用される各種パラメータ等を記憶する。具体的には、プログラム記憶部321は、表示手段10におけるコンテンツの表示を制御するための表示プログラムを記憶する。
コンテンツデータ記憶部322は、動画又は静止画を用いて構成されるコンテンツの画像データを記憶する。本実施形態においては、コンテンツとして、Equirectangular形式(正距円筒図法)で生成された画像データに基づいて表示されるパノラマ画像を例として説明する。また、コンテンツデータ記憶部322は、コンテンツと共に出力される音声のデータを記憶しても良い。
設定値記憶部323は、プログラム記憶部321に記憶された表示プログラムの実行中に使用される各種設定値やパラメータを記憶する。設定値記憶部323に記憶される設定値としては、スクリーン12における表示領域Scのサイズ、スクリーン12とカメラ20との位置関係、スクリーン12に対するカメラ20の光軸の角度等が挙げられる。なお、スクリーンが曲面状である場合には、スクリーンの中心点における法線に対するカメラ20の光軸の角度を設定値として記憶しても良い。
プロセッサ33は、例えばCPU(Central Processing Unit)やGPU(Graphics Processing Unit)を用いて構成され、プログラム記憶部321に記憶された各種プログラムを読み込むことにより、情報処理装置30の各部を統括的に制御すると共に、コンテンツをスクリーン12に表示するための各種演算処理を実行する。プロセッサ33がプログラム記憶部321に記憶された表示プログラムを読み込むことにより実現される機能部としては、画像生成部331、検出部332、相対関係算出部333、及び、表示制御部334が含まれる。
画像生成部331は、カメラ20から入力された画像信号に基づいて画像を生成する。
検出部332は、画像生成部331により生成された画像に対して顔検出処理を実行することにより、該画像から視聴者の顔を検出し、該画像における顔の位置(座標)を出力する。
相対関係算出部333は、視聴者が写った画像における顔の位置と、スクリーン12とカメラ20との位置関係と、スクリーン12に対するカメラの光軸Lの角度とに基づいて、スクリーン12に対する視聴者100の顔101の相対的な位置関係を算出する。
表示制御部334は、コンテンツ(例えばパノラマ画像)の少なくとも一部の領域をスクリーン12に表示させると共に、スクリーン12に対する視聴者100の顔101の相対的な位置関係に基づいて、該スクリーン12に表示されるコンテンツ内の画像領域を制御する。
表示部34は、例えば液晶ディスプレイ又は有機ELディスプレイである。操作入力部35は、キーボード、マウスなどのポインティングデバイス、表示部34に設けられたタッチパネル等の入力デバイスであり、情報処理装置30に対する入力操作を受け付ける。
図3は、パノラマ画像の表示原理を説明するための模式図である。Equirectangular形式で生成されたパノラマ画像の画像データにおいては、図3の(a)に示すように、全球又は半球部分の内面に動画又は静止画である画像Imが貼り付けられた天球面Spに対応する座標が設定されている。このような天球面Spの中心に仮想的なカメラCvを配置し、このカメラCvで天球面Spの内面を撮像したとした場合にカメラCvの画角Fvに入る画像領域が、図3の(b)に示すように、スクリーン12の表示領域Scに表示される。表示制御部334は、スクリーン12に対する視聴者100の顔の相対的な位置関係に基づき、カメラCvの画角Fvの大きさ及び向きを変化させることにより、表示領域Scにおけるコンテンツの表示制御を行う。
次に、図4~図7を参照しながら、視聴者が窓越しに外の景色を見る場合の見え方について説明する。図4~図7は、窓越しの景色の見え方を示す模式図である。このうち、図5は、図4に示す状態に対し、視聴者100が窓Wの面と平行に移動した場合を示す。図6は、視聴者100が窓Wから遠ざかった場合を示す。図7は、視聴者100が窓Wに近づいた場合を示す。また、図4~図7の(a)は、視聴者100を頭頂部から見た場合の視聴者100と窓Wとの位置関係を示し、図4~図7の(b)は、視聴者100から見た窓Wの外の景色を示す。
図4の(a)に示すように、視聴者100が窓Wの内側に居る場合、視聴者100は、図4の(b)に示すように、視聴者100と窓Wとの距離D0と、窓のサイズ(幅X、高さY)とによって決まる窓枠内の視界Vに入る外の景色Snを眺めることができる。
これに対し、図5に示すように、視聴者100が窓Wとの距離D0を保ったまま平行移動すると、窓枠内の視界Vに入る外の景色Snは、視聴者100の移動方向と反対方向にシフトする。例えば、図5の(a)に示すように、視聴者100が窓Wに対して右方に移動すると、視聴者100から見て左方の景色Snが視界Vに入ってくる一方、右方の景色Snは窓枠に遮られて見えなくなる。
また、図6及び図7に示すように、視聴者100と窓Wとの距離が変化すると、両者の距離に応じて、窓枠内の視界Vに入る外の景色Snが変化する。例えば、図6の(a)に示すように、視聴者100が窓Wから遠ざかると(距離D0<D1)、図6の(b)に示すように、遠近感から、視聴者100の位置から見た窓Wのサイズが小さくなると共に、窓枠内の視界Vに入る外の景色Snの範囲が狭くなる。反対に、図7の(a)に示すように、視聴者100が窓Wに近づくと(距離D0>D2)、図7の(b)に示すように、遠近感から、視聴者100の位置から見た窓Wが大きくなると共に、窓枠内の視界Vに入る景色Snの範囲が広くなる。
本実施形態に係る表示方法は、スクリーン12における表示領域Scを窓Wに見立て、表示領域Scに表示されるコンテンツが、図4~図7で示したような窓越しの景色として視聴者100に認識されるように、表示制御を行うものである。
図8は、情報処理装置30による表示制御の動作を示すフローチャートである。図9は、スクリーン12に対する視聴者100の相対的な位置関係を説明するための模式図である。図10は、パノラマ画像の表示における初期設定状態を例示する模式図である。このうち、図10の(a)は、頭頂部から見た視聴者100とスクリーン12との位置関係を示し、図10の(b)は、パノラマ画像が貼り付けられた天球面Spの水平方向における断面を示し、図10の(c)は、スクリーン12の表示領域Scに表示されるコンテンツ内の画像領域を示す。図11は、カメラ20が視聴者100を撮像することにより得られる画像を例示する模式図である。
まず、情報処理装置30は、初期設定を行う(ステップS10)。詳細には、情報処理装置30は、スクリーン12の表示領域Scの中心を原点とし、スクリーン12の水平方向をx軸、スクリーン12の垂直方向をy軸、スクリーン12の法線方向をz軸とするスクリーン座標系Oを設定する。そして、情報処理装置30は、スクリーン座標系Oにおけるカメラ20の座標(xc,yc,zc)と、スクリーン12の法線に対するカメラ20の光軸Lの相対的な角度(θ,φ)と、表示領域Scのサイズ(幅w0、高さh0)を設定する。ここで、角度θは、水平面(xz面)における角度(即ちy軸回りの角度)を示し、角度φは、垂直面(yz面)における角度(即ちx軸回りの角度)を示す。
また、情報処理装置30は、コンテンツとして表示されるパノラマ画像の座標系における設定を行う。詳細には、情報処理装置30は、図10の(a)に示すように、表示領域Scの中心点における法線上であって、スクリーン12から任意の距離d0だけ離れた位置(0,0,d0)を、スクリーン座標系Oにおける視聴者100の顔101の座標の初期値として設定する。そして、表示領域Scの幅w0(図9参照)に基づいて、視聴者100がこの位置(0,0,d0)から表示領域Scを臨む水平方向の角度a0を、天球面Spの水平方向における画角Fvの大きさとして設定する(図10の(b)参照)。天球面Spの垂直方向の画角についても、表示領域Scの高さh0に基づいて同様に設定される。
また、情報処理装置30は、図10の(b)に示すように、天球面Spにおける仮想的なカメラCvの光軸方向、即ち、画角Fvの中心方向を示す方向ベクトルCを、天球面Sp上の基準点c0に合わせる。
さらに、情報処理装置30は、スクリーン座標系Oの中心から視聴者100の顔101に向かう方向ベクトルVを、カメラCvの方向ベクトルCと関連づける。
これにより、天球面Spにおいて基準点c0を中心とする画角Fvに含まれる画像領域が、スクリーン12の表示領域Scに表示される範囲として初期設定される(図10の(c)参照)。なお、スクリーン12における画像表示は、カメラ20により視聴者100の撮像が開始された後から開始することとしても良い。
続いて、情報処理装置30は、カメラ20により撮像された画像から視聴者の顔を検出し、画像における顔の座標を取得する(ステップS20)。詳細には、図11に示すように、画像処理装置30の画像生成部331が、カメラ20から取り込まれた画像信号に基づいて、画像M1を生成する。この画像M1に対し、検出部332が、顔検出処理を実行することにより顔M2を検出し、画像M1における顔M2の座標(xf,yf,zf)を出力する。画像M1における顔M2の座標は、例えば、顔M2の領域を示す枠M3の中心座標であっても良いし、両目の中間座標など特定の被写体の位置を示す座標であっても良い。顔検出処理としては、公知の種々の手法を用いることができ、一般公開されているライブラリを読み込んでも良い。なお、本実施形態における顔検出処理は、画像M1における顔M2の位置を検知するために行われるため、図11に例示する画像M1は特に表示する必要はない。
続いて、情報処理装置30は、画像M1における顔M2の位置(xf,yf,zf)と、スクリーン12に対するカメラ20の座標(xc,yc,zc)と、スクリーン12の法線に対するカメラの光軸Lの相対的な角度(θ,φ)とに基づいて、スクリーン12に対する視聴者100の顔101の相対座標(xf’,yf’,zy’)を算出する(ステップS30、図9参照)。詳細には、相対関係算出部333が、カメラ座標系における顔101の座標(即ち、画像M1における顔M2の座標)を、スクリーン座標系Oにおける顔101の座標に変換する。座標変換としては、アフィン変換などの公知の手法を用いることができる。
続いて、情報処理装置30は、スクリーン12に対する視聴者100の顔101の相対座標の変化に基づいて、天球面Spにおける仮想的なカメラCvの方向ベクトルCの向き又は画角Fvの大きさを調整する(ステップS40)。
さらに、情報処理装置30は、調整後の画角Fvに含まれる画像領域に対応する画像データをプロジェクタ11に出力し、該画像データに基づいてコンテンツをスクリーン12に表示させる(ステップS50)。
図12~図14は、表示システム1における表示制御を説明するための模式図である。このうち、図12は、図10に示す初期設定の状態に対し、視聴者100がスクリーン12の面と平行に移動した場合を示す。図13は、視聴者100がスクリーン12から遠ざかった場合を示す。図14は、視聴者100がスクリーン12に近づいた場合を示す。また、図12~図14の(a)は、頭頂部から見た視聴者100とスクリーン12との位置関係を示し、図12~図14の(b)は、パノラマ画像が貼り付けられた天球面Spの水平方向における断面を示し、図12~図14の(c)は、スクリーン12の表示領域Scに表示されるコンテンツ内の画像領域を示す。
例えば、図12の(a)に示すように、視聴者100の顔101が、スクリーン12との距離を保ったまま、右方向に平行移動した場合、表示制御部334は、図12の(b)に示すように、顔101の移動方向とは反対方向(左方向)に、画角Fvをシフトさせる。これにより、図12の(c)に示すように、顔101の動きに合わせて、表示領域Scに表示される画像領域が変化する。それにより、視聴者100は、窓越しに外の景色を見ながら自身が平行移動した場合と同様に(図5参照)、表示領域Scに表示されるコンテンツを認識することができる。
天球面Spにおけるベクトルの処理としては、顔101の移動により、表示領域Scの中心から顔101に向かう方向ベクトルVの向きが変化すると、表示制御部334は、方向ベクトルVの変化を、カメラCvの光軸方向を示す方向ベクトルCに反映させる。具体的には、水平面(xz面)における顔101の移動により、方向ベクトルVがy軸周りに反時計回りに回転すると、表示制御部334は、天球面Spの水平面において、方向ベクトルVの回転方向と同じ方向に、方向ベクトルCを回転させる。それにより、画角Fvが顔101の移動方向と反対方向にシフトする。顔101が垂直方向に移動した場合も同様である。
カメラCvの方向ベクトルCの回転量は、顔101の方向ベクトルVの回転量と同じであっても良いし、方向ベクトルVの回転量に所定の係数kを積算した量であっても良い。後者とする場合、表示制御部334は、顔101の水平方向への移動に関し、移動後における方向ベクトルVをxz面に投影した射影ベクトルを求め、スクリーン12の法線ベクトルNに対する射影ベクトルの角度|Δa|を算出する。そして、この角度|Δa|に係数kを積算した角度|k・Δa|だけ、カメラCvの方向ベクトルCを基準点0の方向から回転させる。また、表示制御部334は、顔101の垂直方向への移動に関し、方向ベクトルVをyz面に投影した投影ベクトルを求めて同様に処理する。
ここで、表示領域Scが視聴者100に比べて非常に大きい場合、顔101の位置変化が相対的に小さくなるため、表示領域Scにおける画像領域の変化は僅かなものとなる。このような場合、視聴者100は、自身の動きに対し、表示領域Scにおける画像領域の変化を認識しにくくなる。反対に、表示領域Scが視聴者100に比べて小さい場合、顔101の位置変化が相対的に大きくなるため、視聴者100の僅かな動きに対しても、表示領域Scにおいて画像領域が大きく変化してしまう。そこで、上述したように、係数kを用いて方向ベクトルVの回転量をスケールすることにより、視聴者100が自然と感じられるように、表示領域Scにおいて画像領域を変化させることができる。
図13の(a)に示すように、視聴者100がスクリーン12から遠ざかった場合、表示制御部334は、移動後の視聴者100とスクリーン12との距離d1を取得する。そして、表示領域Scの幅w0と距離d1とに基づき、視聴者100が表示領域Scを臨む角度a1を算出し、図13の(b)に示すように、この角度a1を水平方向における画角Fvとして設定する。ここで、視聴者100とスクリーン12との距離d1が大きくなると、移動前(図10参照)と比べて画角Fvが小さくなるため、表示制御部334は、図13の(c)に示すように、狭くなった画角Fvに含まれる画像領域を、表示領域Scのサイズに合わせて拡大して表示する。垂直方向についても同様である。
視聴者100がスクリーン12から遠ざかると、遠近感から、視聴者100の位置から見た表示領域Scのサイズが小さくなる。つまり、小さく見える表示領域Scに、拡大された画像領域が表示されるため、視聴者100は、表示領域Sc内のオブジェクトのサイズが移動前から変化していないように認識する。それにより、視聴者100は、窓越しに外の景色を見ながら自身が窓から遠ざかった場合と同様に(図6参照)、表示領域Scに表示されるコンテンツを認識することができる。
また、図14の(a)に示すように、視聴者100がスクリーン12に近づいた場合、表示制御部334は、移動後の視聴者100とスクリーン12との距離d2を取得する。そして、表示領域Scの幅w0と距離d2とに基づき、視聴者100が表示領域Scを臨む角度a2を算出し、図14の(b)に示すように、この角度a2を水平方向における画角Fvとして設定する。ここで、視聴者100とスクリーン12との距離d2が小さくなると、移動前(図10参照)と比べて画角Fvが大きくなるため、表示制御部334は、図14の(c)に示すように、広くなった画角Fvに含まれる画像領域を、表示領域Scのサイズに合わせて縮小して表示する。垂直方向についても同様である。
視聴者100がスクリーン12に近づくと、遠近感から、視聴者100の位置から見た表示領域Scのサイズが大きくなる。つまり、大きく見える表示領域Scに縮小された画像領域が表示されるため、視聴者100は、表示領域Sc内のオブジェクトのサイズが移動前から変化していないように認識する。それにより、視聴者100は、窓越しに外の景色を見ながら自身が窓に近づいた場合と同様に(図7参照)、表示領域Scに表示されるコンテンツを認識することができる。
以上説明したように、本実施形態によれば、スクリーン12に対する視聴者100の顔101の相対的な位置関係に基づいて、スクリーン12に表示されるコンテンツ内の画像領域を制御するので、視聴者100は、あたかもスクリーン12の表示領域Scを介して、窓越しに外の景色を見ているように、表示領域Scに表示される画像を認識することができる。それにより、視聴者100は、表示領域Scに表示される画像をリアルに感じることができ、自然な空間拡張感を得ることができる。
また、本実施形態によれば、カメラ20により視聴者100を撮像した画像における顔の位置を取得することで、顔の動きに合わせて自然な形で、表示領域Scに表示されるコンテンツ内の画像領域を変化させることができる。即ち、視聴者100は、スクリーン12に対する操作を要することなく、コンテンツの見たい方向に顔を移動させるだけで当該方向を視聴することができるので、コンテンツへのより深い没入感を得ることが可能となる。
また、本実施形態によれば、視聴者100とスクリーン12との距離に応じて、画角Fvの大きさを調整すると共に、画角Fvに含まれる画像領域を表示領域Scに合わせて拡大又は縮小して表示するので、視聴者100はコンテンツ内のオブジェクトを、実際のオブジェクトと同じサイズ感で認識することができる。
また、本実施形態によれば、入力デバイスやVRゴーグルを用いることなく、空間拡張感や没入感のあるコンテンツを視聴者に視聴させることができる。従って、不特定の人が視聴するサイネージやディスプレイにも、本実施形態に係る表示方法を適用することが可能である。
(変形例1)
上記第1の実施形態においては、スクリーン12に表示されるコンテンツとしてパノラマ画像を例示したが、パノラマ画像以外のコンテンツを表示することも可能である。例えば、3DCGで作成された3D空間をコンテンツとして表示しても良い。この場合、カメラ20により撮像された画像M1から、視聴者の顔の位置だけでなく顔の向きも検出し、顔の向きに応じて、表示領域Scに表示される3D空間内のオブジェクトの傾きを変化させても良い。例えば、視聴者が顔を下に向けると、3D空間内のオブジェクトの上面が表示領域Scに表示されるようにしても良い。
(変形例2)
上記第1の実施形態においては、視聴者100の顔101の位置に基づいて、表示領域Scに表示されるコンテンツ内の画像領域を制御することとしたが、さらに、視聴者100の様々なジェスチャーに応じて画像領域を制御しても良い。一例として、カメラ20により撮像された画像M1に写った視聴者100の姿勢に基づいて、例えば「右手を横に広げる」といった所定のジェスチャーを検出し、このようなジェスチャーに応じて、表示領域Scに表示されるパノラマ画像内の画像領域を所定の方向(例えば右方向)にシフトさせても良い。
或いは、コンテンツとして3DCGで作成された3D空間を表示し、例えば「右手を挙げる」といったジェスチャーに応じて、コンテンツ内のオブジェクトを視聴者側に前進させるように表示しても良い。この場合、相対的に、自身が前進しているように視聴者に認識させることができる。このような視聴者のジェスチャーに応じた表示制御により、視聴者が3D空間内を動き回ることができる機能を構成することもできる。
(第2の実施形態)
図15は、本発明の第2の実施形態に係る表示システムの概略構成を示す模式図である。図15に示すように、本実施形態に係る表示システム2は、図1に示すプロジェクタ11及びスクリーン12の代わりに、表示装置40を備える。表示装置40以外の表示システム2の構成及び動作については、図1に示すものと同様である。
表示装置40は、液晶パネル又は有機ELパネルからなるスクリーンを有し、情報処理装置30から出力される画像データに基づいて、動画又は静止画を用いて構成されたコンテンツをスクリーンに表示する。
情報処理装置30は、表示装置40のスクリーン全体をコンテンツの表示領域Scとして設定しても良いし、スクリーンの一部をコンテンツの表示領域Scとして設定しても良い。コンテンツ内のオブジェクトにサイズに合わせて表示領域Scのサイズを設定することにより、視聴者は、実際のオブジェクトと同じサイズ感で、コンテンツ内のオブジェクトを認識することができる。
(第3の実施形態)
図16は、本発明の第3の実施形態に係る表示システムの概略構成を示す模式図である。図17は、図17に示す表示システムの概略的な機能構成を示すブロック図である。図16及び図17に示すように、本実施形態に係る表示システム3は、表示装置40と、該表示装置40と有線又は無線により接続されたタブレット端末50とを備える。
表示装置40は、液晶パネル又は有機ELパネルからなるスクリーンを有し、タブレット端末50から出力される画像データに基づいて、動画又は静止画を用いて構成されたコンテンツをスクリーンに表示する。
図17に示すように、タブレット端末50は、外部インタフェース31と、記憶部32と、プロセッサ33と、撮像部51と、表示部52と、操作入力部と、音声出入力部54とを備える。このうち、外部インタフェース31、記憶部32、及びプロセッサ33の構成及び動作は、図2に示す情報処理装置30が備える外部インタフェース31、記憶部32、及びプロセッサ33の構成及び動作と同様である。また、タブレット端末50が表示装置40と無線接続される場合、タブレット端末50は、当該タブレット端末50を通信ネットワークに接続するための通信インタフェースを備える。
撮像部51は、タブレット端末50に内蔵されたカメラであり、被写体を撮像することにより画像信号を生成し、該画像信号をデジタル変換してプロセッサ33に入力する。図16に示すように、タブレット端末50は、視聴者100の顔が撮像部51の視野角に入る位置に設置される。図16においては、タブレット端末50を、表示装置40の下方に水平に設置しているが、タブレット端末50の位置及び向きはこれに限定されない。要は、撮像部51により視聴者100の顔を撮像することができれば良く、例えば、タブレット端末50を表示装置40と平行に設置しても良い。
表示部52は、例えば液晶ディスプレイ又は有機ELディスプレイである。操作入力部53は、表示部52に設けられたタッチパネルである。音声出入力部54は、マイク及びスピーカを含む。
本実施形態においては、タブレット端末50に内蔵された撮像部51により視聴者100を撮像し、それによって生成された画像における視聴者の顔の位置に基づいて、表示装置40におけるコンテンツの表示制御を行う。そのため、本実施形態によれば、表示システム3の構成を簡素にすることができる。
本実施形態の変形例として、タブレット端末50の代わりに、内蔵カメラを備えるノートPCやスマートフォンを用いても良い。また、本実施形態の別の変形例として、図1と同様に、スクリーン12に画像を投影するプロジェクタ11にタブレット端末50を接続し、タブレット端末50からプロジェクタに画像データを出力することとしても良い。
本発明は、上記第1~第3の実施形態及び変形例に限定されるものではなく、上記第1~第3の実施形態及び変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、上記第1~第3の実施形態及び変形例に示した全構成要素からいくつかの構成要素を除外して形成しても良いし、上記第1~第3の実施形態及び変形例に示した構成要素を適宜組み合わせて形成しても良い。
1・2・3…表示システム、10…表示手段、11…プロジェクタ、12…スクリーン、20…カメラ、30…情報処理装置、31…外部インタフェース、32…記憶部、33…プロセッサ、34・52…表示部、35・53…操作入力部、40…表示装置、50…タブレット端末、51…撮像部、54…音声出入力部、100…視聴者、101…顔、321…プログラム記憶部、322…コンテンツデータ記憶部、323…設定値記憶部、331…画像生成部、332…検出部、333…相対関係算出部、334…表示制御部

Claims (8)

  1. 動画又は静止画を用いて構成されるコンテンツをスクリーンに表示可能な表示手段と、
    前記スクリーンを見る視聴者の顔を撮像可能な位置に設置されたカメラと、
    前記スクリーンと前記カメラとの位置関係、及び、前記スクリーンに対する前記カメラの光軸の角度を記憶する設定値記憶部と、
    前記カメラにより撮像された画像から前記視聴者の顔を検出する検出部と、
    前記画像における前記視聴者の顔の位置と、前記スクリーンと前記カメラとの位置関係と、前記スクリーンに対する前記カメラの光軸の角度とに基づいて、前記スクリーンに対する前記視聴者の顔の相対的な位置関係を、前記スクリーンを基準とした座標系であるスクリーン座標系における前記視聴者の顔の位置として算出する相対関係算出部と、
    前記コンテンツの少なくとも一部の画像領域を前記スクリーンに表示させると共に、前記相対的な位置関係に基づいて、前記スクリーンに表示される前記コンテンツ内の画像領域を制御する表示制御部と、
    を備え、
    前記コンテンツは、天球面に対応する座標が設定されたパノラマ画像であり、
    前記表示制御部は、前記天球面の中心に設定された仮想的なカメラの画角に含まれる画像領域を前記スクリーンに表示させ、前記視聴者の顔が前記スクリーンの面と平行に移動した場合に、前記仮想的なカメラの画角の中心方向を示す方向ベクトルである第1の方向ベクトルを、前記スクリーン座標系の原点から前記視聴者の顔に向かう方向ベクトルである第2の方向ベクトルの回転量に応じた量だけ、前記第2の方向ベクトルの回転方向と同じ方向に回転させることにより、前記スクリーンに表示される前記コンテンツ内の画像領域を、前記視聴者の顔の移動方向と反対方向にシフトさせ、
    前記第1の方向ベクトルが前記天球面上の基準点の方向に初期設定されており、
    前記視聴者の顔が前記スクリーンの面と平行に移動した場合、前記表示制御部は、回転後における前記第2の方向ベクトルと前記スクリーンの法線方向とのなす角度に所定の係数を積算した量を算出し、該積算した量だけ、前記第1の方向ベクトルを前記基準点の方向から回転させる、表示システム。
  2. 前記設定値記憶部は、さらに、前記スクリーンにおいて前記コンテンツが表示される領域である表示領域のサイズを記憶し、
    前記表示制御部は、前記表示領域のサイズと前記相対的な位置関係とに基づいて、前記表示領域に表示される前記コンテンツ内の画像領域を制御する、請求項1に記載の表示システム。
  3. 前記表示制御部は、
    前記視聴者の顔が前記スクリーンから遠ざかった場合に、前記スクリーンに表示される前記コンテンツ内の画像領域を狭くすると共に、該画像領域のサイズを前記表示領域に合わせて拡大し、
    前記視聴者の顔が前記スクリーンに近づいた場合に、前記スクリーンに表示される前記コンテンツ内の画像領域を広くすると共に、該画像領域のサイズを前記表示領域に合わせて縮小する、
    請求項に記載の表示システム。
  4. 前記表示制御部は、前記スクリーンに表示されるコンテンツが窓越しの景色として前記視聴者に認識されるように制御を行う、請求項1~のいずれか1項に記載の表示システム。
  5. 前記表示手段は、前記コンテンツを前記スクリーンに投影するように構成されたプロジェクタを含む、請求項1~のいずれか1項に記載の表示システム。
  6. 前記表示手段は、液晶パネル又は有機ELパネルを有する表示装置である、請求項1~のいずれか1項に記載の表示システム。
  7. 動画又は静止画を用いて構成されるコンテンツをスクリーンに表示させる表示方法であって、
    前記スクリーンを見る視聴者の顔を、カメラにより撮像する撮像ステップと、
    前記カメラにより撮像された画像から前記視聴者の顔を検出する検出ステップと、
    前記画像における前記視聴者の顔の位置と、前記スクリーンと前記カメラとの位置関係と、前記スクリーンに対する前記カメラの光軸の角度とに基づいて、前記スクリーンに対する前記視聴者の顔の相対的な位置関係を、前記スクリーンを基準とした座標系であるスクリーン座標系における前記視聴者の顔の位置として算出する相対関係算出ステップと、
    前記コンテンツの少なくとも一部の画像領域を前記スクリーンに表示させると共に、前記相対的な位置関係に基づいて、前記スクリーンに表示される前記コンテンツ内の画像領域を制御する表示制御ステップと、
    を含み、
    前記コンテンツは、天球面に対応する座標が設定されたパノラマ画像であり、
    前記表示制御ステップは、前記天球面の中心に設定された仮想的なカメラの画角に含まれる画像領域を前記スクリーンに表示させ、前記視聴者の顔が前記スクリーンの面と平行に移動した場合に、前記仮想的なカメラの画角の中心方向を示す方向ベクトルである第1の方向ベクトルを、前記スクリーン座標系の原点から前記視聴者の顔に向かう方向ベクトルである第2の方向ベクトルの回転量に応じた量だけ、前記第2の方向ベクトルの回転方向と同じ方向に回転させることにより、前記スクリーンに表示される前記コンテンツ内の画像領域を、前記視聴者の顔の移動方向と反対方向にシフトさせ
    前記第1の方向ベクトルが前記天球面上の基準点の方向に初期設定されており、
    前記視聴者の顔が前記スクリーンの面と平行に移動した場合、前記表示制御ステップは、回転後における前記第2の方向ベクトルと前記スクリーンの法線方向とのなす角度に所定の係数を積算した量を算出し、該積算した量だけ、前記第1の方向ベクトルを前記基準点の方向から回転させる、表示方法。
  8. 動画又は静止画を用いて構成されるコンテンツをスクリーンに表示させる表示プログラムであって、
    前記スクリーンを見る視聴者の顔を、カメラに撮像させる撮像ステップと、
    前記カメラにより撮像された画像から前記視聴者の顔を検出する検出ステップと、
    前記画像における前記視聴者の顔の位置と、前記スクリーンと前記カメラとの位置関係と、前記スクリーンに対する前記カメラの光軸の角度とに基づいて、前記スクリーンに対する前記視聴者の顔の相対的な位置関係を、前記スクリーンを基準とした座標系であるスクリーン座標系における前記視聴者の顔の位置として算出する相対関係算出ステップと、
    前記コンテンツの少なくとも一部の画像領域を前記スクリーンに表示させると共に、前記相対的な位置関係に基づいて、前記スクリーンに表示される前記コンテンツ内の画像領域を制御する表示制御ステップと、
    をコンピュータに実行させ、
    前記コンテンツは、天球面に対応する座標が設定されたパノラマ画像であり、
    前記表示制御ステップは、前記天球面の中心に設定された仮想的なカメラの画角に含まれる画像領域を前記スクリーンに表示させ、前記視聴者の顔が前記スクリーンの面と平行に移動した場合に、前記仮想的なカメラの画角の中心方向を示す方向ベクトルである第1の方向ベクトルを、前記スクリーン座標系の原点から前記視聴者の顔に向かう方向ベクトルである第2の方向ベクトルの回転量に応じた量だけ、前記第2の方向ベクトルの回転方向と同じ方向に回転させることにより、前記スクリーンに表示される前記コンテンツ内の画像領域を、前記視聴者の顔の移動方向と反対方向にシフトさせ
    前記第1の方向ベクトルが前記天球面上の基準点の方向に初期設定されており、
    前記視聴者の顔が前記スクリーンの面と平行に移動した場合、前記表示制御ステップは、回転後における前記第2の方向ベクトルと前記スクリーンの法線方向とのなす角度に所定の係数を積算した量を算出し、該積算した量だけ、前記第1の方向ベクトルを前記基準点の方向から回転させる、表示プログラム。
JP2022071929A 2022-04-25 2022-04-25 表示システム、表示方法、及び表示プログラム Active JP7118383B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022071929A JP7118383B1 (ja) 2022-04-25 2022-04-25 表示システム、表示方法、及び表示プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022071929A JP7118383B1 (ja) 2022-04-25 2022-04-25 表示システム、表示方法、及び表示プログラム

Publications (2)

Publication Number Publication Date
JP7118383B1 true JP7118383B1 (ja) 2022-08-16
JP2023161493A JP2023161493A (ja) 2023-11-07

Family

ID=82849855

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022071929A Active JP7118383B1 (ja) 2022-04-25 2022-04-25 表示システム、表示方法、及び表示プログラム

Country Status (1)

Country Link
JP (1) JP7118383B1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006349921A (ja) 2005-06-15 2006-12-28 Mitsubishi Electric Corp 画像表示装置
JP2007052304A (ja) 2005-08-19 2007-03-01 Mitsubishi Electric Corp 映像表示システム
JP2007102099A (ja) 2005-10-07 2007-04-19 Sony Corp 電子機器、画像処理方法及びプログラム
JP2008097599A (ja) 2006-10-11 2008-04-24 Internatl Business Mach Corp <Ibm> 模擬視差および視野変化を伴う仮想ウィンドウの方法、システム、およびコンピュータ・プログラムが記録された記録媒体(模擬視差および視野変化を伴う仮想ウィンドウ)
JP2011108028A (ja) 2009-11-18 2011-06-02 Fujifilm Corp 画像再生装置、撮像装置、画像再生方法
WO2018235595A1 (ja) 2017-06-20 2018-12-27 日本電気株式会社 情報提供装置、情報提供方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006349921A (ja) 2005-06-15 2006-12-28 Mitsubishi Electric Corp 画像表示装置
JP2007052304A (ja) 2005-08-19 2007-03-01 Mitsubishi Electric Corp 映像表示システム
JP2007102099A (ja) 2005-10-07 2007-04-19 Sony Corp 電子機器、画像処理方法及びプログラム
JP2008097599A (ja) 2006-10-11 2008-04-24 Internatl Business Mach Corp <Ibm> 模擬視差および視野変化を伴う仮想ウィンドウの方法、システム、およびコンピュータ・プログラムが記録された記録媒体(模擬視差および視野変化を伴う仮想ウィンドウ)
JP2011108028A (ja) 2009-11-18 2011-06-02 Fujifilm Corp 画像再生装置、撮像装置、画像再生方法
WO2018235595A1 (ja) 2017-06-20 2018-12-27 日本電気株式会社 情報提供装置、情報提供方法及びプログラム

Also Published As

Publication number Publication date
JP2023161493A (ja) 2023-11-07

Similar Documents

Publication Publication Date Title
US9491357B2 (en) Image-processing system and image-processing method in which a size of a viewing angle and a position of a viewing point are changed for zooming
US10437545B2 (en) Apparatus, system, and method for controlling display, and recording medium
US20190251672A1 (en) Display apparatus and image processing method thereof
JP7005161B2 (ja) 電子機器及びその制御方法
JP6899875B2 (ja) 情報処理装置、映像表示システム、情報処理装置の制御方法、及びプログラム
JP7182920B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5743016B2 (ja) 画像を生成する装置および方法
CN109743892A (zh) 虚拟现实内容的显示方法和装置
CN109668545B (zh) 用于头戴式显示装置的定位方法、定位器以及定位系统
JP7392105B2 (ja) 没入型ビデオコンテンツをフォービエイテッドメッシュを用いてレンダリングするための方法、システム、および媒体
JP6359572B2 (ja) 画像送信装置、情報処理端末、画像送信方法、情報処理方法、プログラム及び情報記憶媒体
US20190058862A1 (en) Display apparatus and server, and control methods thereof
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
JP2018109946A (ja) 表示装置、プログラム、表示方法
JP7118383B1 (ja) 表示システム、表示方法、及び表示プログラム
JP7005160B2 (ja) 電子機器及びその制御方法
CN114201028B (zh) 扩增实境系统与其锚定显示虚拟对象的方法
KR102132406B1 (ko) 디스플레이 장치 및 그의 제어 방법
JP6124862B2 (ja) ポインティング・ジェスチャに応じたアクションをする方法、会議支援システム、およびコンピュータ・プログラム
JP6371547B2 (ja) 画像処理装置、方法、および、プログラム
JP7187307B2 (ja) 電子機器及びその制御方法
CN112308981A (zh) 图像处理方法、装置、电子设备及存储介质
JP2017062831A (ja) 方法および画像処理装置
US11928775B2 (en) Apparatus, system, method, and non-transitory medium which map two images onto a three-dimensional object to generate a virtual image
EP4383700A1 (en) Electronic device for generating three-dimensional photo based on images acquired from plurality of cameras, and method therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220426

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220602

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220621

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220726

R150 Certificate of patent or registration of utility model

Ref document number: 7118383

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350