JP7429861B2 - マルチディスプレイシステムとその制御方法 - Google Patents

マルチディスプレイシステムとその制御方法 Download PDF

Info

Publication number
JP7429861B2
JP7429861B2 JP2020016372A JP2020016372A JP7429861B2 JP 7429861 B2 JP7429861 B2 JP 7429861B2 JP 2020016372 A JP2020016372 A JP 2020016372A JP 2020016372 A JP2020016372 A JP 2020016372A JP 7429861 B2 JP7429861 B2 JP 7429861B2
Authority
JP
Japan
Prior art keywords
image
display
display device
display devices
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020016372A
Other languages
English (en)
Other versions
JP2021125745A (ja
Inventor
典三 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2020016372A priority Critical patent/JP7429861B2/ja
Publication of JP2021125745A publication Critical patent/JP2021125745A/ja
Application granted granted Critical
Publication of JP7429861B2 publication Critical patent/JP7429861B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Image Processing (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Description

本開示は、複数の表示装置(ディスプレイ装置)を、ネットワークを介して接続し、単一の表示装置のように機能させるマルチディスプレイシステムとその制御方法に関する。
近年、バーチャルリアリティと呼ばれる仮想現実の分野などにおいて、ヘッドマウントディスプレイ等の個人で楽しむシステム以外に、複数のプロジェクタなどのディスプレイから構成される包囲型映像システムによって複数人で楽しむマルチディスプレイシステムが提案されている。こうしたマルチディスプレイシステムでは、1枚で360度全方向の画像情報を含むパノラマ画像を、ディスプレイの配置に応じてディスプレイ毎に切り出して拡大表示させるのが一般的である。
一方で、パノラマ画像では、興味を引く対象が必ずしもパノラマ画像の中心にあるとは限らず、表示装置で最初に表示させた際にその対象が含まれていないことが考えられるため、それを補足するための手段として、パノラマ画像から指定された対象を含む領域を検出し、位置を特定することで、それを表示装置で最初に表示させる際に、その対象を含む領域から表示させるような手法が提案されている。
例えば特許文献1では、パノラマ画像から術野箇所を特定し、スマートホンでそのパノラマ画像を表示させた際に、その術野箇所から表示させることでそれを実現している。
国際公開第2019/098052号パンフレット
しかしながら、特許文献1の方法では、画像の中で、常に注視領域の画像(以下、注視画像という。)が動いてその画像位置が変わるような動画像の場合、特にマルチディスプレイシステムにおいては、その注視画像を含めて表示させ続けることができないという課題があった。
本開示の目的は、複数の表示装置を備えるマルチディスプレイシステムにおいて、注視画像が動いても、所定の表示装置に表示することにある。
第1の開示に係るマルチディスプレイシステムは、
互いに接続された複数の表示装置を備え、パノラマ画像を表示するように制御する制御部を備えるマルチディスプレイシステムであって、
前記制御部は、
注視画像を含むパノラマ画像データを、正距円筒図法を用いて正距円筒図の画像データに変換し、
前記正距円筒図の画像データの画像において、画像認識法を用いて所定の注視画像を特定し、前記特定した注視画像の位置情報を算出し、前記注視画像の位置情報に対して前記画像データの表示開始時刻を付加して前記各表示装置に通知し、
前記注視画像の位置情報及び前記表示開始時刻に基づいて、前記注視画像を、前記複数の表示装置のうち正面表示装置として設定された表示装置において表示する。
第2の開示に係るマルチディスプレイシステムの制御方法は、
互いに接続された複数の表示装置を備え、パノラマ画像を表示するように制御する制御部を備えるマルチディスプレイシステムの制御方法であって、
前記制御方法は、前記制御部が、
注視画像を含むパノラマ画像データを、正距円筒図法を用いて正距円筒図の画像データに変換するステップと、
前記正距円筒図の画像データの画像において、画像認識法を用いて所定の注視画像を特定し、前記特定した注視画像の位置情報を算出し、前記注視画像の位置情報に対して前記画像データの表示開始時刻を付加して前記各表示装置に通知するステップと、
前記注視画像の位置情報及び前記表示開始時刻に基づいて、前記注視画像を、前記複数の表示装置のうち正面表示装置として設定された表示装置において表示するステップとを、
含む。
従って、本開示に係るマルチディスプレイシステム等によれば、パノラマ画像の中の所定の注視領域を常に正面の表示装置に投写させ続けることが可能となる。
実施形態1に係るマルチディスプレイシステム100の構成例を示すブロック図である。 図1の表示装置1の構成例を示すブロック図である。 図1の表示装置2,3の構成例を示すブロック図である。 図1のマルチディスプレイシステム100により実行される時刻同期処理を示すフローチャートである。 図1のマルチディスプレイシステム100においてユーザの顔の向きを判定するための顔パターンの第1の例を示す正面図である。 図5Aの顔パターンにおいてパターン認識すべき注目部分を示す正面である。 図1のマルチディスプレイシステム100においてユーザの顔の向きを判定するための顔パターンの第2の例を示す正面図である。 図6Aの顔パターンにおいてパターン認識すべき注目部分を示す正面である。 図1のマルチディスプレイシステム100においてユーザの顔の向きを判定するときの顔の向きの第1の例を示す図である。 図1のマルチディスプレイシステム100においてユーザの顔の向きを判定するときの顔の向きの第2の例を示す図である。 図1のマルチディスプレイシステム100においてユーザの顔の向きを判定するときの顔の向きの第3の例を示す図である。 図1のマルチディスプレイシステム100においてユーザの顔の向きを判定するときの顔の向きの第4の例を示す図である。 図1の表示装置1,2,3により実行される動画ダウンロード(DL)処理、及びサーバ装置9により実行される動画配信処理を示すフローチャートである。 図2のフレーム単位画像認識部112及び経緯度算出部113の具体的な学習フェーズ処理を示すブロック図である。 図2のフレーム単位画像認識部112及び経緯度算出部113の具体的な認識フェーズ処理を示すブロック図である。 図2の経緯度算出部113の具体的な算出処理を示す画像の正面図である。 図2及び図3の映像表示視点切替部115,209の具体的な処理を示す概略図である。 図2及び図3の映像表示視点切替部115,209の具体的な処理を行うための構成斜視図である。 図1の表示装置1,2,3によって実行されるシーケンス処理を示すフローチャートである。 実施形態2に係るマルチディスプレイシステム200の構成例を示すブロック図である。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者は、当業者が本開示を十分に理解するために添付図面及び以下の説明を提供するものであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(実施形態1)
以下、図1~図11を参照して、実施形態1に係るマルチディスプレイシステム100について以下に説明する。
図1は実施形態1に係るマルチディスプレイシステム100の構成例を示すブロック図である。
図1において、マルチディスプレイシステム100は、例えば3個である複数の表示装置1,2,3と、スクリーン1S,2S,3Sと、カメラ4と、マイクロホン5と、ルータ装置7と、サーバ装置9とを備えて構成される。表示装置1,2,3は、ローカルエリアネットワーク(LAN)6、ルータ装置7及び、インターネットなどのワイドエリアネットワーク(WAN)8を介してサーバ装置9に接続される。なお、WAN8はLAN6又は別のLANであってもよい。サーバ装置9は例えばコンピュータにより構成された、例えばHTTP(Hyper Text Transfer Protocol)を用いたWWWサーバ装置であり、表示装置1,2,3等からの配信要求信号に応答して、動画又は静止画の画像データを配信する。
表示装置1,2,3は例えばプロジェクタ(投写型表示装置)であって、それぞれ表示画像をスクリーン1S,2S,3Sに投写して表示することで、所定のパノラマ画像(動画又は静止画)を表示し、これにより、例えば複数のユーザ80に対してパノラマ画像を提供してその包囲空間を形成する。本実施形態では、表示装置1は例えばマスタ装置として設定され、表示装置2,3はスレーブ装置として設定される。
図2は図1の表示装置1の構成例を示すブロック図である。
図2において、表示装置1は、表示装置1の動作を制御するための制御部10と、表示装置1の動作に必要なデータ及びサーバ装置9からの画像データを格納する記憶部11と、サーバ装置9及び他の表示装置2,3とLAN6等を介して通信を行う通信部12と、動画像データ等を表示する表示部13と、ユーザ80の小型端末装置15と無線通信を行う無線通信部14とを備える。小型端末装置15は例えばスマートホン、タブレットなどの端末装置であって、パノラマ画像における検索対象物を入力して表示装置1に転送する。
制御部1には、カメラ4及びマイクロホン5が接続される。カメラ4はユーザ80を撮像して制御部10に出力し、マイクロホン5はユーザ80の発声音声(例えば、検索対象物に係る)を音声信号に変換して制御部10に出力する。
記憶部11は、例えばフラッシュメモリ、ハードディスク又はSSD(Solid State Drive)等の記録媒体である。通信部12は、例えばインターネットプロトコルを用いて、サーバ装置9及び表示装置2,3と通信を行う通信モジュール回路を含む。無線通信部14は、所定の通信規格(Wi-Fi等)を用いて無線通信を行う通信モジュール回路を含む。
制御部10は、
(1)所定のLANの設定を行うLAN設定部101と、
(2)検索要求信号を用いて、他のプロジェクタである表示装置2,3を検索するプロジェクタ検索部102と、
(3)パノラマ画像を表示するため、他の表示装置2,3との相対的な位置関係で、表示部13における画像表示の配置位置(例えば、図1の例では、パノラマ画像から切り出した所定の注視画像を正面スクリーン(1S,2S,3Sのうちの1つ)に設定した場合における、パノラマ画像での配置位置(パノラマ画像を例えば三分割した分割画像(正面、正面から±180度又は±270度)のうちのいずれを表示部13に表示するか)を設定する。)を設定する配置設定部103と、
(4)表示装置1,2,3間で行う時刻同期処理において、表示装置1をマスタ装置として設定する時刻同期マスタ設定部104と、
(5)表示装置1,2,3間で行う時刻同期処理を実行する時刻同期部105と、
(6)ユーザ80の顔向きを検出して、その検出結果に基づいて、注視画像を表示する画像表示装置に対応する正面スクリーンを判定する顔向き検出及びスクリーン正面判定部106と、
(7)ユーザ80が入力した検索対象物に応答してサーバ装置9に対して動画データを検索する動画検索部107と、
(8)自装置1及び他の表示装置2,3に対して所定の制御コマンド(例えばサーバ装置9に対して動画配信のためのアクセスの指示)を一斉配信する制御コマンド一斉配信部108と、
(9)一斉配信された制御コマンドを受信して、例えばサーバ装置9に対して動画配信のためのアクセスを行う制御コマンド受信アクセス部109と、
(10)サーバ装置9から動画データを受信する動画受信部110と、
(11)受信した動画データをフレーム毎にデコードする動画デコード部111と、
(12)デコードされた動画データを、フレーム単位で注視画像を画像認識するフレーム単位画像認識部112と、
(13)画像認識された注視画像の重心の経緯度を算出する経緯度算出部113と、
(14)タイムスタンプを生成するタイムスタンプ生成部114と、
(15)複数の表示装置1,2,3で同期して同時に画像を表示するように切り替える映像表示視点切替部115と、
を備える。
制御部10はCPUと所定のプログラムで構成される。CPUが所定のプログラムを実行することで、上述した制御部10の各処理部101~115の機能が実現される。なお、制御部10の各処理部101~115の機能をハードウェア回路のみで実現してもよい。すなわち、制御部10はCPU、MPU、DSP、FPGA、ASIC等で構成することができる。
図3は図1の表示装置2,3の構成例を示すブロック図である。ここで、各表示装置2,3は互いに同一の構成を有する。
図3において、表示装置2,3は、表示装置2,3の動作を制御するための制御部20と、表示装置2,3の動作に必要なデータ及びサーバ装置9からの画像データを格納する記憶部21と、サーバ装置9及び表示装置1とLAN6等を介して通信を行う通信部22と、動画像データ等を表示する表示部23とを備えて構成される。
記憶部21は、例えば、フラッシュメモリ、ハードディスク又はSSD(Solid State Drive)等の記録媒体である。通信部22は、例えばインターネットプロトコルを用いて、サーバ装置9及び表示装置1と通信を行う通信モジュール回路を含む。
制御部20は、
(1)所定のLANの設定を行うLAN設定部201と、
(2)表示装置1からの検索要求信号に応答して、自分の表示装置の存在を通知する検索通知信号を返信するプロジェクタ検索応答部202と、
(3)パノラマ画像を表示するため、他の表示装置1,2又は3との相対的な位置関係で、表示部23における画像表示の配置位置(例えば、図1の例では、注視画像を正面スクリーン(1S,2S,3Sのうちの1つ)に設定した場合における、パノラマ画像での配置位置(パノラマ画像を例えば三分割した分割画像(正面、正面から±180度又は±270度)のうちのいずれを表示部23に表示するか)を設定する。)配置設定部203と、
(4)表示装置1,2,3間で行う時刻同期処理において、表示装置2,3をスレーブ装置として設定する時刻同期スレーブ設定部204と、
(5)表示装置1,2,3間で行う時刻同期処理を実行する時刻同期部205と、
(6)一斉配信された制御コマンドを受信して、例えばサーバ装置9に対して動画配信のためのアクセスを行う制御コマンド受信アクセス部206と、
(7)サーバ装置9から動画データを受信する動画受信部207と、
(8)受信した動画データをフレーム毎にデコードする動画デコード部208と、
(9)複数の表示装置1,2,3で同期して同時に画像を表示するように切り替える映像表示視点切替部209と、
を備える。
制御部20はCPUと所定のプログラムで構成される。CPUが所定のプログラムを実行することで、上述した制御部20の各処理部201~209の機能が実現される。なお、制御部20の各処理部201~209の機能をハードウェア回路のみで実現してもよい。すなわち、制御部10はCPU、MPU、DSP、FPGA、ASIC等で構成することができる。
図4は図1のマルチディスプレイシステム100により実行される時刻同期処理を示すフローチャートである。以下、図4のフローチャートを参照して、時刻同期処理(図11のS65,S65A,S65B)の詳細を説明する。以下の処理は主として、マスタ装置である表示装置1の時刻同期部105及びスレーブ装置である表示装置2,3の時刻同期部205により実行される。時刻同期部105,205はIEEE1588のプロトコルに従って時刻同期処理を実行する。
図4において、表示装置1はまず現在時刻(t1)を取得する(S11)。一方、表示装置2,3は、自装置を、通信部22を介してIEEE1588のSyncパケットを受信可能な状態に設定する(S21)。
次いで、表示装置1は、通信部12を介して、時刻t1を示す時刻情報を含むSyncパケットを表示装置2,3に送信する(S12)。表示装置2,3は、Syncパケットを受信すると(S22)、現在時刻(t2)を取得する(S23)。その後、表示装置2,3は、自装置を、通信部22を介してIEEE1588のFollow Upパケットを受信可能な状態に設定する(S24)。
次いで、表示装置1は、通信部12を介して、時刻t1を示す時刻情報を含むFollowUpパケットを表示装置2,3に送信する(S13)。その後、表示装置1は、自装置を、通信部12を介してIEEE1588のDelay Requestパケットを受信可能な状態に設定する(S14)。
表示装置2,3は、通信部22を介してFollow Upパケットを受信すると(S24)、受信したFollow Upパケットから時刻情報(t1)を取得する(S25)。その後、表示装置2,3は、装置毎にそれぞれ異なるランダム時間(Tw)だけ待機する(S26)。このように、ランダム時間(Tw)をスレーブ端末毎に異なる時間に設定することで、遅延時間の計測のためのDelay Requestパケット(後述)やDelay Responseパケット(後述)の送信タイミングを表示装置毎に異ならせることができる。これにより、パケットの衝突や干渉を回避でき、遅延時間の計測値のばらつきを低減できる。
ランダム時間(Tw)経過後、表示装置2,3は、現在時刻(t3)を取得する(S27)。次に、表示装置2,3は、IEEE1588のDelay Requestパケットを送信する(S28)。その後、表示装置2,3は、自装置を、通信部22を介してIEEE1588のDelay Responseパケットを受信可能な状態に設定する(S29)。
表示装置1は、表示装置2,3からDelay Requestパケットを受信すると(S15)、現在時刻(t4)を取得する(S16)。表示装置1は、時刻t5を示す時刻情報を含むDelay Responseパケットを、通信部12を介して送信する(S17)。
表示装置2,3は、表示装置1から通信部22を介してDelay Responseパケットを受信すると(S30)、受信したDelay Responseパケットから時刻情報(t4)を取得する(S31)。各表示装置2,3は、取得した時刻情報に基づき、各表示装置2,3が管理する時刻と表示装置1が管理する時刻との時間差ΔTを算出する(S32)。ここで、時間差ΔTは次式で算出される。
ΔT={(t2-t1)+(t3-t4)}/2 (1)
そして、各表示装置2,3は、各装置2,3の現在時刻にそれぞれの時間差ΔTdを加算して現在時刻を修正する(S33)。これにより、マスタ装置である表示装置1と、スレーブ装置である表示装置2,3との間で時刻同期が実現される。
以上説明したように、本実施形態に係る時刻同期方法によれば、専用のLANアクセスやパケットの送受信の際の事前ネゴシエーションを行う必要なく、従来技術に比較して高い精度で時刻同期を行うことができる。
図5Aは図1のマルチディスプレイシステム100においてユーザの顔の向きを判定するための顔パターンの第1の例を示す正面図であり、図5Bは図5Aの顔パターンにおいてパターン認識すべき注目部分を示す正面図である。また、図6Aは図1のマルチディスプレイシステム100においてユーザの顔の向きを判定するための顔パターンの第2の例を示す正面図であり、図6Bは図6Aの顔パターンにおいてパターン認識すべき注目部分を示す正面である。さらに、図7A~図7Dは図1のマルチディスプレイシステム100においてユーザの顔の向きを判定するときの顔の向きの各一例を示す図である。以下、図5A~図7Dを参照して、図2の制御部10の顔向き検出及びスクリーン正面判定部106の処理について以下に説明する。
顔向き検出及びスクリーン正面判定部106は、図5A又は図6Aのユーザ80の顔画像を、カメラ4を用いて撮影し、当該撮影した顔画像のうち、図5B又は図6Bに示す例えば目、鼻、耳、口を例えばパターン認識法等の画像錦により目、鼻、耳、口の各位置を認識する。次いで、これらのうちの少なくとも複数の位置関係からユーザ80の顔の向きを判定する。
図7Aはユーザ80が顔の向きが前向きである場合の一例であり、図7Bはユーザ80が顔の向きが左向きである場合の一例であり、図7Cはユーザ80が顔の向きが右向きである場合の一例であり、図7Dはユーザ80が顔の向きが後向きである場合の一例である。複数のユーザ80の各個人の顔の向きを判定した後、そのうちの多数のユーザ80の顔の向きを判定して、当該顔の向きを正面スクリーン(1S,2S,3Sのうちの1つ)として判定する。
ユーザ80がマルチディスプレイシステム100において現在見ているパノラマ画像の中で検索したい動画(又は静止画)について、動画等を検索し、これを例えば注視画像として設定することについて以下に説明する。
ユーザ80は例えば以下のいずれかの方法を用いて、動画検索部107により動画検索を行う。
(1)ユーザ80は、小型端末装置15のディスプレイキーボード等を用いて、動画検索すべき検索対象物のキーワードの文字を入力し、音声入力し、もしくは表示画像中で位置指定する。当該データは小型端末装置15により認識された後、小型端末装置15から無線通信部14を介して動画検索部107に入力される。
(2)ユーザ80は、マイクロホン5に対して、動画検索すべき検索対象物のキーワードを発声して入力する。当該データは、音声認識された後、動画検索部107に入力される。
その後の処理は、図8を参照して説明する。
図8は図1の表示装置1,2,3により実行される動画ダウンロード(DL)処理、及びサーバ装置9により実行される動画配信処理を示すフローチャートである。ここで、動画ダウンロード(DL)処理は、表示装置1による動画ダウンロード(DL)処理(図11のS70)と、表示装置2による動画ダウンロード(DL)処理(図11のS70A)と、表示装置3による動画ダウンロード(DL)処理(図11のS70B)とを含む。
図8において、まず、ユーザ80は、小型端末装置15又はマイクロホン5を用いて、動画検索すべき検索対象物のキーワードを入力し(S41)、動画検索部107は、入力された検索対象物のキーワードを含むデータの検索指示を、図2の通信部12、LAN6、ルータ装置7及びWAN8を介してサーバ装置9に対して行う(S42)。これに応答して、サーバ装置9は、ダウンロード(DL)用URL(Uniform Resource Locator)情報を、WAN8、ルータ装置7、LAN6及び表示装置1の通信部12を介して、動画検索部107に対して通知する(S51)。なお、表示装置1の通信部12とサーバ装置9との間の通信経路は上記の通りであり、以下詳細説明を省略する。これに応答して、動画検索部107は、ダウンロード(DL)用URL情報を受信する(S43)。
次いで、制御コマンド受信アクセス部109は、ダウンロード(DL)用URL情報を自装置及び表示装置2,3の制御コマンド受信アクセス部206に対して、LAN6を介して一斉送信する(S44)。表示装置1の制御コマンド受信アクセス部109は、上記ダウンロード(DL)用URLを含む例えばHTTP(Hyper Text Transfer Protocol)の制御信号をサーバ装置9に対して送信してアクセスする(S45)。これに応答して、サーバ装置9は表示装置1に対して対応する動画データを配信し(S52)、表示装置1の動画受信部110がこれを受信することで完了する(S46)。
また、表示装置2,3の制御コマンド受信アクセス部206は、上記ダウンロード(DL)用URLを含む例えばHTTP(Hyper Text Transfer Protocol)の制御信号を、図3の通信部22、LAN6、ルータ装置7及びWAN8を介して、サーバ装置9に対して送信してアクセスする(S45A,S45B)。これに応答して、サーバ装置9は表示装置2,3に対して対応する動画データを、WAN8、ルータ装置7、LAN6及び表示装置2,3の通信部22を介して配信し(S52)、表示装置2,3の動画受信部207がこれを受信することで完了する(S46A,S46B)。なお、表示装置2,3の通信部22とサーバ装置9との間の通信経路は上記の通りであり、以下詳細説明を省略する。さらに、表示装置2,3の動画受信部207は、前記の動画データの受信完了通知を、LAN6を介して表示装置1の動画受信部110に対して通知する(S46C,S46D)。これにより、動画受信部110は、自装置及び表示装置2,3がすべて動画データの受信完了したことを確認し(S47)、当該ダウンロード処理が終了する。
次いで、図2のフレーム単位画像認識部112及び経緯度算出部113の具体的な処理について、図9A~図9Cを参照して以下に説明する。ここで、フレーム単位画像認識部112は、動画検索された動画データに対してデコードされた動画データを、フレーム単位で注視画像を画像認識し、経緯度算出部113は前記画像認識された画像データに基づいて、注視画像に係る経緯度情報を算出することを特徴とする。すなわち、フレーム単位画像認識部112及び経緯度算出部113は、例えば人工知能(AI)を用いた深層学習法を用いて、注視画像の経緯度を算出する。
図9Aは図2のフレーム単位画像認識部112及び経緯度算出部113の具体的な学習フェーズ処理を示すブロック図であり、図9Bは図2のフレーム単位画像認識部112及び経緯度算出部113の具体的な認識フェーズ処理を示すブロック図である。
図9Aにおいて、フレーム単位画像認識部112は、集合データメモリ31と、データ処理部32と、学習用データセットメモリ33と、機械学習部34と、学習済みモデルメモリ35とを備えて構成される。
図9Aの学習フェーズでは、動画検索に用いられる複数のデータを予め収集して集合データメモリ31に格納する。次いで、データ処理部32は、集合データメモリ31内の複数のデータに対して、例えば画像パターンを用いた画像認識法を用いて所定の注視画像を抽出した後、当該注視画像の重心位置の経緯度を算出することで、複数の注視画像とそれに対応する正解の重心位置の経緯度を含む学習用データセットを作成して学習用データセットメモリ33に格納する。次いで、機械学習部34は、学習用データセットメモリ33に格納された複数の学習用データセットを用いて、例えば注視画像を入力することでその重心位置の経緯度を出力可能な学習済みモデルを作成して学習済みモデルメモリ35に格納する。そして、当該学習済みモデルを用いて、認識及び経緯度算出処理を行う図9Bの学習済みモデル部40を作成する。
図9Bの認識フェーズでは、例えばパノラマ画像等の画像を学習済みモデル部40に入力することで、学習済みモデル部40は、所定の注視画像の重心位置の経緯度を含む画像を出力する。すなわち、学習済みモデル部40は、例えばパノラマ画像等の画像を入力するのみで、画像認識された注視画像の重心の経緯度を算出することができる。
図9Cは図2の経緯度算出部113の具体的な算出処理を示す画像の正面図である。また、図10Aは図2及び図3の映像表示視点切替部115,209の具体的な処理を示す概略図であり、図10Bは図2及び図3の映像表示視点切替部115,209の具体的な処理を行うための構成斜視図である。
図10Bにおいて、カメラ62から撮影される画像は、その視野71内で、近面73における表示域72n、近面73から視錐台75の遠近面距離75dだけ遠方の遠面74における表示域72f等が存在する。図10Aに示すように、カメラ62を球体60の中心61に載置して球体60の表面方向に所定の表面領域のみを撮影して、球体60の外側にある矩形の表示域72での画像を撮影した画像が、公知の正距円筒図法を用いて変換された表示画像である。
前記のフレーム単位画像認識部112及び経緯度算出部113では、図9Cの例えばA城の注視画像を含むパノラマ画像50は、図10A及び図10Bに示すように、前記正距円筒図法を用いて正距円筒図のパノラマ画像に変換される。次いで、当該パノラマ画像の中で、ユーザ80が検索したいA城の注視画像51を、画像パターン認識法を用いて画像認識し、かつその重心51Pの位置を算出することができる。
なお、図10A及び図10Bでは、映像表示視点切替部115,209の処理も図示しており、球体60の中心61に載置されたカメラ62の方向を変更することで、表示すべきパノラマ画像の視点を切り替えることができ、切り替え後の表示画像を生成することができる。
なお、以上の実施形態では、注視画像の重心位置を図9A及び図9Bの深層学習による機会学習法を用いた学習済みモデル部40により算出しているが、本開示はこれに限らず、注視画像の重心位置を所定の数式を用いて算出してもよい。
図11は図1の表示装置1,2,3によって実行されるシーケンス処理を示すフローチャートである。図11のシーケンス処理は、表示装置1の制御部10により実行されるシーケンス処理と、表示装置2,3の制御部20によって実行される各シーケンス処理とを含む。
図11において、まず、表示装置1のLAN設定部101はLAN6内でのIPアドレスの設定等の所定のLAN設定を行う(S61)。一方、各表示装置2,3のLAN設定部201はLAN6内でのIPアドレスの設定等の所定のLAN設定を行う(S61A,S61B)。次いで、制御部10は、マルチディスプレイシステム100内のプロジェクタ(PJ)の台数を確定するために、プロジェクタ検索信号を表示装置2,3の制御部20に対してLAN6を介して送信する(S62)。これに応答して、各表示装置2,3の制御部20は、自装置の存在を示すプロジェクタ(PJ)検索応答信号を、LAN6を介して表示装置1の制御部10に返信する。これに応答して、表示装置1の制御部10は、マルチディスプレイシステム100内でのプロジェクタの台数を確定する(S63)。
次いで、表示装置1の時刻同期マスタ設定部104は、自装置をマスタ装置として起動した後(S64)、図4の時刻同期処理を実行し(S65)、図5A~図7Dの顔向き検出処理及びスクリーン正面判定処理を実行し(S66)、表示装置1,2,3のうちどの表示装置が正面スクリーンを表示するものであるかを判定して通知する(S67)。一方、各表示装置2,3の時刻同期スレーブ設定部204は、自装置をスレーブ装置として起動した後(S64A,S64B)、図4の時刻同期処理を実行する(S65A,S65B)。
ここで、表示装置1の制御部10は、配置設定部103に対して表示装置1を、パノラマ画像を例えば三分割した画像のうち例えば「正面+270度」の位置範囲の分割画像を表示するように表示装置1の表示配置を設定するように指示し(S67)、これに応答して、配置設定部103が指示内容に基づいて表示装置1の表示配置を設定する(S68)。また、表示装置1の制御部10は、表示装置2の配置設定部203に対して表示装置2を、パノラマ画像を例えば三分割した画像のうち例えば「正面+180度」の位置範囲の分割画像を表示するように表示装置2の表示配置を設定するように指示し(S67)、これに応答して、配置設定部203が指示内容に基づいて表示装置2の表示配置を設定する(68A)。さらに、表示装置1の制御部10は、表示装置3の配置設定部203に対して表示装置3を、パノラマ画像を例えば三分割した画像のうち例えば「正面」の位置範囲の分割画像を表示するように表示装置3の表示配置を設定するように指示し(S67)、これに応答して、配置設定部203が指示内容に基づいて表示装置3の表示配置を設定する(S68B)。
次いで、表示装置1の動画検索部107は図8の動画検索処理を実行し(S69)、動画受信部110は図8の動画ダウンロード(DL)処理を実行して動画データを受信し(S70)、動画デコード部111はダウンロードされた動画データを1フレームずつデコードする(S71)。また、表示装置2の動画受信部208は図8の動画ダウンロード(DL)処理を実行して動画像データを受信し(S70A)、動画デコード部208はダウンロードされた動画データを1フレームずつデコードする(S71A)。
さらに、表示装置3の動画受信部208は図8の動画ダウンロード(DL)処理を実行して動画像データを受信し(S70B)、動画デコード部208はダウンロードされた動画データを1フレームずつデコードする(S71B)。
次いで、表示装置1のフレーム単位画像認識部112及び経緯度算出部113は、図9A~図9Cのフレーム単位画像認識及び経緯度算出処理を実行し(S72)、算出された経緯度情報に対して、動画データの再生開始時刻を示すタイムスタンプを付加して自装置及び表示装置2,3に対して通知する(S73)。
表示装置1の映像表示視点切替部115は、受信したタイムスタンプの指定時刻で動画データの再生を開始して図10A~図10Bの映像表示視点切替処理を実行する(S74)。そして、すべての動画データをダウンロードしたか否かが判断され(S75)、NOのときはステップS71に戻る一方、YESのときは当該シーケンス処理を終了する。また、表示装置2の映像表示視点切替部209は、受信したタイムスタンプの指定時刻で動画データの再生を開始して図10A~図10Bの映像表示視点切替処理を実行する(S74A)。そして、すべての動画データをダウンロードしたか否かが判断され(S75A)、NOのときはステップS71Aに戻る一方、YESのときは当該シーケンス処理を終了する。さらに、表示装置3の映像表示視点切替部209は、受信したタイムスタンプの指定時刻で動画データの再生を開始して図10A~図10Bの映像表示視点切替処理を実行する(S74B)。そして、すべての動画データをダウンロードしたか否かが判断され(S75B)、NOのときはステップS71Bに戻る一方、YESのときは当該シーケンス処理を終了する。
以上説明したように、本実施形態によれば、パノラマ画像の中の所定の注視領域を常に正面の表示装置に投写させ続けることが可能となる。
(実施形態2)
図12は実施形態2に係るマルチディスプレイシステム200の構成例を示すブロック図である。図12のマルチディスプレイシステム200は、図1のマルチディスプレイシステム1に比較して以下の点が異なる。
(1)プロジェクタである表示装置1及びスクリーン1Sに代えて、モニタ装置である表示装置1Aを備える。
(2)プロジェクタである表示装置2及びスクリーン2Sに代えて、モニタ装置である表示装置2Aを備える。
(3)プロジェクタである表示装置3及びスクリーン3Sに代えて、モニタ装置である表示装置3Aを備える。
ここで、各表示装置1A,2A,3Aの表示部は、例えば、液晶ディスプレイパネル、有機ELディスプレイパネル又はLEDパネルなどのモニタ装置で構成される。
以上のように構成された実施形態2に係るマルチディスプレイシステム200は、実施形態1に係るマルチディスプレイシステム100と同様の作用効果を有する。
(変形例)
以上の実施形態1及び2では、3個の表示装置1,2,3又は1A,2A,3Aについて説明しているが、本開示はこれに限らず、2個の以上の表示装置を備えるマルチディスプレイシステムを構成してもよい。なお、表示装置の個数に応じてパノラマ画像の分割個数が設定される。
以上の実施形態において、パノラマ画像における注視画像の重心の経緯度情報を算出しているが、本開示はこれに限らず、パノラマ画像における注視画像の所定の箇所(四角のうちの少なくとも1つなど)の位置情報であってもよい。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面及び詳細な説明を提供した。
従って、添付図面及び詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲又はその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
以上詳述したように、本開示によれば、本実施形態によれば、パノラマ画像の中の所定の注視領域を常に正面の表示装置に投写させ続けることに有用である。
1,2,3,1A,2A,3A 表示装置
1S.2S.3S スクリーン
4 カメラ
5 マイクロホン
6 ローカルエリアネットワーク(LAN)
7 ルータ装置
8 ワイドエリアネットワーク(WAN)
9 サーバ装置
10 制御部
11 記憶部
12 通信部
13 表示部
14 無線通信部
15 小型端末装置
20 制御部
21 記憶部
22 通信部
23 表示部
31 集合データメモリ
32 データ処理部
33 学習用データセットメモリ
34 機械学習部
35 学習済みモデルメモリ
40 学習済みモデル部
50 パノラマ画像
51 注視画像
51P 重心
60 球体
61 中心
62 カメラ
71 視野
72,72f,72n 表示域
73 近面
74 遠面
75 視錐台
75d 遠近面距離
80 ユーザ
101 LAN設定部
102 プロジェクタ検索部
103 配置設定部
104 時刻同期マスタ設定部
105 時刻同期部
106 顔向き検出及びスクリーン正面判定部
107 動画検索部
108 制御コマンド一斉配信部
109 制御コマンド受信アクセス部
100,200 マルチディスプレイシステム
110 動画受信部
111 動画デコード部
112 フレーム単位画像認識部
113 経緯度算出部
114 タイムスタンプ生成部
115 映像表示視点切替部
201 LAN設定部
202 プロジェクタ検索応答部
203 配置設定部
204 時刻同期スレーブ設定部
205 時刻同期部
206 制御コマンド受信アクセス部
207 動画受信部
208 動画デコード部
209 映像表示視点切替部

Claims (11)

  1. 互いに接続された複数の表示装置を備え、パノラマ画像を表示するように制御する制御部を備えるマルチディスプレイシステムであって、
    前記制御部は、
    注視画像を含むパノラマ画像データを、正距円筒図法を用いて正距円筒図の画像データに変換し、
    前記正距円筒図の画像データの画像において、画像認識法を用いて前記注視画像を特定し、前記特定した注視画像の位置情報を算出し、前記注視画像の位置情報に対して前記画像データの表示開始時刻を付加して前記各表示装置に通知し、
    前記注視画像の位置情報及び前記表示開始時刻に基づいて、前記注視画像、前記複数の表示装置のうち正面表示装置として設定された表示装置において表示されるように、前記パノラマ画像を、前記各表示装置を用いて表示させる、マルチディスプレイシステム。
  2. 前記パノラマ画像は、前記複数の表示装置全体で表示される、
    請求項1に記載のマルチディスプレイシステム。
  3. 前記注視画像の位置情報は、前記パノラマ画像の正距円筒図の画像データにおける経緯度情報である、
    請求項1に記載のマルチディスプレイシステム。
  4. 前記制御部は、複数のユーザの向きを検出し、前記複数のユーザのうちの多数のユーザが向いている表示装置を正面表示装置として設定して、前記表示開始時刻から時間同期して前記複数の表示装置全体で前記パノラマ画像を表示する、
    請求項1~3のうちのいずれか1つに記載のマルチディスプレイシステム。
  5. 前記表示装置はプロジェクタである、請求項1~のうちのいずれか1つに記載のマルチディスプレイシステム。
  6. 前記表示装置はモニタ装置である、請求項1~のうちのいずれか1つに記載のマルチディスプレイシステム。
  7. 互いに接続された複数の表示装置を備え、パノラマ画像を表示するように制御する制御部を備えるマルチディスプレイシステムの制御方法であって、
    前記制御方法は、前記制御部が、
    注視画像を含むパノラマ画像データを、正距円筒図法を用いて正距円筒図の画像データに変換するステップと、
    前記正距円筒図の画像データの画像において、画像認識法を用いて前記注視画像を特定し、前記特定した注視画像の位置情報を算出し、前記注視画像の位置情報に対して前記画像データの表示開始時刻を付加して前記各表示装置に通知するステップと、
    前記注視画像の位置情報及び前記表示開始時刻に基づいて、前記注視画像、前記複数の表示装置のうち正面表示装置として設定された表示装置において表示されるように、前記パノラマ画像を、前記各表示装置を用いて表示させるステップとを、
    含むマルチディスプレイシステムの制御方法。
  8. 前記パノラマ画像は、前記複数の表示装置全体で表示される、
    請求項7に記載のマルチディスプレイシステムの制御方法。
  9. 前記注視画像の位置情報は、前記パノラマ画像の正距円筒図の画像データにおける経緯度情報である、
    請求項7又は8に記載のマルチディスプレイシステムの制御方法。
  10. 前記制御部が、複数のユーザの向きを検出し、前記複数のユーザのうちの多数のユーザが向いている表示装置を正面表示装置として設定して、前記表示開始時刻から時間同期して前記複数の表示装置全体で前記パノラマ画像を表示するステップをさらに含む、
    請求項7~9のいずれか1つに記載のマルチディスプレイシステムの制御方法。
  11. 互いに接続された複数の表示装置を備え、パノラマ画像に含まれる注視画像の表示位置を制御する制御部を備えるマルチディスプレイシステムであって、
    前記制御部は、
    画像認識法を用いて前記パノラマ画像における前記注視画像を特定し、前記特定した注視画像の位置情報を算出し、前記注視画像の位置情報に対して前記パノラマ画像の前記複数の表示装置での表示開始時刻を付加して前記各表示装置に通知し、
    前記注視画像の位置情報及び前記表示開始時刻に基づいて、前記注視画像を、前記複数の表示装置のうち正面表示装置として設定された表示装置において表示する、マルチディスプレイシステム。
JP2020016372A 2020-02-03 2020-02-03 マルチディスプレイシステムとその制御方法 Active JP7429861B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020016372A JP7429861B2 (ja) 2020-02-03 2020-02-03 マルチディスプレイシステムとその制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020016372A JP7429861B2 (ja) 2020-02-03 2020-02-03 マルチディスプレイシステムとその制御方法

Publications (2)

Publication Number Publication Date
JP2021125745A JP2021125745A (ja) 2021-08-30
JP7429861B2 true JP7429861B2 (ja) 2024-02-09

Family

ID=77459681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020016372A Active JP7429861B2 (ja) 2020-02-03 2020-02-03 マルチディスプレイシステムとその制御方法

Country Status (1)

Country Link
JP (1) JP7429861B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7410523B1 (ja) 2022-08-19 2024-01-10 株式会社ブイキューブ 表示装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014016828A (ja) 2012-07-09 2014-01-30 Konami Digital Entertainment Co Ltd アプリケーション管理装置、アプリケーション管理システム、アプリケーション管理方法、およびアプリケーション管理プログラム
JP2018110384A (ja) 2016-12-28 2018-07-12 株式会社リコー 画像処理装置、撮影システム、画像処理方法、及びプログラム
US20190273863A1 (en) 2016-09-16 2019-09-05 Max-Planck-Gesellschaft Zur Forderung D. Wissenschaften E.V. Interactive Data Visualization Environment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014016828A (ja) 2012-07-09 2014-01-30 Konami Digital Entertainment Co Ltd アプリケーション管理装置、アプリケーション管理システム、アプリケーション管理方法、およびアプリケーション管理プログラム
US20190273863A1 (en) 2016-09-16 2019-09-05 Max-Planck-Gesellschaft Zur Forderung D. Wissenschaften E.V. Interactive Data Visualization Environment
JP2018110384A (ja) 2016-12-28 2018-07-12 株式会社リコー 画像処理装置、撮影システム、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
JP2021125745A (ja) 2021-08-30

Similar Documents

Publication Publication Date Title
US10712555B2 (en) Streaming virtual reality video
EP3959587B1 (en) Techniques to set focus in camera in a mixed-reality environment with hand gesture interaction
US8867886B2 (en) Surround video playback
WO2017086263A1 (ja) 情報処理装置および画像生成方法
US20130129304A1 (en) Variable 3-d surround video playback with virtual panning and smooth transition
JP2019533372A (ja) パノラマ画像の表示制御方法、装置及び記憶媒体
EP3891703A1 (en) Depth prediction from dual pixel images
TWI644235B (zh) Wearable instant interaction system
EP4152310A1 (en) Remote control system, remote operation device therefor, video processing device, and program
JP7429861B2 (ja) マルチディスプレイシステムとその制御方法
US11546556B2 (en) Redundant array of inexpensive cameras
US8862764B1 (en) Method and Apparatus for providing Media Information to Mobile Devices
US20230298260A1 (en) Image processing device, image processing method, and program
KR101914206B1 (ko) 360도 영상 기반의 클라우드 오디오 렌더링 서버
US20220164154A1 (en) Virtual playout screen for visual media using arrangement of mobile electronic devices
US10298885B1 (en) Redundant array of inexpensive cameras
JP2017201743A (ja) 画像管理システム、画像管理装置、プログラム及び情報端末
JP7253302B1 (ja) 情報処理システム、プログラム及び情報処理方法
KR20180013243A (ko) 스트리밍 컨텐츠 제공 방법, 스트리밍 컨텐츠 저장 방법 및 이를 위한 장치
CN116235499A (zh) 使用具有位置数据的清单来有效递送多相机交互式内容
CN116266382A (zh) 一种slam前端跟踪失败重定位方法及装置
KR20210044609A (ko) 가상 공간 제공 방법 및 이를 위한 컴퓨터 프로그램
JP2015070417A (ja) 通信システム、情報処理装置、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230929

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240116

R151 Written notification of patent or utility model registration

Ref document number: 7429861

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151