JP2020160226A - 画像処理システム、及び画像処理方法 - Google Patents

画像処理システム、及び画像処理方法 Download PDF

Info

Publication number
JP2020160226A
JP2020160226A JP2019058580A JP2019058580A JP2020160226A JP 2020160226 A JP2020160226 A JP 2020160226A JP 2019058580 A JP2019058580 A JP 2019058580A JP 2019058580 A JP2019058580 A JP 2019058580A JP 2020160226 A JP2020160226 A JP 2020160226A
Authority
JP
Japan
Prior art keywords
image
conversion
user
viewpoint
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019058580A
Other languages
English (en)
Other versions
JP7258620B2 (ja
Inventor
アディヤン ムジビヤ
Mujibiya Adiyan
アディヤン ムジビヤ
雄太 藤賀
Yuta Fujiga
雄太 藤賀
一輝 高田
Kazuteru Takada
一輝 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DIGITAL GARAGE Inc
Original Assignee
DIGITAL GARAGE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DIGITAL GARAGE Inc filed Critical DIGITAL GARAGE Inc
Priority to JP2019058580A priority Critical patent/JP7258620B2/ja
Publication of JP2020160226A publication Critical patent/JP2020160226A/ja
Application granted granted Critical
Publication of JP7258620B2 publication Critical patent/JP7258620B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】表示画像への没入感を阻害させることなくユーザの視点を誘導できる画像処理システムを提供する。【解決手段】表示画像を視るユーザの視点に関する視点情報を取得する視野情報取得部と、前記視点情報から特定される前記ユーザの視野に対応する視野領域、及び前記表示画像における所定のターゲットの位置に基づいて、前記表示画像の中から画像を変換する変換領域を抽出する変換領域抽出部と、前記視点情報に基づいて、前記変換領域の画像を変換するか否かを判定する変換判定部と、前記変換判定部により判定された判定結果に基づいて、前記変換領域における画像を、当該変換領域における画像を用いて画像処理した変換画像に変換する画像処理部を備える。【選択図】図5

Description

本発明は、画像処理システム、及び画像処理方法に関するもので、特に、表示画像を配信する際に用いる画像処理システム、及び画像処理方法に係わる。
ヘッドマウントディスプレイ(以下、HMDという)と称される三次元画像表示デバイスでは、ユーザの左右の眼夫々を対象として、画像を相互に独立して表示され、その独立した画像の各々を左右の眼で同時に視ることにより、ユーザは三次元の仮想空間画像を認識できる。また、HMDには、ユーザの頭部の動きや視点の動きを検出するセンサが設けられている。このようなHMDを利用して、スポーツや音楽イベントの画像を仮想空間画像で配信し、ユーザの視野に応じて画像を表示するようなサービスが注目されている。このようなHMDでは360度のパノラマ画像を表示することが可能である。ユーザは自身の頭部を動かしたり視点を動かしたりすることで、仮想空間画像内の様々な方向に自由に視線を向けることができ、仮想空間画像において鑑賞したい任意の領域を鑑賞することができる。このような仮想空間画像において、特にユーザに見せたい画像を見逃さないように、仮想空間画像内の特定のターゲットにユーザの視線を誘導する視線誘導を行う技術が知られている(例えば、特許文献1)。特許文献1では、矢印などの誘導オブジェクトを仮想空間に配置した画像を生成することで視線誘導を行う。
特開2017−59212号公報
しかしながら、HMDを装着して仮想空間画像に没入しているユーザに対して、矢印などを配置した画像を提示すると、ユーザの視界の邪魔となり、違和感を与えてしまう可能性があり、ユーザは表示画像である仮想空間画像への没入感が阻害されてしまう場合があった。
上述の課題を鑑み、本発明は、表示画像への没入感を阻害させることなくユーザの視点を誘導できる画像処理システム、及び画像処理方法を提供することを目的とする。
上述の課題を解決するために、本発明の一態様に係る画像処理システムは、表示画像を視るユーザの視点に関する視点情報を取得する視野情報取得部と、前記視点情報から特定される前記ユーザの視野に対応する視野領域、及び前記表示画像における所定のターゲットの位置に基づいて、前記表示画像の中から画像を変換する変換領域を抽出する変換領域抽出部と、前記視点情報に基づいて、前記変換領域の画像を変換するか否かを判定する変換判定部と、前記変換判定部により判定された判定結果に基づいて、前記変換領域の画像を、当該変換領域における画像を用いて画像処理した変換画像に変換する画像処理部を備える。
また、本発明の一態様に係る画像処理方法は、視野情報取得部が、表示画像を視るユーザの視点に関する視点情報を取得し、変換領域抽出部が、と前記視点情報から特定される前記ユーザの視野に対応する視野領域、及び前記表示画像に含まれる所定のターゲットの位置に基づいて、前記表示画像のうち画像を変換する変換領域を抽出し、変換判定部が、前記視点情報に基づいて、前記変換領域の画像を変換するか否かを判定し、画像処理部が、前記変換判定部により判定された判定結果に基づいて、前記変換領域における画像を、当該変換領域における画像を用いて画像処理した変換画像に変換する。
本発明によれば、矢印などのオブジェクトを配置することなく画像を変換させる処理を行うため、表示画像への没入感を阻害させることなくユーザの視点を誘導できる。
実施形態の画像処理システム1の概要を示す図である。 実施形態のコンテンツDBサーバ10またはコンテンツ制御サーバ11の概要を示すブロック図である。 実施形態のユーザ端末装置12の概要を示すブロック図である。 実施形態の三次元画像表示デバイス13の概要を示すブロック図である。 実施形態のコンテンツ制御サーバ11の機能構成を示すブロック図である。 実施形態における視野領域を説明する図である。 実施形態における視野領域を説明する図である。 実施形態における変換領域を説明する図である。 実施形態における視野領域を説明する図である。 実施形態における分割領域の例を示す図である。 実施形態における画像を変換する変換度合の時間変化の例を示す図である。 実施形態における画像を変換する処理の例を示す図である。 実施形態における画像処理システム1の動作を示すフローチャートである。
以下、本発明の実施形態(本実施形態)について図面を参照しながら説明する。 図1は、実施形態の画像処理システム1の概要を示す図である。図1に示すように、本発明の実施形態に係る画像処理システム1は、コンテンツDB(データベース)サーバ10と、コンテンツ制御サーバ11と、ユーザ端末装置12と、三次元画像表示デバイス13とを含む。コンテンツDBサーバ10、コンテンツ制御サーバ11、及びユーザ端末装置12は、ネットワーク15を介して接続されている。
コンテンツDBサーバ10は、表示画像の一つである仮想空間画像のコンテンツを配信するサーバである。コンテンツDBサーバ10には、仮想空間画像として360度全天球の三次元画像のデータ(三次元モデル)が記憶されている。コンテンツDBサーバ10は、ユーザ端末装置12からの要求に基づいて、仮想空間画像のデータをコンテンツ制御サーバ11を介してユーザ端末装置12に送信する。
コンテンツ制御サーバ11は、コンテンツDBサーバ10から配信される仮想空間画像のデータに対して、仮想空間画像におけるユーザに視認させたい特定の位置(以下、ターゲットという)にユーザの視点を誘導するために画像を変換する処理を行うサーバである。コンテンツ制御サーバ11は、人間の眼の習性を利用した画像を変換する処理を行うことで視点を誘導する。ここで、人間の眼の習性とは、人間の眼で一度に見ることができる領域の中で、他の領域の画像に比べて視覚的に特徴がありビジュアルが異なる領域の画像に注視する習性であり、例えば、はっきりした画像や目立つ画像に思わず注目してしまうような習性である。実施形態では、特定の位置にある画像をビジュアルが異なる画像に変換する手段として、画像にエフェクト処理(下記参照)を施す。
実施形態において、視点とは、眼で視ているポイントのことをいう。また、視線とは、眼の向きであり、眼で視ている視点の方向のことをいう。また、視野とは、眼で一度に視ることができる範囲のことをいう。なお、実施形態では、ユーザの視点を誘導したいターゲットの大きさは、固有の物などが表示されているポイントであってもよいし、ある範囲により特定されるエリアであってもよい。
コンテンツ制御サーバ11は、ターゲットにユーザの視点を誘導するために、変換領域の画像を、当該変換領域の画像を用いて画像処理した変換画像に変換する。ここで、変換領域は、表示画像の中で画像を変換する領域である。例えば、コンテンツ制御サーバ11は、変換領域を他の領域と比較して明るく変換する処理(フェードイン(fade in)ともいう)や、変換領域の画像を他の領域の画像と比較して暗く暗転させる処理(フェードアウト(fade out)ともいう)等のエフェクト処理を行うことにより、人間の眼の習性を利用して、ターゲットにユーザの視点を誘導する。また、エフェクト処理として、コンテンツ制御サーバ11は、変換領域の彩度を他の領域の彩度よりも落とす処理(デサテュレーション(desaturation)ともいう)、ぼかす処理(ブラー(blur)ともいう)等を行うことにより、ターゲットにユーザの視点を誘導する。或いは、コンテンツ制御サーバ11は、変換領域の画像を変形する処理(デフォーメーション(deformation)ともいう)を行うことによりユーザの視点を誘導するようにしてもよい。
また、コンテンツ制御サーバ11は、仮想空間画像を視認するユーザに表示画像への没入感を阻害させることなくターゲットにユーザの視点を誘導する。コンテンツ制御サーバ11は、例えば、ユーザがそれほど集中して表示画像を視ていないタイミングを捉えて画像を変換する。また、コンテンツ制御サーバ11は、画像を変換する場合には人間の眼に認識されない程度の速度で変換を行ったり、変換した後の画像を元に戻す変換を行ったりすることで没入感を阻害させることなくユーザの視点を誘導する。ここでいう人間の眼に認識されない程度の速度とは、画像が変換された瞬間を人間が意識できない人間の視覚系意識の認知閾値以下に該当する速度等のことをいう。
なお、この実施形態では、ネットワーク15上に1つのコンテンツDBサーバ10及びコンテンツ制御サーバ11のみ図示されているが、コンテンツDBサーバ10やコンテンツ制御サーバ11は1つである必要はなく、複数に分散した構成としても良い。また、コンテンツDBサーバ10とコンテンツ制御サーバ11とは、物理的に同一のサーバ上に構築してもよい。
ユーザ端末装置12は、ユーザ14が用いる端末である。ユーザ端末装置12としては、PC(Personal Computer)、タブレット端末、スマートフォン、ゲーム端末等が利用できる。また、ユーザ端末装置12として専用の端末を用意しても良い。ユーザ端末装置12には、三次元画像表示デバイス13が接続されている。また、ユーザ端末装置12には、仮想空間画像のデータから仮想空間画像を再生するためのアプリケーションプログラムがインストールされている。
三次元画像表示デバイス13は、ユーザ14の左右の眼夫々を対象として、表示画像を相互に独立して表示し、その独立した表示画像の各々を左右の眼で同時に視ることにより、ユーザに三次元の仮想空間画像を認識可能とする。三次元画像表示デバイス13としては、ユーザ14の頭部に装着するような所謂HMDが用いられる。三次元画像表示デバイス13には、図4に示すように、左右の眼それぞれを対象としたディスプレイ303や、ユーザの頭部の動きを検出する姿勢センサ309、ユーザ14の視点を検出する撮像部308等が設けられる。
なお、三次元画像表示デバイス13は、HMDに限定されるものではない。メガネ型の表示デバイスや、裸眼立体ディスプレイ等、他の方式の三次元表示デバイスを用いても良い。また、ユーザ端末装置12と三次元画像表示デバイス13との間は、ワイヤで接続しても良いし、又はBluetooth(登録商標)等によりワイヤレスで接続しても良い。また、ユーザ端末装置12と三次元画像表示デバイス13とを一体的に構成しても良い。また、実施形態では、1つのユーザ端末装置12及び三次元画像表示デバイス13のみが図示されているが、ユーザ端末装置12及び三次元画像表示デバイス13は、複数存在しても良い。
ネットワーク15は、例えばインターネットやイントラネットと称されるIP(Internet Protocol)ネットワークである。物理層及びデータリンク層の構成としては、LAN(Local Area Network)、無線LAN、CATV(Community Antenna TeleVision)通信網、仮想専用網(Virtual Private Network)、電話回線網、移動体通信網、衛星通信網等が想定される。
図2は、実施形態のコンテンツDBサーバ10及びコンテンツ制御サーバ11の概要を示すブロック図である。図2に示すように、コンテンツDBサーバ10及びコンテンツ制御サーバ11は、プロセッサ101と、メモリ102と、データベース103と、通信インターフェース104とを備えている。
プロセッサ101はCPU(Central Processing Unit)からなり、プログラムに基づいて、各種の処理を実行する。メモリ102は、ROM(Read Only Memory)、RAM(Random Access Memory)、ストレージデバイス等からなる。データベース103は、HDD(Hard Disk Drive)等の大容量のストレージデバイスから構成されている。通信インターフェース104は、ネットワーク15を介して、データを送受するためのインターフェースである。
図3は、実施形態のユーザ端末装置12の概要を示すブロック図である。図3に示すように、ユーザ端末装置12は、プロセッサ201と、メモリ202と、ストレージデバイス203と、通信インターフェース204と、入出力インターフェース205とを備えている。
プロセッサ201はCPUからなり、プログラムに基づいて、各種の処理を実行する。メモリ202は、ROM、RAM等からなり、プログラムに従って各種の処理を実行する。ストレージデバイス203は、HDD、フラッシュメモリドライブ、光ディスクドライブ等からなり、各種のプログラムやデータを保存する。通信インターフェース204は、ネットワーク15を介して、データを送受するためのインターフェースである。通信インターフェース204としては、有線LAN(Ethernet(登録商標))、無線LAN(IEEE802.11)等が用いられる。また、通信インターフェース204は、WCDMA(Wideband Code Division Multiple Access(登録商標))やLTE(Long Term Evolution)等の移動体通信網の規格のものであっても良い。入出力インターフェース205は、ユーザ端末装置12に各種の機器を接続するインターフェースである。入出力インターフェース205としては、例えばUSB(Universal Serial Bus)、IEEE1394、及びHDMI(High-Definition Multimedia Interface(登録商標))が用いられる。また、入出力インターフェース205としては、Bluetooth(登録商標)やIrDA(Infrared Data Association)のようなワイヤレスのインターフェースを用いても良い。入出力インターフェース205には、三次元画像表示デバイス13が接続される。
図4は、実施形態の三次元画像表示デバイス13の概要を示すブロック図である。図4に示すように、三次元画像表示デバイス13は、入出力インターフェース301と、画像処理部302と、ディスプレイ303(ディスプレイ303a及び303b)と、プロセッサ305と、メモリ306と、操作入力部307と、撮像部308(撮像部308a及び308b)と、姿勢センサ309とを備えている。
入出力インターフェース301は、ユーザ端末装置12と接続されるインターフェースである。入出力インターフェース301としては、例えばUSB、IEEE1394、及びHDMI等が用いられる。また、入出力インターフェース301としては、BluetoothやIrDAのようなワイヤレスのインターフェースを用いても良い。
画像処理部302は、プロセッサ305の制御の下に、入出力インターフェース301から入力された仮想空間画像のデータから、左眼を対象とした左眼用の表示画像の映像信号と右眼を対象とした右眼用の表示画像の映像信号とを生成する。また、画像処理部302は、左眼用の表示画像と右眼用の表示画像とのディスプレイ303への出力タイミングの同期を図る同期制御を行う。
ディスプレイ303は、画像処理部302からの左眼用の表示画像の映像信号及び右眼用の表示画像の映像信号に基づいて、それぞれ、左眼用の表示画像及び右眼用の表示画像を映し出す。そのため、ディスプレイ303は、ユーザの左眼用の表示画像を映し出すディスプレイ303aと、右眼用の表示画像を映し出すディスプレイ303bとで構成されている。ディスプレイ303としては、LCD(Liquid Crystal Display)や有機EL(Electro Luminescence)ディスプレイ等が用いられる。
プロセッサ305は、プログラムに基づいて、装置全体の制御を行っている。メモリ306は、プログラムに基づいて、各種の処理データの読み出し/書き込みを行う。操作入力部307は、各種のボタンからなり、各種の動作設定を行う。なお、操作入力部307としては、リモートコントローラを用いても良い。
撮像部308は、ユーザの視点、もしくは視点及び視線を検出するために、ユーザの左右の眼の画像である眼画像を撮像する。撮像部308は、ユーザの左の眼を撮像対象とした撮像部308aと、右の眼を撮像対象とした撮像部308bとで構成されている。実施形態は、非接触型の測定方法によるアイトラッキングを行い、ユーザの視点を検出できる視点検出用のカメラを用いている。ここでの非接触型の測定方法は、ユーザの眼に弱い赤外線を当てながら撮像部308でユーザの眼を撮像することにより視点を検出する方法である。なお、実施形態では、撮像部308が、非接触型の測定方法により、赤外線を用いた撮像を行うことにより視点を検出する場合を例示した。しかしながら、これに限定されるものではなく、撮像部308は、少なくともユーザの視点を検出することができればよく、撮像形態は問わない。また、撮像部308が、接触型など任意の測定方法を採用してもよいし、赤外線が用いられなくてもよい。
姿勢センサ309は、ユーザの姿勢を検出するために、ユーザの頭部の動きを検出する。姿勢センサ309として、例えば三軸ジャイロセンサ、三軸加速度センサ等が用いられる。なお、本実施形態では、三次元画像表示デバイス13としてHMDを適用しているため、ユーザの頭部の動きを検出している。しかしながら、これに限定されるものでなく、三次元画像表示デバイス13は、ユーザの眼の位置情報と傾き情報とを検出できるものであれば、デバイス形態は問わない。
撮像部308によって検出されたユーザの視点に関する視点情報と、姿勢センサ309によって検出されたユーザの頭部の動きに関する動作情報とに基づいて、プロセッサ305は、ユーザが視る方向(視線方向)を示す視線に関する視線情報を算出する。なお、プロセッサ305は、視点情報と動作情報とに基づいて視線情報を算出する他に、記録時間の異なる複数の視点情報を用いて、当該複数の視点情報に含まれる時間情報に基づいて視点が移動する方向である視線方向に関する視線情報を算出する。このように、視線情報は、前者のユーザ自身の動きに起因する、ユーザが視る方向を示す視線情報と、後者のユーザの眼の動きに起因する、ユーザの視点が移動する方向を示す視線情報とがある。実施形態においては、これらのいずれの視線情報が採用されてもよいし、これら2つの視線情報が共に採用されてもよい。二つの視線情報が採用されることにより、ユーザが視る方向とユーザの視点が移動する方向の両方の情報を用いることができるため、視線情報の精度を向上させることが可能となる。
図5は、実施形態のコンテンツ制御サーバ11の機能構成を示すブロック図である。図5に示すように、コンテンツ制御サーバ11において画像の処理を行うための機能は、画像データ取得部111と、視野情報取得部112と、変換領域抽出部113と、変換領域分割部114と、変換判定部115と、画像処理部116と、表示画像出力部117とを備えている。
画像データ取得部111は、コンテンツDBサーバ10から配信された仮想空間画像のデータを、コンテンツ制御サーバ11の通信インターフェース104を介して取得する。
視野情報取得部112は、三次元画像表示デバイス13から、視点情報と動作情報と視線情報とを、コンテンツ制御サーバ11の通信インターフェース104を介して取得する。なお、視点情報と視線情報によりユーザの視野に関する視野情報が構成される。
変換領域抽出部113は、視野情報から特定されるユーザの視野に対応する視野領域、及び仮想空間画像における所定のターゲットの各々の位置に基づいて、仮想空間画像の中から画像を変換する変換領域を抽出する。変換領域は、その変換領域や変換領域の周辺にあるターゲットにユーザの視点を誘導するための経路となる領域である。ターゲットは、例えば、仮想空間画像を配信する配信業者などにより予め指定される画像であって、仮想空間画像においてユーザに視せたい画像、或いはユーザに見逃してほしくない画像である。ターゲットは、例えば、平穏な風景のなかに突然恐竜が現れるなど、特別な展開がなされる場面の画像である。ターゲットは、このようなターゲットが表示される場合に、仮想空間画像においてターゲットが含まれるポイントやエリアである。以下では、変換領域抽出部113が行う処理について、図6、図7、図8および図9を用いて説明する。
図6、図7は、実施形態における視野領域Kを説明する図である。図6には、ユーザ14が仮想空間画像としての360度全天球Xの三次元画像を視認する例が模式的に示されている。図7には、図6の360度全天球Xの一部の画像Gに対応する視野領域Kと、中心視野領域Mと、視点Nと、ターゲットTGとの位置関係が模式的に示されている。
図6に示すように、ユーザ14が360度全天球Xのある方向に視線を向けている場合、三次元画像表示デバイス13にはその視線方向に対して正面となる視野領域Kの三次元画像が表示される。
図7に示すように、視野領域Kは、視線方向OPを中心として、所定の視野角AOFに対応する領域を360度全天球Xに投影させた領域である。ここで、視野角AOFは、人間が視認することが可能と考えられる範囲を、視線を基準とする角度で示したものである。一般に、視野角AOFは水平方向に200度程度、鉛直方向に125度程度であるが、水平方向では左右で、鉛直方向では上下で異なる角度となる場合もある。また、実際の視野角AOFは、個人差や年齢差により値が大きく異なる。
また、視野領域Kは、中心視野領域Mを含む。中心視野領域Mの中心には視点Nがある。中心視野領域Mは、視線方向OPを中心として、所定の視野角BOEに対応する領域を360度全天球Xに投影させた領域である。視野角BOFは、人間が正面で視認すると考えられる範囲を、視線を基準とする角度で示したものである。視点Nは、視線方向OPを360度全天球Xに投影させた点である。視野角CODは、視点Nに対応する視野角を示したものである。以下においては、視野領域Kのうち、中心視野領域Mを除いた領域を、周辺視野領域Jと称する。
視野領域Kは、人間が正面で視認すると考えられる中心視野領域Mと、その周辺とである周辺視野領域Jとで構成される。一般に、人間は中心視野領域Mにおいて空間分解能が高く、中心視野領域Mに存在する物体を高い解像度で詳細に観察する傾向がある。一方、人間は、周辺視野領域Jにおいて時間分解能が高く、周辺視野領域Jに動く物体がある場合にその動きをすぐに察知する傾向がある。このような、人間の眼の特性を利用して、変換領域抽出部113は、変換領域を抽出する。具体的には、変換領域抽出部113は、ターゲットTGが中心視野領域Mの外にある。すなわち中心視野領域MにターゲットTGが存在しない場合に、変換領域を抽出する。これにより、変換領域の画像を変換した場合に、人間の眼がその変化を捉え、変化した変換領域に視線を移動させることが期待でき、ユーザの視点を誘導することができる。
図8、図9は、実施形態における変換領域を説明する図である。図8には、ユーザ14が仮想空間画像としての360度全天球Xの三次元画像においてユーザ14が視る画像G(表示画像)と、ターゲットTGとの位置関係の例が模式的に示されている。図9には、視野領域Kと中心視野領域M及び視点Nが模式的に示されている。
図8に示すように、変換領域抽出部113は、ターゲットTGが中心視野領域Mの外にある場合に、変換領域を抽出する。一方、変換領域抽出部113は、中心視野領域MにターゲットTGがある場合には、ターゲットTGに表示された画像を既にユーザが視ていることから、視点を誘導する必要がないと判断できるため変換領域を抽出しない。
図9に示すように、変換領域抽出部113は、中心視野領域MとターゲットTGとの間の領域を変換領域とする。図8、図9に示す実施形態で、変換領域抽出部113は、視点NとターゲットTGとを接続した線NTGを基準として、視点Nを中心とする扇形のうち中心視野領域Mの外となる領域(点M1、M2、及び点Q10、Q20を接続させて形成される領域)を変換領域として抽出する。
なお、これらの場合における扇形の中心角度や半径は、ユーザ14の状況やターゲットTGの位置やターゲットTGの内容などに応じて任意に決定されてよい。
また、上記では、変換領域が、中心視野領域MとターゲットTGとの間の領域であって、尚且つ、上記の視点Nを中心とする扇形のうち中心視野領域Mの外の領域である場合を例示したが、これに限定されることはない。変換領域抽出部113は、中心視野領域MとターゲットTGとの間とは異なる領域を変換領域としてもよい。また、変換領域抽出部113は、中心視野領域MとターゲットTGとの間の領域とは異なる領域を変換領域としてもよい。この場合であっても、中心視野領域Mは、変換領域の領域外とする。
実施形態では、変換領域の画像を、当該変換領域の画像を基にして画像処理した変換画像に変換する。画像の変換に関して、人間の眼の習性を利用した画像の変換により、視野領域K内において他の領域の画像に比べて視覚的に特徴がありビジュアルが異なる領域の画像とすることができる。
ここで、変換領域分割部114について説明する。図10は、実施形態における分割領域の例を示す図である。変換領域分割部114は、変換領域に対するターゲットTGの相対位置に基づいて変換領域を複数の分割領域に分割する。
図10に示す実施形態では、変換領域分割部114は、変換領域(点M1、M2、及び点Q10、Q20を接続させて形成される領域)を、視点Nを中心とする半径の異なる円の外周により複数の領域に分割する。この場合、変換領域分割部114は、ターゲットTGに近い順に、第1の分割領域(点Q10、Q11、Q20及びQ21を接続させて形成される領域)、第2の分割領域(点Q11、Q12、Q21及びQ22を接続させて形成される領域)及び第3の分割領域(点Q12、M1、Q22及びM2を接続させて形成される領域)に変換領域を分割する。
ここで、変換判定部115について説明する。変換判定部115は、視点情報に基づいて、変換領域の画像を変換画像に変換するか否かを判定する。具体的には、変換判定部115は、視点情報に基づいて眼の視点Nの有無を検出し、検出結果に応じて変換領域の画像を変換画像に変換するか否かを判定する。もしくは、変換判定部115は、視点情報及び視線情報に基づいて、変換領域の画像を変換画像に変換するか否かを判定して、判定の精度を上げてもよい。
以下の実施形態の説明では、変換判定を分かりやすく説明するために、変換判定部115によるユーザの眼の視点Nの有無を検出する処理を、ユーザにおける瞬き(まばたき)の有無を検出する処理として説明する場合がある。
変換判定部115は、ユーザにおける瞬きの有無を検出し、瞬きの直後に変換領域の画像を変換すると判定する。具体的には、変換判定部115は、眼の視点Nの有無を検出する。ここでの眼の視点Nの有無に関して、変換判定部115は、ユーザにおける瞼の開閉によりユーザの眼の視点Nの有無を検出する。そして、変換判定部115は、瞼が閉じた後、所定時間以内に瞼が開いた場合、変換領域の画像を変換すると判定する。一般に、人間は瞬きをせずに表示画像を視ている場合よりも、瞬きをした後の方が視る集中の度合いが低いと考えられる。つまり、ユーザは瞬きの後に、中心視野領域Mを高い集中力で視ていない。このため、ユーザが瞬きをした後のタイミングで周辺視野領域Jにある変換領域の画像を変換すれば、ユーザに変化を感じさせ易くすることができ、ターゲットTGのある方向に視点を誘導させることができる。
また、変換判定部115は、変換領域の画像を変換する場合における変換領域の画像を変換画像に変換する変換度合を判定する。変換判定部115は、変換領域における変換度合を、例えば、徐々に変化させていくことにより、ユーザに急激な変化を感じさせずに視点を誘導することができる。或いは、変換判定部115は、変換領域における変換度合を強めた後に徐々に弱くさせて元に戻すことで、ユーザが仮想空間の体験に没入している場合であっても違和感を持たせることなく視点を誘導することが可能である。ここで、変換度合が強いとは、画像を変換する際の変換量が多いことをいう。また、変換度合が弱いとは、画像を変換する際の変換量が少ないことをいう。具体的には、画像の変換が、画像にぼかし(例えば、ブラー(blur))を与える変換である場合、ブラーの強度を示す標準偏差σの値により変換度合の強弱を調整する。ブラーとして、実施形態ではガウシアンブラーを用いている。ガウシアンブラーにおいては、標準偏差σの値が小さい程、ぼかし(平滑化)の効果は小さくなり、大きい程効果が大きくなる。また、画像をぼかすように変換する処理においては、例えば、ある領域の画像の画素を平滑化することにより、その領域の画像をぼかしたように変換する。なお、ぼかし処理として、ガウシアンブラー以外に、ボックスブラー、メディアンフィルタ等がある。
図11は、実施形態における画像を変換する変換度合の時間変化の例を示す図である。図11の横軸は時間、縦軸は画像を変換する変換度合を示している。また、図11の横軸の下には、ユーザの眼の時系列の変化を模式的に示している。図11においては、ユーザが眼を閉じたり開いたりを繰り返していることを示している。具体的には、ユーザは、時間T1〜T2の間に眼を閉じ、時間T2〜T3の間に眼を開けている。また、ユーザは、時間T3〜T4の間に眼を閉じ、時間T4〜T5の間に眼を開けている。以後、同様の眼の開閉を繰り返す。
図11に示すように、変換判定部115は、瞬きをした直後における画像の変換度合を強く(大きく)し、その後、瞬きをしてからの経過時間に応じて、画像の変換度合を徐々に弱め(小さくし)てもよい。具体的には、変換判定部115は、時間T2において変換度合をL2まで大きくして変換し、その後、時間T4に到達するまでの間に徐々に変換度合が0(ゼロ)となるまで小さくしてゆく。また、変換判定部115は、時間T4において変換度合をL2まで大きくして変換し、その後、時間T6に到達するまでの間に徐々に変換度合が0(ゼロ)となるまで小さくしてゆく。また、変換判定部115は、時間T2において変換度合をL2まで大きくして変換するというように変換度合を大きくさせた後に徐々に小さくする処理を繰り返す。
これにより、変換判定部115によれば、ユーザが瞬きをした直後に大きく変化させることにより視点を変換領域の方向に誘導させることができる。また、変換判定部115によれば、誘導の後に変換度合を徐々に小さくすることによりユーザが没入感を損なうほどに違和感を持たせることなく画像を元の状態に戻すことができる。
なお、変換判定部115は、ユーザが瞬きをしたか否かを判定するための条件を、ユーザの年齢や特徴などに応じて任意に決定してよい。具体的に、変換判定部115は、瞼を閉じてから再度開くまでの時間が所定時間以内である場合に瞬きと判定する場合、その所定時間をユーザ毎に任意に決定してよい。
また、図11に示す実施形態においては、変換判定部115は、ユーザの眼が瞬きする度に同じ強度の変換度合(図11に示す実施形態では変換度合L2)で画像の変換を行う場合を例示して説明したが、これに限定されることはない。変換判定部115は、例えば、時間T2において変換度合をL2まで大きくして変換し、その後、時間T4において変換度合をL1まで大きくして変換してもよい。また、変換判定部115は、時間T2において変換度合をL2まで大きくして変換した後、変換度合L1となるまで徐々に変換度合を小さくしてもよい。
また、図11に示す実施形態では、変換度合を比例減少させているが、これに限定されない。例えば、変換度合を、時間の経過に沿って、係数の正負問わずに指数関数的に減少もしくは二次曲線的に減少をさせてもよい。また、図11に示す実施形態では、瞼を開いて視点Nを検出した時間T2で変換度合をL2まで立ち上げて大きくし、その後、時間T2と時間T3との間で、変換度合を0まで減少させている。しかしながら、これに限定されるものではなく、時間T3の瞼を閉じて視点Nの検出ができない時に変換度合が0超の値であってもよい。この場合、変換判定部115は、視点Nが無いと検出したと同時に、変換度合を0に強制的にリセットしてもよい。
また、変換判定部115は、ユーザにおける眼球(視点N)の動きである眼球運動を検出し、眼球が所定の閾値以上の変化率で動いている場合に、変換領域の画像を変換すると判定するようにしてもよい。一般に、人間の眼は物体を視認する場合に、眼球をほとんど動かさずに視ている(fixation、フィクセーション)場合と、眼球を頻繁に動かして視ている(saccade、サッケード)場合とがある。眼球をほとんど動かさない場合には、人間は中心視野領域Mを固視していると考えられる。また、眼球を頻繁に動かしている場合には、視野領域Kを広く視ており、視野領域Kの大まかな構図や目立つ物体のみを認識して細かな目立たない物体をほとんど認識していないと考えられる。ここでいうサッケードは、眼球を連続的に動かす断続性運動のことをいう。
変換判定部115は、例えば、眼球運動がサッケードである場合に、変換領域における画像を変換すると判定する。変換判定部115は、ユーザが視野を広くして画像を視ているときに変換領域を変化させることで、ユーザにその変化を感じさせ易くすることができ、ターゲットのある方向に視点を誘導させることができる。なお、変換判定部115は、ユーザが眼球を頻繁に動かしている場合に画像を変換すると判定すると共に、図11に示す実施形態で述べた場合と同様にその時系列における変換度合を判定するようにしてよい。
また、変換判定部115は、変換領域分割部114により分割された複数の分割領域の画像の各々における画像を変換する変換度合を判定する。この際、複数の分割領域における変換度合の量を可変させてもよい。変換判定部115は、例えば、ターゲットに最も近い順に変換度合を大きくする。具体的に、変換判定部115は、第1の分割領域における変換度合を最も大きくし、第3の分割領域における変換度合を最も小さくし、第2の分割領域における変換度合を、第1の分割領域と第3の分割領域との間の値とする。つまり、中心視野領域MからターゲットTGへ向かって順に配される第1の分割領域、第2の分割領域、第3の分割領域において夫々の変換度合を段階的に小さくする。このように、変換判定部115は、複数の分割領域における画像の各々の変換度合を異なる度合とすることにより、ユーザの視点を徐々にターゲットの方向へ誘導させることが可能となる。
或いは、変換判定部115は、例えば、ターゲットに最も近い順に変換度合を小さくするようにしてもよい。具体的には、変換判定部115は、第1の分割領域における変換度合を最も小さく、第3の分割領域における変換度合を最も大きくするようにしてもよい。
ここで、画像処理部116について説明する。画像処理部116は、変換判定部115により判定された判定結果に基づいて、変換領域の画像を変換する。変換処理に関して、画像処理部116は、変換領域の画像を、当該変換領域の画像を基にして画像処理した変換画像に変換する。
図12は、実施形態における画像Gを変換する処理の例を示す図であり、図12(a)、図12(b)で構成される。図12(a)、図12(b)に示す実施形態では、同一の画像Gに対し互いに異なる箇所を「ぼかす」変換が用いられた例を示している。
図12(a)に示すように、画像Gの領域W2とは異なる領域に対してぼかす処理をおこなうと、領域W2に描画された物体がはっきりと視認されるが、その他の領域の画像はぼかしてしまっているために物体をはっきりと視認することができない。このような場合、人間の眼は、自然と物体がはっきりと視認できる領域W2に向けられる。この場合、人間の眼は、領域W1をほとんど認識しない。つまり、領域W2以外の領域をぼかすことで、領域W2に視点を誘導することができる。
図12(b)に示すように、画像Gの領域W1とは異なる領域に対してぼかす処理をおこなうと、領域W1に描画された物体がはっきりと視認されるが、その他の領域の画像はぼかしてしまっているために物体をはっきりと視認することができない。このような場合、人間の眼は、自然と物体がはっきりと視認できる領域W1に向けられる。この場合、人間の眼は、図12(a)で視認していた領域W2を今度はほとんど認識しない。つまり、図12(a)の状態から領域W1以外の領域をぼかすことで、領域W2から領域W1に視点を誘導することができる。
表示画像出力部117は、画像処理部116により変換領域の画像を変換して生成された仮想空間画像のデータ(変換画像のデータ)を三次元画像表示デバイス13の画像処理部302に出力する。
図13は、実施形態に係る画像処理システム1における動作を示すフローチャートである。画像処理システム1の動作の概要は以下の通りとなる。視野情報取得部112が、仮想空間画像を視るユーザの視点Nに関する視点情報を取得する。変換領域抽出部113が、視点情報から特定されるユーザの視野に対応する視野領域K、及び仮想空間画像に含まれる所定のターゲットTGの位置に基づいて、仮想空間画像のうち画像を変換する変換領域を抽出する。変換判定部115が、視点情報に基づいて、変換領域の画像を変換するか否かを判定する。画像処理部116が、変換判定部115により判定された判定結果に基づいて、変換領域における画像を基にして画像処理した変換画像に、当該変換領域の画像を変換する。
(ステップS101)ユーザが三次元画像表示デバイス13を装着する。三次元画像表示デバイス13は、姿勢センサ309によるユーザの頭部の動きに関する動作情報や、撮像部308の撮影画像に基づくユーザの視点Nに関する視点情報を取得する。また、三次元画像表示デバイス13のプロセッサ305は、ユーザの視点Nに関する視点情報とユーザの頭部の動きに関する動作情報とに基づいて、ユーザの視線方向に関する視線情報を算出する。なお、視線情報の算出に関して、プロセッサ305は、記録時間の異なる複数の視点情報を用いて、時系列に連続した視点Nの位置情報に基づいて視点Nの移動方向である視線方向に関する視線情報を算出してもよい。もしくは、プロセッサ305は、ユーザの視線方向に関する視線情報と視点Nの移動方向である視線方向に関する視線情報との2つの情報により視線情報を算出してもよい。三次元画像表示デバイス13は、ユーザ端末装置12を介して、コンテンツ制御サーバ11にユーザの視点情報、動作情報、および視線情報を送信する。
(ステップS102)コンテンツ制御サーバ11は、視点情報及び視線情報に基づいて、ユーザの視野領域Kを判定する。コンテンツ制御サーバ11は、ユーザの視野領域Kに対応する仮想空間画像の情報を取得できるよう、コンテンツDBサーバ10に指令を送る。
(ステップS103)コンテンツDBサーバ10は、コンテンツ制御サーバ11から送られてきた指令に基づいて、データベース103を参照し、ユーザの視野領域Kに対応する仮想空間画像をプロセッサ101により算出する。コンテンツDBサーバ10により算出した仮想空間画像がコンテンツ制御サーバ11に送られることで、コンテンツ制御サーバ11は、ユーザの視野領域Kに対応する仮想空間画像を取得する。
(ステップS104)三次元画像表示デバイス13は、撮像部308の撮影画像から、三次元画像表示デバイス13を装着しているユーザの眼球の動きである眼球運動に関する眼球運動情報を取得する。三次元画像表示デバイス13は、ユーザ端末装置12を介して、コンテンツ制御サーバ11にユーザの眼球運動を示す眼球運動情報を送信する。ステップS104は、ステップS101と別々に行ってもよく、同時に行ってもよい。
(ステップS105)コンテンツ制御サーバ11は、ステップS103で取得したユーザの視野領域Kに対応する仮想空間画像のデータと、ステップS101で取得したユーザの視点情報とに基づいて、ユーザの中心視野領域Mの中にターゲットTGが存在するか否かを判定する。ユーザの中心視野領域Mの中にターゲットTGが存在する場合(ステップS105:YES)、処理をステップS108に進め、ユーザのターゲットTGの中にターゲットTGが存在しない場合(ステップS105:NO)、処理をステップS106に進める。処理をステップS106に進める場合、コンテンツ制御サーバ11は、ユーザの視野領域Kの視野情報に関して画像を変換するための処理(画像処理)の情報を取得できるよう、コンテンツDBサーバ10に指令を送る。
(ステップS106)コンテンツDBサーバ10は、コンテンツ制御サーバ11から送られてきた指令に基づいて、データベース103を参照し、画像処理の情報を、コンテンツ制御サーバ11に送る。コンテンツDBサーバ10により画像処理の情報がコンテンツ制御サーバ11に送られることで、コンテンツ制御サーバ11は、ユーザの視野領域Kの視野情報に関して画像を変換するための画像処理の情報を取得する。
(ステップS107)コンテンツ制御サーバ11は、ステップS106で取得した画像処理の情報と、ステップS104で取得したユーザの眼球運動に関する眼球運動情報とに基づいて、画像処理を実施する範囲(変換領域)と強度を決定する。コンテンツ制御サーバ11は、例えば、視点Nの位置とターゲットTGの位置との間の領域に画像処理を実施する。また、コンテンツ制御サーバ11は、例えば、ユーザが瞬きをした直後や眼球運動がサッケードである間に、変換領域の画像に関して変換度合を大きくし、その後、徐々に変換度合を小さくするように画像処理の設定を行う。ここでの画像処理は、ユーザの視点Nを誘導するための変換を行う画像処理(エフェクト処理)であり、例えば、画像のぼかしや変形に相当する画像処理である。
(ステップS108)コンテンツ制御サーバ11は、変換領域の画像処理を実施した仮想空間画像のデータ(変換画像のデータ)を用いて、三次元画像表示デバイス13に表示させる表示画像を生成する。コンテンツ制御サーバ11は、生成した表示画像のデータを、ユーザ端末装置12を介して、三次元画像表示デバイス13に送信する。
(ステップS109)三次元画像表示デバイス13は、ユーザ端末装置12を介して取得した表示画像のデータに基づいて、ユーザの左眼用の表示画像をディスプレイ303aに表示し、右眼用の表示画像をディスプレイ303bに表示する。ユーザは、ディスプレイ303aとディスプレイ303bとに独立して表示された表示画像を左右の眼で同時に視ることで、三次元の仮想空間画像を認識する。以上の本動作により、ユーザは、三次元の仮想空間画像を視ながら、ユーザの視点NはターゲットTGに誘導される。
以上説明したように、実施形態の画像処理システム1は、表示画像を視るユーザの視点Nに関する視点情報を取得する視野情報取得部112と、視点情報から特定されるユーザの視野に対応する視野領域K、及び仮想空間画像における所定のターゲットTGの位置に基づいて、仮想空間画像の中から画像を変換する変換領域を抽出する変換領域抽出部113と、視点情報に基づいて、変換領域の画像を変換するか否かを判定する変換判定部115と、変換判定部115により判定された判定結果に基づいて、前記変換領域における画像を、当該変換領域における画像を用いて画像処理した変換画像に変換する画像処理部116を備える。これにより、実施形態の画像処理システム1は、ユーザが画像の特定の部分を凝視しているか、画像全体を広く見ているかを判定して、画像全体を見ている場合など画像の変換に気づきやすいタイミングで、画像を変換させることができるため、ユーザの視点Nを誘導させることが可能となる。また、画像をぼかすような変換を行うことで、画像に矢印などの図形を追加させたりする目立ちすぎる変更を行う場合に比べてより仮想空間画像への没入感を阻害させることなくユーザの視点Nを誘導できる。
また、実施形態の画像処理システム1では、視野情報取得部112は、ユーザが視る方向を示す視線に関する視線情報を取得し、変換判定部115は、視点情報及び視線情報を用いて変換領域の画像を変換するか否を判定する。これにより、実施形態の画像処理システム1は、視点Nの有無に加えて、ユーザが視る方向やユーザの視点が移動する方向を用いて変換領域の画像を変換するか否を判定することができるため、より精度よく視野領域Kを特定することが可能である。
また、実施形態の画像処理システム1では、変換判定部115は、ユーザの視点Nの有無を検出し、視点Nが無い状態から有る状態に検出結果が変化した場合、変換領域の画像を変換すると判定する。これにより、実施形態の画像処理システム1は、ユーザが表示画像を視ている状態である場合に変換領域の画像を変換することができ、ユーザに変換後の画像をより確実に見せることで、ユーザの視点Nをより確実に誘導させることが可能となる。
また、実施形態の画像処理システム1では、変換判定部115は、変換領域の画像を変換する場合における変換領域の画像を変換する変換度合を判定し、視点Nが有ると検出した後の経過時間に応じて、変換領域の画像を変換する変換度合を変化させると判定する。これにより、実施形態の画像処理システム1は、ユーザが表示画像を視る時間の長さにより変換度合を強めたり弱めたりすることができ、例えば、ユーザが表示画像を視た直後に変換度合を大きくすることで変換領域の方向に視点Nを誘導し、その後に変換度合を徐々に小さくすることにより、ユーザに違和感を持たせることなく表示画像を元の状態に戻すことができる。
また、実施形態の画像処理システム1では、変換判定部115は、ユーザにおける眼球の動きである眼球運動を検出し、眼球が所定の閾値以上の変化率で動いている場合に、変換領域の画像を変換すると判定する。これにより、実施形態の画像処理システム1は、眼球を頻繁に動かして視野領域Kを広く視ており、目立つ物体のみを認識して細かな目立たない物体をほとんど認識していない場合に、変換領域の画像を変換することができ、ユーザに違和感を持たせることなく変換領域の方向に視点Nを誘導することができる。
また、実施形態の画像処理システム1では、変換領域抽出部113は、ターゲットTGが視野領域Kにおける中心視野領域Mの外にある場合に、変換領域を抽出する。これにより、実施形態の画像処理システム1は、ターゲットTGが中心視野領域Mの外にある場合に変換領域の画像を変換し、ターゲットTGが中心視野領域Mには変換しないようにすることができ、ユーザが既にターゲットTGを視ており視点Nを誘導する必要がないと判断できる場合に変換をしないことで、無駄な処理を抑制することができる。
また、実施形態の画像処理システム1は、ターゲットTGとの相対位置に基づいて、変換領域を複数の分割領域に分割する変換領域分割部114を更に備え、変換判定部115は、複数の分割領域の画像の各々における画像を変換する変換度合を判定し、複数の分割領域における前記変換度合の量を互いに変化させる。これにより、実施形態の画像処理システム1は、例えば、複数の分割領域の画像のうち、ターゲットTGに近い順に徐々に変換度合を大きくしたり小さくしたりすることができ、ユーザに違和感を持たせることなく視点Nを徐々にターゲットTGの方向へ誘導させることが可能となる。
なお、上述した実施形態では、変換領域の抽出や、画像変換の処理をコンテンツ制御サーバ11が行う場合を例示して説明したが、これに限定されることはない。コンテンツ制御サーバ11が行う処理の全部又は一部を、ユーザ端末装置12や三次元画像表示デバイス13が行うようにしてもよい。
また、上述した実施形態では、ユーザ端末装置12及び三次元画像表示デバイス13を用いて、仮想空間画像をユーザが視るものとしているが、これに限定されるものではない。例えば、三次元画像表示デバイス13を用いずに、ユーザ端末装置12のみを用いてもよい。ユーザ端末装置12のみを用いた場合、ユーザ端末装置12が撮像部308とディスプレイ303とを備えた第2実施形態に係る画像処理システム1となる。第2実施形態では、実施形態1と同様に撮像部308aと撮像部308b、ディスプレイ303aとディスプレイ303bをユーザ端末装置12に備えてもよく、もしくは1つの撮像部と1つのディスプレイを備えてもよい。また、第2実施形態では、ユーザは、ユーザ端末装置12のディスプレイ303に表示する表示画像を視る。視点情報は、ユーザ端末装置12の撮像部308の撮像手段により取得する。第2実施形態に係る画像処理システム1における動作は、実施形態と第2実施形態との構成の差異による動作の変更以外は、実施形態に係る画像処理システム1における動作とほぼ同様であり、ここでの説明は省略する。
また、ユーザが視る表示対象について、本実施形態では、ユーザは三次元画像表示デバイス13が表示する仮想空間画像としているが、これに限定されるものではない。例えば、三次元表示に限定されるものではなく、二次元表示を対象とした仮想画像や、拡張現実画像等を表示対象としてもよい。例えば、三次元画像表示デバイス13を用いずにユーザ端末装置12のみを用いた第2実施形態の場合、表示画面は、ユーザ端末装置12のディスプレイ303に表示された仮想空間画像、仮想画像、拡張現実画像等の任意の表示画像であってもよい。
上述した実施形態における画像処理システム1の全部または一部をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、FPGA等のプログラマブルロジックデバイスを用いて実現されるものであってもよい。
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。
1:画像処理システム、10:コンテンツDBサーバ、11:コンテンツ制御サーバ、12:ユーザ端末装置、13:三次元画像表示デバイス、112:視野情報取得部、113:変換領域抽出部、114:変換領域分割部、115:変換判定部

Claims (8)

  1. 表示画像を視るユーザの視点に関する視点情報を取得する視野情報取得部と、
    前記視点情報から特定される前記ユーザの視野に対応する視野領域、及び前記表示画像における所定のターゲットの位置に基づいて、前記表示画像の中から画像を変換する変換領域を抽出する変換領域抽出部と、
    前記視点情報に基づいて、前記変換領域の画像を変換するか否かを判定する変換判定部と、
    前記変換判定部により判定された判定結果に基づいて、前記変換領域における画像を、当該変換領域における画像を用いて画像処理した変換画像に変換する画像処理部と、
    を備える画像処理システム。
  2. 前記視野情報取得部は、前記ユーザが視る方向を示す視線に関する視線情報を取得し、
    前記変換判定部は、前記視点情報及び前記視線情報を用いて前記変換領域の画像を変換するか否を判定する、
    請求項1に記載の画像処理システム。
  3. 前記変換判定部は、前記ユーザの視点の有無を検出し、視点が無い状態から有る状態に検出結果が変化した場合、前記変換領域の画像を変換すると判定する、
    請求項1又は請求項2に記載の画像処理システム。
  4. 前記変換判定部は、前記変換領域の画像を変換する場合における前記変換領域の画像を変換する変換度合を判定し、前記視点が有ると検出した後の経過時間に応じて、前記変換領域の画像を変換する変換度合を変化させると判定する、
    請求項3に記載の画像処理システム。
  5. 前記変換判定部は、前記ユーザにおける眼球の動きである眼球運動を検出し、前記眼球が所定の閾値以上の変化率で動いている場合に、前記変換領域の画像を変換すると判定する、
    請求項1から請求項4のいずれか一項に記載の画像処理システム。
  6. 前記変換領域抽出部は、前記ターゲットが前記視野領域における中心視野領域の外にある場合に、前記変換領域を抽出する、
    請求項1から請求項5のいずれか一項に記載の画像処理システム。
  7. 前記ターゲットとの相対位置に基づいて、前記変換領域を複数の分割領域に分割する変換領域分割部を更に備え、
    前記変換判定部は、前記複数の分割領域の画像の各々における画像を変換する変換度合を判定し、前記複数の分割領域における前記変換度合の量を互いに変化させる、
    請求項1から請求項6のいずれか一項に記載の画像処理システム。
  8. 視野情報取得部が、表示画像を視るユーザの視点に関する視点情報を取得し、
    変換領域抽出部が、と前記視点情報から特定される前記ユーザの視野に対応する視野領域、及び前記表示画像に含まれる所定のターゲットの位置に基づいて、前記表示画像のうち画像を変換する変換領域を抽出し、
    変換判定部が、前記視点情報に基づいて、前記変換領域の画像を変換するか否かを判定し、
    画像処理部が、前記変換判定部により判定された判定結果に基づいて、前記変換領域における画像を、当該変換領域における画像を用いて画像処理した変換画像に変換する、
    画像処理方法。
JP2019058580A 2019-03-26 2019-03-26 画像処理システム、及び画像処理方法 Active JP7258620B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019058580A JP7258620B2 (ja) 2019-03-26 2019-03-26 画像処理システム、及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019058580A JP7258620B2 (ja) 2019-03-26 2019-03-26 画像処理システム、及び画像処理方法

Publications (2)

Publication Number Publication Date
JP2020160226A true JP2020160226A (ja) 2020-10-01
JP7258620B2 JP7258620B2 (ja) 2023-04-17

Family

ID=72643136

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019058580A Active JP7258620B2 (ja) 2019-03-26 2019-03-26 画像処理システム、及び画像処理方法

Country Status (1)

Country Link
JP (1) JP7258620B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023238703A1 (ja) * 2022-06-07 2023-12-14 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013179426A1 (ja) * 2012-05-30 2013-12-05 パイオニア株式会社 表示装置、ヘッドマウントディスプレイ、表示方法及び表示プログラム、並びに記録媒体
JP2015230632A (ja) * 2014-06-06 2015-12-21 大日本印刷株式会社 表示端末装置、プログラム及び表示方法
JP2017058853A (ja) * 2015-09-15 2017-03-23 株式会社コーエーテクモゲームス 情報処理装置、動作制御方法、及び動作制御プログラム
WO2017221509A1 (ja) * 2016-06-20 2017-12-28 シャープ株式会社 画像処理装置、表示装置、画像処理装置の制御方法、および制御プログラム
JP2018049593A (ja) * 2016-07-19 2018-03-29 スティヒティング・イメック・ネーデルラントStichting IMEC Nederland 視線追跡のための方法およびシステム
WO2018198503A1 (ja) * 2017-04-26 2018-11-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US20180335835A1 (en) * 2017-05-18 2018-11-22 Spy Eye, Llc Gaze Calibration Via Motion Detection for Eye-mounted Displays

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013179426A1 (ja) * 2012-05-30 2013-12-05 パイオニア株式会社 表示装置、ヘッドマウントディスプレイ、表示方法及び表示プログラム、並びに記録媒体
JP2015230632A (ja) * 2014-06-06 2015-12-21 大日本印刷株式会社 表示端末装置、プログラム及び表示方法
JP2017058853A (ja) * 2015-09-15 2017-03-23 株式会社コーエーテクモゲームス 情報処理装置、動作制御方法、及び動作制御プログラム
WO2017221509A1 (ja) * 2016-06-20 2017-12-28 シャープ株式会社 画像処理装置、表示装置、画像処理装置の制御方法、および制御プログラム
JP2018049593A (ja) * 2016-07-19 2018-03-29 スティヒティング・イメック・ネーデルラントStichting IMEC Nederland 視線追跡のための方法およびシステム
WO2018198503A1 (ja) * 2017-04-26 2018-11-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US20180335835A1 (en) * 2017-05-18 2018-11-22 Spy Eye, Llc Gaze Calibration Via Motion Detection for Eye-mounted Displays

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023238703A1 (ja) * 2022-06-07 2023-12-14 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム

Also Published As

Publication number Publication date
JP7258620B2 (ja) 2023-04-17

Similar Documents

Publication Publication Date Title
US11061240B2 (en) Head-mountable apparatus and methods
US20230141039A1 (en) Immersive displays
EP3117290B1 (en) Interactive information display
JP6097377B1 (ja) 画像表示方法及びプログラム
US9875079B1 (en) Information processing method and system for executing the information processing method
JP7355006B2 (ja) 情報処理装置、情報処理方法、および記録媒体
US11500459B2 (en) Data processing apparatus and method
EP3923122A1 (en) Gaze tracking apparatus and systems
WO2019142560A1 (ja) 視線を誘導する情報処理装置
US11743447B2 (en) Gaze tracking apparatus and systems
US11507184B2 (en) Gaze tracking apparatus and systems
US11925412B2 (en) Gaze tracking apparatus and systems
JP7258620B2 (ja) 画像処理システム、及び画像処理方法
JP2023095862A (ja) プログラム及び情報処理方法
US11747897B2 (en) Data processing apparatus and method of using gaze data to generate images
JP6999538B2 (ja) 情報処理方法、情報処理プログラム、情報処理システム、および情報処理装置
GB2597917A (en) Gaze tracking method and apparatus
WO2019111027A1 (en) Method for creating virtual or augmented reality and system for creating virtual or augmented reality
WO2018083757A1 (ja) 画像提供装置、画像提供方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
JP2017097918A (ja) 画像表示方法及びプログラム
EP3961572A1 (en) Image rendering system and method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230405

R150 Certificate of patent or registration of utility model

Ref document number: 7258620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150