JP2023004849A - 画像処理装置、画像処理方法、プログラム - Google Patents
画像処理装置、画像処理方法、プログラム Download PDFInfo
- Publication number
- JP2023004849A JP2023004849A JP2022032920A JP2022032920A JP2023004849A JP 2023004849 A JP2023004849 A JP 2023004849A JP 2022032920 A JP2022032920 A JP 2022032920A JP 2022032920 A JP2022032920 A JP 2022032920A JP 2023004849 A JP2023004849 A JP 2023004849A
- Authority
- JP
- Japan
- Prior art keywords
- display mode
- image
- information
- user
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザの要求に対応した画像を提供する。【解決手段】画像処理装置は、第1オブジェクトの情報を取得するオブジェクト情報取得部と、画像データから、前記第1オブジェクトと、前記第1オブジェクトに関連する第2オブジェクトとを検出するオブジェクト検出部と、前記第1オブジェクトが検出された場合には、前記第2オブジェクトの表示態様を変更する表示態様変更部と、を備える。【選択図】図3
Description
本発明は画像処理装置、画像処理方法、プログラムに関する。
従来、ユーザが視認する映像データについて、フレームごとに出力される画像データに基づいて、映像データがどのようなシーンであるかを示す情報を付与するものが開示されている(例えば、特許文献1)。
しかし、特許文献1のように画像データを処理する際には、ユーザの要求に対応した画像を提供することが求められている。
本発明は、上記に鑑みてなされたものであり、ユーザの要求に対応した画像を提供することが可能な画像処理装置、画像処理方法、プログラムを提供することを目的とする。
本発明にかかる画像処理装置は、第1オブジェクトの情報を取得するオブジェクト情報取得部と、画像データから、前記第1オブジェクトと、前記第1オブジェクトに関連する第2オブジェクトとを検出するオブジェクト検出部と、前記第1オブジェクトが検出された場合には、前記第2オブジェクトの表示態様を変更する表示態様変更部と、を備える。
本発明にかかる画像処理装置は、特定地域の情報と、第1オブジェクトの情報を取得するオブジェクト情報取得部と、ユーザの位置情報から、前記ユーザの位置が前記特定地域内であるか判断する位置情報処理部と、画像データから、前記特定地域に関連する前記第1オブジェクトと、前記第1オブジェクトに関連する第2オブジェクトとを検出するオブジェクト検出部と、前記ユーザの位置が前記特定地域内と判断され、かつ前記特定地域に関連する前記第1オブジェクトが検出された場合には、前記第2オブジェクトの表示態様を変更する表示態様変更部と、を備える。
本発明にかかる画像処理方法は、第1オブジェクトの情報を取得するステップと、画像データから、前記第1オブジェクトと、前記第1オブジェクトに関連する第2オブジェクトとを検出するステップと、前記第1オブジェクトが検出された場合には、前記第2オブジェクトの表示態様を変更するステップと、を含む。
本発明にかかるプログラムは、第1オブジェクトの情報を取得するステップと、画像データから、前記第1オブジェクトと、前記第1オブジェクトに関連する第2オブジェクトとを検出するステップと、前記第1オブジェクトが検出された場合には、前記第2オブジェクトの表示態様を変更するステップと、を含む。
本発明によれば、画像データに基づいて、ユーザの要求に対応した画像を提供することが可能な画像処理装置を提供することができる。
以下、本発明にかかる画像処理装置、画像処理法およびプログラムの実施形態を図面に基づいて説明する。なお、本実施形態によりこの発明が限定されるものではない。また、本実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
(第1実施形態)
図1は、本実施形態にかかる画像処理システムの一例を示す図である。第1実施形態にかかる画像処理システム1は、ユーザUに、視覚刺激を出力することで、ユーザUに情報を提供する装置である。図1に示すように、画像処理システム1は、ユーザUの体に装着される、いわゆるウェアラブルデバイスである。本実施形態の例では、画像処理システム1は、ユーザUの目に装着される画像処理装置100を有する。ユーザUの目に装着される画像処理装置100はユーザUに視覚刺激を出力する(画像を表示する)後述の出力部120を含む。ただし、図1の構成は一例であり、装置の数や、ユーザUへの装着位置も任意であってよい。例えば、画像処理システム1は、ウェアラブルデバイスに限られず、ユーザUに携帯される装置であってよく、例えばいわゆるスマートフォンやタブレット端末などであってもよい。
図1は、本実施形態にかかる画像処理システムの一例を示す図である。第1実施形態にかかる画像処理システム1は、ユーザUに、視覚刺激を出力することで、ユーザUに情報を提供する装置である。図1に示すように、画像処理システム1は、ユーザUの体に装着される、いわゆるウェアラブルデバイスである。本実施形態の例では、画像処理システム1は、ユーザUの目に装着される画像処理装置100を有する。ユーザUの目に装着される画像処理装置100はユーザUに視覚刺激を出力する(画像を表示する)後述の出力部120を含む。ただし、図1の構成は一例であり、装置の数や、ユーザUへの装着位置も任意であってよい。例えば、画像処理システム1は、ウェアラブルデバイスに限られず、ユーザUに携帯される装置であってよく、例えばいわゆるスマートフォンやタブレット端末などであってもよい。
(メイン像)
図2は、本実施形態にかかる画像処理装置が表示する画像の一例を示す図である。図2に示すように、画像処理システム1は、出力部120を通して、ユーザUにメイン像PMを提供する。これにより、画像処理システム1を装着したユーザUは、メイン像PMを視認できる。メイン像PMとは、本実施形態では、ユーザUが画像処理システム1を装着していないと仮定した場合に、ユーザUが視認することになる景色の像であり、ユーザUの視野範囲に入る実在の対象物の像であるともいえる。視野範囲とは、ユーザUの視線を中心とした、眼球を動かさないで見える範囲を指す。
図2は、本実施形態にかかる画像処理装置が表示する画像の一例を示す図である。図2に示すように、画像処理システム1は、出力部120を通して、ユーザUにメイン像PMを提供する。これにより、画像処理システム1を装着したユーザUは、メイン像PMを視認できる。メイン像PMとは、本実施形態では、ユーザUが画像処理システム1を装着していないと仮定した場合に、ユーザUが視認することになる景色の像であり、ユーザUの視野範囲に入る実在の対象物の像であるともいえる。視野範囲とは、ユーザUの視線を中心とした、眼球を動かさないで見える範囲を指す。
本実施形態では、画像処理システム1は、例えば出力部120から外光(周辺の可視光)を透過させることで、ユーザUにメイン像PMを提供する。すなわち、本実施形態では、ユーザUは、出力部120を通して、実際の景色の像を直接視認しているといえる。ただし、画像処理システム1は、ユーザUに実際の景色の像を直接視認させることに限られず、出力部120にメイン像PMの画像を表示させることで、出力部120を通してユーザUにメイン像PMを提供してもよい。この場合、ユーザUは、出力部120に表示された景色の画像を、メイン像PMとして視認することとなる。この場合、画像処理システム1は、後述する撮像部200が撮像した、ユーザUの視野範囲に入る像を、メイン像PMとして出力部120に表示させる。
(サブ画像)
図2に示すように、画像処理システム1は、出力部120を通して提供されるメイン像PMに重畳するように、出力部120にサブ画像PSを表示させる。これにより、ユーザUは、メイン像PMにサブ画像PSが重畳された像を視認することとなる。サブ画像PSとは、メイン像PMに重畳される画像であり、ユーザUの視野範囲に入る実在の景色以外の画像といえる。すなわち、画像処理システム1は、実在の景色であるメイン像PMにサブ画像PSを重畳させることで、ユーザUにAR(Augumented Reality)を提供するといえる。
図2に示すように、画像処理システム1は、出力部120を通して提供されるメイン像PMに重畳するように、出力部120にサブ画像PSを表示させる。これにより、ユーザUは、メイン像PMにサブ画像PSが重畳された像を視認することとなる。サブ画像PSとは、メイン像PMに重畳される画像であり、ユーザUの視野範囲に入る実在の景色以外の画像といえる。すなわち、画像処理システム1は、実在の景色であるメイン像PMにサブ画像PSを重畳させることで、ユーザUにAR(Augumented Reality)を提供するといえる。
このように、画像処理システム1は、メイン像PMとサブ画像PSとを提供するが、それ以外にも、メイン像PMとサブ画像PSとは異なる画像を出力部120に表示させてもよく、任意の画像であってよい。
(画像処理システムの構成)
図3は、本実施形態にかかる画像処理システムの一例を示す機能ブロック図である。図3に示すように、画像処理システム1は、画像処理装置100と、撮像部200とを備える。画像処理装置100は、入力部110と、出力部120と、記憶部140と、通信部130と、制御部150とを備える。
図3は、本実施形態にかかる画像処理システムの一例を示す機能ブロック図である。図3に示すように、画像処理システム1は、画像処理装置100と、撮像部200とを備える。画像処理装置100は、入力部110と、出力部120と、記憶部140と、通信部130と、制御部150とを備える。
(撮像部)
撮像部200は、撮像装置であり、環境情報として、画像処理システム1の周辺の可視光を検出することで、画像処理システム1の周辺を撮像する。撮像部200は、所定のフレームレート毎に撮像するビデオカメラであってよい。画像処理システム1において撮像部200の設けられる位置や向きは任意であるが、例えば、撮像部200は、図1に示す画像処理装置100に設けられており、撮像方向がユーザUの顔が向いている方向であってよい。これにより、撮像部200は、ユーザUの視線の先にある対象物を、すなわちユーザUの視野の範囲に入る対象物を、撮像できる。また、撮像部200の数は任意であり、単数であっても複数であってもよい。
撮像部200は、撮像装置であり、環境情報として、画像処理システム1の周辺の可視光を検出することで、画像処理システム1の周辺を撮像する。撮像部200は、所定のフレームレート毎に撮像するビデオカメラであってよい。画像処理システム1において撮像部200の設けられる位置や向きは任意であるが、例えば、撮像部200は、図1に示す画像処理装置100に設けられており、撮像方向がユーザUの顔が向いている方向であってよい。これにより、撮像部200は、ユーザUの視線の先にある対象物を、すなわちユーザUの視野の範囲に入る対象物を、撮像できる。また、撮像部200の数は任意であり、単数であっても複数であってもよい。
(入力部)
入力部110は、ユーザの操作を受け付ける装置であり、例えばタッチパネルなどであってよい。
入力部110は、ユーザの操作を受け付ける装置であり、例えばタッチパネルなどであってよい。
(出力部)
出力部120は、画像を表示することでユーザUの視覚刺激を出力するディスプレイであり、視覚刺激出力部と言い換えることもできる。本実施形態では、出力部120は、いわゆるHMD(Head Mount Display)である。出力部120は、上述のように、サブ画像PSを表示する。なお、出力部120は、音声を出力する音声出力部(スピーカ)や、ユーザUに触覚刺激を出力する触覚刺激出力部が備えられていてもよい。触覚刺激出力部は、振動などの物理的に作動することで、ユーザに触覚刺激を出力するが、触覚刺激の種類は、振動などに限られず任意のものであってよい。
出力部120は、画像を表示することでユーザUの視覚刺激を出力するディスプレイであり、視覚刺激出力部と言い換えることもできる。本実施形態では、出力部120は、いわゆるHMD(Head Mount Display)である。出力部120は、上述のように、サブ画像PSを表示する。なお、出力部120は、音声を出力する音声出力部(スピーカ)や、ユーザUに触覚刺激を出力する触覚刺激出力部が備えられていてもよい。触覚刺激出力部は、振動などの物理的に作動することで、ユーザに触覚刺激を出力するが、触覚刺激の種類は、振動などに限られず任意のものであってよい。
(通信部)
通信部130は、外部の装置などと通信するモジュールであり、例えばアンテナなどを含んでよい。通信部130による通信方式は、本実施形態では無線通信であるが、通信方式は任意であってよい。
通信部130は、外部の装置などと通信するモジュールであり、例えばアンテナなどを含んでよい。通信部130による通信方式は、本実施形態では無線通信であるが、通信方式は任意であってよい。
(制御部)
制御部150は、演算装置、すなわちCPU(Central Processing Unit)である。制御部150は、画像データ取得部151と、オブジェクト情報取得部152と、オブジェクト検出部153と、表示態様変更部154と、を含む。制御部150は、記憶部140からプログラム(ソフトウェア)を読み出して実行することで、画像データ取得部151とオブジェクト情報取得部152とオブジェクト検出部153と表示態様変更部154とを実現して、それらの処理を実行する。なお、制御部150は、1つのCPUによってこれらの処理を実行してもよいし、複数のCPUを備えて、それらの複数のCPUで、処理を実行してもよい。また、画像データ取得部151とオブジェクト情報取得部152とオブジェクト検出部153と表示態様変更部154との少なくとも一部を、ハードウェアで実現してもよい。
制御部150は、演算装置、すなわちCPU(Central Processing Unit)である。制御部150は、画像データ取得部151と、オブジェクト情報取得部152と、オブジェクト検出部153と、表示態様変更部154と、を含む。制御部150は、記憶部140からプログラム(ソフトウェア)を読み出して実行することで、画像データ取得部151とオブジェクト情報取得部152とオブジェクト検出部153と表示態様変更部154とを実現して、それらの処理を実行する。なお、制御部150は、1つのCPUによってこれらの処理を実行してもよいし、複数のCPUを備えて、それらの複数のCPUで、処理を実行してもよい。また、画像データ取得部151とオブジェクト情報取得部152とオブジェクト検出部153と表示態様変更部154との少なくとも一部を、ハードウェアで実現してもよい。
(画像データ取得部)
画像データ取得部151は、撮像部200を通じて画像データを取得する。本実施形態において画像データとは、メイン像PMの画像であり、ユーザUが画像処理システム1を装着していないと仮定した場合に、ユーザUが視認することになる環境像であり、ユーザUの視野範囲に入る実在の対象物の像ともいえる。画像データ取得部151は、画像データを記憶部140から取得してもよい。
画像データ取得部151は、撮像部200を通じて画像データを取得する。本実施形態において画像データとは、メイン像PMの画像であり、ユーザUが画像処理システム1を装着していないと仮定した場合に、ユーザUが視認することになる環境像であり、ユーザUの視野範囲に入る実在の対象物の像ともいえる。画像データ取得部151は、画像データを記憶部140から取得してもよい。
図4は、第1実施形態におけるメイン像とサブ画像を重畳したメイン像の一例を示す図である。図4の例では、画像データ取得部151は、ユーザUが視認しているメイン像PM1を画像データとして取得する。図4の例では、メイン像PM1とは、子供であるユーザUが、保護者の立ち合いのもと、看護師に注射を受ける場面であり、注射器O10と、人間の顔O20とを含む。以下、例として注射の場面で本実施形態を説明するが、本実施形態はこの例に限定されない。
(オブジェクト情報取得部)
オブジェクト情報取得部152は、第1オブジェクトの情報を取得する。第1オブジェクトの情報とは、第1オブジェクトとして指定するオブジェクトの情報である。オブジェクト情報取得部152は、第1オブジェクトの種類を示す情報(第1オブジェクトがどのようなオブジェクトであるかを示す情報)を取得するともいえる。本実施形態において、オブジェクト情報取得部152は、ユーザUが注視することで恐怖感や嫌悪感を覚えるオブジェクトの情報を、第1オブジェクトの情報として取得する。
オブジェクト情報取得部152は、第1オブジェクトの情報を取得する。第1オブジェクトの情報とは、第1オブジェクトとして指定するオブジェクトの情報である。オブジェクト情報取得部152は、第1オブジェクトの種類を示す情報(第1オブジェクトがどのようなオブジェクトであるかを示す情報)を取得するともいえる。本実施形態において、オブジェクト情報取得部152は、ユーザUが注視することで恐怖感や嫌悪感を覚えるオブジェクトの情報を、第1オブジェクトの情報として取得する。
ここで、オブジェクトとは、一定の形状を有し、視覚で捉えることのできる実在の対象物を指す。本実施形態において、第1オブジェクトとは、例えば、ユーザUにとって恐怖感や嫌悪感のあるオブジェクトであり、第1オブジェクトは、ユーザUが注視することでユーザUの恐怖感や嫌悪感を強めるおそれがあるオブジェクトであるともいえる。図4の例では、注射器O10が第1オブジェクトに相当する。
(表示態様変更情報)
本実施形態では、オブジェクト情報取得部152は、表示態様変更情報Dを取得する。図5は、本実施形態にかかる表示態様変更情報の一例を示す図である。表示態様変更情報Dとは、第1オブジェクトの情報と、第2オブジェクトの情報と、所定の条件と、第2オブジェクトの変更後の表示態様とを含んだ情報である。表示態様変更情報Dは、第1オブジェクトと、第2オブジェクトと、所定の条件と、第2オブジェクトの変更後の表示態様とが、関連付けられたデータといえる。第2オブジェクトとは、第1オブジェクトに関連するオブジェクトであり、ユーザUが第1オブジェクトとともに視認する可能性が高いオブジェクトであるともいえる。所定の条件とは、第2オブジェクトの表示態様を変更する第2オブジェクトにかかる条件を指す。すなわち、所定の条件とは、複数種類の第2オブジェクトのうちから、表示態様を変更する第2オブジェクトを選択するための条件を指す。第2オブジェクトの変更後の表示態様とは、ユーザUが視認することになる第2オブジェクトの表示態様を指し、より具体的には、第2オブジェクトに重畳されるサブ画像PSを示す情報である。表示態様変更情報Dは、異なる第1オブジェクトに対して、第2オブジェクトの情報と、所定の条件と、第2オブジェクトの変更後の表示態様とを含んでもよい。すなわち、第1オブジェクトが複数種類設定され、それぞれの第1オブジェクト毎に、表示態様変更情報Dが設定されてよい。
本実施形態では、オブジェクト情報取得部152は、表示態様変更情報Dを取得する。図5は、本実施形態にかかる表示態様変更情報の一例を示す図である。表示態様変更情報Dとは、第1オブジェクトの情報と、第2オブジェクトの情報と、所定の条件と、第2オブジェクトの変更後の表示態様とを含んだ情報である。表示態様変更情報Dは、第1オブジェクトと、第2オブジェクトと、所定の条件と、第2オブジェクトの変更後の表示態様とが、関連付けられたデータといえる。第2オブジェクトとは、第1オブジェクトに関連するオブジェクトであり、ユーザUが第1オブジェクトとともに視認する可能性が高いオブジェクトであるともいえる。所定の条件とは、第2オブジェクトの表示態様を変更する第2オブジェクトにかかる条件を指す。すなわち、所定の条件とは、複数種類の第2オブジェクトのうちから、表示態様を変更する第2オブジェクトを選択するための条件を指す。第2オブジェクトの変更後の表示態様とは、ユーザUが視認することになる第2オブジェクトの表示態様を指し、より具体的には、第2オブジェクトに重畳されるサブ画像PSを示す情報である。表示態様変更情報Dは、異なる第1オブジェクトに対して、第2オブジェクトの情報と、所定の条件と、第2オブジェクトの変更後の表示態様とを含んでもよい。すなわち、第1オブジェクトが複数種類設定され、それぞれの第1オブジェクト毎に、表示態様変更情報Dが設定されてよい。
オブジェクト情報取得部152は、任意の方法で表示態様変更情報Dを取得してよく、例えば、ユーザUが、第1オブジェクトと、第2オブジェクトと、所定の条件と、第2オブジェクトの変更後の表示態様とを入力してもよい。また、オブジェクト情報取得部152が、ユーザUが入力した第1オブジェクトの情報に基づいて、第2オブジェクトと、所定の条件と、第2オブジェクトの変更後の表示態様とを決めてもよい。また、ユーザUの入力による表示態様変更情報Dの設定は必須でなく、デフォルトで決められていてもよい。
(オブジェクト検出部)
オブジェクト検出部153は、表示態様変更情報Dに基づいて、画像データから、第1オブジェクトと、関連する第2オブジェクトとを検出する。より具体的には、オブジェクト検出部153は、表示態様変更情報Dで指定されている第1オブジェクトと、表示態様変更情報Dでその第1オブジェクトに対応付けられている第2オブジェクトとが、画像データ(ユーザが視認しているメイン像PM1)に含まれているかを、検出する。オブジェクト検出部153は、任意の方法で第1オブジェクトと第2オブジェクトとを検出してよく、例えば、AI(Artificial Intelligence)モデルを用いて第1オブジェクトと第2オブジェクトとを検出してもよい。この場合のAIモデルは、記憶部140に記憶されており、画像データから、画像に写っているオブジェクトを抽出して種類を特定するためのモデルである。AIモデルは、画像データと、その画像に写っているオブジェクトの種類を示す情報とを1つのデータセットとし、複数のデータセットを教師データとして学習して構築された、学習済みのAIモデルとなっている。図4の例では、第1オブジェクトとして注射器O10が設定されており、第2オブジェクトとして人間の顔O20が設定されている。そのため、オブジェクト検出部153は、画像データから第1オブジェクトである注射器O10と、表示態様変更情報Dにおいて注射器O10と対応する第2オブジェクトである人間の顔O20とを、検出する。
オブジェクト検出部153は、表示態様変更情報Dに基づいて、画像データから、第1オブジェクトと、関連する第2オブジェクトとを検出する。より具体的には、オブジェクト検出部153は、表示態様変更情報Dで指定されている第1オブジェクトと、表示態様変更情報Dでその第1オブジェクトに対応付けられている第2オブジェクトとが、画像データ(ユーザが視認しているメイン像PM1)に含まれているかを、検出する。オブジェクト検出部153は、任意の方法で第1オブジェクトと第2オブジェクトとを検出してよく、例えば、AI(Artificial Intelligence)モデルを用いて第1オブジェクトと第2オブジェクトとを検出してもよい。この場合のAIモデルは、記憶部140に記憶されており、画像データから、画像に写っているオブジェクトを抽出して種類を特定するためのモデルである。AIモデルは、画像データと、その画像に写っているオブジェクトの種類を示す情報とを1つのデータセットとし、複数のデータセットを教師データとして学習して構築された、学習済みのAIモデルとなっている。図4の例では、第1オブジェクトとして注射器O10が設定されており、第2オブジェクトとして人間の顔O20が設定されている。そのため、オブジェクト検出部153は、画像データから第1オブジェクトである注射器O10と、表示態様変更情報Dにおいて注射器O10と対応する第2オブジェクトである人間の顔O20とを、検出する。
(表示態様変更部)
表示態様変更部154は、第1オブジェクトが検出された場合に、第2オブジェクトの表示態様を変更する。本実施形態では、表示態様変更部154は、第1オブジェクトと第2オブジェクトが同じ画像データから検出された際に、表示態様変更情報Dに基づいて、所定の条件を満たす第2オブジェクトの表示態様を変更する。具体的には、表示態様変更部154は、画像データから検出された第2オブジェクトが、表示態様変更情報Dで示される所定の条件を満たすかを判断する。
表示態様変更部154は、第1オブジェクトが検出された場合に、第2オブジェクトの表示態様を変更する。本実施形態では、表示態様変更部154は、第1オブジェクトと第2オブジェクトが同じ画像データから検出された際に、表示態様変更情報Dに基づいて、所定の条件を満たす第2オブジェクトの表示態様を変更する。具体的には、表示態様変更部154は、画像データから検出された第2オブジェクトが、表示態様変更情報Dで示される所定の条件を満たすかを判断する。
第2オブジェクトが複数検出された場合には、表示態様変更部154は、それぞれの第2オブジェクトについて、表示態様変更情報Dで示される所定の条件を満たすかを判断し、所定の条件を満たす第2オブジェクトを抽出する。そして、表示態様変更部154は、所定の条件を満たす第2オブジェクトと重畳する位置に、サブ画像PSを表示させることで第2オブジェクトの表示態様を変更する。より詳しくは、表示態様変更部154は、所定の条件を満たす第2オブジェクトと重畳する位置に、表示態様変更情報Dで示されるサブ画像PSを表示させる。表示態様変更部154は、所定の条件を満たさない第2オブジェクトに対しては、重畳する位置にサブ画像PSを表示せず、第2オブジェクトの表示態様は変更されない。
本実施形態では、サブ画像PSは、メイン像PMに含まれている特定の対象物である第1オブジェクトを注視しにくくさせるため第2オブジェクト上に表示される画像であり、ユーザUが第1オブジェクトを注視しにくくするものであれば、文字やアイコン等、任意の画像でよく、それらを組み合わせてもよい。図4の例では、表示態様を変更する第2オブジェクトの条件として、ユーザUの保護者の顔O22ではないことが課せられており、注射器O10と人間の顔O21が検出された場合、表示態様変更部154は、条件を満たす看護師の顔O21のみに、サブ画像PS1として例えばウサギの顔の画像を重畳する。一方、表示態様変更部154は、所定の条件を満たさない保護者の顔O22には、サブ画像PS1を重畳しない。この場合、ユーザUは保護者の顔O22をそのまま視認することになる。
なお、以上の説明では、第1オブジェクトと、第2オブジェクトと、所定の条件と、第2オブジェクトの変更後の表示態様との組み合わせが、表示態様変更情報Dとして予め設定されていたが、それに限られない。例えば、第2オブジェクトの変更後の表示態様であるサブ画像PSは予め設定されていなくてもよく、第2オブジェクトに対して、任意の画像を重畳表示してもよい。また、第2オブジェクトの変更後の表示態様は、第2オブジェクトに重畳されるサブ画像PSに限られず、第2オブジェクトに対して色調の調整やぼかし等、光学処理を施したものでもよい。以上の説明では、第2オブジェクト(ここでは人間の顔O20)を検出して、その中で所定の条件を満たす第2オブジェクト(ここでは看護師の顔O21)のみの表示態様を変化させたが、それに限られない。例えば、第2オブジェクト検出時に所定の条件を課しておき、オブジェクト検出部153が、所定の条件を満たす第2オブジェクトを検出してよい。すなわち、オブジェクト検出部153は、人間の顔O20をすべて検出せずに、看護師の顔O21のみを検出してよい。また、所定の条件は必ずしも必要とはせずに、表示態様変更部154は、第1オブジェクトが検出された場合に、第2オブジェクトの表示態様を変更してもよい。
(記憶部)
記憶部140は、制御部150の演算内容やプログラムなどの各種情報を記憶するメモリであり、例えば、RAM(Random Access Memory)と、ROM(Read Only Memory)のような主記憶装置と、HDD(Hard Disk Drive)などの外部記憶装置とのうち、少なくとも1つ含む。記憶部140には、表示態様変更情報Dが記憶されている。なお、表示態様変更情報Dや、記憶部140が保存する制御部150用のプログラムは、画像処理システム1が読み取り可能な記録媒体に記憶されていてもよい。また、記憶部140が保存する制御部150用のプログラムや、表示態様変更情報Dは、記憶部140に予め記憶されていることに限られず、これらのデータを使用する際に、画像処理システム1が通信部130によって外部の装置から取得してもよい。
記憶部140は、制御部150の演算内容やプログラムなどの各種情報を記憶するメモリであり、例えば、RAM(Random Access Memory)と、ROM(Read Only Memory)のような主記憶装置と、HDD(Hard Disk Drive)などの外部記憶装置とのうち、少なくとも1つ含む。記憶部140には、表示態様変更情報Dが記憶されている。なお、表示態様変更情報Dや、記憶部140が保存する制御部150用のプログラムは、画像処理システム1が読み取り可能な記録媒体に記憶されていてもよい。また、記憶部140が保存する制御部150用のプログラムや、表示態様変更情報Dは、記憶部140に予め記憶されていることに限られず、これらのデータを使用する際に、画像処理システム1が通信部130によって外部の装置から取得してもよい。
(効果)
ここで、ユーザの要求に対応した画像を提供することが求められている。それに対し、本実施形態によれば、第1オブジェクトを設定し、関連する第2オブジェクトの表示態様を変更することで、ユーザUの注意を第2オブジェクトに向けることができる。そのため第1オブジェクトを、例えば、ユーザUにとって恐怖感や嫌悪感のあるオブジェクトに設定することで、ユーザUは第1オブジェクトを注視しにくくなる。これにより、ユーザの要求に対応した画像を提供することができる。
ここで、ユーザの要求に対応した画像を提供することが求められている。それに対し、本実施形態によれば、第1オブジェクトを設定し、関連する第2オブジェクトの表示態様を変更することで、ユーザUの注意を第2オブジェクトに向けることができる。そのため第1オブジェクトを、例えば、ユーザUにとって恐怖感や嫌悪感のあるオブジェクトに設定することで、ユーザUは第1オブジェクトを注視しにくくなる。これにより、ユーザの要求に対応した画像を提供することができる。
(フローチャート)
図6は、本実施形態にかかるフローチャートである。以下、画像処理装置100による処理内容について説明する。
図6は、本実施形態にかかるフローチャートである。以下、画像処理装置100による処理内容について説明する。
画像データ取得部151は、撮像部200を通じて画像データを取得する(ステップS10)。次いで、オブジェクト検出部153は、表示態様変更情報Dに基づいて、画像データから第1オブジェクトと、第1オブジェクトに関連する第2オブジェクトと、を検出する(ステップS20)。ここで第1オブジェクトが画像データから検出され(ステップS30;Yes)、表示態様変更部154は、第2オブジェクトが所定の条件を満たす場合(ステップS40;Yes)、その第2オブジェクトの表示態様を変更する(ステップS50)。ここで、第2オブジェクトが所定の条件を満たさない場合(ステップS40;No)、表示態様変更部154は、その第2オブジェクトの表示態様を変更しない。このときユーザUはメイン像PMの、所定の条件を満たす第2オブジェクトにサブ画像PSが重畳された像、すなわち所定の条件を満たす第2オブジェクトの表示態様が変更されたメイン像を視認することになる。一方で、ステップS30で第1オブジェクトが画像データから検出されなかった場合(ステップS30;No)、第2オブジェクトの表示態様の変更は行われない。このときユーザUはメイン像PMのみを視認することになる。
(第2実施形態)
第2実施形態は、ユーザUが第1オブジェクトを認識しやすくするよう第2オブジェクトの表示態様を変更する点で第1実施形態と異なる。第2実施形態において第1実施形態と構成が共通する箇所は、説明を省略する。
第2実施形態は、ユーザUが第1オブジェクトを認識しやすくするよう第2オブジェクトの表示態様を変更する点で第1実施形態と異なる。第2実施形態において第1実施形態と構成が共通する箇所は、説明を省略する。
(画像データ取得部)
図7は、第2実施形態におけるメイン像とサブ画像を重畳したメイン像の一例を示す図である。図7の例では、画像データ取得部151は、ユーザUが視認しているメイン像PM2を画像データとして取得する。図7の例では、メイン像PM2とは、ユーザUが繁華街で店舗Aの看板を探す場面であり、店舗Aの看板O15と、全ての店舗の看板O25とを含む。以下、例として店舗の看板の場面で本実施形態を説明するが、本実施形態はこの例に限定されない。
図7は、第2実施形態におけるメイン像とサブ画像を重畳したメイン像の一例を示す図である。図7の例では、画像データ取得部151は、ユーザUが視認しているメイン像PM2を画像データとして取得する。図7の例では、メイン像PM2とは、ユーザUが繁華街で店舗Aの看板を探す場面であり、店舗Aの看板O15と、全ての店舗の看板O25とを含む。以下、例として店舗の看板の場面で本実施形態を説明するが、本実施形態はこの例に限定されない。
(オブジェクト情報取得部)
本実施形態において、オブジェクト情報取得部152は、ユーザUが認識する必要のあるオブジェクトの情報を、第1オブジェクトの情報として取得する。本実施形態において、第1オブジェクトとは、例えば、ユーザUが認識することを所望するオブジェクトであり、第1オブジェクトは、ユーザUがメイン像PM2から見つけ出したいオブジェクトであるともいえる。
本実施形態において、オブジェクト情報取得部152は、ユーザUが認識する必要のあるオブジェクトの情報を、第1オブジェクトの情報として取得する。本実施形態において、第1オブジェクトとは、例えば、ユーザUが認識することを所望するオブジェクトであり、第1オブジェクトは、ユーザUがメイン像PM2から見つけ出したいオブジェクトであるともいえる。
(オブジェクト検出部)
図7の例では、オブジェクト検出部153は、画像データから第1オブジェクトである店舗Aの看板O15と、表示態様変更情報Dにおいて店舗Aの看板O15と対応する第2オブジェクトである全ての店舗の看板O25とを、検出する。
図7の例では、オブジェクト検出部153は、画像データから第1オブジェクトである店舗Aの看板O15と、表示態様変更情報Dにおいて店舗Aの看板O15と対応する第2オブジェクトである全ての店舗の看板O25とを、検出する。
(表示態様変更部)
本実施形態において、サブ画像PSは、メイン像PMに含まれている特定の対象物である第1オブジェクトを認識しやすくするため第2オブジェクト上に表示される画像であり、ユーザUが第1オブジェクトを認識しやすくするものであれば、文字やアイコン等、任意の画像でよく、それらを組み合わせてもよい。図7の例では、表示態様を変更する第2オブジェクトの条件として、店舗Aの看板O15ではないことが課せられており、店舗Aの看板O15と全ての店舗の看板O25が検出された場合、表示態様変更部154は、例えば、条件を満たす店舗Bの看板O26の文字である文字情報を消すようにサブ画像PS2を重畳させたり、条件を満たす店舗Cの看板O27自体を消すようにサブ画像PS3を重畳させたりするなどの処理を行う。一方、所定の条件を満たさない店舗Aの看板O15は、サブ画像PS2またはサブ画像PS3が重畳されず、ユーザUは店舗Aの看板O15をそのまま視認することになる。
本実施形態において、サブ画像PSは、メイン像PMに含まれている特定の対象物である第1オブジェクトを認識しやすくするため第2オブジェクト上に表示される画像であり、ユーザUが第1オブジェクトを認識しやすくするものであれば、文字やアイコン等、任意の画像でよく、それらを組み合わせてもよい。図7の例では、表示態様を変更する第2オブジェクトの条件として、店舗Aの看板O15ではないことが課せられており、店舗Aの看板O15と全ての店舗の看板O25が検出された場合、表示態様変更部154は、例えば、条件を満たす店舗Bの看板O26の文字である文字情報を消すようにサブ画像PS2を重畳させたり、条件を満たす店舗Cの看板O27自体を消すようにサブ画像PS3を重畳させたりするなどの処理を行う。一方、所定の条件を満たさない店舗Aの看板O15は、サブ画像PS2またはサブ画像PS3が重畳されず、ユーザUは店舗Aの看板O15をそのまま視認することになる。
(効果)
本実施形態によれば、第1オブジェクトを設定し、関連する第2オブジェクトの表示態様を変更することで、ユーザUの注意を第1オブジェクトに向けることができる。そのため第1オブジェクトを、例えば、ユーザUが見つけ出したいオブジェクトに設定することで、ユーザUは第1オブジェクトを認識しやすくなる。これにより、ユーザの要求に対応した画像を提供することができる。
本実施形態によれば、第1オブジェクトを設定し、関連する第2オブジェクトの表示態様を変更することで、ユーザUの注意を第1オブジェクトに向けることができる。そのため第1オブジェクトを、例えば、ユーザUが見つけ出したいオブジェクトに設定することで、ユーザUは第1オブジェクトを認識しやすくなる。これにより、ユーザの要求に対応した画像を提供することができる。
(第3実施形態)
第3実施形態は、制御部150は、さらに位置情報処理部を備え、特定地域の情報に基づいて第2オブジェクトの表示態様を変更する点で第1実施形態と異なる。第3実施形態において第1実施形態と構成が共通する箇所は、説明を省略する。
第3実施形態は、制御部150は、さらに位置情報処理部を備え、特定地域の情報に基づいて第2オブジェクトの表示態様を変更する点で第1実施形態と異なる。第3実施形態において第1実施形態と構成が共通する箇所は、説明を省略する。
(表示態様変更情報)
本実施形態では、表示態様変更情報Dは、特定地域の情報をさらに含んだ情報である。特定地域とは、ユーザが存在しうる特定の地理的な範囲であり、例えば、ユーザUが、画像処理システム1を使用することが想定される地域を指す。ここで、本実施形態において、第1オブジェクトとは、例えば、特定地域において特徴的なオブジェクトであり、第1オブジェクトは、ユーザUが特定地域において視認する可能性が高いオブジェクトであるともいえる。表示態様変更情報Dは、異なる特定地域に対して、第1オブジェクトの情報と、第2オブジェクトの情報と、第2オブジェクトの変更後の表示態様とを含んでもよい。すなわち、特定地域が複数設定され、それぞれの特定地域毎に、表示態様変更情報Dが設定されてもよい。
本実施形態では、表示態様変更情報Dは、特定地域の情報をさらに含んだ情報である。特定地域とは、ユーザが存在しうる特定の地理的な範囲であり、例えば、ユーザUが、画像処理システム1を使用することが想定される地域を指す。ここで、本実施形態において、第1オブジェクトとは、例えば、特定地域において特徴的なオブジェクトであり、第1オブジェクトは、ユーザUが特定地域において視認する可能性が高いオブジェクトであるともいえる。表示態様変更情報Dは、異なる特定地域に対して、第1オブジェクトの情報と、第2オブジェクトの情報と、第2オブジェクトの変更後の表示態様とを含んでもよい。すなわち、特定地域が複数設定され、それぞれの特定地域毎に、表示態様変更情報Dが設定されてもよい。
(位置情報処理部)
本実施形態では、位置情報処理部は、ユーザの位置情報を取得し、表示態様変更情報Dに基づいて、ユーザの位置が特定地域内であるかを判断する。ここで、ユーザの位置情報とは、ユーザUが実在する地理的な位置をいう。位置情報処理部は、任意の方法でユーザの位置情報を取得してよく、例えば通信部130を通じてユーザの位置情報を取得してよい。
本実施形態では、位置情報処理部は、ユーザの位置情報を取得し、表示態様変更情報Dに基づいて、ユーザの位置が特定地域内であるかを判断する。ここで、ユーザの位置情報とは、ユーザUが実在する地理的な位置をいう。位置情報処理部は、任意の方法でユーザの位置情報を取得してよく、例えば通信部130を通じてユーザの位置情報を取得してよい。
(オブジェクト検出部)
本実施形態では、オブジェクト検出部153は、表示態様変更情報Dに基づいて、画像データから、特定地域に関連する第1オブジェクトと、第1オブジェクトに関連する第2オブジェクトを検出する。より具体的には、オブジェクト検出部153は、表示態様変更情報Dに基づいて、特定地域に対応付けられている第1オブジェクトと、表示態様変更情報Dでその第1オブジェクトに対応付けられている第2オブジェクトとが、画像データ(ユーザが視認しているメイン像)に含まれているかを、検出する。
本実施形態では、オブジェクト検出部153は、表示態様変更情報Dに基づいて、画像データから、特定地域に関連する第1オブジェクトと、第1オブジェクトに関連する第2オブジェクトを検出する。より具体的には、オブジェクト検出部153は、表示態様変更情報Dに基づいて、特定地域に対応付けられている第1オブジェクトと、表示態様変更情報Dでその第1オブジェクトに対応付けられている第2オブジェクトとが、画像データ(ユーザが視認しているメイン像)に含まれているかを、検出する。
(表示態様変更部)
本実施形態では、表示態様変更部154は、ユーザの位置が特定地域内であると判断され、かつ第1オブジェクトと第2オブジェクトが同じ画像データから検出された際に、表示態様変更情報Dに基づいて、所定の条件を満たす第2オブジェクトの表示態様を変更する。
本実施形態では、表示態様変更部154は、ユーザの位置が特定地域内であると判断され、かつ第1オブジェクトと第2オブジェクトが同じ画像データから検出された際に、表示態様変更情報Dに基づいて、所定の条件を満たす第2オブジェクトの表示態様を変更する。
以上の説明では、表示態様変更情報Dとして、第1オブジェクトは特定地域に関連付けられ、第2オブジェクトは第1オブジェクトに関連付けられていたが、これに限られない。例えば、第1オブジェクトは特定地域と関連付けられていなくてもよく、第2オブジェクトが特定地域および第1オブジェクトに関連付けられて設定されてもよい。すなわち、ユーザの位置が特定地域内であり、かつ第1オブジェクトが画像データから検出された場合、その特定地域および第1オブジェクトに関連付けられた第2オブジェクトに対して、任意の画像を重畳表示してもよい。この場合、第2オブジェクトは、第1オブジェクト及び特定地域に関連するオブジェクトであり、ユーザUが特定地域において第1オブジェクトともに視認する可能性が高いオブジェクトであるといえる。
また、以上の説明では、特定地域と、第1オブジェクトと、第2オブジェクトと、所定の条件と、第2オブジェクトの変更後の表示態様との組み合わせが、表示態様変更情報Dとして予め設定されていたが、これに限られない。例えば、第1オブジェクトは設定されていなくてもよく、ユーザの位置が特定地域内である場合、その特定地域に関連付けられた第2オブジェクトに対して、任意の画像を重畳表示してもよい。この場合、第2オブジェクトは、特定地域に関連するオブジェクトであり、ユーザUが特定地域において視認する可能性が高いオブジェクトであるといえる。
(効果)
本実施形態によれば、特定地域を設定し、関連する第2オブジェクトの表示態様を変更することで、ユーザUが特定地域にいる場合に限って、第2オブジェクトの表示態様を変更することができる。これにより、ユーザの要求に対応した画像を提供することができる。
本実施形態によれば、特定地域を設定し、関連する第2オブジェクトの表示態様を変更することで、ユーザUが特定地域にいる場合に限って、第2オブジェクトの表示態様を変更することができる。これにより、ユーザの要求に対応した画像を提供することができる。
(本発明の効果)
各実施形態に記載の画像処理装置、画像処理方法、およびプログラムは、例えば以下のように把握される。
各実施形態に記載の画像処理装置、画像処理方法、およびプログラムは、例えば以下のように把握される。
第1の態様の画像処理装置は、第1オブジェクトの情報を取得するオブジェクト情報取得部152と、画像データから、第1オブジェクトと、第1オブジェクトに関連する第2オブジェクトとを検出するオブジェクト検出部153と、第1オブジェクトが検出された場合には、第2オブジェクトの表示態様を変更する表示態様変更部154と、を備える。この構成によれば、ユーザの要求に応じて、画像データから特定のオブジェクトを検出し、オブジェクトの表示態様を変更する情報を画像データに付与することができる。これによりユーザの要求に対応した画像を提供することができる。
第2の態様の画像処理装置は、第2オブジェクトが所定の条件を満たす場合に、その第2オブジェクトの表示態様を変更し、第2オブジェクトが所定の条件を満たさない場合には、その第2オブジェクトの表示態様を変更しない。これにより、第2オブジェクトに対して選択的に表示態様を変更することができるので、よりユーザの要求に対応することができる。
第3の態様の画像処理装置は、オブジェクト情報取得部152は、第1オブジェクトと、第2オブジェクトと、第2オブジェクトの変更後の表示態様と、が関連付けられたデータである表示態様変更情報Dを取得し、表示態様変更部は、第1オブジェクトが検出された場合には、表示態様変更情報Dに基づき、第2オブジェクトの表示態様を変更する。これにより、複数の異なる第1オブジェクトに対して、それぞれ対応する第2オブジェクトの表示態様を変更することができるので、よりユーザの要求に対応することができる。
第4の態様の画像処理装置は、画像を視認するユーザUが第1オブジェクトを注視しにくくするように、第2オブジェクトの表示態様を変更する。これにより、ユーザが第1オブジェクトの注視を避ける必要のある場合、第2オブジェクトが目立つように表示態様を変更することで、第1オブジェクトへの注視を回避しやすくなるため、よりユーザの要求に対応することができる。
第5の態様の画像処理装置は、画像を視認するユーザUが第1オブジェクトを認識しやすくなるように、第2オブジェクトの表示態様を変更する。具体的には、第5の態様の画像処理装置は、第2オブジェクトの表示態様を第2オブジェクト内における文字情報を削除する表示態様へ変更する。これにより、ユーザが第1オブジェクトの認識する必要のある場合、第2オブジェクトが目立たないように表示態様を変更することで、第1オブジェクトの認識が容易になるため、よりユーザの要求に対応することができる。
第6の態様の画像処理装置は、特定地域の情報と、第1オブジェクトの情報を取得するオブジェクト情報取得部152と、ユーザの位置情報から、ユーザの位置が特定地域内であるか判断する位置情報処理部と、画像データから、特定地域に関連する第1オブジェクトと、第1オブジェクトに関連する第2オブジェクトとを検出するオブジェクト検出部153と、ユーザの位置が特定地域内であると判断され、かつ特定地域に関連する第1オブジェクトが検出された場合には、第2オブジェクトの表示態様を変更する表示態様変更部154と、を備える。この構成によれば、特定地域に存在するユーザの要求に応じて、画像データから特定のオブジェクトを検出し、オブジェクトの表示態様を変更する情報を画像データに付与することができる。これによりユーザの要求に対応した画像を提供することができる。
第7の態様の画像処理装置は、特定地域の情報と、第1オブジェクトの情報を取得するオブジェクト情報取得部152と、ユーザの位置情報から、ユーザの位置が特定地域内であるか判断する位置情報処理部と、画像データから、第1オブジェクトと、特定地域及び第1オブジェクトに関連する第2オブジェクトとを検出するオブジェクト検出部153と、ユーザの位置が特定地域内であると判断され、かつ第1オブジェクトが検出された場合には、第2オブジェクトの表示態様を変更する表示態様変更部154とを備える。この構成によれば、特定地域に存在するユーザの要求に応じて、画像データから特定のオブジェクトを検出し、オブジェクトの表示態様を変更する情報を画像データに付与することができる。これによりユーザの要求に対応した画像を提供することができる。
第8の態様の画像処理装置は、特定地域の情報を取得する特定地域情報取得部(オブジェクト情報取得部152)と、ユーザの位置情報から、ユーザの位置が特定地域内であるか判断する位置情報処理部と、画像データから、特定地域に関連するオブジェクト(第2オブジェクト)を検出するオブジェクト検出部153と、ユーザの位置が特定地域内であると判断された場合には、オブジェクト(第2オブジェクト)の表示態様を変更する表示態様変更部154とを備える。この構成によれば、特定地域に存在するユーザの要求に応じて、画像データから特定のオブジェクトを検出し、オブジェクトの表示態様を変更する情報を画像データに付与することができる。これによりユーザの要求に対応した画像を提供することができる。
第9の態様の画像処理方法は、第1オブジェクトの情報を取得するステップと、画像データから、第1オブジェクトと、第1オブジェクトに関連する第2オブジェクトとを検出するステップと、第1オブジェクトが検出された場合には、第2オブジェクトの表示態様を変更するステップと、を含む。
第10の態様のプログラムは、第1オブジェクトの情報を取得するステップと、画像データから、第1オブジェクトと、第1オブジェクトに関連する第2オブジェクトとを検出するステップと、第1オブジェクトが検出された場合には、前記第2オブジェクトの表示態様を変更するステップと、をコンピュータに実行させる。
以上、本発明の実施形態を説明したが、これら実施形態の内容により実施形態が限定されるものではない。また、前述した構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。さらに、前述した構成要素は適宜組み合わせることが可能であり、各実施形態の構成を組み合わせることも可能である。さらに、前述した実施形態の要旨を逸脱しない範囲で構成要素の種々の省略、置換又は変更を行うことができる。
1 画像処理システム
100 画像処理装置
110 入力部
120 出力部
130 通信部
140 記憶部
150 制御部
151 画像データ取得部
152 オブジェクト情報取得部
153 オブジェクト検出部
154 表示態様変更部
200 撮像部
D 表示態様変更情報
O10 注射器
O15、O25、O26、O27 看板
O20、O21、O22 顔
PM,PM1,PM2 メイン像
PS,PS1,PS2,PS3 サブ画像
U ユーザ
100 画像処理装置
110 入力部
120 出力部
130 通信部
140 記憶部
150 制御部
151 画像データ取得部
152 オブジェクト情報取得部
153 オブジェクト検出部
154 表示態様変更部
200 撮像部
D 表示態様変更情報
O10 注射器
O15、O25、O26、O27 看板
O20、O21、O22 顔
PM,PM1,PM2 メイン像
PS,PS1,PS2,PS3 サブ画像
U ユーザ
Claims (7)
- 第1オブジェクトの情報を取得するオブジェクト情報取得部と、
画像データから、前記第1オブジェクトと、前記第1オブジェクトに関連する第2オブジェクトとを検出するオブジェクト検出部と、
前記第1オブジェクトが検出された場合には、前記第2オブジェクトの表示態様を変更する表示態様変更部と、
を備える、画像処理装置。 - 前記表示態様変更部は、前記第2オブジェクトが所定の条件を満たす場合に、その第2オブジェクトの表示態様を変更し、前記第2オブジェクトが前記所定の条件を満たさない場合には、その第2オブジェクトの表示態様を変更しない、
請求項1に記載の画像処理装置。 - 前記オブジェクト情報取得部は、前記第1オブジェクトと、前記第2オブジェクトと、前記第2オブジェクトの変更後の表示態様と、が関連付けられたデータである表示態様変更情報を取得し、
前記表示態様変更部は、前記第1オブジェクトが検出された場合には、前記表示態様変更情報に基づき、前記第2オブジェクトの表示態様を変更する、
請求項1または請求項2に記載の画像処理装置。 - 前記表示態様変更部は、前記第2オブジェクトの表示態様を前記第2オブジェクト内における文字情報を削除する表示態様へ変更する、
請求項1から請求項3のいずれか1項に記載の画像処理装置。 - 特定地域の情報と、第1オブジェクトの情報を取得するオブジェクト情報取得部と、
ユーザの位置情報から、前記ユーザの位置が前記特定地域内であるか判断する位置情報処理部と、
画像データから、前記特定地域に関連する前記第1オブジェクトと、前記第1オブジェクトに関連する第2オブジェクトとを検出するオブジェクト検出部と、
前記ユーザの位置が前記特定地域内であると判断され、かつ前記特定地域に関連する前記第1オブジェクトが検出された場合には、前記第2オブジェクトの表示態様を変更する表示態様変更部と、
を備える、画像処理装置。 - 第1オブジェクトの情報を取得するステップと、
画像データから、前記第1オブジェクトと、前記第1オブジェクトに関連する第2オブジェクトとを検出するステップと、
前記第1オブジェクトが検出された場合には、前記第2オブジェクトの表示態様を変更するステップと、
を含む、画像処理方法。 - 第1オブジェクトの情報を取得するステップと、
画像データから、前記第1オブジェクトと、前記第1オブジェクトに関連する第2オブジェクトとを検出するステップと、
前記第1オブジェクトが検出された場合には、前記第2オブジェクトの表示態様を変更するステップと、
をコンピュータに実行させる、プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/024980 WO2022270558A1 (ja) | 2021-06-25 | 2022-06-22 | 画像処理装置、画像処理方法、プログラム |
US18/393,809 US20240119643A1 (en) | 2021-06-25 | 2023-12-22 | Image processing device, image processing method, and computer-readable storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021105936 | 2021-06-25 | ||
JP2021105936 | 2021-06-25 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023004849A true JP2023004849A (ja) | 2023-01-17 |
Family
ID=85100961
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022032920A Pending JP2023004849A (ja) | 2021-06-25 | 2022-03-03 | 画像処理装置、画像処理方法、プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023004849A (ja) |
-
2022
- 2022-03-03 JP JP2022032920A patent/JP2023004849A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10534428B2 (en) | Image processing device and image processing method, display device and display method, and image display system | |
US9466266B2 (en) | Dynamic display markers | |
CN111788543A (zh) | 具有注视跟踪的图像增强设备 | |
US20210350762A1 (en) | Image processing device and image processing method | |
US9411162B2 (en) | Mixed reality presenting system, virtual reality presenting system, display apparatus, information processing apparatus, control method, and program | |
CN111095364A (zh) | 信息处理装置、信息处理方法和程序 | |
JP2014146871A (ja) | ウェアラブル型表示装置及びプログラム | |
US11334156B2 (en) | Postponing the state change of an information affecting the graphical user interface until during the condition of inattentiveness | |
US20190347864A1 (en) | Storage medium, content providing apparatus, and control method for providing stereoscopic content based on viewing progression | |
JP2015114798A (ja) | 情報処理装置および情報処理方法、プログラム | |
US20230336865A1 (en) | Device, methods, and graphical user interfaces for capturing and displaying media | |
US20220189433A1 (en) | Application programming interface for setting the prominence of user interface elements | |
CN109032350B (zh) | 眩晕感减轻方法、虚拟现实设备及计算机可读存储介质 | |
US11749141B2 (en) | Information processing apparatus, information processing method, and recording medium | |
US20230221833A1 (en) | Methods for displaying user interface elements relative to media content | |
WO2022270558A1 (ja) | 画像処理装置、画像処理方法、プログラム | |
US10586392B2 (en) | Image display apparatus using foveated rendering | |
JP2023004849A (ja) | 画像処理装置、画像処理方法、プログラム | |
JP2017097854A (ja) | プログラム、記録媒体、コンテンツ提供装置及び制御方法 | |
JP2021124520A (ja) | 画像表示装置、画像表示用プログラム及び画像表示方法 | |
WO2022114177A1 (ja) | 表示装置、表示方法及びプログラム | |
EP3813026A1 (en) | Method and electronic device for displaying content | |
JP2022086565A (ja) | 表示装置、表示方法及びプログラム | |
JP2022086885A (ja) | 表示装置、表示方法及びプログラム | |
JP2022086549A (ja) | 表示装置、表示方法及びプログラム |