JP2023065313A - Imaging apparatus, image processing device, and method - Google Patents
Imaging apparatus, image processing device, and method Download PDFInfo
- Publication number
- JP2023065313A JP2023065313A JP2022165023A JP2022165023A JP2023065313A JP 2023065313 A JP2023065313 A JP 2023065313A JP 2022165023 A JP2022165023 A JP 2022165023A JP 2022165023 A JP2022165023 A JP 2022165023A JP 2023065313 A JP2023065313 A JP 2023065313A
- Authority
- JP
- Japan
- Prior art keywords
- processing
- image
- image data
- user
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 title claims abstract description 377
- 238000003384 imaging method Methods 0.000 title claims abstract description 90
- 238000000034 method Methods 0.000 title claims abstract description 59
- 238000001514 detection method Methods 0.000 claims abstract description 72
- 230000008569 process Effects 0.000 claims abstract description 35
- 238000003672 processing method Methods 0.000 claims description 5
- 230000000007 visual effect Effects 0.000 description 39
- 238000010586 diagram Methods 0.000 description 29
- 230000015654 memory Effects 0.000 description 26
- 238000006243 chemical reaction Methods 0.000 description 19
- 210000001508 eye Anatomy 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 210000005252 bulbus oculi Anatomy 0.000 description 12
- 230000008859 change Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 12
- 230000000694 effects Effects 0.000 description 11
- 238000012905 input function Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 239000003086 colorant Substances 0.000 description 8
- 230000009189 diving Effects 0.000 description 8
- 230000001965 increasing effect Effects 0.000 description 8
- 210000001747 pupil Anatomy 0.000 description 8
- 238000003825 pressing Methods 0.000 description 7
- 241000251468 Actinopterygii Species 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 6
- 230000009467 reduction Effects 0.000 description 6
- 241001465754 Metazoa Species 0.000 description 5
- 238000012937 correction Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 238000010422 painting Methods 0.000 description 4
- 210000000746 body region Anatomy 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 3
- 230000004438 eyesight Effects 0.000 description 3
- 210000001331 nose Anatomy 0.000 description 3
- 238000002360 preparation method Methods 0.000 description 3
- 238000004904 shortening Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 210000000214 mouth Anatomy 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 102100029968 Calreticulin Human genes 0.000 description 1
- 244000025254 Cannabis sativa Species 0.000 description 1
- 206010010356 Congenital anomaly Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 101100326671 Homo sapiens CALR gene Proteins 0.000 description 1
- WHXSMMKQMYFTQS-UHFFFAOYSA-N Lithium Chemical compound [Li] WHXSMMKQMYFTQS-UHFFFAOYSA-N 0.000 description 1
- 229910005580 NiCd Inorganic materials 0.000 description 1
- 229910005813 NiMH Inorganic materials 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 229910052744 lithium Inorganic materials 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 230000009131 signaling function Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000016776 visual perception Effects 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Exposure Control For Cameras (AREA)
- Focusing (AREA)
- Stereoscopic And Panoramic Photography (AREA)
- Indication In Cameras, And Counting Of Exposures (AREA)
- Automatic Focus Adjustment (AREA)
Abstract
Description
本発明は撮像装置、画像処理装置、および方法に関する。 The present invention relates to an imaging device, an image processing device, and a method.
表示画像におけるユーザの注視位置を検出し、注視位置を含んだ領域を拡大表示する撮像装置が特許文献1に開示されている。 Japanese Unexamined Patent Application Publication No. 2002-101001 discloses an imaging device that detects a gaze position of a user in a display image and enlarges and displays an area including the gaze position.
特許文献1記載の技術によれば、表示画像において意図した位置を注視しているか否かをユーザが確認しやすくなる。しかしながら、表示画像において意図した位置(被写体)にユーザが視線を合わせるまでに要する時間を短縮することはできない。
According to the technology described in
本発明はこのような従来技術の課題に鑑みてなされたものである。本発明はその一態様において、ユーザが意図した位置もしくは被写体を素早く注視することを支援するための表示用画像データを生成する撮像装置および方法を提供する。 The present invention has been made in view of such problems of the prior art. In one aspect, the present invention provides an imaging apparatus and method for generating image data for display to assist a user in quickly gazing at an intended position or object.
上述の目的は、撮像装置であって、撮像装置が表示している画像におけるユーザの注視位置を検出可能な検出手段と、表示のための画像データを生成する生成手段と、を有し、生成手段は、検出手段が有効な際に生成する画像データについては、特徴領域を他の領域より視覚的に強調する加工処理を適用し、特徴領域が、撮像装置の設定に基づいて判定される種類の被写体の領域である、ことを特徴とする撮像装置によって達成される。 The above-mentioned object is an imaging device, which has detection means capable of detecting a gaze position of a user in an image displayed by the imaging device, and generation means for generating image data for display, and generating The means applies processing to the image data generated when the detection means is active to visually emphasize the characteristic region from other regions, and the characteristic region is determined based on the settings of the imaging device. is a subject area of .
本発明の一態様によれば、ユーザが意図した位置もしくは被写体を素早く注視することを支援する表示用画像データを生成する撮像装置および方法を提供することができる。 According to one aspect of the present invention, it is possible to provide an imaging apparatus and method for generating image data for display that assists a user in quickly gazing at an intended position or subject.
以下、添付図面を参照して本発明をその例示的な実施形態に基づいて詳細に説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定しない。また、実施形態には複数の特徴が記載されているが、その全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 The invention will now be described in detail on the basis of its exemplary embodiments with reference to the accompanying drawings. In addition, the following embodiments do not limit the invention according to the scope of claims. In addition, although a plurality of features are described in the embodiments, not all of them are essential to the invention, and the plurality of features may be combined arbitrarily. Furthermore, in the accompanying drawings, the same or similar configurations are denoted by the same reference numerals, and redundant description is omitted.
以下では、本発明をデジタルカメラのような撮像装置で実施する場合に関して説明する。しかし、本発明は表示画面の注視位置を検出可能な任意の電子機器で実施可能である。このような電子機器には、撮像装置以外にも、コンピュータ機器(パーソナルコンピュータ、タブレットコンピュータ、メディアプレーヤ、PDAなど)、携帯電話機、スマートフォン、ゲーム機、ロボット、車載機器などが含まれる。これらは例示であり、本発明は他の電子機器でも実施可能である。 In the following, the present invention will be described with respect to implementation in an imaging device such as a digital camera. However, the present invention can be implemented with any electronic device capable of detecting the gaze position of the display screen. Such electronic devices include computer devices (personal computers, tablet computers, media players, PDAs, etc.), mobile phones, smart phones, game machines, robots, vehicle-mounted devices, and the like, in addition to imaging devices. These are examples, and the present invention can also be implemented in other electronic devices.
●(第1実施形態)
[撮像装置の構成の説明]
図1は、実施形態に係る画像処理装置の一例としての撮像装置1の機能構成例を示すブロック図である。撮像装置1は、本体100と、レンズユニット150とを有する。ここではレンズユニット150は本体100に着脱可能な交換レンズユニットであるが、本体100と一体化されたレンズユニットであってもよい。
● (first embodiment)
[Description of configuration of imaging device]
FIG. 1 is a block diagram showing a functional configuration example of an
レンズユニット150と本体100とはレンズマウントを介して機械的および電気的に接続される。レンズマウントに設けられた通信端子6および10は、レンズユニット150と本体100とを電気的に接続する接点である。通信端子6および10を通じてレンズユニット制御回路4とシステム制御回路50は通信可能である。また、レンズユニット150の動作に必要な電力も通信端子6および10を通じて本体100からレンズユニット150に供給される。
レンズユニット150は、被写体の光学像を撮像部22の撮像面に形成する撮影光学系を構成する。レンズユニット150は絞り102と、フォーカスレンズを含む複数のレンズ103とを有する。絞り102は絞り駆動回路2により、フォーカスレンズはAF駆動回路3によりそれぞれ駆動される。絞り駆動回路2およびAF駆動回路3の動作は、システム制御回路50からの指示に従い、レンズシステム制御回路4が制御する。
The
フォーカルプレーンシャッタ101(以下、単にシャッタ101という)は、システム制御回路50の制御よって駆動される。システム制御回路50は、静止画撮影時、撮影条件に従って撮像部22を露光するようにシャッタ101の動作を制御する。
A focal plane shutter 101 (hereinafter simply referred to as shutter 101 ) is driven under the control of
撮像部22は、2次元配列された複数の画素を有する撮像素子である。撮像部22は、撮像面に形成された光学像を、各画素が有する光電変換部によって画素信号群(アナログ画像信号)に変換する。撮像部22は例えばCCDイメージセンサまたはCMOSイメージセンサであってよい。
The
本実施形態の撮像部22は、位相差検出方式の自動焦点検出(以下、位相差AF)に用いる1対の像信号を生成可能である。図2は、レンズユニット150の瞳面と、撮像部22が有する画素の光電変換部の対応関係を示している。図2(a)は、画素が複数(ここでは2つ)の光電変換部201a,201bを有する構成、図2(b)は、画素が1つの光電変換部201を有する構成の例を示している。
The
画素にはマイクロレンズ251とカラーフィルタ252が1つずつ設けられている。カラーフィルタ252の色は画素ごとに異なり、あらかじめ定められたパターンで色が配列される。ここでは、一例として原色ベイヤパターンによってカラーフィルタ252が配列されているものとする。この場合、各画素が有するカラーフィルタ252の色は、赤(R)、緑(G)、青(B)のいずれかである。 Each pixel is provided with one microlens 251 and one color filter 252 . The color of the color filter 252 differs for each pixel, and the colors are arranged in a predetermined pattern. Here, as an example, it is assumed that the color filters 252 are arranged in a primary color Bayer pattern. In this case, the color of the color filter 252 that each pixel has is red (R), green (G), or blue (B).
図2(a)の構成では、瞳面253の領域253aから画素に入力する光は光電変換部201aに、領域253bから画素に入力する光は光電変換部201bに入射する。複数の画素について、光電変換部201aから得られる信号群と、光電変換部201bから得られる信号群とを1対の像信号として用いることにより位相差AFを行うことができる。
In the configuration of FIG. 2A, the light input from the
光電変換部201a,201bで得られる信号を個別に扱う場合、個々の信号は焦点検出用信号として機能する。一方、同じ画素の光電変換部201a,201bで得られる信号をまとめて(加算して)扱う場合、可算信号は画素信号として機能する。従って、図2(a)の構成を有する画素は、焦点検出用の画素としても、撮影用の画素としても機能する。撮像部22は、すべての画素が図2(a)に示す構成を有するものとする。
When the signals obtained by the
一方、図2(b)は、専用の焦点検出用画素の構成例を示している。図2(b)に示す画素は、カラーフィルタ252と光電変換部201との間に、光電変換部201へ入射する光を制限する遮光マスク254が設けられている。ここでは、遮光マスク254が、瞳面253の領域253bからの光だけが光電変換部201に入射するような開口部を有している。これにより、画素は図2(a)の光電変換部201bだけを有する状態と実質的に同じになる。同様に、遮光マスク254の開口部を、瞳面253の領域253aからの光だけが光電変換部201に入射するように構成することにより、画素を図2(a)の光電変換部201aだけを有する状態と実質的に同じにすることができる。この2種類の画素を撮像部22に複数対配置しても、位相差AF用の信号対を生成することができる。
On the other hand, FIG. 2B shows a configuration example of dedicated focus detection pixels. The pixel shown in FIG. 2B is provided with a light-shielding
なお、位相差AFの代わりに、あるいは位相差AFと組み合わせて、コントラスト検出方式の自動焦点検出(以下、コントラストAF)を実施してもよい。コントラストAFのみを実施する場合、画素は図2(b)から遮光マスク254を省いた構成とすることができる。
Instead of phase-difference AF, or in combination with phase-difference AF, contrast detection-type automatic focus detection (hereinafter referred to as contrast AF) may be performed. When only contrast AF is performed, the pixels can have a configuration in which the
A/D変換器23は、撮像部22から出力されるアナログ画像信号をデジタル画像信号に変換する。撮像部22がデジタル画像信号を出力可能な場合、A/D変換器23は省略可能である。
The A/
画像処理部24は、A/D変換器23もしくはメモリ制御部15からのデジタル画像信号に対して予め定められた画像処理を適用し、用途に応じた信号や画像データを生成したり、各種の情報を取得および/または生成したりする。画像処理部24は例えば特定の機能を実現するように設計されたASICのような専用のハードウェア回路であってもよいし、DSPのようなプログラマブルプロセッサがソフトウェアを実行することで特定の機能を実現する構成であってもよい。
The
ここで、画像処理部24が適用する画像処理には、前処理、色補間処理、補正処理、検出処理、データ加工処理、評価値算出処理、特殊効果処理などが含まれる。前処理には、信号増幅、基準レベル調整、欠陥画素補正などが含まれる。色補間処理は、撮影時に得られない色成分の値を補間する処理であり、デモザイク処理や同時化処理とも呼ばれる。補正処理には、ホワイトバランス調整、階調補正(ガンマ処理)、レンズ103の光学収差や周辺減光の影響を補正する処理、色を補正する処理などが含まれる。検出処理には、特徴領域(たとえば顔領域や人体領域)やその動きの検出、人物の認識処理などが含まれる。データ加工処理には、合成処理、スケーリング処理、符号化および復号処理、ヘッダ情報生成処理などが含まれる。 評価値算出処理には、自動焦点検出(AF)に用いる信号や評価値の生成、自動露出制御(AE)に用いる評価値の算出処理などが含まれる。特殊効果処理には、ぼかしの付加、色調の変更、リライティング処理、後述する注視位置の検出が有効な際に適用する加工処理などが含まれる。なお、これらは画像処理部24が適用可能な画像処理の例示であり、画像処理部24が適用する画像処理を限定するものではない。
Here, the image processing applied by the
特徴領域の検出処理の具体例について説明する。画像処理部24は、検出対象の画像データ(例えばライブビュー画像のデータ)に水平および垂直方向のバンドパスフィルタを適用し、エッジ成分を抽出する。その後、画像処理部24は、エッジ成分に対して、検出する特徴領域の種類に応じて予め用意されたテンプレートを用いたマッチング処理を適用し、テンプレートに類似した画像領域を検出する。例えば、特徴領域として人間の顔領域を検出する場合、画像処理部24は顔のパーツ(例えば目、鼻、口、耳)のテンプレートを用いてマッチング処理を適用する。
A specific example of the feature region detection processing will be described. The
マッチング処理により、目、鼻、口、耳の領域候補群が検出される。画像処理部24は、目の候補群を、他の目の候補と予め設定された条件(例えば2つの目の距離、傾き等)を満たすものに絞り込む。そして、画像処理部24は、絞り込まれた目の候補群との位置関係を満たする他のパーツ(鼻、口、耳)を対応付ける。さらに、画像処理部24は、予め設定した非顔条件フィルタを適用し、顔に該当しないパーツの組み合わせを除外することにより、顔領域を検出する。画像処理部24は、検出された顔領域の総数、および各顔領域の情報(位置や大きさ、検出の信頼度など)を、システム制御回路50に出力する。システム制御回路50は、画像処理部24から得られた特徴領域の情報をシステムメモリ52に記憶する。
A group of candidate regions for the eyes, nose, mouth, and ears is detected by matching processing. The
なお、ここで説明した人間の顔領域の検出方法は例示であり、機械学習を用いる方法など、他の任意の公知の方法を用いることができる。また、人間の顔に限らず、人物の胴体、手足、動物の顔、ランドマーク、文字、自動車、飛行機、鉄道車両など、他の種類の特徴領域を検出してもよい。 Note that the method of detecting the human face region described here is an example, and any other known method such as a method using machine learning can be used. In addition, detection is not limited to human faces, and other types of feature regions such as human bodies, limbs, animal faces, landmarks, characters, automobiles, airplanes, and railroad vehicles may be detected.
検出した特徴領域は、例えば焦点検出領域の設定に用いることができる。例えば、検出された顔領域の中から主顔領域を決定し、主顔領域に焦点検出領域を設定することができる。これにより、撮影範囲内に存在する顔領域に合焦するようにAFを実行することができる。なお、主顔領域はユーザに選択させてもよい。 The detected characteristic area can be used, for example, for setting the focus detection area. For example, a main face area can be determined from the detected face areas, and a focus detection area can be set in the main face area. As a result, AF can be performed so as to focus on the face area existing within the shooting range. Note that the main face area may be selected by the user.
A/D変換器23からの出力データは、画像処理部24およびメモリ制御部15を介して、あるいはメモリ制御部15だけを介してメモリ32に格納される。メモリ32は、静止画データや動画データのバッファメモリ、画像処理部24の作業用メモリ、表示部28のビデオメモリなどとして用いられる。
Output data from the A/
D/A変換器19は、メモリ32のビデオメモリ領域に格納されている表示用の画像データをアナログ信号に変換して表示部28に供給する。表示部28は、液晶ディスプレイなどの表示デバイスに、D/A変換器19からのアナログ信号に応じた表示を行う。
The D/
動画を撮影しながら、表示用画像データの生成および表示を継続的に行うことにより、表示部28を電子ビューファインダ(EVF)として機能させることができる。表示部28をEVFとして機能させるために表示する画像をスルー画像またはライブビュー画像と呼ぶ。なお、表示部28は、接眼部を通じて観察するように本体100の内部に配置されてもよいし、本体100の筐体表面(例えば背面)に配置されてもよいし、両方に設けられてもよい。
The
本実施形態では、ユーザの注視位置を検出するため、表示部28が少なくとも本体100の内部に配置されているものとする。
In this embodiment, the
不揮発性メモリ56は、電気的に書き換え可能な例えばEEPROMである。不揮発性メモリ56には、システム制御回路50が実行可能なプログラム、各種の設定値、GUIデータなどが記憶される。
The
システム制御回路50は、プログラムを実行可能な1つ以上のプロセッサ(CPU、MPUなどとも呼ばれる)を有する。システム制御回路50は、不揮発性メモリ56に記録されたプログラムをシステムメモリ52にロードしてプロセッサによって実行することにより、撮像装置1の機能を実現する。
The
システムメモリ52はシステム制御回路50が実行するプログラムやプログラムの実行中に使用する定数、変数などを保持するために用いられる。
システムタイマー53は各種制御に用いる時間および内蔵時計の時間を計測する。
The
The
電源スイッチ72は撮像装置1の電源のON、OFFを切り替える操作部材である。
モード切替スイッチ60、第1シャッタースイッチ62、第2シャッタースイッチ64、操作部70はシステム制御回路50に指示を入力するための操作部材である。
A
A
モード切替スイッチ60は、システム制御回路50の動作モードを静止画記録モード、動画撮影モード、再生モード等のいずれかに切り替える。静止画記録モードに含まれるモードとして、オート撮影モード、オートシーン判別モード、マニュアルモード、絞り優先モード(Avモード)、シャッター速度優先モード(Tvモード)がある。また、撮影シーン別の撮影設定となる各種シーンモード、プログラムAEモード、カスタムモード等がある。モード切替スイッチ60で、メニューボタンに含まれるこれらのモードのいずれかに直接切り替えられる。あるいは、モード切替スイッチ60でメニューボタンに一旦切り換えた後に、メニューボタンに含まれるこれらのモードのいずれかに、他の操作部材を用いて切り替えるようにしてもよい。同様に、動画撮影モードにも複数のモードが含まれていてもよい。
A
第1シャッタースイッチ62は、シャッターボタン61の半押しでONとなり第1シャッタースイッチ信号SW1を発生する。システム制御回路50は第1シャッタースイッチ信号SW1を静止画の撮影準備指示と認識し、撮影準備動作を開始する。撮影準備動作には、例えばAF処理、自動露出制御(AE)処理、オートホワイトバランス(AWB)処理、EF(フラッシュプリ発光)処理などが含まれるが、これらは必須でなく、また他の処理が含まれてもよい。
The
第2シャッタースイッチ64は、シャッターボタン61の全押しでONとなり、第2シャッタースイッチ信号SW2を発生する。システム制御回路50は、第2シャッタースイッチ信号SW2を静止画の撮影指示と認識し、撮影処理および記録処理を実行する。
The
操作部70は、シャッターボタン61、モード切替スイッチ60、電源スイッチ72以外の操作部材の総称である。操作部70には例えば、方向キー、セット(実行)ボタン、メニューボタン、動画撮影ボタンなどが含まれる。なお、表示部28がタッチディスプレイの場合、表示とタッチ操作によって実現されるソフトウェアキーもまた操作部70を構成する。メニューボタンが操作されるとシステム制御回路50は、方向キーおよびセットボタンを用いて操作可能なメニュー画面を表示部28に表示させる。ユーザはソフトウェアキーやメニュー画面の操作を通じて、撮像装置1の設定を変更することができる。
The
図3(a)は、視線入力部701の構成例を模式的に示す側面図である。視線入力部701は、本体100の内部に設けられた表示部28を接眼部を通じて覗いているユーザの眼球501aの光軸の回転角を検出するための画像(視線検出用の画像)を取得するユニットである。
FIG. 3A is a side view schematically showing a configuration example of the line-of-
視線検出用の画像を画像処理部24で処理し、眼球501aの光軸の回転角を検出する。回転角は視線の方向を表すため、回転角と、予め設定された眼球501aから表示部28までの距離とに基づいて、表示部28上の注視位置を推定することができる。なお、注視位置の推定において、予め行ったキャリブレーション動作によって取得した、ユーザの固有情報を考慮してもよい。注視位置の推定は画像処理部24が実行してもシステム制御回路50が実行してもよい。視線入力部701と画像処理部24(またはシステム制御回路50)とは、撮像装置1が表示部28に表示している画像におけるユーザの注視位置を検出可能な検出手段を構成する。
The image for sight line detection is processed by the
表示部28に表示されている画像は、接眼レンズ701dおよびダイクロックミラー701cを通じてユーザに視認される。照明光源701eは、接眼部を通じて筐体の外部方向に赤外光を放射する。眼球501aで反射された赤外光は、ダイクロイックミラー701cに入射する。ダイクロックミラー701cは入射した赤外光を上方に反射する。ダイクロックミラー701cの上方には受光レンズ701bおよび撮像素子701aが配置されている。撮像素子701aは、受光レンズ701bが形成する赤外光の像を撮影する。撮像素子701aはモノクロ撮像素子であってよい。
The image displayed on the
撮像素子701aは、撮影により得られたアナログ画像信号を、A/D変換器23に出力する。A/D変換器23は、得られたデジタル画像信号を画像処理部24に出力する。画像処理部24は、画像データから眼球像を検出し、さらに、眼球像内で瞳孔領域を検出する。画像処理部24は、眼球像における瞳孔領域の位置から、眼球の回転角(視線方向)を算出する。眼球像を含んだ画像から視線方向を検出する処理は、公知の方法によって実施することができる。
The
図3(b)は、表示部28が撮像装置1の背面に設けられている場合の視線入力部701の構成例を模式的に示す側面図である。この場合も、表示部28を観察しているユーザの顔500が存在するであろう方向に赤外光を照射する。そして、撮像装置1の背面に設けられたカメラ701fで撮影することにより、ユーザの顔500の赤外像を取得し、眼球501aおよび/または501bの像から瞳孔領域を検出することにより、視線方向を検出する。
FIG. 3B is a side view schematically showing a configuration example of the line-of-
なお、表示部28上の注視位置を最終的に検出可能であれば、視線入力部701の構成および画像処理部24(またはシステム制御回路50)の処理に特に制限はなく、他の任意の構成および処理を採用しうる。
As long as the gaze position on the
図1に戻り、電源制御部80は、電池検出回路、DC-DCコンバータ、通電するブロックを切り替えるスイッチ回路等により構成される。電源制御部80は、電源部30が電池の場合、装着の有無、種類、残量を検出する。また、電源制御部80は、これらの検出結果およびシステム制御回路50の指示に基づいてDC-DCコンバータを制御し、必要な電圧を必要な期間、記録媒体200を含む各部へ供給する。
Returning to FIG. 1, the power
電源部30は、アルカリ電池やリチウム電池などの一次電池、NiCd電池、NiMH電池、Li電池などの二次電池、および/またはACアダプターなどの1つ以上を融資うる。
The
記録媒体I/F18は、メモリカードやハードディスク等の記録媒体200とのインターフェースである。記録媒体200は着脱できても、できなくてもよい。記録媒体200は撮影によって得られた画像データの記録先である。
A recording medium I/
通信部54は、無線または有線によって接続された外部装置と、画像信号や音声信号を送受信する。通信部54は無線LAN(Local Area Network)、USB(Universal Serial Bus)など1つ以上の通信規格をサポートする。システム制御回路50は、通信部54を通じて、撮像部22による撮影で得られた画像データ(スルー画像を含む)や、記録媒体200に記録された画像データを外部装置に送信することができる。また、システム制御回路50は、通信部54を通じて外部機器から画像データやその他の各種情報を受信することができる。
The
姿勢検知部55は重力方向に対する撮像装置1の姿勢を検知する。姿勢検知部55で検知された姿勢に基づいて、撮影時に撮像装置1を横向きであったか縦向きであったかを判別できる。システム制御回路50は、撮影時の撮像装置1の姿勢を画像データファイルへ付加したり、画像の向きを揃えてから記録したりすることができる。姿勢検知部55としては、加速度センサやジャイロセンサなどを用いることができる。
The
[注視位置検出動作]
図4は、撮像装置1の注視位置検出動作に関するフローチャートである。注視位置検出動作は、視線検出機能が有効に設定されている場合に実行される。また、注視位置検出動作は、ライブビュー表示動作と並行して実施することができる。
[Gaze position detection operation]
FIG. 4 is a flowchart relating to gaze position detection operation of the
S2で、システム制御回路50は、現在設定されている撮影モードを取得する。撮影モードはモード切替スイッチ60で設定可能である。なお、モード切替スイッチ60でシーン選択モードが設定されている場合には、シーン選択モード内で設定されているシーンの種類も撮影モードとして取り扱う。
In S2, the
図5は、撮像装置1の外観例を示す図である。図5(a)はモード切替スイッチ60の配置例を示している。また、図5(b)は、モード切替スイッチ60の上面図であり、選択可能な撮影モードの例を示している。例えば、Tvはシャッタスピード優先モード、AvはF値優先モード、Mはマニュアル設定モード、Pはプログラムモード、SCNはシーン選択モードを示している。所望の撮影モードを示す文字がマーク63の位置にくるようにモード切替スイッチ60を回転させることで、所望の撮影モードを設定することができる。図5(b)は、シーン選択モードが設定されている状態を示している。
FIG. 5 is a diagram showing an example of the appearance of the
シーン選択モードは、特定のシーンや特定の被写体を撮影するための撮影モードである。そのため、シーン選択モードでは、シーンや被写体の種類が設定される必要がある。システム制御回路50は、設定されたシーンや被写体の種類に適した撮影条件(シャッタスピード、絞り値、感度など)やAFモードを設定する。
Scene selection mode is a shooting mode for shooting a specific scene or a specific subject. Therefore, in the scene selection mode, it is necessary to set the type of scene and subject. The
本実施形態では、シーン選択モードにおけるシーンや被写体の種類は、図5(c)に示すように、表示部28に表示されるメニュー画面の操作を通じて設定することができる。ここでは、一例としてポートレート、風景、キッズ、スポーツのいずれかを設定可能であるが、より多くの選択肢が存在してもよい。上述したように、シーン選択モードでは、設定されているシーンや被写体の種類を、撮影モードとして取り扱う。
In this embodiment, the type of scene and subject in the scene selection mode can be set by operating the menu screen displayed on the
S3で、システム制御回路50は、表示用画像データを取得する。システム制御回路50は、メモリ32のビデオメモリ領域に格納されている、これから表示されるライブビュー表示用の画像データを読み出し、画像処理部24に供給する。
In S3, the
S4で、生成手段としての画像処理部24は、システム制御回路50から供給された表示用画像データに対して加工処理を適用し、注視位置検出用の表示用画像データを生成する。そして、画像処理部24は、生成した表示用画像データを、メモリ32のビデオメモリ領域に格納し直す。なお、ここではS3でビデオメモリ領域から取得した表示用画像データを加工するものとしたが、表示用画像データを画像処理部24で生成する際に、加工処理を適用し、最初から注視位置検出用の表示用画像データを生成してもよい。
In S4, the
ここで、注視位置検出のために画像処理部24が適用する加工処理の例についていくつか説明する。注視位置検出のために適用する加工処理は、撮像装置1の設定情報(ここでは一例として撮影モード)に基づいて判定される特徴領域が他の領域より視覚的に強調される加工処理である。この加工処理により、ユーザが所望の被写体に素早く視線を合わせやすくなる。設定情報に対応してどのような特徴情報を検出すべきか、特徴情報を検出するために必要なパラメータなどは、設定情報ごとに、例えば不揮発性メモリ56に予め記憶しておくことができる。例えば、特定のシーンを撮影するための撮影モードに関連付けて、その特定のシーンに応じた主被写体の種類や、その主被写体の特徴領域を検出するためのテンプレートやパラメータを予め記憶しておくことができる。
Here, some examples of processing applied by the
(例1)
図6は、シーン選択モードでシーンが「スポーツ」に設定されている場合に適用しうる加工処理の例を模式的に示している。図6(a)が加工前の表示用画像データが表す画像を示し、図6(b)~図6(d)がそれぞれ加工後の表示用画像データが表す画像を示している。
(Example 1)
FIG. 6 schematically shows an example of processing that can be applied when the scene is set to "sports" in the scene selection mode. FIG. 6(a) shows an image represented by the display image data before processing, and FIGS. 6(b) to 6(d) respectively show images represented by the display image data after processing.
シーン選択モードで「スポーツ」が設定されている場合、ユーザはスポーツシーンを撮影することを意図していると推測できる。この場合、画像処理部24は、動いている人物被写体の領域を強調すべき特徴領域と判定し、特徴領域を強調する加工処理を適用する。
If "sports" is set in the scene selection mode, it can be inferred that the user intends to shoot a sports scene. In this case, the
具体的には、画像処理部24は、特徴領域として人体領域を検出するとともに、1つ前の検出結果(例えば1フレーム前のライブビュー画像における検出結果)との比較により、移動している人物領域を特定する。そして、画像処理部24は、現フレームのライブビュー画像に対して、移動している人物領域を強調する加工処理を適用する。
Specifically, the
ここでは、図6(a)に示す現フレームの画像において、移動している人物領域P1、P2、P3が検出されたものとする。そして、図6(b)は、人物領域P1~P3を強調する加工処理として、人物領域を囲う枠A1~A3を重畳する処理を適用した例を示している。 Here, it is assumed that moving person areas P1, P2, and P3 are detected in the image of the current frame shown in FIG. 6(a). FIG. 6B shows an example in which processing for superimposing frames A1 to A3 surrounding the person regions is applied as the processing for emphasizing the person regions P1 to P3.
また、図6(c)は、人物領域P1~P3を強調する加工処理として、人物領域P1~P3を囲う領域の表示は変更せず、他の領域A4の輝度を下げる処理を適用した例を示している。また、図6(d)は、人物領域P1~P3を強調する加工処理として、人物領域P1~P3の全てを囲う矩形領域A5の表示は変更せず、他の領域の輝度を下げる処理を適用した例を示している。 FIG. 6(c) shows an example in which, as processing for emphasizing the person areas P1 to P3, the display of the area surrounding the person areas P1 to P3 is not changed, and the process of lowering the brightness of the other area A4 is applied. showing. Also, in FIG. 6D, as the processing for emphasizing the person areas P1 to P3, the display of the rectangular area A5 surrounding all of the person areas P1 to P3 is not changed, and the process of lowering the luminance of other areas is applied. example.
このように、設定されているシーンや主被写体の種類に応じた特徴領域を検出し、検出された特徴領域を強調する加工処理を適用することにより、ユーザが意図している主被写体を見つけやすくすることが期待できる。ユーザが意図している主被写体を見つけやすくなることで、ユーザの視線が主被写体を注視する様になるまでの時間を短縮する効果が期待できる。 In this way, by detecting a characteristic region according to the set scene and the type of the main subject, and applying processing that emphasizes the detected characteristic region, the user can easily find the intended main subject. can be expected to By making it easier for the user to find the main subject intended by the user, an effect of shortening the time required for the user's line of sight to gaze at the main subject can be expected.
なお、特徴領域を強調する加工処理は上述した例に限定されない。例えば、特徴領域として検出された人体領域P1、P2、P3のエッジを強調する加工処理であってもよい。また、枠A1~A3を点滅させたり、特定の色で表示したりすることもできる。また、図6(c)および図6(d)において輝度を下げる代わりにモノクロ表示としてもよい。また、特徴領域が人間や動物の領域である場合には、画像全体をサーモグラフィ風の擬似カラー画像に変換することで、人物や動物の領域を強調してもよい。 Note that the processing for emphasizing the characteristic region is not limited to the example described above. For example, processing may be performed to emphasize the edges of the human body regions P1, P2, and P3 detected as characteristic regions. Also, the frames A1 to A3 can be blinked or displayed in a specific color. Further, instead of lowering the brightness in FIGS. 6(c) and 6(d), monochrome display may be used. Moreover, when the feature region is a human or animal region, the human or animal region may be emphasized by converting the entire image into a thermography-like pseudo-color image.
(例2)
図7(a)、図7(b)は、シーン選択モードで主被写体が「キッズ」に設定されている場合に適用しうる加工処理の例を模式的に示している。図7(a)が加工前の表示用画像データが表す画像を示し、図7(b)が加工後の表示用画像データが表す画像を示している。
(Example 2)
FIGS. 7A and 7B schematically show examples of processing that can be applied when the main subject is set to "kids" in the scene selection mode. FIG. 7A shows an image represented by the display image data before processing, and FIG. 7B shows an image represented by the display image data after processing.
シーン選択モードで「キッズ」が設定されている場合、ユーザは子供を主被写体として撮影することを意図していると推測できる。この場合、画像処理部24は、子供と推定される人物被写体の領域を強調すべき特徴領域と判定し、特徴領域を強調する加工処理を適用する。
If "Kids" is set in the scene selection mode, it can be inferred that the user intends to shoot a child as the main subject. In this case, the
特徴領域として検出された人物の領域が、大人であるか子供であるかは、例えば胴体の長さもしくは身長に対する頭部の長さの割合が閾値以下なら子供と判定したり、機械学習を利用して判定したりすることができるが、これらに限定されない。事前に子供として登録されている人物だけを顔認証によって検出してもよい。 Whether a human region detected as a feature region is an adult or a child can be determined as a child if, for example, the ratio of head length to body length or height is less than a threshold, or machine learning can be used. However, it is not limited to these. Only persons registered as children in advance may be detected by face authentication.
ここでは、図7(a)に示す現フレームの画像において、人物領域P1、K1、K2が検出され、領域K1、K2が子供と判定されたとする。そして、図7(b)は、子供の領域K1、K2を強調する加工処理として、子供の領域K1、K2のエッジを強調し、さらに子供の領域K1、K2以外の領域の階調を削減する処理を適用した例を示している。階調の削減は、最大輝度の低減(輝度の圧縮)、輝度階調数の削減(256階調から16階調にする)などであってよいが、これらに限定されない。例1で示した様な、輝度の低下やモノクロ表示を適用してもよい。 Here, it is assumed that person areas P1, K1, and K2 are detected in the image of the current frame shown in FIG. 7A, and areas K1 and K2 are determined to be children. In FIG. 7B, as processing for emphasizing the child areas K1 and K2, the edges of the child areas K1 and K2 are emphasized, and the gradation of areas other than the child areas K1 and K2 is reduced. An example of applying the treatment is shown. Reduction of gradation may be reduction of maximum luminance (compression of luminance), reduction of number of luminance gradations (from 256 gradations to 16 gradations), etc., but is not limited to these. Reduction in luminance or monochrome display as shown in Example 1 may be applied.
(例3)
図7(a)、図7(c)は、シーン選択モードで主被写体が「文字」に設定されている場合に適用しうる加工処理の例を模式的に示している。図7(a)が加工前の表示用画像データが表す画像を示し、図7(c)が加工後の表示用画像データが表す画像を示している。
(Example 3)
FIGS. 7A and 7C schematically show examples of processing that can be applied when the main subject is set to "text" in the scene selection mode. FIG. 7A shows an image represented by the display image data before processing, and FIG. 7C shows an image represented by the display image data after processing.
シーン選択モードで「文字」が設定されている場合、ユーザはシーン内に存在する文字に注目して撮影することを意図していると推測できる。この場合、画像処理部24は、特徴領域として文字と推定される領域を強調すべき特徴領域と判定し、特徴領域を強調する加工処理を適用する。
When "character" is set in the scene selection mode, it can be inferred that the user intends to take a picture while paying attention to the characters existing in the scene. In this case, the
ここでは、図7(a)に示す現フレームの画像において、文字領域MOが検出されたものとする。そして、図7(c)は、文字領域MOを強調する加工処理として、文字領域MOのエッジを強調するとともに、文字領域MO以外の領域の階調を削減する処理を適用した例を示している。諧調の削減方法については例2と同様であってよい。 Here, it is assumed that the character area MO is detected in the image of the current frame shown in FIG. 7(a). FIG. 7(c) shows an example in which processing for emphasizing the edges of the character area MO and reducing the gradation of areas other than the character area MO is applied as processing for emphasizing the character area MO. . The gradation reduction method may be the same as in Example 2.
例2および例3で説明した様に、同じ元画像(図7(a))に対して、設定されている撮影モードによって異なる加工処理が適用されうる。なお、例2および例3においても、例1と同様の加工処理を適用してもよい。また、強調すべき領域に対するエッジの強調と他の領域に対する輝度や階調の低減とは、一方のみ適用してもよい。 As described in Examples 2 and 3, different processing can be applied to the same original image (FIG. 7A) depending on the set shooting mode. In addition, in Examples 2 and 3, processing similar to that in Example 1 may be applied. Further, only one of the edge enhancement for the region to be enhanced and the luminance or gradation reduction for the other region may be applied.
本実施形態において注視位置検出用の画像データに対して適用しうる加工処理は、撮像装置の設定情報に基づいて決定される強調すべき領域(特徴領域)が他の領域より視覚的に強調される加工処理である。加工処理は例えば以下の4通りのいずれかであってよい。
(1)強調すべき領域は加工せず、他の領域を(輝度や階調を削減するなどして)目立たなくなるように加工する処理
(2)強調すべき領域を強調し(エッジの強調など)、他の領域は加工しない処理
(3)強調すべき領域を強調し(エッジの強調など)、さらに、他の領域を(輝度や階調を削減するなどして)目立たなくするように加工する処理
(4)画像全体を加工して、強調すべき領域を強調する処理(擬似カラー画像への変換など)
なお、これらは例示であり、強調すべき領域が他の領域に対して視覚的に強調される(目立つ)ような任意の加工処理を適用可能である。
Processing that can be applied to image data for gaze position detection in the present embodiment is to visually emphasize a region to be emphasized (characteristic region) determined based on setting information of an imaging device from other regions. It is a processing process that Processing may be, for example, any one of the following four types.
(1) A process that does not process the area that should be emphasized and processes other areas (by reducing the brightness or gradation) so that it does not stand out (2) Emphasizes the area that should be emphasized (emphasis of edges, etc.) ) and do not process other areas. (3) Emphasize the area to be emphasized (edge enhancement, etc.), and process other areas to make them less noticeable (such as by reducing brightness and gradation). (4) processing the entire image to emphasize the area to be emphasized (conversion to a pseudo-color image, etc.)
It should be noted that these are examples, and arbitrary processing can be applied such that the area to be emphasized is visually emphasized (conspicuous) with respect to other areas.
図4に戻り、S5でシステム制御回路50は、S4で画像処理部24が生成した表示用の画像データを表示部28に表示させる。また、システム制御回路50は、画像処理部24が視線入力部701からの視線検出用画像に基づいて検出した眼球の光軸の回転角を、画像処理部24から取得する。システム制御回路50は、取得した回転角に基づいて、ユーザが注視している、表示部28に表示されている画像内の座標(注視位置)を求める。なお、システム制御回路50は、得られた注視位置を示すマークなどをライブビュー画像に重畳表示させることで、注視位置をユーザに通知もしくはフィードバックしてもよい。
Returning to FIG. 4, in S5, the
以上で、注視位置検出動作は終了する。注視位置検出動作によって得られた注視位置は、焦点検出領域の設定、主被写体の選択などに用いることができるが、これらに限定されない。なお、撮影で得られた画像データを記録する場合、撮影時に検出した注視位置の情報を画像データと関連づけて記録してもよい。例えば、画像データを格納するデータファイルのヘッダなどに記録される付随情報として、撮影時の注視位置の情報を記録することができる。画像データに関連づけて記録された注視位置の情報は、画像データを取り扱うアプリケーションプログラムなどにおいて、主被写体の特定などに利用することができる。 Thus, the gaze position detection operation ends. The gaze position obtained by the gaze position detection operation can be used for setting the focus detection area, selecting the main subject, etc., but is not limited to these. When recording image data obtained by photographing, information on the gaze position detected at the time of photographing may be recorded in association with the image data. For example, it is possible to record the gaze position information at the time of photographing as accompanying information recorded in the header of a data file that stores image data. The gaze position information recorded in association with the image data can be used to identify the main subject in an application program or the like that handles the image data.
なお、視線入力機能が有効に設定されていない場合、画像処理部24は表示用の画像データに対して視線入力を支援するための加工処理は適用しないが、目的の異なる加工処理は適用しうる。
Note that when the line-of-sight input function is not set to be valid, the
以上説明したように、本実施形態では、視線入力が有効な際に表示する画像に対し、撮像装置の設定情報に基づいて判定された特徴領域が他の領域より視覚的に強調される加工処理を適用するようにした。これにより、ユーザが主被写体として意図している可能性の高い領域が視認しやすくなり、主被写体を注視するまでの時間が短縮される効果が期待できる。 As described above, in the present embodiment, in the image displayed when line-of-sight input is valid, processing is performed in which the characteristic region determined based on the setting information of the imaging device is visually emphasized over the other regions. applied. As a result, it becomes easier for the user to visually recognize the area that is likely to be intended as the main subject, and the effect of shortening the time required to gaze at the main subject can be expected.
なお、本実施形態では、強調すべき領域を、撮影モードの設定に基づいて判定したが、ユーザが意図している可能性の高い主被写体の種類が判定可能であれば、他の設定を用いてもよい。 Note that in the present embodiment, the region to be emphasized is determined based on the shooting mode settings. may
●(第2実施形態)
次に、第2実施形態について説明する。第2実施形態は第1の実施形態における表示部28としてXRゴーグル(頭部装着型の表示装置もしくはHMD)を用いる場合の実施形態である。なお、XRとは、VR(仮想現実)、AR(拡張現実)、MR(複合現実)の総称である。
● (Second embodiment)
Next, a second embodiment will be described. The second embodiment is an embodiment in which XR goggles (head-mounted display device or HMD) are used as the
図8(a)の左図はXRゴーグル800の外観例を示す斜視図である。XRゴーグル800は、図8(a)の右図に示す顔の領域SOに装着するの一般的である。図8(b)は、XRゴーグル800の装着面(顔が接する面)を模式的に示した図である。また、図8(c)は、XRゴーグル800の装着時における、XRゴーグル800の接眼レンズ701dと表示部28A、28B、ユーザの右目501a、左目501bの位置関係を模式的に示す上面図である。
The left view of FIG. 8A is a perspective view showing an example of the appearance of the
XRゴーグル800は、右目501a用の表示部28Aと左目501b用の表示部28Bを有し、視差画像対を構成する右目用画像を表示部28Aに、左目用画像を表示部28Bに表示させることにより、立体視を可能としている。そのため、第1実施形態で説明した接眼レンズ701dが表示部28Aおよび28Bのそれぞれについて設けられている。
The
なお、本実施形態では撮像部22が図2(a)に示した構成の画素を有するものとする。この場合、光電変換部201aから得られる画素信号群から右目用画像を、光電変換部201bから得られる画素信号群から左目用画像を生成することができる。レンズユニット150をステレオ映像を撮影可能なレンズとするなど、他の構成を用いて右目用画像および左目用画像を生成してもよい。また、視線入力部701は、XRゴーグルの接眼部に設けられ、右目、左目の一方について視線検出用画像を生成するものとする。
In this embodiment, it is assumed that the
それ以外の構成は、図1に示した撮像装置1と同様の構成により実施可能であるため、以下では撮像装置1の構成要素を用いて説明する。なお、本実施形態では、ライブビュー画像ではなく、予め記録媒体200に記録済みの右目用画像および左目用画像を用いて表示用画像を生成するものとする。
Since the rest of the configuration can be implemented with the same configuration as that of the
図9は、本実施形態における注視位置検出動作に関するフローチャートであり、第1実施形態と同様の処理を行うステップには、図4と同じ参照符号を付与することにより、重複する説明を省略する。 FIG. 9 is a flowchart relating to gaze position detection operation in this embodiment, and redundant description is omitted by assigning the same reference numerals as in FIG. 4 to steps that perform the same processing as in the first embodiment.
S91で、システム制御回路50は、現在設定されている体験モードを取得する。本実施形態では撮影を行わないため、XRに関する体験モードを取得する。体験モードは、例えばXR体験を行う仮想環境の種類であり、例えば「美術館」、「博物館」、「動物園」、「ダイビング」といった選択肢が用意される。なお、体験モードは、リモートコントローラを用いたり、XRゴーグルに設けられた入力デバイスを用いたり、メニュー画面を表示して視線で選択したりする方法によって設定可能である。なお、記録媒体200には、体験モードとして選択可能な仮想環境のそれぞれに対応した表示用画像データが記憶されているものとする。
In S91, the
S3でシステム制御回路50は、S91で選択された体験モードに対応した表示用画像データを記録媒体200から読み出すことによって取得し、画像処理部24に供給する。
In S3, the
S92で、画像処理部24は、システム制御回路50から供給された表示用画像データに対して加工処理を適用し、注視位置検出用の表示用画像データを生成する。本実施形態では表示画像データが右目用画像と左目用画像とを含んだステレオ画像データであるため、画像処理部24は、右目用画像と左目用画像の両方に対して加工処理を適用する。
In S92, the
S92で画像処理部24が適用する加工処理は、XR体験を提供する装置(ここでは撮像装置1)の設定情報(ここでは一例として体験モード)に基づいて判定される特徴領域が他の領域より視覚的に強調される加工処理である。この加工処理により、XR体験の没入感が増す効果が期待できる。
In the processing applied by the
S92で画像処理部24が適用する加工処理の例について説明する。
(例4)
図10は、体験モードが「ダイビング」に設定されている場合に適用しうる加工処理の例を模式的に示している。図10(a)は加工前の表示用画像データが表す画像を示している。
An example of processing applied by the
(Example 4)
FIG. 10 schematically shows an example of processing that can be applied when the experience mode is set to "diving". FIG. 10A shows an image represented by display image data before processing.
体験モードで「ダイビング」が設定されている場合、ユーザは海中の生物に興味を有していると推測できる。この場合、画像処理部24は、動いている海中の生物の領域を強調すべき特徴領域と判定し、特徴領域を強調する加工処理を適用する。
When "diving" is set in the experience mode, it can be inferred that the user is interested in underwater creatures. In this case, the
具体的には、画像処理部24は、特徴領域として魚類および海獣などの領域を検出するとともに、過去の検出結果との比較により、移動している特徴領域を特定する。そして、画像処理部24は、処理対象のフレーム画像に対して、移動している特徴領域を強調する加工処理を適用する。
Specifically, the
ここでは、図10(a)に示す処理対象のフレーム画像において、移動している魚および人間の領域である特徴領域f1~f4が検出されたものとする。この場合、画像処理部24は、特徴領域f1~f4を強調する加工処理として、特徴領域f1~f4の表示は維持し、他の領域の色数を低減する(例えばモノクロにする)加工処理を適用する。なお、特徴領域を強調する加工処理は、第1実施形態で説明したものを含む、他の加工処理であってもよい。
Here, it is assumed that characteristic regions f1 to f4, which are regions of moving fish and humans, are detected in the frame image to be processed shown in FIG. 10(a). In this case, the
図9に戻り、S5でシステム制御回路50は、システム制御回路50は、画像処理部24が視線入力部701からの視線検出用画像に基づいて検出した眼球の光軸の回転角を、画像処理部24から取得する。システム制御回路50は、取得した回転角に基づいて、ユーザが注視している、表示部28Aまたは28Bに表示されている画像内の座標(注視位置)を求める。そして、システム制御回路50は、S92で画像処理部24が生成した右目用および左目用の画像データに注視位置を示すマークを重畳して、表示部28Aおよび28B表示させる。
Returning to FIG. 9, in S5, the
S93でシステム制御回路50は、S5で検出した注視位置情報を用いて表示用画像にさらなる加工処理を適用するか否かを判定する。この判定は、例えば注視位置情報の利用に関するユーザ設定に基づいて実行するなど、任意の判定条件に基づいて実行することができる。
In S93, the
システム制御回路50は、注視位置情報を用いないと判定されれば注視位置検出動作を終了する。一方、システム制御回路50は、視線位置情報を用いると判定されればS94を実行する。
If it is determined that the gaze position information is not used, the
S94でシステム制御回路50は、メモリ32のビデオメモリ領域に格納されている、表示用画像データを読み出し、画像処理部24に供給する。画像処理部24は、S5で検出された注視位置を用いて、表示用画像データに対してさらに加工処理を適用する。
In S<b>94 , the
S94で行う、注視位置情報を用いた加工処理の例を図10(b)および図10(c)に示す。表示用画像データには、S5で検出された注視位置を示すマーカーP1が重畳されている。ここでは、検出された注視位置p1が特徴領域f1内であるため、ユーザは特徴領域f1に興味を持っている可能性が高い。そのため、S92で加工処理を適用して強調した特徴領域f1~f4のうち、特徴領域f1が他の特徴領域f2~f4より視覚的に強調されるような加工処理を適用する。 FIGS. 10(b) and 10(c) show an example of processing using gaze position information performed in S94. A marker P1 indicating the gaze position detected in S5 is superimposed on the display image data. Here, since the detected gaze position p1 is within the characteristic region f1, there is a high possibility that the user is interested in the characteristic region f1. Therefore, among the characteristic regions f1 to f4 emphasized by applying the processing processing in S92, the processing is applied such that the characteristic region f1 is visually emphasized more than the other characteristic regions f2 to f4.
例えば、S92では特徴領域f1~f4はカラー表示を維持し、他の領域をモノクロ表示することにより、特徴領域f1~f4を強調したとする。この場合、S94で画像処理部24は、特徴領域f2~f4もモノクロ表示とし、特徴領域f1、あるいは注視位置と注視位置に最も近い特徴領域(ここでは特徴領域f1)を包含する領域はカラー表示を維持するようにする。図10(b)は、注視位置p1と特徴領域f1を包含する領域C1はカラー表示が維持され、特徴領域f2~f4を含む他の領域はモノクロ表示とする加工処理が行われた状態を模式的に示している。ここでは、特徴領域f2~f4を、特徴量域以外の領域と同じ表示形態に変更するものとしたが、特徴領域f2~f4は特徴領域f1よりは目立たず、特徴領域以外の領域よりは目立つような表示形態としてもよい。
For example, in S92, it is assumed that the characteristic regions f1 to f4 are emphasized by maintaining the color display of the characteristic regions f1 to f4 and displaying the other regions in monochrome. In this case, in S94, the
このように、注視位置を用いて強調すべき特徴領域を絞り込むことにより、注視位置を用いない場合よりもユーザが興味を持っている特徴領域をより正確に把握し、強調する加工処理を適用することができる。そのため、XR体験時の没入感が増す効果が一層期待できる。また、注視位置を利用したアプリケーションにおいて、意図している被写体を注視していることをユーザが確認することが容易になるという効果も実現できる。 In this way, by narrowing down the feature areas to be emphasized using the gaze position, the feature area that the user is interested in can be grasped more accurately than when the gaze position is not used, and processing for enhancing can be applied. be able to. Therefore, the effect of increasing the immersive feeling during the XR experience can be expected. In addition, it is possible to realize an effect that the user can easily confirm that the user is gazing at the intended subject in an application that uses the gaze position.
検出された注視位置の時間変化を利用することもできる。図10(c)において、時刻T=0で検出された注視位置がP1、T=1(単位は任意)で検出された注視位置がP2であったとする。この場合、時刻T=0から1の間に、注視位置がP1からP2へ移動しているため、ユーザは視線を左方向に移動させていることがわかる。 It is also possible to use the temporal change in the detected gaze position. In FIG. 10C, it is assumed that the gaze position detected at time T=0 is P1, and the gaze position detected at T=1 (arbitrary unit) is P2. In this case, since the gaze position moves from P1 to P2 between times T=0 and 1, it can be seen that the user moves the line of sight to the left.
この場合、注視位置の移動方向に存在する特徴領域f4について強調することで、ユーザが新しい特徴領域を注視しやすくなる効果が期待できる。ここでは、カラー表示を維持するC2を、注視位置の移動方向における距離が最短である特徴領域f4を包含するように拡張した例を示している。ここでは強調する領域を注視位置の移動方向に拡張する例を示したが、領域を拡張せずに、注視位置の移動に合わせて移動させてもよい。 In this case, by emphasizing the characteristic region f4 existing in the movement direction of the gaze position, an effect that the user can easily gaze at a new characteristic region can be expected. Here, an example is shown in which C2 that maintains color display is expanded to include the characteristic region f4 that has the shortest distance in the movement direction of the gaze position. Although an example in which the region to be emphasized is expanded in the moving direction of the gaze position is shown here, the region may be moved according to the movement of the gaze position without expanding the region.
このように、視線位置の経時変化を考慮して強調する領域を決定することにより、ユーザがこれから注視するであろう被写体について強調することができ、ユーザが所望の被写体を容易に注視することを支援できる効果が期待できる。 In this way, by determining the area to be emphasized in consideration of the temporal change of the line-of-sight position, it is possible to emphasize the subject that the user is likely to gaze at in the future, and to facilitate the user to gaze at the desired subject. You can expect the effect that can be supported.
S92で画像処理部24が適用する加工処理の別の例について説明する。
(例5)
図11は、体験モードが「美術館」に設定されている場合に適用しうる加工処理の例を模式的に示している。図11(a)は加工前の表示用画像データが表す画像を示している。
Another example of processing applied by the
(Example 5)
FIG. 11 schematically shows an example of processing that can be applied when the experience mode is set to "museum". FIG. 11A shows an image represented by display image data before processing.
体験モードで「美術館」が設定されている場合、ユーザは絵画や彫刻などの美術品に興味を有していると推測できる。この場合、画像処理部24は、美術品の領域を強調すべき特徴領域と判定し、特徴領域を強調する加工処理を適用する。
If "museum" is set in the experience mode, it can be inferred that the user is interested in works of art such as paintings and sculptures. In this case, the
ここでは、図11(a)に示す処理対象のフレーム画像において、美術品の領域として特徴領域B1~B5が検出されたものとする。この場合、S92で画像処理部24は、例えば図11(b)に示すように、特徴領域B1~B5を強調する加工処理として、特徴領域B1~B5の表示は維持し、他の領域の輝度を低減する加工処理を適用する。なお、特徴領域を強調する加工処理は、第1実施形態で説明したものを含む、他の加工処理であってもよい。
Here, it is assumed that feature areas B1 to B5 are detected as areas of works of art in the frame image to be processed shown in FIG. 11(a). In this case, in S92, the
注視位置情報を用いて表示用画像にさらなる加工処理を適用する場合、S94で画像処理部24は、例えば図11(c)に示すように、(マーカp3で示される)注視位置を含んだ特徴領域B2に、予め記憶された付随情報CM1を重畳表示することができる。付随情報CM1に特に制限は無く、絵画であれば例えば絵画の名称、作者、制作年などの書誌的情報など、特徴領域の種類に応じた情報であってよい。なお、本実施形態では表示用画像データは予め用意されているため、画像における美術品の位置に関する情報や、美術品に関する付随情報についても予め用意しておくことができる。従って、画像処理部24は注視位置に存在する美術品を特定し、その付随情報を取得することが可能である。
When applying further processing to the display image using the gaze position information, in S94 the
ここでは、注視位置に存在する美術品の付随情報を追加表示してさらに強調するようにしたが、注視位置に存在する美術品の拡大映像を重畳するなど、他の方法で強調するようにしてもよい。 In this example, the accompanying information of the artwork present at the gaze position is additionally displayed for further emphasis. good too.
以上説明したように、本実施形態では、第1の実施形態で説明した加工処理に加え、注視位置を考慮した加工処理を適用することにより、ユーザが興味を有している可能性の高い特徴領域についてより効果的に強調することができる。そのため、ユーザが所望の被写体を素早く注視することを支援したり、より没入感のあるXR体験を提供したりすることが可能になる。 As described above, in the present embodiment, in addition to the processing described in the first embodiment, by applying the processing processing that takes into account the gaze position, the features that the user is likely to be interested in are Areas can be emphasized more effectively. Therefore, it is possible to assist the user in quickly gazing at a desired subject and provide a more immersive XR experience.
●(第3実施形態)
次に、第3実施形態について説明する。視線入力機能はユーザの視覚を用いる機能であるが、ユーザの視覚特性には個人差がある。そのため、本実施形態では、表示用画像データに対してユーザの視覚特性を考慮した加工処理を適用することにより、視線入力機能の使い勝手を向上する。
● (Third Embodiment)
Next, a third embodiment will be described. The line-of-sight input function is a function that uses the user's visual sense, and there are individual differences in the visual characteristics of the user. Therefore, in the present embodiment, the user-friendliness of the line-of-sight input function is improved by applying a processing process to the display image data in consideration of the user's visual characteristics.
視覚特性の個人差の例としては、
(1)明るさの違いが識別できる輝度範囲(ダイナミックレンジ)の個人差
(2)中心視(注視点の周囲1~2°)や有効視野(中心視の周囲4~20°)の個人差
(3)色相差の認識能力の個人差
などがある。これらの個人差は、先天的に、また後天的に(典型的には加齢によって)生じうる。
Examples of individual differences in visual characteristics include:
(1) Individual differences in luminance range (dynamic range) where differences in brightness can be discerned (2) Individual differences in central vision (1 to 2 degrees around the point of gaze) and effective visual field (4 to 20 degrees around central vision) (3) There are individual differences in the ability to recognize hue differences. These individual differences can be congenital or acquired (typically due to aging).
したがって、本実施形態ではこれら(1)~(3)の個人差を反映した視覚情報をユーザごとに登録し、視覚情報を反映した加工処理を表示用画像データに適用することにより、個々のユーザにとって利用しやすい視線入力機能を提供する。 Therefore, in the present embodiment, by registering visual information reflecting the individual differences (1) to (3) for each user and applying processing reflecting the visual information to the image data for display, individual user's To provide an easy-to-use line-of-sight input function for
以下、視覚情報を取得するための具体的なキャリブレーション機能の例について説明する。キヤリブレーション機能は、例えばメニュー画面を通じてユーザから実行が指示された場合や、ユーザの視覚特性が登録されていない場合にシステム制御回路50が実行することができる。
A specific example of a calibration function for acquiring visual information will be described below. The calibration function can be executed by the
(1)の輝度ダイナミックレンジは、ユーザが不快に感じない最大輝度と最低輝度の範囲とすることができる。例えば、システム制御回路50は、図12(a)に示すような、最大輝度から最低輝度までを所定の階調数で表した無彩色のグラデーションチャートを表示部28に表示させる。そして、ユーザが不快に感じない輝度範囲を、例えば操作部70の操作を通じて選択させる。ユーザは、例えば4方向キーの上下キーを用いてバー1201の上端および下端の位置を調整し、眩しく感じない最大輝度と、隣接する階調との差が識別できる(あるいは暗すぎると感じない)最小輝度とを設定することができる。
The luminance dynamic range of (1) can be the range between the maximum luminance and the minimum luminance that does not make the user feel uncomfortable. For example, the
システム制御回路50は、例えばセット(決定)ボタンが押下された際のバー1201の上端および下端の位置に基づいて、ユーザに対して使用しないことが好ましい輝度範囲KHおよびKLを登録する。なお、バー1201の上端および下端の位置に相当する輝度を登録してもよい。
The
あるいは、システム制御回路50は、例えば4方向キーの上キーの押下に応じて画面全体の輝度を増加させ、下キーの押下に応じて画面全体の輝度を低下させるようにして、ユーザに最大輝度と最小輝度を設定させてもよい。そして、システム制御回路50は、ユーザに、眩しいと感じない最大の輝度で表示されている状態にしてセットボタンを押下するように促す。そして、システム制御回路50は、セットボタンの押下を検出した際の表示輝度を最大輝度として登録する。また、システム制御回路50は、ユーザに、隣接する階調との差が識別できる(あるいは暗すぎると感じない)最小の輝度で表示されている状態にしてセットボタンを押下するように促す。そして、システム制御回路50は、セットボタンの押下を検出した際の表示輝度を最小輝度として登録する。この場合も、最大輝度と最小輝度の代わりに、ユーザに対して使用しないことが好ましい高輝度側の輝度範囲KHおよび低輝度側の輝度範囲KLを登録してもよい。
Alternatively, the
輝度ダイナミックレンジに関するユーザの視覚特性は、輝度の調整が必要か否かの判定や、輝度調整時のパラメータの決定に用いることができる。 The user's visual characteristics regarding luminance dynamic range can be used to determine whether or not luminance adjustment is necessary, and to determine parameters for luminance adjustment.
(2)の有効視野は、中心視を含む、情報を識別可能な範囲である。有効視野は例えばUseful Field of View (UFOV)と呼ばれる視野であってよい。システム制御回路50は、例えば図12(b)に示すような、比較的細かなパターンを背景として、大きさが可変である円1202が表示される画像を表示部28に表示させる。そして、円1202の中心を注視した状態で、背景のパターンが鮮明に判別できる範囲に円1202の大きさを調節するようにユーザに促す。ユーザは、背景パターンを鮮明に認識できる最大の範囲に対応するように例えば4方向キーの上下キーを用いて円1202の大きさを調整し、セットキーを押下することにより、有効視野の大きさを設定することができる。システム制御回路50は、上下キーの押下を検出すると円1202の大きさを変更し、セットキーの押下を検出すると、その時点の円1202の大きさに応じた有効視野の範囲を登録する。
(2) The effective visual field is a range in which information can be identified, including central vision. A useful field of view may be, for example, a field of view called a useful field of view (UFOV). The
有効視野に関するユーザの視覚特性は、注視範囲の抽出に用いることができる。 The user's visual characteristics regarding the effective field of view can be used to extract the gaze range.
(3)は、同系色において違いが認識できる色相差の大きさである。システム制御回路50は、例えば図12(c)に示すような、同系色で色相を徐々に変化させた複数の色見本を選択可能に並べた画像を表示部28に表示させる。ここで表示する色見本は、例えば緑、黄、青のような、被写体の背景で大きな面積を占めることがある色とすることができる。また、緑系統、黄系統、青系統など、複数の色系統について情報を取得してもよい。
(3) is the magnitude of the hue difference at which a difference can be recognized between similar colors. The
図12(c)は色鉛筆のイメージを用いて色見本を並べているが、短冊状の色見本などであってもよい。左端の色鉛筆が基準色であり、右方向に色相を一定量ずつ異らせた色見本を並べている。システム制御回路50は、左端の色鉛筆と色が異なると認識できる、色鉛筆のうち、一番左の色鉛筆を選択するようユーザに促す。ユーザは、例えば4方向キーの左右キーを用いて該当する色鉛筆を選択し、セットキーを押下する。システム制御回路50は、左右キーの押下を検出すると選択状態の色鉛筆を移動させ、セットキーの押下を検出すると、その時点で選択状態にある色鉛筆に対応する色相と、基準色の色相との差を、ユーザが認識可能な最小の色相差として登録する。複数の色系統について情報を登録する場合には、色系統ごとに同じ動作を繰り返し実行する。
In FIG. 12C, the color samples are arranged using the image of colored pencils, but strip-shaped color samples may be used. Colored pencils on the left end are the reference colors, and color samples with different hues are arranged in the right direction. The
色相差の認識能力に関するユーザの視覚特性は、色相の調整が必要か否かの判定や、色相調整時のパラメータの決定に用いることができる。 The user's visual characteristics related to hue difference recognition ability can be used to determine whether hue adjustment is necessary or not, and to determine parameters for hue adjustment.
上述した、個人差のある視覚特性(1)~(3)および、視覚特性(1)~(3)に関するユーザの固有情報の取得方法は単なる例示である。他の視覚特性に関してユーザの情報を登録すること、および/または視覚得性(1)~(3)に関する情報を他の方法で登録することができる。 The above-described visual characteristics (1) to (3) with individual differences and the method of acquiring the unique information of the user regarding the visual characteristics (1) to (3) are merely examples. The user's information can be registered with respect to other visual characteristics and/or the information with respect to visual aptitudes (1)-(3) can be registered in other ways.
次に、登録したユーザの視覚特性(1)~(3)を用いた加工処理の具体例について説明する。なお、視覚特性を複数のユーザに対して登録可能な場合には、例えば設定画面を通じて選択されているユーザに関する視覚特性を用いる。 Next, a specific example of processing using the registered user's visual characteristics (1) to (3) will be described. Note that when visual characteristics can be registered for a plurality of users, the visual characteristics related to the user selected through the setting screen, for example, are used.
図13(a)は、逆光状態で高輝度な空を背景にして、複数の飛行機E1が存在するシーンを示している。このように背景が高輝度な場合、ユーザの視覚特性によっては背景が眩しく、飛行機E1を注視するのが難しくなる。 FIG. 13A shows a scene in which a plurality of airplanes E1 are present against a background of a backlit sky with high brightness. If the background has such high luminance, the background may be dazzling depending on the user's visual characteristics, making it difficult to gaze at the airplane E1.
このような状況に対処するため、画像処理部24は、視線入力機能が有効な際に表示用画像データを生成する場合、背景の輝度値(例えば平均輝度値)がユーザの視覚特性(輝度ダイナミックレンジ)に適切か否かを判定することができる。画像処理部24は、背景の輝度値がユーザの輝度ダイナミックレンジを外れている場合(図12における輝度範囲KHに含まれる場合)には、輝度がユーザの視覚特性に対して適切でないと判定する。そして、画像処理部24は、画像の背景領域の輝度値がユーザの輝度ダイナミックレンジ内(図12のバー1201で表される輝度範囲)に含まれるように輝度を低下させる加工処理を表示画像データに適用する。
In order to deal with such a situation, the
図13(b)は背景領域の輝度を低減する加工処理を適用した状態を模式的に示している。M1は主被写体領域である。画像のうち、主被写体領域M1を除いた領域を背景領域とする。ここでは、画像処理部24は、ユーザの注視位置から一定範囲に存在する特徴領域(ここでは飛行機)を包含する大きさの領域を主被写体領域M1として、背景領域と分離している。なお、主被写体領域の大きさは、ユーザの有効視野の大きさとしてもよい。また、ユーザの注視位置に基づく主被写体領域の決定は他の方法に基づいてもよい。
FIG. 13(b) schematically shows a state in which the processing for reducing the brightness of the background area is applied. M1 is the main subject area. A region of the image excluding the main subject region M1 is assumed to be a background region. Here, the
なお、ユーザの輝度ダイナミックレンジに適した輝度に調整するための加工処理を適用する場合、目標とする輝度値は輝度ダイナミックレンジ内で適宜定めることができる。例えば、輝度ダイナミックレンジの中央値としてもよい。なお、ここでは背景領域の輝度値を調整(補正)する加工処理についてのみ説明したが、主被写体領域の輝度値についても同様に調整することができる。なお、背景領域と主被写体領域の両方について輝度を調整する場合、背景領域よりも主被写体領域の目標輝度が高くなるようにすることで、主被写体領域の視認性を向上することができる。 It should be noted that in the case of applying the processing for adjusting the luminance to suit the luminance dynamic range of the user, the target luminance value can be appropriately determined within the luminance dynamic range. For example, it may be the median value of the luminance dynamic range. Although only the processing for adjusting (correcting) the luminance value of the background area has been described here, the luminance value of the main subject area can be similarly adjusted. When adjusting the brightness of both the background area and the main subject area, the visibility of the main subject area can be improved by setting the target brightness of the main subject area higher than that of the background area.
図14(a)は、主被写体を見失いやすいシーンの一例として、例えば集団競技や遊戯のように、類似かつ多数の被写体が様々な方向に移動するシーンを示している。図14(a)において、ユーザが意図している主被写体がE2であるとする。
ユーザが主被写体E2を見失い、主被写体がユーザの有効視野から外れると、主被写体が他の被写体と同様にボケて認識されるため、一層区別が付きにくくなる。
FIG. 14(a) shows a scene in which a large number of similar subjects move in various directions, such as a group sport or a game, as an example of a scene in which the main subject is easily lost. In FIG. 14A, it is assumed that the main subject intended by the user is E2.
If the user loses sight of the main subject E2 and the main subject moves out of the user's effective field of view, the main subject will be recognized as blurred like the other subjects, making it even more difficult to distinguish between them.
このような状況に対処するため、画像処理部24は、図14(b)に示すように、主被写体領域M2以外の領域(背景領域)の解像度を低下させる(ぼかす)加工処理を適用する。これにより、主被写体領域M2の鮮鋭度が相対的に高まるため、仮にユーザが主被写体E2を見失ったとしても、容易に見つけることができる。主被写体領域M2は、輝度調整に関して説明した方法と同様にして決定することができる。
In order to cope with such a situation, the
なお、主被写体領域の大きさが中心視野の範囲より大きい場合には、主被写体領域のうち、中心視野の範囲外の領域についても背景領域として加工処理を適用してもよい。このように、主被写体の鮮鋭度を相対的に高めることにより、ユーザの注意が自然に主被写体へ向かうため、結果的に注視位置に基づく被写体追尾を支援する効果も実現できる。 If the size of the main subject area is larger than the range of the central field of view, processing may be applied to the area outside the range of the central field of view in the main subject area as a background area. By relatively increasing the sharpness of the main subject in this way, the user's attention is naturally directed to the main subject, and as a result, it is possible to achieve the effect of supporting subject tracking based on the gaze position.
図15(a)は、主被写体の輝度が低いことにより、ユーザが主被写体を認識しづらいシーンの一例として、暗い場所を移動している動物が主被写体であるシーンを示している。図15(a)において、ユーザが意図している主被写体がE3であるとする。 FIG. 15A shows a scene in which the main subject is an animal moving in a dark place, as an example of a scene in which it is difficult for the user to recognize the main subject due to the low brightness of the main subject. In FIG. 15A, it is assumed that the main subject intended by the user is E3.
このような状況に対処するため、画像処理部24は、視線入力機能が有効な際に表示用画像データを生成する場合、注視位置の周辺領域の輝度値(例えば平均輝度値)がユーザの視覚特性(輝度ダイナミックレンジ)に適切か否かを判定することができる。画像処理部24は、注視位置の周辺領域の輝度値がユーザの輝度ダイナミックレンジを外れている場合(図12における輝度範囲KLに含まれる場合)には、輝度がユーザの視覚特性に対して適切でないと判定する。そして、画像処理部24は、注視位置の周辺領域の輝度値がユーザの輝度ダイナミックレンジ内(図12のバー1201で表される輝度範囲)に含まれるように輝度を上昇させる加工処理を表示画像データに適用する。図15(b)は、注視位置の周辺領域M3の輝度を上昇させる加工処理を適用した状態を模式的に示している。なお、注視位置の周辺領域は、例えば有効視野に対応する領域としてもよいし、注視位置を含む特徴領域や、追尾用のテンプレートとして用いる領域などとしてもよい。
In order to deal with such a situation, when generating image data for display when the line-of-sight input function is enabled, the
ここで、画像全体ではなく、注視位置の周辺領域についてのみ輝度を調整(上昇)させるのは、暗いシーンの画像の輝度を上昇させるとノイズ成分によって画像の視認性が低下するためである。画面全体の輝度を上昇させると、ノイズの影響でフレーム間における移動被写体の検出精度が低下しやすくなる。また、ノイズが画面全体で視認されるようになると、ノイズのチラツキによってユーザの目が疲労しやすくなる。 Here, the reason why the brightness is adjusted (increased) only for the area around the gaze position, not for the entire image, is that if the brightness of the image in a dark scene is increased, the visibility of the image is reduced due to noise components. When the brightness of the entire screen is increased, the accuracy of detecting a moving object between frames tends to decrease due to the influence of noise. In addition, when noise is visible on the entire screen, the user's eyes are likely to get tired due to the flickering of the noise.
なお、シーンが暗い場合、注視位置に主被写体が存在しないことも十分考えられる。そのため、注視位置が安定するまでは画面全体の輝度を上昇させ、注視位置が安定したら注視位置の周辺領域以外の領域については輝度を元に戻す(加工処理を適用しないようにする)ようにしてもよい。システム制御回路50は、例えば注視位置の移動量が一定時間にわたって閾値以下であれば、注視位置が安定したと判定することができる。
It should be noted that when the scene is dark, it is quite conceivable that the main subject does not exist at the gaze position. Therefore, until the gaze position stabilizes, the brightness of the entire screen is increased, and once the gaze position stabilizes, the brightness of the area other than the peripheral area of the gaze position is restored (no processing is applied). good too. The
図16(a)は、主被写体と背景の色が似ており、主被写体を見失いやすいシーンの一例として、草むらを背景として類似色の鳥E4が移動しているシーンを示している。図16(a)において、ユーザが意図している主被写体が鳥E4であるとする。ユーザが鳥E4を見失った場合、背景と鳥E4の色が類似しているために鳥E4を見つけづらい。 FIG. 16A shows a scene in which a similar-colored bird E4 is moving against a background of grass, as an example of a scene in which the main subject and the background are similar in color and the main subject is easy to lose sight of. In FIG. 16A, it is assumed that the main subject intended by the user is the bird E4. When the user loses sight of the bird E4, it is difficult to find the bird E4 because the color of the background and the bird E4 are similar.
そのため、画像処理部24は、主被写体領域(鳥E4の領域)の色相と、少なくとも主被写体の周辺の背景領域の色相との差が、ユーザの視覚特性のうち色相差の認識能力に照らして適切であるか否かを判定することができる。そして、主被写体領域と背景領域の色相との差が、ユーザが認識できる色相の差以下である場合、画像処理部24は不適切であると判定する。この場合、画像処理部24は、主被写体領域とその周辺の背景領域との色相の差が、ユーザが認識できる色相の差より大きくなるように、主被写体領域の色相を変更する加工処理を表示画像データに適用する。図16(b)は主被写体領域M4の色相を変更する加工処理を適用した状態を模式的に示している。
Therefore, the
なお、ここで例示した加工処理に限らず、ユーザの視覚特性を利用した加工処理を適用することが可能である。また、主被写体領域や背景領域の輝度や色相に応じて複数の加工処理を組み合わせて適用することもできる。 It should be noted that it is possible to apply not only the processing processing exemplified here, but also processing processing using the user's visual characteristics. Further, it is also possible to combine and apply a plurality of processing processes according to the luminance and hue of the main subject area and the background area.
図17は、本実施形態に係る表示画像データの生成動作に関するフローチャートである。この動作は、視線入力機能が有効である際に、注視位置の検出と並行して実行することができる。
S1701においてシステム制御回路50は、撮像部22により1フレームの画像を撮影し、A/D変換器23を通じて画像処理部24にデジタル画像信号を供給する。
FIG. 17 is a flow chart relating to the display image data generation operation according to the present embodiment. This operation can be executed in parallel with the gaze position detection when the line-of-sight input function is enabled.
In S<b>1701 , the
S1702で画像処理部24は、直近に検出された注視位置に基づいて、主被写体領域とする特徴領域を検出する。ここで、画像処理部24は、第1実施形態で説明したように撮影モードから判定した種類の特徴領域を検出してから、注視位置を含む特徴領域、あるいは注視位置からの距離が最も近い特徴領域を主被写体領域としてもよい。
In S1702, the
S1703で画像処理部は、S1702で検出した特徴領域(主被写体領域)を抽出する。これにより、主被写体領域と他の領域(背景領域)とが分離される。 In S1703, the image processing unit extracts the feature area (main subject area) detected in S1702. As a result, the main subject area and the other area (background area) are separated.
S1704で画像処理部24は、例えば不揮発性メモリ56に記憶されている、ユーザの視覚特性に関する情報を取得する。
In S1704, the
S1705で画像処理部24は、主被写体領域と背景領域とについて、平均輝度や色相の差を算出する。そして、画像処理部24は、算出した平均輝度や色相の差と、ユーザの視覚特性とを比較することにより、主被写体領域に加工処理を適用する必要があるか否かを判定する。上述したように、画像処理部24は、主被写体の輝度や主被写体領域と背景領域との色相の差がユーザの視覚特性にとって適切でない場合には、主被写体領域に加工処理を適用する必要があると判定する。画像処理部24は、主被写体領域に加工処理を適用する必要があると判定されればS1706を、判定されなければS1707を実行する。
In S1705, the
S1706で画像処理部24は、適切でないと判定された内容に応じた加工処理を主被写体領域に適用したのち、S1707を実行する。
In S1706, the
S1707で画像処理部24は、S1705と同様にして、他の領域(背景領域)に加工処理を適用する必要があるか否かを判定する。画像処理部24は、背景領域に加工処理を適用する必要があると判定されればS1708を実行する。また、背景領域に加工処理を適用する必要があると判定されなければ、画像処理装置部24はS1701を実行し、次フレームについての動作を開始する。
In S1707, the
S1708で画像処理部24は、適切でないと判定された内容に応じた加工処理を背景領域に適用したのち、S1701を実行する。
In S1708, the
なお、ユーザの視覚特性に対して何が適切でな以下に応じて、主被写体領域と背景領域のそれぞれについてどのような加工処理を適用するのかは、予め定めておくことができる。したがって、S1705における判定結果に応じて、主被写体領域だけに加工処理を適用するのか、背景領域だけに加工処理を適用するのか、主被写体領域と背景領域の両方に加工処理を適用するのかと、適用する処理の内容が特定される。 Depending on what is appropriate for the user's visual characteristics, it is possible to determine in advance what kind of processing is to be applied to each of the main subject area and the background area. Therefore, depending on the determination result in S1705, whether to apply the processing to only the main subject area, only to the background area, or to apply the processing to both the main subject area and the background area. The content of the processing to be applied is specified.
以上説明したように、本実施形態によれば、視線入力機能が有効であるときは、ユーザの視覚特性を考慮した加工処理を適用して表示用画像データを生成するようにした。そのため、個々のユーザの視覚特性に対して適切な表示用画像データを生成することができ、よりユーザにとって使いやすい視線入力機能を提供することができる。 As described above, according to the present embodiment, when the line-of-sight input function is effective, the display image data is generated by applying the processing that takes into consideration the user's visual characteristics. Therefore, display image data suitable for the visual characteristics of individual users can be generated, and a user-friendly line-of-sight input function can be provided.
なお、第1実施形態で説明した、視線による主被写体の選択をし易くするための加工処理と、本実施形態で説明した、ユーザの視覚特性に適した画像にするための加工処理とは、組み合わせて適用することもできる。 Note that the processing for making it easier to select the main subject based on the line of sight described in the first embodiment and the processing for making an image suitable for the user's visual characteristics described in the present embodiment are: They can also be applied in combination.
●(第4実施形態)
次に、第4実施形態について説明する。本実施形態は、撮像装置1の構成要素を内蔵したXRゴーグル(頭部装着型の表示装置もしくはHMD)を用いて体験する仮想空間の視認性向上に関する。XRゴーグルを通じて視認する仮想空間の画像は、仮想空間ごとに予め用意された表示用画像データをXRゴーグルの向きや姿勢に応じて描画することにより生成される。表示用画像データは記録媒体200に予め記憶されていてもよいし、外部装置から取得してもよい。
● (Fourth Embodiment)
Next, a fourth embodiment will be described. The present embodiment relates to improving the visibility of a virtual space experienced using XR goggles (head-mounted display device or HMD) incorporating the components of the
ここでは例として体験モード「ダイビング」および「美術館」を仮想空間で提供するための表示データが記録媒体200に記憶されているものとする。しかし、提供する仮想空間の種類および数に特段の制限はない。
Here, as an example, it is assumed that the display data for providing the experience modes “diving” and “art museum” in the virtual space is stored in the
体験モード「ダイビング」および「美術館」を提供するための仮想空間画像の例を図18(a)および(b)に模式的に示す。ここでは、説明および理解を容易にするため、仮想空間の全体がCG画像で表現されるものとする。したがって、強調表示する主被写体は、CG画像の一部である。仮想空間画像に含まれる主被写体を強調表示することにより、主被写体の視認性を向上させることができる。主被写体は少なくとも初期状態において撮像装置1(システム制御回路50)が設定する。撮像装置1が設定した主被写体はユーザが変更してもよい。
Examples of virtual space images for providing the experience modes "diving" and "museum" are schematically shown in FIGS. 18(a) and (b). Here, in order to facilitate explanation and understanding, it is assumed that the entire virtual space is represented by a CG image. Therefore, the main subject to be highlighted is part of the CG image. By highlighting the main subject included in the virtual space image, the visibility of the main subject can be improved. The main subject is set by the imaging apparatus 1 (system control circuit 50) at least in the initial state. The main subject set by the
なお、例えばビデオシースルー型のHMDのように、現実空間を撮影した画像にCGを仮想空間画像として重畳した合成画像を表示する場合、強調表示する主被写体領域(特徴領域)は実写画像部分に含まれる場合もあれば、CG部分に含まれる場合もある。 For example, when displaying a composite image in which CG is superimposed as a virtual space image on an image of the real space, such as a video see-through HMD, the main subject region (feature region) to be highlighted is included in the actual image portion. In some cases, it is included in the CG part.
図19(a)および(b)はそれぞれ、図18(a)および(b)に示すシーンに対して主被写体を強調する加工処理を適用した例を模式的に示した図である。ここでは、主被写体以外の彩度を低減することによって主被写体を強調し、主被写体の視認性を向上させている。なお、加工処理は他の方法で主被写体を強調してもよい。 FIGS. 19(a) and 19(b) are diagrams schematically showing an example of applying processing for emphasizing the main subject to the scenes shown in FIGS. 18(a) and 18(b), respectively. Here, the main subject is emphasized by reducing the chroma saturation of the subjects other than the main subject, and the visibility of the main subject is improved. It should be noted that the main subject may be emphasized by another method for processing.
図19に示す例は、主被写体の領域は加工せず、他の領域を目立たなくなるようにする加工処理である。このほか、主被写体を強調し、他の領域は加工しない加工処理や、主被写体を強調し、他の領域を目立たなくする加工処理であってもよい。あるいは、画像全体を加工して対象物を強調する加工処理であってもよいし、他の方法で主被写体の領域を強調する加工処理であってもよい。 The example shown in FIG. 19 is processing for not processing the area of the main subject and making the other areas inconspicuous. In addition, processing may be processing that emphasizes the main subject and does not process other areas, or processing that emphasizes the main subject and makes other areas inconspicuous. Alternatively, the processing may be processing that emphasizes the object by processing the entire image, or processing that emphasizes the area of the main subject by another method.
ダイビングを仮想空間で体験する場合、主被写体は「生き物」であると考えらえる。美術館を仮想空間で体験する場合、主被写体は「展示物」(絵画や彫刻など)や特徴的な色(ここでは極彩色としている)を有する物体であると考えられる。つまり、提示する仮想空間や体験の種類によって、強調表示すべき主被写体が異なりうる。 When experiencing diving in a virtual space, the main subject is considered to be a "creature." When experiencing an art museum in a virtual space, the main subjects are considered to be "exhibits" (paintings, sculptures, etc.) and objects with characteristic colors (here, rich colors). In other words, the main subject to be highlighted may differ depending on the type of virtual space and experience to be presented.
図20は、提供する仮想空間(または体験)の種類と、強調表示することが可能な被写体の種類(特徴領域の種類)との関係を示した図である。ここでは、強調表示することが可能な被写体の種類を仮想空間の種類にメタデータとして関連付けている。また、デフォルトで強調表示する主被写体の種類も仮想空間の種類に関連付けている。ここで、メタデータとして一覧表示されている被写体の種類は、画像処理部24が検出可能な被写体の種類に対応している。また、仮想空間の種類ごとに、主被写体として設定可能な被写体の種類を○で示し、デフォルトで主被写体として選択される被写体の種類を◎で示している。したがってユーザは、○で示された被写体から新たな主被写体を選択することができる。
FIG. 20 is a diagram showing the relationship between the type of virtual space (or experience) to be provided and the type of subject (type of characteristic region) that can be highlighted. Here, the type of subject that can be highlighted is associated with the type of virtual space as metadata. In addition, the type of main subject highlighted by default is also associated with the type of virtual space. Here, the types of subjects listed as metadata correspond to the types of subjects detectable by the
ユーザが主被写体の種類を変更する方法に特に制限はない。例えば、システム制御回路50は、操作部70を通じたメニュー画面の操作などに応答して、撮像装置1が有する表示部28やXRゴーグルの表示部に主被写体を変更するためのGUIを表示する。そして、システム制御回路50は、このGUIに対する操作部70を通じた操作に応じて、現在提供している仮想空間の種類に対する主被写体の設定を変更することができる。
There are no particular restrictions on how the user can change the type of main subject. For example, the
図21は主被写体を変更するために表示するGUIの例を示す図である。図21(a)はモードダイヤルを模したGUIであり、操作部70に含まれるダイヤルの操作により、選択肢の1つを主被写体に設定することができる。図21(a)では、風景が主被写体に設定された状態を示している。なお、主被写体を変更するためのGUIに表示される選択肢は、図20において○が付されたメタデータの種類と対応している。なお、図21(a)の例では、メタデータの種類とは別に、強調表示を行わないことを設定するための「OFF」を選択肢に含めている。図21(b)は主被写体の種類を変更するためのGUIの別の例を示している。ダイヤルを模した形態の代わりに一覧表示形態としたことを除き、図21(a)に示したGUIと同じである。ユーザは操作部70を用いて所望の選択肢を選択することにより、強調表示する主被写体を変更すること(および強調表示をOFFすること)ができる。なお、視線を用いた選択肢の選択を可能としてもよい。
FIG. 21 is a diagram showing an example of a GUI displayed for changing the main subject. FIG. 21A shows a GUI that imitates a mode dial. By operating the dial included in the
図22は、仮想空間の種類「ダイビング」「美術館」「サファリ」について、メタデータの例を画像で示した図である。例えば、提示する仮想空間画像について画像処理部24が検出した被写体領域を被写体の種類ごとにメタデータとして抽出し、メモリ32に格納することができる。これにより、強調表示する主被写体の変更に対して容易に対応することができる。なお、XRゴーグルに表示する仮想空間の画像を予め生成することが可能な場合には、メタデータについても予め記録しておくことができる。また、メタデータは被写体領域を表す数値情報(例えば、中心位置と大きさ、外縁の座標データなど)であってもよい。
FIG. 22 is an image showing an example of metadata for the virtual space types "diving", "museum", and "safari". For example, the subject area detected by the
また、第2実施形態で説明した注視位置情報を用いてユーザが関心を示している被写体の種類を特定し、特定した種類の被写体領域を強調表示してもよい。この場合、注視位置に応じて強調表示する主被写体の種類が変化するため、ユーザは明示的に設定を変更することなく主被写体を変更することができる。 Alternatively, the type of subject that the user is interested in may be specified using the gaze position information described in the second embodiment, and the specified type of subject area may be highlighted. In this case, since the type of the main subject to be highlighted changes according to the gaze position, the user can change the main subject without explicitly changing the settings.
また、現在の視野に主被写体が存在しない場合や、主被写体領域の数や大きさが閾値以下の場合に、より多くの主被写体が視野に入る方向を示す指標を仮想空間画像に重畳してもよい。 In addition, when the main subject does not exist in the current field of view, or when the number or size of the main subject area is less than a threshold value, an index indicating the direction in which more of the main subject enters the field of view is superimposed on the virtual space image. good too.
図23(a)は、体験モード「ダイビング」において現在XRゴーグルに提示中の仮想空間画像の例を示している。提示中の仮想空間画像には主被写体である魚の領域が存在しない。この場合、システム制御回路50は、仮想空間画像に主被写体が存在する方向の指標P1を重畳することができる。システム制御回路50は、例えば表示用画像データを生成するための仮想空間データにおける魚オブジェクトの位置情報に基づいて、魚がXRゴーグル視野に入る方向を特定することができる。
FIG. 23(a) shows an example of a virtual space image currently being presented to the XR goggles in the experience mode "diving". The virtual space image being presented does not include a fish area, which is the main subject. In this case, the
ユーザは指標P1で示される方向を見るように首を振るなどすることにより、図23(b)に示すように魚を視認することが可能になる。なお、主被写体の存在する方向を示す指標は複数重畳させてもよい。この場合、システム制御回路50は、主被写体を視野に含めるために必要な視線の移動距離が最も短い方向を示す指標、あるいは最も多くの主被写体を視野に含めることができる方向を示す指標を最も目立つ(例えば大きく)ように表示することができる。
The user can visually recognize the fish as shown in FIG. 23(b) by shaking the head so as to look in the direction indicated by the index P1. Note that a plurality of indices indicating the direction in which the main subject exists may be superimposed. In this case, the
本実施形態によれば、提供する仮想空間に応じた種類の被写体領域を強調表示するようにした。そのため、仮想空間画像について、ユーザが主被写体として意図している可能性の高い領域が視認しやすくなり、主被写体を注視するまでの時間が短縮される効果が期待できる。 According to this embodiment, the type of subject area corresponding to the provided virtual space is highlighted. As a result, it becomes easier for the user to visually recognize a region of the virtual space image that is likely to be the main subject, and the effect of shortening the time required to gaze at the main subject can be expected.
●(第5実施形態)
次に、第5実施形態について説明する。本実施形態は、第4実施形態でXRゴーグルに表示する仮想空間画像を、サーバなどXRゴーグルの外部装置から取得する表示システムに関する。
● (Fifth embodiment)
Next, a fifth embodiment will be described. This embodiment relates to a display system that acquires a virtual space image to be displayed on the XR goggles in the fourth embodiment from an external device of the XR goggles, such as a server.
図24(a)は、XRゴーグルDP1とサーバSV1とが通信可能に接続された表示システムの模式図である。XRゴーグルDP1とサーバSV1との間にLANやインターネットなどのネットワークが存在してもよい。 FIG. 24(a) is a schematic diagram of a display system in which the XR goggles DP1 and the server SV1 are communicably connected. A network such as a LAN or the Internet may exist between the XR goggles DP1 and the server SV1.
一般的に、仮想空間画像の生成には、大容量となる仮想空間データと、仮想空間データから仮想空間画像を生成(描画)する演算能力とが必要である。そのため、XRゴーグルからは姿勢検出部55で検出した姿勢情報のような、仮想空間画像を生成するために必要な情報をサーバに出力する。そして、サーバでXRゴーグルに表示する仮想空間画像を生成し、XRゴーグルに送信する。
In general, generation of a virtual space image requires large-capacity virtual space data and computing power to generate (render) a virtual space image from the virtual space data. Therefore, the XR goggles output information necessary for generating a virtual space image, such as posture information detected by the
仮想空間データ(3次元データ)をサーバSV1で持つことにより、サーバに接続された複数のXRゴーグルで同一の仮想空間を共有することが可能になる。 By having the virtual space data (three-dimensional data) in the server SV1, it becomes possible for a plurality of XR goggles connected to the server to share the same virtual space.
図25はサーバSV1として利用可能なコンピュータ装置の構成例を示すブロック図である。図において、ディスプレイ2501はアプリケーションプログラムによって処理中のデータの情報、各種メッセージメニューなどを表示し、LCD(Liquid Crystal Display)等から構成される。ビデオRAM(VRAM)ディスプレイコントローラとしてのCRTC2502は、ディスプレイ2501への画面表示制御を行う。キーボード2503及びポインティングデバイス2504は、文字などを入力したり、GUI(Graphical User Interface)におけるアイコンやボタンなどを操作するためなどに用いられる。CPU2505はコンピュータ装置全体の制御を司る。
FIG. 25 is a block diagram showing a configuration example of a computer device that can be used as the server SV1. In the figure, a
ROM(Read Only Memory)2506はCPU2505が実行するプログラムやパラメータ等を記憶している。RAM(Random Access Memory)2507は各種プログラムをCPU2505が実行する時のワークエリア、各種データのバッファ等として用いられる。
A ROM (Read Only Memory) 2506 stores programs executed by the
ハードディスクドライプ(HDD)2508、リムーバブルメディアドライプ(RMD)2509は、外部記憶装置として機能する。リムーバブルメディアドライブは、着脱可能な記録媒体の読み書き又は読み出しを行う装置であり、光ディスクドライブ、光磁気ディスクドライブ、メモリカードリーダなどであってもよい。 A hard disk drive (HDD) 2508 and removable media drive (RMD) 2509 function as external storage devices. A removable media drive is a device that reads, writes, or reads a removable recording medium, and may be an optical disk drive, a magneto-optical disk drive, a memory card reader, or the like.
なお、サーバSV1の各種機能を実現するプログラムを始め、OSや、ブラウザ等のアプリケーションプログラム、データ、ライプラリなどは、その用途に応じてROM2506、HDD2508、RMD2509(の記録媒体)の1つ以上に記憶されている。
Note that the programs that implement various functions of the server SV1, the OS, application programs such as browsers, data, libraries, etc., are stored in one or more of the
拡張スロット2510は、例えばPCI(Periferal Component Interconnect)バス規格に準拠した拡張カード装着用スロットである。拡張スロット2510には、ビデオキャプチャボードや、サウンドボードなど、様々な拡張ボードを装着することが可能である。
The
ネットワークインタフェース2511はサーバSV1をローカルネットワークや外部ネットワークと接続するためのインタフェースである。また、サーバ装置SV1はネットワークインタフェース2511の他に、規格に準拠した外部機器との通信インタフェースを1つ以上有している。規格の例にはUSB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、無線LAN、Bluetooth(登録商標)などが含まれる。
A
バス2512はアドレスバス、データバスおよび制御バスからなり、上述した各ブロック間を接続する。
A
次に、図24(b)に示すフローチャートを用いて、サーバSV1とXRゴーグルDP1の動作に関して説明する。サーバSV1の動作は、CPU2501が所定のアプリケーションを実行することによって実現される。
Next, the operation of the server SV1 and the XR goggles DP1 will be described using the flowchart shown in FIG. 24(b). The operation of the server SV1 is implemented by the
S2402でXRゴーグルDP1からサーバSV1に対し、仮想空間の種類(図20)を指定する。システム制御回路50は例えばXRゴーグルDP1の表示部28に仮想空間の種類を指定するGUIを表示する。システム制御回路50は、操作部70を通じた選択操作を検出すると、選択された種類を示すデータを通信部54を通じてサーバSV1に送信する。
In S2402, the type of virtual space (FIG. 20) is specified from the XR goggles DP1 to the server SV1. The
ここではXRゴーグルDP1に表示する仮想空間の範囲が固定されているものとする。したがって、サーバSV1は指定された種類の仮想空間の特定のシーンの画像データ(仮想空間画像データ)を、付随するメタデータとともにXRゴーグルDP1に送信する。 Here, it is assumed that the range of the virtual space displayed on the XR goggles DP1 is fixed. Therefore, the server SV1 transmits image data (virtual space image data) of a specified type of specific scene in the virtual space to the XR goggles DP1 together with accompanying metadata.
S2403でシステム制御回路50は、サーバSV1から仮想空間画像データと付随するメタデータとをサーバSV1から受信する。
In S2403, the
S2404でシステム制御回路50は、サーバSV1から受信した仮想空間画像データとメタデータとをメモリ32に保存する。
In S2404, the
S2405でシステム制御回路50は、画像処理部24を用い、仮想空間画像データに対し、図19を用いて説明したような主被写体領域の強調処理を適用する。そして、強調処理を行った仮想空間画像データを表示部28に表示させる。なお、仮想空間画像が右眼用の画像および左目用の画像から構成される場合、個々の画像について強調処理を適用する。
In S2405, the
図24(c)は、サーバSV1でXRゴーグルDP1の姿勢(視線方向)に応じた仮想空間画像データの生成と、仮想空間データに対する強調処理とを適用する場合のサーバSV1の動作に関するフローチャートである。サーバSV1の動作は、CPU2501が所定のアプリケーションを実行することによって実現される。
FIG. 24(c) is a flowchart regarding the operation of the server SV1 when the server SV1 generates virtual space image data according to the posture (line-of-sight direction) of the XR goggles DP1 and applies enhancement processing to the virtual space data. . The operation of the server SV1 is implemented by the
S2411でサーバSV1は、XRゴーグルDP1から仮想空間の種類を指定するデータを受信する。 In S2411, the server SV1 receives data designating the type of virtual space from the XR goggles DP1.
S2412以降の動作は、XRゴーグルDP1に表示する動画の1フレームごとに実行される。
S2412でサーバSV1は、XRゴーグルDP1から姿勢情報を受信する。
S2413でサーバSV1は、XRゴーグルDP1の姿勢に応じた仮想空間画像データを生成する。仮想空間データは、3次元データのレンダリング、全周画像からの切りだしなど、公知の任意の方法で生成することができる。例えばサーバSV1は図26に示すように、XRゴーグルDP1の姿勢情報に基づいて、仮想空間画像からXRゴーグルDP1の表示領域を決定し、表示領域に対応する範囲を切り出すことができる。なお、XRゴーグルDP1は、姿勢情報の代わりに表示領域を特定する情報(例えば中心座標)を送信してもよい。
The operations after S2412 are executed for each frame of the moving image displayed on the XR goggles DP1.
In S2412, the server SV1 receives posture information from the XR goggles DP1.
In S2413, the server SV1 generates virtual space image data corresponding to the posture of the XR goggles DP1. The virtual space data can be generated by any known method such as rendering of three-dimensional data, clipping from an omnidirectional image, or the like. For example, as shown in FIG. 26, the server SV1 can determine the display area of the XR goggles DP1 from the virtual space image based on the orientation information of the XR goggles DP1, and cut out the range corresponding to the display area. Note that the XR goggles DP1 may transmit information specifying the display area (for example, center coordinates) instead of the posture information.
S2415でサーバSV1は、XRゴーグルDP1から主被写体の種類を受信する。なお、S2415での主被写体の種類の受信は、XRゴーグルDP1において主被写体の種類が変更された場合に実行され、変更のない場合にスキップされる。 In S2415, the server SV1 receives the type of main subject from the XR goggles DP1. Note that reception of the main subject type in S2415 is executed when the main subject type is changed in the XR goggles DP1, and is skipped when there is no change.
S2416でサーバSV1は、S2413で生成した仮想空間画像データに対し、主被写体領域の強調処理を適用する。主被写体の種類に変更がない場合、サーバSV1は仮想空間の種類に応じたデフォルトの主被写体領域に対して強調処理を適用する。 In S2416, the server SV1 applies main subject area enhancement processing to the virtual space image data generated in S2413. If there is no change in the type of main subject, the server SV1 applies enhancement processing to the default main subject area corresponding to the type of virtual space.
S2417でサーバSV1は、強調処理を適用した仮想空間画像データをXRゴーグルDP1に送信する。XRゴーグルDP1では、受信した仮想空間画像データを表示部28に表示させる。
In S2417, the server SV1 transmits the virtual space image data to which the enhancement processing is applied to the XR goggles DP1. The XR goggles DP1 causes the
図27(a)は、図26(a)の構成に対し、VR画像を生成可能なカメラCAを追加した表示システムの模式図である。ここでは、仮想空間の種類として、図20の例で挙げた体験シェアの場合を想定している。カメラCAでXR情報を付加して記録した画像をXRゴーグルに表示することにより、カメラCAのユーザの体験をXRゴーグルDP1の装着者も疑似体験することができる。 FIG. 27(a) is a schematic diagram of a display system in which a camera CA capable of generating a VR image is added to the configuration of FIG. 26(a). Here, as a type of virtual space, it is assumed that the case of experience sharing mentioned in the example of FIG. 20 is used. By displaying an image recorded with XR information added by the camera CA on the XR goggles, the wearer of the XR goggles DP1 can also simulate the experience of the user of the camera CA.
図28は、カメラCAの構成例を示すブロック図である。カメラCAは本体100’と、本体100’に装着されたレンズユニット300を有する。レンズユニット300と本体100’はレンズマウント304、305によって着脱可能である。また、レンズユニット300が有するレンズシステム制御回路303と、本体100’のシステム制御回路50(不図示)とは、レンズマウント304、305に設けられた通信端子6、10を通じて相互に通信することができる。
FIG. 28 is a block diagram showing a configuration example of the camera CA. The camera CA has a main body 100' and a
レンズユニット300は、ステレオ魚眼レンズであり、カメラCAは視野角が180°のステレオ円周魚眼画像を撮影することができる。具体的には、レンズユニット300の2つの光学系301L、301Rのそれぞれは、左右方向(水平角度、方位角、ヨー角)180度、上下方向(垂直角度、仰俯角、ピッチ角)180度の視野を円形の2次元平面に投影した円周魚眼像を生成する。
The
本体100’は、一部の構成しか示していないが、図1に示した撮像装置1の本体100と同様の構成を有するものとする。このような構成のカメラCAで撮影した画像(例えばVR180規格に準拠した動画像)をXR画像として記録媒体200に記録しておく。
The main body 100' has a configuration similar to that of the
図27(b)に示すフローチャートを用いて、図27(a)に示した表示システムの動作について説明する。なお、サーバSV1は、XRゴーグルDP1およびカメラCAと通信可能な状態にあるものとする。 The operation of the display system shown in FIG. 27(a) will be described using the flowchart shown in FIG. 27(b). It is assumed that the server SV1 is in a state of being able to communicate with the XR goggles DP1 and the camera CA.
S2602でカメラCAからサーバSV1へ画像データを送信する。画像データには撮影日、撮影条件などのExif情報、撮影時に記録された撮影者の視線情報、撮影時に検出された主被写体情報などを含む付加情報が付随している。なお、カメラCAとサーバSV1とで通信する代わりに、カメラCAの記録媒体200をサーバSV1に装着して画像データを読み出してもよい。
In S2602, image data is transmitted from the camera CA to the server SV1. Image data is accompanied by additional information including Exif information such as shooting date and shooting conditions, photographer's line-of-sight information recorded at the time of shooting, main subject information detected at the time of shooting, and the like. Note that instead of communicating between the camera CA and the server SV1, the
S2603でサーバSV1は、カメラCAから受信した画像データから、XRゴーグルDP1に表示する画像データおよびメタデータを生成する。本実施形態ではカメラCAがステレオ円周魚眼画像を記録するため、公知の方法で表示範囲を切りだし、矩形状の画像に変換することにより、表示用の画像データを生成する。また、サーバSV1は、表示用画像データから予め定められた種類の被写体領域を検出し、検出された被写体領域の情報をメタデータとして生成する。サーバSV1は生成した表示用画像データとメタデータとをXRゴーグルDP1に送信する。また、サーバSV1はカメラCAから取得した主被写体情報、視線情報など、撮影時の付加情報もXRゴーグルDP1に送信する。 In S2603, the server SV1 generates image data and metadata to be displayed on the XR goggles DP1 from the image data received from the camera CA. In this embodiment, since the camera CA records a stereo circular fisheye image, image data for display is generated by cutting out the display range by a known method and converting it into a rectangular image. The server SV1 also detects a predetermined type of subject area from the display image data, and generates information about the detected subject area as metadata. The server SV1 transmits the generated display image data and metadata to the XR goggles DP1. The server SV1 also transmits additional information at the time of photographing, such as main subject information and line-of-sight information acquired from the camera CA, to the XR goggles DP1.
S2604およびS2605でXRゴーグルDP1のシステム制御回路50が行う動作はS2404およびS2405の動作と同様であるため、説明を省略する。システム制御回路50は、S2605で強調処理を適用する主被写体の種類を、サーバSV1から受信した主被写体情報に基づいて決定することができる。また、システム制御回路50は、撮影者の視線情報に基づいて特定した主被写体領域に強調処理を適用してもよい。この場合、撮影者が撮影時に注視していた被写体が強調表示されるため、撮影者の体験をより一層共有することができる。
The operations performed by the
図27(c)は、図27(a)に示した表示システムにおいて、図24(c)と同様に強調処理をサーバSV1で実行する場合のサーバSV1の動作に関するフローチャートである。 FIG. 27(c) is a flowchart relating to the operation of the server SV1 in the display system shown in FIG. 27(a) when the server SV1 executes the highlighting process in the same manner as in FIG. 24(c).
S2612はS2602と同様であるため説明を省略する。
また、S2613~S2617はS2412、S2413、S2415~S2417とそれぞれ同様であるため、説明を省略する。なお、強調表示を適用する主被写体の種類は、XRゴーグルDP1から指定があれば指定された種類とし、指定がなければ撮影時の主被写体情報に基づいて決定する。
Since S2612 is the same as S2602, description thereof is omitted.
Also, S2613 to S2617 are the same as S2412, S2413, and S2415 to S2417, respectively, so description thereof will be omitted. Note that the type of the main subject to which the highlight display is applied is the designated type if specified by the XR goggles DP1, and is determined based on the main subject information at the time of shooting if not specified.
本実施形態によれば、仮想空間画像やVR画像に対しても適切な強調処理を適用することが可能になる。また、不可の大きな処理をサーバなどの外部装置で実行することにより、XRゴーグルに必要なリソースが軽減できるほか、複数のユーザが同一の仮想空間を共有することが容易である。 According to this embodiment, appropriate enhancement processing can be applied to virtual space images and VR images as well. In addition, by executing unmanageably large processing on an external device such as a server, the resources required for the XR goggles can be reduced, and multiple users can easily share the same virtual space.
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that implements one or more functions of the above-described embodiments to a system or device via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by processing to It can also be implemented by a circuit (for example, ASIC) that implements one or more functions.
本実施形態の開示は、以下の撮像装置、方法、画像処理装置、画像処理方法、およびプログラムを含む。
(項目1)
撮像装置であって、
前記撮像装置が表示している画像におけるユーザの注視位置を検出可能な検出手段と、
前記表示のための画像データを生成する生成手段と、を有し、
前記生成手段は、前記検出手段が有効な際に生成する前記画像データについては、特徴領域を他の領域より視覚的に強調する加工処理を適用し、
前記特徴領域が、前記撮像装置の設定に基づいて判定される種類の被写体の領域である、
ことを特徴とする撮像装置。
(項目2)
前記設定が、特定のシーンもしくは特定の被写体を撮影するための設定であり、
前記特徴領域が、前記特定のシーンに応じた種類の被写体の領域、あるいは前記特定の被写体の領域であることを特徴とする項目1に記載の撮像装置。
(項目3)
前記加工処理が、
前記特徴領域については加工せず、他の領域を目立たなく加工する処理、
前記特徴領域を強調し、他の領域は加工しない処理、
前記特徴領域を強調するとともに、他の領域を目立たなく加工する処理、
前記特徴領域を含む画像全体を加工して前記特徴領域を強調する処理、
のいずれか1つであることを特徴とする項目1または2に記載の撮像装置。
(項目4)
前記生成手段が、ライブビュー表示のための画像データとして前記画像データを生成することを特徴とする項目1から3のいずれか1項に記載の撮像装置。
(項目5)
さらに、前記検出手段が検出した注視位置に基づいて焦点検出領域を設定する設定手段を有することを特徴とする項目1から4のいずれか1項に記載の撮像装置。
(項目6)
表示している画像におけるユーザの注視位置を検出可能な検出手段を有する撮像装置が実行する方法であって、
前記表示のための画像データを生成する生成工程と、を有し、
前記生成工程では、
前記検出手段が有効な際に生成する前記画像データについては、特徴領域を他の領域より視覚的に強調する加工処理を適用し、
前記検出手段が有効でない際に生成する前記画像データについては、特徴領域を他の領域より視覚的に強調する加工処理を適用せず、
前記特徴領域が、前記撮像装置の設定に基づいて判定される種類の被写体の領域である、
ことを特徴とする方法。
(項目7)
撮像装置が有するコンピュータを、項目1から5のいずれか1項に記載の撮像装置が有する各手段として機能させるためのプログラム。
(項目8)
頭部装着型の表示装置に表示するための画像データを生成する生成手段を有し、
前記生成手段は、前記表示装置を通じてユーザに提供する仮想環境の種類に応じた特徴領域を他の領域より視覚的に強調する加工処理を適用することにより、前記画像データを生成する、
ことを特徴とする画像処理装置。
(項目9)
前記加工処理が、
前記特徴領域については加工せず、他の領域を目立たなく加工する処理、
前記特徴領域を強調し、他の領域は加工しない処理、
前記特徴領域を強調するとともに、他の領域を目立たなく加工する処理、
前記特徴領域を含む画像全体を加工して前記特徴領域を強調する処理、
のいずれか1つであることを特徴とする項目8に記載の画像処理装置。
(項目10)
さらに、前記表示装置が表示している画像におけるユーザの注視位置を検出可能な検出手段を有し、
前記生成手段は、前記加工処理を適用したのち、前記検出手段が検出した前記注視位置に基づくさらなる加工処理を適用することにより、前記画像データを生成することを特徴とする項目8または9に記載の画像処理装置。
(項目11)
前記さらなる加工処理が、前記特徴領域のうち、前記注視位置を含む特徴領域を、他の特徴領域よりも視覚的に強調する加工処理であることを特徴とする項目10に記載の画像処理装置。
(項目12)
前記さらなる加工処理が、前記特徴領域のうち、前記注視位置を含む特徴領域に関する付随情報を重畳表示する加工処理であることを特徴とする項目10に記載の画像処理装置。
(項目13)
前記さらなる加工処理が、前記注視位置の移動方向に存在する特徴領域を視覚的に強調する加工処理であることを特徴とする項目10に記載の画像処理装置。
(項目14)
前記仮想環境の種類ごとに、前記加工処理を適用可能な特徴領域の種類と、デフォルトで前記加工処理を適用する特徴領域の種類とが対応づけられていることを特徴とする項目8に記載の画像処理装置。
(項目15)
前記生成手段は、ユーザに提供中の仮想環境に対応づけられた特徴領域の種類から前記ユーザが指定した種類に基づいて前記加工処理を適用することを特徴とする項目14に記載の画像処理装置。
(項目16)
前記生成手段は、ユーザの指定がない場合、前記ユーザに提供中の仮想環境に対応づけられた、デフォルトで前記加工処理を適用する特徴領域の種類に基づいて前記加工処理を適用することを特徴とする項目14または15に記載の画像処理装置。
(項目17)
さらに、前記表示装置が表示している画像におけるユーザの注視位置を検出可能な検出手段を有し、
前記生成手段は、前記検出手段が検出した前記注視位置に基づく特徴領域に前記加工処理を適用することを特徴とする項目14から16のいずれか1項に記載の画像処理装置。
(項目18)
前記生成手段は、生成した前記画像データに前記特徴領域が含まれていない場合、前記画像データに、特徴領域が存在する方向を示す指標を含めることを特徴とする項目14から17のいずれか1項に記載の画像処理装置。
(項目19)
前記頭部装着型の表示装置が、前記画像処理装置と通信可能な外部装置であることを特徴とする項目14から18のいずれか1項に記載の画像処理装置。
(項目20)
前記画像処理装置が、前記頭部装着型の表示装置の一部であることを特徴とする項目14から18のいずれか1項に記載の画像処理装置。
(項目21)
前記仮想環境を表すVR画像のデータを取得する取得手段をさらに有し、
前記生成手段は、前記VR画像から前記画像データを生成する、
ことを特徴とする項目14から20のいずれか1項に記載の画像処理装置。
(項目22)
前記取得手段は前記VR画像の撮影時に得られた主被写体情報および/または視線情報をさらに取得し、
前記生成手段は、前記主被写体情報または前記視線情報に基づいて、前記加工処理を適用する前記特徴領域を決定することを特徴とする項目21に記載の画像処理装置。
(項目23)
画像処理装置が実行する画像処理方法であって、
頭部装着型の表示装置に表示するための画像データを生成する生成工程を有し、
前記生成工程では、前記表示装置を通じてユーザに提供する仮想環境の種類に応じた特徴領域を他の領域より視覚的に強調する加工処理を適用することにより、前記画像データを生成する、
ことを特徴とする画像処理方法。
(項目24)
コンピュータを、項目8から22のいずれか1項に記載の画像処理装置が有する各手段として機能させるためのプログラム。
Disclosure of this embodiment includes the following imaging device, method, image processing device, image processing method, and program.
(Item 1)
An imaging device,
a detection means capable of detecting a gaze position of a user in an image displayed by the imaging device;
and generating means for generating image data for the display,
The generation means applies processing to the image data generated when the detection means is active to visually emphasize a characteristic region over other regions,
wherein the characteristic region is a region of a subject of a type determined based on settings of the imaging device;
An imaging device characterized by:
(Item 2)
the settings are settings for shooting a specific scene or a specific subject;
The imaging apparatus according to
(Item 3)
The processing treatment is
A process of processing other areas inconspicuously without processing the characteristic area,
processing that emphasizes the characteristic region and does not process other regions;
A process of emphasizing the characteristic region and processing other regions inconspicuously,
A process of processing the entire image including the characteristic region to emphasize the characteristic region;
3. The imaging device according to
(Item 4)
4. The imaging apparatus according to any one of
(Item 5)
5. The imaging apparatus according to any one of
(Item 6)
A method executed by an imaging device having detection means capable of detecting a gaze position of a user in a displayed image,
a generating step of generating image data for the display;
In the generating step,
Applying processing to the image data generated when the detection means is active to visually emphasize the characteristic region from other regions,
The image data generated when the detection means is not effective is not processed to visually emphasize the characteristic region from other regions,
wherein the characteristic region is a region of a subject of a type determined based on settings of the imaging device;
A method characterized by:
(Item 7)
A program for causing a computer of an imaging device to function as each unit of the imaging device according to any one of
(Item 8)
having generating means for generating image data to be displayed on a head-mounted display device;
The generation means generates the image data by applying a processing process that visually emphasizes a characteristic region according to the type of virtual environment provided to the user through the display device from other regions.
An image processing apparatus characterized by:
(Item 9)
The processing treatment is
A process of processing other areas inconspicuously without processing the characteristic area,
processing that emphasizes the characteristic region and does not process other regions;
A process of emphasizing the characteristic region and processing other regions inconspicuously,
A process of processing the entire image including the characteristic region to emphasize the characteristic region;
9. The image processing apparatus according to item 8, characterized by being any one of
(Item 10)
Furthermore, it has a detection means capable of detecting a user's gaze position in the image displayed by the display device,
10. According to item 8 or 9, wherein the generating means generates the image data by applying further processing based on the gaze position detected by the detecting means after applying the processing. image processing device.
(Item 11)
11. The image processing apparatus according to
(Item 12)
11. The image processing apparatus according to
(Item 13)
11. The image processing apparatus according to
(Item 14)
9. The method according to item 8, wherein for each type of the virtual environment, a type of characteristic region to which the processing is applicable and a type of the characteristic region to which the processing is applied by default are associated with each other. Image processing device.
(Item 15)
15. The image processing apparatus according to item 14, wherein the generating means applies the processing based on the type specified by the user from among the types of characteristic regions associated with the virtual environment being provided to the user. .
(Item 16)
The generating means, if not specified by the user, applies the processing based on the type of characteristic region to which the processing is applied by default, which is associated with the virtual environment being provided to the user. 16. The image processing device according to
(Item 17)
Furthermore, it has a detection means capable of detecting a user's gaze position in the image displayed by the display device,
17. The image processing apparatus according to any one of items 14 to 16, wherein the generation means applies the processing to the feature area based on the gaze position detected by the detection means.
(Item 18)
18. Any one of items 14 to 17, wherein when the generated image data does not include the characteristic region, the generating means includes an index indicating a direction in which the characteristic region exists in the image data. 10. The image processing device according to
(Item 19)
19. The image processing device according to any one of items 14 to 18, wherein the head-mounted display device is an external device capable of communicating with the image processing device.
(Item 20)
19. The image processing device according to any one of items 14 to 18, wherein the image processing device is part of the head-mounted display device.
(Item 21)
further comprising acquisition means for acquiring VR image data representing the virtual environment;
the generating means generates the image data from the VR image;
21. The image processing apparatus according to any one of items 14 to 20, characterized by:
(Item 22)
the acquisition means further acquires main subject information and/or line-of-sight information obtained when the VR image is captured;
22. An image processing apparatus according to item 21, wherein the generation means determines the feature area to which the processing is applied based on the main subject information or the line-of-sight information.
(Item 23)
An image processing method executed by an image processing device,
a generation step of generating image data for display on a head-mounted display device;
In the generating step, the image data is generated by applying a processing process that visually emphasizes a characteristic region according to the type of virtual environment provided to the user through the display device from other regions.
An image processing method characterized by:
(Item 24)
A program for causing a computer to function as each unit included in the image processing apparatus according to any one of items 8 to 22.
本発明は上述した実施形態の内容に制限されず、発明の精神および範囲から離脱することなく様々な変更及び変形が可能である。したがって、発明の範囲を公にするために請求項を添付する。 The present invention is not limited to the content of the above-described embodiments, and various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, the claims are appended to make public the scope of the invention.
1…撮像装置、22…撮像部、24…画像処理部、28…表示部、50…システム制御回路、70…操作部、100…本体、150…レンズユニット
DESCRIPTION OF
Claims (24)
前記撮像装置が表示している画像におけるユーザの注視位置を検出可能な検出手段と、
前記表示のための画像データを生成する生成手段と、を有し、
前記生成手段は、前記検出手段が有効な際に生成する前記画像データについては、特徴領域を他の領域より視覚的に強調する加工処理を適用し、
前記特徴領域が、前記撮像装置の設定に基づいて判定される種類の被写体の領域である、
ことを特徴とする撮像装置。 An imaging device,
a detection means capable of detecting a gaze position of a user in an image displayed by the imaging device;
and generating means for generating image data for the display,
The generation means applies processing to the image data generated when the detection means is active to visually emphasize a characteristic region over other regions,
wherein the characteristic region is a region of a subject of a type determined based on settings of the imaging device;
An imaging device characterized by:
前記特徴領域が、前記特定のシーンに応じた種類の被写体の領域、あるいは前記特定の被写体の領域であることを特徴とする請求項1に記載の撮像装置。 the settings are settings for shooting a specific scene or a specific subject;
2. The imaging apparatus according to claim 1, wherein the characteristic area is an area of a subject of a type corresponding to the specific scene or an area of the specific subject.
前記特徴領域については加工せず、他の領域を目立たなく加工する処理、
前記特徴領域を強調し、他の領域は加工しない処理、
前記特徴領域を強調するとともに、他の領域を目立たなく加工する処理、
前記特徴領域を含む画像全体を加工して前記特徴領域を強調する処理、
のいずれか1つであることを特徴とする請求項1に記載の撮像装置。 The processing treatment is
A process of processing other areas inconspicuously without processing the characteristic area,
processing that emphasizes the characteristic region and does not process other regions;
A process of emphasizing the characteristic region and processing other regions inconspicuously,
A process of processing the entire image including the characteristic region to emphasize the characteristic region;
2. The image pickup apparatus according to claim 1, wherein the image pickup apparatus is any one of:
前記表示のための画像データを生成する生成工程と、を有し、
前記生成工程では、
前記検出手段が有効な際に生成する前記画像データについては、特徴領域を他の領域より視覚的に強調する加工処理を適用し、
前記検出手段が有効でない際に生成する前記画像データについては、特徴領域を他の領域より視覚的に強調する加工処理を適用せず、
前記特徴領域が、前記撮像装置の設定に基づいて判定される種類の被写体の領域である、
ことを特徴とする方法。 A method executed by an imaging device having detection means capable of detecting a gaze position of a user in a displayed image,
a generating step of generating image data for the display;
In the generating step,
Applying processing to the image data generated when the detection means is active to visually emphasize the characteristic region from other regions,
The image data generated when the detection means is not effective is not processed to visually emphasize the characteristic region from other regions,
wherein the characteristic region is a region of a subject of a type determined based on settings of the imaging device;
A method characterized by:
前記生成手段は、前記表示装置を通じてユーザに提供する仮想環境の種類に応じた特徴領域を他の領域より視覚的に強調する加工処理を適用することにより、前記画像データを生成する、
ことを特徴とする画像処理装置。 having generating means for generating image data to be displayed on a head-mounted display device;
The generation means generates the image data by applying a processing process that visually emphasizes a characteristic region according to the type of virtual environment provided to the user through the display device from other regions.
An image processing apparatus characterized by:
前記特徴領域については加工せず、他の領域を目立たなく加工する処理、
前記特徴領域を強調し、他の領域は加工しない処理、
前記特徴領域を強調するとともに、他の領域を目立たなく加工する処理、
前記特徴領域を含む画像全体を加工して前記特徴領域を強調する処理、
のいずれか1つであることを特徴とする請求項8に記載の画像処理装置。 The processing treatment is
A process of processing other areas inconspicuously without processing the characteristic area,
processing that emphasizes the characteristic region and does not process other regions;
A process of emphasizing the characteristic region and processing other regions inconspicuously,
A process of processing the entire image including the characteristic region to emphasize the characteristic region;
9. The image processing apparatus according to claim 8, wherein the image processing apparatus is any one of:
前記生成手段は、前記加工処理を適用したのち、前記検出手段が検出した前記注視位置に基づくさらなる加工処理を適用することにより、前記画像データを生成することを特徴とする請求項8に記載の画像処理装置。 Furthermore, it has a detection means capable of detecting a user's gaze position in the image displayed by the display device,
9. The image data according to claim 8, wherein said generating means generates said image data by applying further processing based on said gaze position detected by said detecting means after applying said processing. Image processing device.
前記生成手段は、前記検出手段が検出した前記注視位置に基づく特徴領域に前記加工処理を適用することを特徴とする請求項14に記載の画像処理装置。 Furthermore, it has a detection means capable of detecting a user's gaze position in the image displayed by the display device,
15. The image processing apparatus according to claim 14, wherein said generation means applies said processing to the characteristic region based on said gaze position detected by said detection means.
前記生成手段は、前記VR画像から前記画像データを生成する、
ことを特徴とする請求項14に記載の画像処理装置。 further comprising acquisition means for acquiring VR image data representing the virtual environment;
the generating means generates the image data from the VR image;
15. The image processing apparatus according to claim 14, characterized by:
前記生成手段は、前記主被写体情報または前記視線情報に基づいて、前記加工処理を適用する前記特徴領域を決定することを特徴とする請求項21に記載の画像処理装置。 the acquisition means further acquires main subject information and/or line-of-sight information obtained when the VR image is captured;
22. The image processing apparatus according to claim 21, wherein said generating means determines said feature area to which said processing is applied, based on said main subject information or said line-of-sight information.
頭部装着型の表示装置に表示するための画像データを生成する生成工程を有し、
前記生成工程では、前記表示装置を通じてユーザに提供する仮想環境の種類に応じた特徴領域を他の領域より視覚的に強調する加工処理を適用することにより、前記画像データを生成する、
ことを特徴とする画像処理方法。 An image processing method executed by an image processing device,
a generation step of generating image data for display on a head-mounted display device;
In the generating step, the image data is generated by applying a processing process that visually emphasizes a characteristic region according to the type of virtual environment provided to the user through the display device from other regions.
An image processing method characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2022/039675 WO2023074669A1 (en) | 2021-10-27 | 2022-10-25 | Imaging device, image processing device, and method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021175904 | 2021-10-27 | ||
JP2021175904 | 2021-10-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023065313A true JP2023065313A (en) | 2023-05-12 |
Family
ID=86281688
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022165023A Pending JP2023065313A (en) | 2021-10-27 | 2022-10-13 | Imaging apparatus, image processing device, and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023065313A (en) |
-
2022
- 2022-10-13 JP JP2022165023A patent/JP2023065313A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9927948B2 (en) | Image display apparatus and image display method | |
KR102502404B1 (en) | Information processing device and method, and program | |
JP7043255B2 (en) | Electronic devices and their control methods | |
US10645278B2 (en) | Imaging control apparatus and control method therefor | |
EP3591499B1 (en) | Electronic device, control method for electronic device, program, and computer readable medium | |
JP5464130B2 (en) | Information display system, apparatus, method and program | |
JP2020024417A (en) | Information processing apparatus | |
KR20220128585A (en) | Wearable image pickup apparatus, portable device and calibrator that communicate with image pickup apparatus, control methods therefor, and storage media storing control programs therefor | |
GB2611154A (en) | Image pickup apparatus used as action camera, control method therefor, and storage medium storing control program therefor | |
KR102477993B1 (en) | Display control apparatus, imaging apparatus, control method, and computer readable medium | |
WO2020059327A1 (en) | Information processing device, information processing method, and program | |
US11003062B2 (en) | Information processing device, method of information processing, and image display system | |
WO2023074669A1 (en) | Imaging device, image processing device, and method | |
JP2023065313A (en) | Imaging apparatus, image processing device, and method | |
JP2021069045A (en) | Display control device, display control method, program, and storage media | |
US20230269483A1 (en) | Electronic device and electronic device control method | |
US11558599B2 (en) | Electronic apparatus, control method for electronic apparatus, and non-transitory computer-readable storage medium | |
US11750916B2 (en) | Image processing apparatus, image processing method, and non-transitory computer readable medium | |
EP4387220A1 (en) | Head-mounted electronic device with display recording capability | |
US11049220B2 (en) | Display control apparatus, display control method, and non-transitory computer readable medium | |
US11543667B2 (en) | Head-mounted display generated status message | |
US20230126836A1 (en) | Image pickup apparatus used as action camera, control method therefor, and storage medium storing control program therefor | |
US20240089424A1 (en) | Electronic apparatus, and control method for electronic apparatus | |
JP2022140424A (en) | Image pickup apparatus, control method therefor, and program |