JP2014146871A - Wearable display device and program - Google Patents
Wearable display device and program Download PDFInfo
- Publication number
- JP2014146871A JP2014146871A JP2013012815A JP2013012815A JP2014146871A JP 2014146871 A JP2014146871 A JP 2014146871A JP 2013012815 A JP2013012815 A JP 2013012815A JP 2013012815 A JP2013012815 A JP 2013012815A JP 2014146871 A JP2014146871 A JP 2014146871A
- Authority
- JP
- Japan
- Prior art keywords
- display
- content
- image
- area
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、ウェアラブル型表示装置及びプログラム等に関する。 The present invention relates to a wearable display device, a program, and the like.
近年、ユーザに対して画像情報を提示する際に、当該ユーザの身体に装着されるウェアラブル型表示装置(例えば頭部に装着されるHMD、Head mounted display)が用いられるようになっている。ウェアラブル型表示装置には幾つかの方式が考えられるが、シースルー方式のウェアラブル型表示装置においては、外界視野の一部に表示画像が重畳表示されることになる。 In recent years, when presenting image information to a user, a wearable display device (for example, an HMD mounted on the head, a head mounted display) that is worn on the body of the user has been used. Although several types of wearable display devices are possible, in a see-through type wearable display device, a display image is superimposed and displayed on a part of the external field of view.
例えば特許文献1には、立体映像ディスプレイの具体例としてHMDが記載され、表示領域の輪郭部にぼかしを入れて、自然に表示し、臨場感を高める手法を用いる両眼立体視用HDMの構成が開示されている。特許文献1では、ぼかし枠の幅・位置は、視差がほぼ一定になるようにコンテンツ位置を調整し、決定している。なお、特許文献1は立体映像の表示手法に関するものであり、シースルー方式のウェアラブル型表示装置に限定された手法ではない。 For example, Patent Document 1 describes an HMD as a specific example of a stereoscopic video display, and a configuration of a binocular stereoscopic HDM that uses a technique in which a contour portion of a display area is blurred and displayed naturally to enhance a sense of reality. Is disclosed. In Patent Document 1, the width and position of the blur frame are determined by adjusting the content position so that the parallax is substantially constant. Patent Document 1 relates to a stereoscopic image display method, and is not limited to a see-through wearable display device.
また、特許文献2には、マニュアルなどのコンテンツデータと外界を同時に把握することを目的としたシースルー型のHMDの構成が開示されている。特許文献2では、表示コンテンツとカメラの撮像範囲が重複しないようにコンテンツのレイアウトを動的に変更した上で、カメラの撮像範囲と重なる領域の輝度を下げて、外界映像を表示させている。 Further, Patent Document 2 discloses a configuration of a see-through type HMD for the purpose of simultaneously grasping content data such as a manual and the outside world. In Patent Document 2, the layout of the content is dynamically changed so that the display content and the imaging range of the camera do not overlap, and then the brightness of the area overlapping the imaging range of the camera is lowered to display the external image.
シースルー方式のウェアラブル型表示装置においては、外界視野に表示画像を重畳表示するという特性上、外界視野と表示画像との境界部分(表示画像の輪郭部)が目立つ等の要因により違和感が生じる可能性がある。また、ユーザの実視野全体に比べて表示画像が表示される領域が狭いため、小さい表示部(例えば接眼窓)が用いられることがあり、瞳孔の大きさとの関係からケラレの影響を無視できない可能性もある。 In a see-through wearable display device, the display image is superimposed and displayed on the external field of view, which may cause a sense of incongruity due to the conspicuous boundary between the external field of view and the display image (the contour of the display image). There is. In addition, since the display image is displayed in a smaller area than the entire real field of view of the user, a small display unit (for example, an eyepiece window) may be used, and the influence of vignetting cannot be ignored due to the relationship with the size of the pupil. There is also sex.
特許文献1及び特許文献2では、ウェアラブル型表示装置において、表示画像を自然に表示する、或いはコンテンツの内容を適切にユーザに提示するための手法が開示されている。しかし、上述の違和感の度合いや、ケラレの影響度合いは、表示対象である元々のコンテンツの内容に依存するものであるところ、特許文献1ではぼかし枠の設定においてコンテンツの内容は考慮されていない。また、特許文献2の手法によれば、コンテンツを見ながら外界を容易に把握することができるが、表示領域の輪郭部が明瞭に認識される点は特に考慮されていない。 Patent Documents 1 and 2 disclose a technique for displaying a display image naturally or appropriately presenting the contents of content to a user in a wearable display device. However, the degree of discomfort described above and the degree of influence of vignetting depend on the content of the original content to be displayed. However, in Patent Document 1, the content of the content is not considered in setting the blur frame. Further, according to the method of Patent Document 2, it is possible to easily grasp the outside world while viewing the content, but the point that the outline of the display area is clearly recognized is not particularly taken into consideration.
本発明の幾つかの態様によれば、コンテンツデータに基づいて、表示画像の周縁にある枠領域を制御することで、当該コンテンツデータを適切に表示するウェアラブル型表示装置及びプログラム等を提供することができる。 According to some aspects of the present invention, it is possible to provide a wearable display device, a program, and the like that appropriately display content data by controlling a frame region at the periphery of the display image based on the content data. Can do.
本発明の一態様は、表示対象のコンテンツデータに基づいて、表示画像の周縁に設定される枠領域の形状及び輝度の少なくとも一方を制御して、前記枠領域と、前記コンテンツデータを表示するコンテンツ表示領域とを含む前記表示画像を生成する処理部と、生成された前記表示画像の表示制御を行う表示制御部と、前記表示制御部の前記表示制御に基づいて、前記処理部で生成された前記表示画像を外界と重ねてシースルー表示する表示部と、を含むウェアラブル型表示装置に関係する。 According to one embodiment of the present invention, content for displaying the frame region and the content data by controlling at least one of the shape and luminance of the frame region set at the periphery of the display image based on content data to be displayed A processing unit that generates the display image including a display area, a display control unit that performs display control of the generated display image, and a display unit that is generated based on the display control of the display control unit. The present invention relates to a wearable display device including a display unit that displays the display image on the outside world in a see-through manner.
本発明の一態様では、コンテンツデータに基づいて枠領域を制御して、当該枠領域を含む表示画像を表示する。これにより、コンテンツデータに応じた適切な枠領域を設定できるため、コンテンツの効果的な表示等が可能になる。 In one embodiment of the present invention, a frame region is controlled based on content data, and a display image including the frame region is displayed. As a result, an appropriate frame area can be set according to the content data, so that the content can be effectively displayed.
本発明の一態様では、前記コンテンツデータは、第1のコンテンツデータと、前記第1のコンテンツデータとは異なる第2のコンテンツデータを含み、前記処理部は、前記第1のコンテンツデータに対応した第1の表示画像の第1の枠領域と、前記第2のコンテンツデータに対応した第2の表示画像の第2の枠領域とで、前記形状及び前記輝度の少なくとも一方が異なる領域を設定してもよい。 In one aspect of the present invention, the content data includes first content data and second content data different from the first content data, and the processing unit corresponds to the first content data. A region in which at least one of the shape and the luminance is different between the first frame region of the first display image and the second frame region of the second display image corresponding to the second content data is set. May be.
これにより、コンテンツデータの応じた適切な枠領域を設定すること等が可能になる。 Thereby, it is possible to set an appropriate frame area according to the content data.
本発明の一態様では、前記処理部は、前記第1の表示画像と第2の表示画像の少なくとも一方に対して、前記枠領域の面積をゼロとする前記形状の制御を行い、前記枠領域の前記面積がゼロとされた前記表示画像として、前記枠領域を含まず、前記コンテンツ表示領域が全体に表示された前記表示画像を生成してもよい。 In one aspect of the present invention, the processing unit performs control of the shape such that the area of the frame region is zero with respect to at least one of the first display image and the second display image, and the frame region As the display image in which the area is zero, the display image in which the content display region is entirely displayed without including the frame region may be generated.
これにより、枠領域の形状の制御として、枠領域の面積を0とする制御を行うこと等が可能になる。 As a result, it is possible to control the area of the frame area to be 0 as the control of the shape of the frame area.
本発明の一態様では、前記第2のコンテンツデータに含まれる第2のコンテンツ画像情報が、前記第1のコンテンツデータに含まれる第1のコンテンツ画像情報の一部を拡大した画像である場合、又は前記第2のコンテンツ画像情報の画角が、前記第1のコンテンツ画像情報の前記画角に比べて狭い場合に、前記処理部は、前記第1の表示画像に含まれる前記第1の枠領域の面積に比べて、前記第2の表示画像に含まれる前記第2の枠領域の面積を大きく設定してもよい。 In one aspect of the present invention, when the second content image information included in the second content data is an image obtained by enlarging a part of the first content image information included in the first content data, Alternatively, when the angle of view of the second content image information is narrower than the angle of view of the first content image information, the processing unit includes the first frame included in the first display image. The area of the second frame area included in the second display image may be set larger than the area of the area.
これにより、コンテンツデータの拡大度合い、又は画角の広さに応じて、枠領域の面積を制御すること等が可能になる。 As a result, the area of the frame region can be controlled according to the degree of expansion of the content data or the angle of view.
本発明の一態様では、前記処理部は、前記第1のコンテンツ画像情報及び前記第2のコンテンツ画像情報から人物の顔領域を認識する認識処理を行い、前記認識処理に基づいて、前記第2のコンテンツ画像情報が前記第1のコンテンツ画像情報の一部を拡大した画像であるか否かの判定処理を行ってもよい。 In one aspect of the present invention, the processing unit performs recognition processing for recognizing a human face area from the first content image information and the second content image information, and based on the recognition processing, It may be determined whether or not the content image information is an image obtained by enlarging a part of the first content image information.
これにより、コンテンツデータの拡大度合いを、顔領域の認識処理により行うこと等が可能になる。 As a result, the degree of expansion of the content data can be performed by face area recognition processing.
本発明の一態様では、前記処理部は、前記コンテンツ表示領域を含む前記表示画像の少なくとも一部の輝度に基づいて、前記枠領域の前記形状及び前記輝度の少なくとも一方を制御してもよい。 In one aspect of the present invention, the processing unit may control at least one of the shape and the luminance of the frame region based on the luminance of at least a part of the display image including the content display region.
これにより、輝度に基づいて枠領域を制御すること等が可能になる。 This makes it possible to control the frame area based on the luminance.
本発明の一態様では、前記処理部は、前記枠領域の前記形状の制御として、前記枠領域を方形又は円形とする制御を行ってもよい。 In one aspect of the present invention, the processing unit may control the frame region to be a square or a circle as control of the shape of the frame region.
これにより、枠領域の形状を方形又は円形とする制御を行うことが可能になる。 This makes it possible to perform control so that the shape of the frame region is square or circular.
本発明の一態様では、前記処理部は、前記表示画像の中央部から周縁部へと向かう方向において、前記枠領域の輝度が単調減少するグラデーション表示とする前記枠領域の制御を行ってもよい。 In one aspect of the present invention, the processing unit may perform control of the frame region in a gradation display in which the luminance of the frame region monotonously decreases in a direction from the central portion to the peripheral portion of the display image. .
これにより、枠領域をグラデーション表示とすることで、枠領域を設定しない場合や枠領域を単色とする場合等に比べて、枠領域の設定効果を高めること等が可能になる。 Thereby, by setting the frame area to gradation display, it becomes possible to enhance the setting effect of the frame area compared to the case where the frame area is not set or the frame area is a single color.
本発明の一態様では、前記処理部は、前記枠領域と前記コンテンツ表示領域との境界において、ぼかし処理を施すことで前記表示画像を生成してもよい。 In one aspect of the present invention, the processing unit may generate the display image by performing a blurring process at a boundary between the frame region and the content display region.
これにより、ぼかし処理を施すことで、枠領域を設定しない場合や枠領域を単色とする場合等に比べて、枠領域の設定効果を高めること等が可能になる。 As a result, by performing the blurring process, it is possible to enhance the setting effect of the frame area compared to the case where the frame area is not set or the frame area is a single color.
本発明の一態様では、前記処理部は、前記枠領域の内径に基づいて、前記コンテンツデータに含まれるコンテンツ画像情報に対して、サイズ変更処理及びトリミング処理の少なくとも一方の処理を行ってもよい。 In one aspect of the present invention, the processing unit may perform at least one of a size change process and a trimming process on content image information included in the content data based on an inner diameter of the frame region. .
これにより、枠領域のサイズに基づいて、コンテンツ画像情報により表される画像に対するサイズ変更処理等を行った上で表示画像を生成すること等が可能になる。 Accordingly, it is possible to generate a display image after performing a size changing process on the image represented by the content image information based on the size of the frame region.
本発明の一態様では、前記処理部は、前記コンテンツデータに含まれるコンテンツ画像情報のうちの注目領域を決定し、決定された前記注目領域に対して前記枠領域を付加することで、前記表示画像を生成してもよい。 In one aspect of the present invention, the processing unit determines a region of interest in the content image information included in the content data, and adds the frame region to the determined region of interest so that the display is performed. An image may be generated.
これにより、コンテンツ画像情報のうちの注目領域を表示画像に用いること等が可能になる。 This makes it possible to use the attention area in the content image information as a display image.
本発明の一態様では、前記処理部は、前記コンテンツデータに含まれるメタデータに基づいて、前記コンテンツ画像情報のうちの前記注目領域を決定し、決定された前記注目領域に対して前記枠領域を付加することで、前記表示画像を生成してもよい。 In one aspect of the present invention, the processing unit determines the attention area in the content image information based on metadata included in the content data, and the frame area with respect to the determined attention area The display image may be generated by adding.
これにより、メタデータに基づいて注目領域を決定すること等が可能になる。 This makes it possible to determine a region of interest based on metadata.
本発明の一態様では、前記処理部は、前記コンテンツ画像情報上での被写体の動きを検出する動き検出処理、又は前記コンテンツ画像情報上での対象被写体の位置を検出する被写体追尾処理の結果に基づいて、前記コンテンツ画像情報のうちの前記注目領域を決定し、決定された前記注目領域に対して前記枠領域を付加することで、前記表示画像を生成してもよい。 In one aspect of the present invention, the processing unit is a result of a motion detection process that detects a movement of a subject on the content image information, or a subject tracking process that detects a position of the target subject on the content image information. The display image may be generated by determining the attention area in the content image information and adding the frame area to the determined attention area.
これにより、動き検出処理又は被写体追尾処理により注目領域を決定すること等が可能になる。 As a result, it is possible to determine a region of interest by motion detection processing or subject tracking processing.
本発明の一態様では、前記コンテンツデータは、緊急度を表す緊急度情報を含み、前記処理部は、前記緊急度情報に基づいて、前記枠領域の前記形状及び前記輝度の少なくとも一方を制御してもよい。 In one aspect of the present invention, the content data includes urgency information indicating an urgency level, and the processing unit controls at least one of the shape and the luminance of the frame region based on the urgency level information. May be.
これにより、緊急度情報を用いた枠領域の制御等が可能になる。 This makes it possible to control the frame area using the urgency information.
本発明の一態様では、前記処理部は、前記緊急度情報に基づいて、前記コンテンツデータの表示態様を制御してもよい。 In one aspect of the present invention, the processing unit may control a display mode of the content data based on the urgency information.
これにより、枠領域の制御に加え、緊急度情報を用いたコンテンツデータの表示制御を行うこと等が可能になる。 Thereby, in addition to the control of the frame area, it is possible to perform display control of content data using the urgency information.
本発明の一態様では、前記表示部に表示する前記表示画像を形成する光束を使用者にむけて射出する接眼窓を含み、前記接眼窓は、前記使用者の視軸方向への投影断面の幅が4mm以下であってもよい。 In one aspect of the present invention, an eyepiece window that emits a light beam that forms the display image to be displayed on the display unit toward a user is provided, and the eyepiece window has a projected cross-section in the visual axis direction of the user. The width may be 4 mm or less.
これにより、シースルー方式のウェアラブル型表示装置として、瞳分割シースルー方式のウェアラブル型表示装置を実現すること等が可能になる。 As a result, it becomes possible to realize a wearable display device of the pupil division see-through method as a see-through wearable display device.
本発明の一態様では、前記表示制御部は、前記表示画像の表示態様を制御することで、前記枠領域の前記輝度を制御してもよい。 In one aspect of the present invention, the display control unit may control the luminance of the frame region by controlling a display mode of the display image.
これにより、枠領域の輝度制御を表示制御部において行うこと等が可能になる。 As a result, the brightness control of the frame area can be performed in the display control unit.
本発明の一態様では、前記表示制御部は、前記表示部のバックライトの制御を行うことで、前記枠領域の前記輝度を制御してもよい。 In one aspect of the present invention, the display control unit may control the luminance of the frame region by controlling a backlight of the display unit.
これにより、枠領域の輝度制御を表示制御部でのバックライト制御により行うこと等が可能になる。 As a result, the brightness control of the frame area can be performed by the backlight control in the display control unit.
本発明の他の態様は、表示対象のコンテンツデータに基づいて、表示画像の周縁にある枠領域の形状及び輝度の少なくとも一方を制御して、前記枠領域と、前記コンテンツデータを表示するコンテンツ表示領域とを含む表示画像を生成する処理部と、生成された表示画像を、外界と重ねて表示部にシースルー表示する制御を行う表示制御部として、コンピュータを機能させるプログラムに関係する。 Another aspect of the present invention is a content display that displays the frame region and the content data by controlling at least one of the shape and luminance of the frame region at the periphery of the display image based on the content data to be displayed. The present invention relates to a program that causes a computer to function as a processing unit that generates a display image including a region and a display control unit that performs control to display the generated display image on the display unit in a superimposed manner with the outside world.
以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.
1.本実施形態の手法
まず本実施形態の手法について説明する。近年、使用者がいつでもどこでも望む時に情報にアクセスするための情報端末として、ウェアラブル型の情報表示装置が注目されている。例えば、頭部装着型の情報表示装置(HMD)は、常時装着することで、視線の移動だけで情報を確認することができる。スマートフォンなどのように、情報がほしいときに都度カバンやポケットなどから取り出す必要もない。常時装着のためには小型化・軽量化と外界の視覚情報を常時観察できるシースルー構成が必要となる。なお、ウェアラブル型表示装置には、外界の視覚情報を観察しないものもあるが、これは映画鑑賞等、没入感が重視される状況において使用されるものであり、外界が見えないため移動時等の装着は想定されていない。
1. First, the method of this embodiment will be described. In recent years, wearable information display devices have attracted attention as information terminals for accessing information whenever a user desires anytime and anywhere. For example, a head-mounted information display device (HMD) can be confirmed by simply wearing the head-mounted information display device (HMD). You don't have to take it out of your bag or pocket every time you want information like a smartphone. In order to always wear it, it is necessary to make it smaller and lighter and to have a see-through configuration that can always observe the visual information of the outside world. Some wearable display devices do not observe the visual information of the outside world, but this is used in situations where immersive feelings are important, such as watching movies. Is not supposed to be installed.
シースルー型HMDとしては、ハーフミラー方式、HOE(ホログラフィック光学素子)方式、網膜走査方式、瞳分割シースルー方式などがあげられる。以下、表示コンテンツにより外界視野を妨げられることなく、小型化が容易で、シースルー性能に優れた瞳分割シースルー方式のHMDを取り上げて説明する。ただし、本実施形態のウェアラブル型表示装置はこれに限定されるものではなく、他の方式であってもよい。 Examples of the see-through HMD include a half mirror method, a HOE (holographic optical element) method, a retinal scanning method, and a pupil division see-through method. Hereinafter, a pupil division see-through HMD that is easy to downsize and has excellent see-through performance without hindering the external field of view by display contents will be described. However, the wearable display device of the present embodiment is not limited to this, and other methods may be used.
ウェアラブル型表示装置の装着例を図1に示す。図1の11に示した例では耳の部分を支点として装置を装着している。これは例えば眼鏡のように耳にかける形状により実現してもよい。そして表示部を保持する保持部を調整することで、当該表示部がユーザの眼球正面に位置するように用いられる。 An example of wearing a wearable display device is shown in FIG. In the example shown in 11 of FIG. 1, the device is mounted with the ear portion as a fulcrum. For example, this may be realized by a shape to be put on the ear like glasses. Then, the display unit is used so as to be positioned in front of the user's eyeball by adjusting the holding unit that holds the display unit.
シースルー方式のウェアラブル型表示装置を用いた場合の、ユーザ視野の例を図2(A)、図2(B)に示す。図2(A)は、ウェアラブル型表示装置を装着していない場合の視野、つまりは実視野を表すものであり、家や山等は現実にユーザの視線方向に存在するものが観察されていることになる。そして、ウェアラブル型表示装置を装着した場合のユーザ視野の例が図2(B)である。図2(B)の例では、DAに示したようにユーザ視野全体のうち右下の部分において、表示部によりユーザに提示される表示画像が観察されることになる。ここではテキストを含む表示画像が表示されており、図2(A)、図2(B)の比較からもわかるように、表示画像が重畳表示されている状態においても外界視野の多くの部分が観察可能である。 FIGS. 2A and 2B show examples of the user field of view when a see-through type wearable display device is used. FIG. 2A shows a visual field when a wearable display device is not attached, that is, a real visual field, and a house, a mountain, or the like that is actually present in the user's line of sight is observed. It will be. FIG. 2B shows an example of the user field of view when the wearable display device is attached. In the example of FIG. 2B, the display image presented to the user by the display unit is observed in the lower right portion of the entire user field of view as shown in DA. Here, a display image including text is displayed, and as can be seen from the comparison between FIG. 2A and FIG. 2B, even when the display image is superimposed and displayed, many parts of the external field of view are displayed. Observable.
瞳分割シースルー方式における表示部(接眼窓)と瞳孔の関係を図3(A)、図3(B)に示す。図3(A)に示した人間の瞳孔PUの大きさ(瞳孔径)は、明るさに応じて2〜8mmの間で変化する。眼球正面に配置された遮蔽物が瞳径より小さいとき、遠方の景色は遮蔽物によって遮られることなく、観察可能である。すなわち、コンテンツ表示を行う接眼窓保持部HOを、図3(B)に示したように瞳孔PUより小さくすることで、外界からの光束を遮ることなく、接眼窓から射出される電子映像の光束を確認することができ、外界(実視野)の像と電子映像とが重畳(オーバーラップ)して視認できる。これにより、シースルー効果が得られることになる。これが、瞳分割シースルー方式の原理である。ここで、接眼窓保持部の幅は、平均的な瞳孔径サイズを基準として図3(B)に示したように4mm以下にすることが望ましい。 3A and 3B show the relationship between the display unit (eyepiece window) and the pupil in the pupil division see-through method. The size (pupil diameter) of the human pupil PU shown in FIG. 3A changes between 2 and 8 mm depending on the brightness. When the shielding object arranged in front of the eyeball is smaller than the pupil diameter, the distant scenery can be observed without being obstructed by the shielding object. That is, by making the eyepiece window holding unit HO for displaying content smaller than the pupil PU as shown in FIG. 3B, the light flux of the electronic image emitted from the eyepiece window without blocking the light flux from the outside. Can be confirmed, and the image of the outside world (real field of view) and the electronic image can be visually recognized by overlapping (overlapping). Thereby, a see-through effect is obtained. This is the principle of the pupil division see-through method. Here, the width of the eyepiece window holding part is desirably 4 mm or less as shown in FIG. 3B with reference to the average pupil diameter size.
このようなシースルー方式のウェアラブル型表示装置では、表示画像の視認性について幾つかの問題が生じうる。第1に外界視野と表示画像との境界による視認性低下の問題である。具体的には、コンテンツにより、表示領域と非表示領域の境界が明瞭に認識されることで、コンテンツへの注目度が無意識であっても相対的に下がる場合がある。それに伴い、外界とコンテンツがシースルーにより融合することで確保されるコンテンツ表示の自然さが損なわれる。 In such a see-through type wearable display device, several problems may occur with respect to the visibility of the display image. The first problem is a decrease in visibility due to the boundary between the external field of view and the display image. Specifically, the content clearly recognizes the boundary between the display area and the non-display area, so that the degree of attention to the content may be relatively lowered. As a result, the naturalness of content display secured by the fusion of the outside world and content through see-through is impaired.
例えば図4(A)に示したように、シースルー型のヘッドマウントディスプレイであっても、鏡枠やハーフミラーなど接眼窓の保持部(図4(A)のHO)が意識される場合がある。表示コンテンツの輝度が高く、鏡枠に表示が反射している場合などは、非表示領域NAと表示領域DAとの境界BOが明瞭となり、コンテンツ表示の不自然さが顕著となる。また、図4(B)に示したように接眼窓の保持部が意識されなくとも、表示画像の外界視野とで輝度が大きく異なる場合等には、境界BOの輝度差が不自然に感じられる場合がある。 For example, as shown in FIG. 4A, even in a see-through type head mounted display, there is a case where an eyepiece window holding part (HO in FIG. 4A) such as a mirror frame or a half mirror is conscious. . When the brightness of the display content is high and the display is reflected on the mirror frame, the boundary BO between the non-display area NA and the display area DA becomes clear, and the unnaturalness of content display becomes remarkable. Further, as shown in FIG. 4B, even when the holding portion of the eyepiece window is not conscious, the luminance difference of the boundary BO is unnaturally felt when the luminance is greatly different from the external field of view of the display image. There is a case.
第2の問題として、視界のケラレが考えられる。図5(A)、図5(B)に示したように、外界の光量変化により瞳孔PUの大きさが変化することで、瞳孔と接眼窓保持部HOとの相対サイズは変化する。外界光量が十分で、図5(B)に示したように接眼窓保持部に対して瞳孔が小さい場合は、画面がケラレて画面周辺が視界に入らない可能性が高くなる。このような状況でのユーザ視野の例を図6に示す。図2(B)との比較からわかるように、表示画像の周縁部がケラレにより視認できないことで、表示領域DAのうち、コンテンツは中央部A1に表示され、周縁部A2では表示されない状態となっている。特にコンテンツが画面周縁にある場合、像が途切れてユーザにはストレスになるため好ましくない。例えば、図6の場合のようにテキストの一部が周縁にも配置されている場合、テキストに欠けが生じ充分に情報を閲覧できないことになりユーザのストレスは大きい。 As a second problem, vignetting can be considered. As shown in FIGS. 5A and 5B, the relative size between the pupil and the eyepiece window holding unit HO changes as the size of the pupil PU changes due to a change in the amount of light in the outside world. When the amount of external light is sufficient and the pupil is small with respect to the eyepiece window holding portion as shown in FIG. 5B, there is a high possibility that the screen will be vignetted and the periphery of the screen will not enter the field of view. FIG. 6 shows an example of the user field of view in such a situation. As can be seen from the comparison with FIG. 2B, the peripheral portion of the display image cannot be visually recognized by vignetting, so that the content is displayed in the central portion A1 and not in the peripheral portion A2 in the display area DA. ing. In particular, when the content is at the periphery of the screen, the image is interrupted and it is not preferable because it causes stress on the user. For example, when a part of the text is also arranged at the periphery as in FIG. 6, the text is missing and information cannot be browsed sufficiently, and the user's stress is great.
そこで本出願人は、表示画像の周縁部に枠領域を設けることで、ユーザ視野のうちの表示領域と非表示領域(外界視野)との境界を目立たせないようにして、表示画像(狭義にはそこで提示されるコンテンツ)の視認性を高める手法を提案する。このようにすれば、境界に起因する視認性の低下を抑止できると共に、ケラレが生じる領域についてはそもそもコンテンツの表示を行わないため、コンテンツが欠けることによるユーザストレスの発生等も抑止できる。この際、特許文献1等の手法との違いは、当該枠領域の形状や輝度をコンテンツデータに基づいて決定する点である。 Therefore, the present applicant provides a frame region in the peripheral portion of the display image so that the boundary between the display region and the non-display region (external field visual field) in the user visual field is not conspicuous, and the display image (in a narrow sense). Proposes a method for improving the visibility of the content presented there. In this way, it is possible to suppress a decrease in visibility due to the boundary, and since content is not displayed in the first place in an area where vignetting occurs, occurrence of user stress due to lack of content can be suppressed. At this time, the difference from the technique disclosed in Patent Document 1 is that the shape and brightness of the frame area are determined based on the content data.
一般的に、表示画像の輝度が高いほど、ユーザ視野における表示領域と非表示領域との境界がはっきりしてしまい、表示の際の違和感が増す傾向にある。よって、元々のコンテンツの輝度が高い場合(例えば昼間に撮像した画像や、白背景に黒文字を表示する場合等)と、コンテンツの輝度が低い場合(例えば夜景を撮像した画像や、黒背景に白文字を表示する場合等)とでは、異なる枠領域を設定すべきであるが、従来手法ではこのような観点での処理は行われていなかった。従来手法では、コンテンツによらずに枠領域を設定するため、輝度が高いコンテンツに対しては違和感の軽減効果が十分でないという問題や、輝度が低いコンテンツに対しては過剰な枠領域を設定することでかえってコンテンツに視認性を損なう(例えば枠領域によりコンテンツがつぶされたり、コンテンツを縮小する必要が生じたりする)という問題が発生しうる。また、コンテンツを表す画像(コンテンツ画像)中の注目被写体の位置等、コンテンツに起因する他の要因によっても適切な枠領域は変化することがあるが、同様に従来手法においては考慮されていない。 In general, the higher the luminance of the display image, the clearer the boundary between the display area and the non-display area in the user's field of view, and there is a tendency that the uncomfortable feeling at the time of display increases. Therefore, when the luminance of the original content is high (for example, an image captured in the daytime or when black characters are displayed on a white background), and when the luminance of the content is low (for example, an image captured of a night view or white on a black background). For example, when displaying characters, a different frame area should be set. However, the conventional method has not been processed from this point of view. In the conventional method, since the frame area is set regardless of the content, there is a problem that the effect of reducing the sense of discomfort is not sufficient for content with high brightness, or an excessive frame area is set for content with low brightness. In other words, there may be a problem that the visibility of the content is impaired (for example, the content is crushed by the frame area or the content needs to be reduced). Also, the appropriate frame region may change depending on other factors caused by the content such as the position of the subject of interest in the image representing the content (content image), but this is not considered in the conventional method.
本実施形態ではこの点に鑑み、コンテンツデータに基づいて枠領域の形状及び輝度の少なくとも一方を制御するものとする。ここで枠領域の形状の制御とは、枠領域を方形にするか円形にするか、といった制御に加え、枠領域の面積の制御も行うものとする。つまり、枠領域を方形にする場合であっても、その面積が大きい(枠が太い)場合もあれば、面積が小さい(枠が細い)場合もある。また面積を0とする場合、つまり枠領域を設定しない場合も本実施形態の枠領域の形状制御に含まれる。 In the present embodiment, in view of this point, it is assumed that at least one of the shape and luminance of the frame region is controlled based on the content data. Here, the control of the shape of the frame region means that the area of the frame region is also controlled in addition to the control of whether the frame region is rectangular or circular. That is, even when the frame region is rectangular, the area may be large (the frame is thick), or the area may be small (the frame is thin). Further, when the area is set to 0, that is, when the frame region is not set, the shape control of the frame region of this embodiment is included.
また、枠領域の輝度の制御とは、表示部に表示される表示画像の輝度値の制御であってもよいが、これに限定されない。本実施形態で考慮している上述した問題は、ユーザ視野における表示領域と非表示領域の境界がはっきりしてしまうことに起因するため、表示画像がユーザに提示される際の枠領域の輝度(明るさ)が重要である。ここで、画像データの画素値が同一であっても、ディスプレイのバックライト等のハードウェアの制御によって、ユーザにとっての当該画像データの見え方(色味や明るさ)は異なることに鑑みれば、枠領域の輝度は画像データ(表示画像)の段階で調整するのではなく、ハードウェアの制御により調整してもよいということになる。つまり、本実施形態の枠領域の輝度の制御とは、表示画像の枠領域部分の輝度値の調整であってもよいし、表示画像を表示する際の枠領域部分でのバックライト調整等のハードウェア制御であってもよいし、その両方であってもよい。 Further, the control of the luminance of the frame area may be control of the luminance value of the display image displayed on the display unit, but is not limited thereto. The above-described problem considered in the present embodiment is caused by the fact that the boundary between the display area and the non-display area in the user field of view becomes clear. Therefore, the brightness of the frame area when the display image is presented to the user ( (Brightness) is important. Here, even if the pixel values of the image data are the same, if the appearance (color and brightness) of the image data for the user is different depending on the hardware control such as the backlight of the display, The brightness of the frame area is not adjusted at the image data (display image) stage, but may be adjusted by hardware control. In other words, the control of the brightness of the frame area in the present embodiment may be adjustment of the brightness value of the frame area portion of the display image, or backlight adjustment in the frame area portion when the display image is displayed. It may be hardware control or both.
ここで、本実施形態で用いる用語について説明する。コンテンツデータとは、本実施形態のウェアラブル型表示装置で表示する対象となるコンテンツを表す情報である。狭義には、コンテンツデータは、表示対象の画像であるコンテンツ画像情報である。しかしコンテンツデータに含まれるのはコンテンツ画像情報には限定されず、さらにメタデータを含んでもよい。ここでメタデータとは当該コンテンツの特性を表すデータであり、後述するように枠領域の設定手法を規定する情報の場合もある。また、コンテンツ画像情報は、画像データ(コンテンツ画像)そのものであってもよいが、これに限定されず画像を特定可能な他の情報であってもよい。例えば、テキストデータと、背景色データと、前記テキストデータの配置位置情報等をコンテンツ画像情報としてもよい。この場合、コンテンツデータの提供元では画像自体は生成されず、ウェアラブル型表示装置において、上記コンテンツ画像情報を用いてコンテンツ画像を生成することになる。 Here, terms used in the present embodiment will be described. Content data is information representing content to be displayed on the wearable display device of the present embodiment. In a narrow sense, the content data is content image information that is an image to be displayed. However, what is included in the content data is not limited to the content image information, and may further include metadata. Here, the metadata is data representing the characteristics of the content, and may be information defining a frame area setting method as will be described later. The content image information may be image data (content image) itself, but is not limited thereto, and may be other information that can specify an image. For example, text data, background color data, and arrangement position information of the text data may be used as the content image information. In this case, the content data provider does not generate the image itself, but the wearable display device generates the content image using the content image information.
また、表示画像とはウェアラブル型表示装置の表示部において表示される画像であり、本実施形態での枠領域の制御等が行われた結果生成される画像である。表示画像は、コンテンツ表示領域と枠領域とが含まれる。コンテンツ表示領域において、上記コンテンツ画像情報により表されるコンテンツ画像が表示される。コンテンツ表示領域は、コンテンツ画像の全体を等倍で表示する場合や、コンテンツ画像全体を変倍処理を行って表示する場合、コンテンツ画像の一部を等倍で、或いは変倍処理を行って表示する場合等、種々の例が考えられる。枠領域は本実施形態の制御により生成されるものであり、詳細については後述する。 The display image is an image displayed on the display unit of the wearable display device, and is an image generated as a result of the control of the frame area and the like in the present embodiment. The display image includes a content display area and a frame area. In the content display area, the content image represented by the content image information is displayed. In the content display area, when the entire content image is displayed at the same magnification, or when the entire content image is displayed with the scaling process, a part of the content image is displayed with the same magnification or the scaling process. Various examples are conceivable. The frame area is generated by the control of this embodiment, and details will be described later.
また、表示領域とはユーザ視野における前記表示画像が表示される領域である。つまり、図2(B)の例であれば、図2(B)全体がユーザ視野の全体であり、そのうちのテキストが表示されているDAの方形領域が、表示領域となる。つまり表示領域とはユーザ視野における領域を表すものであるため、画像の一部或いは全体の領域を表すものではない。 The display area is an area in which the display image in the user field of view is displayed. That is, in the example of FIG. 2B, the entire FIG. 2B is the entire user field of view, and the DA square area in which the text is displayed is the display area. In other words, the display area represents an area in the user field of view, and does not represent a part or the entire area of the image.
以下、枠領域の制御手法の具体例として、第1〜第4の実施形態について説明する。第1の実施形態では、人物の撮像データをコンテンツデータとする例を用いて、画角(撮像される被写体範囲)に応じて枠領域の形状を制御する手法を説明する。第2の実施形態では、緊急速報に関するコンテンツデータを例に用いて、コンテンツデータに含まれるメタデータに基づいて枠領域を制御する手法を説明する。第3の実施形態では、映画等の作り置きの動画をコンテンツデータとする例を用いて、制作者の位置を反映したメタデータに基づいて枠領域を制御する手法を説明し、合わせてコンテンツ画像の一部をコンテンツ表示領域に表示する例(コンテンツ画像のトリミングや変倍処理を行う例)についても説明する。第4の実施形態では、ウェアラブル型表示装置に付属のカメラによる映像のように、作り置きでない動画をコンテンツデータとする例を用いて、コンテンツ画像(狭義にはコンテンツ画像のうちコンテンツ表示領域に表示される部分)の輝度値に基づいて枠領域を制御する手法を説明する。なお、第1〜第4の実施形態で用いているコンテンツデータは、一例を示したものであり、他のコンテンツデータを用いて同様の処理を行ってもよいことはいうまでもない。 The first to fourth embodiments will be described below as specific examples of the frame region control method. In the first embodiment, a method of controlling the shape of the frame area according to the angle of view (the subject range to be imaged) will be described using an example in which human imaging data is used as content data. In the second embodiment, a method of controlling a frame area based on metadata included in content data will be described using content data related to emergency early warning as an example. In the third embodiment, a method for controlling a frame area based on metadata reflecting a creator's position will be described using an example in which a pre-built movie such as a movie is used as content data, and a content image An example in which a part of the image is displayed in the content display area (an example in which trimming or scaling processing of a content image) is also described. In the fourth embodiment, a content image (displayed in a content display area of a content image in a narrow sense) is used by using an example of a non-prepared video as content data, such as a video by a camera attached to a wearable display device. A method of controlling the frame area based on the luminance value of the portion to be performed will be described. Note that the content data used in the first to fourth embodiments is an example, and it goes without saying that the same processing may be performed using other content data.
2.第1の実施形態
図7に本実施形態のウェアラブル型表示装置10の構成例を示す。ウェアラブル型表示装置10は、処理部100と、表示制御部200と、表示部300とを含む。ただし、ウェアラブル型表示装置10は図7の構成に限定されず、これらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。例えば、図7には不図示であるが、コンテンツデータを外部機器等から取得する通信部、取得したコンテンツデータや作成した表示画像を記憶する記憶部、各部を動作させるためのバッテリー、ウェアラブル型表示装置10をユーザの身体に保持するための保持部等を含んでもよい。また、ウェアラブル型表示装置10の操作等に利用されるモーションセンサ(加速度センサやジャイロセンサ)を含んでもよいし、カメラ等の撮像部を含んでもよい。なお、撮像部を含む場合には、当該撮像部で撮像された画像をコンテンツデータとしてもよい。
2. First Embodiment FIG. 7 shows a configuration example of a wearable display device 10 according to the present embodiment. Wearable display device 10 includes a processing unit 100, a display control unit 200, and a display unit 300. However, the wearable display device 10 is not limited to the configuration shown in FIG. 7, and various modifications such as omitting some of these components or adding other components are possible. For example, although not shown in FIG. 7, a communication unit that acquires content data from an external device or the like, a storage unit that stores the acquired content data or a created display image, a battery for operating each unit, a wearable display A holding unit or the like for holding the device 10 on the user's body may be included. Further, it may include a motion sensor (acceleration sensor or gyro sensor) used for operating the wearable display device 10 or an imaging unit such as a camera. In addition, when an imaging part is included, it is good also considering the image imaged by the said imaging part as content data.
処理部100は、取得したコンテンツデータに基づいて、枠領域の制御を行って表示画像を生成する。周縁部に上記枠領域を含む表示画像を表示部300に表示することで、境界部分が目立つことや、ケラレの影響を受けることによるコンテンツの視認性の低下を抑止する。この処理部100の機能は、各種プロセッサ(CPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムなどにより実現できる。 The processing unit 100 generates a display image by controlling the frame area based on the acquired content data. By displaying the display image including the frame region on the peripheral edge on the display unit 300, it is possible to suppress a decrease in the visibility of the content due to the conspicuous boundary and the influence of vignetting. The function of the processing unit 100 can be realized by hardware such as various processors (CPU and the like), ASIC (gate array and the like), a program, and the like.
表示制御部200は、表示画像の表示制御を行う。以下の説明においては、表示制御部200は、処理部100で作成された表示画像を表示するための制御を行うものであり、例えば表示部300のドライバ等であるものとする。ただし上述したように、枠領域の輝度の制御は、処理部での表示画像の生成段階で行われるものに限定されず、バックライト等のハードウェア制御により行われてもよい。その場合には、表示制御部200において枠領域の輝度制御が行われることになる。 The display control unit 200 performs display control of the display image. In the following description, the display control unit 200 performs control for displaying the display image created by the processing unit 100, and is assumed to be a driver of the display unit 300, for example. However, as described above, the luminance control of the frame area is not limited to that performed at the display image generation stage in the processing unit, and may be performed by hardware control such as a backlight. In that case, the display control unit 200 performs luminance control of the frame area.
表示部300は、表示制御部200での制御に従って表示画像の表示を行う。表示部は例えば、図3(B)の接眼窓保持部の先端部分に設けられる接眼窓であってもよい。本実施形態ではシースルー方式のウェアラブル型表示装置10を想定しているため、表示部300での表示が行われた結果として、ユーザにとっては図2(B)等に示したように、外界視野に表示画像が重畳されるものとして観察される。 The display unit 300 displays a display image in accordance with control by the display control unit 200. The display unit may be, for example, an eyepiece window provided at the distal end portion of the eyepiece window holding unit in FIG. Since the see-through type wearable display device 10 is assumed in the present embodiment, as a result of the display on the display unit 300, as shown in FIG. The display image is observed as superimposed.
次に本実施形態の具体的な処理を説明する。ここではコンテンツデータとして人物を撮像したデータを用いるものとする。本実施形態では、撮像された被写体の範囲(画角)に基づいて、枠領域の形状を制御する。 Next, specific processing of this embodiment will be described. Here, data obtained by imaging a person is used as the content data. In the present embodiment, the shape of the frame region is controlled based on the range (view angle) of the imaged subject.
まず、画角が広い場合の全体表示モードについて説明する。全体表示モードでは、図8(A)の集合写真を考えればわかりやすいように、コンテンツ画像の中央部だけでなく、周縁部に近い領域にも、注目すべきコンテンツ(ここでは人物)が存在する可能性が高い。そこで、境界の不自然さを緩和しつつも、なるべく広い範囲が視認できるように、方形の枠を重ね合わせる処理を行う。表示コンテンツの輝度が高く、鏡枠に表示が反射している場合などはより不自然さが顕著となるが、枠を重ね合わせることで、不自然さを緩和することができる。具体的には、コンテンツ画像に対して、枠領域FRを設定(狭義には重畳)し、枠領域の内側の領域をコンテンツ領域COとする。この枠領域FRとコンテンツ領域COを含む表示画像DIを表示領域(図2(B)のDA等)に表示することで、境界BOによる影響を抑止する。 First, the entire display mode when the angle of view is wide will be described. In the whole display mode, as is easy to understand when considering the group photo of FIG. 8A, notable content (in this case, a person) may exist not only in the central portion of the content image but also in the region near the peripheral portion. High nature. Therefore, a process of superimposing rectangular frames is performed so that the widest possible range can be seen while alleviating the unnaturalness of the boundary. Unnaturalness becomes more prominent when the brightness of the display content is high and the display is reflected on a mirror frame, but unnaturalness can be reduced by overlapping the frames. Specifically, a frame area FR is set (superimposed in a narrow sense) on the content image, and an area inside the frame area is set as a content area CO. By displaying the display image DI including the frame area FR and the content area CO in the display area (such as DA in FIG. 2B), the influence of the boundary BO is suppressed.
具体的な枠領域の例を図8(A)〜図8(C)に示す。図8(A)に示したように、枠領域は単色でもよいが、表示領域が単に縮小されただけという印象を与える可能性がある。よって、図8(B)に示したように、境界に向かって輝度を低下させるように勾配をつけることが望ましい。ここでの枠領域の太さ(面積)は、例えば、表示領域の幅5%に当たるサイズの領域を設定するが、数値については変形実施が可能である。図8(B)のように枠領域に勾配を設ける処理は、表示領域中心から境界に向かって放射線方向に輝度の勾配をかけた勾配データを用意し、当該勾配データとコンテンツデータとの、ビットごとの論理和をとる処理等により実現できる。ここでビット毎の論理和をとる処理とは、例えば上記勾配データとコンテンツデータのグレースケースでの輝度値を比較し、より強い方(ここでは明るさがより暗い方を表すので輝度値が小さい方)の値を、対応する画素の輝度値とする処理である。或いは、勾配データとコンテンツデータの輝度値を、ビット毎にブレンドする処理により枠領域を設定してもよい。 Examples of specific frame regions are shown in FIGS. 8A to 8C. As shown in FIG. 8A, the frame area may be a single color, but may give the impression that the display area is simply reduced. Therefore, as shown in FIG. 8B, it is desirable to provide a gradient so that the luminance decreases toward the boundary. As the thickness (area) of the frame area here, for example, an area having a size corresponding to 5% of the width of the display area is set, but numerical values can be modified. As shown in FIG. 8B, the process of providing a gradient in the frame region prepares gradient data in which a gradient of luminance is applied in the radiation direction from the center of the display region toward the boundary, and a bit of the gradient data and content data is prepared. It can be realized by a process of taking a logical sum for each. Here, the process of taking the logical sum for each bit is, for example, comparing the brightness values in the grace case of the gradient data and the content data, and the stronger one (here, the brightness value is smaller, so the brightness value is smaller). This is a process of setting the value of (B) to the luminance value of the corresponding pixel. Alternatively, the frame area may be set by a process of blending the luminance values of the gradient data and the content data for each bit.
また枠領域の輝度はこれに限定されず、単色または輝度勾配をつけた枠領域について、コンテンツ領域との境界でガウシアンフィルタなどのブラーを施した図8(C)に示したようなものを用いてもよい。重ね合わせる枠は、実行時に処理部で生成することを想定したが、使用される1又は複数の枠を処理部内などのメモリ(或いは図7には不図示の記憶部)上に保存しておき、コンテンツによって切り替えてもよい。 The brightness of the frame area is not limited to this, and the frame area shown in FIG. 8C in which a blur such as a Gaussian filter is applied to the border area with the content area is used for a frame area with a single color or a brightness gradient. May be. The frames to be overlapped are assumed to be generated by the processing unit at the time of execution. However, one or more frames to be used are stored in a memory (or a storage unit not shown in FIG. 7) in the processing unit. It may be switched depending on the content.
次に、上記全体表示モードに比べて画角が狭い拡大表示モードについて説明する。例えば、ユーザーが集合写真に写っている個人、例えば自分自身の顔を確認するために拡大する場合を考える。このように画角が狭い場合には図9に示したように、コンテンツ画像の中央部に注目すべきコンテンツが集中している可能性が高い。よって図9に示したように、境界をより自然な形で見せるために、認識された顔領域に重ならないように円形ないし楕円形の枠を重ね合わせる。方形枠は、境界を縮小した印象で不自然さの緩和が弱いが、円形ないし楕円形の枠とすることで、より自然さを感じることができる。さらに、表示領域の頂点付近においてケラレの可能性のあるコンテンツを表示しないことで、コンテンツのケラレによるユーザのストレスを緩和することができる。 Next, an enlarged display mode in which the angle of view is narrower than that of the entire display mode will be described. For example, consider a case where the user enlarges to confirm an individual in the group photo, for example, his / her own face. When the angle of view is narrow in this way, as shown in FIG. 9, there is a high possibility that the content to be noticed is concentrated at the center of the content image. Therefore, as shown in FIG. 9, in order to make the boundary appear more natural, a circular or elliptical frame is overlapped so as not to overlap the recognized face region. The square frame has an impression that the boundary is reduced and the relaxation of the unnaturalness is weak. However, by making the frame into a circular or elliptical shape, it is possible to feel more natural. Furthermore, by not displaying content that may cause vignetting in the vicinity of the apex of the display area, it is possible to reduce user stress due to content vignetting.
つまり本実施形態においては、コンテンツデータ(狭義にはそのうちのコンテンツ画像情報により表されるコンテンツ画像)に基づいて、全体表示モードであるか拡大表示モードであるかの判定を行い、選択されたモードに応じた枠領域を設定する制御を行うことになる。 That is, in this embodiment, based on the content data (content image represented by the content image information in a narrow sense), it is determined whether the mode is the entire display mode or the enlarged display mode, and the selected mode is selected. Control is performed to set a frame area corresponding to.
ここで、全体表示モードであるか拡大表示モードであるかの判定は、人物の顔認識処理により行ってもよい。図8(A)〜図8(C)に示したように、複数人の顔が認識される場合には、全体表示モードであると判断できる。また、図9に示したように、個人を拡大して表示することで認識される顔が1つになった場合には、拡大表示モードであると判断できる。この認識処理においては、単純に認識された顔の数だけで判断を行うのではなく、特定の個人の顔、例えば自分自身の顔を登録しておき、それが認識された時だけ拡大表示モードであると判断するものでもよい。なお、コンテンツ画像を集合写真の状態から個人写真の状態へと変化させる拡大処理は、ユーザが手動で行う(例えば、自分など特定の人の顔画像を探して拡大範囲を手動選択する)ものであってもよいが、例えば集合写真のなかから自動で特定の人を探索し、当該特定の人が検出された場合には、システムが自動的に拡大表示を行うものであってもよい。 Here, the determination as to whether the display mode is the whole display mode or the enlarged display mode may be performed by human face recognition processing. As shown in FIGS. 8A to 8C, when a plurality of faces are recognized, it can be determined that the entire display mode is set. Also, as shown in FIG. 9, when the number of faces recognized by enlarging and displaying an individual becomes one, it can be determined that the display mode is the enlarged display mode. In this recognition process, instead of simply determining the number of recognized faces, a specific individual face, for example, one's own face is registered, and the enlarged display mode is used only when the face is recognized. It may be determined that The enlargement process for changing the content image from the group photo state to the personal photo state is performed manually by the user (for example, by searching for a face image of a specific person such as himself and manually selecting an enlargement range). However, for example, a specific person may be automatically searched from the group photo, and when the specific person is detected, the system may automatically perform enlargement display.
図10に本実施形態の処理を説明するフローチャートを示す。この処理が開始されると、まず表示対象となるコンテンツに対応するコンテンツデータを取得する(S101)。そして、コンテンツデータに基づいてモード判定処理を行う(S102)。この処理はコンテンツ画像の画角が広いか狭いかを判定する処理であり、狭義には上述したように顔認識処理の結果を用いた判定となる。 FIG. 10 shows a flowchart for explaining the processing of this embodiment. When this process is started, content data corresponding to the content to be displayed is first acquired (S101). Then, a mode determination process is performed based on the content data (S102). This process is a process of determining whether the angle of view of the content image is wide or narrow, and in a narrow sense, is a determination using the result of the face recognition process as described above.
モード判定により全体表示モードと判定された場合には、図8(A)〜図8(C)に示したように方形の枠領域を設定し(S103)、当該枠領域を含む表示画像を生成する(S105)。一方、拡大表示モードと判定された場合には、図9に示したように円形の枠領域を設定し(S104)、当該枠領域を含む表示画像を生成する(S105)。 When it is determined that the display mode is the whole display mode by the mode determination, a rectangular frame region is set as shown in FIGS. 8A to 8C (S103), and a display image including the frame region is generated. (S105). On the other hand, when it is determined that the display mode is the enlarged display mode, a circular frame region is set as shown in FIG. 9 (S104), and a display image including the frame region is generated (S105).
その後、生成された表示画像を表示部300に表示する処理を行う(S106)。そして、現在のコンテンツデータが最終データであるかの判定を行い(S107)、最終データでない場合にはS101に戻り、次のコンテンツデータを取得する。一方、最終データである場合には処理を終了する。 Then, the process which displays the produced | generated display image on the display part 300 is performed (S106). Then, it is determined whether or not the current content data is the final data (S107). If it is not the final data, the process returns to S101 to acquire the next content data. On the other hand, if it is final data, the process is terminated.
3.第2の実施形態
本実施形態では、緊急速報(地震速報等)であるコンテンツデータを取得した場合の枠領域の制御手法について説明する。システム構成例については、第1の実施形態において図7を用いて説明したものと同様であるため、詳細な説明は省略する。
3. Second Embodiment In the present embodiment, a method for controlling a frame area when content data that is emergency early warning (such as earthquake early warning) is acquired will be described. Since the system configuration example is the same as that described with reference to FIG. 7 in the first embodiment, a detailed description thereof is omitted.
常時装着を想定したヘッドマウントディスプレイでは、常時表示部を見て情報を取得するという使用方法ではなく、いつでも視線を向ければ情報が見えるが、不要な時には邪魔にならないことが重要である。このようにした場合、緊急度が高く、ユーザに即座に閲覧させることが望まれるコンテンツについては、何らかの手法で通知を行い、表示領域に対してユーザの視線が向くような工夫を行う必要がある。 In a head-mounted display that is assumed to be always worn, it is not a usage method in which information is obtained by always looking at the display part, but it is important that the information can be seen at any time, but not disturbing when it is unnecessary. In such a case, it is necessary to notify the user about the content that has a high degree of urgency and that is desired to be immediately viewed by the user, so that the user's line of sight is directed toward the display area. .
重要な情報の着信を通知は音声や振動による手法(つまり視覚的でない手法)が考えられる。ただし、表示画像を制御する視覚的な手法を用いてもよく、視界内に常に表示部を捉えることができているという前提で、ユーザーが表示部に意識を向けていなくても認知できるようにアラート表示をする手法も考えられる。 For notification of important information arrival, a method using voice or vibration (that is, a non-visual method) can be considered. However, it is possible to use a visual method to control the display image so that it can be recognized even if the user is not conscious of the display unit, assuming that the display unit can always be captured in the field of view. A method of displaying an alert is also conceivable.
そこで本実施形態では、コンテンツデータに対して、重要度や緊急度に関する情報である緊急度情報をメタデータとして付加して配信し、当該緊急度情報に応じて枠領域の制御を行う。地震速報など緊急性の高い情報を早くユーザに認知してもらう場合、枠の重畳による視認性はあまり重要ではない。そこで、緊急度が高い情報については、まずユーザーに情報の着信を認知してもらうために、枠領域の面積をゼロとする制御を行い、枠なしの全画面でアラート表示を行う。全画面で表示することで、少なくとも画面の一部を視界内に捉える確率が高くなる。例えば、図11(A)に示したように、全面赤色の画像と全面白色の画像を交互に繰り返し表示させることで、表示領域を明滅させてアラート表示を行うことが考えられる。 Therefore, in the present embodiment, urgency information, which is information related to importance and urgency, is added to the content data as metadata and distributed, and the frame area is controlled according to the urgency information. When the user quickly recognizes highly urgent information such as earthquake bulletin, the visibility by overlapping frames is not so important. Therefore, for information with a high degree of urgency, first, in order for the user to recognize the arrival of information, control is performed so that the area of the frame area is zero, and an alert is displayed on a full screen without a frame. Displaying on the full screen increases the probability of capturing at least a part of the screen in the field of view. For example, as shown in FIG. 11A, it is conceivable to perform alert display by blinking the display area by alternately displaying a full red image and a full white image alternately.
そして、アラート表示がユーザにより解除された場合には、緊急速報の具体的内容を表すコンテンツ画像に対して枠領域を付加した表示画像を表示する。この場合、ユーザに伝達すべき情報は重要度、緊急度が高いため、ケラレにより情報が欠落することは極力避けなければならない。よってここでは、図11(B)に示したように、コンテンツに欠けが生じないように枠領域を設定することで表示画像を生成する。場合によっては、枠領域によりコンテンツがつぶされないように、コンテンツ画像を縮小する処理(この処理の具体例は第4の実施形態で後述する)を行ってもよい。或いはコンテンツ画像情報がテキストデータと当該テキストデータの配置情報からなる場合には、ウェアラブル型表示装置10においてテキストデータの配置を変更し、枠領域と干渉しない位置にテキストデータを配置する処理を行ってもよい。 When the alert display is canceled by the user, a display image in which a frame area is added to the content image representing the specific content of the emergency bulletin is displayed. In this case, since the information to be transmitted to the user has high importance and urgency, the loss of information due to vignetting should be avoided as much as possible. Therefore, here, as shown in FIG. 11B, a display image is generated by setting a frame region so that the content is not chipped. In some cases, processing for reducing the content image (a specific example of this processing will be described later in the fourth embodiment) may be performed so that the content is not crushed by the frame region. Alternatively, when the content image information is composed of text data and the arrangement information of the text data, the wearable display device 10 changes the arrangement of the text data and performs a process of arranging the text data at a position that does not interfere with the frame area. Also good.
なお、上述したアラート表示の解除は、物理的に設けられたボタンの押下やタッチパネルへの接触等により行われてもよい。或いは、ウェアラブル型表示装置10がセンサ等を備えることでユーザの視線方向(或いは顔の向いている方向)等を検出できるのであれば、センサ情報等に基づく判定処理によりアラート表示の解除が行われてもよい。 Note that the alert display described above may be canceled by pressing a physically provided button, touching a touch panel, or the like. Alternatively, if the wearable display device 10 includes a sensor or the like so that the user's line-of-sight direction (or the direction the face is facing) can be detected, the alert display is canceled by determination processing based on sensor information or the like. May be.
図12に本実施形態の処理を説明するフローチャートを示す。この処理が開始されると、まず表示対象となるコンテンツに対応するコンテンツデータを取得する(S201)。そして、コンテンツデータに緊急度情報に対応するメタデータが付加されているかの判定を行う(S202)。緊急度が低い場合には通常の表示を行う(S210)。ここで通常の表示とは例えば、第1の実施形態において図10のS102〜S106を用いて説明した表示処理であってもよいし、他の処理であってもよい。 FIG. 12 shows a flowchart for explaining the processing of this embodiment. When this process is started, content data corresponding to the content to be displayed is first acquired (S201). Then, it is determined whether metadata corresponding to the urgency information is added to the content data (S202). When the degree of urgency is low, normal display is performed (S210). Here, the normal display may be, for example, the display process described using S102 to S106 in FIG. 10 in the first embodiment, or may be another process.
緊急度が高い場合には、枠領域の面積を0とし(S203)、ユーザに注意を喚起するためのアラート表示を行う(S204)。これは例えば、図11(A)に示した明滅表示であってもよい。そしてアラートが解除されたかの判定を行い(S205)、解除されていない間は、S204に戻りアラート表示を継続する。S205のアラート解除の判定は、例えば接眼窓保持部の保持位置の検出や、視線検知などにより行なえばよい。その他、特定のジェスチャをカメラで検出したり、スイッチを手動で押すなどの手法によりアラートの解除を検出してもよい。 When the degree of urgency is high, the area of the frame region is set to 0 (S203), and an alert display for alerting the user is performed (S204). For example, this may be the blinking display shown in FIG. Then, it is determined whether or not the alert is released (S205). If the alert is not released, the process returns to S204 and the alert display is continued. The determination of canceling the alert in S205 may be performed, for example, by detecting the holding position of the eyepiece window holding unit or detecting the line of sight. In addition, the release of the alert may be detected by detecting a specific gesture with a camera or manually pressing a switch.
アラートが解除された場合には、緊急速報に関する具体的な情報を提示する処理に移行する。まずケラレに対応するために枠領域を設定し(S206)、図11(B)に示したように当該枠領域を用いて表示画像を生成し(S207)、表示処理を行う(S208)。 When the alert is canceled, the process proceeds to a process of presenting specific information regarding the emergency bulletin. First, a frame region is set to deal with vignetting (S206), and a display image is generated using the frame region as shown in FIG. 11B (S207), and display processing is performed (S208).
S208又はS210の処理後は、現在のコンテンツデータが最終データであるかの判定を行い(S209)、最終データでない場合にはS201に戻り、次のコンテンツデータを取得する。一方、最終データである場合には処理を終了する。 After the processing of S208 or S210, it is determined whether the current content data is the final data (S209). If it is not the final data, the processing returns to S201 to acquire the next content data. On the other hand, if it is final data, the process is terminated.
4.第3の実施形態
本実施形態では、映画等の制作者の意図が強く反映されたコンテンツデータを取得した場合の枠領域の制御手法について説明する。システム構成例については、第1の実施形態において図7を用いて説明したものと同様であるため、詳細な説明は省略する。
4). Third Embodiment In this embodiment, a frame area control method when content data that strongly reflects the intention of a producer such as a movie is described. Since the system configuration example is the same as that described with reference to FIG. 7 in the first embodiment, a detailed description thereof is omitted.
製作者の意図が明確なコンテンツでは、図13に示したように、シーンやカットによって製作者が枠形状や輝度などを予め決めておくことができる。特にここでは、映画をコンテンツとして考える。例えば、シーン1が場面全体がわかるように広角で撮影した風景のである場合には、方形で幅が狭い枠を使用し、シーン3が登場人物を際出させたいシーンである場合には、円形ないし楕円形の枠を使用する。さらに枠の形状を細かく指定するのでもよい。輝度については、シーン2が夜のシーンである場合には、画面全体の輝度値が低いので枠を用いない、あるいは、シーン3が昼間のシーンである場合には、輝度の高いコンテンツとなるため、画面と枠の輝度値がなだらかに変化するように枠の面積を多めにとるなどといった調整が可能である。また、例えば風景、会話、アクションなどシーンの種類を指定しておき、シーンによってプリセットされている枠を使用するのでも構わない。また、ユーザによりシーンの種類と、当該種類に対応する枠領域の設定処理を行うものでもよい。 For content with a clear intention of the producer, as shown in FIG. 13, the producer can predetermine the frame shape, brightness, etc. according to the scene or cut. Here, in particular, a movie is considered as content. For example, when the scene 1 is a landscape photographed at a wide angle so that the entire scene can be seen, a square frame with a narrow width is used, and when the scene 3 is a scene where characters are to be highlighted, a circular shape is used. Or use an oval frame. Further, the frame shape may be specified in detail. As for the brightness, when the scene 2 is a night scene, the brightness value of the entire screen is low, so the frame is not used, or when the scene 3 is a daytime scene, the content is high. It is possible to make adjustments such as increasing the frame area so that the luminance values of the screen and the frame change smoothly. Also, for example, a scene type such as landscape, conversation, and action may be designated, and a frame preset by the scene may be used. Alternatively, the user may perform processing for setting a scene type and a frame area corresponding to the type.
上述の処理においては、制作者により、各シーンに対して枠領域の指定、或いはシーン種類の指定を行うメタデータが付加されるものとする。ウェアラブル型表示装置10において、各シーンに対してシーン認識処理等を行って枠領域を決定するという手法を用いてもよいが、ここでは制作者の意図が明確である以上、あらかじめメタデータの形で情報を付加しておくことが自然である。この場合、メタデータは枠領域を具体的に指定する情報でもよいし、シーンの種類だけを指定して、当該種類に対応する枠領域の選択はウェアラブル型表示装置10で行うものとしてもよい。 In the above-described processing, it is assumed that metadata for designating a frame area or a scene type is added to each scene by the producer. The wearable display device 10 may use a method of determining a frame region by performing scene recognition processing or the like for each scene. However, since the creator's intention is clear here, the form of the metadata is determined in advance. It is natural to add information with. In this case, the metadata may be information that specifically designates the frame area, or only the type of the scene may be designated, and the frame area corresponding to the type may be selected by the wearable display device 10.
また、第1,第2の実施形態を含め、以上の説明ではコンテンツ画像全体に対して枠領域を付加することで表示画像を生成することを想定していた。しかしこれには限定されず、コンテンツ画像の一部を取り出し、当該領域に枠領域を付加することで表示画像を生成してもよい。 In the above description including the first and second embodiments, it is assumed that a display image is generated by adding a frame region to the entire content image. However, the present invention is not limited to this, and a display image may be generated by extracting a part of the content image and adding a frame region to the region.
この例を図14(A)〜図14(C)に示す。図14(A)に示したように、元々のコンテンツ画像は、人物だけでなく風景も含む画角の広い画像である。しかし、シーンの中心となるコンテンツの部分が枠によって遮蔽されることがないように、絶対に表示してほしい領域を指定すること等が考えられる。例えば図14(A)であれば、コンテンツ画像全体に枠領域を付加することで、人物の顔等がつぶれてしまう可能性がある。そこで図14(B)に示したように、メタデータとしてコンテンツ画像の注目すべき領域を設定する情報(ここでは画面中心CEを表す情報としているがこれに限定されない)を取得し、当該メタデータを用いて、図14(C)に示すように表示画像を生成してもよい。 This example is shown in FIGS. 14 (A) to 14 (C). As shown in FIG. 14A, the original content image is a wide-angle image including not only a person but also a landscape. However, it is conceivable to designate an area that is absolutely desired to be displayed so that the content portion that is the center of the scene is not blocked by the frame. For example, in the case of FIG. 14A, adding a frame area to the entire content image may cause a person's face to be crushed. Accordingly, as shown in FIG. 14B, information for setting a notable area of the content image (in this case, information indicating the screen center CE is not limited to this) is acquired as metadata, and the metadata is acquired. May be used to generate a display image as shown in FIG.
なお、図14(C)のように、画面中心CEを中心としたコンテンツ画像の一部を用いて表示画像DIを生成することで、生成された表示画像DIの解像度が表示部300の解像度に比べて低いものとなる可能性がある。例えば、図14(A)のコンテンツ画像全体の解像度が表示部300の解像度と一致していれば、図14(C)の表示画像DIはそれに比べて小さい。そこで図14(C)の表示画像DIを表示部300に表示する際に変倍処理(拡大処理)を行うものとしてもよい。 As shown in FIG. 14C, the display image DI is generated using a part of the content image centered on the screen center CE, so that the resolution of the generated display image DI becomes the resolution of the display unit 300. There is a possibility that it will be low. For example, if the resolution of the entire content image in FIG. 14A matches the resolution of the display unit 300, the display image DI in FIG. 14C is smaller than that. Therefore, the scaling process (enlargement process) may be performed when the display image DI of FIG.
また、コンテンツ画像中の注目領域(上記例であれば画面中心CEにより決定される)は製作者によって予め定められた画面上の座標として定義されてもよいが、他の手法により決定されてもよい。例えば、コンテンツ画像中で被写体の動きが大きい領域は、当該コンテンツ画像中で重要な領域であると考えることができる。よって図15(A)に示したようにコンテンツ画像から動き情報MV(狭義には動きベクトル)を検出し、当該動きベクトルの終点の重心などから図15(B)に示したように画像中心CEを定義してもよい。この場合の表示画像DIは図15(C)のようになる。 In addition, the region of interest in the content image (determined by the screen center CE in the above example) may be defined as coordinates on the screen predetermined by the producer, but may be determined by other methods. Good. For example, an area where the movement of the subject is large in the content image can be considered as an important area in the content image. Therefore, as shown in FIG. 15A, motion information MV (motion vector in a narrow sense) is detected from the content image, and the image center CE is detected as shown in FIG. 15B from the center of gravity of the end point of the motion vector. May be defined. The display image DI in this case is as shown in FIG.
また、上述したような制作者の意図が強く反映された映像でないものであっても、コンテンツ画像中に注目領域を設定することができる場合がある。例えばウェアラブル型表示装置10にカメラを付加し、撮影を行った場合の撮影データ等をコンテンツデータとする場合である。ウェアラブルカメラでは日常のシーンの撮影が一般的と考えられ、子供などの家族やペットなどの撮影がされると思われる。その場合、明確な注目する被写体が存在する。そこで、注目被写体を追尾(トラッキング)し、常に画面中央に被写体が来るようにコンテンツ画像中に注目領域を設定し、当該注目領域に枠領域を重畳する手法を用いてもよい。これにより、常に画面中央で注目する被写体を捉えることができ、枠によって視認性を向上しつつ鑑賞をすることができる。例えば、図16(A)、図16(B)に示したように、コンテンツ画像上では、画像左上から画像右下へ向かって移動してくる注目被写体がある場合に、図16(A)、図16(B)にそれぞれ示したような表示画像DIを生成することで、画像中央で注目被写体を捉え続けることができる。なお、追尾対象となる被写体の検出は顔認識に基づいて行ってもよい。或いは、ユーザが基点となるフレームとその位置を指定することで基準データを決定し、その後のフレームにおいて当該基準データを用いたマッチング処理等を行ってもよい。 In addition, there is a case where a region of interest can be set in a content image even if the video does not strongly reflect the creator's intention as described above. For example, it is a case where the camera data is added to the wearable display device 10 and the shooting data or the like when shooting is performed as content data. With wearable cameras, it is considered common to shoot everyday scenes, and it seems that family members such as children and pets are taken. In that case, there is a clear subject of interest. Accordingly, a method of tracking (tracking) the subject of interest, setting a region of interest in the content image so that the subject always comes to the center of the screen, and superimposing a frame region on the region of interest may be used. As a result, it is possible to always capture the subject of interest in the center of the screen, and to appreciate while improving the visibility by the frame. For example, as shown in FIGS. 16A and 16B, when there is a subject of interest moving from the upper left of the image toward the lower right of the image on the content image, FIG. By generating the display images DI as shown in FIG. 16B, it is possible to continue to capture the subject of interest at the center of the image. Note that detection of a subject to be tracked may be performed based on face recognition. Alternatively, the user may determine reference data by designating a frame serving as a base point and its position, and perform matching processing using the reference data in subsequent frames.
なお、図15(A)〜図15(C)、図16(A)〜図16(B)の手法は、コンテンツ画像の一部の注目領域から表示画像DIを生成するという点で、図14(A)〜図14(C)と共通するため、本実施形態において説明したが、枠領域を規定するメタデータが付加されているわけではないという点では図13の手法とは異なるものである。 Note that the methods of FIGS. 15A to 15C and FIGS. 16A to 16B generate the display image DI from a part of the attention area of the content image. (A) to FIG. 14 (C) are common and have been described in the present embodiment, but differ from the method of FIG. 13 in that metadata defining a frame region is not added. .
図17に本実施形態の処理を説明するフローチャートを示す。この処理が開始されると、まず表示対象となるコンテンツに対応するコンテンツデータを取得する(S301)。そして、コンテンツデータに含まれるメタデータに基づいて、コンテンツ画像のシーン種別を判定し(S302)、当該シーン種別に対応した枠領域を選択する(S303)。枠領域選択後の処理(S304〜S306)については図10のS105〜S107等と同様の処理であるため、詳細な説明は省略する。 FIG. 17 shows a flowchart for explaining the processing of this embodiment. When this process is started, content data corresponding to the content to be displayed is first acquired (S301). Then, based on the metadata included in the content data, the scene type of the content image is determined (S302), and a frame area corresponding to the scene type is selected (S303). Since the processing after the frame region selection (S304 to S306) is the same processing as S105 to S107 in FIG. 10, detailed description thereof is omitted.
5.第4の実施形態
本実施形態では、制作者の意図が強く反映されない(つまりは事前に枠領域を設定することが困難である)コンテンツデータを取得した場合の枠領域の制御手法について説明する。具体的には、コンテンツ画像の少なくとも一部の輝度値を用いて枠領域を制御する手法である。システム構成例については、第1の実施形態において図7を用いて説明したものと同様であるため、詳細な説明は省略する。
5. Fourth Embodiment In the present embodiment, a method for controlling a frame area when content data that does not strongly reflect the intention of the creator (that is, it is difficult to set a frame area in advance) will be described. Specifically, this is a method of controlling the frame region using the luminance value of at least a part of the content image. Since the system configuration example is the same as that described with reference to FIG. 7 in the first embodiment, a detailed description thereof is omitted.
ヘッドマウントディスプレイとともに、ウェアラブルカメラを実装する構成は無意識常時撮影による映像の意外性や、文字認識、ジェスチャー認識などの入力インタフェースとしての機能への期待から理にかなっている。ウェアラブルカメラ映像をヘッドマウントディスプレイで鑑賞する場合には、映画のようにシーンごとに予め枠形状を決めておくことは困難である。そこで例えば、図18(A)に示したように、画面全体または画面の周辺領域など一部領域の輝度値平均を算出し、図18(B)に示したように当該輝度平均値と枠の輝度値とを一致させるように枠領域の輝度を設定すればよい。輝度勾配をかける場合には、図18(B)に示したように、枠領域とコンテンツ領域の境界を平均値とし、画面境界に近づくにつれて輝度が落ちるように勾配をつけてもよい。なお、コンテンツ画像の輝度の基準として用いる値は、平均値ではなく最大値、最小値でもよいし、分布の80%に対応する値でもよく、種々の変形実施が可能である。 A configuration that implements a wearable camera together with a head-mounted display makes sense from the unexpectedness of unconscious continuous video and the expectation of functions as input interfaces such as character recognition and gesture recognition. When viewing wearable camera images on a head-mounted display, it is difficult to determine a frame shape for each scene like a movie. Therefore, for example, as shown in FIG. 18A, the average luminance value of a partial area such as the entire screen or the peripheral area of the screen is calculated, and the luminance average value and the frame are displayed as shown in FIG. The brightness of the frame area may be set so as to match the brightness value. When applying a luminance gradient, as shown in FIG. 18B, the boundary between the frame region and the content region may be an average value, and the gradient may be added so that the luminance decreases as the screen boundary is approached. The value used as the reference for the luminance of the content image may be the maximum value or the minimum value instead of the average value, or may be a value corresponding to 80% of the distribution, and various modifications can be made.
枠の面積(方形枠の場合は幅)は一定のほか、輝度勾配が一定の傾きを保つように調整してもよい。例えば、コンテンツの平均輝度を算出した場合に、図19(A)に示したように0xCCとなった場合には、図18(B)で設定した0x33の輝度勾配の傾きを維持しつつ、図19(B)に示したように0xCCから開始される4段階に輝度が変化する枠を設定してもよい。この場合、図18(B)と図19(B)とで輝度勾配の傾きを同一にしているため、図19(B)では図18(B)に比べて枠の面積(幅)が増えている。 The area of the frame (width in the case of a rectangular frame) may be fixed, and the luminance gradient may be adjusted to maintain a constant gradient. For example, when the average luminance of the content is calculated and becomes 0xCC as shown in FIG. 19A, the gradient of the luminance gradient of 0x33 set in FIG. As shown in FIG. 19B, a frame in which the luminance changes in four stages starting from 0xCC may be set. In this case, since the gradient of the luminance gradient is the same in FIG. 18B and FIG. 19B, the area (width) of the frame is increased in FIG. 19B compared to FIG. 18B. Yes.
一方、枠領域の面積を一定として、輝度勾配を変化させるものとしてもよい。この場合、図18(B)では枠領域は3段階で輝度変化をつければよいのに対して、図19(B)では4段階の輝度変化が必要となる。よって、輝度勾配の傾きは図18(B)に比べて図19(B)の方が大きくなる。 On the other hand, the luminance gradient may be changed while keeping the area of the frame region constant. In this case, in FIG. 18B, the frame region may be changed in luminance in three steps, whereas in FIG. 19B, four steps of luminance change are required. Therefore, the gradient of the luminance gradient is larger in FIG. 19B than in FIG. 18B.
以上の手法においては、コンテンツの内容(例えば撮像されている被写体)は無視して、輝度だけで枠領域を制御しているため、見たいシーンが枠領域で隠されてしまう可能性がある。例えば、図18(A)のコンテンツ画像に枠領域を付加した結果、図20(A)に示したように、コンテンツ画像周縁部の被写体がつぶれてしまっている。そこで、枠領域に合わせて、コンテンツ全体のサイズを変更してもよい。例えば図20(B)に示したように、図18(A)のコンテンツ画像を縮小し、縮小後の画像に枠領域を付加してもよい。この処理は、図18(A)のコンテンツ画像を縮小し、その外側に余白領域が生成されたものとして、当該余白領域に重なるように枠領域を付加したと考えることもできる。或いは、図18(A)のコンテンツ画像の外側に(コンテンツ画像と重なることがないように)枠領域を付加した上で、当該付加後の画像全体の縮小処理を行ったと考えることもできる。図20(B)の表示画像を生成することで、枠領域の形状によらずに、常にコンテンツ全体を確認することができるようになる。 In the above method, the content (for example, the subject being imaged) is ignored, and the frame area is controlled only by the luminance, so the scene to be viewed may be hidden by the frame area. For example, as a result of adding a frame region to the content image in FIG. 18A, the subject at the periphery of the content image is crushed as shown in FIG. Therefore, the size of the entire content may be changed according to the frame area. For example, as shown in FIG. 20B, the content image in FIG. 18A may be reduced and a frame area may be added to the reduced image. This processing can be considered to be that a frame area is added so as to overlap the margin area, assuming that the content image in FIG. 18A is reduced and a margin area is generated outside the content image. Alternatively, it can be considered that the reduction processing of the entire image after the addition is performed after adding the frame region to the outside of the content image in FIG. 18A (so as not to overlap the content image). By generating the display image of FIG. 20B, it is possible to always check the entire content regardless of the shape of the frame region.
図21に本実施形態の処理を説明するフローチャートを示す。この処理が開始されると、まず表示対象となるコンテンツに対応するコンテンツデータを取得する(S401)。そして、コンテンツデータに含まれるコンテンツ画像に基づいて、コンテンツ画像の平均輝度を算出し(S402)、算出した平均輝度に対応した枠領域を設定する(S403)。枠領域設定後の処理(S404〜S406)については図10のS105〜S107等と同様の処理であるため、詳細な説明は省略する。 FIG. 21 shows a flowchart for explaining the processing of this embodiment. When this process is started, content data corresponding to the content to be displayed is first acquired (S401). Then, the average luminance of the content image is calculated based on the content image included in the content data (S402), and a frame area corresponding to the calculated average luminance is set (S403). Since the processing after setting the frame region (S404 to S406) is the same as S105 to S107 in FIG. 10 and the like, detailed description thereof is omitted.
6.本実施形態の具体例
以上の本実施形態では、ウェアラブル型表示装置10は図7に示したように、表示対象のコンテンツデータに基づいて、表示画像の周縁にある枠領域の形状及び輝度の少なくとも一方を制御して、枠領域と、コンテンツデータを表示するコンテンツ表示領域とを含む表示画像を生成する処理部100と、生成された表示画像の表示制御を行う表示制御部200と、表示制御部200の表示制御に基づいて、処理部100で生成された表示画像を外界と重ねてシースルー表示する表示部300を含む。
6). Specific Example of the Present Embodiment In the present embodiment described above, the wearable display device 10 has at least the shape and luminance of the frame area at the periphery of the display image based on the content data to be displayed, as shown in FIG. A processing unit 100 that controls one side to generate a display image including a frame region and a content display region that displays content data, a display control unit 200 that controls display of the generated display image, and a display control unit Based on the display control 200, the display unit 300 includes a display unit 300 that displays the display image generated by the processing unit 100 in a see-through manner so as to overlap the outside world.
これにより、コンテンツデータに応じた枠領域を設定することが可能になるため、ユーザ視野における表示領域と非表示領域との境界に起因する違和感を低減したり、ケラレによるコンテンツの欠け等を抑止して、コンテンツの視認性を高めることが可能になる。その際、枠領域の制御がコンテンツデータに基づいて行われるため、適切に枠領域を制御することができる。例えば、図9に示した円形の枠領域は、方形の枠領域に比べて違和感の低減効果が高いという利点がある一方、面積が大きくコンテンツ表示領域が狭くなりやすい点はデメリットともなる。つまり、全てのコンテンツデータに適用できる汎用性の高い枠領域というものは考えにくい以上、どの要素を重視すべきであるかをコンテンツデータに基づき判定し、適宜枠領域を変更するとよい。 As a result, it is possible to set a frame area according to the content data, thereby reducing the uncomfortable feeling caused by the boundary between the display area and the non-display area in the user's field of view, and suppressing content missing due to vignetting. Thus, it becomes possible to improve the visibility of the content. At that time, since the frame area is controlled based on the content data, the frame area can be controlled appropriately. For example, the circular frame region shown in FIG. 9 has an advantage that the effect of reducing the uncomfortable feeling is higher than that of the square frame region, but has a disadvantage that the area is large and the content display region is easily narrowed. That is, since it is difficult to think of a highly versatile frame area that can be applied to all content data, it is preferable to determine which element should be emphasized based on the content data and change the frame area as appropriate.
また、コンテンツデータは、第1のコンテンツデータと、第1のコンテンツデータとは異なる第2のコンテンツデータを含んでもよく、処理部100は、第1のコンテンツデータに対応した第1の表示画像の第1の枠領域と、第2のコンテンツデータに対応した第2の表示画像の第2の枠領域とで、形状及び輝度の少なくとも一方が異なる領域を設定してもよい。 In addition, the content data may include first content data and second content data different from the first content data, and the processing unit 100 may display the first display image corresponding to the first content data. You may set the area | region where at least one of a shape and brightness | luminance differs by a 1st frame area | region and the 2nd frame area | region of the 2nd display image corresponding to 2nd content data.
これにより、コンテンツデータの差異に応じて、枠領域も形状及び輝度の少なくとも一方が異なる領域を設定することが可能になる。なお、コンテンツデータの判定(複数のコンテンツデータが同一の特性を有するか否か、特性が異なる場合にはどの程度異なるか等の判定)においては、1つの観点を用いるものに限定されず、複数の観点を組み合わせてもよい。例えば上述したように、コンテンツ画像撮像時の画角、輝度平均値、メタデータといった複数の判定基準が考えられるが、それらのうちいくつ用いるかは任意であるし、複数用いる場合の組み合わせも任意である。 Thereby, according to the difference of content data, it becomes possible to set the area | region where at least one of a shape and a brightness | luminance differs also in a frame area | region. Note that the determination of content data (determination of whether or not a plurality of content data has the same characteristics, or how much the characteristics differ if the characteristics are different) is not limited to using one viewpoint, These viewpoints may be combined. For example, as described above, a plurality of determination criteria such as an angle of view at the time of content image capturing, a luminance average value, and metadata can be considered. is there.
また、処理部100は、第1の表示画像と第2の表示画像の少なくとも一方に対して、枠領域の面積をゼロとする前記形状の制御を行い、枠領域の面積がゼロとされた表示画像として、枠領域を含まず、コンテンツ表示領域が全体に表示された表示画像を生成してもよい。 In addition, the processing unit 100 controls the shape so that the area of the frame region is zero for at least one of the first display image and the second display image, and displays the area of the frame region as zero. A display image that does not include the frame area and displays the content display area as a whole may be generated as the image.
これにより、枠領域の形状の制御として、枠領域の面積をゼロにすることで表示画像の全面をコンテンツ表示領域とする制御を行うことが可能になる。これは例えば、第2の実施形態の図11(A)のアラート表示のように、視認性が問題とならない状況において、ユーザの注意を効果的に引きつける場合に用いられる。或いは、第3の実施形態の図13、シーン2で説明したように、コンテンツ画像の輝度が充分低く、枠領域を表示しなかったとしても問題ない場合に用いられてもよい。なお、第3の実施形態では枠領域の面積を0とするメタデータ(或いは当該シーンが充分に暗いシーンであることを表すメタデータ)に基づいて枠領域を制御しているが、第4の実施形態のようにコンテンツ画像の輝度平均値を求め、当該輝度平均値の値が所与の閾値よりも小さい場合に、枠領域の面積を0にする等の制御を行ってもよい。 Thereby, as control of the shape of the frame region, it is possible to control the entire surface of the display image as the content display region by setting the area of the frame region to zero. This is used, for example, when the user's attention is effectively attracted in a situation where visibility is not a problem, as in the alert display of FIG. 11A of the second embodiment. Alternatively, as described with reference to FIG. 13 and scene 2 of the third embodiment, the brightness of the content image is sufficiently low, and it may be used when there is no problem even if the frame area is not displayed. In the third embodiment, the frame region is controlled based on metadata in which the area of the frame region is 0 (or metadata indicating that the scene is a sufficiently dark scene). As in the embodiment, the brightness average value of the content image is obtained, and when the value of the brightness average value is smaller than a given threshold, control such as setting the area of the frame region to 0 may be performed.
また、第2のコンテンツデータに含まれる第2のコンテンツ画像情報が、第1のコンテンツデータに含まれる第1のコンテンツ画像情報の一部を拡大した画像である場合、又は第2のコンテンツ画像情報の画角が、第1のコンテンツ画像情報の画角に比べて狭い場合に、処理部100は、第1の表示画像に含まれる第1の枠領域の面積に比べて、第2の表示画像に含まれる第2の枠領域の面積を大きく設定してもよい。 Further, when the second content image information included in the second content data is an image obtained by enlarging a part of the first content image information included in the first content data, or the second content image information Is smaller than the angle of view of the first content image information, the processing unit 100 compares the second display image with the area of the first frame region included in the first display image. The area of the second frame region included in the may be set large.
これにより、第1の実施形態で上述したように、コンテンツ画像情報(狭義には当該コンテンツ画像情報により表されるコンテンツ画像)の拡大度合い、或いは画角に応じて枠領域を制御することが可能になる。具体的には、拡大表示モードにおいては注目すべき被写体は画像中央に偏在する可能性が高いとして、図9に示したように面積の大きい円形の枠領域を設定する。一方、全体表示モードにおいては、画像周縁部にも注目被写体が存在する可能性が高いため、図8(A)〜図8(C)のように方形の枠領域を設定すればよい。 As a result, as described above in the first embodiment, the frame area can be controlled according to the degree of enlargement or the angle of view of the content image information (content image represented by the content image information in a narrow sense). become. Specifically, in the enlarged display mode, a subject to be noticed is likely to be unevenly distributed in the center of the image, and a circular frame region having a large area is set as shown in FIG. On the other hand, in the entire display mode, since there is a high possibility that the subject of interest is also present in the peripheral portion of the image, a rectangular frame region may be set as shown in FIGS. 8 (A) to 8 (C).
また、処理部は、第1のコンテンツ画像情報及び第2のコンテンツ画像情報から人物の顔領域を認識する認識処理を行い、認識処理に基づいて、第2のコンテンツ画像情報が第1のコンテンツ画像情報の一部を拡大した画像であるか否かの判定処理を行ってもよい。 The processing unit performs a recognition process for recognizing a human face area from the first content image information and the second content image information, and the second content image information is converted into the first content image based on the recognition process. You may perform the determination process whether it is an image which expanded a part of information.
これにより、人物の顔認識処理に基づいて、拡大表示モードか全体表示モードかの判定を行うことが可能になる。顔認識処理については種々の手法が広く知られているため詳細な説明は省略する。顔認識処理の結果による判定処理の具体例としては、画像中の顔の数が1つの場合に拡大表示モード、複数の場合に全体表示モードとしてもよい。或いは画像サイズに対する顔サイズの相対的な大きさを判定処理に用いてもよいし、顔認識処理において特定の人物の顔か否かという認識を行った上で、当該人物が検出されたか否かで判定処理を行ってもよい。ただし、拡大状態か否かの判定は顔認識に限定されるものではない。例えば、コンテンツデータが撮像画像に関するものであれば、撮像時のズーム倍率等のデータをメタデータとして取得することが可能であるため、当該メタデータを用いて画角が広いか狭いかの判定処理を行ってもよい。画角を用いて判定する場合、第1のコンテンツ画像情報及び第2のコンテンツ画像情報のそれぞれについて、画角に関する情報が取得可能である。よって第1のコンテンツ画像情報に撮像された被写体と、第2のコンテンツ画像情報に撮像された被写体は必ずしも同一である必要はなく、異なる被写体であってもよい。 Accordingly, it is possible to determine whether the display mode is the enlarged display mode or the entire display mode based on the human face recognition process. Since various methods are widely known for the face recognition processing, detailed description thereof is omitted. As a specific example of the determination process based on the result of the face recognition process, the enlarged display mode may be set when the number of faces in the image is 1, and the entire display mode may be set when there are a plurality of faces. Alternatively, the relative size of the face size with respect to the image size may be used in the determination process, and whether or not the person is detected after the recognition of whether or not the face is a specific person in the face recognition process. The determination process may be performed in However, the determination of whether or not it is in an enlarged state is not limited to face recognition. For example, if the content data is related to a captured image, it is possible to acquire data such as zoom magnification at the time of imaging as metadata, and therefore processing for determining whether the angle of view is wide or narrow using the metadata May be performed. When determining using the angle of view, information regarding the angle of view can be acquired for each of the first content image information and the second content image information. Therefore, the subject imaged in the first content image information and the subject imaged in the second content image information are not necessarily the same, and may be different subjects.
また、処理部100は、コンテンツ表示領域を含む表示画像の少なくとも一部の輝度に基づいて、枠領域の形状及び輝度の少なくとも一方を制御してもよい。 Further, the processing unit 100 may control at least one of the shape and the luminance of the frame region based on the luminance of at least a part of the display image including the content display region.
これにより、第4の実施形態で上述したように、表示画像の輝度に基づいて枠領域を制御することが可能になる。上述してきたように、表示画像の輝度が高いほど、ユーザ視野での非表示領域との違和感が強くなる傾向にあるため、より違和感低減効果の高い(例えば円形であったり、図19(B)に示したようにグラデーションの階調数の多い)枠領域を設定する。なお、第4の実施形態ではコンテンツ画像全体を輝度算出に用いたがこれに限定されない。本質的にはユーザ視野での表示領域と非表示領域の輝度差が問題である以上、コンテンツ画像のうち表示画像(そのうちのコンテンツ表示領域)に含まれない箇所の輝度は処理に用いる必要はない。よって、図14(C)、図15(C)のようにコンテンツ画像のうち、表示画像に含まれうる注目領域が決定されており、且つ第4の実施形態のように輝度から枠領域を設定する場合には、決定された注目領域内の輝度に基づいて枠領域を制御することが望ましい。さらにいえば、図18(A)〜図19(B)に示したような実施形態では、コンテンツ画像の周縁部は枠領域を重ねられることで表示画像への寄与は小さい。つまりコンテンツ画像全体を同等に用いて処理を行うのではなく、コンテンツ表示領域(枠領域につぶされない領域)の寄与度を高くするものとしてもよい。ただし、輝度算出の段階では枠領域の形状、面積は不定であって、コンテンツ表示領域も未だ決定されていない場合も充分考えられるため、厳密にコンテンツ表示領域だけを用いて輝度を算出する実施形態は実現困難である場合もあり得る。その場合は、中心部に対して周縁部の重みが小さい重み付け平均を輝度平均とする等の手法を用いてもよい(この場合、中心部、周縁部はコンテンツ表示領域と一致しなくてよい)し、第4の実施形態のようにコンテンツ画像全体を等価に扱ってもよい。 Thereby, as described above in the fourth embodiment, it is possible to control the frame area based on the luminance of the display image. As described above, the higher the brightness of the display image, the stronger the sense of discomfort with the non-display area in the user's field of view. Therefore, the effect of reducing discomfort is higher (for example, circular or FIG. 19B). As shown in Fig. 5, a frame area having a large number of gradation gradations is set. In the fourth embodiment, the entire content image is used for luminance calculation, but the present invention is not limited to this. Essentially, the luminance difference between the display area and the non-display area in the user's field of view is a problem, so it is not necessary to use the luminance of the portion of the content image that is not included in the display image (of which the content display area) . Therefore, the attention area that can be included in the display image is determined among the content images as shown in FIGS. 14C and 15C, and the frame area is set from the luminance as in the fourth embodiment. In this case, it is desirable to control the frame area based on the determined luminance in the attention area. Furthermore, in the embodiment as shown in FIGS. 18A to 19B, the peripheral area of the content image has a small contribution to the display image by overlapping the frame area. That is, instead of processing using the entire content image equally, the contribution of the content display area (area that is not collapsed by the frame area) may be increased. However, since the shape and area of the frame region are indefinite at the stage of luminance calculation, and the content display region is not yet determined, it is fully possible to calculate the luminance strictly using only the content display region. May be difficult to implement. In such a case, a technique may be used in which a weighted average in which the weight of the peripheral portion is smaller than that of the central portion is used as the luminance average (in this case, the central portion and the peripheral portion may not coincide with the content display area). However, the entire content image may be handled equivalently as in the fourth embodiment.
また、処理部100は、枠領域の形状の制御として、枠領域を方形又は円形とする制御を行ってもよい。 Further, the processing unit 100 may perform control for making the frame region a square or a circle as the control of the shape of the frame region.
これにより、第1の実施形態の図8(A)〜図8(C)と図9、或いは第3の実施形態の図13、シーン1とシーン3で説明したように、コンテンツデータに応じて方形の枠領域と円形の枠領域を使い分けることが可能になる。一般的に、円形の枠領域は違和感の低減効果が高いという利点があり、方形の枠領域は表示画像に占めるコンテンツ表示領域を広くしやすいという利点がある。よって、そのどちらを重視すべきかをコンテンツデータから判定し、適切な形状の枠領域を用いることになる。 Accordingly, as described in FIGS. 8A to 8C and FIG. 9 of the first embodiment or FIG. 13 of the third embodiment, scene 1 and scene 3, according to the content data. It is possible to selectively use a rectangular frame region and a circular frame region. In general, a circular frame region has an advantage that an effect of reducing a sense of discomfort is high, and a rectangular frame region has an advantage that a content display region occupied in a display image can be easily widened. Therefore, it is determined from the content data which one should be emphasized, and an appropriately shaped frame region is used.
また、処理部100は、表示画像の中央部から周縁部へと向かう方向において、枠領域の輝度が単調減少するグラデーション表示とする枠領域の制御を行ってもよい。 In addition, the processing unit 100 may perform control of the frame region in a gradation display in which the luminance of the frame region monotonously decreases in the direction from the central portion to the peripheral portion of the display image.
これにより、図8(B)に示したように、グラデーション表示を行う枠領域を設定することが可能になる。輝度が相対的に高いコンテンツ表示領域(表示領域中央部)と、輝度が相対的に低い非表示領域(外界視野)とをなめらかな輝度変化で結合することが可能になり、図8(A)のような単色の枠領域に比べて違和感の低減効果を向上させることができる。 As a result, as shown in FIG. 8B, it is possible to set a frame region for performing gradation display. It is possible to combine a content display area (display area central portion) with a relatively high luminance and a non-display area (external field visual field) with a relatively low luminance with a smooth luminance change. Compared to a single-color frame region like this, it is possible to improve the effect of reducing discomfort.
また、処理部100は、枠領域とコンテンツ表示領域との境界において、ぼかし処理を施すことで表示画像を生成してもよい。 The processing unit 100 may generate a display image by performing blurring processing at the boundary between the frame area and the content display area.
これにより、図8(C)に示したように、ぼかし処理が行うことで枠領域を設定することが可能になる。ぼかし処理においても、グラデーション表示の場合と同様に、図8(A)のような単色の枠領域に比べて違和感の低減効果を向上させることができる。 As a result, as shown in FIG. 8C, the frame region can be set by performing the blurring process. Also in the blurring process, as in the case of gradation display, it is possible to improve the effect of reducing the uncomfortable feeling as compared with the single-color frame area as shown in FIG.
また、処理部100は、枠領域の内径に基づいて、コンテンツデータに含まれるコンテンツ画像情報に対して、サイズ変更処理及びトリミング処理の少なくとも一方の処理を行ってもよい。 Further, the processing unit 100 may perform at least one of a size change process and a trimming process on the content image information included in the content data based on the inner diameter of the frame region.
これにより、枠領域の形状(面積)が決定された後に、コンテンツ画像情報(狭義にはコンテンツ画像)のサイズ変更等を行うことが可能になる。図19(B)に示したように、枠領域の設定手法によっては、所与のコンテンツデータに対する枠領域の面積が大きくなり、その結果、当該枠領域が付加されることでコンテンツ画像の周縁部が大きくつぶれてしまう場合もある。図9に示したように、コンテンツ画像の周縁部に注目被写体がない可能性が高ければ問題ないが、そうでない場合には枠領域によるコンテンツの欠けは無視できない。その点、図20(B)に示したように、あらかじめコンテンツ画像を縮小することで、コンテンツ画像の多く(狭義には全体)をコンテンツ表示領域に表示すれば、コンテンツの欠けを抑止することができる。なお、ここでのコンテンツ画像に対するサイズ変更処理及びトリミング処理は、コンテンツ画像全体をコンテンツ表示領域に表示するためのものに限定されず、注目領域部分をトリミングする等の処理であってもよい。 Thereby, after the shape (area) of the frame region is determined, the size of the content image information (content image in a narrow sense) can be changed. As shown in FIG. 19B, depending on the setting method of the frame area, the area of the frame area with respect to given content data increases, and as a result, the peripheral area of the content image is added by adding the frame area. May collapse greatly. As shown in FIG. 9, there is no problem as long as there is a high possibility that there is no subject of interest at the periphery of the content image, but if this is not the case, the lack of content due to the frame region cannot be ignored. In that regard, as shown in FIG. 20B, by reducing the content image in advance, if many of the content images (the whole in a narrow sense) are displayed in the content display area, the lack of content can be suppressed. it can. Note that the size change processing and trimming processing for the content image here are not limited to displaying the entire content image in the content display region, and may be processing such as trimming the region of interest.
また、処理部100は、コンテンツデータに含まれるコンテンツ画像情報のうちの注目領域を決定し、決定された注目領域に対して枠領域を付加することで、表示画像を生成してもよい。 The processing unit 100 may generate a display image by determining a region of interest in the content image information included in the content data and adding a frame region to the determined region of interest.
これにより、図14(A)〜図16(B)に示したように、コンテンツ画像の一部を取り出して、当該領域がコンテンツ表示領域に対応するように枠領域を設定して、表示画像を生成することが可能になる。よって、コンテンツ画像のうち、より注目すべき部分の視認性を効果的に高めることができる。なお、注目領域は領域として設定されるものに限定されず、図14(B)等に示したように、画像中心を指定することで設定されるものであってもよい。 As a result, as shown in FIGS. 14A to 16B, a part of the content image is taken out, the frame area is set so that the area corresponds to the content display area, and the display image is displayed. Can be generated. Therefore, it is possible to effectively improve the visibility of the portion that should be noted in the content image. Note that the region of interest is not limited to the region set as the region, and may be set by designating the center of the image as shown in FIG.
また、処理部100は、コンテンツデータに含まれるメタデータに基づいて、コンテンツ画像情報のうちの注目領域を決定し、決定された注目領域に対して枠領域を付加することで、表示画像を生成してもよい。 Further, the processing unit 100 determines a region of interest in the content image information based on the metadata included in the content data, and generates a display image by adding a frame region to the determined region of interest. May be.
これにより、コンテンツ画像中の注目領域をメタデータに基づいて決定することが可能になる。例えば、第3の実施形態で上述したように、コンテンツデータの作成者により注目領域が設定され、その情報をメタデータとして取得するものであってもよい。 This makes it possible to determine the attention area in the content image based on the metadata. For example, as described above in the third embodiment, a region of interest may be set by a creator of content data, and the information may be acquired as metadata.
また、処理部100は、コンテンツ画像情報上での被写体の動きを検出する動き検出処理、又はコンテンツ画像情報上での対象被写体の位置を検出する被写体追尾処理の結果に基づいて、コンテンツ画像情報のうちの注目領域を決定し、決定された注目領域に対して枠領域を付加することで、表示画像を生成してもよい。 In addition, the processing unit 100 detects the movement of the subject on the content image information, or the result of the subject tracking process that detects the position of the target subject on the content image information. A display image may be generated by determining a region of interest and adding a frame region to the determined region of interest.
これにより、第3の実施形態で図15(A)〜図16(B)を用いて上述したように、動き検出処理又は被写体追尾処理に基づいて、コンテンツ画像中の注目領域を決定することが可能になる。注目被写体が既知であれば、当該注目被写体をコンテンツ画像中で探索する被写体追尾処理を行い、検出された注目被写体を含む領域を注目領域とすればよい。また、どの被写体が注目被写体とするか未知の場合であっても、画像中で動きの大きい被写体は注目度が高いと考えることができるため、動き検出処理から注目領域を決定することができる。 Accordingly, as described above with reference to FIGS. 15A to 16B in the third embodiment, the attention area in the content image can be determined based on the motion detection process or the subject tracking process. It becomes possible. If the subject of interest is known, subject tracking processing for searching for the subject of interest in the content image may be performed, and a region including the detected subject of interest may be set as the region of interest. Even if it is unknown which subject is the target subject, it can be considered that a subject with a large movement in the image has a high degree of attention, and thus the target region can be determined from the motion detection process.
また、コンテンツデータは、緊急度を表す緊急度情報を含んでもよく、処理部100は、緊急度情報に基づいて、枠領域の形状及び輝度の少なくとも一方を制御してもよい。 Further, the content data may include urgency level information indicating the urgency level, and the processing unit 100 may control at least one of the shape and brightness of the frame region based on the urgency level information.
これにより、第2の実施形態で図11(A)、図11(B)を用いて上述したように、緊急速報等を適切に表示することが可能になる。シースルー方式のウェアラブル型表示装置10では、意識して表示領域に視線を向かなければ、当該表示領域が明確に認識されることがないため外界視野の観察を妨げないという利点がある。一方当該利点は、緊急度が高い情報までユーザに気づかれないという危険性をはらんでいる。よってここでは、視覚的な方法でアラート表示を行ってユーザの意識を表示領域に向けさせ、意識が向いた後は緊急速報を提示するものとする。具体的にはアラート表示時は表示領域を目立たせることが重要であるため、枠領域の面積は0でよい。一方、情報提示時はコンテンツの欠けは極力避ける必要があるため、ケラレ等を考慮して枠領域を設定するとよい。 As a result, as described above with reference to FIGS. 11A and 11B in the second embodiment, it is possible to appropriately display emergency bulletins and the like. The see-through type wearable display device 10 has an advantage that observation of the external field of view is not hindered unless the line of sight is consciously directed to the display area. On the other hand, this advantage involves a risk that the user is not aware of information with a high degree of urgency. Therefore, here, it is assumed that the alert is displayed by a visual method to direct the user's consciousness toward the display area, and the emergency early warning is presented after the consciousness has turned. Specifically, since it is important to make the display area conspicuous during alert display, the area of the frame area may be zero. On the other hand, since it is necessary to avoid missing content as much as possible when presenting information, it is preferable to set a frame region in consideration of vignetting and the like.
また、処理部100は、緊急度情報に基づいて、コンテンツデータの表示態様を制御してもよい。 Further, the processing unit 100 may control the display mode of the content data based on the urgency level information.
これにより、枠領域の制御だけでなくコンテンツデータの表示態様についても制御可能となる。例えば、アラート表示における明滅の周期等を緊急度に応じて変更するものであってもよいし、コンテンツ画像の配置を変更する(緊急度が一定以上であれば、コンテンツの欠けは許されないものとして、変倍処理やテキストの位置調整を行う)ものであってもよい。 As a result, not only the frame area but also the display mode of the content data can be controlled. For example, the blinking cycle in the alert display may be changed according to the urgency level, or the content image layout is changed (if the urgency level is equal to or higher than a certain level, lack of content is not allowed) , Scaling processing and text position adjustment).
また、ウェアラブル型表示装置10は、表示部300に表示する表示画像を形成する光束を使用者にむけて射出する接眼窓を含み、接眼窓は、使用者の視軸方向への投影断面の幅が4mm以下であってもよい。 The wearable display device 10 includes an eyepiece window that emits a light beam that forms a display image to be displayed on the display unit 300 toward the user, and the eyepiece window has a width of a projection cross section in the user's visual axis direction. May be 4 mm or less.
これにより、シースルー方式のウェアラブル型表示装置として、瞳分割シースルー方式のウェアラブル型表示装置を実現することが可能になる。 This makes it possible to realize a pupil-division see-through wearable display device as a see-through wearable display device.
また、表示制御部200は、表示画像の表示態様を制御することで、枠領域の輝度を制御してもよい。具体的には、表示制御部200は、表示部300のバックライトの制御を行うことで、枠領域の前記輝度を制御してもよい。 The display control unit 200 may control the brightness of the frame region by controlling the display mode of the display image. Specifically, the display control unit 200 may control the luminance of the frame region by controlling the backlight of the display unit 300.
これにより、枠領域の輝度について、表示画像のうちの枠領域の輝度値を制御するのではなく、表示画像を表示する際のハードウェア制御(狭義にはバックライト制御)により制御することが可能になる。なお、処理部100と表示制御部200の両方において、枠領域の輝度を制御するものであってもよい。 As a result, the brightness of the frame area can be controlled by hardware control (backlight control in a narrow sense) when displaying the display image, instead of controlling the brightness value of the frame area in the display image. become. Note that both the processing unit 100 and the display control unit 200 may control the luminance of the frame region.
なお、本実施形態のウェアラブル型表示装置10は、その処理の一部または大部分をプログラムにより実現してもよい。この場合には、CPU等のプロセッサがプログラムを実行することで、本実施形態のウェアラブル型表示装置10が実現される。具体的には、非一時的な情報記憶媒体に記憶されたプログラムが読み出され、読み出されたプログラムをCPU等のプロセッサが実行する。ここで、情報記憶媒体(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、CD等)、HDD(ハードディスクドライブ)、或いはメモリ(カード型メモリ、ROM等)などにより実現できる。そして、CPU等のプロセッサは、情報記憶媒体に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち、情報記憶媒体には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。 Note that the wearable display device 10 of the present embodiment may realize part or most of the processing by a program. In this case, the wearable display device 10 of the present embodiment is realized by a processor such as a CPU executing a program. Specifically, a program stored in a non-temporary information storage medium is read, and a processor such as a CPU executes the read program. Here, the information storage medium (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, CD, etc.), HDD (hard disk drive), or memory (card type). It can be realized by memory, ROM, etc. A processor such as a CPU performs various processes of the present embodiment based on a program (data) stored in the information storage medium. That is, in the information storage medium, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit) Is memorized.
以上、本発明を適用した4つの実施の形態1〜4およびその変形例について説明したが、本発明は、各実施の形態1〜4やその変形例そのままに限定されるものではなく、実施段階では、発明の要旨を逸脱しない範囲内で構成要素を変形して具体化することができる。また、上記した各実施の形態1〜4や変形例に開示されている複数の構成要素を適宜組み合わせることによって、種々の発明を形成することができる。例えば、各実施の形態1〜4や変形例に記載した全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態や変形例で説明した構成要素を適宜組み合わせてもよい。また、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。このように、発明の主旨を逸脱しない範囲内において種々の変形や応用が可能である。 As mentioned above, although four Embodiments 1-4 and its modification to which this invention was applied were demonstrated, this invention is not limited to each Embodiment 1-4 and its modification as it is, An implementation step The constituent elements can be modified and embodied without departing from the spirit of the invention. Moreover, various inventions can be formed by appropriately combining a plurality of constituent elements disclosed in the above-described first to fourth embodiments and modified examples. For example, you may delete a some component from all the components described in each Embodiment 1-4 and the modification. Furthermore, you may combine suitably the component demonstrated in different embodiment and modification. In addition, a term described together with a different term having a broader meaning or the same meaning at least once in the specification or the drawings can be replaced with the different term anywhere in the specification or the drawings. Thus, various modifications and applications are possible without departing from the spirit of the invention.
DA 表示領域、PU 瞳孔、HO 保持部、NA 非表示領域、BO 境界部、
DI 表示画像、FR 枠領域、CO コンテンツ領域、CE 画面中心、
MV 動き情報、10 ウェアラブル型表示装置、11 HMD、
100 処理部、200 表示制御部、300 表示部
DA display area, PU pupil, HO holding part, NA non-display area, BO boundary part,
DI display image, FR frame area, CO content area, CE screen center,
MV motion information, 10 wearable display device, 11 HMD,
100 processing unit, 200 display control unit, 300 display unit
Claims (19)
生成された前記表示画像の表示制御を行う表示制御部と、
前記表示制御部の前記表示制御に基づいて、前記処理部で生成された前記表示画像を外界と重ねてシースルー表示する表示部と、
を含むことを特徴とするウェアラブル型表示装置。 The display including the frame area and the content display area for displaying the content data by controlling at least one of the shape and brightness of the frame area set at the periphery of the display image based on the content data to be displayed A processing unit for generating an image;
A display control unit that performs display control of the generated display image;
Based on the display control of the display control unit, a display unit that displays the display image generated by the processing unit on the outside world in a see-through manner;
A wearable display device comprising:
前記コンテンツデータは、第1のコンテンツデータと、前記第1のコンテンツデータとは異なる第2のコンテンツデータを含み、
前記処理部は、
前記第1のコンテンツデータに対応した第1の表示画像の第1の枠領域と、前記第2のコンテンツデータに対応した第2の表示画像の第2の枠領域とで、前記形状及び前記輝度の少なくとも一方が異なる領域を設定することを特徴とするウェアラブル型表示装置。 In claim 1,
The content data includes first content data and second content data different from the first content data,
The processor is
The shape and the luminance of the first frame area of the first display image corresponding to the first content data and the second frame area of the second display image corresponding to the second content data A wearable display device characterized in that at least one of the areas is set in a different area.
前記処理部は、
前記第1の表示画像と第2の表示画像の少なくとも一方に対して、前記枠領域の面積をゼロとする前記形状の制御を行い、前記枠領域の前記面積がゼロとされた前記表示画像として、前記枠領域を含まず、前記コンテンツ表示領域が全体に表示された前記表示画像を生成することを特徴とするウェアラブル型表示装置。 In claim 2,
The processor is
As the display image in which the area of the frame region is controlled to be zero with respect to at least one of the first display image and the second display image, and the area of the frame region is zero A wearable display device that generates the display image in which the content display area is entirely displayed without including the frame area.
前記第2のコンテンツデータに含まれる第2のコンテンツ画像情報が、前記第1のコンテンツデータに含まれる第1のコンテンツ画像情報の一部を拡大した画像である場合、
又は前記第2のコンテンツ画像情報の画角が、前記第1のコンテンツ画像情報の前記画角に比べて狭い場合に、
前記処理部は、
前記第1の表示画像に含まれる前記第1の枠領域の面積に比べて、前記第2の表示画像に含まれる前記第2の枠領域の面積を大きく設定することを特徴とするウェアラブル型表示装置。 In claim 2 or 3,
When the second content image information included in the second content data is an image obtained by enlarging a part of the first content image information included in the first content data,
Alternatively, when the angle of view of the second content image information is narrower than the angle of view of the first content image information,
The processor is
A wearable display characterized in that an area of the second frame region included in the second display image is set larger than an area of the first frame region included in the first display image. apparatus.
前記処理部は、
前記第1のコンテンツ画像情報及び前記第2のコンテンツ画像情報から人物の顔領域を認識する認識処理を行い、前記認識処理に基づいて、前記第2のコンテンツ画像情報が前記第1のコンテンツ画像情報の一部を拡大した画像であるか否かの判定処理を行うことを特徴とするウェアラブル型表示装置。 In claim 4,
The processor is
A recognition process for recognizing a human face area from the first content image information and the second content image information is performed, and the second content image information is converted into the first content image information based on the recognition process. A wearable display device that performs a process of determining whether or not the image is an enlarged image of a part of the image.
前記処理部は、
前記コンテンツ表示領域を含む前記表示画像の少なくとも一部の輝度に基づいて、前記枠領域の前記形状及び前記輝度の少なくとも一方を制御することを特徴とするウェアラブル型表示装置。 In any one of Claims 1 thru | or 5,
The processor is
A wearable display device that controls at least one of the shape and the luminance of the frame region based on at least a luminance of the display image including the content display region.
前記処理部は、
前記枠領域の前記形状の制御として、前記枠領域を方形又は円形とする制御を行うことを特徴とするウェアラブル型表示装置。 In any one of Claims 1 thru | or 6.
The processor is
A wearable display device characterized in that as the control of the shape of the frame region, control is performed so that the frame region is square or circular.
前記処理部は、
前記表示画像の中央部から周縁部へと向かう方向において、前記枠領域の輝度が単調減少するグラデーション表示とする前記枠領域の制御を行うことを特徴とするウェアラブル型表示装置。 In any one of Claims 1 thru | or 7,
The processor is
A wearable display device that controls the frame area to be a gradation display in which the luminance of the frame area monotonously decreases in the direction from the center to the periphery of the display image.
前記処理部は、
前記枠領域と前記コンテンツ表示領域との境界において、ぼかし処理を施すことで前記表示画像を生成することを特徴とするウェアラブル型表示装置。 In any one of Claims 1 thru | or 7,
The processor is
A wearable display device that generates the display image by performing blurring processing at a boundary between the frame region and the content display region.
前記処理部は、
前記枠領域の内径に基づいて、前記コンテンツデータに含まれるコンテンツ画像情報に対して、サイズ変更処理及びトリミング処理の少なくとも一方の処理を行うことを特徴とするウェアラブル型表示装置。 In any one of Claims 1 thru | or 9,
The processor is
A wearable display device that performs at least one of a size change process and a trimming process on content image information included in the content data based on an inner diameter of the frame region.
前記処理部は、
前記コンテンツデータに含まれるコンテンツ画像情報のうちの注目領域を決定し、決定された前記注目領域に対して前記枠領域を付加することで、前記表示画像を生成することを特徴とするウェアラブル型表示装置。 In any one of Claims 1 thru | or 9,
The processor is
A wearable display comprising: generating a display image by determining a region of interest in content image information included in the content data, and adding the frame region to the determined region of interest apparatus.
前記処理部は、
前記コンテンツデータに含まれるメタデータに基づいて、前記コンテンツ画像情報のうちの前記注目領域を決定し、決定された前記注目領域に対して前記枠領域を付加することで、前記表示画像を生成することを特徴とするウェアラブル型表示装置。 In claim 11,
The processor is
Based on the metadata included in the content data, the region of interest in the content image information is determined, and the frame region is added to the determined region of interest to generate the display image. A wearable display device characterized by that.
前記処理部は、
前記コンテンツ画像情報上での被写体の動きを検出する動き検出処理、又は前記コンテンツ画像情報上での対象被写体の位置を検出する被写体追尾処理の結果に基づいて、前記コンテンツ画像情報のうちの前記注目領域を決定し、決定された前記注目領域に対して前記枠領域を付加することで、前記表示画像を生成することを特徴とするウェアラブル型表示装置。 In claim 11,
The processor is
Based on the result of the motion detection process that detects the movement of the subject on the content image information or the subject tracking process that detects the position of the target subject on the content image information, the attention of the content image information A wearable display device that determines a region and generates the display image by adding the frame region to the determined region of interest.
前記コンテンツデータは、緊急度を表す緊急度情報を含み、
前記処理部は、
前記緊急度情報に基づいて、前記枠領域の前記形状及び前記輝度の少なくとも一方を制御することを特徴とするウェアラブル型表示装置。 In any one of Claims 1 thru | or 13.
The content data includes urgency information indicating urgency,
The processor is
A wearable display device that controls at least one of the shape and the luminance of the frame region based on the urgency information.
前記処理部は、
前記緊急度情報に基づいて、前記コンテンツデータの表示態様を制御することを特徴とするウェアラブル型表示装置。 In claim 14,
The processor is
A wearable display device that controls a display mode of the content data based on the urgency information.
前記表示部に表示する前記表示画像を形成する光束を使用者にむけて射出する接眼窓を含み、
前記接眼窓は、
前記使用者の視軸方向への投影断面の幅が4mm以下であることを特徴とするウェアラブル型表示装置。 In any one of Claims 1 thru | or 15,
An eyepiece window for emitting a light beam forming the display image to be displayed on the display unit toward a user;
The eyepiece window is
A wearable display device, wherein a width of a projected cross section in the visual axis direction of the user is 4 mm or less.
前記表示制御部は、
前記表示画像の表示態様を制御することで、前記枠領域の前記輝度を制御することを特徴とするウェアラブル型表示装置。 In any one of Claims 1 thru | or 16.
The display control unit
A wearable display device that controls the brightness of the frame region by controlling a display mode of the display image.
前記表示制御部は、
前記表示部のバックライトの制御を行うことで、前記枠領域の前記輝度を制御することを特徴とするウェアラブル型表示装置。 In claim 17,
The display control unit
A wearable display device that controls the brightness of the frame region by controlling a backlight of the display unit.
生成された表示画像を、外界と重ねて表示部にシースルー表示する制御を行う表示制御部として、
コンピュータを機能させることを特徴とするプログラム。 Based on the content data to be displayed, at least one of the shape and brightness of the frame region at the periphery of the display image is controlled to generate a display image including the frame region and the content display region for displaying the content data A processing unit to
As a display control unit that performs control to display the generated display image on the display unit in a superimposed manner with the outside world,
A program characterized by causing a computer to function.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013012815A JP6112878B2 (en) | 2013-01-28 | 2013-01-28 | Wearable display device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013012815A JP6112878B2 (en) | 2013-01-28 | 2013-01-28 | Wearable display device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014146871A true JP2014146871A (en) | 2014-08-14 |
JP6112878B2 JP6112878B2 (en) | 2017-04-12 |
Family
ID=51426810
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013012815A Active JP6112878B2 (en) | 2013-01-28 | 2013-01-28 | Wearable display device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6112878B2 (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016103880A1 (en) * | 2014-12-25 | 2016-06-30 | ソニー株式会社 | Information processing device |
JP2016130985A (en) * | 2015-01-15 | 2016-07-21 | セイコーエプソン株式会社 | Head-mounted type display device, method of controlling head-mounted type display device, and computer program |
JP2017091433A (en) * | 2015-11-17 | 2017-05-25 | セイコーエプソン株式会社 | Head-mounted type display device, method of controlling head-mounted type display device, and computer program |
JP2017212720A (en) * | 2016-05-18 | 2017-11-30 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
WO2018051964A1 (en) * | 2016-09-14 | 2018-03-22 | 株式会社スクウェア・エニックス | Video display system, video display method, and video display program |
WO2018179972A1 (en) * | 2017-03-28 | 2018-10-04 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP2019020738A (en) * | 2018-09-10 | 2019-02-07 | セイコーエプソン株式会社 | Head-mounted type display device and control method of the same, and computer program |
US10303435B2 (en) | 2015-01-15 | 2019-05-28 | Seiko Epson Corporation | Head-mounted display device, method of controlling head-mounted display device, and computer program |
JP2019197224A (en) * | 2016-02-09 | 2019-11-14 | 株式会社ソニー・インタラクティブエンタテインメント | Video display system |
CN113508602A (en) * | 2019-05-01 | 2021-10-15 | 谷歌有限责任公司 | Biased lighting effect generation for video |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8871699B2 (en) | 2012-09-13 | 2014-10-28 | Ecolab Usa Inc. | Detergent composition comprising phosphinosuccinic acid adducts and methods of use |
US20140308162A1 (en) | 2013-04-15 | 2014-10-16 | Ecolab Usa Inc. | Peroxycarboxylic acid based sanitizing rinse additives for use in ware washing |
US9752105B2 (en) | 2012-09-13 | 2017-09-05 | Ecolab Usa Inc. | Two step method of cleaning, sanitizing, and rinsing a surface |
US9994799B2 (en) | 2012-09-13 | 2018-06-12 | Ecolab Usa Inc. | Hard surface cleaning compositions comprising phosphinosuccinic acid adducts and methods of use |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05328258A (en) * | 1992-05-26 | 1993-12-10 | Olympus Optical Co Ltd | Head mount type display device |
JPH0961749A (en) * | 1995-08-21 | 1997-03-07 | Olympus Optical Co Ltd | Video display device |
JP2005346177A (en) * | 2004-05-31 | 2005-12-15 | Nissan Motor Co Ltd | Information presenting device for vehicle |
JP2006003879A (en) * | 2004-05-17 | 2006-01-05 | Olympus Corp | Head-mounted type image display apparatus |
JP2007264324A (en) * | 2006-03-28 | 2007-10-11 | Brother Ind Ltd | Image display |
JP2008083289A (en) * | 2006-09-27 | 2008-04-10 | Sony Corp | Imaging display apparatus, and imaging display method |
JP2008176681A (en) * | 2007-01-22 | 2008-07-31 | Fujifilm Corp | Glasses-type communication support device |
-
2013
- 2013-01-28 JP JP2013012815A patent/JP6112878B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05328258A (en) * | 1992-05-26 | 1993-12-10 | Olympus Optical Co Ltd | Head mount type display device |
JPH0961749A (en) * | 1995-08-21 | 1997-03-07 | Olympus Optical Co Ltd | Video display device |
JP2006003879A (en) * | 2004-05-17 | 2006-01-05 | Olympus Corp | Head-mounted type image display apparatus |
JP2005346177A (en) * | 2004-05-31 | 2005-12-15 | Nissan Motor Co Ltd | Information presenting device for vehicle |
JP2007264324A (en) * | 2006-03-28 | 2007-10-11 | Brother Ind Ltd | Image display |
JP2008083289A (en) * | 2006-09-27 | 2008-04-10 | Sony Corp | Imaging display apparatus, and imaging display method |
JP2008176681A (en) * | 2007-01-22 | 2008-07-31 | Fujifilm Corp | Glasses-type communication support device |
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016103880A1 (en) * | 2014-12-25 | 2016-06-30 | ソニー株式会社 | Information processing device |
JPWO2016103880A1 (en) * | 2014-12-25 | 2017-10-05 | ソニー株式会社 | Information processing device |
US10380779B2 (en) | 2014-12-25 | 2019-08-13 | Sony Corporation | Wearable information processing device |
JP2016130985A (en) * | 2015-01-15 | 2016-07-21 | セイコーエプソン株式会社 | Head-mounted type display device, method of controlling head-mounted type display device, and computer program |
US10303435B2 (en) | 2015-01-15 | 2019-05-28 | Seiko Epson Corporation | Head-mounted display device, method of controlling head-mounted display device, and computer program |
JP2017091433A (en) * | 2015-11-17 | 2017-05-25 | セイコーエプソン株式会社 | Head-mounted type display device, method of controlling head-mounted type display device, and computer program |
US11270410B2 (en) | 2016-02-09 | 2022-03-08 | Sony Interactive Entertainment Inc. | Video display system |
US10810701B2 (en) | 2016-02-09 | 2020-10-20 | Sony Interactive Entertainment Inc. | Video display system |
JP2019197224A (en) * | 2016-02-09 | 2019-11-14 | 株式会社ソニー・インタラクティブエンタテインメント | Video display system |
JP2017212720A (en) * | 2016-05-18 | 2017-11-30 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JPWO2018051964A1 (en) * | 2016-09-14 | 2019-07-25 | 株式会社スクウェア・エニックス | Image display system, image display method, image display program |
CN109643466A (en) * | 2016-09-14 | 2019-04-16 | 史克威尔·艾尼克斯有限公司 | Image display system and image display method, image show program |
US11198063B2 (en) | 2016-09-14 | 2021-12-14 | Square Enix Co., Ltd. | Video display system, video display method, and video display program |
WO2018051964A1 (en) * | 2016-09-14 | 2018-03-22 | 株式会社スクウェア・エニックス | Video display system, video display method, and video display program |
JPWO2018179972A1 (en) * | 2017-03-28 | 2020-02-06 | ソニー株式会社 | Information processing apparatus, information processing method and program |
WO2018179972A1 (en) * | 2017-03-28 | 2018-10-04 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP7078036B2 (en) | 2017-03-28 | 2022-05-31 | ソニーグループ株式会社 | Information processing equipment, information processing methods and programs |
JP2019020738A (en) * | 2018-09-10 | 2019-02-07 | セイコーエプソン株式会社 | Head-mounted type display device and control method of the same, and computer program |
CN113508602A (en) * | 2019-05-01 | 2021-10-15 | 谷歌有限责任公司 | Biased lighting effect generation for video |
JP2022529867A (en) * | 2019-05-01 | 2022-06-27 | グーグル エルエルシー | Bias lighting effect generation for video |
JP7422774B2 (en) | 2019-05-01 | 2024-01-26 | グーグル エルエルシー | Generating biased lighting effects for videos |
Also Published As
Publication number | Publication date |
---|---|
JP6112878B2 (en) | 2017-04-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6112878B2 (en) | Wearable display device and program | |
US10009542B2 (en) | Systems and methods for environment content sharing | |
US11320655B2 (en) | Graphic interface for real-time vision enhancement | |
US9143693B1 (en) | Systems and methods for push-button slow motion | |
JP4927631B2 (en) | Display device, control method therefor, program, recording medium, and integrated circuit | |
US9360671B1 (en) | Systems and methods for image zoom | |
US8831278B2 (en) | Method of identifying motion sickness | |
JP5989909B2 (en) | Method and system for preventing the use of a head mounted display from being seen by non-users | |
US11487354B2 (en) | Information processing apparatus, information processing method, and program | |
JP6292478B2 (en) | Information display system having transmissive HMD and display control program | |
US10403048B2 (en) | Storage medium, content providing apparatus, and control method for providing stereoscopic content based on viewing progression | |
US20230336865A1 (en) | Device, methods, and graphical user interfaces for capturing and displaying media | |
CN112396705A (en) | Mitigation of small field of view display using transitional visual content | |
US11699412B2 (en) | Application programming interface for setting the prominence of user interface elements | |
US11543655B1 (en) | Rendering for multi-focus display systems | |
US20230221833A1 (en) | Methods for displaying user interface elements relative to media content | |
JP5971298B2 (en) | Display device and display method | |
JP2021124520A (en) | Image display device, program for image display, and image display method | |
US10783853B2 (en) | Image provision device, method and program that adjusts eye settings based on user orientation | |
JP7392723B2 (en) | Information processing device, information processing method, and program | |
WO2024166619A1 (en) | Information processing method and information processing system | |
US20240320930A1 (en) | Devices, methods, and graphical user interfaces for capturing media with a camera application | |
US20240119643A1 (en) | Image processing device, image processing method, and computer-readable storage medium | |
CN118435158A (en) | Device, method and graphical user interface for capturing and displaying media |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150828 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160726 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160920 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170314 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6112878 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |