JP6743254B2 - Video display device and control method - Google Patents

Video display device and control method Download PDF

Info

Publication number
JP6743254B2
JP6743254B2 JP2019146312A JP2019146312A JP6743254B2 JP 6743254 B2 JP6743254 B2 JP 6743254B2 JP 2019146312 A JP2019146312 A JP 2019146312A JP 2019146312 A JP2019146312 A JP 2019146312A JP 6743254 B2 JP6743254 B2 JP 6743254B2
Authority
JP
Japan
Prior art keywords
display device
image
video
video display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019146312A
Other languages
Japanese (ja)
Other versions
JP2020013135A (en
Inventor
孝弘 松田
孝弘 松田
大内 敏
敏 大内
瀬尾 欣穂
欣穂 瀬尾
誠治 村田
誠治 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Maxell Ltd filed Critical Maxell Ltd
Priority to JP2019146312A priority Critical patent/JP6743254B2/en
Publication of JP2020013135A publication Critical patent/JP2020013135A/en
Application granted granted Critical
Publication of JP6743254B2 publication Critical patent/JP6743254B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Liquid Crystal (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Video Image Reproduction Devices For Color Tv Systems (AREA)
  • Processing Of Color Television Signals (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)

Description

本願発明は、使用者の頭部に装着可能で、使用者の眼前に映像が表示される映像表示装置と、その制御方法に関する。 The present invention relates to a video display device that can be mounted on a user's head and displays a video in front of the user's eyes, and a control method thereof.

使用者装着型の映像表示装置は、軽量化・小型化の開発が進み、装置利用者への負担が低減される見込みである。この種の映像表示装置には、両手が自由に使用できる状態で情報を得られる利点があり、広い用途への応用が期待されている。 The user-worn video display device is expected to be lighter and more compact, and the burden on the device user will be reduced. This type of image display device has an advantage that information can be obtained in a state where both hands can be freely used, and is expected to be applied to a wide range of purposes.

特許第5228305号Patent No. 5228305

例えば上記特許文献のように、眼鏡型もしくは頭部装着型の装着ユニットにより、ユーザーの目の直前に表示部を配置して表示および表示の終了を行う装置が提案されている。 For example, as in the above-mentioned patent document, there has been proposed an apparatus that uses a spectacles-type or head-mounted type mounting unit to dispose a display section immediately in front of a user's eyes to perform display and display termination.

装着型の映像表示装置では、装置利用者が映像から視線を外すことが難しく、表示を維持しつつも映像の乱れなどからくる不快感を軽減するのが望ましい。しかし、参考文献1のように装置の判断で表示の終了を行うことは、装置の用途によっては映像を表示し続けることが重要な場合もあり、その場合は装置利用者にとって不利益となる場合が存在する。 In a wearable image display device, it is difficult for the user of the device to remove his/her line of sight from the image, and it is desirable to reduce discomfort caused by disturbance of the image while maintaining the display. However, in order to terminate the display according to the judgment of the device as in Reference 1, it may be important to keep displaying the image depending on the use of the device, and in that case, it may be disadvantageous to the device user. Exists.

この映像の乱れは映像表示装置の表示方式に起因するものが考えられる。例えば液晶を利用した映像表示装置であれば画面の映像情報を更新する際の画面のちらつき、またフィールドシーケンシャル方式(色時分割方式)の映像表示装置であればカラーブレイク(色割れ)などが考えられる。これらの映像の乱れは、装着型の映像表示装置の場合、装置利用者が動くことで装置利用者により大きな不快感として認識される可能性がある。また、映像の乱れを軽減する表示方法は消費電力を増大させる。 It is conceivable that this image distortion is caused by the display system of the image display device. For example, in the case of a video display device using liquid crystal, flicker of the screen when updating the video information of the screen may be considered, and in the case of a field sequential system (color time division system) video display device, color break (color breakup) may occur. To be In the case of a wearable image display device, these image distortions may be recognized by the device user as great discomfort when the device user moves. In addition, the display method for reducing the disturbance of the image increases the power consumption.

上記課題を解決するための利用者の頭部に装着可能な映像表示装置であって、二つ以上の表示方法を切り替えることができる映像表示部と、映像表示部に表示方法を指示する制御部と、利用者の頭部の動きを検出する第一の検出部と、利用者の視点の動きを検出する第二の検出部と、前記第一の検出部の出力と前記第二の検出部の出力により装置利用者の運動状況を判定する運動判定部とを含む。制御部は運動判定部の判定結果に応じて、映像表示部に表示方法の変更を指示する。 A video display device that can be mounted on a user's head for solving the above-mentioned problems, and a video display unit capable of switching between two or more display methods, and a control unit for instructing the video display unit of the display method. A first detector that detects the movement of the user's head, a second detector that detects the movement of the user's viewpoint, the output of the first detector, and the second detector. And an exercise determination unit that determines the exercise status of the device user based on the output of. The control unit instructs the video display unit to change the display method according to the determination result of the exercise determination unit.

本発明によれば、装着型の映像表示装置において、装置利用者が映像から感じる不快感の低減を低消費電力で実現できる。 According to the present invention, in the wearable image display device, it is possible to reduce the discomfort felt by the device user from the image with low power consumption.

本発明の他の目的、特徴及び利点は添付図面に関する以下の本発明の実施例の記載から明らかになるであろう。 Other objects, features and advantages of the present invention will be apparent from the following description of embodiments of the present invention with reference to the accompanying drawings.

実施例1による映像表示装置10のブロック図である。1 is a block diagram of a video display device 10 according to a first embodiment. 映像表示装置10の外観図の一例である。3 is an example of an external view of the video display device 10. FIG. 図1Bに示した映像表示装置10を装着した時の図である。It is a figure when the video display apparatus 10 shown in FIG. 1B is mounted. 映像表示装置10の外観図の他の一例である。6 is another example of an external view of the video display device 10. FIG. 図1Dに示した映像表示装置10を装着した時の図である。It is a figure when the video display apparatus 10 shown in FIG. 1D is mounted. 映像表示装置10のさらに他の一例を装着した時の図である。It is a figure when another example of the video display device 10 is attached. 映像表示装置10内の映像表示部1001の実施例を示すブロック図である。3 is a block diagram showing an example of a video display unit 1001 in the video display device 10. FIG. 映像表示部内1001の光源素子2003の実施例を示す回路図である。FIG. 7 is a circuit diagram showing an example of a light source element 2003 in the image display unit 1001. 映像表示装置10内の映像表示部1001の1倍速表示動作例を示すタイミングチャートである。7 is a timing chart showing an example of a 1× speed display operation of the video display unit 1001 in the video display device 10. 映像表示装置10内の映像表示部1001の2倍速表示動作例を示すタイミングチャートである。7 is a timing chart showing an example of double-speed display operation of the video display unit 1001 in the video display device 10. 映像表示装置10内の映像表示部1001の2倍速表示動作かつフレーム補完を実施する例を示すタイミングチャートである。9 is a timing chart showing an example in which the video display unit 1001 in the video display device 10 performs double-speed display operation and frame complement. 映像表示装置10内の映像表示部1001の3倍速表示動作例を示すタイミングチャートである。7 is a timing chart showing an example of a 3× speed display operation of the video display unit 1001 in the video display device 10. 運動判定処理部1006による判定処理を示す表である。9 is a table showing a determination process by an exercise determination processing unit 1006. 制御部1003と運動判定処理部1006による判定処理フローを示すフローチャートである。9 is a flowchart showing a determination processing flow by a control unit 1003 and a motion determination processing unit 1006. 外界の例である。It is an example of the outside world. 映像表示装置10が表示する仮想映像の表示例である。6 is a display example of a virtual image displayed by the image display device 10. 外界に仮想映像を重ね合わせた例である。This is an example of superimposing a virtual image on the outside world. 映像表示装置10による表示例である。6 is a display example by the video display device 10. 映像処理部1008によりコントラストを弱めた映像表示例である。This is an example of image display in which the contrast is weakened by the image processing unit 1008. 映像処理部1008によりシャープネスを弱めた映像表示例である。This is an image display example in which sharpness is weakened by the image processing unit 1008. 映像判定処理部1009の対象となる映像の一例である。It is an example of an image that is a target of the image determination processing unit 1009. 映像判定処理部1009の対象となる映像の他の一例である。11 is another example of a video that is a target of the video determination processing unit 1009. 映像表示装置10内の映像表示部の光源制御停止表示動作例を示すタイミングチャートである。6 is a timing chart showing an example of light source control stop display operation of the video display unit in the video display device 10. 映像表示装置10内の映像表示部の強誘電液晶の更新停止動作例を示すタイミングチャートである。9 is a timing chart showing an example of an operation of stopping the update of the ferroelectric liquid crystal of the video display unit in the video display device 10. 第2センサの一実施例を示す図である。It is a figure which shows one Example of a 2nd sensor. 第2センサの一実施例を示す詳細図である。It is a detailed view showing an example of the 2nd sensor. 映像表示装置の初期設定時の映像例である。It is an example of an image at the time of initial setting of an image display device. 映像表示装置の初期設定時の映像表示範囲を示す図である。It is a figure which shows the video display range at the time of initial setting of a video display device. 実施例2による映像表示装置130を示すブロック図である。7 is a block diagram showing a video display device 130 according to Example 2. FIG. 実施例2による映像表示装置140を示すブロック図である。9 is a block diagram showing a video display device 140 according to Example 2. FIG. 実施例2による映像表示装置150を示すブロック図である。7 is a block diagram showing a video display device 150 according to a second embodiment. FIG. 実施例3による映像表示装置160を示すブロック図である。FIG. 9 is a block diagram showing a video display device 160 according to a third embodiment. 実施例3による映像表示装置の制御方法例を示すブロック図である。FIG. 9 is a block diagram showing an example of a control method of a video display device according to a third embodiment.

以下、本発明の実施例について図面を用いて説明する。 Embodiments of the present invention will be described below with reference to the drawings.

本発明の実施形態を添付図面に従って説明する。
1.装置の概要
図1Aは使用者に装着可能で、使用者の眼前に映像が表示される映像表示装置を示すブロック図である。
Embodiments of the present invention will be described with reference to the accompanying drawings.
1. Outline of Device FIG. 1A is a block diagram showing an image display device that can be worn by a user and displays an image in front of the user's eyes.

映像表示装置10は、映像表示部1001、表示制御部1002、制御部1003、第1センサ1004、第2センサ1005、運動判定処理部1006、映像情報源1007、映像処理部1008、映像判定処理部1009、記憶部1010、頻度判定処理部1011、電源部1012を備えている。 The video display device 10 includes a video display unit 1001, a display control unit 1002, a control unit 1003, a first sensor 1004, a second sensor 1005, a motion determination processing unit 1006, a video information source 1007, a video processing unit 1008, and a video determination processing unit. 1009, a storage unit 1010, a frequency determination processing unit 1011 and a power supply unit 1012 are provided.

映像表示装置10は、映像情報源1007から取得された映像情報を、映像処理部1008を介して、映像表示部1001に送信して映像を表示する。映像表示部1001は、代表的には、液晶素子またはミラーアレイ素子を用いたディスプレイである。 The video display device 10 transmits the video information acquired from the video information source 1007 to the video display unit 1001 via the video processing unit 1008 to display the video. The image display unit 1001 is typically a display using a liquid crystal element or a mirror array element.

映像情報源1007は図示しない記憶装置に保存された映像情報のデータを、適宜選択して必要に応じてデータの復号や暗号化の解除などの処理を行い、映像情報を1008に送信する。時系列の動画像を時系列に送信してもよいし、静止画を逐次送信してもよい。 The video information source 1007 appropriately selects the data of the video information stored in the storage device (not shown), performs processing such as decryption and decryption of the data as necessary, and transmits the video information to 1008. Time-series moving images may be transmitted in time series, or still images may be sequentially transmitted.

制御部1003は映像表示装置10の外部にあるコントローラ1020と有線あるいは無線で接続されている。装置利用者20がコントローラ1020を操作する事により、映像表示装置10の電源On/Offや映像に関する各種設定を行うことができる。コントローラ1020は、映像表示装置10専用のコントローラでも良いし、スマートフォンに専用のアプリケーションプログラムをインストールしてコントローラとして使用できるようにしてもよい。電源部1012には、コントローラとは別に、電源をOn/Offするスイッチが設けられている。 The control unit 1003 is connected to the controller 1020 outside the video display device 10 by wire or wirelessly. By operating the controller 1020 by the device user 20, various settings related to the power supply On/Off of the image display device 10 and images can be performed. The controller 1020 may be a controller dedicated to the video display device 10, or a dedicated application program may be installed in a smartphone so that the smartphone can be used as the controller. In addition to the controller, the power supply unit 1012 is provided with a switch for turning the power supply on/off.

表示制御部1002、制御部1003、運動判定処理部1006、映像情報源1007、映像処理部1008、映像判定処理部1009、頻度判定処理部1011は、それぞれ独立のハードウェアとして映像表示装置10に実装される。あるいは、それらは1つ以上の演算処理器やマイクロプロセッサとソフトウェアやファームウェアにより実現されても良い。それらは集積回路の一部の機能ブロックとして実装されてもよいし、FPGA(Field−Programmable Gate Array)などのプログラマブルロジックデバイスによって実現されてもよい。 The display control unit 1002, the control unit 1003, the motion determination processing unit 1006, the video information source 1007, the video processing unit 1008, the video determination processing unit 1009, and the frequency determination processing unit 1011 are mounted on the video display device 10 as independent hardware. To be done. Alternatively, they may be implemented by one or more processors or microprocessors and software or firmware. They may be implemented as a part of functional blocks of an integrated circuit, or may be implemented by a programmable logic device such as an FPGA (Field-Programmable Gate Array).

記憶部1010についても、個別の部品として実装される必要はなく、集積回路の一部の機能ブロックとして実装されてもよい。 The storage unit 1010 also need not be mounted as an individual component, and may be mounted as a partial functional block of an integrated circuit.

図1Bは、映像表示装置10の一例の外観図である。レンズとつるの接合部に主な構成要素が収納され、ハーフミラーであるレンズ部分に映像を投影する。コントローラ1020と装置の本体がケーブルにて接続されている。 FIG. 1B is an external view of an example of the video display device 10. The main components are housed in the joint between the lens and the temple, and the image is projected on the lens part, which is a half mirror. The controller 1020 and the main body of the apparatus are connected by a cable.

図1Cは、図1Bの映像表示装置10を装着した時の図である。 FIG. 1C is a diagram when the video display device 10 of FIG. 1B is mounted.

図1Dは、映像表示装置10の他の一例の外観図である。レンズとつるの接合部に主な構成要素が収納され、プリズムが映像表示部1001の投影部(図2の2007)となっている。 FIG. 1D is an external view of another example of the video display device 10. Main components are housed in the joint between the lens and the temple, and the prism serves as the projection unit (2007 in FIG. 2) of the image display unit 1001.

図1Eは、図1Dの映像表示装置10を装着した時の図である。 FIG. 1E is a diagram when the video display device 10 of FIG. 1D is mounted.

図1Fは、映像表示装置10のさらに他の一例の外観図である。目の前のプリズムが映像表示部1001の投影部(図2の2007)となり、他の構成要素をヘルメットとつるの部分に分散して収納している。 FIG. 1F is an external view of still another example of the video display device 10. The prism in front of the eyes serves as a projection unit (2007 in FIG. 2) of the image display unit 1001, and other components are dispersedly housed in the helmet and the temple.

2.映像の表示
映像表示部1001の構成例を図2に図示する。映像表示部1001は、映像信号処理部2001、光源素子電源制御部2002、光源素子2003、光源ドライバ2004、変調器2005、変調器ドライバ2006、投影部2007、設定制御部2008を備えている。
2. Display of Image An example of the configuration of the image display unit 1001 is shown in FIG. The video display unit 1001 includes a video signal processing unit 2001, a light source element power supply control unit 2002, a light source element 2003, a light source driver 2004, a modulator 2005, a modulator driver 2006, a projection unit 2007, and a setting control unit 2008.

映像処理部1008からの映像情報は映像信号処理部2001に送信され、映像信号処理部2001は受信した映像情報に対応する光源の明るさ、光源駆動のタイミング、変調器駆動パターンを決定する。 The video information from the video processing unit 1008 is transmitted to the video signal processing unit 2001, and the video signal processing unit 2001 determines the brightness of the light source, the light source driving timing, and the modulator driving pattern corresponding to the received video information.

光源の明るさの情報は光源素子電源制御部2002に送信される。光源素子電源制御部2002は受信した明るさの情報に応じて光源素子2003への供給電圧を制御する。
光源駆動のタイミングは光源ドライバ2004に送信される。光源ドライバ2004は 光源駆動のタイミングに応じて、光源素子2003を制御する。
光源素子電源制御部2002と光源ドライバ2004は同一の素子内に実装されていてもよい。
Information on the brightness of the light source is transmitted to the light source element power supply control unit 2002. The light source element power control unit 2002 controls the supply voltage to the light source element 2003 according to the received brightness information.
The timing of driving the light source is transmitted to the light source driver 2004. The light source driver 2004 controls the light source element 2003 according to the timing of driving the light source.
The light source element power supply control unit 2002 and the light source driver 2004 may be mounted in the same element.

図3に光源素子電源制御部2002、光源素子2003、光源ドライバ2004の詳細な構成図を示す。光源素子2003は赤色LED3001、緑色LED3002、青色LED3003の三原色の三つのLEDからなる。前記三つのLEDはそれぞれ電流制限抵抗3004、3005、3006と直列に接続され、光源素子電源制御部2002からそれぞれ電位VLEDr、VLEDg、VLEDbを印加される。VLEDr、VLEDg、VLEDbの電位は光源素子電源制御部2002により任意の値に設定可能であり、それぞれ赤色LED3001、緑色LED3002、青色LED3003の発光を制御できる。前記各電流制限抵抗3004、3005、3006のLEDと逆側の端子は、光源ドライバ2004に接続される。光源ドライバ2004はCTRLr、CTRLg、CTRLbの各端子の電位を変化させることで、それぞれ赤色LED3001、緑色LED3002、青色LED3003の発光量や発光時間などを制御し、変調器2005により、すべての画素(ピクセル)に変調される。表示制御部1002は、映像表示部1001の設定制御部2008に対して、光源の明るさを指定する制御信号を送る。 FIG. 3 shows a detailed configuration diagram of the light source element power supply control unit 2002, the light source element 2003, and the light source driver 2004. The light source element 2003 includes three LEDs of three primary colors of a red LED 3001, a green LED 3002, and a blue LED 3003. The three LEDs are connected in series with current limiting resistors 3004, 3005, and 3006, respectively, and the potentials VLEDr, VLEDg, and VLEDb are applied from the light source element power supply control unit 2002, respectively. The potentials of VLEDr, VLEDg, and VLEDb can be set to arbitrary values by the light source element power control unit 2002, and the light emission of the red LED 3001, the green LED 3002, and the blue LED 3003 can be controlled. The terminals of the current limiting resistors 3004, 3005, and 3006 on the opposite side of the LEDs are connected to the light source driver 2004. The light source driver 2004 controls the light emission amount and light emission time of the red LED 3001, the green LED 3002, and the blue LED 3003, respectively, by changing the potentials of the terminals of CTRLr, CTRLg, and CTRLb, and the modulator 2005 controls all pixels (pixels). ) Is modulated. The display control unit 1002 sends a control signal designating the brightness of the light source to the setting control unit 2008 of the video display unit 1001.

光源は三原色LEDを一つずつ有する構成として説明したが、これに限るものではない。白色LEDを一つ以上有する構成としてもよい。また、LED以外の光源であってもよい。三原色についても、光源が原色のみを発光する構成でなくてもよく、例えば白色光源とダイクロイックフィルタやカラーホイールなどにより、特定色をフィルタで取り出すような構成であってもよい。 The light source has been described as having a configuration in which each of the three primary color LEDs is provided, but the configuration is not limited to this. The configuration may include one or more white LEDs. Further, it may be a light source other than the LED. Regarding the three primary colors, the light source does not have to be configured to emit only the primary colors, and for example, a configuration may be adopted in which a specific color is taken out by a filter by using a white light source and a dichroic filter or a color wheel.

図2の説明に戻る。
変調器駆動パターンは変調器ドライバ2006に送信される。変調器ドライバ2006は前記変調器駆動パターンに応じて変調器2005を駆動する。
変調器2005は例えば透過型液晶素子やLCOS(Liquid Crystal On Silicon)、DMD(Digital Mirror Device)などである。
変調器2005と変調器ドライバ2006は一つの素子部品として構成されてもよい。
以下変調器2005をLCOS方式と想定して説明する。
Returning to the explanation of FIG.
The modulator drive pattern is transmitted to the modulator driver 2006. The modulator driver 2006 drives the modulator 2005 according to the modulator drive pattern.
The modulator 2005 is, for example, a transmissive liquid crystal element, an LCOS (Liquid Crystal On Silicon), a DMD (Digital Mirror Device), or the like.
The modulator 2005 and the modulator driver 2006 may be configured as one element component.
Hereinafter, the modulator 2005 will be described assuming the LCOS system.

前記光源素子2003から出射された光は、前記変調器2005によって変調され、投影部2007に投射される。
投影部2007は例えばミラーなどの反射物やスクリーンなどの散乱物、またはプリズム、ハーフミラー、レンズなどが挙げられる。また、これら複数の組み合わせでもよい。
The light emitted from the light source element 2003 is modulated by the modulator 2005 and projected on the projection unit 2007.
The projection unit 2007 may be, for example, a reflective object such as a mirror, a scattered object such as a screen, a prism, a half mirror, or a lens. Also, a combination of a plurality of these may be used.

投影部2007の構造またはその他の構成要素の追加によって、本発明の映像表示装置10は装置利用者20の視界全体を覆う不透明なゴーグルのような形態と、装置利用者20が外界を視認することが可能であり視界の一部に映像を認識させる透過型形態が考えられる。以下の説明は透過型の形態を想定する。 Due to the structure of the projection unit 2007 or the addition of other components, the image display device 10 of the present invention has a form such as opaque goggles that covers the entire field of view of the device user 20 and that the device user 20 visually recognizes the outside world. It is possible that a transmissive type that allows images to be recognized in a part of the field of view is possible. The following description assumes a transmissive form.

透過型の形態では、装置利用者20は図7A,図7B,図7Cに示すように映像を視認する。すなわち、装置利用者20は、図7Aのような外界と図7Bのように仮想映像7001を重ね合わせ、図7Cのように認識できる。 In the transmissive mode, the device user 20 visually recognizes an image as shown in FIGS. 7A, 7B, and 7C. That is, the device user 20 can recognize the external world as shown in FIG. 7A and the virtual image 7001 as shown in FIG. 7B by superimposing them as shown in FIG. 7C.

また、映像表示装置10には、映像を装置利用者20の両眼に投影する形態と、片方の目のみに投影する形態がある。図2では片方の目のみに投影する場合を想定しているが、両眼に投影する場合には、変調器2005からの光を左右二つの目に入射するように2つの投影部2007を持つように構成する。または映像表示部1001全体を右目用と左目用の二つ有する構成として、視差を伴う異なる画像を投影し、立体映像としてもよい。 Further, the image display device 10 has a form in which an image is projected to both eyes of the device user 20 and a form in which only one eye is projected. Although it is assumed in FIG. 2 that the image is projected to only one eye, when projecting to both eyes, two projection units 2007 are provided so that the light from the modulator 2005 enters the left and right eyes. To configure. Alternatively, the entire image display unit 1001 may be configured to have two for the right eye and one for the left eye, and different images with parallax may be projected to form a stereoscopic image.

前記投影部2007からの光を装置利用者20が観測することで、前記入力された映像情報に応じた光を映像として認識することができる。
設定制御部2008は制御信号を受信し、映像信号処理部2001の設定を変更することができる。
When the device user 20 observes the light from the projection unit 2007, the light according to the input image information can be recognized as an image.
The setting control unit 2008 can receive the control signal and change the setting of the video signal processing unit 2001.

映像表示部1001は映像を表示するための表示方法を二つ以上有する。図4A、4B,4C,4Dに表示方法を例示する。映像情報は例えば平均して1秒間当たりにN枚分の静止画が決まった順序で並べられた動画情報として扱われる、Nは1以上の正の数である。この時Nをフレームレートと呼び、毎秒の静止画数としてフレーム毎秒(fps:flames per second)であらわされる。フレームレートは例えば30fpsや60fpsなどが現在は一般的である。図4の例では映像情報のフレームレートに対して、映像表示部1001の表示回数を変更している。 The image display unit 1001 has two or more display methods for displaying an image. The display method is illustrated in FIGS. 4A, 4B, 4C, and 4D. The video information is treated as moving picture information in which, for example, N still images per second are arranged in a predetermined order on average, and N is a positive number of 1 or more. At this time, N is called a frame rate, and is expressed in frames per second (fps) as the number of still images per second. A frame rate of 30 fps or 60 fps is commonly used at present. In the example of FIG. 4, the display count of the video display unit 1001 is changed with respect to the frame rate of the video information.

図4Aに第一の表示方法を例示する。第一の表示方法では映像表示部1001は、フレームレートNに対し1/N秒につき1回表示映像を変更する。表示映像をフレームと呼称する。 FIG. 4A illustrates the first display method. In the first display method, the video display unit 1001 changes the display video once per 1/N seconds with respect to the frame rate N. The displayed image is called a frame.

本実施では、フィールドシーケンシャル方式(色時分割方式)を例として説明する。すなわち一つのフレームの表示に対し、映像表示部1001は映像情報を赤、緑、青の原色成分に分割し、1/N秒をさらに3分割した時間内で各色成分の映像をそれぞれ別に表示する。 In this embodiment, the field sequential method (color time division method) will be described as an example. That is, with respect to the display of one frame, the image display unit 1001 divides the image information into the primary color components of red, green, and blue, and displays the image of each color component separately within the time obtained by further dividing 1/N second into three. ..

例えばフレーム1の表示期間の最初では、LCOSである変調器2005の表示をフレーム1の映像情報から分割された赤成分に対応する設定(1R)とし、赤色LED3001を1/(3N)秒より短い所定時間(期間1R)だけ発光する。次に、変調器2005はフレーム1の緑成分に対応する設定(1G)とし、緑色LED3002を1/(3N)秒より短い所定時間(期間1G)だけ発光する。さらに変調器2005をフレーム1の青成分に対応する設定(1B)とし、青色LED3003を1/(3N)秒より短い所定時間(期間1B)だけ発光する。各色成分の表示を高速に順次行うことにより、装置を装着している観測者には三原色の成分が混ざったフルカラーの画像として認識される。 For example, at the beginning of the display period of the frame 1, the display of the modulator 2005, which is the LCOS, is set to correspond to the red component divided from the image information of the frame 1 (1R), and the red LED 3001 is shorter than 1/(3N) seconds. It emits light for a predetermined time (period 1R). Next, the modulator 2005 is set to the setting (1G) corresponding to the green component of the frame 1, and the green LED 3002 emits light for a predetermined time (period 1G) shorter than 1/(3N) seconds. Further, the modulator 2005 is set to the setting (1B) corresponding to the blue component of the frame 1, and the blue LED 3003 emits light for a predetermined time (period 1B) shorter than 1/(3N) seconds. By sequentially displaying each color component at high speed, an observer wearing the apparatus recognizes it as a full-color image in which the three primary color components are mixed.

このような各色成分の表示が表示映像のフレーム2、フレーム3に対しても同様に行われる。図4A〜Dではフレーム3までの記載であるが、以降のフレームに対しても同様の処理が繰り返し実行される。 Such display of each color component is similarly performed on the frames 2 and 3 of the display image. 4A to 4D, the description is given up to the frame 3, but the same processing is repeatedly executed for the subsequent frames.

図4Bには第二の表示方法を例示する。第二の表示方法では図4Aの第一の表示方法と比較して、各フレームに対する変調器2005の各色成分の表示時間をさらに2分割し、表示映像のフレームレートNに対応する1/N秒を6分割した期間で一つの色成分を表示する。この第二の表示方法を、第一の表示方法の2倍の更新速度で変調器2005を駆動することから、2倍速駆動と呼ぶ。 FIG. 4B illustrates the second display method. In the second display method, as compared with the first display method of FIG. 4A, the display time of each color component of the modulator 2005 for each frame is further divided into two, and 1/N seconds corresponding to the frame rate N of the display video. One color component is displayed in a period divided into six. This second display method is referred to as double-speed driving because the modulator 2005 is driven at a double update speed as compared with the first display method.

さらに変調器2005と光源素子2003の駆動速度を高速化することで、3倍速、4倍速、それ以上の表示方法も実現可能である。変調器2005と光源素子2003の駆動速度を変更することは、液晶素子またはミラーアレイ素子の画素情報の更新周期を変更することである。図4Dに3倍速駆動のタイミングチャートを示した。 Further, by increasing the driving speed of the modulator 2005 and the light source element 2003, a display method of 3× speed, 4× speed, or higher speed can be realized. Changing the driving speed of the modulator 2005 and the light source element 2003 is changing the update cycle of the pixel information of the liquid crystal element or the mirror array element. FIG. 4D shows a timing chart of the 3× speed drive.

図4Cには2倍速駆動時の変形例を示す。変調器2005や光源素子2003の駆動周期は図4Bの表示方法と同様である。元の映像情報のフレーム1とフレーム2や他のフレームの映像から中間フレームのフレーム1.5を生成し、フレーム1、フレーム1.5、フレーム2の順に表示することで、観測者にとってはより滑らかな画像として認識される。中間フレームの生成は映像処理部1008により実施される。
例えば図4Dのように2倍速よりも速い3倍速や4倍速などの更新速度であっても、中間フレームの生成は可能であり、2倍速に限るものではない。
FIG. 4C shows a modified example at the time of double speed driving. The driving cycle of the modulator 2005 and the light source element 2003 is the same as the display method of FIG. 4B. By generating frame 1.5 of the intermediate frame from the frames 1 and 2 of the original image information and the images of other frames, and displaying them in the order of frame 1, frame 1.5, and frame 2, it is more possible for the observer. It is recognized as a smooth image. The generation of the intermediate frame is performed by the video processing unit 1008.
For example, as shown in FIG. 4D, the intermediate frame can be generated even at the update speed such as 3× speed or 4× speed that is faster than 2× speed, and the update speed is not limited to 2× speed.

1倍速表示、2倍速表示、3倍速表示と倍速を挙げると、あるいは、中間フレームを生成することにより、装置利用者20が色割れを知覚しづらくなることで不快感は少なくなり、画像の動きがなめらかになるが、電力の消費量が大きくなる。 The 1x speed display, the 2x speed display, the 3x speed display, and the 2x speed display, or the generation of the intermediate frame makes it difficult for the device user 20 to perceive color breakup, thereby reducing discomfort and reducing the movement of the image. Is smoother but consumes more power.

表示制御部1002は、映像表示部1001の設定制御部2008を介して表示方法の切り替えを指示する制御信号を送信する。 The display control unit 1002 transmits a control signal for instructing switching of the display method via the setting control unit 2008 of the video display unit 1001.

映像処理部1008は、映像情報源1007から入力された映像情報に変化を加えて映像表示部1001に出力することができる。
映像情報は例えば1フレームにつき縦にH個(Hは1以上の整数)横にV個(Vは1以上の整数)のH×V個の画素のデータを含む情報である。
画像のコントラスト変更とは、色の明暗の差異を変化させる処理で、映像情報源1007から入力された画素値に1より高い比例係数を掛けた値を映像表示部1001に出力する画素値とする処理である。
The image processing unit 1008 can change the image information input from the image information source 1007 and output the changed image information to the image display unit 1001.
The video information is, for example, information including data of H pixels (H is an integer of 1 or more) and V pixels (V is an integer of 1 or more) of H×V pixels per frame.
Changing the contrast of an image is a process of changing the difference in lightness and darkness of colors, and a value obtained by multiplying the pixel value input from the video information source 1007 by a proportional coefficient higher than 1 is set as the pixel value output to the video display unit 1001. Processing.

画像の明るさ変更とは、画素値に対して、指定された値だけ増分して出力の画素値とする処理で、映像情報源1007から入力された画素値に任意の値を加算して映像表示部1001に出力する画素値とする処理である。
映像処理部1008は、制御部1003からの信号に応じて画像のコントラストを上げるまたは下げる、および/または画像の明るさを上げるまたは下げるなどの処理をおこなう。
The image brightness change is a process of incrementing a pixel value by a designated value to obtain an output pixel value, and adding an arbitrary value to the pixel value input from the video information source 1007 to display an image. This is processing for setting the pixel value to be output to the display unit 1001.
The video processing unit 1008 performs processing such as raising or lowering the contrast of the image and/or raising or lowering the brightness of the image according to the signal from the control unit 1003.

映像処理部1008は、画像に関する他のパラメータ、例えば、シャープネス、彩度、色相を制御部からの信号に応じて変更しても良い。
映像処理部1008は、制御部1003からの信号に応じて、これらの処理を行わずに映像情報を映像表示部1001に送るように切り替えることも可能である。
The video processing unit 1008 may change other parameters related to the image, for example, sharpness, saturation, and hue according to the signal from the control unit.
The video processing unit 1008 can be switched so as to send video information to the video display unit 1001 without performing these processes in response to a signal from the control unit 1003.

例えば図8Aに示す映像に対して、コントラストを弱めると図8Bのような映像になる。一方図8Aの映像のシャープネスを弱めると図8Cのような映像になる。後述するように、装置利用者20の視点位置が表示画像の映像上に無い場合には、コントラストやシャープネスを弱めることにより、装置利用者20の目の疲労を軽減することができる。 For example, when the contrast of the image shown in FIG. 8A is weakened, the image shown in FIG. 8B is obtained. On the other hand, if the sharpness of the image shown in FIG. 8A is weakened, the image shown in FIG. 8C is obtained. As will be described later, when the viewpoint position of the device user 20 is not on the image of the display image, the eyestrain of the device user 20 can be reduced by weakening the contrast and sharpness.

3.装置利用者の動きと映像の制御
第1センサ1004は装置利用者20の頭部の回転を検出するためのセンサであり、例えばジャイロセンサである。第1センサ1004は、所定時間の頭部の動きを示す3次元動きベクトルを出力する。第2センサ1005は視線の動きや注視点の位置を検出するための視線センサであり、装置利用者20の所定時間の視線の動きを示す2次元動きベクトルまたは3次元ベクトルを出力する。
3. Control of motion and image of device user The first sensor 1004 is a sensor for detecting rotation of the head of the device user 20, and is, for example, a gyro sensor. The first sensor 1004 outputs a three-dimensional motion vector indicating the movement of the head for a predetermined time. The second sensor 1005 is a line-of-sight sensor for detecting the line-of-sight motion and the position of the gazing point, and outputs a two-dimensional motion vector or a three-dimensional vector indicating the line-of-sight motion of the device user 20 for a predetermined time.

運動判定処理部1006は、第1センサ1004と第2センサ1005の出力から、装置利用者20の運動状況を判定する。具体的には、頭部の動き、視線の動き、頭部の動きと視線の動きの方向の3つである。センサ出力からこの3つの項目を判定する処理については、後述する。また、運動判定処理部1006は、注視点が映像表示装置による仮想映像7001上にあるかないかを判定するが、その処理についても後述する。
制御部1003は、前記運動判定処理部1006の判定結果から、処理内容を図5にしたがって決定して、映像表示部1001の表示速度を表示制御部1002に、および映像のパラメータに関する処理を映像処理部1008に指示する。
The exercise determination processing unit 1006 determines the exercise status of the device user 20 from the outputs of the first sensor 1004 and the second sensor 1005. Specifically, there are three directions: the movement of the head, the movement of the line of sight, and the direction of the movement of the head and the movement of the line of sight. The process of determining these three items from the sensor output will be described later. Further, the motion determination processing unit 1006 determines whether or not the gazing point is on the virtual image 7001 by the image display device, and the process will also be described later.
The control unit 1003 determines the processing content according to FIG. 5 from the determination result of the motion determination processing unit 1006, sets the display speed of the video display unit 1001 to the display control unit 1002, and processes the video parameters. Instruct the section 1008.

図5のパターン1では、装置利用者20の頭部の動きがなく、視線の動きがなく、注視点が仮想映像上にある場合である。この時、装置利用者20は静止しているため、装置への加振や装置と装置利用者20の位置ずれも発生しづらい。また眼球の移動もない。カラーブレイクなどの装置利用者20が不快に感じる現象も発生しづらい。このような場合、不快感への影響に対して配慮の必要性は低いので、制御部1003は処理Aを指示する。 In pattern 1 of FIG. 5, there is no movement of the head of the device user 20, no movement of the line of sight, and the gazing point is on the virtual image. At this time, since the device user 20 is stationary, it is difficult for the device user 20 to vibrate and the device and the device user 20 are displaced from each other. There is also no movement of the eyeball. A phenomenon such as a color break that the device user 20 feels uncomfortable is unlikely to occur. In such a case, since it is not necessary to consider the influence on the discomfort, the control unit 1003 instructs the process A.

処理Aとは、映像表示部1001の表示方法を1倍速駆動とし、映像処理部1008による映像処理を行わず、映像情報源からの映像に変更を加えることなく映像表示部1001に渡す処理である。最も、電力消費の少ない処理である。 The process A is a process in which the display method of the video display unit 1001 is driven at 1× speed, the video processing by the video processing unit 1008 is not performed, and the video from the video information source is passed to the video display unit 1001 without being changed. .. This is the process that consumes the least power.

図5のパターン2では、パターン1と比較して、第2センサ1005による検出される注視点が仮想映像上にない点が違う。この時、装置利用者20は停止しており、さらに仮想映像7001を視認しておらず、視認性の重要度が低下するため、制御部1003は処理Bを指示する。 Pattern 2 in FIG. 5 is different from pattern 1 in that the gazing point detected by the second sensor 1005 is not on the virtual image. At this time, the device user 20 is stopped, the virtual image 7001 is not visually recognized, and the importance of the visibility is lowered. Therefore, the control unit 1003 instructs the process B.

処理Bとは、映像表示部1001の表示方法を1倍速駆動とし、映像処理部1008によって映像のコントラストと明るさを規定の量下げる処理である。 The process B is a process in which the display method of the video display unit 1001 is driven at 1× speed and the video processing unit 1008 lowers the contrast and brightness of the video by a predetermined amount.

図5のパターン3、パターン5、パターン8は、装置利用者20の頭部の動きが検出されたか、または視線の動きの検出がされたかのいずれかであり、かつ注視点仮想映像上にある場合である。
これらのパターンでは、装置利用者20は静止しておらず、映像表示装置10の装置利用者20が不快を感じる可能性が増すため、不快感への配慮の必要性は高くなる。不快感を低減するための制御部1003は処理Cを指示する。
Pattern 3, pattern 5, and pattern 8 in FIG. 5 are cases where the movement of the head of the device user 20 is detected or the movement of the line of sight is detected, and the movement is on the gazing point virtual image. Is.
In these patterns, the device user 20 is not stationary, and the device user 20 of the video display device 10 is more likely to feel uncomfortable. Therefore, the need to consider discomfort becomes high. The control unit 1003 for reducing discomfort instructs the process C.

処理Cでは、映像表示部1001の表示方法をより更新速度の早い3倍速とする一方、映像処理部1008による映像処理を初期値に戻す。 In the process C, the display method of the video display unit 1001 is set to the triple speed with a higher update speed, and the video processing by the video processing unit 1008 is returned to the initial value.

図5のパターン4、パターン6、パターン9は、装置利用者20の頭部の動きが検出された、または視線の動きが検出されたかのいずれかであり、かつ注視点が仮想映像上にない場合である。
これらのパターンでは、装置利用者20は静止しておらず、装置利用者20の不快感への配慮の必要性は高くなるが、装置利用者20は仮想映像6001を視認しておらず、視認性の重要度も低いため、制御部1003は処理Dを指示する。
Pattern 4, pattern 6, and pattern 9 in FIG. 5 are cases where the movement of the head of the device user 20 is detected or the movement of the line of sight is detected, and the gazing point is not on the virtual image. Is.
In these patterns, the device user 20 is not stationary, and it becomes more necessary to consider the discomfort of the device user 20, but the device user 20 does not visually recognize the virtual image 6001. Since the importance of sex is low, the control unit 1003 instructs the process D.

処理Dでは、映像表示部1001の表示方法をより更新速度の早い3倍速とする一方、映像処理部1008によって映像のコントラストと明るさを規定の量下げる。 In the process D, the display method of the video display unit 1001 is set to the triple speed with a faster update speed, while the video processing unit 1008 lowers the contrast and brightness of the video by a predetermined amount.

図5のパターン7では、装置利用者20の頭部の動きが検出され、かつ視線の動きが検出されている。この時の前記頭部の動きの方向と前記視線の動きの方向が略同一の方向である場合、眼球運動はいわゆるサッカード(saccade:断続性運動)である可能性が高く、装置利用者20は外界も仮想映像7001も認識外になっている可能性が高い。このような場合にも装置利用者20の映像への不快感には配慮する必要があるが、仮想映像の視認性の重要度は低いので、制御部1003は前述の処理Dを指示する。 In pattern 7 of FIG. 5, the movement of the head of the device user 20 is detected and the movement of the line of sight is detected. If the direction of movement of the head and the direction of movement of the line of sight at this time are substantially the same, the eye movement is likely to be so-called saccade (intermittent movement), and the device user 20 There is a high possibility that the outside world and the virtual image 7001 are out of recognition. Even in such a case, it is necessary to consider the discomfort of the device user 20 in the image, but since the importance of the visibility of the virtual image is low, the control unit 1003 instructs the process D described above.

図6は図5に表した、パターンによる制御様式を実現するためのフローチャートであり、制御部1003と運動判定処理部1006により実行される。
本体電源スイッチがONにされた時、あるいは、装置利用者20からの指示があった時に、ステップS010から処理が開始される。
FIG. 6 is a flowchart for realizing the pattern-based control mode shown in FIG. 5, which is executed by the control unit 1003 and the motion determination processing unit 1006.
When the main body power switch is turned on or when there is an instruction from the device user 20, the process starts from step S010.

ステップS020において、制御部1003は、初期設定と第1センサ1004および第2センサ1005の通電処理を行う。初期処理では、映像表示部1001の表示方法を2倍速に設定し、映像処理部1008の各種パラメータを規定の初期値にする。 In step S020, the control unit 1003 performs initial setting and energization processing of the first sensor 1004 and the second sensor 1005. In the initial processing, the display method of the video display unit 1001 is set to double speed, and various parameters of the video processing unit 1008 are set to prescribed initial values.

ステップS030において、運動判定処理部1006が第1センサ1004からセンサ出力を取得する。
ステップS040において、運動判定処理部1006が第2センサ1005からセンサ出力を取得する。
In step S030, the motion determination processing unit 1006 acquires the sensor output from the first sensor 1004.
In step S040, the motion determination processing unit 1006 acquires the sensor output from the second sensor 1005.

ステップS050では、頭部の回転速度の大きさが規定値A1(A1は正の値)以上であるかを、運動判定処理部1006が第1センサの出力から判定し、判定結果をXとする。該検出結果が規定値A1以上であればXは真(‘1’)とし、A1未満であればXは偽(‘0’)とする。
ステップS060では、運動判定処理部1006が、第2センサの出力から、視線の移動の速度の大きさが、規定値S1(S1は正の値)以上であるかを判定し、判定結果をYとする。該検出結果が規定値S1以上であればYは真(‘1’)とし、S1未満であればYは偽(‘0’)とする。
In step S050, the motion determination processing unit 1006 determines from the output of the first sensor whether the magnitude of the rotational speed of the head is equal to or greater than the specified value A1 (A1 is a positive value), and the determination result is X. .. If the detection result is the specified value A1 or more, X is true ('1'), and if less than A1, X is false ('0').
In step S060, the motion determination processing unit 1006 determines from the output of the second sensor whether the magnitude of the speed of movement of the line of sight is equal to or greater than a specified value S1 (S1 is a positive value), and the determination result is Y. And If the detection result is the specified value S1 or more, Y is true ('1'), and if it is less than S1, Y is false ('0').

ステップS070では、運動判定処理部1006が、第2センサの出力から、視線の位置(注視点)の2次元座標が仮想画像の上(所定の範囲内)にあるかどうかを判定し、判定結果をZとする。注視点の位置が所定の範囲内である場合Zは真(‘1’)として、注視点の位置が所定の範囲外である場合Zは偽(‘0’)とする。 In step S070, the motion determination processing unit 1006 determines from the output of the second sensor whether the two-dimensional coordinate of the position of the line of sight (gazing point) is on the virtual image (within a predetermined range). Be Z. When the position of the gazing point is within the predetermined range, Z is true ('1'), and when the position of the gazing point is outside the predetermined range, Z is false ('0').

上述のX,Y,Zとその値を図5にも示してあるので参照されたい。
ステップS080では、運動判定処理部1006が、前記判定結果Xと前記判定結果Yの論理積に基づいて条件分岐をおこなう。X・Y=0であるならば、ステップS110に進み、X・Y=1であるならばステップS090に進む。
Please refer to the above X, Y, Z and their values shown in FIG.
In step S080, the motion determination processing unit 1006 performs a conditional branch based on the logical product of the determination result X and the determination result Y. If X·Y=0, the process proceeds to step S110, and if X·Y=1, the process proceeds to step S090.

ステップS090では、運動判定処理部1006が、前記判定結果Xと前記判定結果Yの排他的論理和(XOR)に基づいて条件分岐を行う。X XOR Y=1であるならばステップS111に進み、X XOR Y=0であるならばステップS100に進む。
ステップS110では、Zが真であるならばステップS120に進み、制御部1003が処理Aを指示し、Zが偽であるならばステップS130に進み、制御部1003が処理Bを指示する。
In step S090, the motion determination processing unit 1006 performs conditional branching based on the exclusive OR (XOR) of the determination result X and the determination result Y. If X XOR Y=1, the process proceeds to step S111, and if X XOR Y=0, the process proceeds to step S100.
In step S110, if Z is true, the process proceeds to step S120, the control unit 1003 instructs the process A, and if Z is false, the process proceeds to step S130 and the control unit 1003 instructs the process B.

ステップS100では、運動判定処理部1006が、第1センサ1004の出力である頭部の移動速度の方向と、第2センサ1005の出力である視線の移動方向とを比較し、動きベクトルの方向が略一致するかを判定する。その判定方法については、後述する。
ステップS111では、判定結果Zに基づいて条件分岐を行う。Zが真であるならばステップS140に進み、制御部1003が処理Cを指示し、Zが偽であるならばステップS150に進み、制御部1003が処理Dを指示する。
In step S100, the motion determination processing unit 1006 compares the moving direction of the head, which is the output of the first sensor 1004, with the moving direction of the line of sight, which is the output of the second sensor 1005, and determines the direction of the motion vector. It is determined whether they substantially match. The determination method will be described later.
In step S111, conditional branching is performed based on the determination result Z. If Z is true, the process proceeds to step S140 and the control unit 1003 instructs the process C. If Z is false, the process proceeds to step S150 and the control unit 1003 instructs the process D.

ステップS160では、本フローを連続的に実施する設定となっているかを判定する。該設定は装置利用者20が設定あるいは設定変更しても良いし、デフォルトが設定されていてもよい。設定が有効であれば待機ステップS170に進み、設定が無効であれば終了ステップS180に進む。 In step S160, it is determined whether or not this flow is set to be continuously executed. The device user 20 may set or change the setting, or a default may be set. If the setting is valid, the process proceeds to standby step S170, and if the setting is invalid, the process proceeds to end step S180.

ステップS170では、所定の時間(300ミリ秒から10秒程度)の待機を行った後、ステップS030に戻る。
ステップS180では第1センサ1004および第2センサ1005の電源遮断処理や休止設定を実施する。
終了ステップS190で処理が終了する。
In step S170, after waiting for a predetermined time (300 milliseconds to 10 seconds), the process returns to step S030.
In step S180, a power-off process and a sleep setting for the first sensor 1004 and the second sensor 1005 are performed.
The process ends at end step S190.

映像表示装置10は記憶部1010を有する。制御部1003は映像表示部1001の表示方法を変更した際、または映像処理部1008の処理方式を変更した際に、変更を行った履歴や時刻等を記憶部1010に記録する。 The video display device 10 has a storage unit 1010. When the display method of the video display unit 1001 is changed or the processing method of the video processing unit 1008 is changed, the control unit 1003 records the history and time of the change in the storage unit 1010.

頻度判定処理部1011は記憶部1010に記録された各処理の変更履歴が所定時間内に所定の回数を超えた場合、例えば、3日間に5回の変更が行われた場合、映像情報源1007に対して変更履歴に応じた映像情報の設定変更を要求する。映像情報の変更要求は、例えば図6のステップS180の終了処理のタイミングで行われ、映像情報の変更とは画像のコントラスト、シャープネス、彩度、色相、画像の明るさなどのパラメータの変更である。 If the change history of each process recorded in the storage unit 1010 exceeds a predetermined number of times within a predetermined time, for example, if the change history is changed five times in three days, the frequency determination processing unit 1011 causes the video information source 1007. Request to change the setting of the video information according to the change history. The request to change the video information is made at the timing of the ending process of step S180 in FIG. 6, for example, and the change to the video information is to change parameters such as image contrast, sharpness, saturation, hue, and image brightness. ..

4.視線センサ
第2センサ1005である視線センサの1例を紹介する。
図11Aに示すようにセンサA素子1101とセンサB素子1102と検出制御器1103を備える構成である。センサA素子1101が動きを検出すると検出制御器1103がセンサ2素子1102を起動し、より精密なデータを出力するようにセンサB素子に命令する。
4. Line-of-sight sensor An example of the line-of-sight sensor which is the second sensor 1005 will be introduced.
As shown in FIG. 11A, the sensor A element 1101, the sensor B element 1102, and the detection controller 1103 are provided. When the sensor A element 1101 detects a movement, the detection controller 1103 activates the sensor 2 element 1102 and commands the sensor B element to output more precise data.

より具体的な構成を図11Bに示す。図1B,図1Dのような眼鏡型の装置のフレーム部分に実装するのに適している。視線センサは装置利用者20の目1111の動きの検出が可能であり、赤外光を出射する第一の投光部1112および第二の投光部1113、第一の受光器1114および第二の受光器1115、比較器1116、第一のカメラ1117および第二のカメラ1118、電流制御部1119、動き検出処理部1120、休止制御部1121から構成される。 A more specific structure is shown in FIG. 11B. It is suitable for mounting on a frame portion of a glasses-type device as shown in FIGS. 1B and 1D. The line-of-sight sensor can detect the movement of the eye 1111 of the device user 20, and emits infrared light in a first light projecting unit 1112 and a second light projecting unit 1113, a first light receiver 1114, and a second light receiving unit 1114. The light receiver 1115, the comparator 1116, the first camera 1117 and the second camera 1118, the current controller 1119, the motion detection processor 1120, and the pause controller 1121.

第一の投光部1112および第二の投光部1113から出射された赤外光は装置利用者20の目1111に投影され反射される。反射された赤外光は第一の受光器1114および第二の受光器1115に入射する。第一の受光器1114と第二の受光器1115は目1111に対して左右異なる方向に設置され、黒目と白目の位置によって受光量が変化する。目1111の左右に第一の受光器1114と第二の受光器1115が配置されるため、目1111が変位した際の受光量の変化は受光器によって異なる。第一の受光器1114の受光量と第二の受光器1115の受光量から、比較器1116によって差分を求めることで、目1111の動きを検出できる。強膜反射法と呼ばれる検出方法である。 The infrared light emitted from the first light projecting unit 1112 and the second light projecting unit 1113 is projected and reflected by the eye 1111 of the device user 20. The reflected infrared light enters the first light receiver 1114 and the second light receiver 1115. The first light receiver 1114 and the second light receiver 1115 are installed in the left and right directions different from each other with respect to the eye 1111 and the amount of light received changes depending on the positions of the black eye and the white eye. Since the first light receiver 1114 and the second light receiver 1115 are arranged on the left and right of the eye 1111, the change in the amount of light received when the eye 1111 is displaced differs depending on the light receiver. The movement of the eye 1111 can be detected by obtaining a difference by the comparator 1116 from the amount of light received by the first light receiver 1114 and the amount of light received by the second light receiver 1115. This is a detection method called the scleral reflection method.

動き検出器1120は、比較器1116出力が所定値以上の場合に目1111の動きを検出したと判定し、動き検出信号を出力し、比較器1116出力が所定値より小さい場合に目1111に動き無しと判定し、動き不検出信号を出力する。 The motion detector 1120 determines that the motion of the eye 1111 is detected when the output of the comparator 1116 is equal to or larger than a predetermined value, outputs a motion detection signal, and moves to the eye 1111 when the output of the comparator 1116 is smaller than the predetermined value. It is determined that there is no motion, and a motion non-detection signal is output.

動き検出器1120から動き検出の信号を受信すると、休止制御部1121は第一のカメラ1117および第二のカメラ1118を映像の撮影が可能な撮像状態とし、それらのカメラは目1111から反射された赤外光により目1111を撮像する。第一のカメラ1117および第二のカメラ1118により撮像された映像から、図示しない画像処理部により画像処理を行いより詳細な視線の動きおよび視点の位置を推定する。画像処理には、暗瞳孔法や角膜反射法などを用いる。 Upon receiving the motion detection signal from the motion detector 1120, the pause control unit 1121 sets the first camera 1117 and the second camera 1118 in an image capturing state capable of capturing an image, and those cameras are reflected from the eye 1111. The eye 1111 is imaged with infrared light. From the images captured by the first camera 1117 and the second camera 1118, image processing is performed by an image processing unit (not shown), and more detailed eye movement and viewpoint position are estimated. A dark pupil method, a corneal reflection method, or the like is used for image processing.

動き検出器1120から動き不検出の信号を受信すると、休止制御部1121は第一のカメラおよび第二のカメラ内の一部機能を停止して消費電力を抑える休止状態とさせる。
動き検出処理部1120は、動き検出あるいは動き不検出の信号を電流制御部1119に送る事によって、第一の投光部1112および第二の投光部1113への供給電力を変更する。休止状態における電流量よりも撮像状態における電流量が大きくなるように制御する。
When receiving the motion non-detection signal from the motion detector 1120, the pause control unit 1121 stops some functions in the first camera and the second camera to bring them into a pause state in which power consumption is suppressed.
The motion detection processing unit 1120 changes the power supplied to the first light projecting unit 1112 and the second light projecting unit 1113 by sending a signal for motion detection or no motion detection to the current control unit 1119. The current amount in the imaging state is controlled to be larger than the current amount in the resting state.

一般的にカメラ素子は受光器よりも消費電力が高く、また検出に必要となる光量も多くなる。このため、常時カメラ素子を撮像状態とするよりも、大まかな動きが受光器で検出された場合のみカメラ素子を撮像状態とする本制御方法により装置の消費電力が抑制される。
本実施例では投光部は二つの場合を例示したが、個数はこれに限るものではない。さらに多くの投光部を有してもよい。また、各投光部の発光タイミングを異なるように制御して、各投光部の発光に合わせて受光器またはカメラ素子はデータを取得する構成でもよい。
In general, a camera element consumes more power than a light receiver and also requires a large amount of light for detection. Therefore, the power consumption of the device is suppressed by the present control method in which the camera element is in the image capturing state only when a rough movement is detected by the light receiver, rather than the camera element is always in the image capturing state.
In this embodiment, the case where the number of light projecting units is two has been illustrated, but the number of light projecting units is not limited to this. You may have more light projecting parts. Further, the light emission timing of each light projecting unit may be controlled to be different, and the light receiver or the camera element may acquire data in accordance with the light emission of each light projecting unit.

また、カメラ素子と受光器の個数についても、各二個の場合を例示したが、個数はこれに限るものではない。また、受光器とカメラ素子は一つの素子として構成されてもよく、例えばカメラ素子の一部画素を受光器として構成しても良い。 The number of camera elements and the number of light receivers are two in each example, but the number is not limited to this. Further, the light receiver and the camera element may be configured as one element, for example, some pixels of the camera element may be configured as the light receiver.

5.視点のずれ補正と注視点位置の検出
図6に示した初期設定ステップS020では、第2センサ1005の初期化処理を行ってもよい。第2センサ1005が装置利用者20の視線を検出するセンサである場合、装置利用者20の注視点と第2センサと位置の間に、装置の使用毎にずれが生じる可能性がある。
5. Correction of deviation of viewpoint and detection of position of gazing point In the initial setting step S020 shown in FIG. 6, initialization processing of the second sensor 1005 may be performed. When the second sensor 1005 is a sensor that detects the line of sight of the device user 20, a gap may occur between the gazing point of the device user 20 and the position of the second sensor each time the device is used.

このずれを補正するために、運動判定処理部1006は、初期化処理時に映像表示部1001に図12Aに示すように表示領域に対角線仮想映像1201を表示し、装置利用者20をその交点を見つめるように促す文章を表示する。第2センサ1005が注視点の位置で所定の秒数静止していることを検出した場合、装置利用者20が仮想映像1201の交点を凝視していると判断して、注視点の位置を第2センサ1005の基準位置p0(h0,v0)と設定する。 In order to correct this shift, the motion determination processing unit 1006 displays a diagonal virtual image 1201 in the display area on the image display unit 1001 during the initialization process as shown in FIG. 12A, and the device user 20 looks at the intersection. Display a sentence prompting you to. When the second sensor 1005 detects that the user is still at the position of the gazing point for a predetermined number of seconds, it is determined that the device user 20 is gazing at the intersection of the virtual image 1201, and the position of the gazing point is determined as 2 The reference position p0 (h0, v0) of the sensor 1005 is set.

映像表示部1001の映像表示範囲全体が仮想映像1201のようにP1(Hmin,Vmin)、P2(Hmax,Vmin)、P3(Hmin,Vmax)、P4(Hmax,Vmax)で囲まれる四角形である時、h0=(Hmax−Hmin)/2、v0=(Vmax−Vmin)/2となる。 When the entire image display range of the image display unit 1001 is a quadrangle surrounded by P1 (Hmin, Vmin), P2 (Hmax, Vmin), P3 (Hmin, Vmax), and P4 (Hmax, Vmax) like the virtual image 1201. , H0=(Hmax−Hmin)/2 and v0=(Vmax−Vmin)/2.

図6の注視点判定ステップS070では基準位置p0(h0,v0)を基準として、第2センサ1005の検出結果が映像表示部1001に表示された映像の上にあるか(Zが‘1’か)を判定する。図12Bのように、任意の仮想表示映像1202がQ1(Hl,Vd)、Q2(Hl,Vu)、Q3(Hr,Vd)、Q4(Hr,Vu)に囲まれる領域に表示されているとき(Hmin≦Hl≦Hmax、Hmin≦Hr≦Hmax、Vmin≦Vd≦Vmax、Vmin≦Vu≦Vmax)、第2センサ1005により、注視点の位置がp(h,v)として得られたとする。この時、p(h,v)が四角形Q1Q2Q3Q4内にある場合に、運動判定処理部1006は、注視点の位置が仮想映像上にあるとし、ステップS070のZが真であると判定する。 In the gazing point determination step S070 of FIG. 6, whether the detection result of the second sensor 1005 is on the image displayed on the image display unit 1001 with reference to the reference position p0 (h0, v0) (whether Z is '1' or not). ) Is determined. As shown in FIG. 12B, when an arbitrary virtual display image 1202 is displayed in a region surrounded by Q1 (Hl, Vd), Q2 (Hl, Vu), Q3 (Hr, Vd), and Q4 (Hr, Vu). (Hmin ≤ Hl ≤ Hmax, Hmin ≤ Hr ≤ Hmax, Vmin ≤ Vd ≤ Vmax, Vmin ≤ Vu ≤ Vmax), and the position of the gazing point is obtained as p(h, v) by the second sensor 1005. At this time, when p(h,v) is within the quadrangle Q1Q2Q3Q4, the motion determination processing unit 1006 determines that the position of the gazing point is on the virtual image, and determines that Z in step S070 is true.

基準位置の検出タイミングは、初期処理以外にも、コントローラ1020により、装置利用者20が指定した時点に行ってもよい。装置利用者20が指定された点の注視の前後に故意に特定の長さまたは特定の順序のまばたきをすることで第2センサ1005に検出タイミングを指示してもよい。
仮想表示映像1202は四角形である必要はなく、三角形や円形などその他の図形でもよい。
The reference position may be detected at a time specified by the device user 20 by the controller 1020, other than the initial processing. The device user 20 may instruct the second sensor 1005 about the detection timing by intentionally blinking a specific length or a specific order before and after gazing at a specified point.
The virtual display image 1202 does not have to be a quadrangle, but may be another figure such as a triangle or a circle.

6.頭部の動きの視線の動きの方向
運動判定部1006では、第1センサ1004の動きベクトル出力と、第2センサ1005の動きベクトル出力から、頭部の動きと視線の動きのそれぞれの動きの方向が一致するかを検出する。
6. The direction of the movement of the line of sight of the movement of the head In the motion determination unit 1006, based on the output of the motion vector of the first sensor 1004 and the output of the motion vector of the second sensor 1005, the direction of each of the movement of the head and the movement of the line of sight. Detect if the two match.

第1センサ1004の出力が三次元ベクトルAで表現できるとする。装置利用者20が仮想映像7001を認識する距離にあり、仮想映像7001の四隅を含む仮想平面をSとしたとき、平面Sに対する三次元ベクトルAの正射影ベクトルをAとする。第2センサ1005の出力が三次元ベクトルの場合も同様のベクトル変換処理を行う。
装置利用者20が仮想映像7001を認識する距離は映像表示部1001内の投影部2007などの光学的な構成によって決まり、装置利用者20は眼球の焦点調節機能により仮想映像7001を所定の距離離れた位置に認識する。
It is assumed that the output of the first sensor 1004 can be represented by the three-dimensional vector A 0 . When the device user 20 is at a distance to recognize the virtual image 7001, and S is a virtual plane including four corners of the virtual image 7001, the orthogonal projection vector of the three-dimensional vector A 0 with respect to the plane S is A. Similar vector conversion processing is performed when the output of the second sensor 1005 is a three-dimensional vector.
The distance at which the device user 20 recognizes the virtual image 7001 is determined by an optical configuration such as the projection unit 2007 in the image display unit 1001, and the device user 20 separates the virtual image 7001 by a predetermined distance by the eyeball focus adjustment function. Recognize the position.

第2センサ1005が二次元ベクトルB0を出力するとき、第2センサ1005の検出軸を含む三次元空間上の平面Tを考えて、二次元ベクトルB0を平面T上の三次元ベクトルBに変換し、三次元ベクトルBの平面Sに対する正射影ベクトルをBとする。第1センサ1004の検出結果が二次元の出力で得られる場合も同様のベクトル変換処理を行ってもよい。 When the second sensor 1005 outputs a two-dimensional vector B0, consider the plane T of the three-dimensional space including the detecting axis of the second sensor 1005, converts the two-dimensional vector B0 to a three-dimensional vector B 1 on the plane T Then, let B be an orthogonal projection vector of the three-dimensional vector B 1 with respect to the plane S. Similar vector conversion processing may be performed when the detection result of the first sensor 1004 is obtained as a two-dimensional output.

両検出センサの移動方向を単一の平面に投影したベクトルとして表現し、第1センサ1004の出力の移動ベクトルをA、第2センサ1005の出力の移動ベクトルBとしたとき、両ベクトルのなす角(ANGLE) θ= ANGLE(A−B)の絶対値と、任意の値α(αは正の値)との比較を持って略一致を判断する。 When the moving directions of both detection sensors are expressed as a vector projected onto a single plane, and the moving vector of the output of the first sensor 1004 is A and the moving vector B of the output of the second sensor 1005, the angle formed by the two vectors is expressed. (ANGLE) θ=ANGLE(A−B) absolute value and an arbitrary value α (α is a positive value) are compared to determine a substantial match.

すなわち、θ≦αであれば移動方向が略一致すると判定し、θ>αであれば移動方向が一致しないと判定する。 That is, if θ≦α, it is determined that the moving directions substantially match, and if θ>α, it is determined that the moving directions do not match.

7.変形例
(1)第1センサ1004と第2センサ1005は、加速度センサ、地磁気センサ、GPS、使用者を撮影するカメラ、使用者から見た外界映像を撮影するカメラ、使用者の脈拍を測定するセンサ、使用者の血流を測定するセンサ、時計などでもよい。また、第1センサ1004および第2センサ1005はそれぞれにフィルタや増幅器やレベルシフタなどを含んでいてもよい。または、コンパレータを含んで、閾値に対して検出結果が高いか低いかの二値での結果をベクトル値とともに送信する構成でもよい。また、検出結果である動きの持続時間が所定の時間を超えた場合、動きが所定の速度を超えた場合、動きが所定の変動量を超えた場合のいずれかの一つ以上の条件を満たすときに、動きが検出されたとする信号を出力する構成でもよい。
7. Modified Example (1) The first sensor 1004 and the second sensor 1005 measure an acceleration sensor, a geomagnetic sensor, a GPS, a camera that captures the user, a camera that captures an external image seen by the user, and the pulse of the user. It may be a sensor, a sensor that measures the blood flow of the user, a clock, or the like. The first sensor 1004 and the second sensor 1005 may each include a filter, an amplifier, a level shifter, and the like. Alternatively, it may be configured to include a comparator and transmit the binary result indicating whether the detection result is higher or lower than the threshold value together with the vector value. Also, one or more conditions are satisfied when the duration of the motion, which is the detection result, exceeds a predetermined time, when the motion exceeds a predetermined speed, or when the motion exceeds a predetermined fluctuation amount. Sometimes, it may be configured to output a signal that a motion is detected.

(2)第1センサ1004または第2センサ1005の出力を利用した運動判定処理部1006の判定処理に替わりに、映像判定処理部1009が画像の特徴を判定しても良い。
映像判定処理部1009は、映像情報が装置利用者20に対して、表示の不快感を発生する可能性があるかを判定する。例えば図9Aに示すように画面内を物体が連続的に移動するような映像の場合、装置使用者20は移動する映像に対して眼球を動かして追従すると予測される。また、例えば図9Bに示すように画面内に文字列などの縦、横、斜めの方向に連続的に認識することで意味を生じるような内容が映像に含まれる場合、装置使用者20は眼球を動かして視点を映像に沿って動かすことが予想される。
(2) Instead of the determination process of the motion determination processing unit 1006 using the output of the first sensor 1004 or the second sensor 1005, the image determination processing unit 1009 may determine the feature of the image.
The image determination processing unit 1009 determines whether the image information may cause display discomfort to the device user 20. For example, in the case of an image in which an object continuously moves in the screen as shown in FIG. 9A, it is predicted that the device user 20 follows the moving image by moving the eyeball. Further, for example, as shown in FIG. 9B, when the image includes a content such as a character string that is continuously recognized in the vertical, horizontal, and diagonal directions in the screen, the device user 20 can make an eyeball. Is expected to move the viewpoint along the image.

このような画像は、映像判定処理部1009がデジタル画像の映像解析を行い、画像フレーム間の差分データの量を参照する事により、予め検出できる。
図9A、図9Bのようにあらかじめ視点を動かすことが予測されるような映像の場合は、処理Cを適用するように、映像判定処理部1009が制御部1003に制御信号を出力する。
Such an image can be detected in advance by the video determination processing unit 1009 performing video analysis of the digital image and referring to the amount of difference data between image frames.
In the case of a video in which the viewpoint is predicted to be moved in advance as shown in FIGS. 9A and 9B, the video determination processing unit 1009 outputs a control signal to the control unit 1003 so as to apply the process C.

また、映像表示装置10の投影部2007が透過型である場合、映像判定処理部1009は、表示する映像が外界と関連のある映像、例えば拡張現実(AR:Argmented Reality)の映像であるかを判定してもよい。映像判定処理部1009は、映像のメタデータや付加情報から映像の種類を判定できる。例えば図7Bの仮想映像7001は、図7Aの外界と関連した情報を表示しており、このように外界と関連のある映像であると判定された場合は、注視点が仮想映像7001以外の位置に検出されても(Zが偽)、表示映像の視認性の重要度は高いため、図5の処理Cの適用を制御部1003に指示する。 Further, when the projection unit 2007 of the video display device 10 is a transmissive type, the video determination processing unit 1009 determines whether the video to be displayed is a video that is related to the outside world, for example, an augmented reality (AR) video. You may judge. The video determination processing unit 1009 can determine the type of video from the video metadata and additional information. For example, the virtual image 7001 in FIG. 7B displays information related to the external world in FIG. 7A. When it is determined that the image is related to the external world, the gazing point is located at a position other than the virtual image 7001. Even if it is detected (Z is false), the visibility of the displayed image is high in importance, and therefore the control unit 1003 is instructed to apply the process C of FIG.

(3)映像表示部1001の表示方法として、図10Aに示す表示方法を採用しても良い。図10Aに示す表示方法では、図4Bの2倍速駆動とし、光源の制御を停止し、光源素子2003の赤色LED3001、緑色LED3002、青色LED3003の発光期間を略同時とする。このようにすることで、三つのLEDからの光が混色され、装置利用者20は映像を白黒の画像として認識し、原理上カラーブレイクが発生しない。図5において、映像の不快感配慮への必要性が高いとした図5の処理Cおよび処理Dに適用してもよい。 (3) As the display method of the video display unit 1001, the display method shown in FIG. 10A may be adopted. In the display method shown in FIG. 10A, the double-speed drive of FIG. 4B is performed, the control of the light source is stopped, and the light emitting periods of the red LED 3001, the green LED 3002, and the blue LED 3003 of the light source element 2003 are made substantially the same. By doing so, the lights from the three LEDs are mixed, the device user 20 recognizes the image as a black and white image, and in principle, no color break occurs. In FIG. 5, it may be applied to the processing C and the processing D in FIG. 5 in which it is highly necessary to consider the discomfort of the image.

さらに、映像情報のうち連続する複数のフレームの画像が略同一の画像である場合、変調器2005のフレームの更新を停止してもよい。例えば図10Bのように、フレーム1とフレーム2とフレーム3が、略同一の画像である場合、これらのフレームに対応する期間、変調器2005は同一のフレーム1を表示し続ける。 Furthermore, when the images of a plurality of consecutive frames in the video information are substantially the same image, the frame update of the modulator 2005 may be stopped. For example, as shown in FIG. 10B, when frame 1, frame 2 and frame 3 are substantially the same image, the modulator 2005 continues to display the same frame 1 for a period corresponding to these frames.

略同一の画像であるとは、例えばH×V個の画素情報(H、Vともに正の整数)として映像情報が表現できるとき、連続するフレームの間で、情報が変更された画素の数がH×V個よりも十分小さい場合や、各画素の色情報がR、G、Bの原色情報(例えばR、G、Bともに0〜255までの正の整数)として表現できるとき、連続するフレームの間で各画素のR、G、Bの値の変化が十分に小さい場合などが挙げられる。 When the image information can be represented as, for example, H×V pixel information (both H and V are positive integers), it means that the number of pixels whose information has been changed between successive frames is substantially the same image. When the number of pixels is sufficiently smaller than H×V, or when the color information of each pixel can be expressed as primary color information of R, G, B (for example, R, G, B are positive integers from 0 to 255), consecutive frames There is a case where the change in the R, G, and B values of each pixel between the two is sufficiently small.

こうすることで画像のちらつきを低減できる。また変調器2005が強誘電液晶を使用している場合には、同一のフレームを複数回表示するために、情報の消去と再表示に電力を消費する。変調器2005のフレーム更新を停止することでさらに電力消費の低減につながる。図5の処理Cおよび処理Dに適用しても良い。 By doing so, the flicker of the image can be reduced. When the modulator 2005 uses a ferroelectric liquid crystal, the same frame is displayed a plurality of times, so power is consumed to erase and redisplay information. Stopping the frame update of the modulator 2005 leads to further reduction of power consumption. It may be applied to the processes C and D of FIG.

(4)映像情報源1007は外部から映像情報を取得する構成でもよい。例えば、DVI、HDMI(登録商標)、DisplayPortなどの映像伝送規格に準拠した受信器であってもよいし、SPI、I2C、RS232、USBなどの一般的な電気信号の伝送方法を用いる受信器であってもよいし、Ethernet(登録商標)などの有線ネットワーク受信器であってもよいし、無線LANやBluetooth(登録商標)などの無線ネットワーク受信器であってもよい。
また、映像情報源1007は、圧縮された情報を受信して伸張することで映像情報にするデコーダを含んでいてもよいし、暗号化された映像情報を受信して復号する機能を含んでいてもよい。
(4) The video information source 1007 may be configured to acquire video information from the outside. For example, the receiver may be a receiver that conforms to a video transmission standard such as DVI, HDMI (registered trademark), or DisplayPort, or a receiver that uses a general electric signal transmission method such as SPI, I2C, RS232, or USB. It may be a wired network receiver such as Ethernet (registered trademark), or a wireless network receiver such as a wireless LAN or Bluetooth (registered trademark).
The video information source 1007 may include a decoder that receives compressed information and decompresses it to convert it into video information, or includes a function of receiving and decoding encrypted video information. Good.

(5)電源部1012は映像表示装置10に電力を供給する。電源部1012は電力源として外部電源から充電可能な充電式電池、交換可能な一次電池から所望の電力を取り出す電源回路、コンセントなどの外部電源と接続して所望の電力を取り出すためのコンバータ、電力安定化回路のうち一つ以上を含む。また、電源部1012は電力源の他に、充電や供給電力などを制御したり電力源を観測したりするための電力制御用の集積回路を含む構成でもよい。 (5) The power supply unit 1012 supplies power to the video display device 10. The power supply unit 1012 is a rechargeable battery that can be charged from an external power supply as a power source, a power supply circuit that extracts desired power from a replaceable primary battery, a converter that is connected to an external power supply such as an outlet to extract desired power, and power. It includes one or more of the stabilizing circuits. In addition to the power source, the power supply unit 1012 may have a configuration including an integrated circuit for power control for controlling charging, supplied power, and the like, and observing the power source.

制御部1003は、電源部1012から電力源の残り電力量の情報を取得し、残り電力量が所定値を上回る場合のみ、映像処理部1008の映像処理を動作させるように制御する。
制御部1003は、電源部1012の残り電力量が所定値を上回る場合のみ、映像表示部1001の表示方法を表示周期が短くなるように変更できる構成としてもよい。
制御部1003は、電源部1012の残り電力量が所定値を下回る場合、映像表示部1001の表示方法を表示周期が長くなるように変更する構成としてもよい。
The control unit 1003 acquires information on the remaining power amount of the power source from the power supply unit 1012, and controls the video processing of the video processing unit 1008 to operate only when the remaining power amount exceeds a predetermined value.
The control unit 1003 may be configured to change the display method of the video display unit 1001 so that the display cycle is shortened only when the remaining power amount of the power supply unit 1012 exceeds a predetermined value.
The control unit 1003 may be configured to change the display method of the video display unit 1001 so that the display cycle becomes longer when the remaining power amount of the power supply unit 1012 falls below a predetermined value.

図13は実施例2の説明図である。図1と異なる部分のみ説明する。
第1センサ1304、第2センサ1305は映像表示装置130の筐体とは分離して設けられている。いずれのセンサも実施例1と同様、装置使用者20の動作を検出する。
FIG. 13 is an explanatory diagram of the second embodiment. Only the parts different from FIG. 1 will be described.
The first sensor 1304 and the second sensor 1305 are provided separately from the housing of the video display device 130. Both sensors detect the operation of the device user 20, as in the first embodiment.

本実施例では、第1センサ1304と映像表示装置130との間の情報のやり取りは、通信部1013を介して行う。通信部1013と第1センサ1304とは物理的に接続された導線上を電気信号として通信されてもよいし、無線LAN、Bluetooth(登録商標)、Zigbee(登録商標)などの無線通信を介して行われてもよい。第1センサ1304は図示しない通信部を含んで構成されてもよい。無線通信を利用する場合には第1センサ1304は、映像表示装置130と異なる電源から電力供給されてもよい。 In this embodiment, information is exchanged between the first sensor 1304 and the video display device 130 via the communication unit 1013. The communication unit 1013 and the first sensor 1304 may be communicated as an electric signal on a conductor that is physically connected, or via wireless communication such as wireless LAN, Bluetooth (registered trademark), or Zigbee (registered trademark). May be done. The first sensor 1304 may include a communication unit (not shown). When using wireless communication, the first sensor 1304 may be powered by a power source different from that of the video display device 130.

第2センサ1305についても、第1センサ1305と同様に、通信部1013との情報のやり取りを前記の有線通信で行っても前記の無線通信で行ってもよい。第2センサ1305は図示しない通信部を含んで構成されてもよい。また、無線通信を利用する場合には、映像表示装置130と異なる電源から電力供給されてもよい。
運動判定処理部1006は通信部1013を介して、第1センサ1304ないし第2センサ1305の出力を受信する。
Similarly to the first sensor 1305, the second sensor 1305 may exchange information with the communication unit 1013 by the wired communication or the wireless communication. The second sensor 1305 may include a communication unit (not shown). When using wireless communication, power may be supplied from a power source different from that of the video display device 130.
The motion determination processing unit 1006 receives the outputs of the first sensor 1304 and the second sensor 1305 via the communication unit 1013.

図14、図15は本実施例の変形例である。
図14に示す変形例では、第1センサ1404、第2センサ1405、運動判定処理部1406は、映像表示装置140の筐体とは分離して設けられている。運動判定処理部1406と制御部1003との間の情報のやり取りは通信部1013を介して行われ、前記の有線通信で行っても前記の無線通信で行ってもよい。また、第1センサ1404、第2センサ1405、運動判定処理部1406が、同一の筐体内に含まれる構成でもよい。また、運動判定処理部1406は図示しない通信部を含んで構成されてもよい。
14 and 15 are modified examples of this embodiment.
In the modification shown in FIG. 14, the first sensor 1404, the second sensor 1405, and the motion determination processing unit 1406 are provided separately from the housing of the video display device 140. Information is exchanged between the exercise determination processing unit 1406 and the control unit 1003 via the communication unit 1013, and may be performed by the wired communication or the wireless communication. In addition, the first sensor 1404, the second sensor 1405, and the motion determination processing unit 1406 may be included in the same housing. Further, the exercise determination processing unit 1406 may be configured to include a communication unit (not shown).

図15に示す変形例では、第2センサ1305は、映像表示装置150の筐体とは分離して設けられている。第2センサ1305と運動判定処理部1006との間の情報のやり取りは通信部1013を介して行われ、前述の様に有線通信で行っても無線通信で行ってもよい。 In the modification shown in FIG. 15, the second sensor 1305 is provided separately from the housing of the video display device 150. Information is exchanged between the second sensor 1305 and the motion determination processing unit 1006 via the communication unit 1013, and may be wired communication or wireless communication as described above.

分離して設けられる第1センサ1304、第2センサ1305は、装置利用者20に装着される必要はなく、装置使用者20の頭の動きや、目の動きなどを検出できれば良く、例えばカメラと画像処理を用いたセンサであってもよい。装置利用者20が固定した位置において映像を見ながら作業を行い、作業台にカメラ型の第1センサ1304および第2センサ1305を設置する場合が想定される。
また、装置使用者20が定位置に直立または着座して映像表示装置130、映像表示装置140、映像表示装置150を使用する場合、装置利用者20の下に重心位置の変位を測定する圧力分布測定器などの検出センサを設けることで、第1センサ1304または第2センサ1305としてもよい。
The first sensor 1304 and the second sensor 1305, which are provided separately, do not have to be attached to the device user 20, and may be any device that can detect the motion of the device user 20's head, the motion of the eyes, and the like. It may be a sensor using image processing. It is assumed that the device user 20 performs a work at a fixed position while watching an image and installs the camera-type first sensor 1304 and the second sensor 1305 on the workbench.
Further, when the device user 20 stands upright or sits in a fixed position and uses the image display device 130, the image display device 140, and the image display device 150, the pressure distribution for measuring the displacement of the center of gravity position below the device user 20. The first sensor 1304 or the second sensor 1305 may be provided by providing a detection sensor such as a measuring instrument.

図16は実施例3の説明図である。図1と異なる部分のみ説明する。
本実施例では、記憶部1610、頻度判定処理部1611は映像表示装置160と分離してサーバー1601に設けられる。記憶部1610、頻度判定処理部1611の動作は実施例1の記憶部1010、頻度判定処理部1011とそれぞれ同様である。
FIG. 16 is an explanatory diagram of the third embodiment. Only the parts different from FIG. 1 will be described.
In this embodiment, the storage unit 1610 and the frequency determination processing unit 1611 are provided in the server 1601 separately from the video display device 160. The operations of the storage unit 1610 and the frequency determination processing unit 1611 are the same as those of the storage unit 1010 and the frequency determination processing unit 1011 of the first embodiment, respectively.

記憶部1310と制御部1003との間の情報のやり取りは、映像表示装置160の通信部1013とサーバー1601の通信部1612とを介して行われ、通信部1013と通信部1612の間は物理的に接続された導線上を電気信号として通信されてもよいし、無線LAN、Bluetooth(登録商標)、Zigbee(登録商標)などの無線通信を介して行われてもよい。
頻度判定処理部1611と映像情報源1007との間の情報のやり取りも同様に通信部1013と通信部1612を介して行われ、前述の様に有線通信で行っても無線通信で行ってもよい。
Information is exchanged between the storage unit 1310 and the control unit 1003 via the communication unit 1013 of the video display device 160 and the communication unit 1612 of the server 1601, and physical communication is performed between the communication units 1013 and 1612. May be communicated as an electric signal on a conducting wire connected to, or may be performed via wireless communication such as wireless LAN, Bluetooth (registered trademark), Zigbee (registered trademark).
Information is also exchanged between the frequency determination processing unit 1611 and the video information source 1007 via the communication unit 1013 and the communication unit 1612, which may be wired communication or wireless communication as described above. ..

また、図17は映像表示装置160を複数含むシステムでの制御方法について示している。第一の映像表示装置1711、第二の映像表示装置1712、第三の映像表示装置1713、第四の映像表示装置1714とし、それぞれがネットワーク1730を介してサーバー1601と通信可能となっている。 Further, FIG. 17 shows a control method in a system including a plurality of video display devices 160. A first video display device 1711, a second video display device 1712, a third video display device 1713, and a fourth video display device 1714, which can communicate with the server 1601 via the network 1730.

第一の映像表示装置1711は第一の使用者1721に使用され、第二の映像表示装置1712は第二の使用者1722に使用され、第三の映像表示装置1713は第三の使用者1723に使用され、第四の映像表示装置1714は第四の使用者1724に使用されている。 The first video display device 1711 is used by the first user 1721, the second video display device 1712 is used by the second user 1722, and the third video display device 1713 is used by the third user 1723. The fourth video display device 1714 is used by the fourth user 1724.

第一の映像表示装置1711、第二の映像表示装置1712、第三の映像表示装置1713、第四の映像表示装置1714は、それぞれが映像表示装置160と同等の性能を有している。
サーバー1601は記憶部1610と頻度判定処理部1611を有しており、第一の映像表示装置1711、第二の映像表示装置1712、第三の映像表示装置1713、第四の映像表示装置1714の制御部1003から、ネットワーク1730を介して、映像表示部1001の表示方法を変更した際、または映像処理部1008の処理方式を変更した際の履歴や時刻などを受信する。
Each of the first video display device 1711, the second video display device 1712, the third video display device 1713, and the fourth video display device 1714 has the same performance as the video display device 160.
The server 1601 includes a storage unit 1610 and a frequency determination processing unit 1611, and includes a first video display device 1711, a second video display device 1712, a third video display device 1713, and a fourth video display device 1714. The history and time when the display method of the video display unit 1001 is changed or when the processing method of the video processing unit 1008 is changed are received from the control unit 1003 via the network 1730.

サーバー1601は、それぞれの映像表示装置から送られてきた変更情報から共通する情報を抜き出し、頻度判定処理部1611により、記憶部1610に記録されたそれぞれの映像表示装置の処理が共通であり、その共通の処理が所定時間内に所定の回数を超えた場合に、映像情報源1007に対して映像情報の変更を要求する。映像情報の変更は、例えば画像のコントラスト、シャープネス、彩度、色相、画像の明るさなどのパラメータの変更である。 The server 1601 extracts common information from the change information sent from the respective video display devices, and the frequency determination processing unit 1611 performs common processing of the respective video display devices recorded in the storage unit 1610. When the common processing exceeds a predetermined number of times within a predetermined time, the video information source 1007 is requested to change the video information. The change of the video information is, for example, change of parameters such as image contrast, sharpness, saturation, hue, and image brightness.

ネットワーク1730に接続される映像表示装置160の数は、本実施例に示した数に限ったものではなく、1台以上の映像表示装置160が接続されていればよい。 The number of video display devices 160 connected to the network 1730 is not limited to the number shown in this embodiment, and it is sufficient that at least one video display device 160 is connected.

上記記載は実施例についてなされたが、本発明はそれに限らず、本発明の精神と添付の請求の範囲の範囲内で種々の変更および修正をすることができることは当業者に明らかである。 Although the above description has been made with reference to the embodiments, it is obvious to those skilled in the art that the present invention is not limited thereto and various changes and modifications can be made within the spirit of the present invention and the scope of the appended claims.

10・・・映像表示装置
1001・・・映像表示部
1002・・・表示制御部
1003・・・制御部
1004・・・第1センサ
1005・・・第2センサ
1006・・・運動判定処理部
1007・・・映像情報源
1008・・・映像処理部
1009・・・映像判定処理部
1010・・・記憶部
1011・・・頻度判定処理部
1012・・・電源部
1013・・・通信部
1020・・・コントローラ
20・・・装置利用者
2001・・・映像信号処理部
2002・・・光源素子電源制御部
2003・・・光源素子
2004・・・光源ドライバ
2005・・・変調器
2006・・・変調器ドライバ
2007・・・投影部
2008・・・設定制御部
3001・・・赤色LED
3002・・・緑色LED
3003・・・青色LED
3004、3005、3006・・・電流制限抵抗
7001・・・仮想映像
1101・・・センサA
1102・・・センサB
1103・・・検出制御部
1111・・・目
1112、1113・・・投光部
1114、1115・・・受光器
1116・・・比較器
1117、1118・・・カメラ
1119・・・電流制御部
1120・・・動き検出処理部
1121・・・休止制御部
1201・・・仮想映像
1202・・・仮想表示映像
130・・・映像表示装置
1304・・・第1センサ
1305・・・第2センサ
140・・・映像表示装置
1404・・・第1センサ
1405・・・第2センサ
1406・・・運動判定処理部
150・・・映像表示装置
160・・・映像表示装置
1601・・・サーバー
1610・・・記憶部
1611・・・頻度判定処理部
1612・・・通信部
1711・・・第一の映像表示装置
1712・・・第二の映像表示装置
1713・・・第三の映像表示装置
1714・・・第四の映像表示装置
1721・・・第一の使用者
1722・・・第二の使用者
1723・・・第三の使用者
1724・・・第四の使用者
1730・・・ネットワーク
10... Video display device 1001... Video display unit 1002... Display control unit 1003... Control unit 1004... First sensor 1005... Second sensor 1006... Exercise determination processing unit 1007 ... video information source 1008 ... video processing unit 1009 ... video determination processing unit 1010 ... storage unit 1011 ... frequency determination processing unit 1012 ... power supply unit 1013 ... communication unit 1020 ... -Controller 20... Device user 2001... Video signal processing unit 2002... Light source element power supply control unit 2003... Light source element 2004... Light source driver 2005... Modulator 2006... Modulator Driver 2007... Projection unit 2008... Setting control unit 3001... Red LED
3002・・・Green LED
3003...Blue LED
3004, 3005, 3006... Current limiting resistance 7001... Virtual image 1101... Sensor A
1102...Sensor B
1103... Detection control section 1111... Eyes 1112, 1113... Light projecting section 1114, 1115... Photoreceiver 1116... Comparator 1117, 1118... Camera 1119... Current control section 1120 ... Motion detection processing unit 1121... Pause control unit 1201... Virtual image 1202... Virtual display image 130... Image display device 1304... First sensor 1305... Second sensor 140... .. video display device 1404... first sensor 1405... second sensor 1406... motion determination processing unit 150... video display device 160... video display device 1601... server 1610... Storage unit 1611... Frequency determination processing unit 1612... Communication unit 1711... First image display device 1712... Second image display device 1713... Third image display device 1714... Fourth image display device 1721... First user 1722... Second user 1723... Third user 1724... Fourth user 1730... Network

Claims (8)

利用者の頭部に装着可能な映像表示装置であって、
1つの映像フレームが複数色のそれぞれに対応する表示期間に分割され、該各色に対応する表示期間のそれぞれに各色の映像を表示するように構成されたフィールドシーケンシャル方式の映像表示部と、
前記映像表示部を制御する制御部と、
利用者の頭部の動きを検出する第一の検出部と、
利用者の視線の動きを検出する第二の検出部と、
前記第一の検出部の出力と前記第二の検出部の出力により装置利用者の運動状況を判定する運動判定部と、
を含み、
前記制御部は、前記運動判定部により、前記運動状況として、利用者の頭部及び視線の少なくともいずれかの動きがあったと判定された場合は、前記各色に対応する表示期間のぞれぞれを複数に分割し、前記1つの映像フレームにおいて各色の映像をそれぞれ複数回数表示するように制御すること、
を特徴とする映像表示装置。
A video display device that can be worn on a user's head,
One video frame is divided into display periods corresponding to each of a plurality of colors, and a field sequential type video display unit configured to display an image of each color in each of the display periods corresponding to the respective colors.
A control unit for controlling the image display unit,
A first detection unit that detects the movement of the user's head,
A second detection unit that detects the movement of the user's line of sight,
An exercise determination unit that determines the exercise status of the device user by the output of the first detection unit and the output of the second detection unit,
Including,
When the control unit determines that the movement status includes movement of at least one of the head and the line of sight of the user, the control unit determines each display period corresponding to each color. Is divided into a plurality of parts, and the video of each color is controlled to be displayed a plurality of times in the one video frame.
Video display device characterized by.
請求項1に記載の映像表示装置において、前記複数色はR、G、B三原色であり、前記1つの映像フレームがR、G、B各色に対応する3つの表示期間に分割されることを特徴とすること、
を特徴とする映像表示装置。
The video display device according to claim 1, wherein the plurality of colors are R, G, B three primary colors, and the one video frame is divided into three display periods corresponding to the respective colors R, G, B. What to do
Video display device characterized by.
請求項2に記載の映像表示装置において、前記映像表示部は、R、G、B各色の光を放出する光源と、該光源からの光を変調して各色の映像を形成する変調器とを備え、前記制御部により、前記R、G、B各色に対応する表示期間の分割数に応じて前記光源と前記変調器の駆動が制御されること、
を特徴とする映像表示装置。
The image display device according to claim 2, wherein the image display unit includes a light source that emits light of each color of R, G, and B, and a modulator that modulates light from the light source to form an image of each color. The control unit controls the driving of the light source and the modulator according to the number of divisions of the display period corresponding to each of the R, G, and B colors.
Video display device characterized by.
請求項3に記載の映像表示装置において、前記変調器は、液晶素子またはデジタルマイクロミラーデバイスであること、
を特徴とする映像表示装置。
The video display device according to claim 3, wherein the modulator is a liquid crystal element or a digital micromirror device.
Video display device characterized by.
請求項1に記載の映像表示装置において、前記制御部は、前記運動判定部により、前記運動状況として、利用者の頭部及び視線の少なくともいずれかの動きがあったと判定された場合は、動きが無い場合よりも映像のコントラストまたは明るさを上げること
を特徴とする映像表示装置。
The image display device according to claim 1, wherein the control unit moves if the motion determination unit determines that there is a motion of at least one of a head and a line of sight of the user as the motion status. An image display device characterized by increasing the contrast or brightness of an image more than when there is no light.
請求項1に記載の映像表示装置であって、
前記第一の検出部はジャイロセンサ、加速度センサ、地磁気センサ、GPS、カメラのいずれか1つを含む構成であること、
を特徴とする映像表示装置。
The video display device according to claim 1, wherein
The first detection unit is configured to include any one of a gyro sensor, an acceleration sensor, a geomagnetic sensor, GPS, and a camera,
Video display device characterized by.
請求項1に記載の映像表示装置であって、
前記第二の検出部は、
目の異なる位置に対して、光を照射する少なくとも2つの投光器と、
前記照射された光の目からの反射光を受信する異なる位置にある2つの受光器と、
前記2つの受光器の出力から眼球の動きを検出する動き検出器と、
前記動き検出器が眼球の動きを検出している間に動作する、少なくとも1つの目を撮影するカメラと、を含むこと、
を特徴とする映像表示装置。
The video display device according to claim 1, wherein
The second detection unit,
At least two floodlights that illuminate different eye positions,
Two light receivers at different positions for receiving the reflected light from the eye of the illuminated light;
A motion detector that detects the movement of the eyeball from the outputs of the two light receivers;
A camera that captures at least one eye that operates while the motion detector detects eye movement.
Video display device characterized by.
請求項1に記載の映像表示装置であって、
前記運動判定部は、前記運動状況として、前記第一の検出部または第二の検出部で検出した動きの持続時間が所定の時間を超えた場合、動きが所定の速度を超えた場合、動きが所定の変動量を超えた場合のいずれかの一つ以上の条件を満たすときに、動きがあったと判定すること、
を特徴とする映像表示装置。
The video display device according to claim 1, wherein
The movement determination unit, as the movement situation, if the duration of the movement detected by the first detection unit or the second detection unit exceeds a predetermined time, if the movement exceeds a predetermined speed, the movement When any one or more conditions are satisfied when exceeds a predetermined fluctuation amount, it is determined that there is a motion,
Video display device characterized by.
JP2019146312A 2019-08-08 2019-08-08 Video display device and control method Active JP6743254B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019146312A JP6743254B2 (en) 2019-08-08 2019-08-08 Video display device and control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019146312A JP6743254B2 (en) 2019-08-08 2019-08-08 Video display device and control method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017521479A Division JP6571767B2 (en) 2015-06-05 2015-06-05 Video display device and control method

Publications (2)

Publication Number Publication Date
JP2020013135A JP2020013135A (en) 2020-01-23
JP6743254B2 true JP6743254B2 (en) 2020-08-19

Family

ID=69169977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019146312A Active JP6743254B2 (en) 2019-08-08 2019-08-08 Video display device and control method

Country Status (1)

Country Link
JP (1) JP6743254B2 (en)

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2911125B2 (en) * 1988-08-31 1999-06-23 キヤノン株式会社 Eye gaze detection device
JP2861349B2 (en) * 1990-09-29 1999-02-24 キヤノン株式会社 Optical device having line-of-sight detecting means
JPH05215960A (en) * 1992-02-06 1993-08-27 Minolta Camera Co Ltd Line of sight detection camera
JPH0634873A (en) * 1992-07-16 1994-02-10 Canon Inc Optical device provided with device for detecting line of sight
JP3352195B2 (en) * 1993-11-25 2002-12-03 キヤノン株式会社 Eye gaze detecting device, optical device, and eye gaze detecting method
JP2007101618A (en) * 2005-09-30 2007-04-19 Konica Minolta Photo Imaging Inc Display device
JP2007114579A (en) * 2005-10-21 2007-05-10 Pioneer Electronic Corp Display device, method, system, and server, and program
CN102792214B (en) * 2010-03-09 2015-09-02 株式会社Hdt Colour display device and method
JP2012203128A (en) * 2011-03-24 2012-10-22 Seiko Epson Corp Head mounted display and method for controlling head mounted display
US8736692B1 (en) * 2012-07-09 2014-05-27 Google Inc. Using involuntary orbital movements to stabilize a video
KR101660657B1 (en) * 2013-02-04 2016-09-27 가부시키가이샤 오루투스 테크놀로지 Liquid-crystal display
JP2014225725A (en) * 2013-05-15 2014-12-04 ソニー株式会社 Display device and light source for image display device
JP5904246B2 (en) * 2014-09-24 2016-04-13 ソニー株式会社 Head-mounted display device and display method

Also Published As

Publication number Publication date
JP2020013135A (en) 2020-01-23

Similar Documents

Publication Publication Date Title
JP6571767B2 (en) Video display device and control method
US10725300B2 (en) Display device, control method for display device, and program
US9269193B2 (en) Head-mount type display device
US20110221746A1 (en) 3d eyeglasses, method for driving 3d eyeglasses and system for providing 3d image
CN109960481B (en) Display system and control method thereof
US20160291666A1 (en) Display apparatus and display apparatus control method
US9846305B2 (en) Head mounted display, method for controlling head mounted display, and computer program
US20120236131A1 (en) Display device, display system, and method for controlling display device
US20160274680A1 (en) Information processing apparatus and control method of information processing apparatus
US7940295B2 (en) Image display apparatus and control method thereof
JP6631014B2 (en) Display system and display control method
CN113534949B (en) Head-mounted display device and control method thereof
JP6743254B2 (en) Video display device and control method
US11125997B2 (en) Information processing apparatus, information processing method, and program
JP5828400B2 (en) Video display device and video display method
JP6430347B2 (en) Electronic device and display method
JP2019013050A (en) Electronic apparatus and display method
JP7245376B2 (en) Electronic equipment and display method
CN219891489U (en) AR display device, AR glasses and AR swimming goggles
US11189249B2 (en) Operation method for head-mounted display device and head-mounted display device
US11422378B2 (en) Control method for display device and control device
US20230081574A1 (en) Apparatus and method for frame cropping and shifting
JP2018054775A (en) Head-mounted display
JP2021017064A (en) Head-up display device
JP2019096939A (en) Color perception support device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200729

R150 Certificate of patent or registration of utility model

Ref document number: 6743254

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250