JP2019042221A - 画像音声出力装置、画像音声出力方法、及び画像音声出力プログラム - Google Patents

画像音声出力装置、画像音声出力方法、及び画像音声出力プログラム Download PDF

Info

Publication number
JP2019042221A
JP2019042221A JP2017169667A JP2017169667A JP2019042221A JP 2019042221 A JP2019042221 A JP 2019042221A JP 2017169667 A JP2017169667 A JP 2017169667A JP 2017169667 A JP2017169667 A JP 2017169667A JP 2019042221 A JP2019042221 A JP 2019042221A
Authority
JP
Japan
Prior art keywords
output
image
voice
display screen
specific area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017169667A
Other languages
English (en)
Other versions
JP6962079B2 (ja
Inventor
美玖 小村田
Miku Komurata
美玖 小村田
修二 箱嶋
Shuji Hakojima
修二 箱嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2017169667A priority Critical patent/JP6962079B2/ja
Priority to US15/955,941 priority patent/US10691203B2/en
Publication of JP2019042221A publication Critical patent/JP2019042221A/ja
Application granted granted Critical
Publication of JP6962079B2 publication Critical patent/JP6962079B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Eye Examination Apparatus (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】音声の出力状態を変更するタイミングを効率的に調整する画像音声出力装置、画像音声出力方法、画像音声出力プログラムを提供する。
【解決手段】視線検出装置100は、画像を表示する表示装置101と、音声を出力する音声出力装置70と、表示画面を観察する観察者の注視点の位置を検出する注視点検出部214と、表示画面又は画像の一部に特定領域を設定する領域設定部216と、特定領域が表示画面又は画像に設定される場合に、注視点の位置の検出結果に基づいて注視点が特定領域に存在するか否かを判定する判定部218と、表示画面に画像を表示させ、音声出力装置70に音声を出力させると共に、注視点が特定領域に存在すると判定された場合、少なくとも音声の出力状態を調整する出力制御部226とを備える。
【選択図】図3

Description

本発明は、画像音声出力装置、画像音声出力方法、及び画像音声出力プログラムに関する。
視線検出技術の一つとして角膜反射法が知られている。角膜反射法は、光源から射出された赤外光を被験者に照射し、赤外光が照射された被験者の眼をカメラで撮影し、角膜表面における光源の反射像である角膜反射像に対する瞳孔の位置を検出して、被験者の視線を検出する。このような角膜反射法を用いた視線検出装置では、被験者への刺激として、例えば表示画面に静止画又は動画を表示させ、音声出力装置に音声を出力させるようにしている。
特開2016−187589号公報
上記の視線検出装置においては、音声の出力状態を変更するタイミングを効率的に調整する構成が求められている。また、視線検出装置に限られず、画像及び音声を出力する画像音声出力装置においても、音声の出力状態を変更するタイミングを効率的に調整する構成が求められている。
本発明は、上記に鑑みてなされたものであり、音声の出力状態を変更するタイミングを効率的に調整することが可能な画像音声出力装置、画像音声出力方法、及び画像音声出力プログラムを提供することを目的とする。
本発明に係る画像音声出力装置は、画像を表示する表示画面と、音声を出力する音声出力装置と、前記表示画面を観察する観察者の注視点の位置を検出する注視点検出部と、前記表示画面または前記画像の一部に特定領域を設定する領域設定部と、前記特定領域が前記表示画面または前記画像に設定される場合に、前記注視点の位置の検出結果に基づいて前記注視点が前記特定領域に存在するか否かを判定する判定部と、前記表示画面に前記画像を表示させ前記音声出力装置に前記音声を出力させると共に、前記注視点が前記特定領域に存在すると判定された場合、少なくとも前記音声の出力状態を調整する出力制御部とを備える。
本発明に係る画像音声出力方法は、表示画面に画像を表示させることと、音声出力装置に音声を出力させることと、前記表示画面を観察する観察者の注視点の位置を検出することと、前記表示画面または前記画像の一部に特定領域を設定することと、前記特定領域が前記表示画面または前記画像に設定される場合に、前記注視点の位置の検出結果に基づいて前記注視点が前記特定領域に存在するか否かを判定することと、前記注視点が前記特定領域に存在すると判定された場合、少なくとも前記音声の出力状態を調整することとを含む。
本発明に係る画像音声出力プログラムは、表示画面に画像を表示させる処理と、音声出力装置に音声を出力させる処理と、前記表示画面を観察する観察者の注視点の位置を検出する処理と、前記表示画面または前記画像の一部に特定領域を設定する処理と、前記特定領域が前記表示画面または前記画像に設定される場合に、前記注視点の位置の検出結果に基づいて前記注視点が前記特定領域に存在するか否かを判定する処理と、前記注視点が前記特定領域に存在すると判定された場合、少なくとも前記音声の出力状態を調整する処理とをコンピュータに実行させる。
本発明によれば、音声の出力状態を変更するタイミングを効率的に調整することが可能となる。
図1は、本実施形態に係る画像音声出力装置である視線検出装置の一例を模式的に示す斜視図である。 図2は、本実施形態に係る視線検出装置のハードウェア構成の一例を示す図である。 図3は、本実施形態に係る視線検出装置の一例を示す機能ブロック図である。 図4は、本実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。 図5は、本実施形態に係る角膜曲率中心の位置データの算出方法を説明するための模式図である。 図6は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。 図7は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。 図8は、記憶部に記憶されるデータの一例を示す図である。 図9は、記憶部に記憶されるデータの一例を示す図である。 図10は、記憶部に記憶されるデータの一例を示す図である。 図11は、画像の表示開始及び表示終了のタイミングと、音声の出力開始及び出力終了のタイミングとを対応付けて示すタイミングチャートである。 図12は、画像の表示開始及び表示終了のタイミングと、音声の出力開始及び出力終了のタイミングとを対応付けて示すタイミングチャートである。 図13は、画像の表示開始及び表示終了のタイミングと、音声の出力開始及び出力終了のタイミングとを対応付けて示すタイミングチャートである。 図14は、画像の表示開始及び表示終了のタイミングと、音声の出力開始及び出力終了のタイミングとを対応付けて示すタイミングチャートである。 図15は、画像の表示開始及び表示終了のタイミングと、音声の出力開始及び出力終了のタイミングとを対応付けて示すタイミングチャートである。 図16は、画像の表示開始及び表示終了のタイミングと、音声の出力開始及び出力終了のタイミングとを対応付けて示すタイミングチャートである。 図17は、画像の表示開始及び表示終了のタイミングと、音声の出力開始及び出力終了のタイミングとを対応付けて示すタイミングチャートである。 図18は、音声の出力開始及び出力終了のタイミングと音量とを対応付けて示すタイミングチャートである。 図19は、音声の出力開始及び出力終了のタイミングと音量とを対応付けて示すタイミングチャートである。 図20は、表示装置の表示画面に表示される画像の一例を示す図である。 図21は、視線検出装置の動作を示すフローチャートである。 図22は、本実施形態に係る視線検出処理および画像音声出力制御処理の一例を示すフローチャートである。 図23は、画像音声出力制御処理の一例を示すフローチャートである。 図24は、画像音声出力制御処理の他の例を示すフローチャートである。 図25は、画像音声出力制御処理の他の例を示すフローチャートである。 図26は、画像音声出力制御処理の他の例を示すフローチャートである。 図27は、本実施形態に係る画像音声出力装置の他の例である電子端末を示す図である。
以下、本発明に係る画像音声出力装置、画像音声出力方法、及び画像音声出力プログラムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。
以下の説明においては、三次元グローバル座標系を設定して各部の位置関係について説明する。所定面の第1軸と平行な方向をX軸方向とし、第1軸と直交する所定面の第2軸と平行な方向をY軸方向とし、第1軸及び第2軸のそれぞれと直交する第3軸と平行な方向をZ軸方向とする。所定面はXY平面を含む。
(視線検出装置)
図1は、本実施形態に係る画像音声出力装置である視線検出装置100の一例を模式的に示す斜視図である。視線検出装置100は、被験者を評価する評価装置としても用いられる。図1に示すように、視線検出装置100は、表示装置101と、音声出力装置70と、ステレオカメラ装置102と、照明装置103とを備える。
表示装置101は、液晶ディスプレイ(liquid crystal display:LCD)又は有機ELディスプレイ(organic electroluminescence display:OLED)のようなフラットパネルディスプレイを含む。本実施形態において、表示装置101は、表示画面101Sを有する。表示画面101Sは、画像を表示する。表示画面101Sは、XY平面と実質的に平行である。X軸方向は表示画面101Sの左右方向であり、Y軸方向は表示画面101Sの上下方向であり、Z軸方向は表示画面101Sと直交する奥行方向である。
音声出力装置70は、例えばスピーカを含み、例えば被験者に注意を促すための音声を出力する。
ステレオカメラ装置102は、第1カメラ102A及び第2カメラ102Bを有する。ステレオカメラ装置102は、表示装置101の表示画面101Sよりも下方に配置される。第1カメラ102Aと第2カメラ102BとはX軸方向に配置される。第1カメラ102Aは、第2カメラ102Bよりも−X方向に配置される。第1カメラ102A及び第2カメラ102Bはそれぞれ、赤外線カメラを含み、例えば波長850[nm]の近赤外光を透過可能な光学系と、その近赤外光を受光可能な撮像素子とを有する。
照明装置103は、第1光源103A及び第2光源103Bを有する。照明装置103は、表示装置101の表示画面101Sよりも下方に配置される。第1光源103Aと第2光源103BとはX軸方向に配置される。第1光源103Aは、第1カメラ102Aよりも−X方向に配置される。第2光源103Bは、第2カメラ102Bよりも+X方向に配置される。第1光源103A及び第2光源103Bはそれぞれ、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。なお、第1光源103A及び第2光源103Bは、第1カメラ102Aと第2カメラ102Bとの間に配置されてもよい。
照明装置103は、検出光である近赤外光を射出して、被験者の眼球111を照明する。ステレオカメラ装置102は、第1光源103Aから射出された検出光が眼球111に照射されたときに第2カメラ102Bで眼球111を撮影し、第2光源103Bから射出された検出光が眼球111に照射されたときに第1カメラ102Aで眼球111を撮影する。
第1カメラ102A及び第2カメラ102Bの少なくとも一方からフレーム同期信号が出力される。第1光源103A及び第2光源103Bは、フレーム同期信号に基づいて検出光を射出する。第1カメラ102Aは、第2光源103Bから射出された検出光が眼球111に照射されたときに、眼球111の画像データを取得する。第2カメラ102Bは、第1光源103Aから射出された検出光が眼球111に照射されたときに、眼球111の画像データを取得する。
眼球111に検出光が照射されると、その検出光の一部は瞳孔112で反射し、その瞳孔112からの光がステレオカメラ装置102に入射する。また、眼球111に検出光が照射されると、角膜の虚像である角膜反射像113が眼球111に形成され、その角膜反射像113からの光がステレオカメラ装置102に入射する。
第1カメラ102A及び第2カメラ102Bと第1光源103A及び第2光源103Bとの相対位置が適切に設定されることにより、瞳孔112からステレオカメラ装置102に入射する光の強度は低くなり、角膜反射像113からステレオカメラ装置102に入射する光の強度は高くなる。すなわち、ステレオカメラ装置102で取得される瞳孔112の画像は低輝度となり、角膜反射像113の画像は高輝度となる。ステレオカメラ装置102は、取得される画像の輝度に基づいて、瞳孔112の位置及び角膜反射像113の位置を検出することができる。
図2は、本実施形態に係る視線検出装置100のハードウェア構成の一例を示す図である。図2に示すように、視線検出装置100は、表示装置101と、ステレオカメラ装置102と、照明装置103と、コンピュータシステム20と、入出力インターフェース装置30と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70とを備える。
コンピュータシステム20と、駆動回路40と、出力装置50と、入力装置60と、音声出力装置70とは、入出力インターフェース装置30を介してデータ通信する。コンピュータシステム20は、演算処理装置20A及び記憶装置20Bを含む。演算処理装置20Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置20Bは、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。演算処理装置20Aは、記憶装置20Bに記憶されているコンピュータプログラム20Cに従って演算処理を実施する。
駆動回路40は、駆動信号を生成して、表示装置101、ステレオカメラ装置102、及び照明装置103に出力する。また、駆動回路40は、ステレオカメラ装置102で取得された眼球111の画像データを、入出力インターフェース装置30を介してコンピュータシステム20に供給する。
出力装置50は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置50は、印刷装置を含んでもよい。入力装置60は、操作されることにより入力データを生成する。入力装置60は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置60が表示装置である出力装置50の表示画面に設けられたタッチセンサを含んでもよい。
本実施形態においては、表示装置101とコンピュータシステム20とは別々の装置である。なお、表示装置101とコンピュータシステム20とが一体でもよい。例えば視線検出装置100がタブレット型パーソナルコンピュータを含む場合、そのタブレット型パーソナルコンピュータに、コンピュータシステム20、入出力インターフェース装置30、駆動回路40、及び表示装置101が搭載されてもよい。
図3は、本実施形態に係る視線検出装置100の一例を示す機能ブロック図である。図3に示すように、入出力インターフェース装置30は、入出力部302を有する。駆動回路40は、表示装置101を駆動するための駆動信号を生成して表示装置101に出力する表示装置駆動部402と、第1カメラ102Aを駆動するための駆動信号を生成して第1カメラ102Aに出力する第1カメラ入出力部404Aと、第2カメラ102Bを駆動するための駆動信号を生成して第2カメラ102Bに出力する第2カメラ入出力部404Bと、第1光源103A及び第2光源103Bを駆動するための駆動信号を生成して第1光源103A及び第2光源103Bに出力する光源駆動部406とを有する。また、第1カメラ入出力部404Aは、第1カメラ102Aで取得された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。第2カメラ入出力部404Bは、第2カメラ102Bで取得された眼球111の画像データを、入出力部302を介してコンピュータシステム20に供給する。
コンピュータシステム20は、視線検出装置100を制御する。コンピュータシステム20は、光源制御部204と、画像データ取得部206と、入力データ取得部208と、位置検出部210と、曲率中心算出部212と、注視点検出部214と、領域設定部216と、判定部218と、演算部220と、記憶部222と、評価部224と、出力制御部226とを有する。コンピュータシステム20の機能は、演算処理装置20A及び記憶装置20Bによって発揮される。
光源制御部204は、光源駆動部406を制御して、第1光源103A及び第2光源103Bの作動状態を制御する。光源制御部204は、第1光源103Aと第2光源103Bとが異なるタイミングで検出光を射出するように第1光源103A及び第2光源103Bを制御する。
画像データ取得部206は、第1カメラ102A及び第2カメラ102Bを含むステレオカメラ装置102によって取得された被験者の眼球111の画像データを、入出力部302を介してステレオカメラ装置102から取得する。
入力データ取得部208は、入力装置60が操作されることにより生成された入力データを、入出力部302を介して入力装置60から取得する。
位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、瞳孔中心の位置データを検出する。また、位置検出部210は、画像データ取得部206で取得された眼球111の画像データに基づいて、角膜反射中心の位置データを検出する。瞳孔中心は、瞳孔112の中心である。角膜反射中心は、角膜反射像113の中心である。位置検出部210は、被験者の左右それぞれの眼球111について、瞳孔中心の位置データ及び角膜反射中心の位置データを検出する。
曲率中心算出部212は、画像データ取得部206で取得された眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置データを算出する。
注視点検出部214は、画像データ取得部206で取得された眼球111の画像データに基づいて、被験者の注視点の位置データを検出する。本実施形態において、注視点の位置データとは、三次元グローバル座標系で規定される被験者の視線ベクトルと表示装置101の表示画面101Sとの交点の位置データをいう。注視点検出部214は、眼球111の画像データから取得された瞳孔中心の位置データ及び角膜曲率中心の位置データに基づいて、被験者の左右それぞれの眼球111の視線ベクトルを検出する。視線ベクトルが検出された後、注視点検出部214は、視線ベクトルと表示画面101Sとの交点を示す注視点の位置データを検出する。
領域設定部216は、表示装置101の表示画面101Sまたは画像の一部に特定領域を設定する。領域設定部216は、表示画面101Sに表示される画像毎に特定領域を設定することができる。領域設定部216は、画像内の1箇所又は複数箇所に特定領域を設定することができる。
判定部218は、特定領域が表示画面101S又は画像に設定される場合に、注視点の位置の検出結果である位置データに基づいて、注視点が特定領域に存在するか否かを判定し、判定データを出力する。判定部218は、例えば一定時間毎に注視点が特定領域に存在するか否かを判定する。一定時間としては、例えば第1カメラ102A及び第2カメラ102Bから出力されるフレーム同期信号の周期(例えば50[msec]毎)とすることができる。
演算部220は、画像の表示時間及び音声の出力時間を管理する管理タイマと、表示画面101Sに画像が表示されてからの経過時間を検出する検出タイマを有する。また、演算部220は、特定領域について注視点が存在すると判定された判定回数をカウントする。演算部220は、特定領域について判定回数をカウントするカウンタを有する。
評価部224は、被験者の評価データを求める。評価データは、注視点検出部の検出結果に基づいて被験者を評価するデータである。
記憶部222は、表示画面101Sに表示させる画像の画像データ、音声出力装置70から出力させる音声の音声データ、判定部218により出力された判定データ、評価部224から出力された評価データを記憶する。表示画面101Sに表示させる画像は、静止画及び動画を含む。記憶部222は、複数の画像データ及び複数の音声データを記憶する。記憶部222は、画像の表示開始及び表示終了のタイミングを示すデータ、音声の出力開始及び出力終了のタイミングを示すタイミングデータを記憶する。
記憶部222は、表示画面に画像を表示させる処理と、音声出力装置に音声を出力させる処理と、表示画面を観察する観察者の注視点の位置を検出する処理と、表示画面または画像の一部に特定領域を設定する処理と、特定領域が表示画面または画像に設定される場合に、注視点の位置の検出結果に基づいて注視点が特定領域に存在するか否かを判定する処理と、注視点が特定領域に存在すると判定された場合、少なくとも音声の出力状態を調整する処理とをコンピュータに実行させる画像音声出力プログラムを記憶する。
出力制御部226は、表示装置101、出力装置50、及び音声出力装置70の少なくとも一つにデータを出力する。本実施形態において、出力制御部226は、表示画面101Sに画像を表示させる。出力制御部226は、複数の画像データから所定の画像データを選択し、当該選択した画像データの画像を表示画面101Sに表示させる。また、出力制御部226は、音声出力装置70に音声を出力させる。また、出力制御部226は、複数の音声データから所定の音声データを選択し、当該選択した音声データの音声を音声出力装置70に出力させる。
また、出力制御部226は、注視点が特定領域に存在すると判定部218により判定された場合、少なくとも音声の出力状態を調整する。音声の出力状態の調整は、音声の出力を停止又は終了させること、出力停止状態から前記音声の出力を再開させること、音声の音量を調整することのいずれかを含む。また、音声の出力状態の調整は、選択する音声を切り替えることを含む。
また、出力制御部226は、注視点が特定領域に存在すると判定部218により判定された場合、表示装置101Sに表示している画像の表示終了のタイミングを制御する。当該表示終了のタイミングを制御することは、例えば予め設定された表示終了のタイミングを変更することを含む。
なお、出力制御部226は、被験者の左右それぞれの眼球111の注視点の位置を表示画面101S又は出力装置50に表示させてもよい。
次に、本実施形態に係る曲率中心算出部212の処理の概要について説明する。曲率中心算出部212は、眼球111の画像データに基づいて、眼球111の角膜曲率中心の位置データを算出する。図4及び図5は、本実施形態に係る角膜曲率中心110の位置データの算出方法を説明するための模式図である。図4は、1つの光源103Cで眼球111が照明される例を示す。図5は、第1光源103A及び第2光源103Bで眼球111が照明される例を示す。
まず、図4に示す例について説明する。光源103Cは、第1カメラ102Aと第2カメラ102Bとの間に配置される。瞳孔中心112Cは、瞳孔112の中心である。角膜反射中心113Cは、角膜反射像113の中心である。図4において、瞳孔中心112Cは、眼球111が1つの光源103Cで照明されたときの瞳孔中心を示す。角膜反射中心113Cは、眼球111が1つの光源103Cで照明されたときの角膜反射中心を示す。角膜反射中心113Cは、光源103Cと角膜曲率中心110とを結ぶ直線上に存在する。角膜反射中心113Cは、角膜表面と角膜曲率中心110との中間点に位置付けられる。角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。角膜反射中心113Cの位置データは、ステレオカメラ装置102によって検出される。角膜曲率中心110は、光源103Cと角膜反射中心113Cとを結ぶ直線上に存在する。曲率中心算出部212は、その直線上において角膜反射中心113Cからの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部222に記憶されている。
次に、図5に示す例について説明する。本実施形態においては、第1カメラ102A及び第2光源103Bと、第2カメラ102B及び第1光源103Aとは、第1カメラ102Aと第2カメラ102Bとの中間位置を通る直線に対して左右対称の位置に配置される。第1カメラ102Aと第2カメラ102Bとの中間位置に仮想光源103Vが存在するとみなすことができる。角膜反射中心121は、第2カメラ102Bで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心122は、第1カメラ102Aで眼球111を撮影した画像における角膜反射中心を示す。角膜反射中心124は、仮想光源103Vに対応する角膜反射中心を示す。角膜反射中心124の位置データは、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて算出される。ステレオカメラ装置102は、ステレオカメラ装置102に規定される三次元ローカル座標系において角膜反射中心121の位置データ及び角膜反射中心122の位置データを検出する。ステレオカメラ装置102について、事前にステレオ較正法によるカメラ較正が実施され、ステレオカメラ装置102の三次元ローカル座標系を三次元グローバル座標系に変換する変換パラメータが算出される。その変換パラメータは、記憶部222に記憶されている。曲率中心算出部212は、ステレオカメラ装置102で取得された角膜反射中心121の位置データ及び角膜反射中心122の位置データを、変換パラメータを使って、三次元グローバル座標系における位置データに変換する。曲率中心算出部212は、三次元グローバル座標系で規定される角膜反射中心121の位置データ及び角膜反射中心122の位置データに基づいて、三次元グローバル座標系における角膜反射中心124の位置データを算出する。角膜曲率中心110は、仮想光源103Vと角膜反射中心124とを結ぶ直線123上に存在する。曲率中心算出部212は、直線123上において角膜反射中心124からの距離が所定値となる位置データを、角膜曲率中心110の位置データとして算出する。所定値は、一般的な角膜の曲率半径値などから事前に定められた値であり、記憶部222に記憶されている。
このように、光源が2つある場合でも、光源が1つである場合の方法と同様の方法で、角膜曲率中心110が算出される。
角膜曲率半径109は、角膜表面と角膜曲率中心110との距離である。したがって、角膜表面の位置データ及び角膜曲率中心110の位置データが算出されることにより、角膜曲率半径109が算出される。
次に、本実施形態に係る視線検出方法の一例について説明する。図6は、本実施形態に係るキャリブレーション処理の一例を説明するための模式図である。キャリブレーション処理では、被験者に注視させるため、目標位置130が設定される。目標位置130は、三次元グローバル座標系において規定される。本実施形態において、目標位置130は、例えば表示装置101の表示画面101Sの中央位置に設定される。なお、目標位置130は、表示画面101Sの端部位置に設定されてもよい。出力制御部226は、設定された目標位置130に目標画像を表示させる。直線131は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。直線132は、目標位置130と瞳孔中心112Cとを結ぶ直線である。角膜曲率中心110は、直線131と直線132との交点である。曲率中心算出部212は、仮想光源103Vの位置データと、目標位置130の位置データと、瞳孔中心112Cの位置データと、角膜反射中心113Cの位置データとに基づいて、角膜曲率中心110の位置データを算出することができる。
次に、注視点検出処理について説明する。注視点検出処理は、キャリブレーション処理の後に実施される。注視点検出部214は、眼111の画像データに基づいて、被験者の視線ベクトル及び注視点の位置データを算出する。図7は、本実施形態に係る注視点検出処理の一例を説明するための模式図である。図7において、注視点165は、一般的な曲率半径値を用いて算出された角膜曲率中心から求めた注視点を示す。注視点166は、キャリブレーション処理で求められた距離126を用いて算出された角膜曲率中心から求めた注視点を示す。瞳孔中心112Cは、キャリブレーション処理において算出された瞳孔中心を示し、角膜反射中心113Cは、キャリブレーション処理において算出された角膜反射中心を示す。直線173は、仮想光源103Vと角膜反射中心113Cとを結ぶ直線である。角膜曲率中心110は、一般的な曲率半径値から算出した角膜曲率中心の位置である。距離126は、キャリブレーション処理により算出した瞳孔中心112Cと角膜曲率中心110との距離である。角膜曲率中心110Hは、距離126を用いて角膜曲率中心110を補正した補正後の角膜曲率中心の位置を示す。角膜曲率中心110Hは、角膜曲率中心110が直線173上に存在すること、及び瞳孔中心112Cと角膜曲率中心110との距離が距離126であることから求められる。これにより、一般的な曲率半径値を用いる場合に算出される視線177は、視線178に補正される。また、表示装置101の表示画面101S上の注視点は、注視点165から注視点166に補正される。
[画像音声出力方法]
次に、本実施形態に係る画像音声出力方法について説明する。図8は、記憶部222に記憶されるデータの一例を示す図である。図8では、画像データの例を示している。図8に示すように、記憶部222には、表示装置101の表示画面101Sに表示させる複数の画像の画像データについて、表示させる順番と、画像データを識別するための画像番号と、画像の再生時間とが対応付けられた状態で記憶されている。出力制御部226は、記憶部222に記憶されたデータに基づいて、画像1から画像6までを、対応する再生時間で表示画面101Sに順番に表示させる。
例えば、出力制御部226は、最初に画像1の表示を開始させ、表示開始から時間t1が経過した後に画像1の表示を終了させる。出力制御部226は、画像1の表示を終了させた後、画像2の表示を開始させ、表示開始から時間t2が経過した後に画像2の表示を終了させる。出力制御部226は、この処理を画像3から画像6まで繰り返し行い、画像6の表示を終了させた後、処理終了となる。
図9は、記憶部222に記憶されるデータの一例を示す図である。図9では、音声データの出力開始及び出力終了のタイミングを示すタイミングデータの例である。図9に示すように、記憶部222には、タイミングデータとして、各音声データが、出力開始設定、出力終了設定、及び出力回数と対応付けた状態で記憶されている。出力開始設定は、音声データの出力を開始させるトリガーとなる内容を示している。出力終了設定は、音声データの出力を終了させるトリガーとなる内容を示している。出力回数は、音声データを出力させる回数を示している。例えば、出力回数として、2回以上の複数回となっている場合には、当該音声データを当該複数回繰り返して出力することを示している。
例えば、出力制御部226は、画像1の表示開始から2秒が経過した場合に、音声1の出力を開始させる。また、出力制御部226は、音声1の出力を開始させてから10秒が経過した場合に、音声1の出力を終了させる。また、出力制御部226は、音声1の出力を終了させた場合、繰り返すことなく音声1の処理を終了させる。
また、出力制御部226は、画像2の表示開始と同時に音声2の出力を開始させる。また、出力制御部226は、画像2の表示が終了し、画像3の表示が開始されてから5秒が経過した場合に、音声2の出力を終了させる。また、出力制御部226は、音声2の出力を終了させた場合、繰り返すことなく音声2の処理を終了させる。
図10は、記憶部222に記憶されるデータの一例を示す図である。図10では、各音声についての音量を示す音量データを例である。図10に示すように、記憶部222には、音声データ毎に、出力開始からの経過時間と設定される音量とが対応付けられた状態で記憶されている。出力制御部226は、音声1の出力を開始させてから10秒が経過するまで音量を50とし、10秒が経過した場合に音量を20とし、20秒が経過した後に音量を50とし、30秒が経過した場合に音量を20とする。同様に、出力制御部226は、音声2の出力を開始させてから0.5秒が経過するまで音量を0とし、0.5秒が経過した場合に音量を10とし、1秒が経過した後に音量を20とし、1.5秒が経過した場合に音量を30とする。
図11から図17は、画像の表示開始及び表示終了のタイミングと、音声の出力開始及び出力終了のタイミングとを対応付けて示すタイミングチャートである。図11から図17に示す各パターンは、例えば予め設定され、記憶部222に記憶されている。なお、以下の各図では、複数の画像を順番に表示させる場合の例として、画像1から画像3を例に挙げて説明するが、これに限定されず、他の画像であってもよい。また、音声として音声1を例に挙げて説明するが、これに限定されず、他の音声であってもよい。
図11のタイミングチャートは、音声1の出力開始のタイミングを示す時刻t12を「画像1の表示開始時刻t11から所定時間経過した時点の時刻」とし、音声1の出力終了のタイミングを示す時刻t13を「音声1の最後まで出力した時点」とした場合を示している。この場合、被験者に画像に注目させる時間を設けることができる。
図12のタイミングチャートは、音声1の出力開始のタイミングを示す時刻t21を「画像1の表示開始時刻と同時」とし、音声1の出力終了のタイミングを示す時刻t22を「音声1の最後まで出力した時点」とした場合を示している。
図13のタイミングチャートは、音声1の出力開始のタイミングを示す時刻t32を「画像1の表示開始時刻t31から所定時間経過した時点の時刻」とし、音声1の出力終了のタイミングを示す時刻t33を「出力開始の時刻t32から所定時間経過した時点の時刻」とした場合を示している。この場合、音声1が途中であっても出力が終了する。
図14のタイミングチャートは、音声1が複数の画像(画像1及び画像2)の表示期間に跨って出力される場合の例である。この場合、音声1の出力開始のタイミングを示す時刻t42が「画像1の表示開始時刻t41から所定時間経過した時点の時刻」とし、音声1の出力終了のタイミングを示す時刻t43を「画像2の表示開始時刻から所定時間経過した時点の時刻」としている。この場合、音声1が途中であっても出力が終了する。
図15のタイミングチャートは、音声1の出力開始のタイミングを示す時刻t52が「画像1の表示開始時刻t51から所定時間経過した時点の時刻」とし、音声1の出力終了のタイミングを示す時刻t53を「画像2の表示開始時刻」としている。この場合、音声1が途中であっても出力が終了する。
図16のタイミングチャートは、音声1の出力開始のタイミングを示す時刻t62が「画像1の表示開始時刻t61から所定時間経過した時点の時刻」とし、音声1の出力終了のタイミングを示す時刻t63を「画像2の表示終了時刻(又は、画像3の表示開始時刻)」としている。この場合、音声1が途中であっても出力が終了する。
図17のタイミングチャートは、音声1を複数回繰り返して出力する場合の例を示す。この場合、音声1の出力開始のタイミングを示す時刻t72が「画像1の表示開始時刻t71から所定時間経過した時点の時刻」とし、音声1の出力終了のタイミングを示す時刻t73を「画像1の表示終了時刻」としている。この場合、音声1が途中であっても出力が終了する。
なお、上記のように説明した画像を表示させるタイミングと音声を表示させるタイミングとの関係は一例である。したがって、上記パターンとは異なる他のパターンに設定することも可能である。
図18から図19は、音声の出力開始及び出力終了のタイミングと音量とを対応付けて示すタイミングチャートである。図18及び図19に示す各パターンは、例えば予め設定され、記憶部222に記憶されている。
図18のタイミングチャートは、音声の出力開始時刻t81における音量が0であり、時刻t82における音量がV85である。時刻t81から時刻t82の間は、一定の増加量で音量を増加させる。時刻t82から時刻t83の間は、音量をV85の状態で維持する。時刻t83から時刻t84の間は、音量をV85から0まで一定の減少量で減少させる。
図19のタイミングチャートは、音声1の出力開始時刻t91における音量がV95であり、時刻t92において音量がV95よりも低いV96に減少し、この音量が時刻t93まで維持される。時刻t93以降は、再び音量がV95となる。また、音声1の音量が減少する時刻t92から時刻t93の間は、音声2がV95よりも大きい音量であるV94で出力される。このように、異なる複数の音声を同時に出力させることができる。
なお、上記のように説明した音量を変更させるタイミングについては一例である。したがって、上記パターンとは異なる他のパターンに設定することも可能である。
図20は、表示装置101の表示画面101Sに表示される画像の一例を示す図である。図20に示すように、表示画面101Sまたは当該画像の一部には、領域設定部216により、特定領域Aが設定される。領域設定部216は、表示画面101Sまたは画像内の1箇所又は複数箇所に特定領域Aを設定することができる。本実施形態では、例えば2箇所に特定領域Aが設定されているが、これに限定されない。以下、2つの特定領域Aを区別する場合、特定領域A1、A2と表記する場合がある。各特定領域Aは、例えば円であるが、これに限定されず、矩形であってもよいし、他の形状であってもよいし、異なる特定領域Aにおいて形状及び寸法が異なってもよい。領域設定部216は、複数の特定領域Aを設定する場合、各特定領域Aを、例えば表示画面101Sに互いに離れた状態で設定する。
また、出力制御部226は、表示画面101Sに表示される画像において、特定領域Aに対応する位置及び範囲にそれぞれ対象物Mを表示させる。本実施形態では、複数の対象物Mとして、例えば2つの対象物Mを表示する。以下、2つの対象物Mを表記する際、特定領域A1に表示される対象物Mを対象物M1と表記し、特定領域A2に表示される対象物Mを対象物M2と表記する場合がある。対象物Mの内部には、例えば模様等が形成されてもよい。対象物Mの形状は、特定領域Aの形状と一致してもよいし、異なってもよい。
また、図20では、出力制御部226により表示画面101Sにおいて、例えば計測後に結果表示される注視点の一例を示している。出力制御部226は、例えば被験者の注視点を検出している間は、注視点を表示させないようにする。注視点の位置データの検出は、例えば第1カメラ102A及び第2カメラ102Bから出力されるフレーム同期信号の周期で(例えば50[msec]毎に)実施される。第1カメラ102A及び第2カメラ102Bは、同期して撮像する。
判定部218は、特定領域Aが表示画面101Sに設定される場合に、注視点の位置の検出結果である位置データに基づいて、注視点が特定領域Aに存在するか否かを判定し、判定データを出力する。判定部218は、例えば一定時間毎に注視点が特定領域に存在するか否かを判定する。一定時間としては、例えば第1カメラ102A及び第2カメラ102Bから出力されるフレーム同期信号の周期(例えば50[msec]毎)とすることができる。
出力制御部226は、注視点が特定領域Aに存在すると判定部218により判定された場合、少なくとも音声の出力状態を調整する。音声の出力状態の調整は、音声の出力を停止又は終了させること、出力停止状態から前記音声の出力を再開させること、音声の音量を調整することのいずれかを含む。また、音声の出力状態の調整は、選択する音声を切り替えることを含む。
また、出力制御部226は、注視点が特定領域Aに存在すると判定部218により判定された場合、表示装置101Sに表示している画像の表示終了のタイミングを制御する。当該表示終了のタイミングを制御することは、例えば予め設定された表示終了のタイミングを変更することを含む。
出力制御部226は、例えば、複数の特定領域Aが設定される場合、被験者の注視点がどの特定領域Aに存在するかに応じて、音声の出力状態の調整及び画像の表示終了のタイミングの制御の内容を異なるようにすることができる。例えば、被験者の注視点が特定領域A1に存在する場合、音声の出力状態の調整と、画像の表示終了のタイミングの制御とを両方を行わせることができる。また、被験者の注視点が特定領域A2に存在する場合、音声の出力状態の調整のみを行わせることができる。
また、別の設定例としては、例えば、被験者の注視点が特定領域A1に存在する場合、音声の出力状態の調整として、音声の出力を終了させることができる。また、被験者の注視点が特定領域A2に存在する場合、音声の出力状態の調整として、出力する音声を他の音声に切り替えることができる。
なお、上記した音声の出力状態の調整内容、また、音声の出力状態の調整と画像の表示終了のタイミングの制御との組み合わせ内容については、一例であり、これに限定されるものではない。どの特定領域Aに注視点が存在するかに応じて、音声の出力状態の調整内容が異なるように設定することができ、また、音声の出力状態の調整と画像の表示終了のタイミングの制御との組み合わせ内容が異なるように設定することができる。
次に、本実施形態に係る視線検出装置100の動作の一例について図21を参照しながら説明する。図21は、視線検出装置100の動作を示すフローチャートである。まず、出力制御部226は、記憶部222から図8から図19に示す各データ、つまり画像及び音声の設定データ、音量制御の設定データ、タイミングデータ等を読み込む(ステップS101)。
次に、演算部220は、画像の表示時間及び音声の出力時間を管理するための管理タイマをリセットする(ステップS102)。次に、注視点検出部214は、表示装置101に表示された画像を被験者に見せた状態で、規定のサンプリング周期(例えば50[msec])毎に、表示装置101の表示画面101Sにおける被験者の注視点の位置データを検出する注視点検出処理を開始する(ステップS103)。
位置データが検出された場合(ステップS104のNo)、表示画面101Sに画像を表示させると共に、音声出力装置70に音声を出力させて、所定の視線検出処理を行わせ、視線検出結果に応じて画像音声出力制御処理を行う(ステップS105)。(図21のステップS105を「視線検出処理および画像音声出力制御処理」と変更してください)ステップS105の視線検出処理および画像音声出力制御処理については後述する。ステップS105の処理が終了した場合、又は、ステップS104において位置データが検出されない場合(ステップS104のYes)、管理タイマが所定の時間に到達したか否かを判定する(ステップS106)。所定の時間に到達していない場合(ステップS106のNo)、ステップS103以降の処理を繰り返し行う。所定の時間に到達した場合(ステップS106のYes)、視線検出処理により得られた視点データを評価し(ステップS107)、評価値の出力を行う(ステップS108)。
次に、ステップS105の視線検出処理および画像音声出力処理について説明する。ステップS105の視線検出処理及び画像音声出力制御処理において、注視点検出部214は、視線検出処理を行い、出力制御部226は、本実施形態に係る画像音声出力制御処理を行う。図22は、本実施形態に係る視線検出処理および画像音声出力制御処理の一例を示すフローチャートである。出力制御部226は、視線検出用の画像を表示画面101Sに表示させる(ステップS201)。注視点検出部214は、表示画面101Sに画像を表示させた状態で、被験者の注視点の位置データを検出する(ステップS202)。
判定部218は、注視点が特定領域Aに存在するか否かを判定する(ステップS203)。注視点が特定領域Aに存在すると判定された場合、出力制御部226は、音声出力装置70における音声の出力状態を変更するか否かの判断を行う(ステップS204)。音声の出力状態を変更すると判断した場合(ステップS204のYes)、出力制御部226は、音声出力装置70における音声の出力状態を変更する(ステップS205)。また、出力制御部226は、音声の出力状態を変更した場合、画像の表示状態を変更するか否かの判断を行う(ステップS206)。出力制御部226は、画像の表示状態を変更すると判断した場合(ステップS206のYes)、画像の表示状態を変更する(ステップS207)。
ステップS207の処理を行った後、また、上記ステップS203のNo、ステップS204のNo、及びステップS206のNoの処理を行った場合、出力制御部226は、画像の表示が終了したか否かの判断を行う(ステップS208)。出力制御部226は、画像の表示が終了したと判断した場合(ステップS208のYes)、処理を終了する。また、出力制御部226は、画像の表示が終了していないと判断した場合(ステップS208のNo)、ステップS202以降の処理を繰り返し行わせる。
以下、ステップS105の視線検出処理および画像音声出力制御処理において、本実施形態に係る画像音声出力制御処理により音声の出力状態、画像の表示状態を変更する場合を具体的に説明する。図23は、画像音声出力制御処理の一例を示すフローチャートである。図23では、被験者の注視点の位置データに応じて音声の出力を終了する場合の例を示す。
まず、出力制御部226は、視線検出用の画像を表示装置101Sに表示させる(ステップS301)。ステップS301において、出力制御部226は、記憶部222に記憶された画像1〜画像6のうち所定の画像を表示させる。領域設定部216は、表示画面101S、または画像1〜画像6のうち、所定の画像の一部に特定領域Aを設定する。演算部220は、検出タイマにより、画像1が表示されてからの経過時間を検出する。
次に、出力制御部226は、音声出力装置70から出力すべき音声があるか否かを判断する(ステップS302)。ステップS302において、出力制御部226は、記憶部222に記憶された音声の中から、例えば「画像1」と対応付けて記憶される音声が存在するか否かを検出する。
出力制御部226は、出力すべき音声が存在すると判断した場合、当該音声の出力開始時刻に到達したか否かを判断する(ステップS303)。出力制御部226は、音声の出力開始時刻に到達していない場合(ステップS303のNo)、出力開始時刻に到達するまで、ステップS303の判断を繰り返し行う。出力制御部226は、音声の出力開始時刻に到達したと判断した場合(ステップS303のYes)、音声の出力を開始させる(ステップS304)。
ステップS302のNoの処理又はステップS304の処理を行った後、注視点検出部214は、被験者の注視点の位置データを取得する(ステップS305)。ステップS305において、中心点検出部214は、規定のサンプリング周期(例えば50[msec])毎に、表示装置101の表示画面101Sにおける被験者の注視点の位置データを検出する。
判定部218は、表示画面101Sに表示される画像のうち、被験者の注視点が特定領域Aに存在するか否かの判定を行う(ステップS306)。ステップS306において、判定部218は、例えば一定時間毎に注視点が特定領域Aに存在するか否かを判定する。一定時間としては、例えば第1カメラ102A及び第2カメラ102Bから出力されるフレーム同期信号の周期(例えば50[msec]毎)とすることができる。
注視点が特定領域Aに存在すると判定された場合(ステップS306のYes)、出力制御部226は、音声の出力状態を変更する。この場合、出力制御部226は、例えば音声の出力を終了させる(ステップS308)。ステップS308において、出力制御部226は、例えば記憶部222に記憶されたタイミングデータには存在しないタイミングであっても、判定部218の判定結果をトリガーとして、音声の出力を終了させる。なお、音声の出力を停止(一時停止)させる場合についても、同様に行うことができる。
また、上記のステップS306において、被験者の注視点が特定領域Aに存在しないと判定された場合、出力制御部226は、終了させるべき音声が存在するか否かを判断する(ステップS307)。ステップS307において、出力制御部226は、ステップS307の時点で音声が出力されているか否かを判断し、音声が出力されている場合には、終了させるべき音声が存在すると判断する。また、出力制御部226は、ステップS307の時点で音声が出力されていない場合、出力させるべき音声が存在しないと判断する。
ステップS307において、終了させるべき音声が存在すると判定した場合、出力制御部226は、音声の出力終了時刻になったか否かを判断する(ステップS309)。出力終了時刻は、例えば記憶部222に記憶されるタイミングチャート(図11〜図17参照)において音声を終了させる時刻である。出力制御部226は、音声の出力終了時刻に到達していないと判断した場合(ステップS309のNo)、出力終了時刻に到達するまで、ステップS309の判断を繰り返し行う。出力制御部226は、音声の出力終了時刻に到達したと判断した場合(ステップS309のYes)、音声の出力を終了させる(ステップS310)。
ステップS308の処理、ステップS307のNoの処理、又はステップS310の処理を行った後、出力制御部226は、表示画面101Sに表示される画像の表示終了時刻になったか否かを判断する(ステップS311)。ステップS311において、出力制御部226は、例えば管理タイマに基づいて判断を行う。画像の表示終了時刻になったと判断した場合(ステップS311のYes)、出力制御部226は、画像の表示を終了させる(ステップS312)。また、画像の表示終了時刻になっていないと判断した場合(ステップS311のNo)、出力制御部226は、ステップS302以降の動作を繰り返し行わせる。
出力制御部226は、画像の表示を終了させた場合、全ての画像を表示させたか否かの判断を行う(ステップS313)。出力制御部226は、全ての画像を表示させていないと判断した場合(ステップS313のNo)、ステップS301以降の動作を繰り返し行わせる。また、出力制御部226は、全ての画像を表示させたと判断した場合(ステップS313のYes)、画像音声出力制御処理を終了する。
図24は、画像音声出力制御処理の他の例を示すフローチャートである。図24では、被験者の注視点の位置データに応じて出力する音声を切り替える場合の例を示す。図24に示すように、被験者の注視点の位置データに応じて出力する音声を切り替える場合には、図23に示すステップS308の処理が異なるのみであり、ステップS301〜ステップS307、ステップS309〜ステップS313の処理については、同様である。
図24に示す例では、ステップS306において、注視点が特定領域Aに存在すると判定部218により判定された場合、出力制御部226は、ステップS308に代えて、出力する音声を切り替える処理を行う(ステップS314)。ステップS314において、出力制御部226は、現在出力されている音声の出力を停止させ、記憶部222に記憶された複数の音声から現在出力されている音声に代えて別の音声を選択する。そして、出力制御部226は、選択した音声を音声出力装置70に出力させる。ステップS314を行った後、出力制御部226は、ステップS311以降の処理を行わせる。なお、注視点が特定領域Aに存在すると判定部218により判定された場合に音声の音量を変更する処理を行う場合には、出力制御部226は、図24に示すフローチャートにおいて、ステップS308に代えて、音量を変更する処理を行うようにすればよい。
なお、複数の特定領域AX(AXはA1,A2…)にそれぞれひとつずつ対応する複数の音声を割り当て、注視点が特定領域AXに存在すると判定部218により判定された場合、出力制御部226は、割り当てられた複数の音声の中から特定領域AXに対応する音声を選択して音声出力装置70に出力させてもよい。
また、特定領域Aに対応する音声は一つに限らず、複数の音声を割り当て、注視点が特定領域Aに存在すると判定部218により判定された場合、出力制御部226は、割り当てられた複数の音声の中からランダムに音声を選択して音声出力装置70に出力させてもよい。また、複数の音声に所定の順序を設定し、注視点が特定領域A1に存在すると判定部218により判定された場合、所定の順序で再生中の音声の次の音声を選択し、注視点が特定領域A2に存在すると判定部218により判定された場合、所定の順序で再生中の音声のセンタ王又は前の音声を選択して、音声出力装置70に出力させてもよい。
図25は、画像音声出力制御処理の他の例を示すフローチャートである。図25では、被験者の注視点の位置データに応じて音声の出力を開始する場合の例を示す。図25に示す例において、ステップS401、ステップS405〜ステップS407、ステップS409〜ステップS413の処理については、図23におけるステップS301、ステップS305〜ステップS307、ステップS309〜ステップS313の処理と同様である。また、図25に示す例においては、図23におけるステップS302〜ステップS304に対応する処理が行われず、ステップS401を行った後にステップS405の処理を行う。
図25に示す例において、注視点が特定領域Aに存在すると判定部218により判定された場合、出力制御部226は、音声の出力が行われているか否かの判断を行う(ステップS414)。出力制御部226は、音声の出力が行われていないと判断した場合(ステップS414のNo)、音声の出力を開始させる処理を行い(ステップS415)、その後ステップS411に移行する。また、出力制御部226は、音声の出力が行われていると判断した場合(ステップS414のYes)、ステップS415の処理を行わずに、ステップS411に移行する。なお、音声の出力が停止(一時停止)されている場合において、出力を再開する場合についても、同様に行うことができる。この場合、ステップS414に対応する処理として、音声の出力が停止されているか否かの判断を行う。また、ステップS415に対応する処理として、音声の出力を再開させる処理を行う。
図26は、画像音声出力制御処理の他の例を示すフローチャートである。図26では、被験者の注視点の位置データに応じて音声の出力を終了した後、画像の表示終了のタイミングを制御する場合の例を示す。図26に示す例において、ステップS501〜ステップS513の処理については、図23におけるステップS301〜ステップS313の処理と同様である。
図26に示す例において、注視点が特定領域Aに存在すると判定部218により判定された場合、出力制御部226は、図23におけるステップS308と同様に、音声の出力を終了させる(ステップS508)。その後、出力制御部226は、画像の表示を終了するか否かの判断を行う(ステップS514)。ステップS514において、出力制御部226は、画像の表示を終了すると判断した場合(ステップS514のYes)、ステップS512に移行して画像の表示を終了させる。この場合、予め設定された表示終了のタイミングが到達していなくても、画像の表示が終了する。したがって、予め設定された表示終了のタイミングを変更することとなる。また、ステップS514において、出力制御部226は、画像の表示を終了しないと判断した場合、ステップS511以降の処理を行わせる。
なお、図26に示す例において、注視点が特定領域Aに存在すると判定部218により判定された場合、出力制御部226は、ステップS508を行うことなく、ステップS514の処理を行ってもよい。この場合、音声を出力させたままの状態で、画像の表示を終了させることができる。
以上のように、本実施形態に係る視線検出装置100は、画像を表示する表示画面101Sと、音声を出力する音声出力装置70と、表示画面101Sを観察する観察者の注視点の位置を検出する注視点検出部214と、表示画面101S又は画像の一部に特定領域Aを設定する領域設定部216と、特定領域Aが表示画面101S又は画像に設定される場合に、注視点Pの位置の検出結果に基づいて注視点Pが特定領域Aに存在するか否かを判定する判定部218と、表示画面101Sに画像を表示させ、音声出力装置70に音声を出力させると共に、注視点Pが特定領域Aに存在すると判定された場合、少なくとも音声の出力状態を調整する出力制御部226とを備える。
この構成によれば、注視点Pが特定領域Aに存在すると判定された場合、少なくとも音声の出力状態を調整するため、音声の出力状態を変更するタイミングを効率的に調整することが可能となる。
本実施形態に係る視線検出装置100において、音声の出力状態の調整は、音声の出力を停止又は終了させること、出力停止状態から音声の出力を再開させること、音声の音量を調整することのいずれかを含む。また、出力制御部226は、複数の音声の中から選択して音声出力装置70に出力させ、音声の出力状態の調整は、選択する音声を切り替えることを含む。これにより、音声の出力状態の調整を幅広く行うことができる。
本実施形態に係る視線検出装置100において、出力制御部226は、注視点が特定領域Aに存在すると判定された場合、画像の表示終了のタイミングを制御する。これにより、音声の出力状態の変更に応じて、画像の表示終了のタイミングを制御することができる。
本実施形態に係る視線検出装置100において、表示終了のタイミングを制御することは、予め設定された表示終了のタイミングを変更することを含む。これにより、音声の出力終了のタイミングに合わせて、画像の表示終了のタイミングを柔軟に調整することができる。
(電子端末)
図27は、本実施形態に係る画像音声出力装置の他の例である電子端末500を示す図である。図27に示すように、電子端末500は、例えばタブレット型コンピュータ、スマートフォン等の携帯型の電子機器を含む。電子端末500は、筐体501と、表示画面502と、撮影装置503と、音声出力装置504と、制御装置505とを有する。
筐体501は、表示画面502、撮影装置503、音声出力装置504及び制御装置505を保持する。表示画面502は、画像を表示する。撮影装置503は、表示画面を観察する観察者の顔を撮影可能である。このため、撮影装置503は、表示画面502を観察する観察者の眼球の画像データを取得可能である。音声出力装置504は、音声を出力する。
制御装置505は、上記の表示画面502、撮影装置503及び音声出力装置504の動作を制御する。制御装置505は、CPUのようなマイクロプロセッサと、ROM及びRAMのようなメモリ又はストレージとを含む。
制御装置505は、撮影装置503で撮影された観察者の眼球の画像データに基づいて観察者の注視点の位置を検出する注視点検出部と、表示画面502に表示される画像の一部に特定領域502a、502bを設定する領域設定部と、特定領域502a、502bが設定された画像が表示画面502に表示される場合に、注視点の位置の検出結果に基づいて注視点Pが特定領域502a、502bに存在するか否かを判定する判定部と、表示画面502に画像を表示させ音声出力装置504に音声を出力させると共に、注視点Pが特定領域502a、502bに存在すると判定された場合、少なくとも音声の出力状態を調整する出力制御部とを有する。
制御装置505は、記憶部を有する。記憶部は、例えば表示画面502に表示させる画像のデータと、音声出力装置504に出力させる音声のデータとを記憶する。また、記憶部は、表示画面に画像を表示させる処理と、音声出力装置に音声を出力させる処理と、表示画面を観察する観察者の注視点の位置を検出する処理と、表示画面に表示される画像の一部に特定領域を設定する処理と、特定領域が設定された画像が表示画面に表示される場合に、注視点の位置の検出結果に基づいて注視点が特定領域に存在するか否かを判定する処理と、注視点が特定領域に存在すると判定された場合、少なくとも音声の出力状態を調整する処理とをコンピュータに実行させる画像音声出力プログラムを記憶する。
このような電子端末500において、制御装置505は、表示画面502に画像を表示させる。また、制御装置505は、表示画面502に表示される画像の一部に、特定領域502a、502bを設定する。このとき、特定領域502a、502bの外観を、後述する音声の出力状態の変更内容に対応した外観に設定することができる。例えば、制御装置505は、音声を再生させるマークを特定領域502aに表示することができる。また、制御装置505は、音声の再生を停止させるマークを特定領域502bに表示することができる。
制御装置505は、表示画面502の画像を観察する観察者を撮影装置503により撮影し、観察者の眼球の画像データを取得する。そして、制御装置505は、取得した画像データに基づいて観察者の注視点の位置を検出する。
制御装置505は、検出した注視点が特定領域502a、502bに存在するか否かの判定を行う。制御装置505は、観察者の注視点Pが例えば特定領域502aに存在すると判定した場合、音声の出力状態を調整する処理として、音声の出力を開始させる処理、又は出力停止状態である音声の出力を再開させる処理を行う。また、制御装置505は、観察者の注視点Pが例えば特定領域502aに存在すると判定した場合、音声の出力状態を調整する処理として、音声の出力を停止させる処理を行う。なお、音声の出力状態の調整内容については、上記に限定されない。音声の出力状態の調整は、例えば音声の出力を停止又は終了させること、出力停止状態から音声の出力を再開させること、音声の音量を調整することのいずれかを含む。また、制御装置505が複数の音声の中から選択して音声出力装置504に出力させる場合、音声の出力状態の調整は、選択する音声を切り替えることを含む。
なお、制御装置505は、注視点が特定領域に存在すると判定された場合、画像の表示終了のタイミングを制御してもよい。
このように、視線検出装置100に限られず、画像及び音声を出力する画像音声出力装置である電子端末500においても、注視点Pが特定領域502a、502bに存在すると判定された場合、少なくとも音声の出力状態を調整するため、音声の出力状態を変更するタイミングを効率的に調整することが可能となる。
本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。
本実施の形態においては、画像と音声が分離されているものとして説明したが、画像と音声が多重化されていてもよい。例えば、画像と音声が多重化されている場合、図22のステップS204にステップS206が統合され、ステップS206にS208が統合される。ステップS204で音声の出力状態を変更するかどうかを判定し、ステップS206で画像および音声の出力状態を変更する。
A,A1,A2…特定領域、M,M1,M2…対象物、P,165,166…注視点、20…コンピュータシステム,制御部、20A…演算処理装置、20B…記憶装置、20C…コンピュータプログラム、30…入出力インターフェース装置、40…駆動回路、50…出力装置、60…入力装置、70…音声出力装置、100…視線検出装置、101,101S…表示装置、101S…表示画面、102…ステレオカメラ装置、102A…第1カメラ、102B…第2カメラ、103…照明装置、103A…第1光源、103B…第2光源、103C…光源、103V…仮想光源、109…角膜曲率半径、110,110H…角膜曲率中心、111…眼球,眼、112…瞳孔、112C…瞳孔中心、113…角膜反射像、113C,121,122,124…角膜反射中心、123,131,132,173…直線、126…距離、130…目標位置、177,178…視線、202…表示制御部、204…光源制御部、206…画像データ取得部、208…入力データ取得部、210…位置検出部、212…曲率中心算出部、214…注視点検出部、216…領域設定部、218…判定部、220…演算部、222…記憶部、224…評価部、226…出力制御部、302…入出力部、402…表示装置駆動部、404A…第1カメラ入出力部、404B…第2カメラ入出力部、406…光源駆動部、500…電子端末、501…筐体、502…表示画面、503…撮影装置、504…音声出力装置、505…制御装置。

Claims (6)

  1. 画像を表示する表示画面と、
    音声を出力する音声出力装置と、
    前記表示画面を観察する観察者の注視点の位置を検出する注視点検出部と、
    前記表示画面または前記画像の一部に特定領域を設定する領域設定部と、
    前記特定領域が前記表示画面または前記画像に設定される場合に、前記注視点の位置の検出結果に基づいて前記注視点が前記特定領域に存在するか否かを判定する判定部と、
    前記表示画面に前記画像を表示させ前記音声出力装置に前記音声を出力させると共に、前記注視点が前記特定領域に存在すると判定された場合、少なくとも前記音声の出力状態を調整する出力制御部と
    を備える画像音声出力装置。
  2. 前記音声の出力状態の調整は、前記音声の出力を停止又は終了させること、出力停止状態から前記音声の出力を再開させること、前記音声の音量を調整することのいずれかを含む
    請求項1に記載の画像音声出力装置。
  3. 前記出力制御部は、複数の前記音声の中から選択して前記音声出力装置に出力させ、
    前記音声の出力状態の調整は、選択する前記音声を切り替えることを含む
    請求項1又は請求項2に記載の画像音声出力装置。
  4. 前記出力制御部は、前記注視点が前記特定領域に存在すると判定された場合、前記画像の表示終了のタイミングを制御する
    請求項1から請求項3のいずれか一項に記載の画像音声出力装置。
  5. 表示画面に画像を表示させることと、
    音声出力装置に音声を出力させることと、
    前記表示画面を観察する観察者の注視点の位置を検出することと、
    前記表示画面または前記画像の一部に特定領域を設定することと、
    前記特定領域が前記表示画面または前記画像に設定される場合に、前記注視点の位置の検出結果に基づいて前記注視点が前記特定領域に存在するか否かを判定することと、
    前記注視点が前記特定領域に存在すると判定された場合、少なくとも前記音声の出力状態を調整することと
    を含む画像音声出力方法。
  6. 表示画面に画像を表示させる処理と、
    音声出力装置に音声を出力させる処理と、
    前記表示画面を観察する観察者の注視点の位置を検出する処理と、
    前記表示画面または前記画像の一部に特定領域を設定する処理と、
    前記特定領域が前記表示画面または前記画像に設定される場合に、前記注視点の位置の検出結果に基づいて前記注視点が前記特定領域に存在するか否かを判定する処理と、
    前記注視点が前記特定領域に存在すると判定された場合、少なくとも前記音声の出力状態を調整する処理と
    をコンピュータに実行させる画像音声出力プログラム。
JP2017169667A 2017-09-04 2017-09-04 画像音声出力装置、画像音声出力方法、及び画像音声出力プログラム Active JP6962079B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017169667A JP6962079B2 (ja) 2017-09-04 2017-09-04 画像音声出力装置、画像音声出力方法、及び画像音声出力プログラム
US15/955,941 US10691203B2 (en) 2017-09-04 2018-04-18 Image sound output device, image sound output method and image sound output program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017169667A JP6962079B2 (ja) 2017-09-04 2017-09-04 画像音声出力装置、画像音声出力方法、及び画像音声出力プログラム

Publications (2)

Publication Number Publication Date
JP2019042221A true JP2019042221A (ja) 2019-03-22
JP6962079B2 JP6962079B2 (ja) 2021-11-05

Family

ID=65518037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017169667A Active JP6962079B2 (ja) 2017-09-04 2017-09-04 画像音声出力装置、画像音声出力方法、及び画像音声出力プログラム

Country Status (2)

Country Link
US (1) US10691203B2 (ja)
JP (1) JP6962079B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10401954B2 (en) * 2017-04-17 2019-09-03 Intel Corporation Sensory enhanced augmented reality and virtual reality device
JP7215246B2 (ja) * 2019-03-08 2023-01-31 株式会社Jvcケンウッド 表示装置、表示方法、及び表示プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250699A (ja) * 1999-03-04 2000-09-14 Shimadzu Corp 視線入力装置
JP2000278626A (ja) * 1999-03-29 2000-10-06 Sanyo Electric Co Ltd マルチ画面音声出力制御装置
JP2004301869A (ja) * 2003-03-28 2004-10-28 Takuya Shinkawa 音声出力装置およびポインティングデバイス
US20140176813A1 (en) * 2012-12-21 2014-06-26 United Video Properties, Inc. Systems and methods for automatically adjusting audio based on gaze point
JP2015151059A (ja) * 2014-02-18 2015-08-24 本田技研工業株式会社 車載機器操作装置
JP2015153302A (ja) * 2014-02-18 2015-08-24 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
JP2017103801A (ja) * 2017-01-19 2017-06-08 株式会社Jvcケンウッド 通信端末、通信端末の制御方法、通信端末の制御プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05113864A (ja) * 1991-10-22 1993-05-07 Canon Inc マルチウインドウ動画表示方法及び装置
US20040001101A1 (en) * 2002-06-27 2004-01-01 Koninklijke Philips Electronics N.V. Active window switcher
US7757174B2 (en) * 2004-11-30 2010-07-13 Panasonic Corporation Program list reproduction method and display method
US7429108B2 (en) * 2005-11-05 2008-09-30 Outland Research, Llc Gaze-responsive interface to enhance on-screen user reading tasks
US9507418B2 (en) * 2010-01-21 2016-11-29 Tobii Ab Eye tracker based contextual action
JP2014077814A (ja) * 2011-02-14 2014-05-01 Panasonic Corp 表示制御装置および表示制御方法
US9047472B2 (en) * 2013-01-14 2015-06-02 International Business Machines Corporation Managing sensitive content
US9563283B2 (en) * 2013-08-06 2017-02-07 Inuitive Ltd. Device having gaze detection capabilities and a method for using same
US9836192B2 (en) * 2014-02-25 2017-12-05 Evan Glenn Katsuranis Identifying and displaying overlay markers for voice command user interface
US9325938B2 (en) * 2014-03-13 2016-04-26 Google Inc. Video chat picture-in-picture
US10303341B2 (en) * 2016-05-25 2019-05-28 International Business Machines Corporation Modifying screen content based on gaze tracking and user distance from the screen
JP6237836B2 (ja) 2016-07-04 2017-11-29 株式会社Jvcケンウッド 注視点検出装置および注視点検出方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000250699A (ja) * 1999-03-04 2000-09-14 Shimadzu Corp 視線入力装置
JP2000278626A (ja) * 1999-03-29 2000-10-06 Sanyo Electric Co Ltd マルチ画面音声出力制御装置
JP2004301869A (ja) * 2003-03-28 2004-10-28 Takuya Shinkawa 音声出力装置およびポインティングデバイス
US20140176813A1 (en) * 2012-12-21 2014-06-26 United Video Properties, Inc. Systems and methods for automatically adjusting audio based on gaze point
JP2015151059A (ja) * 2014-02-18 2015-08-24 本田技研工業株式会社 車載機器操作装置
JP2015153302A (ja) * 2014-02-18 2015-08-24 ソニー株式会社 表示制御装置、表示制御方法および記録媒体
JP2017103801A (ja) * 2017-01-19 2017-06-08 株式会社Jvcケンウッド 通信端末、通信端末の制御方法、通信端末の制御プログラム

Also Published As

Publication number Publication date
JP6962079B2 (ja) 2021-11-05
US20190073024A1 (en) 2019-03-07
US10691203B2 (en) 2020-06-23

Similar Documents

Publication Publication Date Title
JP6737234B2 (ja) 評価装置、評価方法、及び評価プログラム
CN108027977B (zh) 视线检测装置以及视线检测方法
CN109425994A (zh) 深度相机组件、头戴式显示器和用于深度感测的方法
JP6971686B2 (ja) 視線検出装置及び視線検出方法
EP3011894B1 (en) Eye gaze detection apparatus and eye gaze detection method
JP6848526B2 (ja) 評価装置、評価方法、及び評価プログラム
WO2017094344A1 (ja) 視線検出装置及び視線検出方法
JP6324119B2 (ja) 回転角度算出方法、注視点検出方法、情報入力方法、回転角度算出装置、注視点検出装置、情報入力装置、回転角度算出プログラム、注視点検出プログラム及び情報入力プログラム
JP6962079B2 (ja) 画像音声出力装置、画像音声出力方法、及び画像音声出力プログラム
JP6747172B2 (ja) 診断支援装置、診断支援方法、及びコンピュータプログラム
JP2020038734A (ja) 視線検出装置及び視線検出方法
JP2019046438A (ja) 評価装置、及び評価方法
US11266307B2 (en) Evaluation device, evaluation method, and non-transitory storage medium
JP2015144635A (ja) 検出装置および検出方法
JP6370168B2 (ja) 照明撮像装置及びそれを備えた視線検出装置
JP7063045B2 (ja) 視線検出装置、視線検出方法及び視線検出プログラム
WO2020026574A1 (ja) 視線検出装置、視線検出方法及び視線検出プログラム
JP6327171B2 (ja) 注視点検出装置および注視点検出方法
JP2018011681A (ja) 視線検出装置、視線検出プログラムおよび視線検出方法
WO2018173359A1 (ja) 視線検出装置、視線検出方法及び視線検出プログラム
JP6883242B2 (ja) 評価装置、評価方法、及び評価プログラム
WO2020044691A1 (ja) 評価装置、評価方法、及び評価プログラム
JP7074221B2 (ja) 評価装置、評価方法、及び評価プログラム
JP2019024571A (ja) 視線検出装置及び視線検出方法
WO2023008023A1 (ja) 視線検出装置、視線検出方法及び視線検出プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200330

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210927

R150 Certificate of patent or registration of utility model

Ref document number: 6962079

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150