WO2014083738A1 - テキスト読み上げ装置およびその方法 - Google Patents

テキスト読み上げ装置およびその方法 Download PDF

Info

Publication number
WO2014083738A1
WO2014083738A1 PCT/JP2013/005866 JP2013005866W WO2014083738A1 WO 2014083738 A1 WO2014083738 A1 WO 2014083738A1 JP 2013005866 W JP2013005866 W JP 2013005866W WO 2014083738 A1 WO2014083738 A1 WO 2014083738A1
Authority
WO
WIPO (PCT)
Prior art keywords
driver
text
display device
reading
line
Prior art date
Application number
PCT/JP2013/005866
Other languages
English (en)
French (fr)
Inventor
鈴木 健介
雄司 新貝
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to US14/647,417 priority Critical patent/US9886237B2/en
Priority to DE112013006353.0T priority patent/DE112013006353T5/de
Publication of WO2014083738A1 publication Critical patent/WO2014083738A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/02Arrangements for holding or mounting articles, not otherwise provided for for radio sets, television sets, telephones, or the like; Arrangement of controls thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/148Instrument input by voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/149Instrument input by detecting viewing direction not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/161Explanation of functions, e.g. instructions
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination

Definitions

  • the text-to-speech method detects the driver's line-of-sight direction of the vehicle, and the driver's view when the driver is looking at a display surface of a display device arranged in the passenger compartment.
  • the line-of-sight direction is stored, and when the detected line-of-sight direction and the stored line-of-sight direction coincide with each other for a predetermined gaze determination time, the driver is gazing at the display surface of the display device
  • the text information is displayed on the display device, the vehicle starts to move, and it is determined that the driver is gazing at the display surface of the display device, a reading start command is given and a reading start command is issued. Is provided, the text information to be displayed on the display device is converted into an audio signal and output.
  • the text-to-speech device 1 shown in FIG. 1 reads out the text information instead and reads the voice information when the driver cannot start to read the text information displayed on the display device 2 because the driver starts the vehicle. It is a device that outputs.
  • This text-to-speech device 1 includes a line-of-sight direction detection device 3 and an in-vehicle device 4 that is an ECU (Electronic Control Unit).
  • the camera ECU 8 detects the driver's line-of-sight direction from the driver's face image input from the camera 7.
  • Various methods can be used as the visual line detection method.
  • the position of the pupil can be specified from the face image
  • the line-of-sight direction can be specified from the relative distance between the pupil position and the eye head position.
  • the line-of-sight direction can also be detected from the face image using filter information (line-of-sight detection model) that associates the face image with the line-of-sight direction.
  • a corneal reflection method can also be used.
  • the external memory 15 includes a flash memory, HDD, SD memory card, and the like.
  • the external memory 15 stores driver's sitting height / height data and gaze determination data.
  • the sitting height / height data is data on the sitting height or height of the driver, and in this embodiment, sitting height data is used.
  • the gaze determination data is obtained when the driver is looking at the display surface 2a (near the center) of the display device 2 for each combination of the driver's seat height L1 and the setting position L2 in the front-rear direction of the driver's seat 9.
  • This is data indicating the person's standard line-of-sight direction (angle ⁇ 1r in the horizontal direction and angle ⁇ 2r in the vertical direction). In the following description, this line-of-sight direction is referred to as a display surface line-of-sight direction.
  • step S9 If the release determination time Tres has not elapsed since the line of sight was removed, NO is determined in step S9 and the process returns to step S8. On the other hand, when the release determination time Tres elapses with the line of sight removed, YES is determined in step S9, the process proceeds to step S10, and the screen gaze flag is reset. Thereafter, the process returns to step S2 through the screen gaze timer stop and reset process in step S12.
  • the screen gaze flag is set.
  • the driver may temporarily remove his / her line of sight from the display surface 2a in order to confirm the switching of the signal display. Even in this case, when the driver confirms that the signal is still a stop signal, the driver returns the line of sight to the display surface 2a again in a time shorter than the release determination time Tres (2 seconds) in order to continue reading the unread content. In such a case, the control unit 13 maintains the screen gaze flag set.
  • the line of sight is removed from the display surface 2a. In such a case, the driver does not return the line of sight to the display surface 2a even after the release determination time Tres (2 seconds) elapses, so the control unit 13 resets the screen gaze flag.
  • step S25 the process proceeds to step S25 and starts reading the text to be displayed.
  • the processing routine of the reading control means 18 gives a reading start command to the processing routine of the voice conversion means 17.
  • the control unit 13 as the voice conversion unit 17 converts the text to be displayed into a voice signal and outputs the voice signal to the audio amplifier 5 via the D / A converter. In this case, it is read out from the text portion displayed on the display surface 2a so that the driver has not read out the content already read. Moreover, since it is unnatural to start reading aloud from the middle of the sentence, it is preferable to read back to the beginning of the text sentence displayed first on the display surface 2a.
  • the text-to-speech device 1 Since the text-to-speech device 1 does not read out the content that has already been read by the driver, the driver can efficiently obtain text information in a short time. In addition, since reading is started from a sentence break (the beginning of a sentence), the content does not become difficult to understand at the start of reading.
  • the gaze determination data stored in the external memory 15 is displayed on the display device by the driver for each combination of the driver's seat height L1 (or height) and the front / rear setting position L2 of the driver's seat 9.
  • This is data in which the standard line-of-sight direction of the driver when viewing each of the areas A1 to C3 on the second display surface 2a is associated with each of the areas A1 to C3.
  • this line-of-sight direction is referred to as a region line-of-sight direction.
  • the text-to-speech device 1 divides the display surface 2a into a plurality of regions and more precisely specifies the driver's line-of-sight direction, so that duplication during reading can be further reduced.
  • operations and effects similar to those of the first embodiment can be obtained.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Position Input By Displaying (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Abstract

 テキスト読み上げ装置は、運転者用の視線方向検出手段(3)と、前記運転者がディスプレイ装置(2)を見ているときの視線方向を記憶する記憶手段(15)と、検出された視線方向と記憶された視線方向とが一致した状態が、所定の時間以上継続している場合に、前記運転者が前記ディスプレイ装置を注視中であると判定する注視判定手段(16)と、指令に基づいて、前記ディスプレイ装置上のテキスト情報を音声出力する音声変換手段(17)と、前記ディスプレイ装置にテキスト情報が表示され、車両が動き始め、運転者がディスプレイ装置を注視中である場合、指令を与える読み上げ制御手段(18)とを備えている。

Description

テキスト読み上げ装置およびその方法 関連出願の相互参照
 本開示は、2012年11月27日に出願された日本出願番号2012-258497号に基づくもので、ここにその記載内容を援用する。
 本開示は、運転者に対しテキスト情報を読み上げるテキスト読み上げ装置およびテキスト読み上げ方法に関するものである。
 カーナビゲーション装置には、運転者に対し目的地までの経路を音声案内することに加え、音声合成によりテキスト情報(メール、SNS(social networking service)等)を運転者に読み上げる機能を備えたものが知られている(特許文献1参照)。この装置は、テキスト情報の内容またはテキスト情報の入力源に応じて自動的に音声読み上げモードを設定し、その音声読み上げモードに対応する音声合成制御パラメータの組み合わせを特定して音声合成を行う。この装置によれば、メールの容量が大きい場合には、読み上げ速度が速くなり、読み通す時間の短縮が図られる。また、経路案内情報や交通情報を読み上げる際に距離や地名の読み上げ速度が遅くなり、聞き取り易くなる。
 上記装置は、テキスト情報の内容またはテキスト情報の入力源(アプリケーションプログラムの種類)に応じて音声読み上げモードを設定する。このため、運転者の安全を配慮した上で、運転者が望むタイミングで読み上げる構成となっていない。すなわち、運転者が自らテキスト情報を読むことができる車両の停止状態では、自動読み上げは必ずしも必要ではない。むしろ、自らテキスト情報を読んでいる運転者にとって、読み上げは非常に煩わしい。一方、運転者がテキスト情報を読むことができない車両の走行中は、安全のために自動読み上げが必要になる。
特開2006-98695号公報
 本開示は、運転者がテキスト情報の読み上げを必要としている状況において適切にテキスト情報の読み上げを行うテキスト読み上げ装置およびその方法を提供することを目的とする。
 本開示の第一の態様において、テキスト読み上げ装置は、車両の運転者の視線方向を検出する視線方向検出手段と、前記運転者が車室内に配置されたディスプレイ装置の表示面を見ているときの前記運転者の視線方向を記憶する記憶手段と、前記視線方向検出手段により検出された視線方向と前記記憶手段に記憶された視線方向とが一致した状態が、所定の注視判定時間以上継続している場合に、前記運転者が前記ディスプレイ装置の表示面を注視中であると判定する注視判定手段と、読み上げ開始指令が与えられると、前記ディスプレイ装置の表示対象とされているテキスト情報を音声信号に変換して出力する音声変換手段と、前記ディスプレイ装置にテキスト情報が表示されているときに車両が動き始めた時、前記注視判定手段が前記運転者が前記ディスプレイ装置の表示面を注視中であると判定していることを読み上げ開始条件が成立したとして、前記音声変換手段に対し前記読み上げ開始指令を与える読み上げ制御手段とを備えている。
 上記のテキスト読み上げ装置において、車両に乗り込んでから車両を発進させるまでの間、信号待ちにより車両を一時的に停止させている間などに、運転者がディスプレイ装置の表示面を注視していると、注視判定手段が注視中と判定する。テキスト情報がディスプレイ装置に表示されているときに車両が動き始めた時、注視判定手段が注視中と判定していれば、運転者がそのテキスト情報を読んでいる途中で車両を発進させた可能性が高いと考えられる。そこで、表示対象とされているテキスト情報の読み上げを開始する。
 これにより、車両を発進させるためにディスプレイ装置から視線を外した運転者に対し、音声により継続してテキスト情報を提供できる。また、アプリケーションプログラムが起動するたびにテキスト情報を読み上げる従来構成と異なり、安全を確保するために運転者がテキスト情報の読み上げを必要としている状況においてテキスト情報の読み上げを行うことができる。
 本開示の第二の態様において、テキスト読み上げ方法は、車両の運転者の視線方向を検出し、前記運転者が車室内に配置されたディスプレイ装置の表示面を見ているときの前記運転者の視線方向を記憶し、検出された視線方向と記憶された視線方向とが一致した状態が、所定の注視判定時間以上継続している場合に、前記運転者が前記ディスプレイ装置の表示面を注視中であると判定し、前記ディスプレイ装置にテキスト情報が表示され、車両が動き始め、前記運転者が前記ディスプレイ装置の表示面を注視中であると判定した場合、読み上げ開始指令を与え、読み上げ開始指令が与えられると、前記ディスプレイ装置の表示対象とされているテキスト情報を音声信号に変換して、出力することを備えている。
 上記の方法において、車両を発進させるためにディスプレイ装置から視線を外した運転者に対し、音声により継続してテキスト情報を提供できる。また、アプリケーションプログラムが起動するたびにテキスト情報を読み上げる従来構成と異なり、安全を確保するために運転者がテキスト情報の読み上げを必要としている状況においてテキスト情報の読み上げを行うことができる。
 本開示についての上記目的およびその他の目的、特徴や利点は、添付の図面を参照しながら下記の詳細な記述により、より明確になる。その図面は、
図1は、第1の実施形態に係るテキスト読み上げ装置を含むシステム構成図であり、 図2は、カメラによる顔画像の撮影範囲と運転者の視線方向を示す説明図であり、 図3は、画面注視フラグ設定プログラムのフローチャートであり、 図4は、読み上げプログラムのフローチャートであり、 図5は、第2の実施形態に係る表示面を示す図である。
 (第1の実施形態)
 以下、本開示の第1の実施形態について図1ないし図4を参照しながら説明する。図1に示すテキスト読み上げ装置1は、運転者が車両を発進させるため、ディスプレイ装置2に表示されているテキスト情報を自ら読み続けることができなくなったときに、代わってそのテキスト情報を読み上げて音声出力する装置である。このテキスト読み上げ装置1は、視線方向検出装置3と、ECU(Electronic Control Unit)である車載機4とから構成されている。
 ディスプレイ装置2は、例えばダッシュボードにおいて運転席と助手席との中間位置に確保されたスペースに配置されている。ディスプレイ装置2は、単独で設けられるものに限らず、例えばカーナビゲーション装置に組み込まれたディスプレイ装置であってもよい。車載機4が出力した表示信号(映像信号、テキスト信号など)は、ディスプレイ装置2に送られて表示され、車載機4が出力した音声信号は、オーディオアンプ5を介して車室内に設置されたスピーカ6から出力される。
 視線方向検出装置3は、運転者の視線方向を検出する視線方向検出手段であり、カメラ7とカメラECU8とから構成されている。カメラ7は、図2に示すように、運転席9に着座している乗員(運転者)の顔を撮影できる位置、例えばインストルメントパネル内の計器盤内に配置されている。カメラ7は、例えば近赤外線カメラであって、夜間でも顔画像を撮影することが可能である。この場合、補助光源からの近赤外光を運転者の顔に照射し、運転者の顔画像を撮影するようにしてもよい。
 カメラECU8は、カメラ7から入力された運転者の顔画像から運転者の視線方向を検出する。この視線検出方法としては、種々のものを使用できる。例えば、顔画像から瞳の位置を特定し、瞳孔位置と眼頭位置との相対距離から視線方向を特定することができる。また、顔画像と視線方向とを対応づけたフィルタ情報(視線検出用モデル)を用いて、顔画像から視線方向を検出することもできる。また、角膜反射法を用いることもできる。カメラECU8は、CANなどの車載LAN10を介して車載機4に対し、カメラ7と瞳とを結ぶ直線を基準とする視線の左右方向の角度θ1および視線の上下方向の角度θ2(仰角・俯角)を送信する。
 車載LAN10には、種々のECUが接続されている。ボデーECU11は、運転席9の前後方向の設定位置を車載機4に送信する。通信ECU12は、移動体通信網を介してインターネットとの接続を可能とする。この通信機能により、車載機4その他の車載ECUは、メールサーバやWEBサイトへのアクセスが可能となり、SNSも利用可能となる。車載LAN10には、その他の表示信号を出力する装置、音声信号を出力する装置、車速を検出するエンジンECUなどが接続されている。
 車載機4は、自らメーラーやSNSなどのアプリケーションプログラムを実行可能である。車載機4は、これらのアプリケーションプログラムの実行によりディスプレイ装置2に表示するテキスト信号と、他の車載ECUから出力される表示信号とを統合して重ね合わせ、ディスプレイ装置2に出力する。また、車載機4は、カメラ7をはじめとする各種車載カメラで撮影された画像データ、地図描画データ、DVDを再生した映像データなどを直接入力して、ディスプレイ装置2に出力する。
 車載機4は、制御部13、RAM14、外部メモリ15などを備えている。制御部13は、CPU、ROM、通信回路、タイマ、I/Oポート、D/A変換器などを備えており、CPUがROMまたは外部メモリ15に記憶されたプログラムを実行することにより注視判定手段16、音声変換手段17および読み上げ制御手段18として機能する。車載機4は、ディスプレイ装置2に表示信号を出力するとともに、ディスプレイ装置2がタッチ操作機能を備えている場合には操作信号を入力する。操作スイッチ群19からも操作信号を入力可能である。また、D/A変換器を介してオーディオアンプ5に音声信号を出力する。
 外部メモリ15は、フラッシュメモリ、HDD、SDメモリカードなどからなる。外部メモリ15には、運転者の座高・身長データと注視判定用データとが記憶されている。座高・身長データは、運転者の座高または身長のデータであり、本実施形態では座高のデータを用いている。注視判定用データは、運転者の座高L1と運転席9の前後方向の設定位置L2との各組み合わせに対し、運転者がディスプレイ装置2の表示面2a(中央付近)を見ているときの運転者の標準的な視線方向(左右方向の角度θ1r、上下方向の角度θ2r)を示すデータである。以下の説明では、この視線方向を表示面視線方向と言う。
 次に、本実施形態の作用について図3および図4を参照しながら説明する。制御部13は、車両のAccスイッチがオンされると、注視判定手段16として図3に示す画面注視フラグ設定プログラムの実行を開始し、Accスイッチがオフされると終了する。Accスイッチのオン/オフに替えて、IGスイッチのオン/オフにより開始/終了してもよい。
 制御部13は、ステップS1で視線監視処理を起動する。初期化処理において、画面注視フラグをリセットし、画面注視タイマと注視解除タイマの値をゼロに設定する。そして、外部メモリ15から運転者の座高・身長データを読み出し、ボデーECU11から運転席9の前後方向の設定位置L2を入力する。さらに、外部メモリ15から、座高L1と設定位置L2との組み合わせに対応する表示面視線方向(角度θ1r、θ2r)を読み出す。このとき、カメラECU8から瞳の位置を入力し、その瞳の位置が座高L1と設定位置L2とに基づいて演算した瞳の存在範囲外となっている場合には、運転者に対し座高・身長データの入力を促す処理を加えてもよい。
 制御部13は、ステップS2で、カメラECU8から視線方向(角度θ1、θ2)を入力する。この視線方向(角度θ1、θ2)が表示面視線方向(角度θ1r、θ2r)と一致する場合には、運転者がディスプレイ装置2の表示面2a(画面)を見ている(YES)と判断し、ステップS3で画面注視タイマを始動する。表示面2aを見ていない(NO)と判断した場合には、注視するまでステップS2の判断処理を繰り返す。なお、表示面視線方向(角度θ1r、θ2r)は、運転者が表示面2aの中央付近を見ているときの標準的な視線方向であるため、運転者が表示面2aの隅部を見ているときの視線方向とは若干のずれが生じる。従って、上記視線方向の一致判定の際には、当該ずれに応じた範囲内の差は一致と見なしている。
 制御部13は、画面注視タイマを始動後、ステップS4においてステップS2と同様の処理により表示面2aを見ているか否かを判断する。ここで見ている(YES)と判断すると、ステップS5に移行して画面注視タイマの値が注視判定時間Tset(例えば5秒)以上になったか否かを判断する。表示面2aを見始めてから注視判定時間Tsetが経過した場合には、YESと判断してステップS6に移行し、RAM14に記憶される画面注視フラグをセットする。注視判定時間Tsetが経過していない場合には、NOと判断してステップS4に戻る。
 ステップS4、S5を繰り返し実行して注視判定時間Tsetの経過を待つ間に、運転者がディスプレイ装置2の表示面2aから視線を外すと、ステップS4で表示面2aを見ていない(NO)と判断する。この場合には、ステップS12に移行して画面注視タイマを停止しリセットした後、ステップS2に戻る。すなわち、制御部13は、視線方向検出装置3により検出された視線方向と外部メモリ15から読み出した表示面視線方向とが一致した状態が注視判定時間Tset以上継続している場合に、運転者がディスプレイ装置2の表示面2aを注視中であるとして画面注視フラグをセットする。
 制御部13は、画面注視フラグをセットすると、ステップS7で注視解除タイマを始動する。ステップS8においてステップS2と同様の処理により表示面2aを見ているか否かを判断する。ここで見ている(YES)と判断すると、ステップS11に移行して注視解除タイマをリセットする。一方、見ていない(NO)と判断すると、ステップS9に移行して注視解除タイマが解除判定時間Tres(例えば2秒)以上になったか否かを判断する。
 視線を外してから解除判定時間Tresが経過していなければ、ステップS9でNOと判断してステップS8に戻る。これに対し、視線を外した状態のまま解除判定時間Tresが経過すると、ステップS9でYESと判断してステップS10に移行し、画面注視フラグをリセットする。その後、ステップS12の画面注視タイマの停止、リセット処理を経てステップS2に戻る。
 すなわち、制御部13は、ディスプレイ装置2の表示面2aを注視中と判定して画面注視フラグをセットした後、運転者が表示面2aを見ていない状態が解除判定時間Tres以上継続している場合に、運転者が表示面2aを注視していないと判定して画面注視フラグをリセットする。
 例えば、信号待ちとなって車両を停止させたとき、運転者が表示面2a(画面)の表示内容を注視判定時間Tset以上読み続けると、画面注視フラグがセットされる。運転者は、信号表示の切り替わりを確認するため、表示面2aから一時的に視線を外す場合がある。この場合でも、運転者は、まだ停止信号であることを確認すると、未読の内容を読み続けるために、解除判定時間Tres(2秒)よりも短い時間で視線を再び表示面2aに戻す。このような場合、制御部13は、画面注視フラグをセットしたままに維持する。一方、運転者が、表示内容を注視判定時間Tset以上かけて読み終えると、視線を表示面2aから外す。このような場合、運転者は、解除判定時間Tres(2秒)が経過しても視線を表示面2aに戻さないので、制御部13は、画面注視フラグをリセットする。
 車載機4は、自らメーラーやSNSなどのアプリケーションプログラムを実行すると、受信したメール内容、メッセージ内容、文字情報などのテキスト情報をディスプレイ装置2に表示する。車載機4は、他のECUから文字による交通情報などのテキスト情報を受信したときも、自ら表示するテキスト情報と統合してディスプレイ装置2に表示する。
 制御部13は、テキスト情報を表示するアプリケーションプログラムの実行を開始すると、音声変換手段17および読み上げ制御手段18として図4に示す読み上げプログラムの実行を開始する。このプログラム中、音声変換手段17としての制御部13は、テキスト情報を音声信号に変換して出力する処理を実行し、読み上げ制御手段18としての制御部13は、その他の処理を実行する。制御部13は、ステップS21で、表示の対象となるテキストをディスプレイ装置2の表示面2aに表示する。ここで、表示の対象となるテキストとは、1画面に表示されるテキストだけでなく、表示対象となっているテキストコンテンツの全体を言う。
 読み上げ制御手段18としての制御部13は、ステップS22でアプリケーションプログラムの実行が終了したか否かを判断する。終了した場合には、YESと判断して読み上げプログラムの実行を終了する。終了していない場合には、NOと判断してステップS23に移行し、車両が発進したか否かを判断する。この判断は、車速が規定値Scよりも速いか否かを判定することにより行う。規定値Scは、運転者が表示面2aに視線を向けながら車両を進行させることが安全上好ましくない速度、例えば5~7km/h程度に設定されている。勿論、0km/hに設定してもよい。
 制御部13は、ステップS23で車速が規定値Sc以下(NO)と判断すると、表示されたテキストを運転者が自ら読むことが可能であるため、ステップS22に戻りテキストの読み上げは行わない。一方、車速が規定値Scを超えた(YES)と判断すると、ステップS24で画面注視フラグがセットされているか否かを判断する。画面注視フラグがセットされていない場合には、運転者が車両を発進させる前に表示面2aを注視していなかった(つまりテキストを読んでいなかった)ので、ステップS22に戻りテキストの読み上げは行わない。
 これに対し、画面注視フラグがセットされていると、ステップS25に移行して表示の対象となっているテキストの読み上げを開始する。このとき、読み上げ制御手段18の処理ルーチンが音声変換手段17の処理ルーチンに対し読み上げ開始指令を与える。音声変換手段17としての制御部13は、表示対象とされているテキストを音声信号に変換し、D/A変換器を介してオーディオアンプ5に出力する。この場合、運転者が既に読み終えた内容を重複して読み上げることがないように、表示面2aに表示されているテキスト部分から読み上げる。また、文章の途中から読み上げを開始すると不自然なため、表示面2aの最初に表示されているテキスト文章の文頭まで遡って読み上げることが好ましい。
 制御部13は、読み上げを開始すると、ステップS26でアプリケーションプログラムの実行が終了したか否かを判断する。終了した場合には、YESと判断して読み上げプログラムの実行を終了する。終了していない場合には、NOと判断してステップS27に移行し、表示対象テキストの読み上げが完了したか(全て読み終えたか)を判断する。
 読み上げが完了していない場合にはNOと判断してステップS30に移行し、表示対象テキストが切り替わったか否かを判断する。切り替わっていなければステップS26に戻り、表示対象テキストの読み上げを継続する。表示対象テキストが切り替わった場合にはステップS21に戻り、新たに表示対象となったテキストについて読み上げ処理を実行する。
 一方、ステップS27で読み上げが完了したと判断した場合には、ステップS28で表示対象テキストの読み上げを終了する。その後、ステップS29に移行して表示対象テキストの切り替わりを待ち、表示対象テキストが切り替わると、ステップS21に戻り新たに表示対象となったテキストについて読み上げ処理を実行する。
 以上説明したように、本実施形態のテキスト読み上げ装置1は、ディスプレイ装置2にテキスト情報が表示されているときに車両が動き始めた時、運転者がディスプレイ装置2の表示面2aを注視中であることを条件として、表示対象テキストを読み上げる。信号待ち等により受信メールやSNSのメッセージを読んでいる運転者は、信号の切り替わり等により未読部分を残したまま車両を発進させたとき、継続して音声によるテキスト内容の提供を受けることができる。
 本装置は、アプリケーションプログラムが起動するたびにテキスト情報を読み上げるのではなく、表示テキストを読んでいる途中で車両の発進により安全に読むことができなくなったときにのみテキストの読み上げを行う。従って、運転者にとって煩わしい不必要な読み上げを防止できる。
 テキスト読み上げ装置1は、運転者がディスプレイ装置2の表示面2aを注視判定時間Tset以上継続して見ている場合に、表示面2aを注視中であると判定する。注視判定時間Tsetを適当な時間(本実施形態では5秒)に設定すれば、運転者が画面表示されたテキストを読んでいる状態か否かを正しく判定できる。また、注視中と判定した後、運転者が表示面2aから解除判定時間Tres以上継続して視線を外している場合に、表示面2aを注視中でないと判定する。解除判定時間Tresを適当な時間(本実施形態では2秒)に設定すれば、運転者が画面表示されたテキストを読み終わった状態か否かを正しく判定できる。
 テキスト読み上げ装置1は、運転者が既に読み終えた内容を重複して読み上げることがないので、運転者は短時間で効率良くテキスト情報を得ることができる。また、文章の区切り(文頭)から読み上げを開始するので、読み上げ開始部分で内容が理解しにくくなることもない。
 (第2の実施形態)
 次に、第2の実施形態について図5を参照しながら説明する。ディスプレイ装置2の表示面2aは、図5に示すように複数の領域に区分されている。ここでは、表示面2aの縦方向を3つの領域A、B、Cに区分し、表示面2aの横方向を3つの領域1、2、3に区分している。その結果、表示面2aは、A1、A2、A3、B1、B2、B3、C1、C2、C3の9領域に区分される。図中に記載されている破線は、説明のために加えた境界線であり、実際に表示されるものではない。
 外部メモリ15(図1参照)に記憶された注視判定用データは、運転者の座高L1(または身長)と運転席9の前後方向の設定位置L2との各組み合わせに対し、運転者がディスプレイ装置2の表示面2aの各領域A1~C3を見ているときの運転者の標準的な視線方向を当該各領域A1~C3と対応付けたデータである。以下の説明では、この視線方向を領域視線方向と言う。
 制御部13は、図3に示した画面注視フラグ設定プログラムのステップS2、S4において、表示面2a(領域A1~C3の何れか)を見ているか否かを判断する。これに対し、制御部13は、ステップS6で画面注視フラグをセットするとき、およびステップS8で表示面2aを見ているか否かを判断するとき、視線方向検出装置3により検出された視線方向と各領域の領域視線方向とに基づいて、運転者が見ている表示面2aの領域を特定してRAM14に記憶する。この特定した領域は、運転者が表示面2aから視線を外したときに最後に注視していた領域である。
 制御部13は、図4に示した読み上げプログラムにおいて、表示対象テキストの読み上げ開始の条件が成立すると(ステップS24;YES)、RAM14に記憶された領域を読み出して、その領域に表示されているテキスト部分から読み上げを開始する(ステップS25)。この場合も、文章の途中から読み上げを開始すると不自然なため、当該領域の最初に表示されているテキスト文章の文頭まで遡って読み上げることが好ましい。例えば図5において注視領域がB2であった場合、当該領域B2の最初に表示されているテキスト文章の文頭である領域B1の"Avoid"まで遡って読み上げを開始する。
 本実施形態のテキスト読み上げ装置1は、表示面2aを複数の領域に区分して運転者の視線方向をより細かく特定するので、読み上げ時の重複を一層低減することができる。その他、第1の実施形態と同様の作用および効果が得られる。
 (その他の実施形態)
 図3に示した画面注視フラグ設定プログラムにおいて、ステップS7~S9、S11を省略してもよい。この場合、例えば表示面2aへのテキスト表示から所定時間が経過したときに、ステップS10で画面注視フラグをリセットするようにしてもよい。
 運転者の座高・身長データと注視判定用データは、制御部13の内部メモリ(記憶手段)に記憶されていてもよい。座高・身長データを記憶することに替えて、座高・身長データを運転者に入力させるように構成してもよい。車載機4は、運転者がディスプレイ装置2の表示面2aまたは表示面2aの各領域A1~C3を見ている時の視線方向を検出し、それを標準的な表示面視線方向または領域視線方向として記憶してもよい。
 本開示は、実施例に準拠して記述されたが、本開示は当該実施例や構造に限定されるものではないと理解される。本開示は、様々な変形例や均等範囲内の変形をも包含する。加えて、様々な組み合わせや形態、さらには、それらに一要素のみ、それ以上、あるいはそれ以下、を含む他の組み合わせや形態をも、本開示の範疇や思想範囲に入るものである。

Claims (6)

  1.  車両の運転者の視線方向を検出する視線方向検出手段(3)と、
     前記運転者が車室内に配置されたディスプレイ装置(2)の表示面(2a)を見ているときの前記運転者の視線方向を記憶する記憶手段(15)と、
     前記視線方向検出手段により検出された視線方向と前記記憶手段に記憶された視線方向とが一致した状態が、所定の注視判定時間以上継続している場合に、前記運転者が前記ディスプレイ装置の表示面を注視中であると判定する注視判定手段(16)と、
     読み上げ開始指令が与えられると、前記ディスプレイ装置の表示対象とされているテキスト情報を音声信号に変換して出力する音声変換手段(17)と、
     前記ディスプレイ装置にテキスト情報が表示されているときに車両が動き始めた時、前記注視判定手段が前記ディスプレイ装置の表示面を注視中であると判定していることを読み上げ開始条件が成立したとして、前記音声変換手段に対し前記読み上げ開始指令を与える読み上げ制御手段(18)とを備えているテキスト読み上げ装置。
  2.  前記注視判定手段は、前記ディスプレイ装置の表示面を注視中と判定した後、前記視線方向検出手段により検出された視線方向と前記記憶手段に記憶された視線方向とが不一致となる状態が所定の解除判定時間以上継続している場合に、前記運転者が前記ディスプレイ装置の表示面を注視していないと判定する請求項1記載のテキスト読み上げ装置。
  3.  前記ディスプレイ装置の表示面は複数の領域に区分されており、
     前記記憶手段は、前記運転者が前記区分された各領域を見ているときの前記運転者の視線方向を当該各領域と対応付けて記憶し、
     前記読み上げ制御手段は、前記読み上げ開始条件が成立すると、前記音声変換手段に対し、前記運転者が最後に注視していた前記ディスプレイ装置の表示面の領域に表示されたテキスト部分からテキスト情報を読み上げるように前記読み上げ開始指令を与える請求項1または2記載のテキスト読み上げ装置。
  4.  前記読み上げ制御手段は、前記読み上げ開始条件が成立すると、前記音声変換手段に対し、前記ディスプレイ装置の表示面の最初に表示されたテキスト文章の文頭からテキスト情報を読み上げるように前記読み上げ開始指令を与える請求項1または2記載のテキスト読み上げ装置。
  5.  前記読み上げ制御手段は、前記運転者が最後に注視していた表示面の領域の最初に表示されたテキスト文章の文頭からテキスト情報を読み上げるように前記読み上げ開始指令を与える請求項3記載のテキスト読み上げ装置。
  6.  車両の運転者の視線方向を検出し、
     前記運転者が車室内に配置されたディスプレイ装置(2)の表示面(2a)を見ているときの前記運転者の視線方向を記憶し、
     検出された視線方向と記憶された視線方向とが一致した状態が、所定の注視判定時間以上継続している場合に、前記運転者が前記ディスプレイ装置の表示面を注視中であると判定し、
     前記ディスプレイ装置にテキスト情報が表示され、車両が動き始め、前記運転者が前記ディスプレイ装置の表示面を注視中であると判定した場合、読み上げ開始指令を与え、
     読み上げ開始指令が与えられると、前記ディスプレイ装置の表示対象とされているテキスト情報を音声信号に変換して、出力することを備えているテキスト読み上げ方法。
PCT/JP2013/005866 2012-11-27 2013-10-02 テキスト読み上げ装置およびその方法 WO2014083738A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/647,417 US9886237B2 (en) 2012-11-27 2013-10-02 Text-reading device and text-reading method
DE112013006353.0T DE112013006353T5 (de) 2012-11-27 2013-10-02 Textlesevorrichtung und Textleseverfahren

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012258497A JP5958303B2 (ja) 2012-11-27 2012-11-27 テキスト読み上げ装置
JP2012-258497 2012-11-27

Publications (1)

Publication Number Publication Date
WO2014083738A1 true WO2014083738A1 (ja) 2014-06-05

Family

ID=50827404

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/005866 WO2014083738A1 (ja) 2012-11-27 2013-10-02 テキスト読み上げ装置およびその方法

Country Status (4)

Country Link
US (1) US9886237B2 (ja)
JP (1) JP5958303B2 (ja)
DE (1) DE112013006353T5 (ja)
WO (1) WO2014083738A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106575500A (zh) * 2014-09-25 2017-04-19 英特尔公司 基于面部结构合成话音的方法和装置

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015061370A1 (en) 2013-10-21 2015-04-30 Milwaukee Electric Tool Corporation Adapter for power tool devices
JP6261451B2 (ja) * 2014-06-10 2018-01-17 株式会社Nttドコモ 音声出力装置及び音声出力方法
US11277558B2 (en) * 2016-02-01 2022-03-15 Magna Electronics Inc. Vehicle vision system with master-slave camera configuration
JP6625467B2 (ja) * 2016-03-28 2019-12-25 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
JP6630607B2 (ja) * 2016-03-28 2020-01-15 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
JP6200023B1 (ja) * 2016-03-28 2017-09-20 株式会社バンダイナムコエンターテインメント シミュレーション制御装置及びシミュレーション制御プログラム
US9912800B2 (en) 2016-05-27 2018-03-06 International Business Machines Corporation Confidentiality-smart voice delivery of text-based incoming messages
US10224058B2 (en) 2016-09-07 2019-03-05 Google Llc Enhanced multi-channel acoustic models
US10140980B2 (en) 2016-12-21 2018-11-27 Google LCC Complex linear projection for acoustic modeling
US10529320B2 (en) 2016-12-21 2020-01-07 Google Llc Complex evolution recurrent neural networks
US10708725B2 (en) 2017-02-03 2020-07-07 T-Mobile Usa, Inc. Automated text-to-speech conversion, such as driving mode voice memo
EP3660636A4 (en) * 2017-07-27 2020-07-08 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
GB2567164A (en) * 2017-10-04 2019-04-10 Continental Automotive Gmbh Display system in a vehicle
EP3534362A1 (en) * 2018-02-28 2019-09-04 Vestel Elektronik Sanayi ve Ticaret A.S. Methods and apparatus for outputting audio
US11144052B2 (en) 2018-12-07 2021-10-12 Toyota Research Institute, Inc. Readiness and identification by gaze and/or gesture pattern detection
CN114935971B (zh) * 2021-02-05 2024-08-20 京东方科技集团股份有限公司 显示装置和显示驱动方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06321030A (ja) * 1993-05-11 1994-11-22 Yazaki Corp 車両用音声出力装置
JPH09329458A (ja) * 1996-06-12 1997-12-22 Toyota Central Res & Dev Lab Inc 車載用情報音読装置
JP2003114691A (ja) * 2001-10-03 2003-04-18 Nissan Motor Co Ltd 車両用テキスト音声合成装置
JP2003177771A (ja) * 2001-12-11 2003-06-27 Nissan Motor Co Ltd 車載音声提示装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10320109A (ja) * 1997-05-19 1998-12-04 Canon Inc 表示装置、拡大表示支援方法、および音声化支援方法
US6152563A (en) * 1998-02-20 2000-11-28 Hutchinson; Thomas E. Eye gaze direction tracker
US20080122799A1 (en) * 2001-02-22 2008-05-29 Pryor Timothy R Human interfaces for vehicles, homes, and other applications
JP3620443B2 (ja) * 2000-12-05 2005-02-16 日産自動車株式会社 自動車用表示装置
JP4684609B2 (ja) 2004-09-29 2011-05-18 クラリオン株式会社 音声合成装置、制御方法、制御プログラム及び記録媒体
JP2006293909A (ja) 2005-04-14 2006-10-26 Denso Corp 運転者の視線方向検出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06321030A (ja) * 1993-05-11 1994-11-22 Yazaki Corp 車両用音声出力装置
JPH09329458A (ja) * 1996-06-12 1997-12-22 Toyota Central Res & Dev Lab Inc 車載用情報音読装置
JP2003114691A (ja) * 2001-10-03 2003-04-18 Nissan Motor Co Ltd 車両用テキスト音声合成装置
JP2003177771A (ja) * 2001-12-11 2003-06-27 Nissan Motor Co Ltd 車載音声提示装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106575500A (zh) * 2014-09-25 2017-04-19 英特尔公司 基于面部结构合成话音的方法和装置

Also Published As

Publication number Publication date
JP5958303B2 (ja) 2016-07-27
DE112013006353T5 (de) 2015-09-17
US20150293745A1 (en) 2015-10-15
JP2014106329A (ja) 2014-06-09
US9886237B2 (en) 2018-02-06

Similar Documents

Publication Publication Date Title
JP5958303B2 (ja) テキスト読み上げ装置
US20210114613A1 (en) Alert control apparatus and alert control method
JP6515764B2 (ja) 対話装置及び対話方法
US20220340166A1 (en) Presentation control device, presentation control program, and driving control device
JP6565408B2 (ja) 車両制御装置及び車両制御方法
JP5082834B2 (ja) 脇見検出装置および方法、並びに、プログラム
US20150051780A1 (en) Driver assistance system and method for operating a driver assistance system
JP2018062308A (ja) 運転モード切替制御装置、方法およびプログラム
US9977239B2 (en) Vehicle information presentation device
WO2018163549A1 (ja) 運転制御動作支援装置、運転制御動作支援方法及び運転制御動作支援プログラム
JP2014096632A (ja) 撮像システム
WO2021193118A1 (ja) 情報提示制御装置及び機能制御装置
JP2014120114A (ja) 走行支援システム、走行支援方法及びコンピュータプログラム
US20230356746A1 (en) Presentation control device and non-transitory computer readable medium
JP2017068359A (ja) 対話装置及び対話制御方法
JP2018151684A (ja) 運転モード切替制御装置、方法およびプログラム
JP6648722B2 (ja) 故障判定装置、方法およびプログラム
JP7263992B2 (ja) 車両制御装置
US11220181B2 (en) Operation control device, operation control method, and storage medium
JP2018149940A (ja) 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
JP2004177315A (ja) 視線方向判定装置及びそれを利用した対話システムならびに運転支援システム
KR20160118744A (ko) 차량의 초음파 센서와 영상 센서의 데이터 통합처리 시스템
US20240025431A1 (en) Vehicle driving assistance system
JP2016149014A (ja) 対話装置
CN114291008B (zh) 车辆用智能体装置、车辆用智能体系统以及计算机可读存储介质

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13858119

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14647417

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1120130063530

Country of ref document: DE

Ref document number: 112013006353

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13858119

Country of ref document: EP

Kind code of ref document: A1