WO2014020889A1 - 操作制御装置、及び、操作制御プログラム - Google Patents

操作制御装置、及び、操作制御プログラム Download PDF

Info

Publication number
WO2014020889A1
WO2014020889A1 PCT/JP2013/004582 JP2013004582W WO2014020889A1 WO 2014020889 A1 WO2014020889 A1 WO 2014020889A1 JP 2013004582 W JP2013004582 W JP 2013004582W WO 2014020889 A1 WO2014020889 A1 WO 2014020889A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
driver
unit
operation control
traveling
Prior art date
Application number
PCT/JP2013/004582
Other languages
English (en)
French (fr)
Inventor
泰斗 渡邉
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2014020889A1 publication Critical patent/WO2014020889A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/29Instruments characterised by the way in which information is handled, e.g. showing information on plural displays or prioritising information according to driving conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/65Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive
    • B60K35/656Instruments specially adapted for specific vehicle types or users, e.g. for left- or right-hand drive the user being a passenger
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K15/00Arrangement in connection with fuel supply of combustion engines or other fuel consuming energy converters, e.g. fuel cells; Mounting or construction of fuel tanks
    • B60K15/03Fuel tanks
    • B60K2015/0321Fuel tanks characterised by special sensors, the mounting thereof
    • B60K2015/03217Fuel level sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/18Information management
    • B60K2360/197Blocking or enabling of input functions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/21Optical features of instruments using cameras

Definitions

  • the present disclosure relates to an operation control device and an operation control program that permit an operation of an in-vehicle device while the vehicle is traveling when a passenger is present.
  • the operation of the in-vehicle device is prohibited simply because the vehicle is running, not only the driver's operation, but also the passenger's operation, the operation is uniformly prohibited while the vehicle is running. there were.
  • some in-vehicle devices detect the driver's side look and allow the operation if the total look-ahead time is less than the preset specified time, and prohibit the operation when the total look-ahead time exceeds the specified time. ing.
  • Patent Document 1 In other words, in this in-vehicle device, even if the vehicle is running, if the total look-ahead time of the driver does not exceed the regulation time, safety can be ensured, and not only the operation by the passenger but also the operation by the driver is possible.
  • the total look-ahead time is often not less than the specified time. It has been done.
  • Patent Document 1 it is said that it is safe for the driver to operate the in-vehicle device if it is within the total look-ahead time. It is dangerous regardless of the amount.
  • the detection result may be used to allow the operation of the in-vehicle device, but the cost is reduced. There is a demerit that becomes higher.
  • the present disclosure does not include a special hardware configuration for detecting a passenger, and when there is a passenger, an operation control device that permits operation of the in-vehicle device even when the vehicle is traveling, and operation control The purpose is to provide a program.
  • the travel determination unit determines whether a vehicle on which the in-vehicle device is mounted is traveling, and the vehicle travels by the travel determination unit. Is determined, the first operation prohibition unit prohibits an operation on the operation unit for operating the in-vehicle device.
  • the mouth motion detection unit detects whether there is movement in the driver's mouth from the image of the driver's face imaged by the imaging unit that images the driver's face, and the voice detection unit, When the mouth movement detection unit does not detect the movement of the driver's mouth and the sound generated in the vehicle is detected using the sound collection unit, the release unit operates the operation unit by the first operation prohibition unit. The ban has been lifted.
  • the operation control device detects the presence or absence of a passenger and determines whether or not to permit the operation of the in-vehicle device.
  • in-vehicle devices such as navigation devices are often equipped with a microphone (sound collecting unit) for voice operation, and the vehicle is driven to detect a driver's aside or doze.
  • a camera imaging unit that images a person's face is provided.
  • the above-described operation control device can be configured without providing a special hardware configuration for detecting a passenger.
  • the operation control device when the operation control device is used, if there is a passenger, the operation of the in-vehicle device is permitted even when the vehicle is traveling, and the passenger can operate the in-vehicle device at any time. The user does not feel inconvenience for the in-vehicle device.
  • the above-described operation control device does not have to have a special hardware configuration for detecting a passenger, it can be introduced at a reduced cost.
  • a travel determination step for determining whether a vehicle equipped with an in-vehicle device is traveling, and when the travel determination step determines that the vehicle is traveling,
  • a first operation prohibiting step for prohibiting an operation on an operation unit for operating the in-vehicle device, a voice detecting step for detecting a voice generated in the vehicle using a microphone installed in the vehicle, and imaging a driver's face
  • a mouth movement detection step for detecting whether there is movement in the driver's mouth from the driver's face image captured by the imaging unit; and when the movement of the driver's mouth is not detected in the mouth movement detection step
  • a release step for releasing the prohibition of the operation on the operation unit in the first operation prohibiting step when a sound generated in the vehicle is detected by the sound detecting step. Lamb is provided.
  • the operation control device having the above-described effect can be configured by installing the operation control program in an in-vehicle device or the like. Can do.
  • FIG. 1 is a block diagram illustrating an internal configuration of a navigation device and a monitoring device included in a vehicle.
  • FIG. 2 is a flowchart of an operation control program executed by the navigation device.
  • the vehicle 1 includes a navigation device 3 and a monitoring device 5.
  • the navigation device 3 includes a central control device 30, a vehicle speed detection unit 31, a microphone 32, a map information storage unit 33, a current position detection unit 34, an image display unit 35, an operation unit 36, and a remote operation unit 37.
  • the central control device 30 is a computer device that includes a CPU (not shown) and a ROM 30a and a RAM 30b in which an operation control program is stored.
  • the central controller 30 executes an operation control process described later by executing an operation control program stored in the ROM 30a.
  • the RAM 30b stores information related to a passenger flag, which will be described later. When the passenger flag is set, “1” is stored as information relating to this passenger flag, and when the passenger flag is not set, “0” is stored.
  • the vehicle speed detection unit 31 is a device that inputs a signal related to the speed of the vehicle 1 from a vehicle speed sensor provided in the vehicle 1, converts the signal into a signal that can be processed by the central control device 30 of the navigation device 3, and outputs the signal.
  • the microphone 32 is for picking up sound generated in the vehicle 1 in order to operate the navigation device 3 by voice, and is installed in a steering column, an instrument panel, or the like.
  • the map information storage unit 33 responds to a request from the central controller 30 such as a storage device such as an HDD or an IC memory storing map information, or a reading device that reads map information from a recording medium such as a DVD storing map information. It is composed of devices that can output map information.
  • map information in addition to map drawing information, various facilities such as roads, intersections, branch points, parking lots, commercial facilities, etc. displayed on the map are associated with position information indicating the positions of these various facilities. Facility location information and information necessary for route guidance processing and other processing.
  • the current position detection unit 34 includes a GPS receiver, a gyroscope, a vehicle speed sensor, and the like, and uses these to detect the current position and traveling direction of the user's own vehicle on which the navigation device 3 is mounted.
  • the image display unit 35 is composed of a liquid crystal display device or the like, and in accordance with an instruction from the central control unit 30, the current position on the map based on the map information obtained from the map information storage unit 33 and the current position information obtained from the current position detection unit 34. An image for route guidance in which etc. are written and an image according to various processes are displayed.
  • the operation unit 36 is a human interface device configured by a plurality of button-type switches and a transparent touch panel stacked on the screen of the image display unit 35.
  • the remote operation unit 37 is a remote control type operation device that is installed at a position away from the casing constituting the navigation device 3 and can remotely operate the navigation device 3 by radio or the like, and can be attached to and detached from a steering column, for example. Installed. (Monitoring device 5)
  • the monitoring device 5 is a device that monitors a driver's aside or falling asleep, and includes an image processing unit 50, a projector control unit 51, a projector 52, a camera control unit 53, and a camera 54.
  • the image processing unit 50 is a computer device configured by a CPU, ROM, RAM, and the like (not shown), inputs image information of an image captured by the camera 54, analyzes the image information, and displays the analysis result as a navigation device.
  • 3 is a device that outputs to the central controller 30.
  • the driver's face is captured by the camera 54, and the image processing unit 50 detects the driver's line of sight, face orientation, and mouth movement from the image information of the image captured by the camera 54.
  • the analysis result is output in response to a request from the central controller 30.
  • image processing unit 50 As an analysis method executed by the image processing unit 50, there are (image processing such as binarization processing and pattern matching based on grayscale information), and any analysis method may be used in this embodiment. Since this embodiment is not characterized in its analysis method, the description thereof is omitted.
  • the projector 52 is a projector that irradiates far infrared rays toward the driver's face, and is disposed on the steering column or the instrument panel together with the camera 54.
  • the projector control unit 51 is a device that controls lighting, brightness, and the like of the projector 52, and controls the projector 52 in response to an instruction from the image processing unit 50.
  • the image processing unit 50 analyzes the image captured by the camera 54 and determines the brightness and lighting of the projector 52 based on whether the analysis result is good or bad.
  • the projector control unit 51 determines the image processing unit 50.
  • the projector 52 is controlled according to the result.
  • the camera 54 images the driver's face, and is arranged on the steering column or the instrument panel together with the projector 52 as described above.
  • the camera control unit 53 is a device that controls the diaphragm and the like of the camera 54 and controls the camera 54 in response to an instruction from the image processing unit 50.
  • the image processing unit 50 analyzes the image captured by the camera 54 and determines the aperture of the camera 54 based on whether the analysis result is good or bad.
  • the camera control unit 53 determines the result of the determination by the image processing unit 50. Accordingly, the camera 54 is controlled. (Operation control processing) Next, an operation control process executed by the central control device 30 of the navigation device 3 will be described.
  • S10 it is determined whether the vehicle 1 is traveling at a speed equal to or higher than a predetermined speed (for example, 5 km / h) based on a signal related to the speed of the vehicle 1 input from the vehicle speed detection unit 31.
  • a predetermined speed for example, 5 km / h
  • the speed used as the criterion for the determination in S10 is not limited to the above-mentioned speed of 5 km / h as long as the driver does not have a safety problem even when the navigation device 3 is operated.
  • S11 it is determined whether or not sound is picked up by the microphone 32. If it is determined by S11 that the voice has been picked up (S11: YES), then the process of S14 is executed. On the other hand, if it is determined in S11 that no sound has been picked up (S11: NO), then the process of S12 is executed.
  • processing for instructing the image processing unit 50 of the monitoring device 5 to output information on the analysis result of the movement of the driver's mouth is executed.
  • whether or not the driver is speaking is determined based on the information related to the analysis result of the movement of the driver's mouth input from the image processing unit 50 of the monitoring device 5 by the processing in S ⁇ b> 14.
  • This S16 is not executed unless it is determined in S14 that someone is speaking in the car. Therefore, when it is determined in S16 that the driver is not speaking (S16: NO), it is determined that there is a passenger.
  • This operation control process is repeatedly executed while the navigation device 3 is operating.
  • S18 which will be described later, executed in this operation control process, if it is determined that there is a passenger (S11: YES, S16: NO), the passenger flag is set.
  • processing for instructing the image processing unit 50 of the monitoring device 5 to output information on the analysis result of the driver's line of sight is executed.
  • whether or not the driver's line-of-sight direction is directed to the navigation apparatus 3 is determined based on the information regarding the driver's line-of-sight analysis result input from the image processing unit 50 of the monitoring device 5 by the process in S19. Determined.
  • processing for instructing the image processing unit 50 of the monitoring device 5 to output information on the analysis result of the driver's face orientation is executed.
  • S26 it is determined whether or not the driver keeps his or her gaze or face on the navigation device 3 for a certain time or more.
  • the determination method of S26 for example, information on the driver's line of sight or face orientation for a predetermined time or longer is recorded in the RAM 30b of the central control device 30, and all of the recorded information is stored in the navigation device 3 by the driver. The determination may be made based on whether or not the information is that the line of sight or the face is facing.
  • processing for defeating the passenger flag is executed. That is, since the driver may be operating the navigation device 3, a process of defeating the passenger flag is executed because it is dangerous.
  • the microphone 32 and the camera 54 that are already provided in the navigation device 3 and the monitoring device 5 are used, and the operation control process is merely executed by the central control device 30. Since it is not necessary to have a special hardware configuration, it can be introduced at a reduced cost.
  • the navigation apparatus 3 was demonstrated in the said embodiment, you may make it run an operation control program with respect to the vehicle-mounted apparatus by installing an operation control program in the vehicle-mounted apparatus other than this.
  • the central control device 30, the vehicle speed detection unit 31, the microphone 32, the operation unit 36, the remote operation unit 37, and the camera 54 that execute the operation control process can correspond to an example of the operation control device of the present disclosure.
  • the operation unit 36 and the remote operation unit 37 of the present embodiment can correspond to an example of an operation unit (operation unit) of the present disclosure.
  • the camera 54 can correspond to an example of an imaging unit.
  • the process of S10 of the present embodiment can correspond to an example of a travel determination unit (travel determination unit) and a travel determination step of the present disclosure.
  • the process of S40 can correspond to an example of a first operation prohibiting unit (first operation prohibiting unit) and a first operation prohibiting step.
  • the processing of S11 of the present embodiment can correspond to an example of a voice detection unit (voice detection unit) and a voice detection step of the present disclosure.
  • the camera 54 can correspond to an example of an imaging unit.
  • the process of S16 can correspond to an example of a mouth movement detection unit (mouth movement detection unit) and a mouth movement detection step.
  • the process of S18 can correspond to an example of a release unit (release unit) and a release step.
  • the processing of S20 and S24 of the present embodiment can correspond to an example of a gaze detection unit (gaze detection unit) and a gaze detection step of the present disclosure.
  • the process of S26 can correspond to an example of an armpit detection means (armpit detection unit) and an armpit detection step.
  • the process of S28 can correspond to an example of a second operation prohibition unit (second operation prohibition unit) and a second operation prohibition step.

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Traffic Control Systems (AREA)

Abstract

 同乗者を検出するための特別なハード構成を備えることなく、同乗者がいる場合は、車両走行中であっても車載装置の操作を許可する操作制御装置を開示する。操作制御装置は、車両が走行していると判定される場合は、操作部(36、37)に対する操作を禁止する操作禁止部(S40)を備える。操作制御装置は、運転者の口の動きを検出していないときに、車内で発生する音声を検出した場合、操作禁止部(S40)による操作部(36、37)に対する操作の禁止を解除する解除部(S18)をさらに備える。

Description

操作制御装置、及び、操作制御プログラム 関連出願の相互参照
 本出願は、2012年8月3日に出願された日本国特許出願2012-172959号に基づくものであり、ここにその記載内容を参照により援用する。
 本開示は、同乗者がいる場合は、車両走行中の車載装置の操作を許可する操作制御装置、及び、操作制御プログラムに関する。
 近年、自動車には、ナビゲーション装置を始めとする各種の車載装置が搭載されている。そして、これら車載装置の多くは、安全性を確保するため、車両走行中の操作が禁止されている。
 しかし、車両が走行中というだけで車載装置の操作を禁止してしまうと、運転者の操作はもちろん、同乗者の操作ですら車両走行中はその操作が一律に禁止されてしまうという不便さがあった。
 そのため、ある車載装置では、運転者の脇見を検出し、その総脇見時間が予め設定された規定時間以下であれば操作を許可し、総脇見時間が規定時間を超えたときは操作を禁止している。
 つまり、この車載装置では、車両が走行中であっても、運転者の総脇見時間が規制時間を越えない場合、安全性は確保できるとして、同乗者による操作はもちろん、運転者による操作をも許可していた(特許文献1)。
日本国公開特許公報2007-69756号
 しかし、車両運転中の運転者は、カーブにさしかかったとき、右左折をするとき、十字路や横断歩道等を通過するため左右確認をするとき、後方確認のためバックミラーやサイドミラーを確認するときなど、様々な場面で、正面前方以外の方向に顔を向けている。
 そのため、上述した総脇見時間による判定を行っても、総脇見時間が規定時間以下にならないことが多く、結局、車載装置の操作は、運転者による操作はもちろん、同乗者による操作も一律に禁止されてしまっていた。
 このように、同乗者の操作まで一律に禁止されてしまうと、同乗者による操作は車両の安全性とは関わりのないものなので、運転者も同乗者もその車載装置に対して不便さを感じてしまう。
 一方、上述の特許文献1では、総脇見時間内であれば運転者が車載装置の操作をしても安全であるとしているが、車両走行中の運転者による車載装置の操作は、総脇見時間の多少にかかわらず危険なものである。
 他方、同乗者の有無を検出する検出装置等の特別なハード構成を備えることによって、同乗者がいる場合、その検出結果を用いて車載装置の操作を許可するようにしてもよいが、コストが高くなってしまうデメリットがある。
 そこで本開示は、同乗者を検出するための特別なハード構成を備えることなく、同乗者がいる場合は、車両走行中であっても車載装置の操作を許可する操作制御装置、及び、操作制御プログラムを提供することを目的とする。
 この目的を達成するため、本開示の一例の操作制御装置では、走行判定部が、車載装置を搭載している車両が走行しているかを判定し、この走行判定部により車両が走行していると判定される場合は、第1操作禁止部が、車載装置を操作するための操作部に対する操作を禁止している。
 さらに、操作制御装置では、口動作検出部が、運転者の顔を撮像する撮像部で撮像した運転者の顔の画像から運転者の口に動きがあるかを検出し、音声検出部が、この口動作検出部が運転者の口の動きを検出していないときに、車内で発生する音声を集音部を用いて検出した場合、解除部が、第1操作禁止部による操作部に対する操作の禁止を解除している。
 一般に、同乗者がいるとき、運転者は、車載装置の操作を同乗者にまかせることが多く、同乗者がいない場合は、車載装置の操作を運転者自身がやらざるを得ないため、車両走行中であるにもかかわらず、運転者は車載装置を操作してしまうことが多いと考えられる。そのため、操作制御装置では、同乗者の有無を検出して、車載装置の操作を許可するか否かを判断している。
 また、近年、ナビゲーション装置を始めとする車載装置には、音声操作用のマイク(集音部)が備えられることが多く、また、車両には、運転者の脇見や居眠りを検出するため、運転者の顔を撮像するカメラ(撮像部)が備えられることが多くなっている。
 そのため、これらを利用することで、同乗者を検出するための特別なハード構成を備えることなく、上述の操作制御装置を構成することができる。
 従って、操作制御装置を用いると、同乗者がいる場合は、車両走行中であっても車載装置の操作が許可され、同乗者は、車載装置をいつでも操作することができるので、運転者も同乗者も車載装置に対して不便さを感じることはない。
 また、上述の操作制御装置は、同乗者を検出するための特別なハード構成を備えなくてもよいので、コストを抑えて導入することができる。
 さらに、上述の操作制御装置を用いると、同乗者がいない場合は、車両走行中の車載装置の操作が禁止されるので、車両走行中に車載装置を操作する危険な運転を確実に防止することができる。
 また、本開示の他の例によると、車載装置を搭載している車両が走行しているか判定する走行判定ステップと、該走行判定ステップにより車両が走行していると判定される場合は、前記車載装置を操作するための操作部に対する操作を禁止する第1操作禁止ステップと、車内に設置されたマイクを用いて車内で発生した音声を検出する音声検出ステップと、運転者の顔を撮像する撮像部で撮像した運転者の顔の画像から、運転者の口に動きがあるかを検出する口動作検出ステップと、該口動作検出ステップで運転者の口の動きが検出されていないときに、前記音声検出ステップにより、車内で発生する音声が検出された場合、前記第1操作禁止ステップでの前記操作部に対する操作の禁止を解除する解除ステップと、を備える操作制御プログラムが提供される。
 このような操作制御プログラムを用いると、集音部及び撮像部を備えた車両であれば、この操作制御プログラムを車載装置等にインストールすることで、上述した効果を有する操作制御装置を構成することができる。
 本開示についての上記および他の目的、特徴や利点は、添付の図面を参照した下記の詳細な説明から、より明確になる。添付図面において
図1は、車両が備えるナビゲーション装置及び監視装置の内部構成を示すブロック図である。 図2は、ナビゲーション装置で実行される操作制御プログラムのフローチャートである。
 以下に本開示の実施形態を図面と共に説明する。
(全体構成)
 車両1は、図1に示すように、ナビゲーション装置3及び監視装置5を備えている。
(ナビゲーション装置3)
 ナビゲーション装置3は、中央制御装置30、車速検出部31、マイク32、地図情報記憶部33、現在位置検出部34、画像表示部35、操作部36、遠隔操作部37を備えている。
 中央制御装置30は、図示しないCPU、及び、操作制御プログラムが記憶されたROM30a、RAM30bを備えるコンピュータ装置である。この中央制御装置30は、ROM30aに記憶された操作制御プログラムを実行することで後述する操作制御処理を実行する。また、RAM30bには後述する同乗者フラグに関する情報が記憶される。同乗者フラグが立てられているときは、この同乗者フラグに関する情報として「1」が記憶され、同乗者フラグが立てられていないときは、「0」が記憶される。
 車速検出部31は、車両1に備えられた車速センサから、車両1の速度に関する信号を入力して、ナビゲーション装置3の中央制御装置30で処理できる信号に変換して出力する装置である。
 マイク32は、ナビゲーション装置3を音声操作等するため、車両1内で発生した音声等を拾うためのもので、ステアリングコラム、インパネ等に設置されている。
 地図情報記憶部33は、地図情報を記憶したHDDやICメモリ等の記憶装置、または、地図情報を記憶したDVD等の記録媒体から地図情報を読み取る読取装置など、中央制御装置30の要求に応じて地図情報を出力可能な装置で構成されている。
 この地図情報としては、地図の描画情報の他、地図上に表示される道路、交差点、分岐点、駐車場、商業施設等の各種施設と、これら各種施設の位置を示す位置情報とが関連付けられた施設位置情報や、経路案内処理その他の処理で必要な情報を有している。
 現在位置検出部34は、GPS受信機、ジャイロスコープ、車速センサなどで構成されており、これらを用いてナビゲーション装置3が搭載された利用者の自車両の現在位置や走行方向などを検出する。
 画像表示部35は、液晶表示装置等からなり、中央制御装置30の指示に従って、地図情報記憶部33から得た地図情報及び現在位置検出部34から得た現在位置情報等によって地図上に現在位置等を記した経路案内用の画像や各種処理に応じた画像を表示する。
 操作部36は、複数のボタン型のスイッチ、画像表示部35の画面上に積層された透明なタッチパネルで構成されたヒューマンインターフェイス装置である。
 遠隔操作部37は、ナビゲーション装置3を構成する筐体から離れた位置に設置され、無線などによりナビゲーション装置3を遠隔操作可能なリモコン型の操作装置であり、例えば、ステアリングコラム等に着脱可能に設置される。
(監視装置5)
 次に、監視装置5は、運転者の脇見や居眠りなどを監視する装置であり、画像処理部50、投光器制御部51、投光器52、カメラ制御部53、カメラ54で構成される。
 画像処理部50は、図示しないCPU、ROM、RAM等によって構成されているコンピュータ装置で、カメラ54で撮像された画像の画像情報を入力し、この画像情報を解析し、その解析結果をナビゲーション装置3の中央制御装置30に出力する装置である。
 この監視装置5では、運転者の顔をカメラ54で撮像しており、画像処理部50は、このカメラ54で撮像された画像の画像情報から、運転者の視線、顔向き、口の動きを解析して、その解析結果を中央制御装置30からの要求に応じて出力している。
 この画像処理部50で実行される解析方法としては、(2値化処理や濃淡情報によるパターンマッチング等の画像処理)などがあり、本実施形態ではどのような解析方法を用いてもよいが、本実施形態はその解析方法に特徴があるものではないので、その説明については省略する。
 投光器52は、遠赤外線を運転者の顔に向けて照射する投光器であり、カメラ54とともに、ステアリングコラム又はインパネ上に配置される。
 投光器制御部51は、この投光器52の点灯や明るさ等を制御する装置で、画像処理部50からの指示を受けて投光器52を制御する。
 画像処理部50では、カメラ54で撮像した画像を解析して、その解析結果の善し悪し等により投光器52の明るさや点灯を判断しており、投光器制御部51は、この画像処理部50での判断結果に従って、投光器52を制御している。
 カメラ54は、運転者の顔を撮像するものであり、前述したように投光器52とともに、ステアリングコラム又はインパネ上等に配置される。
 カメラ制御部53は、カメラ54の絞り等を制御する装置であり、画像処理部50からの指示を受けてカメラ54を制御する。
 画像処理部50では、カメラ54で撮像した画像を解析して、その解析結果の善し悪し等によりカメラ54の絞り等を判断しており、カメラ制御部53は、この画像処理部50での判断結果に従って、カメラ54を制御している。
(操作制御処理)
 次に、ナビゲーション装置3の中央制御装置30で実行される操作制御処理について説明する。
 この操作制御処理は、監視装置5や、このナビゲーション装置3が備える車速検出部31等から各種情報を入力するとともに、これら入力された情報に基づいてROM30aに記憶された操作制御プログラムを中央制御装置30が処理することにより実行される。
 この操作制御処理が開始されると、図2に示すように、まず、S10が実行される。
 S10では、車速検出部31から入力された車両1の速度に関する信号に基づいて、車両1が予め定められた速度(例えば、時速5km/h)以上の速度で走行しているかが判定される。
 このS10の判定の基準となる速度は、運転者がナビゲーション装置3を操作しても安全上問題がない速度であればよく、上述した時速5km/hに限られるものではない。
 この判定(S10)で、車両1の速度が予め定められた速度未満である場合は(S10:NO)、次にS30の処理が実行される。一方、車両1の速度が予め定められた速度以上である場合は(S10:YES)、次にS11の処理が実行される。
 S11では、マイク32によって音声が拾われたか否かが判定される。このS11により、音声が拾われたと判定された場合は(S11:YES)、次に、S14の処理が実行される。一方、S11により、音声が拾われていないと判定された場合は(S11:NO)、次に、S12の処理が実行される。
 S14では、監視装置5の画像処理部50に対し、運転者の口の動きの解析結果に関する情報を出力するよう指示する処理が実行される。続くS16では、S14での処理により、監視装置5の画像処理部50から入力した運転者の口の動きの解析結果に関する情報に基づいて、運転者が話しているか否かが判定される。
 このS16の処理により、運転者が話していると判定された場合は(S16:YES)、次に、S12の処理が実行される。一方、運転者が話していないと判定された場合は(S16:NO)、次に、S17の処理が実行される。
 このS16では、S14において、車内で誰かがしゃべっていると判定されないと実行されない。よって、このS16において運転者が話していないと判定された場合(S16:NO)、同乗者がいるものと判定される。
 S12では、同乗者がいるとすでに判定されているか判定する処理が実行される。
 この操作制御処理は、ナビゲーション装置3が動作している間、繰り返し実行される。この操作制御処理で実行される後述するS18では、S11及びS16での判定により同乗者がいると判定された場合(S11:YES、S16:NO)、同乗者フラグが立てられる。
 このS12では、すでに実行された前回以前の操作制御処理のS18において、同乗者フラグが立てられているか否かを判定している。
 この判定(S12)で、同乗者がいると判定された場合(S12:YES)、次に、運転者が脇見をしていないか判定するS20の処理が実行される。一方、同乗者がいないと判定された場合(S12:NO)、次に、S40の処理が実行される。
 S17でも、この同乗者フラグが立っているか否かを判定することにより、同乗者がいるとすでに判定されているか判定する処理が実行される。
 この判定(S17)で、同乗者がいるとすでに判定され、同乗者フラグがすでに立っているときは(S17:YES)、次に、S19の処理が実行される。一方、ナビゲーション装置3の動作を開始した後、車速が一定速度を超えたと始めて判定されるか(S10:YES)、後述するS28での処理によって同乗者フラグが倒されていて、同乗者フラグが立っていないと判定された場合(S17:NO)、次に、S18の処理が実行される。
 S18では、同乗者フラグを立てる処理が実行される。
 このS18では、S11及びS16の判定で、音声が入力されているにもかかわらず(S11:YES)、運転者が話をしていないと判定された場合(S16:NO)、すなわち、同乗者がいると判定された場合に実行される処理であり、中央制御装置30のRAM30bに記憶された同乗者フラグ情報を「0」から「1」にして、同乗者フラグが立てられた状態にする。
 S19では、監視装置5の画像処理部50に対し、運転者の視線の解析結果に関する情報を出力するよう指示する処理が実行される。続くS20では、S19での処理により、監視装置5の画像処理部50から入力した運転者の視線の解析結果に関する情報に基づいて、運転者の視線方向がナビゲーション装置3に向いているか否かが判定される。
 このS20の処理により、運転者がナビゲーション装置3に視線を向けていると判定された場合は(S20:YES)、次に、S26の処理が実行される。一方、運転者が視線を向けていないと判定された場合は(S20:NO)、次に、S22の処理が実行される。
 S22では、監視装置5の画像処理部50に対し、運転者の顔向きの解析結果に関する情報を出力するよう指示する処理が実行される。続くS24では、S22での処理により、監視装置5の画像処理部50から入力した運転者の顔向きの解析結果に関する情報に基づいて、運転者がナビゲーション装置3に視線を向けているか否かが判定される。
 このS22の処理により、運転者がナビゲーション装置3に顔を向けていると判定された場合は(S22:YES)、次に、S26の処理が実行される。一方、運転者が顔を向けていないと判定された場合は(S20:NO)、次に、S30の処理が実行される。
 S26では、運転者が一定時間以上、ナビゲーション装置3に視線又は顔を向けているか否かが判定される。
 このS26の判定方法としては、例えば、一定時間以上の運転者の視線又は顔向きに関する情報を中央制御装置30のRAM30b等に記録し、この記録された情報のすべてがナビゲーション装置3に運転者が視線又は顔を向けているという情報であるか否かにより判定してもよい。
 この判定(S26)により、運転者が一定時間以上、ナビゲーション装置3に視線又は顔を向けていると判定された場合(S26:YES)、次に、S28の処理が実行される。一方、運転者が一定時間以上、ナビゲーション装置3に視線又は顔を向けていないと判定された場合(S26:NO)、次に、S30の処理が実行される。
 S28では、同乗者フラグを倒す処理が実行される。すなわち、運転者がナビゲーション装置3を操作しているかもしれないので、危険であるとして、同乗者フラグを倒す処理が実行される。
 S30では、ナビゲーション装置3の操作が許可され、操作部36又は遠隔操作部37による操作がなされた場合、その操作に従ってナビゲーション装置3を動作させる処理が実行される。
 一方、S40では、ナビゲーション装置3の操作が禁止され、操作部36又は遠隔操作部37による操作がなされても、ナビゲーション装置3は動作しない。
 以下、再び、S10以下の処理が繰り返し実行される。
 以上説明した操作制御処理を実行した場合、S10により、車両1の車速が予め定められた速度未満である場合は(S10:NO)、ナビゲーション装置3の操作は常時許可される(S30)。
 また、車両1の車速が予め定められた速度以上である場合であっても(S10:YES)、同乗者がいる場合は(S11:YES、S16:NOの場合、S11:NO又はS16YES、S12:YES)、ナビゲーション装置3の操作は許可される。
 しかし、同乗者がいる場合であっても、運転者が一定時間以上ナビゲーション装置3を見ている場合(S20:YES、S24:YES)、ナビゲーション装置3の操作は禁止される。
 この場合、車両1の速度を予め定められた速度未満に落とすか(S10:NO)、同乗者が声を発するとともに運転者が声を発しない動作を行えば(S11:YES、S16:NO)、ナビゲーション装置3の操作は許可され、同乗者によるナビゲーション装置3の操作が再度可能となる。
(本実施形態の特徴的な作用効果)
 本実施形態の操作制御処理を実行すると、同乗者がいる場合は、車両走行中であってもナビゲーション装置3の操作が許可され、同乗者は、ナビゲーション装置3をいつでも操作することができる。よって、運転者も同乗者もナビゲーション装置3に対して不便さを感じることはない。
 また、本実施形態では、ナビゲーション装置3及び監視装置5にすでに備えられているマイク32及びカメラ54を用い、中央制御装置30で操作制御処理を実行しているだけなので、同乗者を検出するための特別なハード構成を備えなくてもよいので、コストを抑えて導入することができる。
 さらに、本実施形態の操作制御処理を実行すると、同乗者がいない場合は、車両走行中のナビゲーション装置3の操作が禁止される(S11:YESからS16:NOとなることはない)。よって、運転者が車両走行中にナビゲーション装置3を操作する危険な運転を確実に防止することができる。
 また、本実施形態では、同乗者がいる場合であっても、運転者がナビゲーション装置3が位置する方向を見ていた場合、ナビゲーション装置3の操作が禁止される。よって、運転者がナビゲーション装置3を操作するためよそ見をしていても、これを防止することができる。
(その他の実施形態)
 上記実施形態では操作制御処理を実行する操作制御プログラムがROM30aに実行された例について説明したが、この操作制御プログラムは、既存のナビゲーション装置3にCDやDVD等のメディア(有形で非一時的な記憶媒体)を用いてインストールするようにしてもよい。
 また、上記実施形態では、ナビゲーション装置3について説明したが、これ以外の車載装置に操作制御プログラムをインストールするなどして、その車載装置に対して操作制御プログラムを実行するようにしてもよい。
(対応関係)
 本実施形態のうち、操作制御処理を実行する中央制御装置30、車速検出部31、マイク32、操作部36、遠隔操作部37、カメラ54は、本開示の操作制御装置の一例に相当できる。また、本実施形態の操作部36、遠隔操作部37は、本開示の操作手段(操作部)の一例に相当できる。カメラ54は、撮像部の一例に相当できる。
 本実施形態のS10の処理は、本開示の走行判定手段(走行判定部)及び走行判定ステップの一例に相当できる。S40の処理は、第1操作禁止手段(第1操作禁止部)及び第1操作禁止ステップの一例に相当できる。
 本実施形態のS11の処理は、本開示の音声検出手段(音声検出部)及び音声検出ステップの一例に相当できる。カメラ54は、撮像部の一例に相当できる。S16の処理は、口動作検出手段(口動作検出部)及び口動作検出ステップの一例に相当できる。S18の処理は、解除手段(解除部)及び解除ステップの一例に相当できる。
 本実施形態のS20、S24の処理は、本開示の視線検出手段(視線検出部)及び視線検出ステップの一例に相当できる。S26の処理は、脇見検出手段(脇見検出部)及び脇見検出ステップの一例に相当できる。S28の処理は、第2操作禁止手段(第2操作禁止部)及び第2操作禁止ステップ一例に相当できる。
 以上、本開示に係る実施の形態および構成を例示したが、本開示に係る実施の形態および構成は、上述した各実施の形態および各構成に限定されるものではない。異なる実施の形態および構成にそれぞれ開示された技術的要素を適宜組み合わせて得られる実施の形態および構成についても本開示に係る実施の形態および構成の範囲に含まれる。

Claims (7)

  1.  車載装置を操作するための操作部(36、37)と、
     前記車載装置を搭載している車両が走行しているか判定する走行判定部(S10)と、
     該走行判定部(S10)により車両が走行していると判定される場合は、前記操作部(36、37)に対する操作を禁止する第1操作禁止部(S40)と、
     車内に設置されたマイク(32)と、
     該マイク(32)を用いて車内で発生した音声を検出する音声検出部(S11)と、
     運転者の顔を撮像する撮像部(54)と、
     該撮像部(54)で撮像した運転者の顔の画像から、運転者の口に動きがあるかを検出する口動作検出部(S16)と、
     該口動作検出部(S16)が運転者の口の動きを検出していないときに、前記音声検出部(S11)が車内で発生する音声を検出した場合、前記第1操作禁止部(S40)による前記操作部(36、37)に対する操作の禁止を解除する解除部(S18)と
     を備える操作制御装置。
  2.  請求項1に記載の操作制御装置において、
     該撮像部(54)で撮像した運転者の顔の画像から、運転者の視線方向又は顔向きを検出する視線検出部(S20、S24)と、
     前記視線検出部(S20、S24)で検出された運転者の視線方向又は顔向きから、運転者が一定時間以上、前記車載装置を見ているか検出する脇見検出部(S26)と、
     前記脇見検出部(S26)により、運転者が一定時間以上、前記車載装置を見ていると判定された場合、前記操作部(36、37)に対する操作を禁止する第2操作禁止部(S28)と、
     を備える操作制御装置。
  3.  請求項1,2のいずれか1項に記載の操作制御装置において、
     前記走行判定部(S10)は、
      前記車両が予め定められた速度以上で走行しているとき、前記車両が走行していると判定する操作制御装置。
  4.  車載装置を搭載している車両が走行しているか判定する走行判定ステップ(S10)と、
     該走行判定ステップ(S10)により車両が走行していると判定される場合は、前記車載装置を操作するための操作部(36、37)に対する操作を禁止する第1操作禁止ステップ(S40)と、
     車内に設置されたマイク(32)を用いて車内で発生した音声を検出する音声検出ステップ(S11)と、
     運転者の顔を撮像する撮像部(54)で撮像した運転者の顔の画像から、運転者の口に動きがあるかを検出する口動作検出ステップ(S16)と、
     該口動作検出ステップ(S16)で運転者の口の動きが検出されていないときに、前記音声検出ステップ(S11)により、車内で発生する音声が検出された場合、前記第1操作禁止ステップ(S40)での前記操作部(36、37)に対する操作の禁止を解除する解除ステップ(S18)と
     を備える操作制御プログラム。
  5.  請求項4に記載の操作制御プログラムにおいて、
     前記撮像部(54)で撮像した運転者の顔の画像から、運転者の視線方向又は顔向きを検出する視線検出ステップ(S20,S24)と、
     前記視線検出ステップ(S20,S24)で検出された運転者の視線方向又は顔向きから、運転者が一定時間以上、前記車載装置を見ているか検出する脇見検出ステップ(S26)と、
     前記脇見検出ステップ(S26)により、運転者が一定時間以上、前記車載装置を見ていると判定された場合、前記操作部(36、37)に対する操作を禁止する第2操作禁止ステップ(S40)と、
     を備える操作制御プログラム。
  6.  請求項4,5のいずれか1項に記載の操作制御プログラムにおいて、
     前記走行判定ステップ(S10)は、
      前記車両が予め定められた速度以上で走行しているとき、前記車両が走行していると判定する操作制御プログラム。
  7.  請求項4ないし6のいずれか1項に記載の操作制御プログラムを記憶する、有形な非一時的な記憶媒体。
PCT/JP2013/004582 2012-08-03 2013-07-29 操作制御装置、及び、操作制御プログラム WO2014020889A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012172959A JP5853897B2 (ja) 2012-08-03 2012-08-03 操作制御装置、及び、操作制御プログラム
JP2012-172959 2012-08-03

Publications (1)

Publication Number Publication Date
WO2014020889A1 true WO2014020889A1 (ja) 2014-02-06

Family

ID=50027596

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/004582 WO2014020889A1 (ja) 2012-08-03 2013-07-29 操作制御装置、及び、操作制御プログラム

Country Status (2)

Country Link
JP (1) JP5853897B2 (ja)
WO (1) WO2014020889A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6544214B2 (ja) * 2015-11-17 2019-07-17 トヨタ自動車株式会社 操作装置
JP6764706B2 (ja) * 2016-06-16 2020-10-07 日産自動車株式会社 車両用表示方法及び車載器
WO2019171452A1 (ja) * 2018-03-06 2019-09-12 三菱電機株式会社 運転支援装置、運転支援方法及び運転支援装置を備えた運転支援システム
JP7227106B2 (ja) * 2019-08-22 2023-02-21 本田技研工業株式会社 操作制御装置、操作制御方法、およびプログラム
JP2022134915A (ja) * 2021-03-04 2022-09-15 株式会社Jvcケンウッド 検知機能制御装置、検知機能制御方法、及びプログラム
WO2023105700A1 (ja) * 2021-12-09 2023-06-15 三菱電機株式会社 更新判定装置及び更新判定方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005338934A (ja) * 2004-05-24 2005-12-08 Nissan Motor Co Ltd 車両内コミュニケーション装置
WO2007135865A1 (ja) * 2006-05-23 2007-11-29 Pioneer Corporation 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体
JP2009087204A (ja) * 2007-10-02 2009-04-23 Honda Motor Co Ltd 車両用電話通話判定装置
JP2010241371A (ja) * 2009-04-09 2010-10-28 Toyota Motor Corp 運転状態検出装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7164117B2 (en) * 1992-05-05 2007-01-16 Automotive Technologies International, Inc. Vehicular restraint system control system and method using multiple optical imagers
JP2010262424A (ja) * 2009-05-01 2010-11-18 Nikon Corp 車載カメラシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005338934A (ja) * 2004-05-24 2005-12-08 Nissan Motor Co Ltd 車両内コミュニケーション装置
WO2007135865A1 (ja) * 2006-05-23 2007-11-29 Pioneer Corporation 撮影制御装置、撮影制御方法、撮影制御プログラム、および記録媒体
JP2009087204A (ja) * 2007-10-02 2009-04-23 Honda Motor Co Ltd 車両用電話通話判定装置
JP2010241371A (ja) * 2009-04-09 2010-10-28 Toyota Motor Corp 運転状態検出装置

Also Published As

Publication number Publication date
JP5853897B2 (ja) 2016-02-09
JP2014032119A (ja) 2014-02-20

Similar Documents

Publication Publication Date Title
EP3330148B1 (en) Automatic driving system for vehicles
US9248796B2 (en) Visually-distracted-driving detection device
US7680592B2 (en) System and apparatus for drive assistance
WO2014020889A1 (ja) 操作制御装置、及び、操作制御プログラム
WO2020031873A1 (ja) 脇見運転検出装置
WO2018163456A1 (ja) 運転モード切替制御装置、方法およびプログラム
JP5590747B2 (ja) 運転者危険運転報知装置
JP2007082594A (ja) 疲労検出装置
JP2005024507A (ja) ナビゲーション装置及びプログラム
WO2014006835A1 (ja) 運転支援装置及び運転支援プログラムプロダクト
JP6398182B2 (ja) 信号情報提示装置
WO2018168097A1 (ja) 運転状態判定装置、運転状態判定方法及び運転状態判定のためのプログラム
JP2008222167A (ja) 乗員特定装置
JP5066539B2 (ja) 機器操作制御装置、機器操作制御方法およびプログラム
JP4265992B2 (ja) 運転支援装置
WO2018168099A1 (ja) 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
JP2009181322A (ja) 車両用表示制御装置
JP6335718B2 (ja) 表示制御装置
JP2005189936A (ja) 車両制御システム
WO2018168046A1 (ja) 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
WO2018168050A1 (ja) 集中度判定装置、集中度判定方法及び集中度判定のためのプログラム
JP2019040358A (ja) 自動運転支援装置
JP2005135203A (ja) 車両運転支援装置
US20220306140A1 (en) Method for operating a motor vehicle, computer program product and motor vehicle
JP7070322B2 (ja) 経路案内制御装置、経路案内制御システム、経路案内制御方法、および経路案内制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13826308

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13826308

Country of ref document: EP

Kind code of ref document: A1