WO2023090020A1 - 制御装置、制御方法、およびプログラム - Google Patents

制御装置、制御方法、およびプログラム Download PDF

Info

Publication number
WO2023090020A1
WO2023090020A1 PCT/JP2022/038570 JP2022038570W WO2023090020A1 WO 2023090020 A1 WO2023090020 A1 WO 2023090020A1 JP 2022038570 W JP2022038570 W JP 2022038570W WO 2023090020 A1 WO2023090020 A1 WO 2023090020A1
Authority
WO
WIPO (PCT)
Prior art keywords
agent
state
control device
control unit
behavior
Prior art date
Application number
PCT/JP2022/038570
Other languages
English (en)
French (fr)
Inventor
秀平 武内
恒行 山本
直城 神谷
貴紘 田中
Original Assignee
株式会社東海理化電機製作所
株式会社ポットスチル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東海理化電機製作所, 株式会社ポットスチル filed Critical 株式会社東海理化電機製作所
Publication of WO2023090020A1 publication Critical patent/WO2023090020A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/24Reminder alarms, e.g. anti-loss alarms
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to control devices, control methods, and programs.
  • Japanese Unexamined Patent Application Publication No. 2002-200001 discloses a vehicle agent device that issues a warning notification using a character image (anthropomorphic character) displayed on a display panel.
  • the vehicle may be equipped with various systems for assisting driving, but since the state of such systems is not presented to the operator, the operator may feel uneasy or may be alerted. However, there are cases where it is difficult for the operator to notice.
  • an object of the present invention is to link the state of a system that assists driving with an agent, and to make the operator aware of the behavior of the agent.
  • a control unit for controlling an agent that presents information, and the control unit controls the agent so as to give the operator notice according to the state of the system that supports the running of the moving object.
  • a controller is provided to control the behavior.
  • the processor controls an agent that presents information, and furthermore, according to the state of a system that supports running of a mobile object, the agent is made aware of the operator.
  • a control method is provided, including controlling the behavior of the
  • the computer is made to function as a control unit that controls an agent that presents information, and the control unit detects the operator according to the state of the system that supports the running of the moving object.
  • a program is provided for controlling the behavior of the agent to provide a
  • FIG. 1 is a diagram showing the configuration of a control system according to one embodiment of the present invention.
  • the control system 1 includes a control device 10 and an agent device 20, as shown in FIG.
  • the control device 10 and the agent device 20 are connected for communication and can transmit and receive data.
  • an agent is a subject that presents information to a user, and is implemented by a computer.
  • the control device 10 controls the agent device 20 and implements information presentation by the agent.
  • the agent device 20 is a real object and has an anthropomorphic shape. In other words, the agent device 20 can be said to be a personified interface.
  • the specific shape that realizes an anthropomorphic interface for example, it may be a shape in the shape of a person, an animal, or a character, or a simple sphere, cylinder, cube, or egg. etc. may be provided with portions corresponding to at least parts of body parts such as eyes, nose, mouth, face, or limbs.
  • the agent device 20 may be a display device having a display section for displaying an image of the agent.
  • the control system 1 according to this embodiment is applied to a vehicle, for example.
  • a vehicle is an example of a mobile object.
  • a vehicle to which the control system 1 according to the present embodiment is applied may be a manually operated vehicle or a vehicle capable of automatic operation.
  • the control device 10 can also control various devices mounted on the vehicle (hereinafter referred to as on-vehicle devices).
  • the agent device 20 may also be controlled as one of the in-vehicle devices.
  • the agent device 20 is installed, for example, around the driver's seat.
  • the agent device 20 may be installed detachably with respect to the vehicle, may be fixed, or may be simply placed.
  • the control system 1 can realize voice interaction between the occupants of the vehicle, including the driver who is the operator, and the agent. Specifically, the control system 1 recognizes the voice spoken by the passenger, generates a response to the contents of the voice, and outputs the response as the voice of the agent. Recognition of spoken voice, generation of a response sentence, and generation of agent voice can be performed by the control device 10, for example.
  • a microphone (not shown) that picks up the uttered voice may be installed in the vehicle interior, or may be installed in the agent device 20 .
  • the agent voice may be output from a speaker provided in the agent device 20 .
  • the control device 10 can appropriately control the in-vehicle equipment according to instructions from the driver.
  • ADAS Advanced Driver-Assistance Systems
  • the state of the ADAS system function includes, for example, a state of preparing for deceleration because the vehicle is close to the preceding vehicle, and a state of not being maintained because the lane detection rate is not sufficient.
  • the visibility of the display is lowered due to the reflection of sunlight, etc., even though the driver is in the alerting state (the driver does not know that the attention is being alerted).
  • the control system 1 was conceived by focusing on the above points, and is intended to link the state of the driving support system and the agent, and to give the operator notice by the behavior of the agent. make it possible. Even if the specific content of the state is not conveyed, the operator's anxiety is reduced by giving some awareness through the behavior of the agent.
  • the behavior of the agent realized as an anthropomorphic interface can make the operator aware of at least the state of the driving support system, for example.
  • control system 1 The configuration and operation of the control system 1 according to this embodiment will be specifically described below.
  • control device 10 and the agent device 20 are installed in a vehicle will be described.
  • the control device 10 has an I/F (interface) section 110, a control section 120, and a storage section 130, as shown in FIG.
  • the I/F unit 110 has a function of communicating with the agent device 20 by wire or wirelessly, and transmitting and receiving data. Also, the I/F unit 110 can receive data wirelessly or by wire from various driving support systems installed in the vehicle. More specifically, information about the state of the system can be received from each vehicle-mounted device that provides the driving assistance system. Transmission and reception of data between each in-vehicle device including the agent device 20 is performed by an in-vehicle communication network conforming to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), or LAN (Local Area Network). may be performed using Note that the I/F unit 110 may communicate with each vehicle-mounted device via another device such as a vehicle-mounted device control device.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • the I/F unit 110 may have a function of transmitting and receiving data to and from a device existing outside the vehicle (hereinafter also referred to as an external device).
  • the I/F unit 110 implements cellular communication protocols such as WiMAX and LTE (Long Term Evolution), or other wireless communication protocols such as wireless LAN (Wi-Fi (registered trademark)) and Bluetooth (registered trademark). You may
  • the I/F unit 110 can connect to a server on an external network (for example, the Internet) via a base station or access point.
  • control unit 120 The control unit 120 is configured to centrally control the overall processing performed by the control device 10 .
  • the control unit 120 executes processing for realizing various functions using programs, parameters, and the like stored in the storage unit 130 .
  • the control unit 120 can be realized by a processor such as a CPU (Central Processing Unit) or an MCU (Micro Controller Unit), for example.
  • control unit 120 can control in-vehicle equipment including the agent device 20 .
  • control unit 120 according to the present embodiment can control voice interaction with the agent and present various information to the user.
  • control unit 120 also functions as a speech recognition unit 121, an utterance control unit 122, a system information acquisition unit 123, and a behavior control unit 124.
  • the voice recognition unit 121 has a function of recognizing voices spoken by passengers including the driver. For example, the voice recognition unit 121 performs voice recognition processing on the uttered voice that is picked up by a microphone provided in the agent device 20 and transmitted from the agent device 20 .
  • the speech recognition algorithm is not particularly limited, but for example, the speech recognition unit 121 converts an uttered voice into text and performs semantic analysis and morphological analysis on the text data.
  • the speech recognition section 121 outputs the recognition result to the speech control section 122 .
  • voice recognition is performed by the control device 10, but the present embodiment is not limited to this, and voice recognition may be performed by an external device (for example, a server).
  • the voice recognition unit 121 may transmit the acquired uttered voice to a predetermined server and acquire the voice recognition result from the predetermined server.
  • the speech recognition unit 121 may appropriately perform at least part of the speech recognition processing on a server.
  • the control unit 120 controls the target on-vehicle equipment. Controls the sending of signals.
  • the speech control unit 122 has a function of controlling speech by the agent.
  • the speech control unit 122 generates an agent's voice by voice synthesis, outputs the agent's voice to the agent device 20 , and controls the speaker of the agent device 20 to output the voice.
  • the utterance control unit 122 may acquire the agent's voice from another device (for example, server).
  • the contents of the agent voice whose output is controlled by the utterance control unit 122 are not limited to responses to the utterances of passengers including the driver, and include presentation of various information. Such information may be obtained from each vehicle-mounted device, or may be obtained from the Internet.
  • the system information acquisition unit 123 has a function of acquiring information regarding the state of the driving support system. Specifically, the system information acquisition unit 123 acquires information about the state of the system from each vehicle-mounted device that implements the driving support system. Information about the state of the system includes, for example, information indicating the current state of the system. In addition, the state of the system may further include numerical values such as sensing data used in the system and the detection rate of sensors used in the system. Further, when the system is in a state of calling attention to the driver, the system information acquisition unit 123 also acquires information on the content of the attention (for example, the direction of the attention).
  • the behavior control unit 124 controls the behavior of the agent in the agent device 20 based on the information about the state of the driving support system acquired by the system information acquisition unit 123 so as to make the operator aware. That is, the behavior control unit 124 determines the behavior of the agent based on the state of the system. The behavior of the determined agent differs depending on, for example, whether the state of the system is good or bad.
  • the behavior control unit 124 determines whether the state of the system is good or bad based on the information about the state of the driving support system, and if the state is good, the behavior that is defined for the good case, and if it is bad, the behavior is defined for the bad case. controls the behavior that is being done.
  • the system state may be in a good state (which may mean a normal state without errors) or in a bad state (when an error has occurred, or when some kind of warning has occurred). It is possible to make the driver aware of whether the vehicle is
  • Good behaviors include, for example, moving the agent slowly (slowing down the rotation speed, etc.), smiling, and making the agent's emission color blue.
  • bad behaviors include, for example, making the agent move more vigorously (increase the rotation speed, etc.), make the agent look embarrassed, and make the agent emit red.
  • the driver By behavior in good cases, it is possible to give the driver a sense of awareness (recognition) that the system is functioning normally, and reassure the driver. For example, even if the vehicle is approaching the vehicle in front and the driver is concerned about whether the ACC will work, if the agent's behavior indicates a good state (for example, slow movement) (actually the system will turn off the accelerator). or preparing to slow down by turning on the brake), the driver can intuitively grasp that the ACC is functioning normally, and can feel at ease.
  • the behavior of the bad case can give the system a sense of urgency, and can prompt the driver to take caution or take avoidance action.
  • the visual movement used as one of the agent's behaviors is easily captured by the driver's peripheral vision, so the driver can more reliably notice the system state.
  • the driver can intuitively grasp whether the system state is good or bad by the behavior of the agent, compared to notification by numerical values, messages, or the like.
  • the behavior control unit 124 may determine that the system status information satisfies a prescribed condition as a good state, and that the system status information does not satisfy the prescribed condition as a bad state. . For example, if the detection rate of a sensor that detects lanes obtained from a lane keeping system is lower than a threshold, it is determined that the vehicle is in a bad state. In this case, since the lane keeping system switches steering control for lane keeping from automatic control to manual control by the driver, it is necessary to alert the driver.
  • a good state may include a normal state in which no errors have occurred.
  • the behavior control unit 124 determines that the value indicating the state of the system is normal if it is within a specified range, good if it exceeds the specified range, and bad if it does not reach the specified range. may In this case, the behavior control unit 124 controls different behaviors in the normal state, the good state, and the bad state. For example, if the inter-vehicle distance value obtained from the ACC system is within the prescribed range, it is judged to be in normal condition, if it exceeds the prescribed range, it is in good condition, and if it does not reach the prescribed range, it is judged to be in bad condition. good.
  • a bad state is assumed, for example, when an error occurs in the ACC system and deceleration control is not performed, or when the timing of deceleration control is delayed and the driver needs to pay attention to the inter-vehicle distance.
  • the behavior control unit 124 may give stages to the bad state. For example, the behavior control unit 124 moves slowly and emits blue light when the condition is good, moves slightly faster and emits yellow light when the condition is slightly worse (warning level), and the fastest when the condition is even worse (near dangerous level). It may be motion and red light emission.
  • the behavior control unit 124 can express the degree of goodness or badness of the system state by the behavior of the agent.
  • the behavior control unit 124 can express the degree of goodness or badness by the amount of movement of the agent, the depth of color, the speed of blinking of light, or the like.
  • Agent behavior includes at least one of agent movement, color, and light. Also, the “movement of the agent” may include changes in the agent's facial expression.
  • the storage unit 130 is configured to store various types of information.
  • the storage unit 130 stores programs, parameters, and the like used by the control unit 120 .
  • the storage unit 130 may store processing results by the control unit 120, information received by the I/F unit 110, and the like.
  • the content of information stored in the storage unit 130 is not particularly limited.
  • the storage unit 130 can be realized by, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), or the like.
  • control device 10 The configuration example of the control device 10 according to the present embodiment has been described above.
  • the configuration of the control device 10 according to this embodiment is not limited to the example shown in FIG.
  • the control device 10 according to this embodiment may be realized by a plurality of devices.
  • the control device 10 may have a configuration (the speech recognition unit 121 and the speech control unit 122) that does not have the function of controlling the agent's voice interaction.
  • the function of the control unit 120 may be realized by an ECU (Electronic Control Unit) mounted on the vehicle, a microcomputer mounted on the ECU, or the like.
  • at least part of the functions of the control unit 120 may be realized by an external device (for example, a cloud server on the Internet, a smart phone, a tablet terminal, etc. owned by the driver) that is not mounted on the vehicle.
  • an external device for example, a cloud server on the Internet, a smart phone, a tablet terminal, etc. owned by the driver
  • Agent device 20 The agent device 20 can output an uttered voice and behave under the control of the control device 10 .
  • Agent device 20 may have, for example, a microphone and a speaker.
  • the agent device 20 is formed of members corresponding to the face, body, etc., has a function of driving each member, and can realize the behavior of the agent by driving each member. An example of agent behavior will be described below with reference to FIG.
  • FIG. 2 is a diagram explaining an example of agent behavior according to this embodiment.
  • the agent device 20 is implemented by a main body portion 231 and an exposed portion 232 located inside the main body portion 231 and capable of being exposed from the main body portion 231 .
  • the main body part 231 is formed, for example, in the shape of a cylinder, as shown in FIG.
  • the exposed portion 232 is also formed in a cylindrical shape along the main body portion 231 and positioned inside the main body portion 231 . Also, as shown in the center of FIG. 2, the exposed portion 232 can move vertically with respect to the body portion 231 to expose the face portion 233 from above the body portion 231 .
  • the agent's "eyes" provided on the face portion 233 may be realized by light emitting units. Alternatively, the “eyes” of the agent may be openings, and the light source may be provided inside the exposed portion 232 .
  • the agent's face is expressed only by "eyes", but the present embodiment is not limited to this, and the agent's face may be provided with a nose and mouth, or may be provided without eyes. It's good.
  • the exposed portion 232 can rotate clockwise or counterclockwise while positioned inside the main body portion 231 .
  • the agent device 20A can turn the agent's face (line of sight) in any direction.
  • the face of the agent faces the direction of travel of the vehicle. It is also possible to direct the attention of
  • the specific drive mechanism for realizing the vertical movement and rotational movement of the exposed portion 232 is not particularly limited.
  • the drive of the exposed portion 232 can be realized as appropriate using various motors or the like.
  • the behavior of the agent according to this embodiment includes, for example, the appearance and disappearance of the face portion 233, rotation (rotating operation of the exposed portion 232 as shown in the right side of FIG. 2), and the like.
  • a behavior may be performed in which the orientation of the agent's face or line of sight indicates the direction of attention (for example, the right direction, the left direction, or the rear of the vehicle).
  • FIG. 2 is just an example, and the present embodiment is not limited to this.
  • the agent device 20 has a function of wirelessly or wiredly transmitting and receiving data to and from the control device 10 and a function of comprehensively controlling the overall processing performed by the agent device 20 .
  • the control function executes processing for realizing various functions using programs, parameters, and the like stored in storage units such as RAM and ROM.
  • the control function can be implemented by a processor such as a CPU (Central Processing Unit) or MCU (Micro Controller Unit).
  • the control function controls the driving of each member (exposed portion 232, light-emitting portion, etc.) in accordance with a control signal received from the control device 10 and instructing the behavior of the agent.
  • control system 1 The configuration of the control system 1 according to this embodiment has been described above. Note that the configuration of the control system 1 according to this embodiment is not limited to the example shown in FIG. For example, a device in which the control device 10 and the agent device 20 are integrated may be used.
  • FIG. 3 is a flow chart showing an example of the flow of operation processing of the control system 1 according to this embodiment.
  • the system information acquisition unit 123 of the control device 10 acquires system information, which is information indicating the state of the driving support system (step S103).
  • the behavior control unit 124 determines the state of the system based on the acquired system information (step S106). For example, the behavior control unit 124 may determine whether the state of the system is good or bad.
  • the behavior control unit 124 controls the behavior of the agent according to the state of the system (step S109). For example, the behavior control unit 124 controls the agent device 2 (transmits a control signal) so as to behave according to a good state or a bad state.
  • agent behavior according to this embodiment is not limited to the agent behavior depending on whether the system state is good or bad, and may be any agent behavior depending on the system state.
  • a vehicle is used as an example of a mobile object on which the control device 10 and the agent device 20 are mounted. , submarines, etc.) or aircraft (eg, airplanes, helicopters, gliders, airships, etc.). Also, the vehicle is not limited to an automobile, and may be a bus, motorcycle, locomotive, train, or the like. Also, the moving body is not necessarily limited to the above examples, and may be any object that can move. It is only an example that the control device 10 and the agent device 20 are mounted on a mobile body, and the control device 10 and the agent device 20 may be mounted on a body other than the mobile body.
  • a computer-readable recording medium on which the program of is recorded can also be provided.
  • Control System 10: Control Device, 20: Agent Device, 110: Communication I/F, 120: Control Unit, 121: Speech Recognition Unit, 122: Speech Control Unit, 123: System Information Acquisition Unit, 124: Behavior Control unit 130: storage unit

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Navigation (AREA)

Abstract

【課題】走行を支援するシステムの状態とエージェントを連携させ、エージェントの挙動により操作者に気付きを与えることが可能な制御装置、制御方法、およびプログラムを提供する。 【解決手段】情報を提示するエージェントを制御する制御部を備え、前記制御部は、移動体の走行を支援するシステムの状態に応じて、操作者に気付きを与えるよう前記エージェントの挙動を制御する、制御装置。

Description

制御装置、制御方法、およびプログラム
 本発明は、制御装置、制御方法、およびプログラムに関する。
 近年、ユーザと音声による対話を行って様々な情報を提示するエージェント機能が提案されている。例えば、下記特許文献1では、表示用パネルに表示されたキャラクター画像(擬人化されたキャラクタ)を用いて警告報知を発する車両用エージェント装置が開示されている。
特開2020-57080号公報
 ここで、車両には走行を支援するための様々なシステムが搭載され得るが、かかるシステムの状態は操作者に呈示されることがないため、操作者が不安に思ったり、注意喚起が表示されても操作者が気付き難かったりする場合があった。
 そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、走行を支援するシステムの状態とエージェントを連携させ、エージェントの挙動により操作者に気付きを与えることが可能な、新規かつ改良された制御装置、制御方法、およびプログラムを提供することにある。
 上記課題を解決するために、情報を提示するエージェントを制御する制御部を備え、前記制御部は、移動体の走行を支援するシステムの状態に応じて、操作者に気付きを与えるよう前記エージェントの挙動を制御する、制御装置が提供される。
 また、上記課題を解決するために、プロセッサが、情報を提示するエージェントを制御することを含み、さらに、移動体の走行を支援するシステムの状態に応じて、操作者に気付きを与えるよう前記エージェントの挙動を制御することを含む、制御方法が提供される。
 また、上記課題を解決するために、コンピュータを、情報を提示するエージェントを制御する制御部として機能させ、前記制御部は、移動体の走行を支援するシステムの状態に応じて、操作者に気付きを与えるよう前記エージェントの挙動を制御する、プログラムが提供される。
 以上説明したように本発明によれば、走行を支援するシステムの状態とエージェントを連携させ、エージェントの挙動により操作者に気付きを与えることが可能となる。
本発明の一実施形態に係る制御システムの構成を示す図である。 本実施形態によるエージェントの挙動の一例について説明する図である。 本実施形態による制御システムの動作処理の流れの一例を示すフローチャートである。
 以下に添付図面を参照しながら、本発明の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 <1.システム構成>
 図1は、本発明の一実施形態に係る制御システムの構成を示す図である。制御システム1は、図1に示すように、制御装置10およびエージェント装置20を含む。制御装置10およびエージェント装置20は通信接続し、データの送受信を行い得る。
 本実施形態において、エージェントとは、利用者に情報を提示する主体であって、コンピュータにより実現される。制御装置10は、エージェント装置20を制御し、エージェントによる情報提示を実現する。エージェント装置20は、実物体であり、擬人化形状を有する。すなわち、エージェント装置20は、擬人化されたインタフェースと言える。擬人化されたインタフェースを実現する具体的な形状は特に限定しないが、例えば、人、動物、またはキャラクター等を形取った形状であってもよいし、単純な球体や円柱型、立方体、卵型等の形状に、目や鼻、口、顔、または手足等の身体部位の少なくとも一部に相当する部分が設けられたものであってもよい。また、エージェント装置20は、エージェントの映像を表示する表示部を有する表示装置であってもよい。
 本実施形態による制御システム1は、例えば車両に適用される。車両とは、移動体の一例である。本実施形態による制御システム1が適用される車両は、手動運転の車両であってもよいし、自動運転が可能な車両であってもよい。
 制御装置10は、車両に搭載された様々な機器(以下、車載機器と称する)の制御を行うことも可能である。本実施形態によるエージェント装置20も、車載機器の一つとして制御されてもよい。エージェント装置20は、例えば運転席の周辺に設置される。エージェント装置20は、車両に対して着脱可能に設置されてもよいし、固定されてもよいし、載置されているだけであってもよい。
 制御システム1は、操作者である運転者を含む車両の乗員と、エージェントとの音声対話を実現し得る。具体的には、制御システム1は、乗員の発話音声を認識し、発話内容に対する応答を生成してエージェント音声により出力する。発話音声の認識と、応答文の生成、およびエージェント音声の生成は、例えば制御装置10により行われ得る。発話音声を収音するマイクロホン(不図示)は、車室内に設置されてもよいし、エージェント装置20に設置されてもよい。また、エージェント音声の出力は、エージェント装置20に設けられたスピーカから行われてもよい。これにより、例えば運転者は、エージェントとの対話から様々な情報を取得したり、エージェントに対して様々な指示を行ったりすることができる。また、制御装置10は、運転者からの指示に応じて、車載機器を適宜制御することも可能である。
 (課題の整理)
 ここで、車両には走行を支援するための様々なシステムが搭載されているが、かかるシステムの状態は操作者に呈示されることがないため操作者が不安に思ったり、注意喚起表示されても操作者が気付き難かったりする場合があった。走行を支援する様々なシステムとしては、例えば、前走車をセンサで検知し、車間距離を一定に保ちながら走る「追従走行」を実現するACC(Adaptive Cruise Control System)システムや、道路上の車線をセンサで検知し、車線から逸脱しないようステアリングを制御する車線維持システムや、運転者の死角となる後方等から接近する車両をセンサで検知し、運転者に知らせるBSM(Blind Spot Monitoring)システムがある。このような、車両自体が周囲の状況を把握して、運転者に表示や警告を行ったり、運転者に代わって車両を制御したりする各種機能は、ADAS(Advanced Driver-Assistance Systems)とも総称される。
 従来、ADAS系機能の状態が呈示されてないことで操作者を不安にさせてしまう恐れがあった。ADAS系機能の状態とは、例えば、前走車と近いため減速準備をしている状態であることや、車線検知率が十分でないため維持できていないこと等が挙げられる。また、注意喚起を行っている状態であるが太陽光の反射等により表示の視認性が下がり運転者が気付き難い(注意喚起を行っている状態であることが分からない)ことも考え得る。
 本発明の一実施形態に係る制御システム1は、上記の点に着目して発想されたものであり、走行支援システムの状態とエージェントを連携させ、エージェントの挙動により操作者に気付きを与えることを可能とする。状態の具体的な内容を伝えなくとも、エージェントの挙動により何らかの気付きを与えることで、操作者の不安を低減する。擬人化したインタフェースとして実現されたエージェントの挙動において、例えば少なくとも走行支援システムの状態の良し悪しを操作者に気付かせ得る。
 以下、本実施形態による制御システム1の構成および動作について具体的に説明する。本実施形態では、一例として制御装置10およびエージェント装置20が車両に搭載されている場合について説明する。
 <2.装置構成例>
 (2-1.制御装置10)
 制御装置10は、図1に示すように、I/F(interface)部110、制御部120、および記憶部130を有する。
 (I/F部110)
 I/F部110は、エージェント装置20と有線または無線により通信接続し、データの送信および受信を行う機能を有する。また、I/F部110は、車両に搭載される様々な走行支援システムから、無線または有線により、データを受信し得る。より具体的には、走行支援システムを提供する各車載機器から、システムの状態に関する情報を受信し得る。エージェント装置20を含む各車載機器との間におけるデータの送受信は、例えばCAN(Controller Area Network)、LIN(Local Interconnect Network)、又はLAN(Local Area Network)等の任意の規格に準拠した車載通信ネットワークを用いて行われてもよい。なお、I/F部110は、車載機器制御装置などの他の装置を介して各車載機器と通信接続してもよい。
 また、I/F部110は、車両の外部に存在する装置(以下、外部装置とも称する)との間でデータの送信および受信を行う機能を有していてもよい。I/F部110は、例えばWiMAX、LTE(Long Term Evolution)などのセルラー通信プロトコル、又は、無線LAN(Wi-Fi(登録商標))、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してもよい。I/F部110は、基地局やアクセスポイントを介して、外部ネットワーク(例えば、インターネット)上のサーバに接続し得る。
 (制御部120)
 制御部120は、制御装置10にて行われる処理全般を統括的に制御する構成である。例えば、制御部120は、記憶部130に記憶されているプログラムやパラメータ等を用いて各種機能を実現するための処理を実行する。制御部120は、例えば、CPU(Central Processing Unit)や、MCU(Micro Controller Unit)等のプロセッサによって実現され得る。
 例えば制御部120は、エージェント装置20を含む車載機器の制御を行い得る。また、本実施形態による制御部120は、エージェントとの音声対話を制御し、様々な情報をユーザに提示し得る。
 より具体的には、本実施形態による制御部120は、音声認識部121、発話制御部122、システム情報取得部123、および挙動制御部124としても機能する。
 ・音声認識部121
 音声認識部121は、運転者を含む乗員の発話音声を認識する機能を有する。例えば音声認識部121は、エージェント装置20に設けられたマイクロホンにより収音され、エージェント装置20から送信された発話音声に対して、音声認識処理を行う。音声認識のアルゴリズムについては特に限定しないが、例えば音声認識部121は、発話音声をテキスト化し、テキスト化したデータの意味解析や形態素解析を行う。音声認識部121は、認識結果を発話制御部122に出力する。
 なお、ここでは一例として制御装置10にて音声認識を行う旨を説明しているが、本実施形態はこれに限定されず、例えば音声認識を外部の装置(例えばサーバ)で行ってもよい。具体的には、音声認識部121は、取得した発話音声を所定のサーバに送信し、所定のサーバから音声認識結果を取得してもよい。また、音声認識部121は、音声認識処理の少なくとも一部を適宜サーバで行うようにしてもよい。
 また、音声認識の結果、車両に搭載されているオーディオ装置の制御や空調装置の制御、ナビゲーションの要求など、車載機器に対する命令であった場合、制御部120は、対象の車載機器に対して制御信号を送信する制御を行う。
 ・発話制御部122
 発話制御部122は、エージェントによる発話を制御する機能を有する。例えば発話制御部122は、エージェント音声を音声合成により生成してエージェント装置20に出力し、エージェント装置20のスピーカから音声出力するよう制御する。なお、ここでは一例として発話制御部122がエージェント音声を生成する旨を説明したが、本実施形態はこれに限定されない。例えば発話制御部122は、エージェント音声を他の装置(例えばサーバ)から取得してもよい。また、発話制御部122により出力制御されるエージェント音声の内容は、運転者を含む乗員の発話に対する応答に限定されず、様々な情報の提示が含まれる。かかる情報は、各車載機器から取得されてもよいし、インターネット上から取得されてもよい。
 ・システム情報取得部123
 システム情報取得部123は、走行支援システムの状態に関する情報を取得する機能を有する。具体的には、システム情報取得部123は、走行支援システムを実現する各車載機器から、システムの状態に関する情報を取得する。システムの状態に関する情報とは、例えば、そのシステムが現在どのような状態であるかを示す情報を含む。また、システムの状態は、そのシステムで用いられるセンシングデータや、システムで用いられるセンサの検知率等の数値をさらに含んでいてもよい。また、システム情報取得部123は、システムの状態が運転者に注意喚起を促す状態である場合、さらに注意喚起の内容(例えば注意喚起の方向等)の情報も取得する。
 ・挙動制御部124
 挙動制御部124は、システム情報取得部123で取得した走行支援システムの状態に関する情報に基づいて、操作者に気付きを与えるよう、エージェント装置20におけるエージェントの挙動を制御する。すなわち、挙動制御部124は、エージェントの挙動を、システムの状態に基づいて決定する。決定するエージェントの挙動は、例えばシステムの状態の良し悪しに応じて異なる。
 挙動制御部124は、走行支援システムの状態に関する情報に基づいて、システムの状態の良し悪しを判断し、良い場合には良い場合用に規定されている挙動、悪い場合には悪い場合用に規定されている挙動を制御する。本実施形態では、エージェントの挙動により、システム状態が良い状態(エラーのない通常の状態の意味であってもよい)であるか、悪い状態(エラーが生じている場合や、何らかの注意喚起が生じている場合等)であるか等を運転者に気付かせることができる。
 良い場合の挙動としては、例えばエージェントをゆっくり動かしたり(回転速度を遅くする等)、笑顔にしたり、さらにエージェントの発光色を青色にしたりすることが挙げられる。また、悪い場合の挙動としては、例えばエージェントの動きを激しくしたり(回転速度を速くする等)、困った顔にしたり、さらにエージェントの発光色を赤色にしたりすることが挙げられる。状態に応じて挙動の内容については特に限定せず、様々な挙動が想定され得る。
 良い場合の挙動により、システムが正常に機能しているという気付き(認識)を与え、運転者を安心させることができる。例えば車両が前走車に近付き、ACCが機能するか運転者が不安に思うことがあっても、エージェントの挙動が良い状態を示すもの(例えばゆっくりした動き)であれば(実際システムはアクセルOFFやブレーキONにより遅速する準備中等)、運転者は、ACCが正常に機能していることを直感的に把握し、安心することができる。また、悪い場合の挙動により、システムに何かが起きているという気付き(認識)を与え、運転者に緊迫感を持たせたり、注意喚起や回避行動を促したりすることができる。また、さらにエージェントの挙動により、注意喚起の方向を示すことも可能である。
 また、エージェントの挙動の一つとして用いられる視覚的な動きは、運転者の周辺視野でも捉えられ易いため、より確実に運転者にシステム状態を気付かせることができる。また、運転者は、エージェントの挙動により、数値やメッセージ等での通知に比べて、システム状態の良い悪いを直感的に把握できる。
 システム状態の良し悪しの判断は、例えば、挙動制御部124が、システムの状態に関する情報が規定の条件を満たす場合を良い状態、当該規定の条件を満たさない場合を悪い状態と判断してもよい。例えば、車線維持システムから取得した車線を検知するセンサの検知率が閾値より低い場合、悪い状態と判断される。この場合、車線維持システムは、車線維持のためのステアリング制御を、自動制御から運転者による手動に切り替えため、運転者に注意喚起が必要となる。良い状態は、エラーが生じていない通常の状態を含んでもよい。
 また、挙動制御部124は、システムの状態を示す値が規定の範囲内であれば通常状態、当該規定の範囲を超える場合は良い状態、当該規定の範囲に至らない場合は悪い状態と判断してもよい。この場合、挙動制御部124は、通常状態、良い状態、および悪い状態で異なる挙動を制御する。例えば、ACCシステムから取得した車間距離の値が、規定の範囲内であれば通常状態、当該規定の範囲を超える場合は良い状態、当該規定の範囲に至らない場合は悪い状態と判断してもよい。悪い状態とは、例えばACCシステムでエラーが生じて減速制御が行われず、または減速制御のタイミングが遅れ、運転者が車間距離に注意して運転する必要がある場合等が想定される。
 また、挙動制御部124は、悪い状態に段階を持たせてもよい。例えば挙動制御部124は、良い状態の場合はゆっくりした動きと青色の発光、少し悪い状態(警戒レベル)では少し速い動きと黄色の発光、そして、さらに悪い状態(危険に近いレベル)では最も速い動きと赤色の発光にしてもよい。
 また、挙動制御部124は、システム状態の良し悪しの程度をエージェントの挙動により表現することも可能である。例えば、挙動制御部124は、エージェントの動きの大きさ、色の濃さ、光の点滅の速さ等により、良し悪しの程度を表現し得る。
 本実施形態による「エージェントの挙動」は、エージェントの動き、色、および光の少なくともいずれかを含む。また、「エージェントの動き」には、エージェントの表情の変化が含まれていてもよい。
 (記憶部130)
 記憶部130は、各種情報を記憶する構成である。例えば、記憶部130は、制御部120によって使用されるプログラムやパラメータ等を記憶する。また、記憶部130は、制御部120による処理結果や、I/F部110によって受信した情報等を記憶してもよい。なお、記憶部130が記憶する情報の内容は特に限定されない。また、記憶部130は、例えばROM(Read Only Memory)やRAM(Random Access Memory)等によって実現され得る。
 以上、本実施形態による制御装置10の構成例について説明した。なお、本実施形態による制御装置10の構成は、図1に示す例に限定されない。例えば本実施形態による制御装置10は、複数の装置により実現されてもよい。また、制御装置10は、エージェントの音声対話を制御する機能を有さない構成(音声認識部121および発話制御部122)であってもよい。また、制御部120の機能を、車両に搭載されるECU(Electronic Control Unit)や、ECUに搭載されるマイコン等によって実現してもよい。また、制御部120の少なくとも一部の機能を、車両に搭載されない外部装置(例えば、インターネット上のクラウドサーバや、運転者が所持するスマートフォン、タブレット端末等)によって実現してもよい。
 (2-2.エージェント装置20)
 エージェント装置20は、制御装置10の制御に従って、発話音声の出力や、挙動を行い得る。エージェント装置20は、例えばマイクロホンおよびスピーカを有していてもよい。また、エージェント装置20は、顔や胴体等に相当する部材から形成され、各部材を駆動する機能を有し、各部材の駆動によりエージェントの挙動を実現し得る。以下、図2を参照してエージェントの挙動の一例について説明する。
 図2は、本実施形態によるエージェントの挙動の一例について説明する図である。図2に示すように、例えばエージェント装置20は、本体部231と、本体部231の内部に位置し、本体部231から露出する動作が可能な露出部232と、から実現される。
 本体部231は、図2に示すように、例えば円柱の形状により形成される。露出部232も、本体部231に沿った円柱の形状により形成され、本体部231の内部に位置する。また、露出部232は、図2中央に示すように、本体部231に対して上下方向に可動し、本体部231の上方から顔部分233を露出し得る。顔部分233に設けられるエージェントの「目」は、発光部により実現されてもよい。また、エージェントの「目」が開口部であって、露出部232の内部に光源が設けられていてもよい。図2に示す例ではエージェントの顔を「目」のみで表現しているが、本実施形態はこれに限定されず、さらに鼻や口が設けられていてもよいし、目が設けられていなくともよい。
 また、図2右に示すように、露出部232は、本体部231の内部に位置した状態で、右回りや左回り等の回転を行い得る。これにより、エージェント装置20Aは、エージェントの顔(目線)を任意の方向に向けることができる。例えば、通常の状態ではエージェントの顔は車両の進行方向を向けられ、注意喚起の状態(悪い状態)の際に、注意喚起の方向に振り向かせることで、その方向(例えば車両後方)に運転者の注意を向けることも可能となる。
 なお、露出部232の上下方向の動きや回転動作を実現する具体的な駆動機構については特に限定しない。露出部232の駆動は、各種モーター等を用いて適宜実現され得る。
 本実施形態によるエージェントの挙動としては、例えば顔部分233の見え隠れや、回転(図2右に示すような露出部232の回転動作)等が挙げられる。また、顔部分233の駆動により、エージェントの顔の向きや目線で注意喚起の方向(例えば車両の右方向、左方向、後方等)を示す挙動が行われてもよい。
 以上、エージェント装置20の形状および動きの一例について説明したが、図2は一例であって、本実施形態はこれに限定されない。
 また、エージェント装置20は、制御装置10との間で無線または有線によりデータの送信および受信を行う機能、および、エージェント装置20にて行われる処理全般を統括的に制御する機能を有する。制御機能(制御部)は、RAM、ROM等の記憶部に記憶されているプログラムやパラメータ等を用いて各種機能を実現するための処理を実行する。制御機能は、例えばCPU(Central Processing Unit)や、MCU(Micro Controller Unit)等のプロセッサによって実現され得る。制御機能は、制御装置10から受信した、エージェントの挙動を指示する制御信号に従って、各部材(露出部232や発光部等)を駆動する制御を行う。
 (2-3.その他)
 以上、本実施形態による制御システム1の構成について説明した。なお、本実施形態による制御システム1の構成は、図1に示す例に限定されない。例えば、制御装置10とエージェント装置20が一体化した装置であってもよい。
 <3.動作処理>
 続いて、本実施形態による制御システム1の動作処理について説明する。図3は、本実施形態による制御システム1の動作処理の流れの一例を示すフローチャートである。
 図3に示すように、まず、制御装置10のシステム情報取得部123は、走行支援システムの状態を示す情報であるシステム情報を取得する(ステップS103)。
 次に、挙動制御部124は、取得したシステム情報に基づいて、システムの状態を判断する(ステップS106)。例えば挙動制御部124は、システムの状態の良い悪いを判断してもよい。
 次いで、挙動制御部124は、システムの状態に応じて、エージェントの挙動を制御する(ステップS109)。例えば挙動制御部124は、良い状態に応じた挙動、または悪い状態に応じた挙動を行うよう、エージェント装置2を制御する(制御信号を送信)。
 以上、本実施形態による動作処理について説明したが、本実施形態による動作処理は図3に示す例に限定されない。
 <4.補足>
 以上、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
 また、本実施形態によるエージェント挙動は、システム状態の良し悪しに応じたエージェント挙動に限定されず、システム状態に応じたエージェント挙動であればよい。
 また、上記では、制御装置10およびエージェント装置20が載置される移動体の一例として車両を挙げたが、本実施形態に係る移動体は車両に限定されず、船舶(例えば、旅客船、貨物船、又は潜水艦等)や航空機(例えば、飛行機、ヘリコプター、グライダー、又は飛行船等)などであってもよい。また、車両は自動車に限定されず、バス、バイク、機関車、又は電車等であってもよい。また、移動体は、必ずしも上記の例に限定されず、移動可能な物体であればよい。制御装置10およびエージェント装置20が移動体に載置されることはあくまで一例であり、制御装置10およびエージェント装置20は、移動体以外に載置されてもよい。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアに、制御装置10またはエージェント装置20が有する構成と同等の機能を発揮させるための1以上のプログラムも作成可能であり、当該1以上のプログラムを記録した、コンピュータに読み取り可能な記録媒体も提供され得る。
 1:制御システム、10:制御装置、20:エージェント装置、110:通信I/F、120:制御部、121:音声認識部、122:発話制御部、123:システム情報取得部、124:挙動制御部、130:記憶部

Claims (17)

  1.  情報を提示するエージェントを制御する制御部を備え、
     前記制御部は、移動体の走行を支援するシステムの状態に応じて、操作者に気付きを与えるよう前記エージェントの挙動を制御する、制御装置。
  2.  前記制御部は、前記エージェントの挙動を、前記システムの状態に基づいて決定する、請求項1に記載の制御装置。
  3.  前記制御部は、前記システムの状態の良し悪しに応じて異なる挙動を制御する、請求項1または2に記載の制御装置。
  4.  前記制御部は、前記システムの状態に関する情報が規定の条件を満たす場合を良い状態、前記規定の条件を満たさない場合を悪い状態と判断する、請求項3に記載の制御装置。
  5.  前記制御部は、
      前記システムの状態を示す値が規定の範囲内であれば通常状態、前記規定の範囲を超える場合は良い状態、前記規定の範囲に至らない場合は悪い状態と判断し、
      前記通常状態、良い状態、および悪い状態で異なる挙動を制御する、請求項2または3に記載の制御装置。
  6.  前記制御部は、前記エージェントの挙動として、前記エージェントの動き、色、および光の少なくともいずれかを制御する、請求項1~5のいずれか1項に記載の制御装置。
  7.  前記エージェントの動きは、前記エージェントの表情を含む、請求項6に記載の制御装置。
  8.  前記エージェントは、実物体により形成される、擬人化されたインタフェースである、請求項1~7のいずれか1項に記載の制御装置。
  9.  前記エージェントを形成する実物体は、本体部と、当該本体部の内部に位置し、当該本体部から露出する動作が可能な露出部とを含む、請求項8に記載の制御装置。
  10.  前記制御部は、前記エージェントの挙動として、前記露出部を動作させる制御を行う、請求項9に記載の制御装置。
  11.  前記制御部は、前記システムの状態に応じる前記エージェントの挙動として、前記システムによる注意喚起の方向を示すよう、前記露出部を駆動させる制御を行う、請求項10に記載の制御装置。
  12.  前記制御部は、前記エージェントを形成する実物体であるエージェント装置に、前記エージェントの挙動を制御する信号を送信する制御を行う、請求項8~11のいずれか1項に記載の制御装置。
  13.  前記制御装置は、前記エージェントを形成する実物体である、請求項8~11のいずれか1項に記載の制御装置。
  14.  前記制御装置は、移動体に搭載される、請求項1~13のいずれか1項に記載の制御装置。
  15.  前記システムは、ACC(Adaptive Cruise Control System)システム、車線維持システム、およびBSM(Blind Spot Monitoring)システムのうち、少なくともいずれかを含む、請求項1~14のいずれか1項に記載の制御装置。
  16.  プロセッサが、
     情報を提示するエージェントを制御することを含み、
     さらに、移動体の走行を支援するシステムの状態に応じて、操作者に気付きを与えるよう前記エージェントの挙動を制御することを含む、制御方法。
  17.  コンピュータを、
     情報を提示するエージェントを制御する制御部として機能させ、
     前記制御部は、移動体の走行を支援するシステムの状態に応じて、操作者に気付きを与えるよう前記エージェントの挙動を制御する、プログラム。
PCT/JP2022/038570 2021-11-16 2022-10-17 制御装置、制御方法、およびプログラム WO2023090020A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-186372 2021-11-16
JP2021186372A JP2023073730A (ja) 2021-11-16 2021-11-16 制御装置、制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
WO2023090020A1 true WO2023090020A1 (ja) 2023-05-25

Family

ID=86396600

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/038570 WO2023090020A1 (ja) 2021-11-16 2022-10-17 制御装置、制御方法、およびプログラム

Country Status (2)

Country Link
JP (1) JP2023073730A (ja)
WO (1) WO2023090020A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011258108A (ja) * 2010-06-11 2011-12-22 Nissan Motor Co Ltd 情報提供装置及び情報提供方法
JP2020098216A (ja) * 2020-02-04 2020-06-25 株式会社ユピテル システム及びプログラム
JP2020160826A (ja) * 2019-03-27 2020-10-01 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP2020179844A (ja) * 2020-06-23 2020-11-05 株式会社ユピテル 運転支援システムおよび運転支援プログラム
JP2021097765A (ja) * 2019-12-20 2021-07-01 株式会社東海理化電機製作所 制御装置およびプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011258108A (ja) * 2010-06-11 2011-12-22 Nissan Motor Co Ltd 情報提供装置及び情報提供方法
JP2020160826A (ja) * 2019-03-27 2020-10-01 本田技研工業株式会社 エージェント装置、エージェント装置の制御方法、およびプログラム
JP2021097765A (ja) * 2019-12-20 2021-07-01 株式会社東海理化電機製作所 制御装置およびプログラム
JP2020098216A (ja) * 2020-02-04 2020-06-25 株式会社ユピテル システム及びプログラム
JP2020179844A (ja) * 2020-06-23 2020-11-05 株式会社ユピテル 運転支援システムおよび運転支援プログラム

Also Published As

Publication number Publication date
JP2023073730A (ja) 2023-05-26

Similar Documents

Publication Publication Date Title
US10699569B2 (en) Information processing apparatus, information processing method, and program
KR102498091B1 (ko) 운전 제어 장치 및 운전 제어 방법, 그리고 프로그램
KR101730321B1 (ko) 운전자 보조 장치 및 그 제어방법
KR101895485B1 (ko) 운전 보조 장치 및 그 제어 방법
EP3882884A1 (en) Information processing device, information processing method, and program
CN105711441B (zh) 车速控制方法及系统
CN108205731A (zh) 情境评估车辆系统
US20220348217A1 (en) Electronic apparatus for vehicles and operation method thereof
US11873007B2 (en) Information processing apparatus, information processing method, and program
US11285966B2 (en) Method and system for controlling an autonomous vehicle response to a fault condition
US20230121146A1 (en) Information processing apparatus, information processing method, and computer program
US20210188162A1 (en) Vehicle state alert apparatus and vehicle state alert method
CN112534487B (zh) 信息处理设备、移动体、信息处理方法和程序
CN115720555A (zh) 用于提高自动驾驶车辆中用户警觉的方法和系统
US20240059323A1 (en) Dynamic emergency detection and automated responses
CN112298022A (zh) 一种迎宾系统、方法、车辆及计算机存储介质
CN112298016A (zh) 一种远光灯提醒系统、方法、车辆及计算机存储介质
WO2023090020A1 (ja) 制御装置、制御方法、およびプログラム
KR101850857B1 (ko) 디스플레이 장치 및 이를 포함하는 차량
CN112319492A (zh) 一种基于云端数据的智能避免超速驾驶的方法
CN114148336A (zh) 车辆控制方法及装置
WO2020250645A1 (ja) 車載通信装置、車両遠隔操作システム、通信方法およびプログラム
JP2021097765A (ja) 制御装置およびプログラム
WO2024038759A1 (ja) 情報処理装置、情報処理方法、及び、プログラム
WO2023001068A1 (zh) 一种车辆驾驶方法及装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22895306

Country of ref document: EP

Kind code of ref document: A1