WO2022172970A1 - インターフェース装置 - Google Patents

インターフェース装置 Download PDF

Info

Publication number
WO2022172970A1
WO2022172970A1 PCT/JP2022/005209 JP2022005209W WO2022172970A1 WO 2022172970 A1 WO2022172970 A1 WO 2022172970A1 JP 2022005209 W JP2022005209 W JP 2022005209W WO 2022172970 A1 WO2022172970 A1 WO 2022172970A1
Authority
WO
WIPO (PCT)
Prior art keywords
support
interface device
contact operation
processing unit
detection unit
Prior art date
Application number
PCT/JP2022/005209
Other languages
English (en)
French (fr)
Inventor
多佳朗 新家
Original Assignee
株式会社東海理化電機製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社東海理化電機製作所 filed Critical 株式会社東海理化電機製作所
Publication of WO2022172970A1 publication Critical patent/WO2022172970A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R16/00Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
    • B60R16/02Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Definitions

  • the present disclosure relates to an interface device that accepts a non-contact operation on a surface to be operated.
  • Japanese Patent Application Publication No. 2015-011679 discloses an interface device that accepts a non-contact operation on the operated surface.
  • an interface device comprising: an operated surface; an operation detection unit that detects an object to be detected by performing a non-contact operation on the operation surface; a processing unit that causes a controlled device to perform an operation corresponding to the non-contact operation; a support arranged to support a part of a user's body performing the non-contact operation; It has
  • FIG. 1 illustrates a vehicle in which an interface device according to one embodiment is mounted; 2 illustrates a functional configuration of the interface device of FIG. 1; 2 shows an example of the flow of processing executed by the processing unit in FIG. 1; 4 shows another example of the flow of processing executed by the processing unit of FIG. 1;
  • an interface device 10 is mounted on a vehicle 20.
  • Interface device 10 is a device that outputs a signal necessary for controlling the operation of a controlled device mounted on vehicle 20 according to an operation performed by an occupant of vehicle 20 .
  • devices to be controlled include navigation devices, audiovisual devices, air conditioners, lighting devices, steering devices, seat position adjustment mechanisms, and the like.
  • Vehicle 20 is an example of a mobile object.
  • a passenger is an example of a user.
  • the interface device 10 has an operated surface 11 .
  • the operated surface 11 forms at least part of the image display surface of the display device 21 illustrated in FIG.
  • the image display surface can display an image related to the operation of the controlled device. For example, icon images for controlling the temperature, wind volume, wind direction, etc. of the air conditioner can be displayed.
  • the interface device 10 includes an operation detection section 12 .
  • the operation detection unit 12 is configured to detect a non-contact operation of the passenger on the operated surface 11 .
  • the operation detection unit 12 can be configured as a device that electrostatically detects that the occupant's finger 31 approaches the operated surface 11 .
  • the operation detection section 12 includes a plurality of electrodes and a charging/discharging circuit.
  • the plurality of electrodes are arranged so as to face the operated surface 11 .
  • Each of the plurality of electrodes is associated with a specific position on the operated surface 11 .
  • the charging/discharging circuit can perform charging and discharging operations.
  • the charging/discharging circuit during the charging operation supplies each electrode with a current supplied from a power source (not shown).
  • the charge/discharge circuit during the discharge operation releases current from each electrode.
  • An electric field is generated around the operated surface 11 by the electric current supplied to each electrode.
  • a pseudo-capacitor is formed with a specific electrode. This increases the capacitance between the specific electrode and the operated surface 11 . As the capacitance increases, the current emitted from that particular electrode increases during a discharge operation.
  • the finger 31 approaches a position where the distance to the operated surface 11 is D by setting a threshold value smaller than the amount of change in capacitance that occurs when the finger 31 touches the operated surface 11. can be detected.
  • the operation detection unit 12 can detect which part of the operated surface 11 the finger 31 has approached by specifying the electrode in which the prescribed change in capacitance has occurred.
  • the operation detection unit outputs an operation detection signal OD indicating which part of the operated surface 11 the finger 31 has approached.
  • a passenger's finger 31 is an example of an object to be detected.
  • the interface device 10 has a processing unit 13 .
  • the processing unit 13 is configured to determine what type of non-contact operation has been performed on the operated surface 11 based on the operation detection signal OD output from the operation detection unit 12 .
  • a specific operation on the operated surface 11 is associated in advance with an operation of a specific controlled device 40 .
  • Information related to the association is stored in advance in a storage unit (not shown). By referring to the information, processing unit 13 outputs control signal CS that causes controlled device 40 to perform a controlled operation corresponding to a non-contact operation performed on operated surface 11 .
  • the controlled device 40 performs an action corresponding to the non-contact operation performed on the operated surface 11 based on the control signal CS. Therefore, the passenger can perform an operation input for controlling the operation of the controlled device 40 without touching the operated surface 11 .
  • the interface device 10 has a support 14 .
  • the support 14 is arranged in front of the operated surface 11 when viewed from the passenger of the vehicle 20 .
  • the support 14 is arranged to support the hands 32 of the occupant who perform non-contact operations on the operated surface 11 .
  • Hand 32 is an example of a user's body part.
  • the relative positions of the operated surface 11 and the support 14 are fixed at least while the non-contact operation is being performed.
  • the hand 32 is supported by the support 14 when the occupant performs a non-contact operation on the operated surface 11 , so that the finger 31 can be easily positioned on the operated surface 11 .
  • This makes it easy for the operation detection unit 12 to accurately detect the position of the finger 31 performing the non-contact operation. easier to operate. Therefore, it is possible to enhance the convenience of the interface device 10 that accepts a non-contact operation on the operated surface 11 .
  • the interface device 10 may comprise a vibration source 15, as illustrated in FIG.
  • the vibration source 15 is configured to generate vibration according to the vibration control signal VC input from the processing unit 13 .
  • the vibration source 15 can be implemented by a piezoelectric element, voice coil, solenoid, eccentric motor, or the like.
  • the processing unit 13 is configured to cause the vibration source 15 to vibrate the support 14 when the operation detection unit 12 detects a non-contact operation of the passenger on the operated surface 11 . That is, when the occupant performs a non-contact operation on the operated surface 11 with the finger 31 , the hand 32 supported by the support 14 feels vibration generated from the vibration source 15 .
  • the occupant can confirm that the operation input has been accepted by the tactile feedback provided through the support 14 without touching the operated surface 11 with the fingers 31 .
  • the tactile feedback provided through the support 14 without touching the operated surface 11 with the fingers 31 .
  • the processing unit 13 can be configured to change the vibration mode of the support 14 by the vibration source 15 according to the mode of the operated input detected by the operation detection unit 12 .
  • the mode of vibration can be changed according to the type of the controlled device 40 whose operation is controlled by the non-contact operation.
  • the mode of vibration may be changed between when an operation to be input is selected and when an input operation is determined.
  • the processing unit 13 changes the mode of the vibration control signal VC input to the vibration source 15 according to the mode of the operated input indicated by the operation detection signal OD received from the operation detection unit 12 .
  • the occupant can grasp the type and content of the operation he/she is performing according to the type of tactile feedback provided through the support 14. This reduces the need for the occupant to gaze at the operated surface 11 during non-contact operation. Therefore, it is possible to enhance the convenience of the interface device 10 that accepts a non-contact operation on the operated surface 11 .
  • the interface device 10 can include a support detection section 16 .
  • the support detection unit 16 is configured to detect a state in which the occupant's hand 32 is supported by the support 14 .
  • the support detection unit 16 can be realized by a load sensor or a contact sensor provided on the support 14 .
  • the support detection unit 16 is configured to output a support detection signal SD.
  • the processing unit 13 is configured not to cause the vibration source 15 to vibrate the support 14 irrespective of the detection result of the non-contact operation by the operation detection unit 12 when the support detection signal SD is not received from the support detection unit 16 . sell.
  • FIG. 3 illustrates the flow of processing by the processing unit 13 configured in this way.
  • the processing unit 13 determines whether it has received the operation detection signal OD from the operation detection unit 12 (STEP 11). This process is repeated until it is determined that the operation detection signal OD has been received (NO in STEP 11).
  • the processing section 13 determines whether the support detection signal SD has been received from the support detection section 16 (STEP12). When it is determined that the support detection signal SD has been received (YES in STEP 12), the processing unit 13 outputs a vibration control signal VC for causing the vibration source 15 to vibrate according to the detected non-contact operation ( STEP 13). That is, when the occupant's hand 32 is supported by the support 14 and a non-contact operation by the finger 31 is detected, the support 14 vibrates.
  • the processing unit 13 When it is determined that the support detection signal SD has not been received from the support detection unit 16 (NO in STEP12), the processing unit 13 returns the process to STEP11. That is, when the occupant's hand 32 is not supported by the support 14, the support 14 does not vibrate even if a non-contact operation by the finger 31 is detected.
  • Such a configuration avoids vibration of the support 14 in situations where there is little need to provide tactile feedback to the hand 32 of the occupant. As a result, it is possible to suppress the power consumption associated with the occurrence of vibrations and the inconvenience that unnecessary vibrations may cause to the occupants. Therefore, it is possible to enhance the convenience of the interface device 10 that accepts a non-contact operation on the operated surface 11 .
  • FIG. 4 illustrates the flow of processing by the processing unit 13 configured in this manner.
  • the processing unit 13 determines whether it has received the operation detection signal OD from the operation detection unit 12 (STEP 21). This process is repeated until it is determined that the operation detection signal OD has been received (NO in STEP21).
  • the processing section 13 determines whether the support detection signal SD has been received from the support detection section 16 (STEP22). When it is determined that support detection signal SD has been received (YES in STEP 22), processing unit 13 outputs control signal CS for causing controlled device 40 to perform an operation corresponding to the detected non-contact operation, and A vibration control signal VC for causing the vibration source 15 to vibrate according to the non-contact operation is output (STEP 23). That is, when a non-contact operation by the finger 31 is detected while the occupant's hand 32 is supported by the support 14, the operation of the controlled device 40 is controlled and the support 14 vibrates.
  • the processing unit 13 When it is determined that the support detection signal SD has not been received from the support detection unit 16 (NO in STEP22), the processing unit 13 returns the process to STEP21. That is, when the occupant's hand 32 is not supported by the support 14, even if a non-contact operation by the finger 31 is detected, the controlled device 40 is not controlled. Therefore, it is possible to enhance the convenience of the interface device 10 that accepts a non-contact operation on the operated surface 11 .
  • the processing unit 13 having each function described so far can be realized by a general-purpose microprocessor operating in cooperation with a general-purpose memory.
  • a CPU, MPU, and GPU can be exemplified as a general-purpose microprocessor.
  • Examples of general-purpose memory include ROM and RAM.
  • the ROM may store a computer program for executing the above-described process.
  • ROM is an example of a non-transitory computer-readable medium that stores computer programs.
  • the general-purpose microprocessor designates at least part of the computer program stored in the ROM, develops it on the RAM, and cooperates with the RAM to execute the above-described processing.
  • the above computer program may be pre-installed in a general-purpose memory, or may be installed in a general-purpose memory after being downloaded from an external server device via a wireless communication network.
  • the external server device is an example of a non-transitory computer-readable medium storing the computer program.
  • the processing unit 13 may be realized by a dedicated integrated circuit capable of executing the above computer program.
  • Dedicated integrated circuits may include microcontrollers, ACICs, FPGAs, and the like.
  • the computer program is pre-installed in a storage element included in the dedicated integrated circuit.
  • the storage element is an example of a non-transitory computer-readable medium storing a computer program.
  • Processing unit 13 may also be implemented by a combination of a general-purpose microprocessor and a dedicated integrated circuit.
  • the support 14 is arranged to support the hands 32 of the occupant who perform non-contact operations on the operated surface 11 .
  • the position of the support 14 can be appropriately determined as long as the finger 31 detected by the operation detection unit 12 can be easily positioned with respect to the operated surface 11 .
  • the support 14 can be arranged at a position capable of supporting any of the wrist, forearm, elbow, or the like of the occupant who performs non-contact operation on the operated surface 11 .
  • the neck, forearms, elbows, etc. are examples of parts of the user's body.
  • At least part of the image display surface of the display device 21 also serves as the operated surface 11 of the interface device 10 .
  • the input target of the operation as an image such as an icon
  • change the display image according to the assumed input operation Therefore, it is possible to provide an interface that allows various operational inputs within a limited area.
  • the operating surface of a pad-type or button-type input device may be used as the operated surface 11 as long as it is configured to detect the approach of the occupant's fingers 31 based on changes in capacitance.
  • the operation detection unit 12 uses distance measurement technology using a TOF (Time of Flight) camera, a LiDAR (Light Detection and Ranging) scanner, etc., instead of a detection method based on changes in capacitance, so that the occupant's finger 31 is operated. It may be configured to detect that it has approached a predetermined distance from the surface 11 .
  • TOF Time of Flight
  • LiDAR Light Detection and Ranging
  • the support detection unit 16 is configured to detect the state in which the occupant's hand 32 is supported by the support 14 using imaging technology or the above-described distance measurement technology instead of the detection method using a load sensor or contact sensor.
  • the interface device 10 can also be mounted on a moving object other than the vehicle 20.
  • Examples of other mobile objects include railroads, aircraft, ships, and the like. Displacement and vibration of the moving body tend to hinder positioning of the occupant's fingers 31 with respect to the operated surface 11 during non-contact operation.
  • the configuration according to the above embodiment makes it easy for the operation detection unit 12 to accurately detect the position of the finger 31 performing the non-contact operation, and is particularly useful when mounted on a mobile body.
  • the operated surface 11 is operated by the driver of the moving object, it is possible to prevent the driver's attention from being distracted from driving during non-contact operation.
  • the interface device 10 does not need to be mounted on a mobile object. It can be mounted on appropriate devices and equipment that require non-contact operation on the operated surface 11 . Appropriate tools may be used for inputting non-contact operations depending on the devices and facilities to be mounted.
  • the tool is an example of an object to be detected.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • User Interface Of Digital Computer (AREA)
  • Instrument Panels (AREA)
  • Position Input By Displaying (AREA)

Abstract

操作検出部(12)は、被操作面(11)に対して非接触操作を行なう乗員の手指(31)を検出する。処理部(13)は、非接触操作に対応する動作を被制御装置(40)に行なわせる。支持体(14)は、非接触操作を行なう乗員の手(32)を支持するように配置されている。

Description

インターフェース装置
 本開示は、被操作面に対して非接触でなされる操作を受け付けるインターフェース装置に関連する。
 日本国特許出願公開2015-011679号公報は、被操作面に対して非接触でなされる操作を受け付けるインターフェース装置を開示している。
 被操作面に対して非接触でなされる操作を受け付けるインターフェース装置の利便性を高めることが求められている。
 上記の要求に応えるために提供されうる本開示の一態様は、インターフェース装置であって、
 被操作面と、
 前記被操作面に対して非接触操作を行なう被検出物を検出する操作検出部と、
 前記非接触操作に対応する動作を被制御装置に行なわせる処理部と、
 前記非接触操作を行なうユーザの身体の一部を支持するように配置された支持体と、
を備えている。
 このような構成によれば、ユーザにより被操作面に対して非接触操作が行なわれる際に支持体により身体の一部が支持されるので、被操作面に対する被検出物の位置決めが容易になる。これにより、非接触操作を行なう被検出物の位置を正確に操作検出部に検出させることが容易になるので、被操作面に対する被検出物の接触を伴わずとも、被制御装置を正確に動作させることが容易になる。したがって、被操作面に対して非接触でなされる操作を受け付けるインターフェース装置の利便性を高めることができる。
一実施形態に係るインターフェース装置が搭載される車両を例示している。 図1のインターフェース装置の機能構成を例示している。 図1の処理部により実行される処理の流れの一例を示している。 図1の処理部により実行される処理の流れの別例を示している。
 添付の図面を参照しつつ、実施形態の例について以下詳細に説明する。以降の説明に用いられる各図面では、各部材を認識可能な大きさとするために縮尺を適宜変更している。
 図1に例示されるように、一実施形態に係るインターフェース装置10は、車両20に搭載される。インターフェース装置10は、車両20の乗員により行なわれる操作に応じて、車両20に搭載された被制御装置の動作制御に必要な信号を出力する装置である。被制御装置の例としては、ナビゲーション装置、音響映像機器、空調機器、照明装置、操舵装置や座席の位置調節機構などが挙げられる。車両20は、移動体の一例である。乗員は、ユーザの一例である。
 図2に例示されるように、インターフェース装置10は、被操作面11を備えている。本例においては、被操作面11は、図1に例示される表示装置21の画像表示面の少なくとも一部を形成している。画像表示面は、上記の被制御装置の動作に係る画像を表示しうる。例えば、空調機器における温度、風量、風向などを制御するためのアイコン画像が表示されうる。
 図2に例示されるように、インターフェース装置10は、操作検出部12を備えている。操作検出部12は、被操作面11に対して非接触でなされる乗員の操作を検出するように構成されている。
 例えば、操作検出部12は、乗員の手指31が被操作面11に接近したことを静電的に検出する装置として構成されうる。この場合、操作検出部12は、複数の電極と充放電回路を備える。複数の電極は、被操作面11と対向するように配置される。複数の電極の各々は、被操作面11における特定の位置に対応付けられる。充放電回路は、充電動作と放電動作を行ないうる。充電動作時の充放電回路は、不図示の電源から供給される電流を各電極へ供給する。放電動作時の充放電回路は、各電極から電流を放出させる。
 各電極に供給された電流により、被操作面11の周囲に電界が発生する。手指31がこの電界に近づくと、特定の電極との間に疑似的なコンデンサが形成される。これにより、当該特定の電極と被操作面11の間の静電容量が増加する。静電容量が増加すると、放電動作時に当該特定の電極から放出される電流が増加する。手指31が被操作面11に接触したときに生じる静電容量の変化量よりも小さな変化量を閾値に設定することにより、被操作面11までの距離がDである位置に手指31が接近したことを検出できる。
 すなわち、操作検出部12は、規定された静電容量の変化が生じた電極を特定することにより、被操作面11におけるいずれの箇所に手指31が接近したのかを検出できる。操作検出部は、被操作面11におけるいずれの箇所に手指31が接近したのかを示す操作検出信号ODを出力する。乗員の手指31は、被検出物の一例である。
 インターフェース装置10は、処理部13を備えている。処理部13は、操作検出部12から出力された操作検出信号ODに基づいて、被操作面11に対してどのような非接触操作がなされたのかを判断するように構成される。被操作面11に対する特定の操作は、予め特定の被制御装置40の動作に関連付けられている。当該関連付けに係る情報は、不図示の記憶部に予め記憶されている。処理部13は、当該情報を参照することにより、被操作面11に対してなされた非接触操作に対応する被制御動作を被制御装置40に行なわせる制御信号CSを出力する。
 被制御装置40は、制御信号CSに基づいて、被操作面11に対してなされた非接触操作に対応する動作を実行する。したがって、乗員は、被操作面11に触れることなく被制御装置40の動作を制御するための操作入力を行なうことができる。
 インターフェース装置10は、支持体14を備えている。支持体14は、車両20の乗員から見て被操作面11の手前に配置されている。支持体14は、被操作面11に対して非接触操作を行なう乗員の手32を支持するように配置されている。手32は、ユーザの身体の一部の一例である。少なくとも非接触操作が行なわれる間、被操作面11と支持体14の相対位置は、固定されている。
 このような構成によれば、乗員により被操作面11に対して非接触操作が行なわれる際に支持体14により手32が支持されるので、被操作面11に対する手指31の位置決めが容易になる。これにより、非接触操作を行なう手指31の位置を正確に操作検出部12に検出させることが容易になるので、被操作面11に対する手指31の接触を伴わずとも、被制御装置40を正確に動作させることが容易になる。したがって、被操作面11に対して非接触でなされる操作を受け付けるインターフェース装置10の利便性を高めることができる。
 図2に例示されるように、インターフェース装置10は、振動源15を備えうる。振動源15は、処理部13から入力される振動制御信号VCに応じて振動を発生可能に構成される。振動源15は、圧電素子、ボイスコイル、ソレノイド、偏心モータなどにより実現されうる。
 処理部13は、操作検出部12により被操作面11に対する乗員の非接触操作が検出されると、振動源15に支持体14を振動させるように構成されている。すなわち、乗員は、被操作面11に対して手指31で非接触操作を行なうと、支持体14に支持された手32に振動源15から発生された振動を感じる。
 このような構成によれば、乗員は、被操作面11に対する手指31の接触を伴わずとも、支持体14を通じて提供される触感フィードバックにより操作入力が受け付けられたことを確認できる。これにより、非接触操作に固有の「手応えのなさ」に付随しがちな不安感を抑制できる。したがって、被操作面11に対して非接触でなされる操作を受け付けるインターフェース装置10の利便性を高めることができる。
 処理部13は、操作検出部12により検出される被操作入力の態様に応じて、振動源15による支持体14の振動態様を変更するように構成されうる。一例として、非接触操作により動作を制御される被制御装置40の種別に応じて、振動の態様が変更されうる。別例として、入力される操作の選択時と決定時とで、振動の態様が変更されうる。具体的には、処理部13は、操作検出部12より受け付けた操作検出信号ODが示す被操作入力の態様に応じて、振動源15へ入力される振動制御信号VCの態様を変更する。
 このような構成によれば、乗員は、支持体14を通じて提供される触感フィードバックの種別に応じて、自身が行なっている操作の種別や内容を把握できる。これにより、非接触操作に際して乗員が被操作面11を注視する必要性を低減できる。したがって、被操作面11に対して非接触でなされる操作を受け付けるインターフェース装置10の利便性を高めることができる。
 図2に例示されるように、インターフェース装置10は、支持検出部16を備えうる。支持検出部16は、支持体14により乗員の手32が支持されている状態を検出するように構成される。例えば、支持検出部16は、支持体14に設けられた荷重センサや接触センサにより実現されうる。この場合、乗員の手32が支持体14に載置されることによって支持体14に加わる荷重や支持体14の表面状態(形状、静電容量、抵抗値など)が変化すると、支持検出部16は、支持検出信号SDを出力するように構成される。
 処理部13は、支持検出部16から支持検出信号SDを受け付けていない状態では、操作検出部12による非接触操作の検出結果に依らず、振動源15に支持体14を振動させないように構成されうる。図3は、このように構成された処理部13による処理の流れを例示している。
 処理部13は、操作検出部12から操作検出信号ODを受信したかを判断する(STEP11)。操作検出信号ODが受信されたと判断されるまで、当該処理が繰り返される(STEP11においてNO)。
 操作検出信号ODが受信されたと判断されると(STEP11においてYES)、処理部13は、支持検出部16から支持検出信号SDを受信したかを判断する(STEP12)。支持検出信号SDが受信されたと判断されると(STEP12においてYES)、処理部13は、検出された非接触操作に応じた振動を振動源15に行なわせるための振動制御信号VCを出力する(STEP13)。すなわち、乗員の手32が支持体14に支持されている状態で手指31による非接触操作が検出された場合、支持体14が振動する。
 支持検出部16から支持検出信号SDが受信されていないと判断されると(STEP12においてNO)、処理部13は、処理をSTEP11に戻す。すなわち、乗員の手32が支持体14に支持されていない状態では、手指31による非接触操作が検出されても、支持体14は振動しない。
 このような構成によれば、乗員の手32に触感フィードバックを提供する必要性の低い状況下での支持体14の振動を回避できる。これにより、振動発生に伴う電力消費や、無用な振動が乗員に与えうる煩わしさを抑制できる。したがって、被操作面11に対して非接触でなされる操作を受け付けるインターフェース装置10の利便性を高めることができる。
 処理部13は、支持検出部16から支持検出信号SDを受け付けていない状態では、操作検出部12による非接触操作の検出結果に依らず、被制御装置40の動作を制御するための制御信号CSを出力しないように構成されうる。図4は、このように構成された処理部13による処理の流れを例示している。
 処理部13は、操作検出部12から操作検出信号ODを受信したかを判断する(STEP21)。操作検出信号ODが受信されたと判断されるまで、当該処理が繰り返される(STEP21においてNO)。
 操作検出信号ODが受信されたと判断されると(STEP21においてYES)、処理部13は、支持検出部16から支持検出信号SDを受信したかを判断する(STEP22)。支持検出信号SDが受信されたと判断されると(STEP22においてYES)、処理部13は、検出された非接触操作に応じた動作を被制御装置40に行なわせるための制御信号CSと、検出された非接触操作に応じた振動を振動源15に行なわせるための振動制御信号VCとを出力する(STEP23)。すなわち、乗員の手32が支持体14に支持されている状態で手指31による非接触操作が検出された場合、被制御装置40の動作が制御されるとともに、支持体14が振動する。
 支持検出部16から支持検出信号SDが受信されていないと判断されると(STEP22においてNO)、処理部13は、処理をSTEP21に戻す。すなわち、乗員の手32が支持体14に支持されていない状態では、手指31による非接触操作が検出されても、被制御装置40の動作制御はなされない。したがって、被操作面11に対して非接触でなされる操作を受け付けるインターフェース装置10の利便性を高めることができる。
 このような構成によれば、乗員の手指31が意図せず被操作面11に接近することによって被制御装置40が予期せず動作する事態の発生を抑制できる。また、非接触動作を行なう手指31の位置を正確に操作検出部12に検出させやすいように、手32が支持体14に載置された状態へ乗員を導くことが容易になる。
 これまで説明した各機能を有する処理部13は、汎用メモリと協働して動作する汎用マイクロプロセッサにより実現されうる。汎用マイクロプロセッサとしては、CPU、MPU、GPUが例示されうる。汎用メモリとしては、ROMやRAMが例示されうる。この場合、ROMには、上述した処理を実行するコンピュータプログラムが記憶されうる。ROMは、コンピュータプログラムを記憶している非一時的なコンピュータ可読媒体の一例である。汎用マイクロプロセッサは、ROM上に記憶されたコンピュータプログラムの少なくとも一部を指定してRAM上に展開し、RAMと協働して上述した処理を実行する。上記のコンピュータプログラムは、汎用メモリにプリインストールされてもよいし、無線通信ネットワークを介して外部サーバ装置からダウンロードされた後、汎用メモリにインストールされてもよい。この場合、外部サーバ装置は、コンピュータプログラムを記憶している非一時的なコンピュータ可読媒体の一例である。
 処理部13は、上記のコンピュータプログラムを実行可能な専用集積回路によって実現されてもよい。専用集積回路としては、マイクロコントローラ、ACIC、FPGAなどが例示されうる。この場合、当該専用集積回路に含まれる記憶素子に上記のコンピュータプログラムがプリインストールされる。当該記憶素子は、コンピュータプログラムを記憶している非一時的なコンピュータ可読媒体の一例である。処理部13は、汎用マイクロプロセッサと専用集積回路の組合せによっても実現されうる。
 上記の各実施形態は、本開示の理解を容易にするための例示にすぎない。上記の各実施形態に係る構成は、本開示の趣旨を逸脱しなければ、適宜の変更や組み合わせがなされうる。
 上記の実施形態においては、支持体14は、被操作面11に対して非接触操作を行なう乗員の手32を支持するように配置されている。しかしながら、操作検出部12により検出される手指31の被操作面11に対する位置決めを容易にできるのであれば、支持体14の位置は適宜に定められうる。例えば、被操作面11に対して非接触操作を行なう乗員の手首、前腕、肘などのいずれかを支持可能な位置に支持体14が配置されうる。首、前腕、肘などは、ユーザの身体の一部の一例である。
 上記の実施形態においては、表示装置21の画像表示面の少なくとも一部が、インターフェース装置10の被操作面11を兼ねている。この場合、操作の入力対象をアイコンなどの画像として表示し、想定される入力操作に応じて表示画像を変更できる。したがって、多様な操作入力を許容しうるインターフェースを限られた領域内に提供できる。
 静電容量の変化に基づいて乗員の手指31の接近を検出可能な構成であれば、パッド型やボタン型の入力装置の操作面が被操作面11として利用されてもよい。
 操作検出部12は、静電容量の変化に基づく検出手法に代えて、TOF(Time of Flight)カメラやLiDAR(Light Detection and Ranging)スキャナなどを用いた測距技術によって乗員の手指31が被操作面11から所定の距離まで接近したことを検出するように構成されてもよい。
 支持検出部16は、荷重センサや接触センサによる検出手法に代えて、撮像技術や上記の測距技術を用いて乗員の手32が支持体14に支持されている状態を検出するように構成されてもよい。
 インターフェース装置10は、車両20以外の移動体にも搭載されうる。他の移動体の例としては、鉄道、航空機、船舶などが挙げられる。移動体の変位や振動は、非接触操作時において被操作面11に対する乗員の手指31の位置決めを阻害する傾向にある。上記の実施形態に係る構成は、非接触操作を行なう手指31の位置を正確に操作検出部12に検出させることが容易になるので、移動体に搭載される場合において特に有用である。また、被操作面11が移動体の運転者によって操作される場合、非接触操作時に運転者の注意が運転から散逸することを抑制できる。
 インターフェース装置10は、移動体に搭載されることを要しない。被操作面11に対する非接触操作が求められる適宜の装置や設備に搭載されうる。搭載される装置や設備に応じて、適宜の道具が非接触操作の入力に用いられてもよい。当該道具は、被検出物の一例である。
 本開示の一部を構成するものとして、2021年2月12日に提出された日本国特許出願2021-020832号の内容が援用される。

Claims (8)

  1.  被操作面と、
     前記被操作面に対して非接触操作を行なう被検出物を検出する操作検出部と、
     前記非接触操作に対応する動作を被制御装置に行なわせる処理部と、
     前記非接触操作を行なうユーザの身体の一部を支持するように配置された支持体と、
    を備えている、
    インターフェース装置。
  2.  振動を発生可能な振動源を備えており、
     前記処理部は、前記非接触操作が前記操作検出部により検出されると、前記振動源に前記支持体を振動させる、
    請求項1に記載のインターフェース装置。
  3.  前記処理部は、前記非接触操作の態様に応じて、前記振動源による前記支持体の振動態様を変更する、
    請求項2に記載のインターフェース装置。
  4.  前記支持体により前記身体の一部が支持されている支持状態を検出する支持検出部を備えており、
     前記処理部は、前記支持状態が検出されていない状態では前記振動源に前記支持体を振動させない、
    請求項2または3のいずれか一項に記載のインターフェース装置。
  5.  前記支持体により前記身体の一部が支持されている支持状態を検出する支持検出部を備えており、
     前記処理部は、前記支持状態が検出されていない状態では前記非接触操作に対応する動作を被制御装置に行なわせない、
    請求項1から4のいずれか一項に記載のインターフェース装置。
  6.  前記被操作面は、画像を表示する画像表示面の少なくとも一部である、
    請求項1から5のいずれか一項に記載のインターフェース装置。
  7.  前記被検出物は、前記ユーザの手指であり、
     前記支持体は、前記ユーザの少なくとも手を支持するように配置されている、
    請求項1から6のいずれか一項に記載のインターフェース装置。
  8.  移動体に搭載されるように構成されている、
    請求項1から7のいずれか一項に記載のインターフェース装置。
PCT/JP2022/005209 2021-02-12 2022-02-09 インターフェース装置 WO2022172970A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021020832A JP2022123491A (ja) 2021-02-12 2021-02-12 インターフェース装置
JP2021-020832 2021-02-12

Publications (1)

Publication Number Publication Date
WO2022172970A1 true WO2022172970A1 (ja) 2022-08-18

Family

ID=82838847

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/005209 WO2022172970A1 (ja) 2021-02-12 2022-02-09 インターフェース装置

Country Status (2)

Country Link
JP (1) JP2022123491A (ja)
WO (1) WO2022172970A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024070480A1 (ja) * 2022-09-26 2024-04-04 株式会社東海理化電機製作所 制御装置、および非一時的なコンピュータ可読媒体

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015125780A (ja) * 2013-12-26 2015-07-06 ビステオン グローバル テクノロジーズ インコーポレイテッド ジェスチャベース入力のために触覚フィードバックを提供するためのシステム及び方法
JP2015125777A (ja) * 2013-12-26 2015-07-06 ビステオン グローバル テクノロジーズ インコーポレイテッド ジェスチャベース入力からタッチ表面への遷移の指示
JP2020023236A (ja) * 2018-08-07 2020-02-13 トヨタ車体株式会社 車両用操作装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015125780A (ja) * 2013-12-26 2015-07-06 ビステオン グローバル テクノロジーズ インコーポレイテッド ジェスチャベース入力のために触覚フィードバックを提供するためのシステム及び方法
JP2015125777A (ja) * 2013-12-26 2015-07-06 ビステオン グローバル テクノロジーズ インコーポレイテッド ジェスチャベース入力からタッチ表面への遷移の指示
JP2020023236A (ja) * 2018-08-07 2020-02-13 トヨタ車体株式会社 車両用操作装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024070480A1 (ja) * 2022-09-26 2024-04-04 株式会社東海理化電機製作所 制御装置、および非一時的なコンピュータ可読媒体

Also Published As

Publication number Publication date
JP2022123491A (ja) 2022-08-24

Similar Documents

Publication Publication Date Title
US10410319B2 (en) Method and system for operating a touch-sensitive display device of a motor vehicle
US9056549B2 (en) Haptic tracking remote control for driver information center system
US20100250071A1 (en) Dual function touch switch with haptic feedback
JP5563153B2 (ja) 操作装置
US10474357B2 (en) Touch sensing display device and method of detecting user input from a driver side or passenger side in a motor vehicle
JP5124397B2 (ja) 自動車用入出力装置
US10642381B2 (en) Vehicular control unit and control method thereof
CN110740896B (zh) 用于运输工具的用户界面以及具有用户界面的运输工具
WO2015102069A1 (ja) 操作装置
US10346118B2 (en) On-vehicle operation device
US20150324006A1 (en) Display control device
US10558310B2 (en) Onboard operation apparatus
US20110160957A1 (en) Vehicular input device and method for controlling the same
WO2022172970A1 (ja) インターフェース装置
US20210055790A1 (en) Information processing apparatus, information processing system, information processing method, and recording medium
JP3933139B2 (ja) コマンド入力装置
WO2018025517A1 (ja) 表示操作装置
CN107636567B (zh) 用于运行操作装置的方法以及用于机动车的操作装置
JP2019021007A (ja) 入力装置
WO2016031152A1 (ja) 車両用入力インターフェイス
US20210129673A1 (en) Input device
JP2022159790A (ja) ユーザインターフェース装置
JP2022159788A (ja) ユーザインターフェース装置、制御装置、およびコンピュータプログラム
JP2019023942A (ja) 操作装置
JP7183975B2 (ja) 入力装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22752792

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 22752792

Country of ref document: EP

Kind code of ref document: A1