WO2020085521A1 - Input/output device and vehicle comprising same - Google Patents

Input/output device and vehicle comprising same Download PDF

Info

Publication number
WO2020085521A1
WO2020085521A1 PCT/KR2018/012526 KR2018012526W WO2020085521A1 WO 2020085521 A1 WO2020085521 A1 WO 2020085521A1 KR 2018012526 W KR2018012526 W KR 2018012526W WO 2020085521 A1 WO2020085521 A1 WO 2020085521A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
hand
processor
output device
passenger
Prior art date
Application number
PCT/KR2018/012526
Other languages
French (fr)
Korean (ko)
Inventor
이동규
박도연
오주현
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2018/012526 priority Critical patent/WO2020085521A1/en
Publication of WO2020085521A1 publication Critical patent/WO2020085521A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus

Definitions

  • the present invention relates to an input / output device that enables information to be exchanged between a vehicle and a passenger on a vehicle, and a vehicle including the same.
  • Vehicle means a means of transportation that can move people or luggage using kinetic energy. Examples of vehicles are automobiles and motorcycles.
  • the function of the vehicle may be divided into a convenience function for promoting the convenience of the driver and a safety function for promoting the safety of the driver and / or pedestrian.
  • the convenience function has a development motivation related to driver convenience, such as giving the vehicle an infotainment (information + entertainment) function, supporting a partial autonomous driving function, or helping secure a driver's view such as a night vision or a blind spot.
  • driver convenience such as giving the vehicle an infotainment (information + entertainment) function, supporting a partial autonomous driving function, or helping secure a driver's view such as a night vision or a blind spot.
  • ACC adaptive cruise control
  • S smart parking assist system
  • NV night vision
  • HUD head up display
  • AVM adaptive headlight system
  • AHS adaptive headlight system
  • the safety function is a technology that ensures driver safety and / or pedestrian safety, lane departure warning system (LDWS), lane keeping assist system (LKAS), and autonomous emergency braking, AEB) functions.
  • LDWS lane departure warning system
  • LKAS lane keeping assist system
  • AEB autonomous emergency braking
  • V2I Vehicle to Infrastructure
  • V2V Vehicle to Vehicle
  • V2X Vehicle to Everything
  • the input / output device that receives input from the user or outputs various information to the user is limited to the touch screen. Since the function desired by the passenger cannot be quickly selected by the touch screen alone, various user input devices formed to execute the function immediately are provided in the vehicle.
  • the user input device may include a button type, a lever type, and a jog wheel type input device.
  • a heat seat button associated with on / off of the heat seat is additionally provided in the vehicle.
  • the heat seat is a function mainly used only in winter, there is a problem that the heat seat button must always occupy a predetermined space at one point of the vehicle.
  • the present invention aims to solve the above and other problems.
  • One object of the present invention is to provide a new type of input / output device capable of sensing a non-contact user input and providing non-contact feedback.
  • One object of the present invention is to provide an input / output device that allows an occupant to quickly and easily select a specific function while efficiently using a space.
  • One object of the present invention is to provide an input / output device capable of quickly executing a specific function based on a gesture of a passenger, while performing authentication for the passenger.
  • the present invention provides an input / output device and a vehicle equipped with the input / output device.
  • the input / output device may include an image sensor configured to sense a hand of a passenger on the vehicle; A haptic module configured to generate a tactile effect on the hand using vibration of air; And a processor that controls the haptic module to generate different tactile effects based on the position of the hand.
  • a three-dimensional space separated from the input / output device is defined, and the processor may determine whether to generate the tactile effect based on the position of the hand with respect to the three-dimensional space.
  • At least one of the size and position of the 3D space may be differently defined according to the passenger.
  • the processor may adjust the light output intensity of the image sensor based on the three-dimensional space.
  • the processor generates a tactile effect of the first method when the hand is located in the first area of the 3D space, and the first method when the hand is located in the second area of the 3D space.
  • the haptic module may be controlled to generate a second tactile effect.
  • the processor sets a first part and a second part in the hand based on the position of the hand, and a vibration of the first size occurs in the first part, and the second part
  • the haptic module may be controlled to generate vibrations of a second size different from the first size
  • the input / output device further includes a communication unit, and the processor outputs visual information for guiding at least one of the three-dimensional space and the position of the hand to the display provided in the vehicle from the display.
  • the display can be controlled as much as possible.
  • the processor or the image sensor determines whether an object entering the 3D space is the hand, and the processor does not generate the tactile effect when the object is not the hand.
  • the haptic module can be controlled so as not to.
  • the processor may control the haptic module to generate vibrations of different sizes according to a distance between the hand and the image sensor.
  • the input / output device further includes a gesture sensor that tracks a gesture defined by at least one movement of the passenger's hand and finger, and the processor uses the gesture sensor to position the hand. Can detect.
  • a three-dimensional space separated from the input / output device is defined, and the image sensor may be selectively activated according to whether the hand is located in the three-dimensional space.
  • the image sensor detects the vein information located on the hand, and the processor selects a function corresponding to the gesture in response to the gesture satisfying a reference condition, and It can be determined whether or not to execute based on the vein information detected by the image sensor.
  • the input / output device further includes a communication unit, and when the authentication of the vein information fails, the processor includes a user registration screen configured to register the vein information on a display provided in the vehicle.
  • the communication unit can be controlled to be output.
  • the processor may execute different functions according to vein information sensed by the image sensor.
  • the processor may deactivate the image sensor until the passenger leaves the vehicle.
  • a three-dimensional space separated from the input / output device is defined, and when the new passenger's hand, which has not been vein authenticated, enters the three-dimensional space, the processor detects the deactivated image sensor. Activation and vein authentication for the hand of the new passenger may be performed.
  • the input / output device further includes a communication unit, and the processor, when the vein authentication is performed, enables a user mode corresponding to the passenger to be executed in one or more electronic devices provided in the vehicle. , It is possible to control the communication unit.
  • the input / output device further includes a communication unit, and the processor receives a personal profile corresponding to the passenger from an external device, and when vein authentication is performed using the image sensor, the personal profile is added to the personal profile. Based on this, the communication unit is controlled so that a menu selectable by the passenger is output from a display provided in the vehicle, and functions included in the menu may be varied according to the passenger.
  • the input / output device further includes a touch panel configured to sense the touch of the passenger, the haptic module is spaced apart from the edge of the touch panel, and the image sensor is located below the touch panel.
  • the processor may simultaneously receive the passenger's touch input through the touch panel and the passenger's vein information through the image sensor.
  • the input / output device includes an image sensor configured to detect a vein located in the hand of a passenger on the vehicle; A haptic module configured to generate a tactile effect on the hand using vibration of air; And a processor that performs vein authentication for the passenger using the image sensor, and grants different privileges to the passenger according to the vein authentication, wherein a three-dimensional space is defined based on the image sensor, and The processor generates the tactile effect of the first method when the hand is located in the first area of the 3D space, and the tactile effect of the second method when the hand is located in the second area of the 3D space.
  • the haptic module may be controlled, and when the vein authentication is completed, the haptic module may be controlled to end generation of a tactile effect that was occurring.
  • the vein authentication can be used to provide a different user interface to the passenger, and the user can move the hand to the correct position because it generates a tactile effect that guides the vein authentication area to facilitate vein authentication. have.
  • FIG. 1 is a block diagram illustrating an input / output device according to an embodiment of the present invention
  • FIG. 2A and 2B are exemplary views for explaining the arrangement of some components described in FIG. 1.
  • FIG. 3 is a flowchart illustrating a control method by the input / output device of FIG. 1.
  • 4A, 4B, and 4C are exemplary views for describing a 3D space of an input / output device
  • 4D and 4E are conceptual views for explaining haptic intensity in a 3D space
  • 5 is a flow chart for explaining a control method for generating different tactile effects on the hands of passengers.
  • FIG. 6 is an exemplary view for explaining an example according to the control method of FIG. 5
  • FIG. 7 is a flowchart for explaining a control method of an input / output device related to a 3D space
  • 8A and 8B are exemplary views for explaining different 3D spaces according to passengers.
  • FIG. 9 is a flowchart for explaining a control method of an input / output device that performs various controls depending on whether an object entering a 3D space is a hand;
  • FIG. 10 is a flowchart for explaining a control method of an input / output device that performs various controls based on gesture input.
  • 11A and 11B are exemplary views for describing the embodiments of FIG. 10.
  • FIG. 12 is a flowchart for explaining a control method of an input / output device related to vein authentication.
  • FIG. 13 is a flowchart illustrating a control method of an input / output device providing a user interface using vein authentication.
  • FIG. 1 is a block diagram illustrating an input / output device according to an embodiment of the present invention.
  • the present invention provides a new type of input / output device capable of receiving input from a passenger on a vehicle and outputting various information related to the vehicle to the passenger, and a vehicle having the input / output device.
  • FIG. 1 is a block diagram illustrating an input / output device according to an embodiment of the present invention.
  • the input / output device 100 is provided in the vehicle 1 and may be formed of an independent device detachable from the vehicle 1 or integrally installed in the vehicle 1 to be a part of the vehicle 1.
  • the input / output device 100 will be described as having a separate configuration independent from the vehicle 1.
  • the input / output device 100 includes at least one of a communication unit 110, an image sensor 130, a haptic module 150, a gesture sensor 160, a touch panel 170, and a processor 190. Includes.
  • the communication unit 110 is configured to perform communication with various components provided in the vehicle 1.
  • the communication unit 110 may receive various information provided through a CAN (controller are network).
  • the communication unit 110 may perform communication with all devices capable of communication such as a vehicle, a mobile terminal and a server, and other vehicles. This may be called V2X (Vehicle to everything) communication.
  • V2X communication can be defined as a technology that exchanges or shares information such as traffic conditions while communicating with road infrastructure and other vehicles while driving.
  • the communication unit 110 is configured to perform communication with one or more displays 10 provided in the vehicle 1.
  • the communication unit 110 may receive information related to driving of the vehicle from most devices provided in the vehicle 1. Information transmitted from the vehicle 1 to the input / output device 100 is referred to as “vehicle driving information”.
  • the vehicle driving information includes vehicle information and surrounding information of the vehicle. Based on the frame of the vehicle 1, information related to the inside of the vehicle may be defined as vehicle information and information related to the outside of the vehicle as surrounding information.
  • the vehicle information means information about the vehicle itself.
  • the vehicle information includes the vehicle's driving speed, driving direction, acceleration, angular velocity, position (GPS), weight, vehicle occupancy, vehicle braking force, vehicle maximum braking force, air pressure of each wheel, and centrifugal force applied to the vehicle.
  • Driving mode of the vehicle whether autonomous driving mode or manual driving
  • parking mode of the vehicle autonomous parking mode, automatic parking mode, manual parking mode
  • the surrounding information refers to information related to other objects located within a predetermined range around the vehicle and information related to the outside of the vehicle. For example, the condition of the road surface where the vehicle is driving (friction force), weather, distance from the vehicle in front (or rear), the relative speed of the vehicle in front (or rear), and the curvature of the curve when the driving lane is a curve, vehicle Ambient brightness, information related to an object existing in a reference area (constant area) based on a vehicle, whether an object enters / departs from the predetermined area, whether a user exists around the vehicle, and information related to the user (for example, For example, whether the user is an authenticated user).
  • the surrounding information includes: ambient brightness, temperature, sun location, object information (people, other vehicles, signs, etc.) located in the vicinity, type of road surface being driven, topographical features, lane information, and driving lane ) Information, information necessary for autonomous driving / autonomous parking / automatic parking / manual parking mode.
  • the surrounding information includes an object (object) existing around the vehicle and a distance to the vehicle 1, a possibility of collision, the type of the object, a parking space in which the vehicle can park, and an object for identifying the parking space (for example, , Parking lines, strings, other vehicles, walls, etc.).
  • the vehicle driving information is not limited to the example described above, and may include all information generated from components provided in the vehicle 1.
  • the processor 190 may control one or more displays 10 provided in the vehicle 1 using the communication unit 110.
  • the processor 830 may determine whether at least one condition is satisfied among a plurality of preset conditions based on vehicle driving information received through the communication unit 110. Depending on the satisfied condition, the processor 830 may control the one or more displays in different ways.
  • the processor 830 may detect that an event has occurred in the electrical equipment and / or application provided in the vehicle 1 and determine whether the detected event satisfies the preset condition. At this time, the processor 830 may detect that an event has occurred from information received through the communication unit 110.
  • the application is a concept including a widget or a home launcher, and means all types of programs that can be driven in the vehicle 1. Therefore, the application may be a web browser, a video playback, message transmission and reception, schedule management, a program that performs the functions of the application update.
  • FCW Forward Collision Warning
  • BSD Blind Spot Detection
  • LWD Lane Departure Warning
  • PD Pedestrian Detection
  • CSW Curve Speed Warning
  • TBT turn by turn navigation
  • the event occurrence may be a case in which an alert set in ADAS (advanced driver assistance system) or a function set in ADAS is performed.
  • ADAS advanced driver assistance system
  • a function set in ADAS For example, when a forward collision warning occurs, when a blind spot detection occurs, when a lane departure warning occurs, a lane keeping warning
  • an event may be considered to occur when an emergency braking function is performed.
  • the processor 190 controls the communication unit 110 such that information corresponding to the satisfied condition is displayed on the one or more displays 1.
  • the image sensor 130 is configured to generate a hand image corresponding to the hand of a passenger who has boarded the vehicle 1. Specifically, it is possible to detect the hand of a passenger located in a predetermined area and acquire a hand image of the hand.
  • a biometric recognition may be performed by a hand image obtained by the image sensor 130, a gesture of a passenger may be extracted and used as a user input, and the position of the hand may be calculated as a coordinate value.
  • a biometric technology may be applied to the image sensor 130.
  • the biometric technology refers to a technology for identifying or identifying an individual's identity using biometric information.
  • the image sensor 130 may acquire biometric information such as a fingerprint, a face, an iris, and a vein, and implement a biometric technology based on the acquired biometric information.
  • the image sensor 130 may acquire a hand image, extract a vein pattern from the hand image, and identify an individual using the vein pattern.
  • the vein recognition technology is a technology for identifying an individual using a vein pattern image acquired through infrared rays. Human veins are located under a complex shape directly under the skin, and the vein pattern is known to be individual and does not change with age.
  • the image sensor 130 to which the vein recognition technology is applied uses infrared rays, it is made of a non-contact device with high user convenience.
  • the vein pattern is stable and can be found relatively clearly, so a low resolution camera can be used.
  • the image sensor 130 may extract vein information from the hand image to enable vein recognition. Passenger identification may be performed based on the vein information.
  • the image sensor 130 may track the position of the hand using the hand image.
  • the image sensor 130 may calculate the position of the hand as a 2D and / or 3D coordinate value using the hand image.
  • the haptic module 150 generates various tactile effects that the user can feel.
  • a typical example of the tactile effect generated by the haptic module 150 may be vibration.
  • the intensity and pattern of vibration generated in the haptic module 150 may be controlled by a user's selection or setting of the processor 190.
  • the haptic module 150 may synthesize and output different vibrations or sequentially output them.
  • the haptic module 150 includes a pin arrangement vertically moving with respect to a contact skin surface, stimulation of the ejection force or suction force of air through a jet or intake, a grazing on the skin surface, contact with an electrode, and electrostatic force.
  • Various tactile effects such as the effect by and the effect by reproducing the feeling of cold and warm using an element capable of absorbing heat or generating heat can be generated.
  • the haptic module 150 may not only transmit a tactile effect through direct contact, but may also implement the above so that the user can feel the tactile effect through muscle sensations such as fingers or arms.
  • the haptic module 150 may generate a tactile effect by generating vibration of air using ultrasonic waves. Specifically, in order to generate a tactile effect on the skin, it is possible to output ultrasound having a frequency of 40 kHz or more, which is a threshold value that can be felt by receptors in the skin.
  • Two or more haptic modules 150 may be provided according to a configuration aspect of the input / output device 100.
  • the gesture sensor 160 may track a gesture defined by at least one movement of a passenger's hand and finger. Specifically, the gesture sensor 160 may detect the gesture and determine which one of the preset gestures corresponds to the gesture. Furthermore, the gesture sensor 160 may calculate the position of the hand as a coordinate value of 2D and / or 3D.
  • the function of the gesture sensor 160 may be implemented by the image sensor 130.
  • the touch panel 170 may be configured in a film form having a touch pattern.
  • the image sensor 130 may be disposed on the rear surface of the touch panel 170.
  • the touch panel 170 may be integrally formed with a display (not shown).
  • the touch sensor may be disposed on the substrate of the display, or may be provided inside the display.
  • the touch panel 170 may form a touch screen together with a display, and in this case, the touch screen may function as a user input unit that receives a touch input.
  • the input / output device 100 may further include a display.
  • the display may display graphic objects corresponding to various information.
  • Displays include liquid crystal displays (LCDs), thin film transistor-liquid crystal displays (TFT LCDs), organic light-emitting diodes (OLEDs), and flexible displays, 3 At least one of a dimensional display (3D display) and an electronic ink display (e-ink display) may be included.
  • LCDs liquid crystal displays
  • TFT LCDs thin film transistor-liquid crystal displays
  • OLEDs organic light-emitting diodes
  • flexible displays 3 At least one of a dimensional display (3D display) and an electronic ink display (e-ink display) may be included.
  • the display may be implemented as a head up display (HUD).
  • HUD head up display
  • the display may include a projection module to output information through a wind shield or an image projected on the window.
  • the display may include a transparent display.
  • the transparent display can be attached to a wind shield or window.
  • the transparent display can display a predetermined screen while having a predetermined transparency.
  • Transparent display to have transparency, the transparent display is transparent Thin Film Elecroluminescent (TFEL), transparent OLED (Organic Light-Emitting Diode), transparent LCD (Liquid Crystal Display), transmissive transparent display, transparent LED (Light Emitting Diode) display It may include at least one of.
  • the transparency of the transparent display can be adjusted.
  • the display forms a mutual layer structure with the touch input unit or is integrally formed, thereby realizing a touch screen.
  • the processor 190 controls one or more components provided in the input / output device 100, and controls overall operation of the input / output device 100.
  • the processor 190 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in a memory (not shown). have.
  • the processor 190 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors (processors), It may be implemented using at least one of controllers, micro-controllers, microprocessors, and electrical units for performing other functions.
  • ASICs application specific integrated circuits
  • DSPs digital signal processors
  • DSPDs digital signal processing devices
  • PLDs programmable logic devices
  • FPGAs field programmable gate arrays
  • processors processors
  • It may be implemented using at least one of controllers, micro-controllers, microprocessors, and electrical units for performing other functions.
  • At least some of the components illustrated in FIG. 1 may operate in cooperation with each other to implement an operation, control, or control method of the input / output device 100 according to various embodiments described below. Also, the operation, control, or control method of the input / output device 100 may be implemented on the input / output device 100 by driving at least one application program stored in a memory.
  • the processor 190 may control the haptic module 150 so that the haptic module 150 operates in different ways based on the hand image generated by the image sensor 130.
  • the processor 190 may perform vein authentication based on the hand image and provide a user interface accordingly.
  • FIG. 2A and 2B are exemplary views for explaining the arrangement of some of the components described in FIG. 1.
  • FIG. 2A is a top view of the input / output device 100 viewed from top to bottom
  • FIG. 2B is a side view viewed in the direction A shown in FIG. 2A.
  • a touch panel 170 is disposed on an upper portion of the input / output device 100, and one or more haptic modules may be disposed at an edge of the touch panel 170.
  • At least one of the image sensor 130 and the gesture sensor 160 may be disposed on the rear surface of the touch panel 170.
  • the touch panel 170 may be made transparent so that the image sensor 130 and / or the gesture sensor 160 can operate.
  • the touch panel 170 has a hollow, and at least one of the image sensor 130 and the gesture sensor 160 may be disposed at a position overlapping the hollow.
  • the touch panel 170 has a hollow, and the haptic module 150 may be disposed at a position overlapping the hollow.
  • a plurality of haptic modules 150 may be spaced apart.
  • the processor 190 may calculate a target point and a target intensity for generating a tactile effect, and determine the output intensity of each haptic module such that vibration having the target intensity occurs at the target point.
  • the first haptic module may output a first ultrasound having a first frequency
  • the second haptic module may output a second ultrasound having a second frequency. The point at which the first ultrasonic wave intersects the second ultrasonic wave becomes the target point, and vibration at the target point has the target intensity by the first and second ultrasonic waves.
  • the processor 190 may simultaneously receive a passenger's touch input through the touch panel 150 and vein information of the passenger through the image sensor 130.
  • the touch panel 150 may be omitted from the input / output device 100, and in this case, the touch panel 150 may be replaced with a window or a rubber pad.
  • FIG. 3 is a flowchart illustrating a control method by the input / output device of FIG. 1, and FIGS. 4A, 4B, and 4C are conceptual views for explaining a three-dimensional space of the input / output device.
  • the processor 190 detects the hand of a passenger who has boarded the vehicle 1 (S310).
  • a three-dimensional space separated from the input / output device 100 is defined, and the processor 190 may determine whether a passenger's hand is located in the three-dimensional space. Furthermore, the processor 190 may convert a hand position into a 2D and / or 3D coordinate system based on the coordinate system of the 3D space.
  • the three-dimensional space means a space where a passenger can input a gesture input using finger and hand movements, and corresponds to an invisible virtual area.
  • the input / output device 100 may track the hand of a passenger located in the 3D space, and may generate a control command to execute a predetermined function according to the movement of a finger and / or hand located in the 3D space.
  • the three-dimensional space is described as having a hexahedral shape, as shown in 4a, for convenience of explanation in the present invention, but in various sizes and shapes according to embodiments Dimensional space can be defined.
  • the input / output device 100 is for receiving user input from a passenger and is disposed in a center fascia of the vehicle 1 or is provided in the vehicle 1 It can be placed between a red stone and a passenger seat. Accordingly, a driver and / or a front passenger may execute various functions related to the vehicle 1 through the input / output device 100.
  • the processor 190 may calculate the hand position using the hand image received from the image sensor 150. It is also possible for the processor 190 to directly receive hand position information for the hand position from the image sensor 130.
  • the input / output device 100 may further include a gesture sensor 160 that tracks a gesture defined by at least one of a passenger's hand and finger.
  • the processor 190 may detect the position of the hand using the gesture sensor 160.
  • the processor 190 may receive an internal image photographing the inside of the vehicle 1 from a camera provided in the vehicle 1. In this case, the processor 190 may calculate the hand position using the internal image.
  • a proximity sensor may be further provided in the input / output device 100.
  • the processor 190 may detect whether a predetermined object is located in the 3D space by the proximity sensor, and determine whether the predetermined object corresponds to a passenger's hand using the image sensor 130.
  • the proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object in the vicinity using mechanical force or infrared light, etc., without mechanical contact.
  • the proximity sensor may be disposed in the inner region of the input / output device 100 wrapped by the touch panel 170 described above or near the touch panel 170.
  • the processor 190 may calculate the position of the hand by comprehensively considering sensing information received from at least one of a sensor provided in the vehicle 1 and a sensor provided in the input / output device 100.
  • the processor 190 may perform vein authentication using a vein located in the hand (S330).
  • Vein authentication means identifying a passenger using vein information generated by the image sensor 130.
  • the processor 190 may check the identity of the passenger by using the remnant after seeing infrared light into the blood vessel. In other words, the processor 190 may perform vein authentication using the hand image and / or vein information generated from the image sensor 130.
  • the processor 190 compares vein information generated by the image sensor 130 to internal identification information stored inside the input / output device 100 and / or external identification information stored outside the input / output device 100. By doing so, vein authentication can be performed.
  • the external identification information may include information stored in a memory provided in the vehicle 1, information stored in a server or a cloud, and information stored in a mobile terminal carried by a passenger.
  • the input / output device 100 may provide different interfaces according to a result of vein authentication. For example, if the passenger is a person who is authorized to use the vehicle 1, the input / output device 100 may provide a user interface to access all functions that can be executed in the vehicle 1 . Alternatively, if the passenger is a person who does not have the authority to use the vehicle 1, the input / output device 100 may provide a user interface that can access only limited functions.
  • the processor 190 may execute a user mode corresponding to the result of the vein authentication so that different interfaces are provided according to the result of the vein authentication. Furthermore, when the vein authentication is performed, the processor 190 may control the communication unit 110 such that a user mode corresponding to a passenger is executed on one or more electronic devices provided in the vehicle 1.
  • the vein information generated by the image sensor 130 serves as an ID and password for accessing the input / output device 100 and / or the vehicle 1. In other words, a login may be made by vein information.
  • the processor 190 searches for any one piece of identification information that matches the vein information among the stored one or more pieces of identification information. If there is the searched identification information, a user interface corresponding to the searched identification information is provided, and if there is no searched identification information, a limited user interface is provided.
  • the processor 190 may output different tactile effects based on the position of the hand (S350).
  • vein authentication area 410 may be formed in a portion of the 3D space 400 where the input / output device 100 can acquire a hand image. Intravenous authentication may be performed only when a hand is positioned in the vein-authenticable area 410.
  • the processor 190 may generate a tactile effect that guides the direction of movement of the hand such that the passenger's hand is located in the vein authenticable area 410.
  • the processor 190 generates a tactile effect of the first method when the hand is located in the first area of the 3D space, and a tactile effect of the second method when the hand is located in the second area of the 3D space.
  • the haptic module 150 can be controlled.
  • a tactile effect 420 in the form of a triangle pointing to the left occurs, and when the hand needs to move to the right, a triangle shape pointing to the right
  • the tactile effect 430 may occur.
  • a tactile effect 440 in a circular shape may occur.
  • the tactile effect of a specific form means that the user can intuitively and / or recognize the specific form through tactile sense.
  • the processor 190 may control the haptic module 150 to generate vibrations of different sizes according to the distance between the image sensor 130 and the hand.
  • the position of the hand can be represented by a coordinate system consisting of three axes orthogonal to each other.
  • the position of the hand may be represented by the x-axis, y-axis, and z-axis.
  • the processor 190 may control the haptic module 150 to generate different tactile effects according to at least one of the hand x-, y-, and z-coordinates.
  • the passenger may move his or her hand to the vein-authenticable area 410 where vein authentication is possible according to the tactile effect.
  • the processor 190 ends the output of the tactile effect being output (S370), and may grant different privileges to the passengers according to the vein authentication (S390).
  • the processor 190 controls the haptic module 150 to generate different tactile effects based on the hand position.
  • the processor 190 ends the output of the tactile effect being output. Thereafter, the processor 190 may additionally generate a tactile effect that guides the success or failure of vein recognition.
  • vein authentication When the vein authentication is successful, a login by a specific ID is performed and a user interface corresponding to the specific ID is provided. Alternatively, if vein authentication fails, a limited user interface is provided according to login failure.
  • the user interface includes a menu that guides a plurality of functions available to passengers (or icons capable of executing applications), and at least one of a menu configuration, a menu type, and a background image is used for vein authentication. It depends on the vein information.
  • the vein authentication can be used to provide different user interfaces to the passengers, and the user can place their hands in the correct position because the tactile effect of guiding the vein authentication area 410 is made to facilitate vein authentication. Can be moved.
  • the vein authenticable area 410 is an invisible virtual space, but an appropriate tactile effect is transmitted to the passenger through vibration of the air according to the position of the hand. As a result, the driver may perform driving with one hand and perform vein authentication with the other hand while looking at the front.
  • 4D and 4E are exemplary views for explaining haptic intensity in a 3D space.
  • the processor 190 may adjust the haptic strength of the tactile effect in various ways according to the hand position.
  • a tactile effect occurs when the passenger's hand is located at the edge of the 3D space 400, and the stronger the passenger's hand approaches the vein authentication area 410 A tactile effect of intensity can occur.
  • the tactile effect of the greatest intensity occurs when the passenger's hand is located at the edge of the 3D space 400
  • the tactile effect of the weakest intensity occurs, and when it is located at the center of the vein authenticable area 410, a tactile effect of the middle intensity may occur.
  • FIG. 5 is a flowchart for explaining a control method for generating different tactile effects on the hand of a passenger
  • FIG. 6 is an exemplary view for explaining an example according to the control method of FIG. 5.
  • the processor 190 may set the first part and the second part in the hand based on the position of the hand (S510).
  • At least one of the position and size of each part may vary depending on the position of the hand.
  • the hand may be divided into three or more parts, and different tactile effects may occur in each part.
  • the processor 190 may control the haptic module 150 such that a first vibration occurs in a first portion and a second vibration occurs in a second portion (S530).
  • the first vibration may be a vibration having a first magnitude
  • the second vibration may be a vibration having a second magnitude
  • the first vibration may be a vibration having a first shape
  • the second vibration may be a vibration having a second shape.
  • the first vibration and the second vibration are vibrations in which at least one of size, shape, vibration pattern, and repetition period is different.
  • a tactile effect that guides the hand to move to the left may occur.
  • a tactile effect 420 in the form of a triangle pointing to the left may occur.
  • the processor 190 may set the first part 610 and the second part 620 for the entire area of the hand.
  • the first portion 610 outputs a first vibration to generate a first tactile effect of a circular shape with a constant radius
  • the second portion 620 has a second tactile effect of a distorted circular shape with a non-uniform radius.
  • the second vibration can be output to occur.
  • the passenger may intuitively and / or recognize the tactile effect 420 in the form of a triangle pointing to the left by the first vibration and the second vibration.
  • FIGS. 8A and 8B are exemplary views for explaining different 3D spaces according to passengers.
  • the processor 190 may set a 3D space based on information received through the communication unit 110. Passenger information is generated by various sensors provided in the vehicle 1 and may be received by the input / output device 100 through the communication unit 110.
  • the passenger information may include various information related to the passenger, such as gender, age, hand size, arm length, presence of disability, etc., as an example of the vehicle driving information.
  • At least one of the size, shape, and location of the 3D space may be defined differently according to the passenger (or passenger information).
  • the 3D space is a space where a passenger can input a gesture input, but the shoulder position and arm length are different depending on the passenger.
  • the input / output device 100 sets different three-dimensional spaces according to the passengers in order to provide a customized input space for the passengers.
  • a first three-dimensional space 812 is set for the first passenger 820, and as shown in FIG. 8B, a second for the second passenger 830
  • the 3D space 814 can be set.
  • the 3D space is a virtual area that is invisible, the occupant has a problem that it is impossible to determine where the 3D space customized for himself is.
  • the processor 830 may provide a passenger with a non-contact tactile effect guiding the edge of the 3D space using the haptic module 150.
  • a tactile effect such as a virtual wall at the edge of the 3D space may be generated by the haptic module 150.
  • the processor may output visual information guiding the 3D space to the display 10 (S730).
  • the display 10 is disposed inside the vehicle 1, and the processor 190 displays a control command to control the visual information to be output from the display 10 through the communication unit 110. 10).
  • the visual information includes an image corresponding to the interior interior of the vehicle 1, and a graphic object corresponding to the 3D space may be displayed on the image. Furthermore, a graphic object that guides the position of the hand based on the 3D space may be displayed on the image.
  • the processor 190 may adjust the light output intensity of the image sensor 130 based on the 3D space (S750).
  • the processor 190 may perform vein authentication using the image sensor 130. Since at least one of the location, size, and shape of the 3D space varies depending on the passenger, the processor 180 may also set at least one of the location, size, and shape of the vein-authenticable area according to the passenger. . This is to provide an optimal interface space for passengers. The processor 190 adjusts the light output intensity of the image sensor 130 to enable vein authentication in the vein authentication possible area.
  • FIG. 9 is a flowchart illustrating a control method of an input / output device that performs various controls depending on whether an object entering a 3D space is a hand.
  • the processor 190 may determine whether an object entering the 3D space is a hand (S910).
  • the processor 190 is based on at least one of internal information generated by various sensors provided inside the input / output device 100 and internal information generated by various sensors provided outside the input / output device 100. It is possible to determine whether the object entering the 3D space is a hand.
  • the haptic module 150 is controlled so that a tactile effect does not occur (S930).
  • the haptic module 150 is controlled to generate different tactile effects according to the hand position.
  • the processor 190 may determine whether to generate a tactile effect based on the position of the hand in the 3D space.
  • the processor 190 or the image sensor 130 determines whether an object entering the 3D space is the hand, and the processor 190, if the object is not the hand, the tactile effect
  • the haptic module 150 is controlled so that it does not occur.
  • the processor 190 may selectively activate the image sensor 130 according to whether the hand is located in the 3D space (S950).
  • the image sensor 130 may be selectively activated according to whether a passenger's hand is located in the 3D space.
  • the processor 190 may activate the image sensor 130 for vein authentication when the passenger's hand is located in the vein authentication capable area 410 or is expected to enter the vein authentication capable area 410. have. When it is determined that the vein authentication cannot be performed, the processor 190 may deactivate the image sensor 130.
  • the input / output device 100 may perform vein authentication using the image sensor 130 and receive gesture input using the gesture sensor 160 at the same time.
  • the gesture sensor 160 is described as an example of a component of the input / output device 100, the gesture sensor 160 may be an independent device provided in the vehicle 1. In this case, the input / output device 100 may control the input to the vehicle 1 and the output by the vehicle 1 in cooperation with the gesture sensor 160.
  • FIG. 10 is a flowchart illustrating a control method of an input / output device that performs various controls based on gesture input
  • FIGS. 11A and 11B are exemplary views for describing the embodiments of FIG. 10.
  • the processor 190 may select a function corresponding to the gesture in response to a gesture defined by at least one movement of a passenger's hand and finger satisfying a reference condition (S1010).
  • the first function may be selected.
  • the processor 190 may determine whether to execute the selected function based on vein information detected by the image sensor (S1030).
  • the processor 190 senses a gesture input, and at the same time, acquires vein information on a vein of the hand inputting the gesture input, and may perform vein authentication using the vein information.
  • the processor 190 may execute the first function. Alternatively, if the passenger does not have the authority to execute the first function, the processor 190 may limit / block the execution of the first function.
  • the processor 190 may execute different functions according to vein information even when the same gesture is input.
  • the processor 190 may execute different functions according to the vein information detected by the image sensor 130.
  • a second gesture indicating ok when a second gesture indicating ok is detected, different functions may be selected and executed according to whether vein authentication has been performed. Specifically, the processor 190 may execute a second function in response to the second gesture when vein authentication is successful, and execute a third function in response to the second gesture when vein authentication fails.
  • the processor 190 may output a user registration screen to the display 100 provided in the vehicle 1 so that the vein information is registered (S1050).
  • Passengers who fail vein authentication can register themselves to the vehicle 1 and / or the input / output device 100 through the user registration screen, and can use various functions as registered users.
  • FIG. 12 is a flowchart illustrating a control method of an input / output device related to vein authentication.
  • the processor 180 may deactivate the image sensor 110 until the passenger gets off from the vehicle 1 (S1210).
  • the processor 180 may control the communication unit 110 to execute a user mode corresponding to the passenger (S1230). Login is made by vein authentication, and a user interface corresponding to vein authentication may be provided according to a method described later in FIG. 13.
  • the processor 180 activates the deactivated image sensor (S1250), and may perform vein authentication for the new passenger's hand (S1270).
  • the processor 180 may determine whether a new passenger's hand enters a 3D space based on vehicle driving information received through the communication unit 110. For example, the processor 180 may determine in real time that a new passenger's hand enters a three-dimensional space based on an internal image photographing the interior of the vehicle 1.
  • the processor 180 may use the proximity sensor to determine whether a new passenger's hand enters a three-dimensional space. Since the input / output device 100 may be disposed between the driver's seat and the front passenger's seat, the processor 190 may determine which seat the hand of a passenger is on board based on the direction in which the hand enters. The hand entering from the right edge of the 3D space to the left with respect to the front of the vehicle 1 corresponds to the hand of the passenger in the passenger seat, and the hand entering from the left edge of the 3D space to the right is in the driver's seat. It may correspond to the hand of the driver on board.
  • the new passenger means a person who has not been authenticated with vein.
  • the passenger in the passenger seat may be a new passenger.
  • the driver may be a new passenger.
  • the processor 190 may provide different user interfaces according to the occupants of the hand entering the 3D space.
  • the processor 190 may provide a user interface for the driver.
  • the user interface for a driver may be that a driver's home screen including an icon for a function for the driver is displayed on the display 10 of the vehicle 1.
  • the processor 190 provides a user interface for the passenger when the hand of the passenger in the passenger seat enters the three-dimensional space. Different icons may be included in the user interface for the driver and the user interface for the passenger.
  • the user interface for the driver may include a start icon for turning off or turning on the ignition of the vehicle 1, and a driving mode icon for changing the driving mode of the vehicle 1.
  • the user interface for the passenger does not include the start icon and the driving mode icon, but may include a passenger seat air conditioning control icon capable of controlling the air conditioning system corresponding to the passenger seat of the vehicle 1.
  • FIG. 13 is a flowchart for explaining a control method of an input / output device that provides a user interface using vein authentication.
  • the processor 190 may receive at least one personal profile from an external device (S1310).
  • the personal profile is for setting a user interface provided by the vehicle 1 and / or the input / output device 100, and a menu for executing at least one of the functions and functions specialized for the passenger. It can contain.
  • the external device providing the personal profile may be a server or a terminal carried by a passenger.
  • the processor 190 may select a menu selectable by the user based on the user's personal profile corresponding to vein authentication (S1330). Furthermore, the processor 190 may control the communication unit 110 so that the selected menu is output from the display 10 provided in the vehicle 1 (S1350).
  • the processor 190 controls the display 10 to output a menu selectable by the passenger based on the personal profile, and functions included in the menu are varied according to the passenger.
  • the passenger since the passenger is provided with a customized user interface by simply acting to place his or her hand in the vein authentication capable area 410 set by the input / output device 100, the convenience of the passenger increases. .
  • the above-described present invention can be embodied as computer readable codes (or applications or software) on a medium on which a program is recorded.
  • the above-described control method of the autonomous vehicle can be realized by codes stored in a memory or the like.
  • the computer-readable medium includes any kind of recording device in which data readable by a computer system is stored.
  • Examples of computer-readable media include a hard disk drive (HDD), solid state disk (SSD), silicon disk drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. This includes, and is also implemented in the form of a carrier wave (eg, transmission over the Internet).
  • the computer may include a processor or a control unit. Accordingly, the above detailed description should not be construed as limiting in all respects, but should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Abstract

The present invention relates to an input/output device mounted on a vehicle. The input/output device comprises: an image sensor configured to sense a hand of a passenger riding in the vehicle; a haptic module configured to generate a tactile effect on the hand by using vibrations of the air; and a processor for controlling the haptic module to generate different types of tactile effects on the basis of the position of the hand.

Description

입출력 장치 및 그것을 포함하는 차량Input / output devices and vehicles containing them
본 발명은 차량과 차량에 탑승한 탑승객 사이에 정보를 교환할 수 있도록 하는 입출력 장치 및 그것을 포함하는 차량에 관한 것이다.The present invention relates to an input / output device that enables information to be exchanged between a vehicle and a passenger on a vehicle, and a vehicle including the same.
차량은 운동 에너지를 이용하여 사람이나 짐을 이동시킬 수 있는 교통 수단을 의미한다. 차량의 대표적인 예로, 자동차 및 오토바이를 들 수 있다. Vehicle means a means of transportation that can move people or luggage using kinetic energy. Examples of vehicles are automobiles and motorcycles.
차량을 이용하는 사용자의 안전 및 편의를 위해, 차량에는 각종 센서와 장치가 구비되고 있으며, 차량의 기능이 다양화 되고 있다. For the safety and convenience of users of the vehicle, various sensors and devices are provided in the vehicle, and the functions of the vehicle are diversified.
차량의 기능은 운전자의 편의를 도모하기 위한 편의 기능, 그리고 운전자 및/또는 보행자의 안전을 도모하기 위한 안전 기능으로 나뉠 수 있다. The function of the vehicle may be divided into a convenience function for promoting the convenience of the driver and a safety function for promoting the safety of the driver and / or pedestrian.
먼저, 편의 기능은 차량에 인포테인먼트(information + entertainment) 기능을 부여하고, 부분적인 자율 주행 기능을 지원하거나, 야간 시야나 사각 지대와 같은 운전자의 시야 확보를 돕는 등의 운전자 편의와 관련된 개발 동기를 가진다. 예를 들어, 적응 순향 제어(active cruise control, ACC), 스마트주자시스템(smart parking assist system, SPAS), 나이트비전(night vision, NV), 헤드 업 디스플레이(head up display, HUD), 어라운드 뷰 모니터(around view monitor, AVM), 적응형 상향등 제어(adaptive headlight system, AHS) 기능 등이 있다. First, the convenience function has a development motivation related to driver convenience, such as giving the vehicle an infotainment (information + entertainment) function, supporting a partial autonomous driving function, or helping secure a driver's view such as a night vision or a blind spot. . For example, adaptive cruise control (ACC), smart parking assist system (SPAS), night vision (NV), head up display (HUD), around view monitor (around view monitor, AVM), and adaptive headlight system (AHS).
안전 기능은 운전자의 안전 및/또는 보행자의 안전을 확보하는 기술로, 차선 이탈 경고 시스템(lane departure warning system, LDWS), 차선 유지 보조 시스템(lane keeping assist system, LKAS), 자동 긴급 제동(autonomous emergency braking, AEB) 기능 등이 있다. The safety function is a technology that ensures driver safety and / or pedestrian safety, lane departure warning system (LDWS), lane keeping assist system (LKAS), and autonomous emergency braking, AEB) functions.
상술한 편의 기능과 안전 기능이 보다 더 향상될 수 있도록, 차량에 특화된 통신 기술이 개발되고 있다. 예를 들어, 차량과 인프라간의 통신을 가능케 하는 V2I(Vehicle to Infrastructure), 차량과 차량간의 통신을 가능케 하는 V2V(Vehicle to Vehicle) 그리고, 차량과 사물간의 통신을 가능케 하는 V2X(Vehicle to Everything) 등이 있다.In order to further improve the above-mentioned convenience functions and safety functions, communication technologies specialized for vehicles have been developed. For example, V2I (Vehicle to Infrastructure) that enables communication between the vehicle and the infrastructure, V2V (Vehicle to Vehicle) that enables communication between the vehicle and the vehicle, and V2X (Vehicle to Everything) that enables communication between the vehicle and the vehicle. There is this.
차량의 기능은 다양해지고 있으나, 사용자로부터 입력을 받거나 사용자에게 각종 정보를 출력하는 입출력 장치는 터치스크린에 한정되어 있다. 터치스크린만으로는 탑승객이 원하는 기능이 빠르게 선택될 수 없으므로, 즉각적으로 기능을 실행할 수 있도록 형성된 각종 사용자 입력장치가 차량에 구비된다. 예를 들어, 상기 사용자 입력장치는, 버튼 방식, 레버 방식, 조그 휠(jog wheel) 방식의 입력장치 등을 포함할 수 있다. Although the functions of the vehicle are diversified, the input / output device that receives input from the user or outputs various information to the user is limited to the touch screen. Since the function desired by the passenger cannot be quickly selected by the touch screen alone, various user input devices formed to execute the function immediately are provided in the vehicle. For example, the user input device may include a button type, a lever type, and a jog wheel type input device.
차량의 기능이 다양해질수록 차량에는 다수의 사용자 입력장치들이 구비될 수 밖에 없다. 예를 들어, 히트 시트(heat seat)가 개발됨에 따라, 히트 시트의 온/오프에 연계된 히트 시트 버튼이 차량에 추가적으로 구비되고 있다. 히트 시트는 주로 겨울에만 사용하는 기능임에도, 상기 히트 시트 버튼은 항상 상기 차량의 일 지점에서 소정 공간을 차지해야만 하는 문제가 있다. As the functions of the vehicle are diversified, a number of user input devices are inevitably provided in the vehicle. For example, as a heat seat is developed, a heat seat button associated with on / off of the heat seat is additionally provided in the vehicle. Although the heat seat is a function mainly used only in winter, there is a problem that the heat seat button must always occupy a predetermined space at one point of the vehicle.
차량 내부의 공간을 효율적으로 구성하면서도, 탑승객이 필요한 기능을 빠르게 선택할 수 있도록 하는 새로운 방식의 사용자 인터페이스에 대한 사용자 요구가 증가하고 있다.User demand for a new type of user interface is increasing, which allows passengers to quickly select necessary functions while efficiently configuring space inside the vehicle.
본 발명은 전술한 문제 및 다른 문제를 해결하는 것을 목적으로 한다.The present invention aims to solve the above and other problems.
본 발명의 일 목적은, 비접촉식 사용자 입력을 감지하고, 비접촉식 피드백을 제공할 수 있는 새로운 방식의 입출력 장치를 제공하는 것이다. One object of the present invention is to provide a new type of input / output device capable of sensing a non-contact user input and providing non-contact feedback.
본 발명의 일 목적은, 공간을 효율적으로 사용하면서도, 탑승객이 쉽고 빠르게 특정 기능을 선택할 수 있도록 하는 입출력 장치를 제공하는 것이다. One object of the present invention is to provide an input / output device that allows an occupant to quickly and easily select a specific function while efficiently using a space.
본 발명의 일 목적은, 탑승객의 제스처에 근거하여 특정 기능을 빠르게 실행할 수 있으면서도 탑승객에 대한 인증을 수행할 수 있는 입출력 장치를 제공하는 것이다. One object of the present invention is to provide an input / output device capable of quickly executing a specific function based on a gesture of a passenger, while performing authentication for the passenger.
본 발명은 입출력 장치 그리고 상기 입출력 장치가 구비된 차량을 제공한다. The present invention provides an input / output device and a vehicle equipped with the input / output device.
상기 입출력 장치는, 상기 차량에 탑승한 탑승객의 손을 감지하도록 이루어지는 이미지 센서; 공기의 진동을 이용하여 상기 손에 촉각 효과를 발생시키도록 이루어지는 햅틱 모듈; 및 상기 손의 위치에 근거하여 서로 다른 방식의 촉각 효과가 발생하도록 상기 햅틱 모듈을 제어하는 프로세서를 포함한다.The input / output device may include an image sensor configured to sense a hand of a passenger on the vehicle; A haptic module configured to generate a tactile effect on the hand using vibration of air; And a processor that controls the haptic module to generate different tactile effects based on the position of the hand.
일 실시 예에 따르면, 상기 입출력 장치와 이격된 3차원 공간이 정의되며, 상기 프로세서는, 상기 3차원 공간에 대한 상기 손의 위치에 근거하여 상기 촉각 효과의 생성 여부를 결정할 수 있다.According to one embodiment, a three-dimensional space separated from the input / output device is defined, and the processor may determine whether to generate the tactile effect based on the position of the hand with respect to the three-dimensional space.
일 실시 예에 따르면, 상기 탑승객에 따라 상기 3차원 공간의 크기 및 위치 중 적어도 하나가 다르게 정의될 수 있다. According to an embodiment, at least one of the size and position of the 3D space may be differently defined according to the passenger.
일 실시 예에 따르면, 상기 프로세서는, 상기 3차원 공간에 근거하여 상기 이미지 센서의 광 출력 세기를 조절할 수 있다. According to one embodiment, the processor may adjust the light output intensity of the image sensor based on the three-dimensional space.
일 실시 예에 따르면, 상기 프로세서는, 상기 손이 상기 3차원 공간의 제1영역에 위치하면 제1방식의 촉각 효과가 발생하고, 상기 3차원 공간의 제2영역에 위치하면 상기 제1방식과 다른 제2방식의 촉각 효과가 발생하도록 상기 햅틱 모듈을 제어할 수 있다.According to one embodiment, the processor generates a tactile effect of the first method when the hand is located in the first area of the 3D space, and the first method when the hand is located in the second area of the 3D space. The haptic module may be controlled to generate a second tactile effect.
일 실시 예에 따르면, 상기 프로세서는, 상기 손의 위치에 근거하여 상기 손에 제1부분과 제2부분을 설정하고, 상기 제1부분에는 제1크기의 진동이 발생하고, 상기 제2부분에는 상기 제1크기와 다른 제2크기의 진동이 발생하도록 상기 햅틱 모듈을 제어할 수 있다.According to an embodiment of the present disclosure, the processor sets a first part and a second part in the hand based on the position of the hand, and a vibration of the first size occurs in the first part, and the second part The haptic module may be controlled to generate vibrations of a second size different from the first size.
일 실시 예에 따르면, 상기 입출력 장치는, 통신부를 더 포함하며, 상기 프로세서는, 상기 차량에 구비된 디스플레이에 상기 3차원 공간 및 상기 손의 위치 중 적어도 하나를 가이드 하는 시각 정보가 상기 디스플레이에서 출력되도록 상기 디스플레이 제어할 수 있다. According to one embodiment, the input / output device further includes a communication unit, and the processor outputs visual information for guiding at least one of the three-dimensional space and the position of the hand to the display provided in the vehicle from the display. The display can be controlled as much as possible.
일 실시 예에 따르면, 상기 프로세서 또는 상기 이미지 센서는, 상기 3차원 공간에 진입한 물체가 상기 손인지 여부를 결정하고, 상기 프로세서는, 상기 물체가 상기 손이 아닌 경우, 상기 촉각 효과가 발생하지 않도록 상기 햅틱 모듈을 제어할 수 있다.According to an embodiment, the processor or the image sensor determines whether an object entering the 3D space is the hand, and the processor does not generate the tactile effect when the object is not the hand. The haptic module can be controlled so as not to.
일 실시 예에 따르면, 상기 프로세서는, 상기 손과 상기 이미지 센서 사이의 거리에 따라 서로 다른 크기의 진동이 발생하도록 상기 햅틱 모듈을 제어할 수 있다.According to an embodiment, the processor may control the haptic module to generate vibrations of different sizes according to a distance between the hand and the image sensor.
일 실시 예에 따르면, 상기 입출력 장치는 상기 탑승객의 손 및 손가락 중 적어도 하나의 움직임에 의하여 정의되는 제스처를 추적하는 제스처 센서를 더 포함하고, 상기 프로세서는, 상기 제스처 센서를 이용하여 상기 손의 위치를 감지할 수 있다. According to an embodiment, the input / output device further includes a gesture sensor that tracks a gesture defined by at least one movement of the passenger's hand and finger, and the processor uses the gesture sensor to position the hand. Can detect.
일 실시 예에 따르면, 상기 입출력 장치와 이격된 3차원 공간이 정의되며, 상기 이미지 센서는 상기 3차원 공간에 상기 손이 위치하는지 여부에 따라 선택적으로 활성화 될 수 있다.According to an embodiment, a three-dimensional space separated from the input / output device is defined, and the image sensor may be selectively activated according to whether the hand is located in the three-dimensional space.
일 실시 예에 따르면, 상기 이미지 센서는 상기 손에 위치한 정맥 정보를 감지하며, 상기 프로세서는, 상기 제스처가 기준 조건을 만족하는 것에 응답하여 상기 제스처에 대응하는 어느 기능을 선택하고, 상기 선택된 기능의 실행 여부를 상기 이미지 센서에 의해 감지된 상기 정맥 정보에 근거하여 결정할 수 있다. According to one embodiment, the image sensor detects the vein information located on the hand, and the processor selects a function corresponding to the gesture in response to the gesture satisfying a reference condition, and It can be determined whether or not to execute based on the vein information detected by the image sensor.
일 실시 예에 따르면, 상기 입출력 장치는, 통신부를 더 포함하고, 상기 프로세서는, 상기 정맥 정보에 대한 인증이 실패하는 경우, 상기 정맥 정보를 등록하도록 이루어지는 사용자 등록 화면이 상기 차량에 구비된 디스플레이에서 출력되도록 상기 통신부를 제어할 수 있다.According to an embodiment of the present disclosure, the input / output device further includes a communication unit, and when the authentication of the vein information fails, the processor includes a user registration screen configured to register the vein information on a display provided in the vehicle. The communication unit can be controlled to be output.
일 실시 예에 따르면, 상기 프로세서는, 상기 제스처가 기준 조건을 만족하는 경우, 상기 이미지 센서에 의해 감지된 정맥 정보에 따라 서로 다른 기능을 실행할 수 있다. According to an embodiment, when the gesture satisfies a reference condition, the processor may execute different functions according to vein information sensed by the image sensor.
일 실시 예에 따르면, 상기 프로세서는, 상기 이미지 센서를 이용한 상기 탑승객의 정맥 인증이 일 회 이루어지는 경우, 상기 탑승객이 상기 차량으로부터 하차할 때까지 상기 이미지 센서를 비활성화할 수 있다.According to an embodiment, when the vein authentication of the passenger using the image sensor is performed once, the processor may deactivate the image sensor until the passenger leaves the vehicle.
일 실시 예에 따르면, 상기 입출력 장치와 이격된 3차원 공간이 정의되며, 상기 프로세서는, 정맥 인증이 이루어지지 않은 새로운 탑승객의 손이 상기 3차원 공간에 진입하는 경우, 비활성화되어 있는 상기 이미지 센서를 활성화 하고, 상기 새로운 탑승객의 손에 대한 정맥 인증을 수행할 수 있다.According to an embodiment, a three-dimensional space separated from the input / output device is defined, and when the new passenger's hand, which has not been vein authenticated, enters the three-dimensional space, the processor detects the deactivated image sensor. Activation and vein authentication for the hand of the new passenger may be performed.
일 실시 예에 따르면, 상기 입출력 장치는, 통신부를 더 포함하고, 상기 프로세서는, 상기 정맥 인증이 이루어지는 경우, 상기 탑승객에 대응하는 사용자 모드가 상기 차량 내 구비된 하나 또는 그 이상의 전장품들에서 실행되도록, 상기 통신부를 제어할 수 있다.According to an embodiment, the input / output device further includes a communication unit, and the processor, when the vein authentication is performed, enables a user mode corresponding to the passenger to be executed in one or more electronic devices provided in the vehicle. , It is possible to control the communication unit.
일 실시 예에 따르면, 상기 입출력 장치는, 통신부를 더 포함하고, 상기 프로세서는, 상기 탑승객에 대응하는 개인 프로파일을 외부 장치로부터 수신하며, 상기 이미지 센서를 이용한 정맥 인증이 이루어지는 경우, 상기 개인 프로파일에 근거하여 상기 탑승객이 선택할 수 있는 메뉴가 상기 차량에 구비된 디스플레이에서 출력되도록 상기 통신부를 제어 하고, 상기 메뉴에 포함된 기능들은 상기 탑승객에 따라 가변될 수 있다.According to an embodiment, the input / output device further includes a communication unit, and the processor receives a personal profile corresponding to the passenger from an external device, and when vein authentication is performed using the image sensor, the personal profile is added to the personal profile. Based on this, the communication unit is controlled so that a menu selectable by the passenger is output from a display provided in the vehicle, and functions included in the menu may be varied according to the passenger.
일 실시 예에 따르면, 상기 입출력 장치는, 상기 탑승객의 터치를 감지하도록 이루어지는 터치 패널을 더 포함하고, 상기 햅틱 모듈은 상기 터치 패널의 가장자리에 이격 배치되고, 상기 이미지 센서는 상기 터치 패널의 하부에 중첩 배치되며, 상기 프로세서는 상기 터치 패널을 통해 상기 탑승객의 터치 입력 및 상기 이미지 센서를 통해 상기 탑승객의 정맥 정보를 동시에 수신할 수 있다. According to one embodiment, the input / output device further includes a touch panel configured to sense the touch of the passenger, the haptic module is spaced apart from the edge of the touch panel, and the image sensor is located below the touch panel. The overlapping arrangement, the processor may simultaneously receive the passenger's touch input through the touch panel and the passenger's vein information through the image sensor.
한편, 본 발명에 따른 입출력 장치는, 상기 차량에 탑승한 탑승객의 손에 위치한 정맥을 감지하도록 이루어지는 이미지 센서; 공기의 진동을 이용하여 상기 손에 촉각 효과를 발생시키도록 이루어지는 햅틱 모듈; 및 상기 이미지 센서를 이용하여 상기 탑승객에 대한 정맥 인증을 수행하고, 상기 정맥 인증에 따라 서로 다른 권한을 상기 탑승객에게 부여하는 프로세서를 포함하며, 상기 이미지 센서를 기준으로 3차원 공간이 정의되며, 상기 프로세서는, 상기 손이 상기 3차원 공간의 제1영역에 위치하면 제1 방식의 촉각 효과가 발생하고 상기 손이 상기 3차원 공간의 제2영역에 위치하면 제2 방식의 촉각 효과가 발생하도록 상기 햅틱 모듈을 제어하며, 상기 정맥 인증이 완료되면 발생 중이던 촉각 효과의 발생이 종료하도록 상기 햅틱 모듈을 제어할 수 있다.Meanwhile, the input / output device according to the present invention includes an image sensor configured to detect a vein located in the hand of a passenger on the vehicle; A haptic module configured to generate a tactile effect on the hand using vibration of air; And a processor that performs vein authentication for the passenger using the image sensor, and grants different privileges to the passenger according to the vein authentication, wherein a three-dimensional space is defined based on the image sensor, and The processor generates the tactile effect of the first method when the hand is located in the first area of the 3D space, and the tactile effect of the second method when the hand is located in the second area of the 3D space. The haptic module may be controlled, and when the vein authentication is completed, the haptic module may be controlled to end generation of a tactile effect that was occurring.
본 발명에 따른 입출력 장치 및 그것을 포함하는 차량의 효과에 대해 설명하면 다음과 같다.The effects of the input / output device and the vehicle including the same according to the present invention will be described as follows.
본 발명에 따르면 정맥 인증을 이용하여 탑승객에게 서로 다른 사용자 인터페이스를 제공할 수 있으며, 정맥 인증이 원활히 이루어지도록 정맥 인증 가능 영역을 가이드 하는 촉각 효과를 발생시키기 때문에 사용자는 정확한 위치로 손을 이동시킬 수 있다.According to the present invention, the vein authentication can be used to provide a different user interface to the passenger, and the user can move the hand to the correct position because it generates a tactile effect that guides the vein authentication area to facilitate vein authentication. have.
도 1은 본 발명의 일 실시 예에 따른 입출력 장치를 설명하기 위한 블록도1 is a block diagram illustrating an input / output device according to an embodiment of the present invention
도 2a 및 도 2b는 도 1에서 설명한 일부 구성 요소의 배치를 설명하기 위한 예시도 2A and 2B are exemplary views for explaining the arrangement of some components described in FIG. 1.
도 3은 도 1의 입출력 장치에 의한 제어방법을 설명하기 위한 흐름도3 is a flowchart illustrating a control method by the input / output device of FIG. 1.
도 4a, 도 4b 및 도 4c는 입출력 장치의 3차원 공간을 설명하기 위한 예시도들4A, 4B, and 4C are exemplary views for describing a 3D space of an input / output device
도 4d 및 도 4e는 3차원 공간에서의 햅틱 강도를 설명하기 위한 개념도들4D and 4E are conceptual views for explaining haptic intensity in a 3D space
도 5는 탑승객의 손에 서로 다른 촉각 효과를 발생시키는 제어방법을 설명하기 위한 흐름도5 is a flow chart for explaining a control method for generating different tactile effects on the hands of passengers.
도 6은 도 5의 제어방법에 따른 일 예를 설명하기 위한 예시도 6 is an exemplary view for explaining an example according to the control method of FIG. 5
도 7은 3차원 공간과 관련된 입출력 장치의 제어방법을 설명하기 위한 흐름도 7 is a flowchart for explaining a control method of an input / output device related to a 3D space
도 8a 및 도 8b는 탑승객에 따른 서로 다른 3차원 공간을 설명하기 위한 예시도들8A and 8B are exemplary views for explaining different 3D spaces according to passengers.
도 9는 3차원 공간에 진입한 물체가 손인지 여부에 따라 다양한 제어를 수행하는 입출력 장치의 제어방법을 설명하기 위한 흐름도 9 is a flowchart for explaining a control method of an input / output device that performs various controls depending on whether an object entering a 3D space is a hand;
도 10은 제스처 입력에 근거하여 다양한 제어를 수행하는 입출력 장치의 제어방법을 설명하기 위한 흐름도 10 is a flowchart for explaining a control method of an input / output device that performs various controls based on gesture input.
도 11a 및 도 11b는 도 10의 실시 예들을 설명하기 위한 예시도들11A and 11B are exemplary views for describing the embodiments of FIG. 10.
도 12는 정맥 인증과 관련된 입출력 장치의 제어방법을 설명하기 위한 흐름도12 is a flowchart for explaining a control method of an input / output device related to vein authentication.
도 13은 정맥 인증을 이용한 사용자 인터페이스를 제공하는 입출력 장치의 제어방법을 설명하기 위한 흐름도13 is a flowchart illustrating a control method of an input / output device providing a user interface using vein authentication.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments disclosed herein will be described in detail with reference to the accompanying drawings, but the same or similar elements are assigned the same reference numbers regardless of the reference numerals, and overlapping descriptions thereof will be omitted. The suffixes "modules" and "parts" for the components used in the following description are given or mixed only considering the ease of writing the specification, and do not have meanings or roles distinguished from each other in themselves. In addition, in describing the embodiments disclosed in the present specification, when it is determined that detailed descriptions of related known technologies may obscure the gist of the embodiments disclosed herein, detailed descriptions thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in the present specification, and the technical spirit disclosed in the specification is not limited by the accompanying drawings, and all modifications included in the spirit and technical scope of the present invention , It should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from other components.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When an element is said to be "connected" or "connected" to another component, it is understood that other components may be directly connected to or connected to the other component, but other components may exist in the middle. It should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that no other component exists in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly indicates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, the terms "comprises" or "have" are intended to indicate the presence of features, numbers, steps, actions, components, parts or combinations thereof described herein, one or more other features. It should be understood that the existence or addition possibilities of fields or numbers, steps, operations, components, parts or combinations thereof are not excluded in advance.
도 1은 본 발명의 일 실시 예에 따른 입출력 장치를 설명하기 위한 블록도이다.1 is a block diagram illustrating an input / output device according to an embodiment of the present invention.
본 발명은 차량에 탑승한 탑승객으로부터 입력을 수신하고, 차량과 관련된 각종 정보를 탑승객에게 출력할 수 있는 새로운 방식의 입출력 장치 및 상기 입출력 장치를 구비한 차량을 제공한다. The present invention provides a new type of input / output device capable of receiving input from a passenger on a vehicle and outputting various information related to the vehicle to the passenger, and a vehicle having the input / output device.
도 1은 본 발명의 일 실시 예에 따른 입출력 장치를 설명하기 위한 블록도이다. 1 is a block diagram illustrating an input / output device according to an embodiment of the present invention.
입출력 장치(100)는 차량(1)에 구비되는 것으로, 차량(1)에 탈부착이 가능한 독립된 장치로 이루어지거나, 차량(1)에 일체형으로 설치되어 차량(1)의 일부 구성 요소일 수 있다. The input / output device 100 is provided in the vehicle 1 and may be formed of an independent device detachable from the vehicle 1 or integrally installed in the vehicle 1 to be a part of the vehicle 1.
이하에서는, 설명의 편의를 위해 상기 입출력 장치(100)를 상기 차량(1)과 독립된 별도의 구성인 것으로 설명한다. 다만, 이는 본 발명의 일 실시 예에 불과하며, 본 명세서에서 설명하는 모든 입출력 장치(100)의 동작 및 제어방법은, 상기 차량(1)에 구비된 적어도 하나의 전자 제어 장치(Electronic Control Unit)에 의해 수행될 수 있다. Hereinafter, for convenience of description, the input / output device 100 will be described as having a separate configuration independent from the vehicle 1. However, this is only an embodiment of the present invention, and the operation and control method of all the input / output devices 100 described in the present specification includes at least one electronic control unit provided in the vehicle 1. Can be performed by.
도 1을 참조하면, 상기 입출력 장치(100)는 통신부(110), 이미지 센서(130), 햅틱 모듈(150), 제스처 센서(160), 터치 패널(170) 및 프로세서(190) 중 적어도 하나를 포함한다. Referring to FIG. 1, the input / output device 100 includes at least one of a communication unit 110, an image sensor 130, a haptic module 150, a gesture sensor 160, a touch panel 170, and a processor 190. Includes.
통신부(110)는 차량(1)에 구비된 다양한 구성요소들과 통신을 수행하도록 이루어진다. 일 예로, 통신부(110)는 CAN(controller are network)을 통해 제공되는 각종 정보를 수신할 수 있다. 다른 일 예로, 통신부(110)는, 차량, 이동 단말기와 서버, 다른 차량과 같이 통신 가능한 모든 기기와 통신을 수행할 수 있다. 이는, V2X(Vehicle to everything) 통신으로 명명될 수 있다. V2X 통신은 운전 중 도로 인프라 및 다른 차량과 통신하면서 교통상황 등의 정보를 교환하거나 공유하는 기술로 정의될 수 있다.The communication unit 110 is configured to perform communication with various components provided in the vehicle 1. For example, the communication unit 110 may receive various information provided through a CAN (controller are network). As another example, the communication unit 110 may perform communication with all devices capable of communication such as a vehicle, a mobile terminal and a server, and other vehicles. This may be called V2X (Vehicle to everything) communication. V2X communication can be defined as a technology that exchanges or shares information such as traffic conditions while communicating with road infrastructure and other vehicles while driving.
통신부(110)는 상기 차량(1)에 구비된 하나 또는 그 이상의 디스플레이들(10)과 통신을 수행하도록 이루어진다. The communication unit 110 is configured to perform communication with one or more displays 10 provided in the vehicle 1.
나아가, 통신부(110)는 차량(1)에 구비된 대부분의 장치들로부터 차량의 주행과 관련된 정보를 수신할 수 있다. 상기 차량(1)에서 상기 입출력 장치(100)로 전송되는 정보를 ‘차량 주행 정보’로 호칭한다. Furthermore, the communication unit 110 may receive information related to driving of the vehicle from most devices provided in the vehicle 1. Information transmitted from the vehicle 1 to the input / output device 100 is referred to as “vehicle driving information”.
차량 주행 정보는 차량 정보 및 차량의 주변 정보를 포함한다. 차량(1)의 프레임을 기준으로 차량 내부와 관련된 정보를 차량 정보, 차량 외부와 관련된 정보를 주변 정보로 정의할 수 있다. The vehicle driving information includes vehicle information and surrounding information of the vehicle. Based on the frame of the vehicle 1, information related to the inside of the vehicle may be defined as vehicle information and information related to the outside of the vehicle as surrounding information.
차량 정보는 차량 자체에 관한 정보를 의미한다. 예를 들어, 차량 정보는 차량의 주행속도, 주행방향, 가속도, 각속도, 위치(GPS), 무게, 차량의 탑승인원, 차량의 제동력, 차량의 최대 제동력, 각 바퀴의 공기압, 차량에 가해지는 원심력, 차량의 주행모드(자율주행모드인지 수동주행인지 여부), 차량의 주차모드(자율주차모드, 자동주차모드, 수동주차모드), 차량 내에 사용자가 탑승해있는지 여부 및 상기 사용자와 관련된 정보 등을 포함할 수 있다.The vehicle information means information about the vehicle itself. For example, the vehicle information includes the vehicle's driving speed, driving direction, acceleration, angular velocity, position (GPS), weight, vehicle occupancy, vehicle braking force, vehicle maximum braking force, air pressure of each wheel, and centrifugal force applied to the vehicle. , Driving mode of the vehicle (whether autonomous driving mode or manual driving), parking mode of the vehicle (autonomous parking mode, automatic parking mode, manual parking mode), whether the user is in the vehicle and information related to the user It can contain.
주변 정보는 차량을 중심으로 소정 범위 내에 위치하는 다른 물체에 관한 정보 및 차량 외부와 관련된 정보를 의미한다. 예를 들어, 차량이 주행중인 노면의 상태(마찰력), 날씨, 전방(또는 후방) 차량과의 거리, 전방(또는 후방) 차량의 상대속도, 주행중인 차선이 커브인 경우 커브의 굴곡률, 차량 주변밝기, 차량을 기준으로 기준영역(일정영역) 내에 존재하는 객체와 관련된 정보, 상기 일정영역으로 객체가 진입/이탈하는지 여부, 차량 주변에 사용자가 존재하는지 여부 및 상기 사용자와 관련된 정보(예를 들어, 상기 사용자가 인증된 사용자인지 여부) 등일 수 있다.The surrounding information refers to information related to other objects located within a predetermined range around the vehicle and information related to the outside of the vehicle. For example, the condition of the road surface where the vehicle is driving (friction force), weather, distance from the vehicle in front (or rear), the relative speed of the vehicle in front (or rear), and the curvature of the curve when the driving lane is a curve, vehicle Ambient brightness, information related to an object existing in a reference area (constant area) based on a vehicle, whether an object enters / departs from the predetermined area, whether a user exists around the vehicle, and information related to the user (for example, For example, whether the user is an authenticated user).
또한, 상기 주변 정보는, 주변밝기, 온도, 태양위치, 주변에 위치하는 객체 정보(사람, 타차량, 표지판 등), 주행중인 노면의 종류, 지형지물, 차선(Line) 정보, 주행 차로(Lane) 정보, 자율주행/자율주차/자동주차/수동주차 모드에 필요한 정보를 포함할 수 있다.In addition, the surrounding information includes: ambient brightness, temperature, sun location, object information (people, other vehicles, signs, etc.) located in the vicinity, type of road surface being driven, topographical features, lane information, and driving lane ) Information, information necessary for autonomous driving / autonomous parking / automatic parking / manual parking mode.
또한, 주변 정보는, 차량 주변에 존재하는 객체(오브젝트)와 차량(1)까지의 거리, 충돌 가능성, 상기 객체의 종류, 차량이 주차 가능한 주차공간, 주차공간을 식별하기 위한 객체(예를 들어, 주차선, 노끈, 타차량, 벽 등) 등을 더 포함할 수 있다.In addition, the surrounding information includes an object (object) existing around the vehicle and a distance to the vehicle 1, a possibility of collision, the type of the object, a parking space in which the vehicle can park, and an object for identifying the parking space (for example, , Parking lines, strings, other vehicles, walls, etc.).
상기 차량 주행 정보는 이상에서 설명한 예에 한정되지 않으며, 상기 차량(1)에 구비된 구성요소로부터 생성된 모든 정보를 포함할 수 있다. The vehicle driving information is not limited to the example described above, and may include all information generated from components provided in the vehicle 1.
상기 프로세서(190)는 상기 통신부(110)를 이용하여 상기 차량(1)에 구비된 하나 또는 그 이상의 디스플레이들(10)을 제어할 수 있다. The processor 190 may control one or more displays 10 provided in the vehicle 1 using the communication unit 110.
구체적으로, 상기 프로세서(830)는 상기 통신부(110)를 통해 수신되는 차량 주행 정보에 근거하여, 기 설정되어 있는 복수의 조건들 중에서 적어도 하나의 조건이 만족되는지를 판단할 수 있다. 만족되는 조건에 따라, 상기 프로세서(830)는 상기 하나 또는 그 이상의 디스플레이들을 서로 다른 방식으로 제어할 수 있다. Specifically, the processor 830 may determine whether at least one condition is satisfied among a plurality of preset conditions based on vehicle driving information received through the communication unit 110. Depending on the satisfied condition, the processor 830 may control the one or more displays in different ways.
기 설정된 조건과 관련하여, 상기 프로세서(830)는 차량(1)에 구비된 전장품 및/또는 애플리케이션에서 이벤트가 발생한 것을 감지하고, 감지된 이벤트가 기 설정된 조건을 만족하는지를 판단할 수 있다. 이때, 상기 프로세서(830)는 통신부(110)를 통해 수신된 정보로부터 이벤트가 발생한 것을 감지할 수도 있다.In relation to a preset condition, the processor 830 may detect that an event has occurred in the electrical equipment and / or application provided in the vehicle 1 and determine whether the detected event satisfies the preset condition. At this time, the processor 830 may detect that an event has occurred from information received through the communication unit 110.
상기 애플리케이션은 위젯(widget)이나 홈 런처 등을 포함한 개념으로서, 차량(1)에서 구동 가능한 모든 형태의 프로그램을 의미한다. 따라서, 상기 애플리케이션은 웹 브라우저, 동영상 재생, 메세지 송수신, 일정 관리, 애플리케이션의 업데이트의 기능을 수행하는 프로그램이 될 수 있다.The application is a concept including a widget or a home launcher, and means all types of programs that can be driven in the vehicle 1. Therefore, the application may be a web browser, a video playback, message transmission and reception, schedule management, a program that performs the functions of the application update.
나아가, 상기 애플리케이션은 전방 추돌 방지(Forward Collision Warning, FCW), 사각 지대 감지(Blind Spot Detection, BSD), 차선 이탈 경고(Lane Departure Warning, LDW), 보행자 감지(Pedestrian Detection, PD), 커브 속도 경고(Curve Speed Warning, CSW) 및 턴 바이 턴 길안내(turn by turn navigation, TBT) 중 적어도 하나를 포함할 수 있다. Furthermore, the application includes Forward Collision Warning (FCW), Blind Spot Detection (BSD), Lane Departure Warning (LDW), Pedestrian Detection (PD), Curve Speed Warning (Curve Speed Warning, CSW) and turn by turn navigation (TBT).
예를 들어, 이벤트 발생은, 부재중 전화가 있는 경우, 업데이트 대상인 애플리케이션이 있는 경우, 메세지가 도착한 경우, 시동 온(start on), 시동 오프(start off), 자율 주행 온/오프, 디스플레이 활성화 키 눌림(LCD awake key), 알람(alarm), 호 연결(Incoming call), 부재중 알림(missed notification) 등이 될 수 있다.For example, when an event occurs, when there is a missed call, when there is an application to be updated, when a message arrives, start on, start off, autonomous driving on / off, display activation key is pressed (LCD awake key), an alarm, an incoming call, and a missed notification.
다른 예로서, 이벤트 발생은 ADAS(advanced driver assistance system)에서 설정한 경고 발생, ADAS에서 설정한 기능이 수행되는 경우일 수 있다. 예를 들어, 전방 충돌 경고(forward collision warning)가 발생하는 경우, 후측방 경고(blind spot detection)가 발생하는 경우, 차선 이탈 경보(lane departure warning)가 발생하는 경우, 주행 조향 보조 경보(lane keeping assist warning)가 발생하는 경우, 긴급 제동 기능(autonomous emergency braking)이 수행되는 경우에 이벤트가 발생한 것으로 볼 수 있다. As another example, the event occurrence may be a case in which an alert set in ADAS (advanced driver assistance system) or a function set in ADAS is performed. For example, when a forward collision warning occurs, when a blind spot detection occurs, when a lane departure warning occurs, a lane keeping warning When assist warning occurs, an event may be considered to occur when an emergency braking function is performed.
또 다른 예로서, 전진 기어에서 후진 기어로 변경되는 경우, 소정 값보다 큰 가속이 발생되는 경우, 소정 값보다 큰 감속이 발생되는 경우, 동력장치가 내연기관에서 모터로 변경되는 경우, 또는 모터에서 내연기관으로 변경되는 경우에도 이벤트가 발생한 것으로 볼 수 있다. As another example, when changing from a forward gear to a reverse gear, when an acceleration greater than a predetermined value occurs, when a deceleration greater than a predetermined value occurs, when a power unit is changed from an internal combustion engine to a motor, or at a motor Even if it is changed to an internal combustion engine, it can be considered that the event occurred.
이 밖에도, 차량(1)에 구비된 다양한 ECU가 특정 기능을 수행하는 경우에도 이벤트가 발생한 것으로 볼 수 있다. In addition, it can be considered that an event has occurred even when various ECUs provided in the vehicle 1 perform a specific function.
발생한 이벤트가 기 설정된 조건에 만족되는 경우, 상기 프로세서(190)는 만족되는 조건에 대응하는 정보가 상기 하나 또는 그 이상의 디스플레이들(1)에 표시되도록 상기 통신부(110)를 제어한다.When the generated event is satisfied with a preset condition, the processor 190 controls the communication unit 110 such that information corresponding to the satisfied condition is displayed on the one or more displays 1.
상기 이미지 센서(130)는 상기 차량(1)에 탑승한 탑승객의 손에 대응하는 손 영상을 생성하도록 이루어진다. 구체적으로, 소정 영역에 위치한 탑승객의 손을 감지하고, 손을 촬영한 손 영상을 획득할 수 있다. The image sensor 130 is configured to generate a hand image corresponding to the hand of a passenger who has boarded the vehicle 1. Specifically, it is possible to detect the hand of a passenger located in a predetermined area and acquire a hand image of the hand.
상기 이미지 센서(130)에 의해 획득된 손 영상에 의하여, 생체 인식이 이루어질 수 있고, 탑승객의 제스처가 추출되어 사용자 입력으로 활용될 수 있으며, 손의 위치가 좌표 값으로 산출될 수 있다. A biometric recognition may be performed by a hand image obtained by the image sensor 130, a gesture of a passenger may be extracted and used as a user input, and the position of the hand may be calculated as a coordinate value.
일 예로, 상기 이미지 센서(130)에는 생체 인식 기술이 적용될 수 있다. For example, a biometric technology may be applied to the image sensor 130.
여기서, 생체 인식 기술은 생체 정보를 이용하여 개인의 신원을 확인하거나 식별하는 기술을 의미한다. 상기 이미지 센서(130)는 지문, 얼굴, 홍채, 정맥 등의 생체 정보를 획득하고, 획득한 생체 정보를 바탕으로 생체 인식 기술을 구현할 수 있다. Here, the biometric technology refers to a technology for identifying or identifying an individual's identity using biometric information. The image sensor 130 may acquire biometric information such as a fingerprint, a face, an iris, and a vein, and implement a biometric technology based on the acquired biometric information.
예를 들어, 상기 이미지 센서(130)는 손 영상을 획득하고, 상기 손 영상으로부터 정맥 패턴을 추출한 후 상기 정맥 패턴을 이용하여 개인을 식별할 수 있다.For example, the image sensor 130 may acquire a hand image, extract a vein pattern from the hand image, and identify an individual using the vein pattern.
정맥 인식 기술은 적외선을 통해 취득한 정맥 패턴 영상을 이용하여 개인을 식별하는 기술이다. 인간의 정맥은 피부 바로 밑에 복잡한 형태를 가지고 위치하며, 정맥 패턴은 개개인에 따라 다르며 나이를 먹어도 변화하지 않는 것으로 알려져 있다. The vein recognition technology is a technology for identifying an individual using a vein pattern image acquired through infrared rays. Human veins are located under a complex shape directly under the skin, and the vein pattern is known to be individual and does not change with age.
정맥은 신체 내부에 존재하므로 도난 또는 위조의 위험이 거의 없고, 피부 표면의 상태가 인식에 아무런 영향을 끼치지 않는다. 정맥 인식 기술이 적용된 이미지 센서(130)는 적외선을 이용하기 때문에 사용자의 편의성이 높은 비접촉식 장치로 이루어진다. 정맥 패턴은 안정적이고 비교적 명확하게 찾을 수 있으므로, 해상도가 낮은 카메라를 사용할 수 있다. Because the veins are inside the body, there is little risk of theft or forgery, and the condition of the skin's surface has no effect on perception. Since the image sensor 130 to which the vein recognition technology is applied uses infrared rays, it is made of a non-contact device with high user convenience. The vein pattern is stable and can be found relatively clearly, so a low resolution camera can be used.
상기 이미지 센서(130)는 정맥 인식이 가능하도록 상기 손 영상으로부터 정맥 정보를 추출할 수 있다. 상기 정맥 정보에 의하여 탑승객 식별이 이루어질 수 있다. The image sensor 130 may extract vein information from the hand image to enable vein recognition. Passenger identification may be performed based on the vein information.
상기 이미지 센서(130)는 상기 손 영상을 이용하여 손의 위치를 추적할 수 있다. 상기 이미지 센서(130)는 상기 손 영상을 이용하여 상기 손의 위치를 2차원 및/또는 3차원 좌표 값으로 산출할 수 있다. The image sensor 130 may track the position of the hand using the hand image. The image sensor 130 may calculate the position of the hand as a 2D and / or 3D coordinate value using the hand image.
상기 햅틱 모듈(150)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(150)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅틱 모듈(150)에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 프로세서(190)의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(150)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The haptic module 150 generates various tactile effects that the user can feel. A typical example of the tactile effect generated by the haptic module 150 may be vibration. The intensity and pattern of vibration generated in the haptic module 150 may be controlled by a user's selection or setting of the processor 190. For example, the haptic module 150 may synthesize and output different vibrations or sequentially output them.
상기 햅틱 모듈(150)은, 진동 외에도, 접촉 피부면에 대해 수직 운동하는 핀 배열, 분사구나 흡입구를 통한 공기의 분사력이나 흡입력, 피부 표면에 대한 스침, 전극(electrode)의 접촉, 정전기력 등의 자극에 의한 효과와, 흡열이나 발열 가능한 소자를 이용한 냉온감 재현에 의한 효과 등 다양한 촉각 효과를 발생시킬 수 있다.In addition to vibration, the haptic module 150 includes a pin arrangement vertically moving with respect to a contact skin surface, stimulation of the ejection force or suction force of air through a jet or intake, a grazing on the skin surface, contact with an electrode, and electrostatic force. Various tactile effects, such as the effect by and the effect by reproducing the feeling of cold and warm using an element capable of absorbing heat or generating heat can be generated.
상기 햅틱 모듈(150)은 직접적인 접촉을 통해 촉각 효과를 전달할 수 있을 뿐만 아니라, 사용자가 손가락이나 팔 등의 근 감각을 통해 촉각 효과를 느낄 수 있도록 상기 구현할 수도 있다. The haptic module 150 may not only transmit a tactile effect through direct contact, but may also implement the above so that the user can feel the tactile effect through muscle sensations such as fingers or arms.
상기 햅틱 모듈(150)은 초음파를 사용하여 공기의 진동을 발생시킴으로써 촉각 효과를 발생시킬 수 있다. 구체적으로, 피부 상에 촉각 효과를 발생시키기 위하여, 피부 내 수용체들이 느낄 수 있는 임계값인 40kHz 이상의 주파수를 갖는 초음파를 출력할 수 있다. The haptic module 150 may generate a tactile effect by generating vibration of air using ultrasonic waves. Specifically, in order to generate a tactile effect on the skin, it is possible to output ultrasound having a frequency of 40 kHz or more, which is a threshold value that can be felt by receptors in the skin.
상기 햅틱 모듈(150)은 입출력 장치(100)의 구성 태양에 따라 2개 이상이 구비될 수 있다.Two or more haptic modules 150 may be provided according to a configuration aspect of the input / output device 100.
상기 제스처 센서(160)는 탑승객의 손 및 손가락 중 적어도 하나의 움직임에 의하여 정의되는 제스처를 추적할 수 있다. 구체적으로, 상기 제스처 센서(160)는 상기 제스처를 감지하고, 상기 제스처가 기 설정된 제스처들 중 어느 하나에 해당하는지를 판단할 수 있다. 나아가, 상기 제스처 센서(160)는 손의 위치를 2차원 및/또는 3차원의 좌표 값으로 산출할 수 있다. The gesture sensor 160 may track a gesture defined by at least one movement of a passenger's hand and finger. Specifically, the gesture sensor 160 may detect the gesture and determine which one of the preset gestures corresponds to the gesture. Furthermore, the gesture sensor 160 may calculate the position of the hand as a coordinate value of 2D and / or 3D.
상기 제스처 센서(160)의 기능은 상기 이미지 센서(130)에 의해 구현될 수도 있다. The function of the gesture sensor 160 may be implemented by the image sensor 130.
상기 터치 패널(170)은 터치패턴을 구비하는 필름 형태로 구성될 수 있다. 상기 터치 패널(170)의 배면에 상기 이미지 센서(130)가 배치될 수 있다. The touch panel 170 may be configured in a film form having a touch pattern. The image sensor 130 may be disposed on the rear surface of the touch panel 170.
상기 터치 패널(170)은 디스플레이(미도시)와 일체로 형성될 수 있다. 예를 들어, 터치센서는, 디스플레이의 기판 상에 배치되거나, 디스플레이의 내부에 구비될 수 있다. 이처럼, 상기 터치 패널(170)은 디스플레이와 함께 터치 스크린을 형성할 수 있으며, 이 경우에 터치 스크린은 터치 입력을 수신하는 사용자 입력부로 기능할 수 있다.The touch panel 170 may be integrally formed with a display (not shown). For example, the touch sensor may be disposed on the substrate of the display, or may be provided inside the display. As such, the touch panel 170 may form a touch screen together with a display, and in this case, the touch screen may function as a user input unit that receives a touch input.
도 1에 도시되어 있지 않으나, 상기 입출력 장치(100)는 디스플레이를 더 포함할 수도 있다. Although not illustrated in FIG. 1, the input / output device 100 may further include a display.
디스플레이는, 다양한 정보에 대응되는 그래픽 객체를 표시할 수 있다. The display may display graphic objects corresponding to various information.
디스플레이는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉서블 디스플레이(flexible display), 3차원 디스플레이(3D display), 전자잉크 디스플레이(e-ink display) 중에서 적어도 하나를 포함할 수 있다.Displays include liquid crystal displays (LCDs), thin film transistor-liquid crystal displays (TFT LCDs), organic light-emitting diodes (OLEDs), and flexible displays, 3 At least one of a dimensional display (3D display) and an electronic ink display (e-ink display) may be included.
상기 디스플레이는 HUD(Head Up Display)로 구현될 수 있다. 디스플레이가 HUD로 구현되는 경우, 디스플레이는 투사 모듈을 구비하여 윈드 쉴드 또는 윈도우에 투사되는 이미지를 통해 정보를 출력할 수 있다.The display may be implemented as a head up display (HUD). When the display is implemented as a HUD, the display may include a projection module to output information through a wind shield or an image projected on the window.
상기 디스플레이는, 투명 디스플레이를 포함할 수 있다. 투명 디스플레이는 윈드 쉴드 또는 윈도우에 부착될 수 있다. The display may include a transparent display. The transparent display can be attached to a wind shield or window.
투명 디스플레이는 소정의 투명도를 가지면서, 소정의 화면을 표시할 수 있다. 투명 디스플레이는, 투명도를 가지기 위해, 투명 디스플레이는 투명 TFEL(Thin Film Elecroluminescent), 투명 OLED(Organic Light-Emitting Diode), 투명 LCD(Liquid Crystal Display), 투과형 투명디스플레이, 투명 LED(Light Emitting Diode) 디스플레이 중 적어도 하나를 포함할 수 있다. 투명 디스플레이의 투명도는 조절될 수 있다.The transparent display can display a predetermined screen while having a predetermined transparency. Transparent display, to have transparency, the transparent display is transparent Thin Film Elecroluminescent (TFEL), transparent OLED (Organic Light-Emitting Diode), transparent LCD (Liquid Crystal Display), transmissive transparent display, transparent LED (Light Emitting Diode) display It may include at least one of. The transparency of the transparent display can be adjusted.
디스플레이는 터치 입력부와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다.The display forms a mutual layer structure with the touch input unit or is integrally formed, thereby realizing a touch screen.
상기 프로세서(190)는 상기 입출력 장치(100)에 구비된 하나 또는 그 이상의 구성요소들을 제어하며, 상기 입출력 장치(100)의 전반적인 동작을 제어한다. 상기 프로세서(190)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(미도시)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.The processor 190 controls one or more components provided in the input / output device 100, and controls overall operation of the input / output device 100. The processor 190 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in a memory (not shown). have.
상기 프로세서(190)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The processor 190 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors (processors), It may be implemented using at least one of controllers, micro-controllers, microprocessors, and electrical units for performing other functions.
도 1에 도시된 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시 예들에 따른 입출력 장치(100)의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 입출력 장치(100)의 동작, 제어, 또는 제어방법은 메모리에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 입출력 장치(100) 상에서 구현될 수 있다.At least some of the components illustrated in FIG. 1 may operate in cooperation with each other to implement an operation, control, or control method of the input / output device 100 according to various embodiments described below. Also, the operation, control, or control method of the input / output device 100 may be implemented on the input / output device 100 by driving at least one application program stored in a memory.
일 예로, 상기 프로세서(190)는 상기 이미지 센서(130)에 의하여 생성된 손 영상에 근거하여 상기 햅틱 모듈(150)이 서로 다른 방식으로 동작하도록 상기 햅틱 모듈(150)을 제어할 수 있다. For example, the processor 190 may control the haptic module 150 so that the haptic module 150 operates in different ways based on the hand image generated by the image sensor 130.
나아가, 상기 프로세서(190)는 상기 손 영상에 근거하여 정맥 인증을 수행하고, 그에 따른 사용자 인터페이스를 제공할 수 있다. Furthermore, the processor 190 may perform vein authentication based on the hand image and provide a user interface accordingly.
도 2a 및 도 2b는 도 1에서 설명한 일부 구성 요소의 배치를 설명하기 위한 예시도이다 . 도 2a는 상기 입출력 장치(100)를 위에서 아래로 바라본 상면도이고, 도 2b는 도 2a에 도시된 A 방향으로 바라본 측면도이다. 2A and 2B are exemplary views for explaining the arrangement of some of the components described in FIG. 1. FIG. 2A is a top view of the input / output device 100 viewed from top to bottom, and FIG. 2B is a side view viewed in the direction A shown in FIG. 2A.
도 2a에 도시된 바와 같이, 상기 입출력 장치(100)의 상부에는 터치 패널(170)이 배치되고, 상기 터치 패널(170)의 가장자리에는 하나 또는 그 이 상의 햅틱 모듈들이 이격 배치될 수 있다. As illustrated in FIG. 2A, a touch panel 170 is disposed on an upper portion of the input / output device 100, and one or more haptic modules may be disposed at an edge of the touch panel 170.
도 2b에 도시된 바와 같이, 상기 터치 패널(170)의 배면에는 상기 이미지 센서(130) 및 상기 제스처 센서(160) 중 적어도 하나가 배치될 수 있다. 상기 이미지 센서(130) 및/또는 상기 제스처 센서(160)가 동작할 수 있도록, 상기 터치 패널(170)은 투명하게 이루어질 수 있다. 또는, 상기 터치 패널(170)은 중공을 가지며, 상기 중공과 오버랩 되는 위치에 상기 이미지 센서(130) 및 상기 제스처 센서(160) 중 적어도 하나가 배치될 수도 있다.As illustrated in FIG. 2B, at least one of the image sensor 130 and the gesture sensor 160 may be disposed on the rear surface of the touch panel 170. The touch panel 170 may be made transparent so that the image sensor 130 and / or the gesture sensor 160 can operate. Alternatively, the touch panel 170 has a hollow, and at least one of the image sensor 130 and the gesture sensor 160 may be disposed at a position overlapping the hollow.
도면에 도시되지 않았으나, 상기 터치 패널(170)은 중공을 가지며, 상기 중공과 오보랩 되는 위치에 상기 햅틱 모듈(150)이 배치될 수 있다. Although not shown in the drawing, the touch panel 170 has a hollow, and the haptic module 150 may be disposed at a position overlapping the hollow.
상기 햅틱 모듈(150)은 복수 개가 이격되어 배치될 수 있다. 이경우, 상기 프로세서(190)는 촉각 효과를 발생하기 위한 목표 지점 및 목표 세기를 산출하고, 상기 목표 지점에서 상기 목표 세기를 가지는 진동이 발생하도록, 각 햅틱 모듈의 출력 세기를 결정할 수 있다. 예를 들어, 제1 햅틱 모듈은 제1 주파수를 가지는 제1 초음파를 출력하고, 제2 햅틱 모듈은 제2 주파수를 가지는 제2 초음파를 출력할 수 있다. 상기 제1 초음파와 상기 제2 초음파가 교차하는 지점이 상기 목표 지점이 되며, 상기 목표 지점에서의 진동은 상기 제1 및 제2 초음파에 의하여 상기 목표 세기를 가진다. A plurality of haptic modules 150 may be spaced apart. In this case, the processor 190 may calculate a target point and a target intensity for generating a tactile effect, and determine the output intensity of each haptic module such that vibration having the target intensity occurs at the target point. For example, the first haptic module may output a first ultrasound having a first frequency, and the second haptic module may output a second ultrasound having a second frequency. The point at which the first ultrasonic wave intersects the second ultrasonic wave becomes the target point, and vibration at the target point has the target intensity by the first and second ultrasonic waves.
상기 프로세서(190)는 상기 터치 패널(150)을 통해 탑승객의 터치 입력 및 상기 이미지 센서(130)를 통해 상기 탑승객의 정맥 정보를 동시에 수신할 수 있다. The processor 190 may simultaneously receive a passenger's touch input through the touch panel 150 and vein information of the passenger through the image sensor 130.
상기 터치 패널(150)은 상기 입출력 장치(100)에서 생략될 수 있으며, 이경우, 상기 터치 패널(150)은 윈도우나 고무 패드로 대체될 수 있다. The touch panel 150 may be omitted from the input / output device 100, and in this case, the touch panel 150 may be replaced with a window or a rubber pad.
도 3은 도 1의 입출력 장치에 의한 제어방법을 설명하기 위한 흐름도 이고, 도 4a, 도 4b 및 도 4c는 입출력 장치의 3차원 공간을 설명하기 위한 개념도들이다.3 is a flowchart illustrating a control method by the input / output device of FIG. 1, and FIGS. 4A, 4B, and 4C are conceptual views for explaining a three-dimensional space of the input / output device.
도 3을 참조하면, 상기 프로세서(190)는 상기 차량(1)에 탑승한 탑승객의 손을 감지한다(S310).Referring to FIG. 3, the processor 190 detects the hand of a passenger who has boarded the vehicle 1 (S310).
상기 입출력 장치(100)와 이격된 3차원 공간이 정의되고, 상기 프로세서(190)는 상기 3차원 공간에 탑승객의 손이 위치하는지 여부를 결정할 수 있다. 나아가, 상기 프로세서(190)는 상기 3차원 공간의 좌표계에 근거하여 손 위치를 2차원 및/또는 3차원 좌표계로 환산할 수 있다. A three-dimensional space separated from the input / output device 100 is defined, and the processor 190 may determine whether a passenger's hand is located in the three-dimensional space. Furthermore, the processor 190 may convert a hand position into a 2D and / or 3D coordinate system based on the coordinate system of the 3D space.
여기서, 3차원 공간은 탑승객이 손가락 및 손의 움직임을 이용한 제스처 입력을 입력할 수 있는 공간을 의미하며, 눈에 보이지 않는 가상의 영역에 해당한다. 상기 상기 입출력 장치(100)는 상기 3차원 공간에 위치한 탑승객의 손을 추적할 수 있으며, 3차원 공간에 위치한 손가락 및/또는 손의 움직임에 따라 소정 기능이 실행되도록 제어 명령을 생성할 수 있다. Here, the three-dimensional space means a space where a passenger can input a gesture input using finger and hand movements, and corresponds to an invisible virtual area. The input / output device 100 may track the hand of a passenger located in the 3D space, and may generate a control command to execute a predetermined function according to the movement of a finger and / or hand located in the 3D space.
상기 3차원 공간은 있는 공간을 의본 발명에서는 설명의 편의를 위하여, 4a에 도시된 바와 같이, 3차원 공간(400)이 육면체의 형태를 가지는 것으로 설명하나, 실시 예에 따라 다양한 크기 및 형태의 3차원 공간이 정의될 수 있다.In the present invention, the three-dimensional space is described as having a hexahedral shape, as shown in 4a, for convenience of explanation in the present invention, but in various sizes and shapes according to embodiments Dimensional space can be defined.
도 4a에 도시된 바와 같이, 상기 입출력 장치(100)는 탑승객으로부터 사용자 입력을 수신하기 위한 것으로, 상기 차량(1)의 센터 페시아(center fascia)에 배치되거나, 상기 차량(1)에 구비된 운적석과 조수석 사이에 배치될 수 있다. 이로써, 운전자(driver) 및/또는 조수석 탑승객(front passenger)은 상기 입출력 장치(100)를 통해 상기 차량(1)과 관련된 다양한 기능들을 실행시킬 수 있다. As shown in FIG. 4A, the input / output device 100 is for receiving user input from a passenger and is disposed in a center fascia of the vehicle 1 or is provided in the vehicle 1 It can be placed between a red stone and a passenger seat. Accordingly, a driver and / or a front passenger may execute various functions related to the vehicle 1 through the input / output device 100.
상기 프로세서(190)는 상기 이미지 센서(150)로부터 수신되는 손 영상을 이용하여 상기 손 위치를 산출할 수 있다. 상기 프로세서(190)가 상기 이미지 센서(130)로부터 상기 손 위치에 대한 손 위치 정보를 직접 수신하는 것도 가능하다. The processor 190 may calculate the hand position using the hand image received from the image sensor 150. It is also possible for the processor 190 to directly receive hand position information for the hand position from the image sensor 130.
상기 입출력 장치(100)는 탑승객의 손 및 손가락 중 적어도 하나의 움직임에 의하여 정의되는 제스처를 추적하는 제스처 센서(160)를 더 구비할 수 있다. 이경우, 상기 프로세서(190)는 상기 제스처 센서(160)를 이용하여 손의 위치를 감지할 수 있다 . The input / output device 100 may further include a gesture sensor 160 that tracks a gesture defined by at least one of a passenger's hand and finger. In this case, the processor 190 may detect the position of the hand using the gesture sensor 160.
상기 프로세서(190)는 상기 차량(1)에 구비된 카메라로부터 상기 차량(1)의 내부를 촬영한 내부 영상을 수신할 수도 있다. 이경우, 상기 프로세서(190)는 상기 내부 영상을 이용하여 상기 손 위치를 산출할 수 있다. The processor 190 may receive an internal image photographing the inside of the vehicle 1 from a camera provided in the vehicle 1. In this case, the processor 190 may calculate the hand position using the internal image.
상기 입출력 장치(100)에 근접 센서가 더 구비될 수 있다. 상기 프로세서(190)는 상기 근접 센서에 의해 소정 물체가 상기 3차원 공간에 위치하는지를 검출하고, 상기 이미지 센서(130)를 이용하여 상기 소정 물체가 탑승객의 손에 해당하는지를 판단할 수 있다. A proximity sensor may be further provided in the input / output device 100. The processor 190 may detect whether a predetermined object is located in the 3D space by the proximity sensor, and determine whether the predetermined object corresponds to a passenger's hand using the image sensor 130.
상기 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선 등을 이용하여 기계적 접촉이 없이 검출하는 센서를 말한다. 이러한 근접 센서는 위에서 살펴본 터치 패널(170)에 의해 감싸지는 입출력 장치(100)의 내부 영역 또는 상기 터치 패널(170)의 근처에 배치될 수 있다.The proximity sensor refers to a sensor that detects the presence or absence of an object approaching a predetermined detection surface or an object in the vicinity using mechanical force or infrared light, etc., without mechanical contact. The proximity sensor may be disposed in the inner region of the input / output device 100 wrapped by the touch panel 170 described above or near the touch panel 170.
상기 프로세서(190)는 상기 차량(1)에 구비된 센서 및 상기 입출력 장치(100)에 구비된 센서 중 적어도 하나로부터 수신되는 센싱 정보를 종합적으로 고려하여 손의 위치를 산출할 수 있다. The processor 190 may calculate the position of the hand by comprehensively considering sensing information received from at least one of a sensor provided in the vehicle 1 and a sensor provided in the input / output device 100.
다음으로, 상기 프로세서(190)는 상기 손에 위치한 정맥을 이용하여 정맥 인증을 수행할 수 있다(S330).Next, the processor 190 may perform vein authentication using a vein located in the hand (S330).
정맥 인증은 상기 이미지 센서(130)에 의해 생성된 정맥 정보를 이용하여 탑승객을 식별하는 것을 의미한다. 상기 프로세서(190)는 적외선을 혈관에 투시한 후 잔영을 이용해 탑승객의 신분을 확인할 수 있다. 다시 말해, 상기 프로세서(190)는 상기 이미지 센서(130)로부터 생성된 손 영상 및/또는 정맥 정보를 이용하여 정맥 인증을 수행할 수 있다. Vein authentication means identifying a passenger using vein information generated by the image sensor 130. The processor 190 may check the identity of the passenger by using the remnant after seeing infrared light into the blood vessel. In other words, the processor 190 may perform vein authentication using the hand image and / or vein information generated from the image sensor 130.
상기 프로세서(190)는 상기 입출력 장치(100)의 내부에 저장된 내부 식별 정보 및/또는 상기 입출력 장치(100)의 외부에 저장된 외부 식별 정보에 상기 이미지 센서(130)에 의해 생성된 정맥 정보를 비교함으로써 정맥 인증을 수행할 수 있다. The processor 190 compares vein information generated by the image sensor 130 to internal identification information stored inside the input / output device 100 and / or external identification information stored outside the input / output device 100. By doing so, vein authentication can be performed.
여기서, 상기 외부 식별 정보에는 상기 차량(1)에 구비된 메모리에 저장된 정보, 서버나 클라우드에 저장된 정보, 그리고 탑승객이 소지한 이동 단말기에 저장된 정보가 포함될 수 있다. Here, the external identification information may include information stored in a memory provided in the vehicle 1, information stored in a server or a cloud, and information stored in a mobile terminal carried by a passenger.
상기 입출력 장치(100)는 정맥 인증의 결과에 따라 서로 다른 인터페이스를 제공할 수 있다. 예를 들어, 탑승객이 상기 차량(1)을 이용할 권한이 있는 자인 경우, 상기 입출력 장치(100)는 상기 차량(1)에서 실행할 수 있는 모든 기능들에 접근할 수 있는 사용자 인터페이스를 제공할 수 있다. 이와 달리, 탑승객이 상기 차량(1)을 이용할 권한이 없는 자인 경우, 상기 입출력 장치(100)는 제한된 기능에만 접근할 수 있는 사용자 인터페이스를 제공할 수 있다. The input / output device 100 may provide different interfaces according to a result of vein authentication. For example, if the passenger is a person who is authorized to use the vehicle 1, the input / output device 100 may provide a user interface to access all functions that can be executed in the vehicle 1 . Alternatively, if the passenger is a person who does not have the authority to use the vehicle 1, the input / output device 100 may provide a user interface that can access only limited functions.
정맥 인증의 결과에 따라 서로 다른 인터페이스가 제공되도록, 상기 프로세서(190)는 정맥 인증의 결과에 대응하는 사용자 모드를 실행할 수 있다. 나아가, 상기 프로세서(190)는 정맥 인증이 이루어지는 경우, 탑승객에 대응하는 사용자 모드가 상기 차량(1) 내 구비된 하나 또는 그 이상의 전장품들에서 실행되도록, 상기 통신부(110)를 제어할 수 있다 . The processor 190 may execute a user mode corresponding to the result of the vein authentication so that different interfaces are provided according to the result of the vein authentication. Furthermore, when the vein authentication is performed, the processor 190 may control the communication unit 110 such that a user mode corresponding to a passenger is executed on one or more electronic devices provided in the vehicle 1.
상기 이미지 센서(130)에 의해 생성된 정맥 정보는 상기 입출력 장치(100) 및/또는 상기 차량(1)에 접속하기 위한 아이디와 암호의 역할을 수행한다. 다시 말해, 정맥 정보에 의하여 로그인이 이루어질 수 있다. The vein information generated by the image sensor 130 serves as an ID and password for accessing the input / output device 100 and / or the vehicle 1. In other words, a login may be made by vein information.
상기 프로세서(190)는 저장되어 있는 하나 또는 그 이상의 식별 정보들 중 정맥 정보와 매칭되는 어느 하나의 식별 정보를 탐색한다. 탐색된 식별 정보가 있는 경우, 탐색된 식별 정보에 대응하는 사용자 인터페이스를 제공하고, 탐색된 식별 정보가 없는 경우, 제한된 사용자 인터페이스를 제공한다. The processor 190 searches for any one piece of identification information that matches the vein information among the stored one or more pieces of identification information. If there is the searched identification information, a user interface corresponding to the searched identification information is provided, and if there is no searched identification information, a limited user interface is provided.
상기 프로세서(190)는 상기 손의 위치에 근거하여 서로 다른 방식의 촉각 효과를 출력할 수 있다(S350).The processor 190 may output different tactile effects based on the position of the hand (S350).
입출력 장치(100)의 구조에 따라 정맥 인증이 이루어질 수 있는 영역은 제한되어 있다. 예를 들어, 도 4a 및 도 4b에 도시된 바와 같이, 정맥 인증 가능 영역(410)은 입출력 장치(100)가 손 영상을 획득할 수 있는 3차원 공간(400)의 일부분에 형성될 수 있다. 정맥 인증은 상기 정맥 인증 가능 영역(410)에 손이 위치한 경우에 한하여 이루어질 수 있다. Depending on the structure of the input / output device 100, an area where vein authentication can be performed is limited. For example, as illustrated in FIGS. 4A and 4B, the vein authentication area 410 may be formed in a portion of the 3D space 400 where the input / output device 100 can acquire a hand image. Intravenous authentication may be performed only when a hand is positioned in the vein-authenticable area 410.
상기 프로세서(190)는 탑승객의 손이 상기 정맥 인증 가능 영역(410)에 위치하도록 손의 이동 방향을 가이드 하는 촉각 효과를 발생시킬 수 있다. 상기 프로세서(190)는 상기 손이 상기 3차원 공간의 제1 영역에 위치하면 제1 방식의 촉각 효과가 발생하고 상기 손이 상기 3차원 공간의 제2영역에 위치하면 제2 방식의 촉각 효과가 발생하도록, 상기 햅틱 모듈(150)을 제어할 수 있다. The processor 190 may generate a tactile effect that guides the direction of movement of the hand such that the passenger's hand is located in the vein authenticable area 410. The processor 190 generates a tactile effect of the first method when the hand is located in the first area of the 3D space, and a tactile effect of the second method when the hand is located in the second area of the 3D space. To occur, the haptic module 150 can be controlled.
예를 들어, 도 4c에 도시된 바와 같이, 손이 왼쪽으로 이동해야 하는 경우, 왼쪽을 가리키는 삼각형 형태의 촉각 효과(420)가 발생하고, 손이 오른쪽으로 이동해야 하는 경우, 오른쪽을 가리키는 삼각형 형태의 촉각 효과(430)가 발생할 수 있다. 손이 상기 정맥 인증 가능 영역(410)에 위치하는 경우, 원형 형태의 촉각 효과(440)가 발생할 수 있다. For example, as illustrated in FIG. 4C, when the hand needs to move to the left, a tactile effect 420 in the form of a triangle pointing to the left occurs, and when the hand needs to move to the right, a triangle shape pointing to the right The tactile effect 430 may occur. When the hand is located in the vein authenticable area 410, a tactile effect 440 in a circular shape may occur.
여기서, 특정 형태의 촉각 효과는 사용자가 촉감을 통하여 상기 특정 형태를 직감 및/또는 인식할 수 있는 것을 의미한다. Here, the tactile effect of a specific form means that the user can intuitively and / or recognize the specific form through tactile sense.
동일한 형태의 촉각 효과라도, 손이 상기 정맥 인증 가능 영역(410)에 가까워질수록 더 큰 세기의 촉각 효과가 발생하고, 상기 정맥 인증 가능 영역(410)에 멀어질수록 더 작은 세기의 촉각 효과가 발생할 수 있다. 다시 말해, 상기 프로세서(190)는 상기 이미지 센서(130)와 손 사이의 거리에 따라 서로 다른 크기의 진동이 발생하도록 상기 햅틱 모듈(150)를 제어할 수 있다. Even if the tactile effect of the same type, the tactile effect of a greater intensity is generated as the hand is closer to the vein authenticable region 410, and the tactile effect of a smaller intensity is generated as it is moved away from the vein authenticable region 410. Can occur. In other words, the processor 190 may control the haptic module 150 to generate vibrations of different sizes according to the distance between the image sensor 130 and the hand.
손의 위치는 상호 직교하는 3축으로 이루어진 좌표계로 나타낼 수 있다. 예를 들어, 손의 위치는 x축, y축, z축으로 표현될 수 있다. 이경우, 상기 프로세서(190)는 손의 x 좌표, y좌표 및 z 좌표 중 적어도 하나에 따라 서로 다른 촉각 효과가 발생하도록 상기 햅틱 모듈(150)을 제어할 수 있다. The position of the hand can be represented by a coordinate system consisting of three axes orthogonal to each other. For example, the position of the hand may be represented by the x-axis, y-axis, and z-axis. In this case, the processor 190 may control the haptic module 150 to generate different tactile effects according to at least one of the hand x-, y-, and z-coordinates.
탑승객은 촉각 효과를 따라 정맥 인증이 가능한 상기 정맥 인증 가능 영역(410)으로 손을 이동시킬 수 있다. The passenger may move his or her hand to the vein-authenticable area 410 where vein authentication is possible according to the tactile effect.
상기 프로세서(190)는 상기 정맥 인증이 완료되면 출력 중이던 촉각 효과의 출력을 종료하고(S370), 상기 정맥 인증에 따라 상기 탑승객에게 서로 다른 권한을 부여할 수 있다(S390).When the vein authentication is completed, the processor 190 ends the output of the tactile effect being output (S370), and may grant different privileges to the passengers according to the vein authentication (S390).
정맥 인증이 완료되지 않으면, 상기 프로세서(190)는 손의 위치에 근거하여 서로 다른 방식의 촉각 효과가 발생하도록 상기 햅틱 모듈(150)을 제어한다.If the vein authentication is not completed, the processor 190 controls the haptic module 150 to generate different tactile effects based on the hand position.
정맥 인증이 완료되면, 상기 프로세서(190)는 출력 중이던 촉각 효과의 출력을 종료한다. 이후, 상기 프로세서(190)는 정맥 인식의 성공 또는 실패를 가이드 하는 촉각 효과를 추가적으로 발생시킬 수 있다. When the vein authentication is completed, the processor 190 ends the output of the tactile effect being output. Thereafter, the processor 190 may additionally generate a tactile effect that guides the success or failure of vein recognition.
정맥 인증이 성공하는 경우, 특정 아이디에 의한 로그인이 이루어지며 특정 아이디에 대응하는 사용자 인터페이스가 제공된다. 이와 달리, 정맥 인증이 실패하는 경우, 로그인 실패에 따른 제한된 사용자 인터페이스가 제공된다. When the vein authentication is successful, a login by a specific ID is performed and a user interface corresponding to the specific ID is provided. Alternatively, if vein authentication fails, a limited user interface is provided according to login failure.
사용자 인터페이스는 탑승객이 이용할 수 있는 복수의 기능들을 가이드 하는 메뉴(또는, 애플리케이션들을 실행시킬 수 있는 아이콘들)를 포함하며, 메뉴의 구성, 메뉴의 형태, 및 배경 이미지 중 적어도 하나가 정맥 인증에 이용된 정맥 정보에 따라 달라진다. The user interface includes a menu that guides a plurality of functions available to passengers (or icons capable of executing applications), and at least one of a menu configuration, a menu type, and a background image is used for vein authentication. It depends on the vein information.
본 발명에 따르면 정맥 인증을 이용하여 탑승객에게 서로 다른 사용자 인터페이스를 제공할 수 있으며, 정맥 인증이 원활히 이루어지도록 정맥 인증 가능 영역(410)을 가이드 하는 촉각 효과를 발생시키기 때문에 사용자는 정확한 위치로 손을 이동시킬 수 있다. According to the present invention, the vein authentication can be used to provide different user interfaces to the passengers, and the user can place their hands in the correct position because the tactile effect of guiding the vein authentication area 410 is made to facilitate vein authentication. Can be moved.
정맥 인증 가능 영역(410)은 눈에 보이지 않는 가상의 공간이지만, 손의 위치에 따라 적절한 촉각 효과가 공기의 진동을 통해 탑승객에게 전달된다. 이로써, 운전자는 어느 손으로 운전을 수행하며 전방을 주시하면서도 다른 손으로 정맥 인증을 수행할 수 있다. The vein authenticable area 410 is an invisible virtual space, but an appropriate tactile effect is transmitted to the passenger through vibration of the air according to the position of the hand. As a result, the driver may perform driving with one hand and perform vein authentication with the other hand while looking at the front.
도 4d 및 도 4e는 3차원 공간에서의 햅틱 강도를 설명하기 위한 예시도들이다. 4D and 4E are exemplary views for explaining haptic intensity in a 3D space.
상기 프로세서(190)는 손 위치에 따라 촉각 효과의 햅틱 강도를 다양한 방식으로 조절할 수 있다. The processor 190 may adjust the haptic strength of the tactile effect in various ways according to the hand position.
예를 들어, 도 4d에 도시된 바와 같이, 탑승객의 손이 3차원 공간(400)의 가장자리에 위치하는 경우 촉각 효과가 발생하며, 탑승객의 손이 정맥 인증 가능 영역(410)에 다가갈수록 더 강한 세기의 촉각 효과가 발생할 수 있다. For example, as illustrated in FIG. 4D, a tactile effect occurs when the passenger's hand is located at the edge of the 3D space 400, and the stronger the passenger's hand approaches the vein authentication area 410 A tactile effect of intensity can occur.
다른 예를 들어, 도 4e에 도시된 바와 같이, 3차원 공간(400)의 가장자리를 가이드 하기 위하여, 탑승객의 손이 3차원 공간(400)의 가장자리에 위치하는 경우 가장 큰 세기의 촉각 효과가 발생하고, 정맥 인증 가능 영역(410)의 가장자리에 위치하는 경우 가장 약한 세기의 촉각 효과가 발생하고, 정맥 인증 가능 영역(410)의 중앙에 위치하는 경우 중간 세기의 촉각 효과가 발생할 수 있다. For another example, as illustrated in FIG. 4E, in order to guide the edge of the 3D space 400, the tactile effect of the greatest intensity occurs when the passenger's hand is located at the edge of the 3D space 400 And, when it is located at the edge of the vein authenticable area 410, the tactile effect of the weakest intensity occurs, and when it is located at the center of the vein authenticable area 410, a tactile effect of the middle intensity may occur.
도 5는 탑승객의 손에 서로 다른 촉각 효과를 발생시키는 제어방법을 설명하기 위한 흐름도이고, 도 6은 도 5의 제어방법에 따른 일 예를 설명하기 위한 예시도이다 .5 is a flowchart for explaining a control method for generating different tactile effects on the hand of a passenger, and FIG. 6 is an exemplary view for explaining an example according to the control method of FIG. 5.
도 5를 참조하면, 프로세서(190)는 손의 위치에 근거하여 상기 손에 제1부분과 제2 부분을 설정할 수 있다(S510).Referring to FIG. 5, the processor 190 may set the first part and the second part in the hand based on the position of the hand (S510).
각 부분의 위치 및 크기 중 적어도 하나는 상기 손의 위치에 따라 달라질 수 있다. 나아가, 상기 손이 셋 이상의 부분들로 구분되어 각 부분에 서로 다른 촉각 효과가 발생할 수도 있다. At least one of the position and size of each part may vary depending on the position of the hand. Furthermore, the hand may be divided into three or more parts, and different tactile effects may occur in each part.
다음으로, 프로세서(190)는 제1 부분에는 제1 진동이 발생하고 제2 부분에는 제2 진동이 발생하도록 햅틱 모듈(150)을 제어할 수 있다(S530). Next, the processor 190 may control the haptic module 150 such that a first vibration occurs in a first portion and a second vibration occurs in a second portion (S530).
예를 들어, 상기 제1 진동은 제1 크기를 가지는 진동이고, 상기 제2 진동은 제2 크기를 가지는 진동일 수 있다. 다른 예를 들어, 상기 제1 진동은 제1 형태를 가지는 진동이고, 상기 제2 진동은 제2 형태를 가지는 진동일 수 있다. 결론적으로, 상기 제1 진동과 상기 제2 진동은 크기, 형태, 진동패턴 및 반복주기 중 적어도 하나가 서로 다른 진동들이다. For example, the first vibration may be a vibration having a first magnitude, and the second vibration may be a vibration having a second magnitude. For another example, the first vibration may be a vibration having a first shape, and the second vibration may be a vibration having a second shape. In conclusion, the first vibration and the second vibration are vibrations in which at least one of size, shape, vibration pattern, and repetition period is different.
도 6에 도시된 바와 같이, 손이 상기 입출력 장치(100)에 대하여 우측에 위치한 경우, 상기 손을 좌측으로 이동하도록 가이드 하는 촉각 효과가 발생할 수 있다. 일 예로, 좌측을 가리키는 삼각형 형태의 촉각 효과(420)가 발생할 수 있다. As shown in FIG. 6, when the hand is located on the right side with respect to the input / output device 100, a tactile effect that guides the hand to move to the left may occur. For example, a tactile effect 420 in the form of a triangle pointing to the left may occur.
이때, 상기 프로세서(190)는 상기 손의 전체영역에 대해서 제1부분(610)과 제2부분(620)을 설정할 수 있다. 상기 제1부분(610)에는 반지름이 일정한 원형 형태의 제1촉각 효과가 발생하도록 제1진동을 출력하고, 상기 제2 부분(620)에는 반지름이 일정하지 않아 찌그러진 원형 형태의 제2 촉각 효과가 발생하도록 제2진동을 출력할 수 있다. 탑승객은 상기 제1진동 및 상기 제2진동에 의하여 좌측을 가리키는 삼각형 형태의 촉각 효과(420)를 직감 및/또는 인식할 수 있다. At this time, the processor 190 may set the first part 610 and the second part 620 for the entire area of the hand. The first portion 610 outputs a first vibration to generate a first tactile effect of a circular shape with a constant radius, and the second portion 620 has a second tactile effect of a distorted circular shape with a non-uniform radius. The second vibration can be output to occur. The passenger may intuitively and / or recognize the tactile effect 420 in the form of a triangle pointing to the left by the first vibration and the second vibration.
도 7은 3차원 공간과 관련된 입출력 장치의 제어방법을 설명하기 위한 흐름도이고, 도 8a 및 도 8b는 탑승객에 따른 서로 다른 3차원 공간을 설명하기 위한 예시도들이다. 7 is a flowchart illustrating a control method of an input / output device related to a 3D space, and FIGS. 8A and 8B are exemplary views for explaining different 3D spaces according to passengers.
상기 프로세서(190)는 상기 통신부(110)를 통해 수신된 정보에 근거하여 3차원 공간을 설정할 수 있다. 상기 차량(1)에 구비된 다양한 센서들에 의하여 탑승객 정보가 생성되고, 상기 통신부(110)를 통해 상기 입출력 장치(100)로 수신될 수 있다. The processor 190 may set a 3D space based on information received through the communication unit 110. Passenger information is generated by various sensors provided in the vehicle 1 and may be received by the input / output device 100 through the communication unit 110.
상기 탑승객 정보는 상기 차량 주행 정보의 일 예로, 탑승객의 성별, 나이, 손 크기, 팔 길이, 장애 유무 등과 같이 상기 탑승객과 관련된 다양한 정보를 포함할 수 있다. The passenger information may include various information related to the passenger, such as gender, age, hand size, arm length, presence of disability, etc., as an example of the vehicle driving information.
탑승객(또는, 탑승객 정보)에 따라 상기 3차원 공간의 크기, 형태 및 위치 중 적어도 하나는 다르게 정의 될 수 있다 . At least one of the size, shape, and location of the 3D space may be defined differently according to the passenger (or passenger information).
3차원 공간은 탑승객이 제스처 입력을 입력할 수 있는 공간이나, 탑승객에 따라 어깨 위치 및 팔 길이가 상이하다. 본 발명에 따른 입출력 장치(100)는, 탑승객에게 맞춤형 입력 공간을 제공하기 위하여, 탑승객에 따라 서로 다른 3차원 공간을 설정한다. The 3D space is a space where a passenger can input a gesture input, but the shoulder position and arm length are different depending on the passenger. The input / output device 100 according to the present invention sets different three-dimensional spaces according to the passengers in order to provide a customized input space for the passengers.
예를 들어, 도 8a에 도시된 바와 같이, 제1 탑승객(820)에 대해서는 제1 3차원 공간(812)이 설정되고, 도 8b에 도시된 바와 같이, 제2 탑승객(830)에 대해서는 제2 3차원 공간(814)이 설정될 수 있다. For example, as shown in FIG. 8A, a first three-dimensional space 812 is set for the first passenger 820, and as shown in FIG. 8B, a second for the second passenger 830 The 3D space 814 can be set.
한편, 3차원 공간은 눈에 보이지 않는 가상의 영역이기 때문에, 탑승자는 자신에게 맞춤형으로 설정된 3차원 공간이 어디인지 확인할 수 없는 문제가 있다. On the other hand, since the 3D space is a virtual area that is invisible, the occupant has a problem that it is impossible to determine where the 3D space customized for himself is.
상기 프로세서(830)는 상기 3차원 공간의 가장자리를 가이드 하는 비접촉식 촉각 효과를 상기 햅틱 모듈(150)을 이용하여 탑승객에게 제공할 수 있다. 예를 들어, 상기 3차원 공간의 가장자리에 가상의 벽이 있는 것과 같은 촉각 효과가 상기 햅틱 모듈(150)에 의하여 발생할 수 있다. The processor 830 may provide a passenger with a non-contact tactile effect guiding the edge of the 3D space using the haptic module 150. For example, a tactile effect such as a virtual wall at the edge of the 3D space may be generated by the haptic module 150.
나아가, 상기 프로세서는 상기 3차원 공간을 안내하는 시각정보를 디스플레이(10)로 출력할 수 있다(S730). 상기 디스플레이(10)는 상기 차량(1) 내부에 배치된 것으로, 상기 프로세서(190)는 상기 시각정보가 상기 디스플레이(10)에서 출력되도록 제어하는 제어명령을 상기 통신부(110)를 통해 상기 디스플레이(10)로 출력할 수 있다. Furthermore, the processor may output visual information guiding the 3D space to the display 10 (S730). The display 10 is disposed inside the vehicle 1, and the processor 190 displays a control command to control the visual information to be output from the display 10 through the communication unit 110. 10).
상기 시각정보에는 상기 차량(1)의 내부 인테리어에 대응하는 이미지가 포함되고, 상기 3차원 공간에 대응하는 그래픽 객체가 상기 이미지 상에 표시될 수 있다. 나아가, 상기 3차원 공간을 기준으로 손의 위치를 가이드 하는 그래픽 객체가 상기 이미지 상에 표시될 수 있다. The visual information includes an image corresponding to the interior interior of the vehicle 1, and a graphic object corresponding to the 3D space may be displayed on the image. Furthermore, a graphic object that guides the position of the hand based on the 3D space may be displayed on the image.
상기 프로세서(190)는 상기 3차원 공간에 근거하여 상기 이미지 센서(130)의 광 출력 세기를 조절할 수 있다(S750) .The processor 190 may adjust the light output intensity of the image sensor 130 based on the 3D space (S750).
상기 프로세서(190)는 상기 이미지 센서(130)를 이용하여 정맥 인증을 수행할 수 있다. 상기 3차원 공간의 위치, 크기 및 형태 중 적어도 하나는 상기 탑승객에 따라 달라지기 때문에, 상기 프로세서(180)는 상기 정맥 인증 가능 영역의 위치, 크기 및 형태 중 적어도 하나도 상기 탑승객에 따라 다르게 설정할 수 있다. 이는, 탑승객에게 최적의 인터페이스 공간을 제공하기 위함이다. 상기 프로세서(190)는 상기 정맥 인증 가능 영역에서 정맥 인증이 가능하도록 상기 이미지 센서(130)의 광 출력 세기를 조절한다. The processor 190 may perform vein authentication using the image sensor 130. Since at least one of the location, size, and shape of the 3D space varies depending on the passenger, the processor 180 may also set at least one of the location, size, and shape of the vein-authenticable area according to the passenger. . This is to provide an optimal interface space for passengers. The processor 190 adjusts the light output intensity of the image sensor 130 to enable vein authentication in the vein authentication possible area.
도 9는 3차원 공간에 진입한 물체가 손인지 여부에 따라 다양한 제어를 수행하는 입출력 장치의 제어방법을 설명하기 위한 흐름도이다.9 is a flowchart illustrating a control method of an input / output device that performs various controls depending on whether an object entering a 3D space is a hand.
상기 프로세서(190)는 3차원 공간에 진입한 물체가 손인지 여부를 결정할 수 있다(S910). The processor 190 may determine whether an object entering the 3D space is a hand (S910).
상기 프로세서(190)는 상기 입출력 장치(100)의 내부에 구비된 각종 센서가 생성하는 내부 정보 및 상기 입출력 장치(100)의 외부에 구비된 각종 센서가 생성하는 내부 정보 중 적어도 하나에 근거하여 상기 3차원 공간에 진입한 물체가 손인지 여부를 결정할 수 있다. The processor 190 is based on at least one of internal information generated by various sensors provided inside the input / output device 100 and internal information generated by various sensors provided outside the input / output device 100. It is possible to determine whether the object entering the 3D space is a hand.
상기 물체가 손이 아닌 경우, 촉각 효과가 발생하지 않도록 햅틱 모듈(150)을 제어한다(S930). 이와 달리, 상기 물체가 손인 경우, 손 위치에 따라 서로 다른 촉각 효과가 발생하도록 햅틱 모듈(150)을 제어한다. 다시 말해, 상기 프로세서(190)는 상기 3차원 공간에 대한 상기 손의 위치에 근거하여 촉각 효과의 생성 여부를 결정할 수 있다 . If the object is not a hand, the haptic module 150 is controlled so that a tactile effect does not occur (S930). Alternatively, when the object is a hand, the haptic module 150 is controlled to generate different tactile effects according to the hand position. In other words, the processor 190 may determine whether to generate a tactile effect based on the position of the hand in the 3D space.
상기 프로세서(190) 또는 상기 이미지 센서(130)는, 상기 3차원 공간에 진입한 물체가 상기 손인지 여부를 결정하고, 상기 프로세서(190)는, 상기 물체가 상기 손이 아닌 경우, 상기 촉각 효과가 발생하지 않도록 상기 햅틱 모듈(150)을 제어한다 . The processor 190 or the image sensor 130 determines whether an object entering the 3D space is the hand, and the processor 190, if the object is not the hand, the tactile effect The haptic module 150 is controlled so that it does not occur.
상기 프로세서(190)는 상기 3차원 공간에 상기 손이 위치하는지 여부에 따라 상기 이미지 센서(130)를 선택적으로 활성화 할 수 있다(S950). 상기 이미지 센서(130)는 상기 3차원 공간에 탑승객의 손이 위치하는지 여부에 따라 선택적으로 활성화될 수 있다 . The processor 190 may selectively activate the image sensor 130 according to whether the hand is located in the 3D space (S950). The image sensor 130 may be selectively activated according to whether a passenger's hand is located in the 3D space.
상기 프로세서(190)는, 탑승객의 손이 정맥 인증 가능 영역(410)에 위치하거나 정맥 인증 가능 영역(410)에 진입할 것으로 예상되는 경우, 정맥 인증을 위하여 상기 이미지 센서(130)를 활성화할 수 있다. 상기 프로세서(190)는 정맥 인증을 수행할 수 없는 것으로 판단되는 경우에는 상기 이미지 센서(130)를 비활성화 시킬 수 있다. The processor 190 may activate the image sensor 130 for vein authentication when the passenger's hand is located in the vein authentication capable area 410 or is expected to enter the vein authentication capable area 410. have. When it is determined that the vein authentication cannot be performed, the processor 190 may deactivate the image sensor 130.
한편, 본 발명에 따른 입출력 장치(100)는 이미지 센서(130)를 이용하여 정맥 인증을 수행하고, 동시에 제스처 센서(160)를 이용하여 제스처 입력을 수신할 수 있다. Meanwhile, the input / output device 100 according to the present invention may perform vein authentication using the image sensor 130 and receive gesture input using the gesture sensor 160 at the same time.
상기 제스처 센서(160)가 상기 입출력 장치(100)의 일 구성 요소인 것을 예로 들어 설명하나, 상기 제스처 센서(160)는 상기 차량(1)에 구비되는 독립된 장치일 수 있다. 이경우, 상기 입출력 장치(100)는 상기 제스처 센서(160)와 협업하여 상기 차량(1)에 대한 입력과 상기 차량(1)에 의한 출력을 제어할 수 있다. Although the gesture sensor 160 is described as an example of a component of the input / output device 100, the gesture sensor 160 may be an independent device provided in the vehicle 1. In this case, the input / output device 100 may control the input to the vehicle 1 and the output by the vehicle 1 in cooperation with the gesture sensor 160.
도 10은 제스처 입력에 근거하여 다양한 제어를 수행하는 입출력 장치의 제어방법을 설명하기 위한 흐름도이고, 도 11a 및 도 11b는 도 10의 실시 예들을 설명하기 위한 예시도들이다.10 is a flowchart illustrating a control method of an input / output device that performs various controls based on gesture input, and FIGS. 11A and 11B are exemplary views for describing the embodiments of FIG. 10.
상기 프로세서(190)는 탑승객의 손 및 손가락 중 적어도 하나의 움직임에 의하여 정의되는 제스처가 기준 조건에 만족하는 것에 응답하여 상기 제스처에 대응하는 어느 기능을 선택할 수 있다(S1010). The processor 190 may select a function corresponding to the gesture in response to a gesture defined by at least one movement of a passenger's hand and finger satisfying a reference condition (S1010).
예를 들어, 도 11a에 도시된 바와 같이, 손가락을 모두 편 상태로 손바닥을 상기 입출력 장치(100)를 향하도록 하는 제1 제스처가 감지되는 경우, 제1 기능을 선택할 수 있다. For example, as illustrated in FIG. 11A, when the first gesture for pointing the palm toward the input / output device 100 with all fingers open is detected, the first function may be selected.
다음으로, 상기 프로세서(190)는 상기 선택된 기능의 실행 여부를 이미지 센서에 의해 감지된 정맥 정보에 근거하여 결정할 수 있다 (S1030).Next, the processor 190 may determine whether to execute the selected function based on vein information detected by the image sensor (S1030).
상기 프로세서(190)는 제스처 입력을 감지하는 것과 동시에 상기 제스처 입력을 입력한 손의 정맥에 대한 정맥 정보를 확보하고, 상기 정맥 정보를 이용하여 정맥 인증을 수행할 수 있다. The processor 190 senses a gesture input, and at the same time, acquires vein information on a vein of the hand inputting the gesture input, and may perform vein authentication using the vein information.
정맥 인증 결과, 탑승객이 상기 제1 기능을 실행시킬 수 있는 권한을 가진 경우, 상기 프로세서(190)는 상기 제1 기능을 실행시킬 수 있다. 이와 달리, 탑승객이 탑승객이 상기 제1 기능을 실행시킬 수 있는 권한을 가지지 못한 경우, 상기 프로세서(190)는 상기 제1 기능의 실행을 제한/차단시킬 수 있다.As a result of vein authentication, when the passenger has the authority to execute the first function, the processor 190 may execute the first function. Alternatively, if the passenger does not have the authority to execute the first function, the processor 190 may limit / block the execution of the first function.
한편, 상기 프로세서(190)는 동일한 제스처 입력이라도, 정맥 정보에 따라 서로 다른 기능을 실행시킬 수 있다. 제스처가 기준 조건을 만족하는 경우, 상기 프로세서(190)는 상기 이미지 센서(130)에 의해 감지된 정맥 정보에 따라 서로 다른 기능을 실행할 수 있다 . Meanwhile, the processor 190 may execute different functions according to vein information even when the same gesture is input. When the gesture satisfies the reference condition, the processor 190 may execute different functions according to the vein information detected by the image sensor 130.
예를 들어, 도 11b에 도시된 바와 같이, ok를 나타내는 제2 제스처가 감지되는 경우, 정맥 인증이 이루어졌는지에 따라, 서로 다른 기능을 선택해 실행시킬 수 있다. 구체적으로, 상기 프로세서(190)는 정맥 인증이 성공한 경우 상기 제2 제스처에 응답하여 제2 기능을 실행하고, 정맥 인증이 실패한 경우 상기 제2 제스처에 응답하여 제3 기능을 실행할 수 있다. For example, as illustrated in FIG. 11B, when a second gesture indicating ok is detected, different functions may be selected and executed according to whether vein authentication has been performed. Specifically, the processor 190 may execute a second function in response to the second gesture when vein authentication is successful, and execute a third function in response to the second gesture when vein authentication fails.
정맥 정보에 대한 인증이 실패하는 경우, 프로세서(190)는 정맥 정보를 등록하도록 이루어지도록 사용자 등록 화면을 차량(1)에 구비된 디스플레이(100)로 출력할 수 있다 (S1050). If authentication of the vein information fails, the processor 190 may output a user registration screen to the display 100 provided in the vehicle 1 so that the vein information is registered (S1050).
정맥 인증에 실패한 탑승객은 상기 사용자 등록 화면을 통해 자신을 차량(1) 및/또는 입출력 장치(100)에 등록하고, 등록된 사용자로서의 각종 기능을 이용할 수 있게 된다.Passengers who fail vein authentication can register themselves to the vehicle 1 and / or the input / output device 100 through the user registration screen, and can use various functions as registered users.
도 12는 정맥 인증과 관련된 입출력 장치의 제어방법을 설명하기 위한 흐름도이다. 12 is a flowchart illustrating a control method of an input / output device related to vein authentication.
상기 프로세서(180)는 탑승객의 정맥 인증이 일 회 이루어지는 경우, 상기 탑승객이 상기 차량(1)으로부터 하차할 때까지 상기 이미지 센서(110)를 비활성화할 수 있다 (S1210). When the vein authentication of the passenger is performed once, the processor 180 may deactivate the image sensor 110 until the passenger gets off from the vehicle 1 (S1210).
탑승객이 차량(1)에 탑승하고 나면 하차할 때까지 동일한 좌석에 탑승하게 되는 특수성을 고려하여, 정맥 인증이 불필요하게 여러 번 반복되는 것을 방지하기 위함이다. This is to prevent the vein authentication from being repeated multiple times unnecessarily, taking into account the peculiarity of boarding the same seat until the passengers get off after boarding the vehicle 1.
상기 프로세서(180)는 상기 탑승객에 대응하는 사용자 모드가 실행되도록 통신부(110)를 제어할 수 있다(S1230). 정맥 인증에 의하여 로그인이 이루어지며, 도 13에서 후술하는 방법에 따라 정맥 인증에 대응하는 사용자 인터페이스가 제공될 수 있다. The processor 180 may control the communication unit 110 to execute a user mode corresponding to the passenger (S1230). Login is made by vein authentication, and a user interface corresponding to vein authentication may be provided according to a method described later in FIG. 13.
상기 프로세서(180)는 새로운 탑승객의 손이 3차원 공간에 진입하는 경우, 비활성화되어 있는 이미지 센서를 활성화하고(S1250), 상기 새로운 탑승객의 손에 대한 정맥 인증을 수행할 수 있다(S1270).When the new passenger's hand enters the 3D space, the processor 180 activates the deactivated image sensor (S1250), and may perform vein authentication for the new passenger's hand (S1270).
예를 들어, 상기 프로세서(180)는 상기 통신부(110)를 통해 수신되는 차량 주행 정보에 근거하여 새로운 탑승객의 손이 3차원 공간에 진입하는지 여부를 판단할 수 있다. 예를 들어, 상기 프로세서(180)는 상기 차량(1)의 내부를 촬영한 내부 영상에 근거하여 새로운 탑승객의 손이 3차원 공간에 진입하는 것을 실시간으로 판단할 수 있다. For example, the processor 180 may determine whether a new passenger's hand enters a 3D space based on vehicle driving information received through the communication unit 110. For example, the processor 180 may determine in real time that a new passenger's hand enters a three-dimensional space based on an internal image photographing the interior of the vehicle 1.
다른 예를 들어, 상기 프로세서(180)는 상기 근접 센서를 이용하여 새로운 탑승객의 손이 3차원 공간에 진입하는지 여부를 판단할 수도 있다. 입출력 장치(100)는 운전석과 조수석 사이에 배치될 수 있기 때문에, 상기 프로세서(190)는 손이 진입하는 방향에 근거하여 어떤 좌석에 탑승한 탑승객의 손인지를 결정할 수 있다. 차량(1)의 전방을 기준으로 3차원 공간의 우측 가장자리에서 좌측으로 진입하는 손은 상기 조수석에 탑승한 탑승객의 손에 해당하고, 3차원 공간의 좌측 가장자리에서 우측으로 진입하는 손은 상기 운전석에 탑승한 운전자의 손에 해당할 수 있다. For another example, the processor 180 may use the proximity sensor to determine whether a new passenger's hand enters a three-dimensional space. Since the input / output device 100 may be disposed between the driver's seat and the front passenger's seat, the processor 190 may determine which seat the hand of a passenger is on board based on the direction in which the hand enters. The hand entering from the right edge of the 3D space to the left with respect to the front of the vehicle 1 corresponds to the hand of the passenger in the passenger seat, and the hand entering from the left edge of the 3D space to the right is in the driver's seat. It may correspond to the hand of the driver on board.
여기서, 새로운 탑승객은 정맥 인증이 이루어지지 않은 사람을 의미한다. 예를 들어, 운전자에 대한 정맥 인증만 이루어졌으면, 조수석에 탑승한 탑승객이 새로운 탑승객에 해당할 수 잇다. 이와 달리, 조수석에 탑승한 탑승객에 대한 정맥 인증만 이루어졌으면, 운전자는 새로운 탑승객에 해당할 수 있다. Here, the new passenger means a person who has not been authenticated with vein. For example, if only the vein authentication for the driver has been made, the passenger in the passenger seat may be a new passenger. Alternatively, if only vein authentication is performed for the passenger in the passenger seat, the driver may be a new passenger.
상기 프로세서(190)는 3차원 공간에 진입한 손의 탑승객에 따라 서로 다른 사용자 인터페이스를 제공할 수 있다. The processor 190 may provide different user interfaces according to the occupants of the hand entering the 3D space.
상기 프로세서(190)는 운전자의 손이 3차원 공간에 진입하면, 운전자용 사용자 인터페이스를 제공할 수 있다. 일 예로, 운전자용 사용자 인터페이스라는 것은, 운전자를 위한 기능의 아이콘이 포함된 운전자용 홈스크린이 상기 차량(1)의 디스플레이(10)에 표시되는 것일 수 있다. When the driver's hand enters the 3D space, the processor 190 may provide a user interface for the driver. For example, the user interface for a driver may be that a driver's home screen including an icon for a function for the driver is displayed on the display 10 of the vehicle 1.
이와 달리, 상기 프로세서(190)는 조수석에 탑승한 탑승객의 손이 3차원 공간에 진입하면 탑승객용 사용자 인터페이스를 제공한다. 상기 운전자용 사용자 인터페이스와 상기 탑승객용 사용자 인터페이스에는 서로 다른 아이콘이 포함될 수 있다. Alternatively, the processor 190 provides a user interface for the passenger when the hand of the passenger in the passenger seat enters the three-dimensional space. Different icons may be included in the user interface for the driver and the user interface for the passenger.
예를 들어, 상기 운전자용 사용자 인터페이스에는 상기 차량(1)의 시동을 끄거나 켤 수 있는 시동 아이콘이 포함되고, 상기 차량(1)의 운전 모드를 변경할 수 있는 운전 모드 아이콘이 포함될 수 있다. 이와 달리, 상기 탑승객용 사용자 인터페이스에는 상기 시동 아이콘과 상기 운전 모드 아이콘이 포함되지 않지만, 상기 차량(1)의 조수석에 대응하는 공조 시스템을 제어할 수 있는 조수석 공조 제어 아이콘이 포함될 수 있다. For example, the user interface for the driver may include a start icon for turning off or turning on the ignition of the vehicle 1, and a driving mode icon for changing the driving mode of the vehicle 1. Alternatively, the user interface for the passenger does not include the start icon and the driving mode icon, but may include a passenger seat air conditioning control icon capable of controlling the air conditioning system corresponding to the passenger seat of the vehicle 1.
도 13은 정맥 인증을 이용한 사용자 인터페이스를 제공하는 입출력 장치의 제어방법을 설명하기 위한 흐름도이다 . 13 is a flowchart for explaining a control method of an input / output device that provides a user interface using vein authentication.
상기 프로세서(190)는 적어도 하나의 개인 프로파일을 외부 장치로부터 수신할 수 있다(S1310).The processor 190 may receive at least one personal profile from an external device (S1310).
상기 개인 프로파일은, 상기 차량(1) 및/또는 상기 입출력 장치(100)에 의하여 제공되는 사용자 인터페이스를 설정하기 위한 것으로, 탑승객에 특성화된 기능들과 상기 기능들 중 적어도 하나를 실행하기 위한 메뉴를 포함할 수 있다. The personal profile is for setting a user interface provided by the vehicle 1 and / or the input / output device 100, and a menu for executing at least one of the functions and functions specialized for the passenger. It can contain.
상기 개인 프로파일을 제공하는 상기 외부 장치는 서버이거나 탑승객이 소지하고 있는 단말기일 수 있다. The external device providing the personal profile may be a server or a terminal carried by a passenger.
상기 프로세서(190)는 정맥 인증이 이루어지는 경우, 정맥 인증에 대응하는 사용자의 개인 프로파일에 근거하여 상기 사용자가 선택할 수 있는 메뉴를 선택할 수 있다(S1330). 나아가, 상기 프로세서(190)는 선택된 메뉴가 차량(1)에 구비된 디스플레이(10)에서 출력되도록 통신부(110)를 제어할 수 있다(S1350).When the vein authentication is performed, the processor 190 may select a menu selectable by the user based on the user's personal profile corresponding to vein authentication (S1330). Furthermore, the processor 190 may control the communication unit 110 so that the selected menu is output from the display 10 provided in the vehicle 1 (S1350).
상기 프로세서(190)는 상기 개인 프로파일에 근거하여 상기 탑승객이 선택할 수 있는 메뉴가 출력되도록 상기 디스플레이(10)를 제어 하고, 상기 메뉴에 포함된 기능들은 상기 탑승객에 따라 가변된다. The processor 190 controls the display 10 to output a menu selectable by the passenger based on the personal profile, and functions included in the menu are varied according to the passenger.
본 발명에 따르면, 탑승객은 자신의 손을 입출력 장치(100)에 의하여 설정되는 정맥 인증 가능 영역(410)에 갖다 놓는 단순한 행위만으로 맞춤형 사용자 인터페이스를 제공받기 때문에, 탑승객의 편의가 증대되는 효과가 있다. According to the present invention, since the passenger is provided with a customized user interface by simply acting to place his or her hand in the vein authentication capable area 410 set by the input / output device 100, the convenience of the passenger increases. .
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드(또는, 애플리케이션이나 소프트웨어)로서 구현하는 것이 가능하다. 상술한 자율 주행 차량의 제어 방법은 메모리 등에 저장된 코드에 의하여 실현될 수 있다. The above-described present invention can be embodied as computer readable codes (or applications or software) on a medium on which a program is recorded. The above-described control method of the autonomous vehicle can be realized by codes stored in a memory or the like.
컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The computer-readable medium includes any kind of recording device in which data readable by a computer system is stored. Examples of computer-readable media include a hard disk drive (HDD), solid state disk (SSD), silicon disk drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage device. This includes, and is also implemented in the form of a carrier wave (eg, transmission over the Internet). Also, the computer may include a processor or a control unit. Accordingly, the above detailed description should not be construed as limiting in all respects, but should be considered illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (20)

  1. 차량에 장착되는 입출력 장치로서,An input / output device mounted on a vehicle,
    상기 차량에 탑승한 탑승객의 손을 감지하도록 이루어지는 이미지 센서;An image sensor configured to sense a hand of a passenger on the vehicle;
    공기의 진동을 이용하여 상기 손에 촉각 효과를 발생시키도록 이루어지는 햅틱 모듈; 및A haptic module configured to generate a tactile effect on the hand using vibration of air; And
    상기 손의 위치에 근거하여 서로 다른 방식의 촉각 효과가 발생하도록 상기 햅틱 모듈을 제어하는 프로세서를 포함하는 입출력 장치.An input / output device including a processor that controls the haptic module such that different tactile effects are generated based on the position of the hand.
  2. 제1항에 있어서,According to claim 1,
    상기 입출력 장치와 이격된 3차원 공간이 정의되며, A three-dimensional space separated from the input / output device is defined,
    상기 프로세서는,The processor,
    상기 3차원 공간에 대한 상기 손의 위치에 근거하여 상기 촉각 효과의 생성 여부를 결정하는 것을 특징으로 하는 입출력 장치.And determining whether to generate the tactile effect based on the position of the hand in the 3D space.
  3. 제2항에 있어서,According to claim 2,
    상기 탑승객에 따라 상기 3차원 공간의 크기 및 위치 중 적어도 하나가 다르게 정의되는 것을 특징으로 하는 입출력 장치.The input / output device, characterized in that at least one of the size and position of the three-dimensional space is differently defined according to the passenger.
  4. 제3항에 있어서,According to claim 3,
    상기 프로세서는,The processor,
    상기 3차원 공간에 근거하여 상기 이미지 센서의 광 출력 세기를 조절하는 것을 특징으로 하는 입출력 장치.An input / output device characterized by adjusting the light output intensity of the image sensor based on the three-dimensional space.
  5. 제2항에 있어서,According to claim 2,
    상기 프로세서는,The processor,
    상기 손이 상기 3차원 공간의 제1영역에 위치하면 제1방식의 촉각 효과가 발생하고, 상기 3차원 공간의 제2영역에 위치하면 상기 제1방식과 다른 제2방식의 촉각 효과가 발생하도록 상기 햅틱 모듈을 제어하는 것을 특징으로 하는 입출력 장치.When the hand is located in the first area of the 3D space, a tactile effect of the first method occurs, and when located in the second area of the 3D space, a tactile effect of the second method different from the first method occurs. An input / output device characterized by controlling the haptic module.
  6. 제2항에 있어서,According to claim 2,
    상기 프로세서는,The processor,
    상기 손의 위치에 근거하여 상기 손에 제1부분과 제2부분을 설정하고, 상기 제1부분에는 제1크기의 진동이 발생하고, 상기 제2부분에는 상기 제1크기와 다른 제2크기의 진동이 발생하도록 상기 햅틱 모듈을 제어하는 것을 특징으로 하는 입출력 장치.The first part and the second part are set in the hand based on the position of the hand, and a vibration of a first size occurs in the first part, and a second size different from the first size is generated in the second part. Input and output device, characterized in that to control the haptic module to generate vibration.
  7. 제2항에 있어서,According to claim 2,
    통신부를 더 포함하며,Further comprising a communication unit,
    상기 프로세서는,The processor,
    상기 차량에 구비된 디스플레이에 상기 3차원 공간 및 상기 손의 위치 중 적어도 하나를 가이드 하는 시각 정보가 상기 디스플레이에서 출력되도록 상기 디스플레이 제어하는 것을 특징으로 하는 입출력 장치.An input / output device characterized in that the display is controlled such that visual information guiding at least one of the three-dimensional space and the position of the hand is displayed on the display provided on the vehicle.
  8. 제2항에 있어서,According to claim 2,
    상기 프로세서 또는 상기 이미지 센서는, 상기 3차원 공간에 진입한 물체가 상기 손인지 여부를 결정하고, The processor or the image sensor determines whether an object entering the 3D space is the hand,
    상기 프로세서는, 상기 물체가 상기 손이 아닌 경우, 상기 촉각 효과가 발생하지 않도록 상기 햅틱 모듈을 제어하는 것을 특징으로 하는 입출력 장치. The processor is configured to control the haptic module so that the tactile effect does not occur when the object is not the hand.
  9. 제1항에 있어서,According to claim 1,
    상기 프로세서는,The processor,
    상기 손과 상기 이미지 센서 사이의 거리에 따라 서로 다른 크기의 진동이 발생하도록 상기 햅틱 모듈을 제어하는 것을 특징으로 하는 입출력 장치.An input / output device, characterized in that the haptic module is controlled to generate vibrations of different sizes according to the distance between the hand and the image sensor.
  10. 제1항에 있어서,According to claim 1,
    상기 탑승객의 손 및 손가락 중 적어도 하나의 움직임에 의하여 정의되는 제스처를 추적하는 제스처 센서를 더 포함하고,Further comprising a gesture sensor for tracking the gesture defined by the movement of at least one of the hand and fingers of the passenger,
    상기 프로세서는,The processor,
    상기 제스처 센서를 이용하여 상기 손의 위치를 감지하는 것을 특징으로 하는 입출력 장치.An input / output device characterized by sensing the position of the hand using the gesture sensor.
  11. 제10항에 있어서,The method of claim 10,
    상기 입출력 장치와 이격된 3차원 공간이 정의되며, A three-dimensional space separated from the input / output device is defined,
    상기 이미지 센서는 상기 3차원 공간에 상기 손이 위치하는지 여부에 따라 선택적으로 활성화 되는 것을 특징으로 하는 입출력 장치. The image sensor is an input / output device characterized in that it is selectively activated according to whether the hand is located in the 3D space.
  12. 제10항에 있어서,The method of claim 10,
    상기 이미지 센서는 상기 손에 위치한 정맥 정보를 감지하며,The image sensor detects the vein information located in the hand,
    상기 프로세서는The processor
    상기 제스처가 기준 조건을 만족하는 것에 응답하여 상기 제스처에 대응하는 어느 기능을 선택하고, 상기 선택된 기능의 실행 여부를 상기 이미지 센서에 의해 감지된 상기 정맥 정보에 근거하여 결정하는 것을 특징으로 하는 입출력 장치.An input / output device characterized in that in response to the gesture satisfying a reference condition, a function corresponding to the gesture is selected, and whether or not the selected function is executed is determined based on the vein information detected by the image sensor. .
  13. 제12항에 있어서,The method of claim 12,
    통신부를 더 포함하고, Further comprising a communication unit,
    상기 프로세서는,The processor,
    상기 정맥 정보에 대한 인증이 실패하는 경우, 상기 정맥 정보를 등록하도록 이루어지는 사용자 등록 화면이 상기 차량에 구비된 디스플레이에서 출력되도록 상기 통신부를 제어하는 것을 특징으로 하는 입출력 장치.If the authentication for the vein information fails, the input / output device characterized in that the communication unit is controlled such that a user registration screen configured to register the vein information is output on a display provided in the vehicle.
  14. 제10항에 있어서,The method of claim 10,
    상기 프로세서는,The processor,
    상기 제스처가 기준 조건을 만족하는 경우, 상기 이미지 센서에 의해 감지된 정맥 정보에 따라 서로 다른 기능을 실행하는 것을 특징으로 하는 입출력 장치.When the gesture satisfies a reference condition, an input / output device characterized by executing different functions according to vein information detected by the image sensor.
  15. 제1항에 있어서,According to claim 1,
    상기 프로세서는,The processor,
    상기 이미지 센서를 이용한 상기 탑승객의 정맥 인증이 일 회 이루어지는 경우, 상기 탑승객이 상기 차량으로부터 하차할 때까지 상기 이미지 센서를 비활성화하는 것을 특징으로 하는 입출력 장치.When the vein authentication of the passenger using the image sensor is performed once, the input / output device deactivating the image sensor until the passenger leaves the vehicle.
  16. 제15항에 있어서,The method of claim 15,
    상기 입출력 장치와 이격된 3차원 공간이 정의되며, A three-dimensional space separated from the input / output device is defined,
    상기 프로세서는,The processor,
    정맥 인증이 이루어지지 않은 새로운 탑승객의 손이 상기 3차원 공간에 진입하는 경우, 비활성화되어 있는 상기 이미지 센서를 활성화 하고, 상기 새로운 탑승객의 손에 대한 정맥 인증을 수행하는 것을 특징으로 하는 입출력 장치. An input / output device characterized in that when the hand of a new passenger who has not been vein authenticated enters the 3D space, activates the deactivated image sensor and performs vein authentication on the hand of the new passenger.
  17. 제15항에 있어서,The method of claim 15,
    통신부를 더 포함하고,Further comprising a communication unit,
    상기 프로세서는,The processor,
    상기 정맥 인증이 이루어지는 경우, 상기 탑승객에 대응하는 사용자 모드가 상기 차량 내 구비된 하나 또는 그 이상의 전장품들에서 실행되도록, 상기 통신부를 제어하는 것을 특징으로 하는 입출력 장치.When the vein authentication is performed, an input / output device characterized in that the communication unit is controlled such that a user mode corresponding to the passenger is executed in one or more electronic devices provided in the vehicle.
  18. 제1항에 있어서,According to claim 1,
    통신부를 더 포함하고,Further comprising a communication unit,
    상기 프로세서는,The processor,
    상기 탑승객에 대응하는 개인 프로파일을 외부 장치로부터 수신하며,The personal profile corresponding to the passenger is received from an external device,
    상기 이미지 센서를 이용한 정맥 인증이 이루어지는 경우, 상기 개인 프로파일에 근거하여 상기 탑승객이 선택할 수 있는 메뉴가 상기 차량에 구비된 디스플레이에서 출력되도록 상기 통신부를 제어 하고,When vein authentication using the image sensor is performed, the communication unit is controlled so that a menu selectable by the passenger is output from a display provided in the vehicle based on the personal profile,
    상기 메뉴에 포함된 기능들은 상기 탑승객에 따라 가변되는 것을 특징으로 하는 입출력 장치.The functions included in the menu are input / output devices characterized in that they vary according to the passenger.
  19. 제1항에 있어서,According to claim 1,
    상기 탑승객의 터치를 감지하도록 이루어지는 터치 패널을 더 포함하고,Further comprising a touch panel configured to sense the touch of the passenger,
    상기 햅틱 모듈은 상기 터치 패널의 가장자리에 이격 배치되고,The haptic module is spaced apart from the edge of the touch panel,
    상기 이미지 센서는 상기 터치 패널의 하부에 중첩 배치되며, The image sensor is disposed overlapping the lower portion of the touch panel,
    상기 프로세서는 상기 터치 패널을 통해 상기 탑승객의 터치 입력 및 상기 이미지 센서를 통해 상기 탑승객의 정맥 정보를 동시에 수신하는 것을 특징으로 하는 입출력 장치.The processor is an input / output device characterized in that it simultaneously receives a touch input of the passenger through the touch panel and vein information of the passenger through the image sensor.
  20. 차량에 장착되는 입출력 장치로서,An input / output device mounted on a vehicle,
    상기 차량에 탑승한 탑승객의 손에 위치한 정맥을 감지하도록 이루어지는 이미지 센서;An image sensor configured to detect a vein located in the hand of a passenger in the vehicle;
    공기의 진동을 이용하여 상기 손에 촉각 효과를 발생시키도록 이루어지는 햅틱 모듈; 및A haptic module configured to generate a tactile effect on the hand using vibration of air; And
    상기 이미지 센서를 이용하여 상기 탑승객에 대한 정맥 인증을 수행하고, 상기 정맥 인증에 따라 서로 다른 권한을 상기 탑승객에게 부여하는 프로세서를 포함하며,And a processor for performing vein authentication for the passenger using the image sensor and granting different privileges to the passenger according to the vein authentication,
    상기 이미지 센서를 기준으로 3차원 공간이 정의되며, A 3D space is defined based on the image sensor,
    상기 프로세서는,The processor,
    상기 손이 상기 3차원 공간의 제1영역에 위치하면 제1 방식의 촉각 효과가 발생하고 상기 손이 상기 3차원 공간의 제2영역에 위치하면 제2 방식의 촉각 효과가 발생하도록 상기 햅틱 모듈을 제어하며, If the hand is located in the first area of the 3D space, a haptic module of the first method occurs, and when the hand is located in the second area of the 3D space, the haptic module of the second method is generated. Control,
    상기 정맥 인증이 완료되면 발생 중이던 촉각 효과의 발생이 종료하도록 상기 햅틱 모듈을 제어하는 것을 특징으로 하는 입출력 장치.When the vein authentication is completed, an input / output device characterized in that the haptic module is controlled to end the generation of the tactile effect that was occurring.
PCT/KR2018/012526 2018-10-23 2018-10-23 Input/output device and vehicle comprising same WO2020085521A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/012526 WO2020085521A1 (en) 2018-10-23 2018-10-23 Input/output device and vehicle comprising same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2018/012526 WO2020085521A1 (en) 2018-10-23 2018-10-23 Input/output device and vehicle comprising same

Publications (1)

Publication Number Publication Date
WO2020085521A1 true WO2020085521A1 (en) 2020-04-30

Family

ID=70331169

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/012526 WO2020085521A1 (en) 2018-10-23 2018-10-23 Input/output device and vehicle comprising same

Country Status (1)

Country Link
WO (1) WO2020085521A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101437424B1 (en) * 2012-04-09 2014-09-05 전자부품연구원 System and method for user interaction
JP2015125780A (en) * 2013-12-26 2015-07-06 ビステオン グローバル テクノロジーズ インコーポレイテッド System and method for providing tactile feedback for gesture based inputs
KR101534745B1 (en) * 2013-12-31 2015-07-07 현대자동차 주식회사 Gesture recognize apparatus
KR20160015842A (en) * 2014-07-31 2016-02-15 삼성전자주식회사 Wearable device for operating using vein authentication and operation method of the same
US20160144868A1 (en) * 2013-12-20 2016-05-26 Immersion Corporation Gesture based input system in a vehicle with haptic feedback

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101437424B1 (en) * 2012-04-09 2014-09-05 전자부품연구원 System and method for user interaction
US20160144868A1 (en) * 2013-12-20 2016-05-26 Immersion Corporation Gesture based input system in a vehicle with haptic feedback
JP2015125780A (en) * 2013-12-26 2015-07-06 ビステオン グローバル テクノロジーズ インコーポレイテッド System and method for providing tactile feedback for gesture based inputs
KR101534745B1 (en) * 2013-12-31 2015-07-07 현대자동차 주식회사 Gesture recognize apparatus
KR20160015842A (en) * 2014-07-31 2016-02-15 삼성전자주식회사 Wearable device for operating using vein authentication and operation method of the same

Similar Documents

Publication Publication Date Title
WO2016104909A1 (en) Controlling a vehicle
WO2017018583A1 (en) Mobile terminal and method for controlling same
US10149132B2 (en) Pedestrial crash prevention system and operation method thereof
WO2016028007A1 (en) Wearable device and method of controlling the same
WO2014010879A1 (en) Speech recognition apparatus and method
WO2017034282A1 (en) Driver assistance apparatus and method for controlling the same
WO2016175412A1 (en) Mobile terminal and controlling method thereof
WO2017061653A1 (en) Method for preventing drunk driving and vehicle auxiliary device for providing same
WO2018009029A1 (en) Electronic device and operating method thereof
WO2013133464A1 (en) Image display device and method thereof
WO2012036323A1 (en) Communication terminal and a control method therefor
WO2016186255A1 (en) Notification system and control method of vehicle
WO2016085198A1 (en) Electronic device and control method therefor
WO2020226210A1 (en) Method for controlling autonomous vehicle
WO2016204357A1 (en) Mobile terminal and control method therefor
WO2019151575A1 (en) Vehicle terminal and control method of transportation system including same
JP7049453B2 (en) Seamless driver authentication using in-vehicle cameras in relation to trusted mobile computing devices
WO2016175388A2 (en) Payment system for vehicle and operation method therefor
WO2018101508A1 (en) Mobile terminal
WO2021194254A1 (en) Electronic device for displaying image by using camera monitoring system (cms) side display mounted in vehicle, and operation method thereof
KR20180053290A (en) Control device for a vehhicle and control metohd thereof
WO2016035955A1 (en) Mobile terminal and control method therefor
WO2019151642A1 (en) Apparatus and method for displaying guide information for changing fingerprint state
WO2019142958A1 (en) Electronic device and control method therefor
WO2020085521A1 (en) Input/output device and vehicle comprising same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18938056

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18938056

Country of ref document: EP

Kind code of ref document: A1