KR20110109974A - 차량 전자 장치용 차량 유저 인터페이스 유닛 - Google Patents

차량 전자 장치용 차량 유저 인터페이스 유닛 Download PDF

Info

Publication number
KR20110109974A
KR20110109974A KR1020110028079A KR20110028079A KR20110109974A KR 20110109974 A KR20110109974 A KR 20110109974A KR 1020110028079 A KR1020110028079 A KR 1020110028079A KR 20110028079 A KR20110028079 A KR 20110028079A KR 20110109974 A KR20110109974 A KR 20110109974A
Authority
KR
South Korea
Prior art keywords
user
display
image
vehicle
unit
Prior art date
Application number
KR1020110028079A
Other languages
English (en)
Inventor
볼프강 헤스
Original Assignee
하만 베커 오토모티브 시스템즈 게엠베하
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 하만 베커 오토모티브 시스템즈 게엠베하 filed Critical 하만 베커 오토모티브 시스템즈 게엠베하
Publication of KR20110109974A publication Critical patent/KR20110109974A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/211Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays producing three-dimensional [3D] effects, e.g. stereoscopic images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • G01S5/163Determination of attitude
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/048023D-info-object: information is displayed on the internal or external surface of a three dimensional manipulable object, e.g. on the faces of a cube that can be rotated by the user
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/349Multi-view displays for displaying three or more geometrical viewpoints without viewer tracking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 차량 전자 장치용 차량 유저 인터페이스 유닛으로서, 차량 유저 인터페이스 유닛은,
-디스플레이(102)를 포함하는 3D 디스플레이 유닛(101)으로서, 3D 디스플레이 유닛은 유저(140)가 디스플레이(102)를 주시할 때에 영상이 디스플레이(102)의 전면에 적어도 부분적으로 배치되는 가상 3D 영상(110)으로서 유저에 의해 인지되도록 작동시 영상을 디스플레이하도록 된 것인 3D 디스플레이 유닛(101)과,
-상기 가상 3D 영상(110)이 상이한 공간 평면에 배치되는 적어도 2개의 구역(112, 113)을 갖는 3D 물체(111)를 포함하도록 3D 디스플레이 유닛(101)에 의해 영상의 발생을 제어하도록 된 디스플레이 제어 유닛(120)으로서, 각 구역은 복수의 상호 작용 요소(115)를 포함하는 것인 디스플레이 제어 유닛(120)과,
-유저 제어식 물체(150)의 위치를 검출하고 가상 3D 영상(110)에 포함되는 상기 상호 작용 요소(115) 중 하나의 선택으로서 유저 제어식 물체(150)의 예정된 변경의 검출을 해석하도록 된 입력 유닛(130)을 포함한다.

Description

차량 전자 장치용 차량 유저 인터페이스 유닛{VEHICLE USER INTERFACE UNIT FOR VEHICLE ELECTRONIC DEVICE}
본 발명은 디스플레이 유닛, 디스플레이 제어 유닛 및 입력 유닛을 포함하는 차량 전자 장치용 차량 유저 인터페이스 유닛과, 그러한 유저 인터페이스 유닛을 포함하는 차량 인포테인먼트(infotainment) 시스템과, 차량 전자 장치의 작동 방법에 관한 것이다.
현대의 차량에 있어서, 차량 자체 또는 인포테인먼트 시스템과 같이 차량에 제공된 전자 장치에 관한 복수 개의 기능은 제어되어야 하고, 이는 일반적으로 운전자 또는 승객에 의해 수행된다. 제어 또는 디스플레이될 필요가 있는 기능 및 정보는 운전자 보조 시스템과, 자동차 라디오 또는 예컨대 GSM 또는 UMTS를 통해 통신하는 모바일 통신 시스템 등의 멀티미디어 시스템에 관한 것일 수 있다. 또한, 차량 외측으로부터의 정보는, 예컨대 자동차간 통신 또는 자동차 대 기반 시설 통신과 같이 자동차에서 월드 통신으로 운전자 또는 승객에게 이용할 수 있게 될 필요가 있을 수 있다. 디스플레이 및 제어 요소가 있는 유저 인터페이스를 포함하는 헤드 유닛이 일반적으로 제공되고, 이 헤드 유닛에 의해 유저가 이들 기능을 제어할 수 있다. 그러한 헤드 유닛의 페이스 플레이트를 위해, 대시보드에서 오직 제한된 크기의 공간만이 이용될 수 있고, 이 공간은 기계적 제어 요소와 디스플레이에 의해 공유되어야 한다. 따라서, 비교적 적은 정보만이 유저에게 동시에 디스플레이될 수 있고, 적은 제어 요소가 작동하여 광범위한 기능을 제어해야 한다. 이는 일반적으로 메뉴 트리 구조에 메인 메뉴와 복수의 서브메뉴를 제공함으로써 달성되고, 이를 통해 유저는 특정한 기능에 도달하도록 열람해야 한다. 따라서, 유저는 특정한 메뉴 항목에 도달하기 전에 메뉴 구조를 통해 이동하는 데에 상당량의 시간을 소비해야 한다. 이 시간 동안, 운전자는 헤드 유닛의 유저 인터페이스를 사용할 때에 교통에 집중할 수 없어, 위험한 상황에 처할 수 있다.
음성 인식에 의해 그러한 시스템을 작동하는 것은 일반적으로 시스템에 의한 수많은 문의와 여전히 필요한 메뉴 구조를 통한 열람으로 인해 상당한 개선으로 귀결되지 않는다.
기계적 제어 요소 대신에 그래픽 제어 요소가 제공될 수 있고, 이에 따라 유사한 크기의 페이스 플레이트에 보다 큰 디스플레이 크기가 가능한 터치 스크린에 의해 특정한 개선이 달성될 수 있다. 그럼에도 불구하고, 이용할 수 있는 물리적 공간이 여전히 제한되어, 매우 제한된 개수의 정보 또는 메뉴 항목만이 디스플레이될 수 있고, 특히 복잡한 메뉴 구조의 경우에 일반적으로 표시가 혼동된다. 또한, 제어 요소는 일반적으로 그래픽이 비교적 작고 촉각 피드백을 제공하지 못하기 때문에, 터치스크린을 포함하는 유저 인터페이스는 차량 내에서 특히 운전자가 작동하기 어렵다. 더욱이, 터치스크린은, 예컨대 지문에 의해 더러워질 수 있고, 이는 디스플레이된 영상의 품질을 저하시킨다.
따라서, 그러한 메뉴 구조 및 기타 정보의 표시를 향상시키고, 차량 전자 장치 또는 차량 자체의 기능을 제어하거나 파라미터를 조절하는 메뉴 항목의 선택을 용이하게 하는 것이 바람직하다.
이에 따라, 전술한 단점들 중 적어도 일부를 경감시키고, 특히 보다 크고 보다 선명하게 배치되는 메뉴 항목 또는 정보의 디스플레이와 보다 직관적인 작동을 제공하는 것이 요구된다.
이 요구는 독립 청구항의 특징에 의해 충족된다. 종속 청구항에서는 본 발명의 바람직한 실시예가 설명된다.
본 발명의 양태에 따르면, 3차원(3D) 디스플레이 유닛, 디스플레이 제어 유닛 및 입력 유닛을 포함하는 차량 전자 장치용 차량 유저 인터페이스 유닛이 제공된다. 3D 디스플레이 유닛은 디스플레이를 포함하고, 유저가 디스플레이를 주시할 때에 영상이 디스플레이의 전면에 적어도 부분적으로 배치되는 가상 3D 영상으로서 유저에 의해 인지되도록 작동시 영상을 디스플레이하도록 되어 있다. 디스플레이 제어 유닛은 상기 가상 3D 영상이 상이한 공간 평면에 배치되는 적어도 2개의 구역을 갖는 3D 물체를 포함하도록 3D 디스플레이 유닛에 의해 영상의 발생을 제어하도록 되어 있고, 각 구역은 복수의 상호 작용 요소를 포함한다. 입력 유닛은 유저 제어식 물체의 위치를 검출하고 가상 3D 영상에 포함되는 상기 상호 작용 요소 중 하나의 선택으로서 유저 제어식 물체의 예정된 변경의 검출을 해석하도록 되어 있다.
(예컨대, 특정한 정보나 파라미터를 디스플레이하는) 메뉴 항목 또는 정보 요소일 수 있고 서로 링크될 수 있는 상호 작용 요소를 상이한 공간 평면 상의 상이한 구역에 디스플레이함으로써, 이용 가능한 정보의 보다 복잡한 묘사와 심지어는 큰 양의 정보의 선명한 배열이 달성될 수 있다. 상이한 가상 평면 상에 상호 작용 요소의 배열은 덜 혼동되어 특정한 정보 요소 또는 메뉴 항목에 대한 보다 신속한 액세스를 가능하게 할 수 있다. 유저 제어식 물체에 의해 가상 3D 영상에서 상호 작용 요소를 선택하는 가능성은 유저 인터페이스의 직관적인 작동 및 복수의 상호 작용 요소에 대한 신속한 액세스를 가능하게 한다.
본 발명의 실시예에 따르면, 입력 유닛은 유저 제어식 물체의 예정된 변경이 가상 3D 영상에서 상호 작용 요소의 예정된 거리 내까지 유저 제어식 물체의 이동을 포함하도록 구성되고, 그러한 이동의 검출은 대응하는 상호 작용 요소의 선택으로서 해석된다.
유저 제어식 물체는, 예컨대 유저 손의 일부, 또는 손에 의해 유지되거나 유저 손에 부착되는 물체일 수 있다. 따라서, 유저는 유저 제어식 물체에 의해 가상 3D 영상에서 상호 작용 요소를 간단히(가상적으로) 터치함으로써 상호 작용 요소를 작동시킬 수 있어, 신속하고 직관적인 작동이 가능하다.
유저 제어식 물체는, 예컨대 유저의 손가락일 수 있다. 이때에, 입력 유닛은 손가락에 의해 수행되는 손짓 또는 손가락의 이동을 상호 작용 요소들 중 하나의 선택으로서 검출하도록 될 수 있다. 예컨대, 손가락의 튕김이나 찍음 또는 가상 3D 영상에서 상호 작용 요소에 대한 접촉이 선택으로서 검출될 수 있다.
디스플레이 제어 유닛은 가상 3D 영상에서 주시하는 유저에 가깝게 배치되는 3D 물체의 구역이 상호 작용 요소가 선택될 수 있는 활성 구역이 되는 반면에 적어도 하나의 다른 구역의 정보 요소는 선택될 수 없는 방식으로 영상의 발생을 제어하도록 구성된다. 따라서, 유저 인터페이스의 확고한 작동이 보장될 수 있고 상호 작용 요소의 우발적인 선택이 방지될 수 있다.
디스플레이 제어 유닛은 3D 물체가 다각형, 바람직하게는 입방체 또는 입방형이고 상기 구역이 각각 다각형의 면에 대응하는 방식으로 영상의 발생을 제어하도록 구성된다. 다각형의 각 면이 다수의 상호 작용 요소를 포함할 수 있기 때문에, 상호 작용 요소, 예컨대 메뉴 항목 또는 정보 요소가 선명하게 배열될 수 있고 이용 가능한 정보의 포괄적인 묘사가 가능해진다.
디스플레이 제어 유닛이 상호 작용 요소를 포함하는 구역을 배열하기 위해 다각형 이외의 3D 물체를 발생시키도록 구성되는 다른 실시예를 특정하게 생각할 수 있고, 디스플레이 제어 유닛은 예컨대 각 구역이 구형 캡에 대응하는 구를 발생시킬 수 있다.
디스플레이 제어 유닛은 상기 면들 중 하나가 주시하는 유저를 향하도록 다각형이 배향되는 방식으로 영상의 발생을 제어하도록 구성될 수 있고, 상기 면에 대응하는 구역은 상호 작용 요소가 선택될 수 있는 활성 구역이다. 따라서, 다른 면들의 상호 작용 요소는 여전히 보일 수 있지만, 구성에 따라 선택되거나 선택되지 않을 수 있다.
입력 유닛은 유저 제어식 물체의 제2 예정된 변경을 검출하고 적어도 2개의 구역의 공간 배열을 변경시키는 명령으로서 해석하도록 될 수 있다.
3D 물체로서 다각형의 상기 예에서, 디스플레이 제어 유닛은 상이한 상호 작용 요소를 포함하는 다각형의 상이한 면이 주시하는 유저를 향하도록 다각형을 회전시킴으로써 적어도 2개의 구역의 공간 배열을 변경하도록 될 수 있다. 3D 물체의 간단한 회전에 의해, 상이한 메뉴 리스트 또는 정보 리스트가 유저에게 제공될 수 있어, 그러한 정보의 선명하고 간단한 묘사가 가능하다.
특정한 실시예에 있어서, 입력 유닛은 상기 구역들 중 하나의 경계 또는 코너에서 주시하는 유저의 손가락의 위치 결정 및 유저 제어식 물체의 제2 예정된 변경으로서 예정된 거리에 걸쳐 손가락의 이동을 검출하도록 되어 있다. 이 때에, 입방체는, 예컨대 손가락을 가상 영상에서 입방체의 코너에 위치하고 손가락을 원하는 방향으로 드래그함으로써 회전될 수 있다.
디스플레이 제어 유닛은 또한 상기 구역들 중 적어도 하나가 부분적으로 투명하여 상기 구역들 중 다른 하나의 주시를 가능하게 하는 방식으로 영상의 발생을 제어하도록 구성될 수 있다. 이에 따라, 다각형의 면은 부분적으로 투명하여, 다른 면 및 그 위에 배치된 상호 작용 요소의 주시를 가능하게 한다. 투명도는 0% 내지 약 50%, 바람직하게는 약 10% 내지 약 20%의 범위 내에 있을 수 있다. 0%의 값은 불투명한 구역에 대응한다. 이들 투명도 범위 내의 값을 이용할 때에, 주시하는 유저를 향하는 구역은 여전히 선명하게 보일 수 있지만, 상기 투명한 구역에 의해 커버되는 다른 구역의 상호 작용 위치는 미리 예상될 수 있다.
따라서, 유저 인터페이스는 유저 인터페이스의 디스플레이를 위해 제한된 물리적 공간만이 이용될 수 있더라도 심지어는 복잡한 메뉴 구조의 포괄적인 묘사와 메뉴 항목의 간단한 선택을 가능하게 할 수 있다. 이는 3차원에서 상호 작용 요소를 배열하기 위해 채용된 복수의 가상 평면의 결과이다.
유저 인터페이스의 작동을 용이하게 하기 위하여, 유저 인터페이스 유닛은 유저 제어식 물체가 가상 3D 영상에서 3D 물체의 요소의 예정된 거리 내까지 올 때에 및/또는 상호 작용 요소 중 하나의 선택이 검출될 때에 유저에게 음향 피드백을 제공하도록 될 수 있다. 음향 피드백은 상이한 경우에 대해 상이한 소리를 포함할 수 있다. 한가지 소리는, 예컨대 유저 제어식 물체가 3D 물체의 가상 평면에 접근할 때에 재생될 수 있고, 다른 소리는 유저 제어식 물체가 상호 작용 요소 근처로 이동될 때에 재생될 수 있다. 유저 제어식 물체, 예컨대 손가락은 상호 작용을 선택하도록 특정한 손짓을 수행할 수 있고, 이것이 다시 소리에 의해 확인될 수 있다. 따라서, 유저 제어식 물체에 의한 유저 인터페이스의 작동이 용이해지고, 촉각 피드백이 필요없게 된다.
입력 유닛은 유저 제어식 물체의 위치와 그 변경을 검출하도록 가상 3D 영상이 생성되는 위치에 인접한 영역을 모니터링하도록 된 입체 카메라를 더 포함할 수 있다. 입체 카메라에 의해, 3차원에서 유저 제어식 물체의 위치의 정확한 결정이 달성될 수 있고, 물체 위치 및 손짓의 신뢰성 있는 평가가 가능해진다. 입체 카메라는 단일의 입체 카메라로서 또는 2개 이상의 별개의 종래의 카메라로서 구현될 수 있다.
차량 유저 인터페이스 유닛은 유저가 디스플레이를 주시하는 시점을 모니터링하는 카메라를 더 포함할 수 있다. 유저 인터페이스 유닛은 검출된 유저의 시점을 기초로 하여 가상 3D 영상이 디스플레이를 주시하는 유저에 의해 보이는 위치를 결정하도록 될 수 있다. 카메라에 의해, 유저의 헤드, 페이스 또는 눈의 위치가, 예컨대 유저의 시점을 결정하도록 추적될 수 있다. 시점을 모니터링하는 데에 사용되는 카메라는 전술한 입체 카메라와 동일할 수 있다. 3D 디스플레이 유닛의 디스플레이가 상이한 방향으로부터 주시되면, 가상 3D 영상은 상이한 공간 위치에서 발생될 수 있고, 시점을 모니터링하는 카메라는 이들 공간 위치를 결정할 수 있다. 그러한 시점에 대한 보정을 수행함으로써, 유저 제어식 물체에 의한 가상 상호 작용 요소의 활성화의 정확도가 향상될 수 있다. 따라서, 유저 제어식 물체가 배치되는 위치에서 가상 3D 물체에 대한 위치를 정확하게 결정할 수 있게 된다.
본 발명의 실시예에서, 3D 디스플레이 유닛은 무안경 입체 방식 3D 디스플레이 유닛이다. 3D 디스플레이 유닛의 경우, 유저는 특정한 타입의 고글이나 셔터 글라스 등의 임의의 추가 장비를 필요로 하는 일 없이 스크린을 단순히 주시함으로써 가상 3D 영상을 인지할 수 있게 된다.
다른 실시예에서, 3D 디스플레이 유닛이 셔터 글라스를 포함하고 유저가 디스플레이를 주시할 때에 가상 3D 영상을 발생시키도록 교호적인 프레임 시퀀스 기법을 채용하는 것이 또한 가능하다.
3D 디스플레이 유닛은 차량 전자 장치의 페이스 플레이트 내에 수용될 수 있다. 또한, 3D 디스플레이 유닛을 다른 폐쇄구 내에 수용하는 것이 가능하고, 다른 폐쇄구는 예컨대 헤드레스트 또는 차량 내측의 다른 지점에 제공되는 스크린 내에 구현될 수 있다.
다른 실시예에서, 차량 유저 인터페이스 유닛은 차량 헤드 유닛의 일부이다. 따라서, 차량 내측에 제공되는 전자 장치 또는 차량 자체의 복수 개의 기능이 차량 유저 인터페이스 유닛에 의해 제어될 수 있다.
본 발명의 추가 양태에 따르면, 전술한 차량 유저 인터페이스 유닛을 포함하는 차량 인포테인먼트 시스템이 제공된다.
본 발명의 다른 양태는 전술한 실시예들 중 하나에 따른 차량 유저 인터페이스 유닛을 갖는 전자 장치를 포함하는 차량 객실에 관한 것이다. 차량 객실에, 유저의 시점을 모니터링하는 하나 이상의 카메라가 장착되어 운전자의 헤드 및/또는 승객의 헤드의 위치를 모니터링할 수 있다.
본 발명의 다른 양태에 따르면, 차량 전자 장치를 작동시키는 방법이 제공된다. 이 방법은 유저가 디스플레이를 주시할 때에 영상을 발생시키도록 사용되는 3D 디스플레이 유닛의 디스플레이의 전면에 적어도 부분적으로 배치되는 가상 3D 영상으로서 영상이 유저에 의해 인지되도록 영상을 발생시키는 단계를 포함한다. 상기 방법은, 가상 3D 영상이 상이한 공간 평면에 배치되는 적어도 2개의 구역을 갖는 3D 물체를 포함하도록 3D 디스플레이 유닛에 의해 영상의 발생을 제어하는 단계로서, 각 구역은 복수의 상호 작용 요소를 포함하는 것인 단계와, 유저 제어식 물체의 위치를 검출하고 유저 제어식 물체의 예정된 변경의 검출을 가상 3D 영상에 포함되는 상호 작용 요소 중 하나의 선택으로서 해석하는 단계를 더 포함한다.
본 발명의 방법에 의해, 전술한 것과 유사한 이점이 달성될 수 있다.
본 발명의 방법의 실시예에 따르면, 이 방법은 전술한 차량 유저 인터페이스 유닛의 실시예에 의해 수행될 수 있고, 방법은 대응하는 방법 단계를 포함할 수 있다.
구체적으로, 방법은 유저 제어식 물체의 예정된 변경으로서 가상 3D 영상에서 상호 작용 요소의 예정된 거리 내까지 유저 제어식 물체의 이동의 검출 및 대응하는 상호 작용 요소의 선택으로서 그러한 이동의 검출의 해석을 더 포함할 수 있다.
방법은 유저 손가락에 의해 수행되는 손짓의 검출 또는 유저 제어식 물체의 변경으로서 손가락의 이동을 포함할 수 있다.
방법에서, 영상의 발생은 가상 3D 영상의 3D 물체가 다각형이고 각각의 구역이 다각형의 면에 대응하는 방식으로 제어될 수 있다.
방법은 유저 제어식 물체의 제2 예정된 변경을 검출하고 적어도 2개의 구역의 공간 배열을 변경시키는 명령으로서 그러한 제2 예정된 변경을 해석하는 단계를 더 포함할 수 있다. 공간 배열은 다각형의 상이한 면이 주시하는 유저를 향하도록 다각형을 회전시킴으로써 변경될 수 있다.
방법은 유저 제어식 물체가 가상 3D 영상에서 3D 물체의 요소의 예정된 거리 내까지 올 때에 및/또는 상호 작용 요소 중 하나의 선택이 검출될 때에 유저에게 음향 피드백을 제공하는 단계를 더 포함할 수 있다.
방법은 유저가 디스플레이를 주시하는 시점을 모니터링하고, 유저의 검출된 시점을 기초로 하여 가상 3D 영상이 디스플레이를 주시하는 유저에 의해 보이는 위치를 결정하는 단계를 더 포함할 수 있다.
본 발명의 방법의 상기 실시예들은 본 발명의 차량 유저 인터페이스 유닛의 대응하는 실시예들에 관하여 전술한 것과 유사한 이점을 달성한다.
전술한 특징 및 아래에서 설명될 특징은 본 발명의 범위를 벗어나는 일 없이 지적된 개개의 조합으로 뿐만 아니라, 다른 조합으로 또는 단독으로 사용될 수 있다는 것을 알아야 한다.
본 발명에 따르면, 상호 작용 요소를 상이한 공간 평면 상의 상이한 구역에 디스플레이함으로써, 이용 가능한 정보의 보다 복잡한 묘사와 심지어는 큰 양의 정보의 선명한 배열이 달성될 수 있다. 또한, 상이한 가상 평면 상에 상호 작용 요소의 배열은 덜 혼동되어 특정한 정보 요소 또는 메뉴 항목에 대한 보다 신속한 액세스를 가능하게 할 수 있다. 더욱이, 유저 제어식 물체에 의해 가상 3D 영상에서 상호 작용 요소를 선택하는 가능성은 유저 인터페이스의 직관적인 작동 및 복수의 상호 작용 요소에 대한 신속한 액세스를 가능하게 한다.
본 발명의 전술한 특징 및 이점과 그 외의 특징 및 이점은 첨부 도면과 함께 읽으면 이하의 실시예의 상세한 설명으로부터 더욱 명백해질 것이다. 도면에서, 동일한 참조 번호는 동일한 요소를 가리킨다.
도 1은 본 발명의 실시예에 따른 차량 유저 인터페이스 유닛의 개략도이다.
도 2는 본 발명의 실시예에 따른 방법을 설명하는 흐름도이다.
도 3a 내지 도 3c는 본 발명의 실시예에 따른 3D 디스플레이 유닛에 의한 3D 물체를 포함하는 가상 3D 영상의 발생과, 3D 물체의 특성을 설명하는 개략도를 도시한다.
이하에서는, 첨부 도면을 참조하여 본 발명의 실시예를 상세히 설명한다. 도면은 단지 개략적인 묘사인 것으로 간주되고, 도면의 요소들은 반드시 서로 실척은 아니라는 점을 유념해야 한다. 오히려, 다양한 요소들의 묘사는 그 기능 및 일반적인 목적이 당업자에게 명백해지도록 선택된다.
또한, 이하의 실시예의 설명에 있어서, 도면에 도시된 기능적 블록들 또는 유닛들에서 실시예들의 분할은 이들 유닛이 반드시 물리적으로 별개의 유닛들로서 구현된다는 것을 나타내는 것으로 해석되지 않고, 도시 또는 설명된 기능적 블록들 또는 유닛들은 별개의 유닛들, 회로들, 칩들 또는 회로 요소들로서 구현될 수 있고, 더욱이 하나 이상의 기능적 블록들 또는 유닛들은 공통의 회로, 칩, 회로 요소 또는 유닛에 구현될 수 있다는 것을 알아야 한다.
도 1은 헤드 유닛, 차량 인포테인먼트 시스템 또는 임의의 다른 차량 전자 장치의 부품일 수 있는 차량 유저 인터페이스 유닛(100)의 개략도를 도시하고 있다. 차량 유저 인터페이스 유닛(100)의 작동을 제어하는 디스플레이 제어 유닛(120)이 제공된다. 차량 유저 인터페이스 유닛(100)은 디스플레이 제어 유닛(120)과 모두 통신하는 3D 디스플레이 유닛(101)과 입력 유닛(130)을 더 포함한다.
도 1의 실시예에서, 3D 디스플레이 유닛(101)은 그래픽 프로세서(103)와 통신하는 디스플레이(102)를 포함한다. 그래픽 프로세서(103)는 디스플레이 제어 유닛(120)으로부터 디스플레이될 3D 영상을 포함하는 이미지 데이터를 수신하고 디스플레이(102)를 위한 대응하는 출력 신호를 발생하도록 되어 있다. 3D 디스플레이 유닛(101)은 디스플레이(102)를 주시하는 유저(140)에 의해 가상 3D 영상(110)으로서 인지되는 영상을 디스플레이(102)에 의해 발생시킬 수 있다는 것을 의미하는 무안경 입체 방식(autostereoscopic) 디스플레이 유닛이다. 그러한 가상 3D 영상(110)은 주시하는 유저(140)의 한쪽 눈에 깊이 인지를 발생시키는 데에 필요한 각 시점(view)(점선으로 개략적으로 도시됨)을 투영함으로써 유저(140)가 안경을 착용할 필요성 없이 디스플레이(102)에 의해 발생될 수 있다.
무안경 입체 방식 디스플레이는 숙련자에게 공지된 다양한 여러 기법들로 실현될 수 있기 때문에, 여기서는 더 상세히 설명하지 않는다. 한가지 기법으로는, 예컨대 입체 카메라(131) 또는 카메라(132)에 의한 유저 헤드의 위치의 연속적인 모니터링과, 이에 따라 투영 광학과 시점 콘텐츠의 조절을 포함한다. 각 시점의 콘텐츠는 눈의 위치에 정합될 수 있고, 눈의 위치는 페이스 추적 기법을 이용하여 식별될 수 있다. 디스플레이(102)에 의해 방출된 광의 세기를 광선 방향의 함수로서 제어하기 위하여, 디스플레이(102)는 렌즈의 초점 평면에 연속적 스캐닝 점광원을 갖는 액정 디스플레이를 포함할 수 있다. 렌즈와 광원은 순간적으로 하나의 일반적인 방향으로 모두 나아가는 광선을 생성하고, 광선들의 방향은 액정 디스플레이 상의 3D 영상의 적절한 시점의 디스플레이와 동조될 수 있다. 그러한 기법에서, 디스플레이(102)의 프레임 레이트는 주시하는 유저(140)의 눈들이 시간 경과에 따라 3D 영상을 통합하도록 두 배로 될 수 있다. 다른 유저들, 예컨대 차량 내의 승객들의 페이스가 추적될 수 있고, 이에 따라 디스플레이(102)의 프레임 레이트가 증가될 수 있어, 또한 이들 유저에 의한 가상 3D 영상의 인지가 가능하게 된다.
3D 디스플레이 유닛(101)에 사용될 수 있는 다른 기법으로는 다시점 무안경 입체 방식을 포함하고, 이 방식에서 디스플레이(102)는 뷰어가 있을 수 있는 모든 지점에 시점을 투영한다. 가능한 구현은 각 시점을 위한 픽셀을 커버하는 렌즈렛 어레이를 포함하고, 렌즈렛은 독점 방향을 볼 수 있는 각 시점을 포함하는 픽셀들을 만들도록 결합된다. 렌즈렛 어레이 대신에, 회절 격자 또는 슬릿 어레이가 사용될 수 있다. 상이한 격자로 시계를 연장시키는 것이 가능하다. 렌즈렛 어레이와 회절 격자 기법은 시점 해상도의 생성과 시점들의 갯수인 해상도를 갖는 아래의 디스플레이를 이용함으로써 구현될 수 있다. 그러한 고해상도 디스플레이를 이용하는 대신에, 여러 개의 비디오 투영이 렌즈 후방에 라인업될 수 있다. 렌즈는 상이한 방향을 볼 수 있는 투영에 대응하는 각 시점을 만든다.
알 수 있는 바와 같이, 3D 디스플레이 유닛(101)은 유저(140)에 의해 인지되는 가상 3D 영상(110)을 발생시키는 다양한 기법을 구현할 수 있다. 3D 디스플레이 유닛(101)이 예컨대 유저(140)에 의해 착용되는 셔터 글라스를 더 포함하고 상이한 시점이 교대로 유저(140)의 눈들에 공급되는 다른 구현을 또한 생각할 수 있다는 것이 명백한데, 이는 프레임 레이트가 두 배로 된 종래의 디스플레이(102)의 사용을 가능하게 한다. 다른 기법에 있어서, 각 시점은 상이한 편광의 광에 의해 디스플레이되어, 대응하는 편광 안경을 착용함으로써 유저(140)의 각 눈은 소기의 시점을 수신한다.
디스플레이 제어 유닛(120)은 가상 3D 영상(110)에 포함될 3D 물체(111)에 관한 일반적인 정보를 그래픽 프로세서(130)에 공급할 수 있고, 그래픽 프로세서는 깊이의 쌍안 인지(입체 영상)를 발생시키도록 유저(140)에게 디스플레이되어야 하는 상이한 시점들을 계산할 수 있다. 이들 상이한 시점이 디스플레이(102)에 의해 유저(140)에게 제공되면, 유저(140)는 가상 3D 영상(110)을 인지한다. 본 실시예에서, 3D 디스플레이 유닛(101)은 가상 3D 영상(110)이 디스플레이(102)의 전면에, 즉 디스플레이(102)와 주시 유저(140) 사이에 형성하도록 구성되지만, 다른 실시예들에서는 디스플레이(102) 전면에 부분적으로만 배치될 수 있다.
디스플레이(102)는 또한 2차원(2D) 영상을 디스플레이하도록 사용될 수 있고, 3D 디스플레이 유닛(101)은 인포테인먼트 시스템 등의 차량 전자 장치의 디스플레이 유닛일 수 있다는 것은 명백하다. 따라서, 메뉴 구조, 네비게이션용 지도, 멀티미디어 정보 또는 미디어 스트림이 디스플레이(102) 상에 디스플레이될 수 있다.
디스플레이 제어 유닛(120)은 마이크로프로세서에 의해 구현될 수 있다. 마이크로프로세서는 차량 전자 장치의 마이크로프로세서일 수 있고, 따라서 그 이상의 기능을 수행할 수 있다. 예컨대, 다중 마이크로프로세서, 특정한 목적의 마이크로프로세서, 디지털 신호 프로세서(DSP), 특정 용도 집적 회로(ASIC; application-specific integrated circuit) 또는 현장 프로그래머블 게이트 어레이로서 디스플레이 제어 유닛의 다른 구현을 또한 생각할 수 있다. 마이크로프로세서는 마이크로프로세서와 인터페이스로 접속하는 메모리(도시 생략)에 저장된 프로그램에 따라 작동할 수 있다.
다른 구현에 있어서, 그래픽 프로세서(103)가 제공되지 않을 수 있고, 그 기능을 디스플레이 제어 유닛(120)이 수행할 수 있다. 따라서, 3D 디스플레이 유닛(101)은 디스플레이 제어 유닛(120)을 구현하는 마이크로프로세서에서 작동하는 소프트웨어 코드 부분을 포함할 수 있다. 또한, 그래픽 프로세서(103)와 상기 마이크로프로세서가 단일의 칩 내에 제공되는 것이 가능하다.
차량 유저 인터페이스 유닛(100)은 입력 유닛(130)을 더 포함한다. 입력 유닛(130)은 평가 유닛(135)과 인터페이스로 접속하는 입체 카메라(131)를 포함한다. 입체 카메라(131)는 가상 3D 영상(110)이 형성하는 영역을 모니터링한다. 일반적으로, 디스플레이(102)의 전면에 모니터링하도록 될 것이다. 입체 카메라(131)는 주시된 구역의 2개의 상이한 시점을 얻기 위한 2개의 광학 시스템을 포함한다. 도 1의 실시예에서는 2개의 광학 시스템이 서로 인접하게 도시되어 있지만, 다른 실시예에서는 2개의 광학 시스템이 따로따로 배치될 수 있다. 일례로서, 광학 시스템은 디스플레이(102)의 양면에 배치될 수 있다. 입체 카메라(131)의 각 광학 시스템은 모니터링될 구역의 시점을 보여주는 영상을 얻기 위한 CCD 어레이를 포함할 수 있다. 얻어진 영상 데이터는 평가 유닛(135)에 의해 수신되고, 이 평가 유닛은 입체 카메라(131)에 의해 제공된 2개의 상이한 시점으로부터 주시된 구역의 3D 묘사를 재구성하도록 되어 있다. 이에 따라, 유저(140)의 손(150)과 같은 유저 제어식 물체의 위치가 3차원으로 결정될 수 있다. 평가 유닛(135)에 의해 수행될 수 있는 추가의 작동은 모니터링된 구역 또는 영역 내에서 물체의 식별 및 검출된 물체의 추적을 포함한다. 평가 유닛(135)은 또한 입체 카메라(131)로부터 수신된 영상에서 유저 제어식 물체의 예정된 변경을 검출 및 해석하도록 되어 있다. 도 1의 실시예에서, 유저 제어식 물체는 검지 손가락과 같이 유저(140)의 손(150)의 검지 손가락이다. 그 위치, 그 위치 변동 및 검지 손가락의 형태의 변경은 평가 유닛(135)에 의해 공급된 영상으로부터 유도될 수 있다. 평가 유닛(135)이 예정된 변경을 검출하면, 평가 유닛은 명령으로서 그것을 해석한다. 그러한 유저 제어식 물체의 예정된 변경은, 예컨대 손(150)의 검지 손가락끝이 가상 3D 영상(110)의 요소에 근접하게 이동될 때에 또는 손(150)의 검지 손가락이 손짓을 행할 때처럼 유저 제어식 물체의 형태가 변할 때에, 특정한 지점으로 유저 제어식 물체의 이동을 포함할 수 있다.
물론, 이들은 단지 몇몇의 예이고, 유저 제어식 물체가 어떻게 구현될 수 있지와 그 변경이 어떻게 명령으로서 해석될 수 있는지에 관한 다양한 가능성이 존재한다. 그러한 예로는 펜, 링 또는 유저의 손에 배치되는 다른 마커의 사용, 그 위치의 변동 또는 명령으로서 검출될 수 있는 손짓의 수행을 포함한다. 유저 손가락의 검출은 유저가 추가의 물체를 유지 또는 착용할 필요가 없다는 이점을 갖는다.
차량 유저 인터페이스 유닛(100)에 의해 차량 전자 장치를 작동시키기 위하여, 3D 물체(111)를 포함하는 가상 영상(110)은 3D 물체(111)가 가상 3D 영상(111)의 2개의 상이한 공간 평면에 배치되는 복수의 상호 작용 요소(115)를 갖는 제1 구역(112)과 복수의 상호 작용 요소(115)를 갖는 제2 구역(113)을 포함하도록 디스플레이 제어 유닛(102)과 3D 디스플레이 유닛(101)에 의해 발생된다. 물론, 3D 물체의 구역이 배치되는 상이한 공간 평면의 위치는 디스플레이가 유저에 의해 주시되는 각도에 따라 변경되고, 이에 따라 공간 평면을 또한 가상 공간 평면이라 할 수 있다. 도 1의 예에서, 유저(140)에 의해 인지되는 3D 물체(111)는 입방체 또는 입방형이고, 구역(112, 113)은 입방체의 면에 각각 대응한다. 상호 작용 요소(115)는 메인 메뉴 또는 서브메뉴의 메뉴 항목일 수 있지만, 또한 유저(140)에게 디스플레이될 정보를 갖는 정보 요소를 포함할 수 있다. 3D 물체(111)의 위치와 형태 및 물체의 면에 디스플레이되는 상호 작용 요소(115)는 디스플레이 제어 유닛(120)에 의해 제어된다. 입방체 또는 입방형 외에, 디스플레이 제어 유닛(120)은 다른 타입의 다면체, 예컨대 8면체 프리즘 등과 같은 다른 타입의 3D 물체의 가상 영상을 발생시키도록 될 수 있다. 3D 물체(111)가 여러 개의 면을 포함하기 때문에, 각 면은 상이한 메뉴나 서브메뉴, 또는 특정한 종류의 정보 및 제어 요소를 디스플레이할 수 있다. 3차원 묘사를 사용함으로써, 이에 따라 동시에 디스플레이될 수 있는 정보의 양이 증가될 수 있다.
디스플레이 제어 유닛(120)은 또한 가상 3D 영상(110)의 발생을 제어하도록 되어 물체(111)의 면들이 부분적으로 투명함으로써, 유저(140)에게 보이는 물체(111)의 이면에 놓인 면들이 또한 보일 수 있다. 따라서, 특정한 정보 부분 또는 특정한 제어 요소, 예컨대 메뉴 항목을 유저(140)가 신속하게 찾아 액세스할 수 있다. 유저에게는 제어 요소, 예컨대 투명도를 활성화 또는 비활성화하거나, 투명도 값을 선택하는 물리적 버튼 또는 상호 작용 요소가 제공될 수 있다. 투명도 값은 0% 내지 약 50%, 바람직하게는 약 10% 내지 약 20% 내에 있을 수 있는데, 0%는 불투명한 구역 또는 면(불투명한 구역에 의해 커버된 구역은 볼 수 없음)에 대응하고 100%는 완전히 투명한(보이지 않는) 구역 또는 면에 대응한다. 특히, 10% 내지 20%의 투명도의 범위에서, 투명한 면 자체는 명백하게 보일 수 있지만, 커버된 면 상의 상호 작용 요소는 들여다 보이기 때문에 이미 인지될 수 있다.
이 상황은 도 3a 내지 도 3c에 개략적으로 도시되어 있다. 도 3a에서, 구역(112)은 유저가 주시하는 디스플레이(102)를 향하고, 제2 구역(113)은 면(112)의 부분적 투명도로 인해 입방체(111)의 측면으로서 보일 수 있다. 이에 따라, 면(113) 상에 배치된 상호 작용 요소는 입방체(111)의 회전에 의해 쉽게 액세스될 수 있고, 그 후에 면(113)은 도 3c에 도시된 바와 같이 유저를 향한다.
디스플레이 제어 유닛(120)이 3D 디스플레이 유닛(101)에 의해 가상 3D 영상(110)의 발생을 제어하기 때문에, 가상 영상(110)이 생성되고 이에 따라 공간에서 3D 물체(111)가 배치되는 위치에서 이용할 수 있는 정보를 갖는다. 이 정보는 유저 입력의 검출을 위해 평가 유닛(135)에게 제공된다. 평가 유닛(135)은 이제 유저(140)에 의해 주시되는 3D 물체(111)의 위치 및 유저의 손(150)의 위치를 이용할 수 있기 때문에, 유저 제어식 물체가 접근하거나 가상 영상(110)의 요소를 가상적으로 접촉하는 시기를 결정할 수 있다. 입력 유닛(130)은 이제 3D 물체(111)의 특정한 요소에 대한 가상 접촉 및 유저가 명령하는 특정한 손짓을 인지하도록 된다. 한가지 가능한 구현에 있어서, 3D 물체(111)의 면(112)의 상호 작용 요소(115) 중 하나에 대한 가상 접촉은, 예컨대 상호 작용 요소와 관련된 기능을 수행함으로써 대응하는 상호 작용 요소를 선택 및 수행하는 명령으로서 인지된다. 가상 접촉은 유저의 손(150)의 검지 손가락끝이 가상 영상(110)의 각각의 상호 작용 요소로부터 예정된 거리 내에 올 때에 검출된다. 다른 구현은 제1 가상 접촉에 의한 상호 작용 요소의 미리 선택 및 제2 가상 접촉에 의한 관련 기능의 수행, 또는 예정된 최소 기간을 갖는 가상 접촉 후에 기능의 수행 등을 행하는 것과 같이 유사하게 생각될 수 있다. 미리 선택의 경우에, 대응하는 상호 작용 요소는 유저에게 광학적 피드백을 제공하도록 가상 영상(110)에서 특히 밝게 될 수 있다.
상호 작용 요소의 선택 및 활성화 또는 수행은 별문제로 하고, 유저는 3D 물체(111)를 회전시키도록 명령을 내려 물체의 상이한 면 상의 상호 작용 요소에 액세스할 수 있다. 이는 도 3a 내지 도 3c에 도시되어 있다. 도 3a에서, 3D 물체(111)의 면(112)은 유저를 향한다. 입방체(111)의 회전을 수행하기 위해, 유저는 손(150)의 검지 손가락을 가상 3D 영상에서 입방체의 코너에 위치시킨다. 이 지점에서 검지 손가락끝의 이 위치 결정은 입력 유닛(130)의 입체 카메라(131) 및 평가 유닛(135)에 의해 인지된다. 유저는 이제 도 3b의 화살표에 의해 지시되는 바와 같이 3D 물체(111)가 회전되는 방향으로 검지 손가락을 이동시킴으로써 손짓을 수행한다. 다시, 이 손짓은 손(150)의 위치 및/또는 형태를 추적함으로써 입력 유닛(130)에 의해 인지되고, 3D 물체를 대응하는 방향으로 회전시키는 명령으로서 해석된다. 이어서, 이 명령은 디스플레이 제어 유닛(120)으로 공급되고, 디스플레이 제어 유닛은 원하는 3D 물체의 회전을 수행하고 대응하는 명령을 3D 디스플레이 유닛에게 내리고, 3D 디스플레이 유닛은 물체가 회전되는 대응하는 가상 영상을 발생시킨다. 가상 영상의 발생은 3D 디스플레이 유닛이 가상 영상(110)으로서 유저(140)에 의해 인지되는 2개의 시점을 디스플레이(102)에 의해 발생 및 디스플레이한다는 것을 의미한다. 도 3c는 그 작동 결과를 보여주는데, 3D 물체(111)는 이제 제2 면(113)이 유저를 향하는 방식으로 배향된다.
몇몇 실시예에서는 유저(140)를 향하는 구역에 배치된 상호 작용 요소만이 선택될 수 있고 다른 구역의 상호 작용 요소는 우발적인 활성화를 방지하도록 사용 불가능하게 되지만, 다른 실시예에서 모든 구역의 상호 작용 요소들이 활성화될 수 있다.
차량 유저 인터페이스 유닛(100)은 일반적으로 차량의 운전자 또는 승객에 의해 작동되고, 그 위치는 보통 알려져 있다. 디스플레이(102)가 여러 차량 승객들 또는 운전자에 의해 주시되는 여러 각도로 인해, 가상 영상(110)은 각 유저를 위해 여러 공간 지점에서 발생되게 된다. 따라서, 차량 유저 인터페이스 유닛(100)에는 각각의 유저에 의해 보이는 가상 영상(110)의 위치를 정확하게 결정하기 위하여, 어느 유저가 현재 명령을 입력하려고 하는지를 결정하는 수단이 제공된다. 현재의 차량에서는, 차량 수용 인원을 결정하는 센서들이 제공되고, 이들 센서들로부터의 정보가 사용될 수 있다. 차량에서 운전자 또는 다른 승객들의 위치는 일반적으로 대응하는 시트 위치에 의해 미리 정해지고, 가상 영상(110)의 위치의 양호한 추산은 추가 소스로부터의 정보없이 이루어질 수 있다.
가상 영상(110)의 위치 결정은 유저(140)의 헤드 위치를 결정함으로써 더욱 향상될 수 있다. 이는 예컨대 입체 카메라(131)에 의해 얻어진 영상을 이용함으로써 또는 하나 이상의 추가 카메라(132)를 제공함으로써 달성될 수 있다. 카메라(132)는 승객들의 헤드 위치가 모니터링될 수 있는 지점에서 차량 객실 내에 배치될 수 있다. 승객의 헤드 위치를 모니터링하는 카메라가, 예컨대 안전 시스템의 일부로서 이미 차량 내에 제공되었다면, 그러한 카메라에 의해 제공되는 정보가 물론 사용될 수 있고, 다시 말해서 카메라(132)가 그러한 시스템의 카메라일 수 있다. 평가 유닛(135)은 헤드 추적 또는 유저 헤드의 페이스 추적을 수행하여 그 위치 및 이에 따라 유저가 디스플레이(102)를 주시하는 각도를 결정할 수 있다. 이 정보와 디스플레이 제어 유닛(120)에 의해 발생되는 3D 영상에 관한 정보를 이용함으로써, 평가 유닛(135)은 유저(140)가 가상 3D 영상(110)을 주시하는 공간 위치를 정확하게 결정할 수 있다. 이에 따라, 3D 물체(111)에 제공되는 상호 작용 요소의 공간 위치가 정확하게 결정될 수 있어 유저 제어식 물체, 예컨대 손가락을 이용하여 유저(140)에 의한 상호 작용 요소의 강하고 정확한 활성화를 가능하게 한다.
작동을 용이하게 하기 위하여, 차량 유저 인터페이스 유닛(100)은 유저 제어식 물체가 가상 3D 영상(110)에서 3D 물체의 요소의 예정된 거리 내에 올 때에 유저(140)에 대한 음향 피드백을 제공하도록 되어 있다. 이는 유저(140)가 유저 인터페이스를 작동하기 위하여 디스플레이(102)에 집중해야 하는 시간의 크기를 감소시킨다. 유저 피드백을 제공하기 위하여 다양한 구현을 생각할 수 있다는 것은 명백한데, 상이한 경우에 대해 상이한 소리가 재생된다. 예를 들어, 유저 손가락이 3D 물체(111)에 접근할 때에 거리에 따라 주파수가 변하는 제1 오디오 신호가 제공될 수 있고, 유저 손가락이 상호 작용 요소에 가상 접촉할 때에 제2 소리가 제공될 수 있으며, 유저 손가락이 3D 물체(111)의 면의 에지 또는 코너에 배치될 때에 제3 소리가 제공될 수 있다. 상호 작용 요소의 예선택, 활성화 또는 수행을 위해 또는 3D 물체(111)의 회전이 수행될 때에 추가의 음향 신호가 제공될 수 있다. 그 결과, 차량 유저 인터페이스 유닛(100)을 잠깐 보아서 작동시킬 수 있게 된다. 음향 피드백 신호는 평가 유닛(135)에 의해 발생될 수 있고 증폭기 및 라우드스피커(도시 생략)에 의해 방출될 수 있다.
따라서, 차량 유저 인터페이스 유닛(100)은 메뉴 항목 또는 정보 요소와 같은 복수 개의 상호 작용 요소가 선명하게 배치되고 쉽게 액세스될 수 있는 가상의 3차원 그래픽 유저 인터페이스를 제공한다. 3D 물체의 각 면이 메뉴 구조의 일부, 예컨대 메뉴 또는 서브메뉴를 디스플레이할 수 있기 때문에, 서브메뉴의 메뉴 항목은 계층적으로 상위 메뉴들을 모두 열람할 필요없이 액세스될 수 있다.
차량 유저 인터페이스 유닛(100)은 추가의 구성요소들, 예컨대 유저 상호 작용을 위한 기계적 제어 요소, 추가의 디스플레이 구성요소들 등을 포함할 수 있다는 것이 명백하다. 도 1에 도시된 기능 유닛들은 다양한 방식으로 구현될 수 있다. 평가 유닛(135)은 마이크로프로세서, 예컨대 전술한 디스플레이 제어 유닛(120)을 구현하는 동일한 마이크로프로세서 또는 별개의 마이크로프로세서에 의해 구현될 수 있다. 디스플레이 제어 유닛(120)과 평가 유닛(135)은, 예컨대 그러한 마이크로프로세서에서 작동하는 소프트웨어 코드 부분으로서 구현될 수 있다. 따라서, 이들 유닛은 물리적으로 별개의 유닛들이 될 필요가 없다. 그러한 마이크로프로세서는 유저 상호 작용을 위해 유저 인터페이스 유닛(100)을 사용하는 차량 전자 장치의 마이크로프로세서일 수 있다. 차량 전자 장치는 차량 기능 및 다른 전자 장치, 예컨대 멀티미디어 또는 네비게이션 시스템을 제어하는 헤드 유닛일 수 있거나, 카 스테레오 등의 덜 복잡한 시스템일 수 있다. 차량 유저 인터페이스 유닛(100)은 또한 차량 전자 장치와 별개로 제공될 수 있고, 예컨대 헤드레스트 내측에 구현되어 유선 또는 무선 통신을 이용하여 차량 전자 장치와 통신할 수 있다. 따라서, 차량의 후방석의 승객이 차량 유저 인터페이스 유닛(100)을 이용하게 할 수 있다. 이에 따라, 차량 객실 내에 그러한 유저 인터페이스를 복수 개, 예컨대 적어도 2개 제공할 수도 있다.
도 2는 본 발명의 실시예에 따른 방법의 흐름도를 도시하고 있다. 도 1의 차량 유저 인터페이스 유닛(100)은 도 2에 관하여 이하에서 설명되는 방법을 수행하도록 될 수 있다. 제1 단계(201)에서, 예컨대 3D 디스플레이 유닛(101)에 의해 영상이 발생되어, 이 영상이 가상 3D 영상으로서 디스플레이를 주시하는 유저에 의해 인지된다. 단계(202)에서, 영상 발생은 복수의 상호 작용 요소를 각각 포함하는 적어도 2개의 구역[예컨대, 면(112, 113)]을 포함하는 가상 3D 영상을 발생시키도록 제어되고, 각 구역은 상이한 공간 평면에 배치된다. 이 단계는 디스플레이 제어 유닛(120)에 의해 수행될 수 있다. 상이한 공간 평면을 이용하게 함으로써, 유저에게 제공될 수 있는 정보의 양이 증가될 수 있다. 유저의 손과 검지 손가락의 위치가 단계(203)에서 예컨대 입력 유닛(130)에 의해 검출된다.
다음 단계(205)에서, 선택적으로 유저가 디스플레이를 주시하는 시야각을 결정하도록 유저 페이스를 추적하는 추가 카메라를 이용함으로써 유저가 가상 3D 영상을 주시하는 공간의 위치가 결정된다. 이에 따라, 유저 손의 검지 손가락끝과 가상 영상에 포함된 요소들의 상대 위치들이 정확하게 결정될 수 있다.
유저가 이제 검지 손가락을 3D 물체에 배치된 상호 작용 요소로부터 예정된 거리까지 이동시키면, 이 이동이, 예컨대 입력 유닛(130)에 의해 검출되어 대응하는 상호 작용 요소의 선택으로서 해석된다. 이 결과, 상호 작용 요소와 관련된 기능의 수행, 예컨대 볼륨 세팅 또는 온도 세팅과 같은 파라미터의 조절, 네비게이션 어플레이케이션에서 목적지의 선택, 미디어 파일의 선택 및 재생, 모바일 텔레폰 네트워크를 통한 통신 또는 차량간 통신 시스템의 시작 등을 행할 수 있다.
유저가 이제 3D 물체의 상이한 면에 배치된 상호 작용 요소를 더 가깝게 살피거나 액세스하기를 원한다면, 유저는 손가락에 의해 상호 작용 요소를 포함하는 적어도 2개의 구역의 공간 배치를 변경시키도록 명령을 내릴 수 있다. 단계(207)에서, 구역들 중 하나의 코너 또는 에지(도 1 및 도 3의 실시예에서, 3D 물체의 면들)로부터 예정된 거리 내까지 유저 손의 검지 손가락의 이동, 및 예정된 방향으로 검지 손가락의 추가 이동은 그러한 명령으로서 해석된다. 도 3a 내지 도 3c에 관하여 전술한 바와 같이, 유저는, 예컨대 손가락끝을 입방체의 코너에 두고 한 방향으로 드래그할 수 있고, 그 결과 입방체는 원하는 상호 작용 요소를 포함하는 면이 유저를 향하도록 회전된다. 이에 따라, 서브메뉴가 메뉴 계층의 최하 레벨에 배열되고 달리 말하면 단지 계층에서 복수의 메뉴 레벨을 상위로 통과시킴으로써 액세스될 수 있다고 하더라도 특정한 서브메뉴의 상호 작용 요소가 간단한 손짓에 의해 액세스될 수 있다.
전술한 예시된 실시예는 본 발명의 범위에서 벗어남이 없이 다양한 방식으로 변경될 수 있다는 것은 명백하다. 예컨대, 디스플레이 제어 유닛(120)은 3D 물체로서 입방체 또는 입방형을 발생시키도록 될 수 있을 뿐만 아니라 다른 타입의 다각형 또는 구를 생각할 수 있는데, 구형 캡은 상호 작용 요소가 배치되는 구역을 형성한다. 몇몇의 구역은, 예컨대 차량 전자 시스템 또는 다른 차량 시스템, 네비게이션 정보 등의 현재 상태를 보여주는 정보 요소 형태의 상호 작용 요소만을 포함할 수 있지만, 다른 구역은 기능을 수행하고, 추가 서브메뉴를 기입하며, 파라미터를 조절하는 등을 위해 메뉴 항목의 형태의 상호 작용 요소를 포함할 수 있다. 양쪽 타입의 상호 작용의 조합이 또한 가능하다. 전술한 바와 같이, 본 발명에 따른 차량 유저 인터페이스 유닛의 기능 유닛은 또한, 예컨대 공통의 또는 별개의 집적 회로로서, 마이크로프로세서에서 작동하는 소프트웨어 코드 등으로서 다양한 방식으로 구현될 수 있다.
전술로부터 알 수 있는 바와 같이, 본 발명의 차량 유저 인터페이스 유닛은 운전자 보조 시스템, 차량간 통신 등으로부터의 다양한 정보 및 다른 요소들, 차량 엔터테인먼트 시스템 및 통신 시스템으로부터의 정보, 인터넷 접속 및 대응하는 가상 제어 요소를 통해 얻어진 정보의 시각적 묘사를 가능하게 할 수 있다. 상호 접속될 수 있는 복수의 가상 평면들에서 정보의 시각적 묘사는 이용 가능한 정보의 포괄적인 묘사 뿐만 아니라 신속한 액세스를 가능하게 한다. 손가락의 간단한 작동에 의해, 예컨대 부분적으로 투명한 입방체의 회전에 의해 그리고 가상 접촉(가상 터치스크린)에 의해 요소들의 활성화를 실행함으로써 원하는 평면에 대해 줌인하면, 디스플레이될 정보가 직관적인 방식으로 조작될 수 있다. 유사하게, 차량 전자 장치의 제어 요소들의 작동은 본 발명의 차량 유저 인터페이스 유닛에 의해 용이해지고 신속하게 된다. 조절될 파라미터가 신속하고 용이하게 액세스될 수 있다. 한정된 공간에서 복수 개의 정보의 묘사를 가능하게 함으로써, 예컨대 차량, 도로, 인포테인먼트 시스템 또는 환경에 관한 상이한 종류의 정보가 디스플레이되고 서로 링크될 수 있다. 헤드 유닛을 위해 차량 내측에서 이용 가능한 물리적 공간이 매우 제한되기 때문에, 정보를 배열하기 위해 보다 큰 공간을 제공하는 보다 큰 가상 묘사는 이점이 있다. 종래의 터치스크린에 비해, 가상 터치스크린을 사용하면 디스플레이에 지문의 형성과 디스플레이에 오염물의 침적을 방지하고, 위생적 표준을 향상시킨다.

Claims (16)

  1. 차량 전자 장치용 차량 유저 인터페이스 유닛으로서,
    -디스플레이(102)를 포함하는 3D 디스플레이 유닛(101)으로서, 3D 디스플레이 유닛은 유저(140)가 디스플레이(102)를 주시할 때에 영상이 디스플레이(102)의 전면에 적어도 부분적으로 배치되는 가상 3D 영상(110)으로서 유저에 의해 인지되도록 작동시 영상을 디스플레이하도록 된 것인 3D 디스플레이 유닛(101)과,
    -상기 가상 3D 영상(110)이 상이한 공간 평면에 배치되는 적어도 2개의 구역(112, 113)을 갖는 3D 물체(111)를 포함하도록 3D 디스플레이 유닛(101)에 의해 영상의 발생을 제어하도록 된 디스플레이 제어 유닛(120)으로서, 각 구역은 복수의 상호 작용 요소(115)를 포함하는 것인 디스플레이 제어 유닛(120)과,
    -유저 제어식 물체(150)의 위치를 검출하고 가상 3D 영상(110)에 포함되는 상기 상호 작용 요소(115) 중 하나의 선택으로서 유저 제어식 물체(150)의 예정된 변경의 검출을 해석하도록 된 입력 유닛(130)
    을 포함하는 차량 유저 인터페이스 유닛.
  2. 제1항에 있어서, 상기 입력 유닛(130)은 유저 제어식 물체의 예정된 변경이 가상 3D 영상(110)에서 상호 작용 요소(115)의 예정된 거리 내까지 유저 제어식 물체의 이동을 포함하도록 구성되고, 그러한 이동의 검출은 대응하는 상호 작용 요소(115)의 선택으로서 해석되는 것인 차량 유저 인터페이스 유닛.
  3. 제1항 또는 제2항에 있어서, 상기 디스플레이 제어 유닛(120)은 가상 3D 영상(110)에서 주시하는 유저에 가깝게 배치되는 3D 물체(111)의 구역이 상호 작용 요소(115)가 선택될 수 있는 활성 구역이 되는 반면에 적어도 하나의 다른 구역의 정보 요소는 선택될 수 없는 방식으로 영상의 발생을 제어하도록 구성되는 것인 차량 유저 인터페이스 유닛.
  4. 제1항 내지 제3항 중 어느 한 항에 있어서, 상기 디스플레이 제어 유닛(120)은 3D 물체(111)가 다각형, 바람직하게는 입방체 또는 입방형이고 상기 구역(112, 113)이 각각 다각형의 면에 대응하는 방식으로 영상의 발생을 제어하도록 구성되는 것인 차량 유저 인터페이스 유닛.
  5. 제4항에 있어서, 상기 디스플레이 제어 유닛(120)은 상기 면들 중 하나가 주시하는 유저(140)를 향하도록 다각형이 배향되는 방식으로 영상의 발생을 제어하도록 구성되고, 상기 면에 대응하는 구역은 상호 작용 요소가 선택될 수 있는 활성 구역인 것인 차량 유저 인터페이스 유닛.
  6. 제1항 내지 제5항 중 어느 한 항에 있어서, 상기 입력 유닛(130)은 유저 제어식 물체의 제2 예정된 변경을 검출하고 적어도 2개의 구역(112, 113)의 공간 배열을 변경시키는 명령으로서 해석하도록 된 것인 차량 유저 인터페이스 유닛.
  7. 제4항 또는 제6항에 있어서, 상기 디스플레이 제어 유닛(120)은 상이한 상호 작용 요소를 포함하는 다각형의 상이한 면이 주시하는 유저를 향하도록 다각형을 회전시킴으로써 적어도 2개의 구역(112, 113)의 공간 배열을 변경하도록 된 것인 차량 유저 인터페이스 유닛.
  8. 제6항 또는 제7항에 있어서, 상기 입력 유닛(130)은 상기 구역(112, 113) 중 하나의 경계 또는 코너에서 주시하는 유저(140)의 손가락의 위치 결정 및 유저 제어식 물체의 제2 예정된 변경으로서 예정된 거리에 걸쳐 손가락의 이동을 검출하도록 된 것인 차량 유저 인터페이스 유닛.
  9. 제1항 내지 제8항 중 어느 한 항에 있어서, 상기 차량 유저 인터페이스 유닛(100)은 유저 제어식 물체가 가상 3D 영상(110)에서 3D 물체(111)의 요소의 예정된 거리 내까지 올 때에 및/또는 상호 작용 요소(115) 중 하나의 선택이 검출될 때에 유저(140)에게 음향 피드백을 제공하도록 된 것인 차량 유저 인터페이스 유닛.
  10. 제1항 내지 제9항 중 어느 한 항에 있어서, 상기 입력 유닛(130)은 상기 유저 제어식 물체의 위치와 그 변경을 검출하도록 가상 3D 영상(110)이 생성되는 위치에 인접한 영역을 모니터링하도록 된 입체 카메라(131)를 포함하는 것인 차량 유저 인터페이스 유닛.
  11. 제1항 내지 제10항 중 어느 한 항에 있어서, 유저(140)가 디스플레이(102)를 주시하는 시점을 모니터링하는 카메라(132)를 더 포함하고, 상기 유저 인터페이스 유닛(100)은 검출된 유저의 시점을 기초로 하여 가상 3D 영상(110)이 디스플레이(102)를 주시하는 유저에 의해 보이는 위치를 결정하도록 된 것인 차량 유저 인터페이스 유닛.
  12. 제1항 내지 제11항 중 어느 한 항에 있어서, 상기 3D 디스플레이 유닛(101)은 무안경 입체 방식 3D 디스플레이 유닛인 것인 차량 유저 인터페이스 유닛.
  13. 제1항 내지 제12항 중 어느 한 항에 있어서, 상기 3D 디스플레이 유닛(101)은 차량 전자 장치의 페이스 플레이트 내에 수용되는 것인 차량 유저 인터페이스 유닛.
  14. 제1항 내지 제13항 중 어느 한 항에 따른 차량 유저 인터페이스 유닛(100)을 포함하는 차량 인포테인먼트 시스템.
  15. 제1항 내지 제13항 중 어느 한 항에 따른 차량 유저 인터페이스 유닛(100)을 갖는 전자 장치를 포함하는 차량 객실.
  16. 차량 전자 장치의 차량 유저 인터페이스 유닛(100)을 작동시키는 방법으로서,
    -3D 디스플레이 유닛(101)에 의해, 유저(140)가 디스플레이(102)를 주시할 때에 3D 디스플레이 유닛(101)의 디스플레이(102)의 전면에 적어도 부분적으로 배치되는 가상 3D 영상(110)으로서 영상이 유저(140)에 의해 인지되도록 영상을 발생시키는 단계와,
    -상기 가상 3D 영상(110)이 상이한 공간 평면에 배치되는 적어도 2개의 구역(112, 113)을 갖는 3D 물체(111)를 포함하도록 3D 디스플레이 유닛(101)에 의해 영상의 발생을 제어하는 단계로서, 각 구역은 복수의 상호 작용 요소(115)를 포함하는 것인 단계와,
    -유저 제어식 물체(150)의 위치를 검출하고 상기 유저 제어식 물체(150)의 예정된 변경의 검출을 가상 3D 영상(110)에 포함되는 상기 상호 작용 요소(115) 중 하나의 선택으로서 해석하는 단계
    를 포함하는 차량 유저 인터페이스 유닛의 작동 방법.
KR1020110028079A 2010-03-30 2011-03-29 차량 전자 장치용 차량 유저 인터페이스 유닛 KR20110109974A (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP10003477A EP2372512A1 (en) 2010-03-30 2010-03-30 Vehicle user interface unit for a vehicle electronic device
EP10003477.6 2010-03-30

Publications (1)

Publication Number Publication Date
KR20110109974A true KR20110109974A (ko) 2011-10-06

Family

ID=42320535

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110028079A KR20110109974A (ko) 2010-03-30 2011-03-29 차량 전자 장치용 차량 유저 인터페이스 유닛

Country Status (6)

Country Link
US (2) US9030465B2 (ko)
EP (1) EP2372512A1 (ko)
JP (1) JP2011210239A (ko)
KR (1) KR20110109974A (ko)
CN (1) CN102207770A (ko)
CA (1) CA2730379C (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140107229A (ko) * 2011-12-06 2014-09-04 톰슨 라이센싱 3차원으로 디스플레이된 오브젝트의 사용자 선택 제스쳐에 응답하기 위한 방법 및 시스템
WO2020032307A1 (ko) * 2018-08-10 2020-02-13 엘지전자 주식회사 차량용 디스플레이 시스템

Families Citing this family (78)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
WO2012144666A1 (en) * 2011-04-19 2012-10-26 Lg Electronics Inc. Display device and control method therof
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US9218063B2 (en) * 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9619926B2 (en) 2012-01-09 2017-04-11 Audi Ag Method and device for generating a 3D representation of a user interface in a vehicle
DE102012000201A1 (de) 2012-01-09 2013-07-11 Daimler Ag Verfahren und Vorrichtung zum Bedienen von auf einer Anzeigeeinheit eines Fahrzeugs angezeigten Funktionen unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt
DE102012000274A1 (de) * 2012-01-10 2013-07-11 Daimler Ag Verfahren und Vorrichtung zum Bedienen von Funktionen in einem Fahrzeug unter Verwendung von im dreidimensionalen Raum ausgeführten Gesten sowie betreffendes Computerprogrammprodukt
US11493998B2 (en) 2012-01-17 2022-11-08 Ultrahaptics IP Two Limited Systems and methods for machine control
US8638989B2 (en) 2012-01-17 2014-01-28 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US8693731B2 (en) 2012-01-17 2014-04-08 Leap Motion, Inc. Enhanced contrast for object detection and characterization by optical imaging
US9679215B2 (en) 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
US10691219B2 (en) 2012-01-17 2020-06-23 Ultrahaptics IP Two Limited Systems and methods for machine control
US9070019B2 (en) 2012-01-17 2015-06-30 Leap Motion, Inc. Systems and methods for capturing motion in three-dimensional space
US9501152B2 (en) 2013-01-15 2016-11-22 Leap Motion, Inc. Free-space user interface and control using virtual constructs
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
KR101318244B1 (ko) 2012-02-29 2013-10-15 한국과학기술연구원 3차원 사용자 인터페이스 구현 시스템 및 구현 방법
CN103365483B (zh) * 2012-04-09 2016-09-21 深圳泰山体育科技股份有限公司 实现虚拟屏的系统及方法
DE102012007761A1 (de) * 2012-04-20 2013-10-24 Marquardt Gmbh Bedienvorrichtung
US9069455B2 (en) 2012-06-22 2015-06-30 Microsoft Technology Licensing, Llc 3D user interface for application entities
DE102012216193B4 (de) * 2012-09-12 2020-07-30 Continental Automotive Gmbh Verfahren und Vorrichtung zur Bedienung einer Kraftfahrzeugkomponente mittels Gesten
US20140168415A1 (en) * 2012-12-07 2014-06-19 Magna Electronics Inc. Vehicle vision system with micro lens array
EP2752730B1 (en) * 2013-01-08 2019-04-03 Volvo Car Corporation Vehicle display arrangement and vehicle comprising a vehicle display arrangement
JP6621330B2 (ja) * 2013-01-10 2019-12-18 フォックス スポーツ プロダクションズ,エルエルシーFox Sports Productions, Llc 乗物の3d表示に関する視聴者相互作用のためのシステム、方法およびインターフェース
US9459697B2 (en) 2013-01-15 2016-10-04 Leap Motion, Inc. Dynamic, free-space user interactions for machine control
WO2014200589A2 (en) 2013-03-15 2014-12-18 Leap Motion, Inc. Determining positional information for an object in space
CN107264283B (zh) * 2013-03-29 2019-07-19 株式会社斯巴鲁 运输设备用显示装置
US9916009B2 (en) 2013-04-26 2018-03-13 Leap Motion, Inc. Non-tactile interface systems and methods
US20140368425A1 (en) * 2013-06-12 2014-12-18 Wes A. Nagara Adjusting a transparent display with an image capturing device
EP2821884B1 (en) * 2013-07-01 2018-09-05 Airbus Operations GmbH Cabin management system having a three-dimensional operating panel
US10281987B1 (en) 2013-08-09 2019-05-07 Leap Motion, Inc. Systems and methods of free-space gestural interaction
US9721383B1 (en) 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US9632572B2 (en) 2013-10-03 2017-04-25 Leap Motion, Inc. Enhanced field of view to augment three-dimensional (3D) sensory space for free-space gesture interpretation
CN103529947A (zh) * 2013-10-31 2014-01-22 京东方科技集团股份有限公司 显示装置及其控制方法、手势识别方法
US9996638B1 (en) 2013-10-31 2018-06-12 Leap Motion, Inc. Predictive information for free space gesture control and communication
JP2017521970A (ja) * 2014-04-30 2017-08-03 ビステオン グローバル テクノロジーズ インコーポレイテッド 車両内の立体ディスプレイの位置合わせを較正するシステム及び方法
CN105474638A (zh) * 2014-05-27 2016-04-06 联发科技股份有限公司 提供投射显示系统待显示的图像或视频的系统以及通过投射显示系统显示或投射图像或视频的系统
DE202014103729U1 (de) 2014-08-08 2014-09-09 Leap Motion, Inc. Augmented-Reality mit Bewegungserfassung
CN104199556B (zh) * 2014-09-22 2018-01-16 联想(北京)有限公司 一种信息处理方法及装置
EP3007050A1 (de) * 2014-10-08 2016-04-13 Volkswagen Aktiengesellschaft Anwenderschnittstelle und Verfahren zur Anpassung einer Menüleiste auf einer Anwenderschnittstelle
US9823764B2 (en) * 2014-12-03 2017-11-21 Microsoft Technology Licensing, Llc Pointer projection for natural user input
US10353532B1 (en) 2014-12-18 2019-07-16 Leap Motion, Inc. User interface for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
GB2533777A (en) * 2014-12-24 2016-07-06 Univ Of Hertfordshire Higher Education Corp Coherent touchless interaction with steroscopic 3D images
US10247941B2 (en) * 2015-01-19 2019-04-02 Magna Electronics Inc. Vehicle vision system with light field monitor
US10429923B1 (en) 2015-02-13 2019-10-01 Ultrahaptics IP Two Limited Interaction engine for creating a realistic experience in virtual reality/augmented reality environments
US9696795B2 (en) 2015-02-13 2017-07-04 Leap Motion, Inc. Systems and methods of creating a realistic grab experience in virtual reality/augmented reality environments
EP3088991B1 (en) * 2015-04-30 2019-12-25 TP Vision Holding B.V. Wearable device and method for enabling user interaction
WO2016195647A1 (en) * 2015-05-30 2016-12-08 Leia Inc. Vehicle monitoring system
KR101910383B1 (ko) * 2015-08-05 2018-10-22 엘지전자 주식회사 차량 운전 보조 장치 및 이를 구비한 차량
US20170161949A1 (en) * 2015-12-08 2017-06-08 GM Global Technology Operations LLC Holographic waveguide hud side view display
US20170161950A1 (en) * 2015-12-08 2017-06-08 GM Global Technology Operations LLC Augmented reality system and image processing of obscured objects
US10078884B2 (en) * 2015-12-21 2018-09-18 Siemens Aktiengesellschaft System and method for processing geographical information with a central window and frame
DE102016108885A1 (de) * 2016-05-13 2017-11-16 Visteon Global Technologies, Inc. Verfahren zum berührungslosen Verschieben von visuellen Informationen
EP3249497A1 (en) * 2016-05-24 2017-11-29 Harman Becker Automotive Systems GmbH Eye tracking
DE102016216577A1 (de) * 2016-09-01 2018-03-01 Volkswagen Aktiengesellschaft Verfahren zur Interaktion mit Bildinhalten, die auf einer Anzeigevorrichtung in einem Fahrzeug dargestellt werden
CN106980362A (zh) * 2016-10-09 2017-07-25 阿里巴巴集团控股有限公司 基于虚拟现实场景的输入方法及装置
DE102016220075A1 (de) * 2016-10-14 2018-04-19 Audi Ag Kraftfahrzeug und Verfahren zur 360°-Umfelderfassung
JP6757420B2 (ja) * 2016-12-09 2020-09-16 株式会社ソニー・インタラクティブエンタテインメント 音声制御装置、音声制御方法及びプログラム
JP6673288B2 (ja) * 2017-04-27 2020-03-25 株式会社デンソー 車両用表示装置
CN107202426A (zh) * 2017-05-18 2017-09-26 珠海格力电器股份有限公司 控制装置和方法、热水器
IT201700091628A1 (it) * 2017-08-08 2019-02-08 Automotive Lighting Italia Spa Sistema di interfaccia uomo-macchina virtuale e corrispondente procedimento di interfaccia uomo-macchina virtuale per un veicolo.
EP3466761B1 (en) * 2017-10-05 2020-09-09 Ningbo Geely Automobile Research & Development Co. Ltd. A display system and method for a vehicle
JP2019086911A (ja) * 2017-11-02 2019-06-06 三菱自動車工業株式会社 車載ユーザーインターフェース装置
US10267960B1 (en) 2018-02-05 2019-04-23 GM Global Technology Operations LLC Cloaking device and apparatus
JP6730552B2 (ja) * 2018-05-14 2020-07-29 株式会社ユピテル 電子情報システム及びそのプログラム
JP7076331B2 (ja) * 2018-08-10 2022-05-27 本田技研工業株式会社 車両システム
US11354787B2 (en) 2018-11-05 2022-06-07 Ultrahaptics IP Two Limited Method and apparatus for correcting geometric and optical aberrations in augmented reality
US10696239B2 (en) 2018-11-28 2020-06-30 Toyota Motor Engineering & Manufacturing North America, Inc. Use of a lenticular lens array to apply a display inside of a vehicle
EP3670228B1 (en) * 2018-12-17 2022-04-13 Audi Ag A display device and a vehicle comprising the display device
DE112019006103B4 (de) * 2019-01-10 2022-10-20 Mitsubishi Electric Corporation Informationsanzeigesteuervorrichtung, Verfahren, Programm und Aufzeichnungsmedium
DE102019105764B3 (de) 2019-03-07 2020-08-06 Gestigon Gmbh Verfahren zum Kalibrieren einer Benutzerschnittstelle sowie Benutzerschnittstelle
DE102019127183A1 (de) * 2019-10-09 2021-04-15 Audi Ag Anzeigesystem zum Anzeigen eines Bedienhinweises für ein Bedienelement in einem Kraftfahrzeug
CN112061137B (zh) * 2020-08-19 2022-01-14 一汽奔腾轿车有限公司 一种车外的人车互动控制方法
CN113895229B (zh) * 2021-10-11 2022-05-13 黑龙江天有为电子有限责任公司 一种汽车仪表信息的显示方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07114451A (ja) * 1993-10-19 1995-05-02 Canon Inc 3次元メニュー選択方法とその装置
JPH0935584A (ja) 1995-07-21 1997-02-07 Yazaki Corp 車両用表示装置
US5678015A (en) * 1995-09-01 1997-10-14 Silicon Graphics, Inc. Four-dimensional graphical user interface
JPH09134269A (ja) * 1995-11-10 1997-05-20 Matsushita Electric Ind Co Ltd 表示制御装置
EP0839348B1 (en) * 1996-04-19 2004-03-17 Koninklijke Philips Electronics N.V. Data processing system provided with soft keyboard that shifts between direct and indirect characters keys
JPH09298759A (ja) * 1996-05-08 1997-11-18 Sanyo Electric Co Ltd 立体映像表示装置
US6215898B1 (en) * 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
US6064354A (en) 1998-07-01 2000-05-16 Deluca; Michael Joseph Stereoscopic user interface method and apparatus
JP2000075991A (ja) * 1998-08-28 2000-03-14 Aqueous Research:Kk 情報入力装置
JP3390677B2 (ja) * 1998-10-26 2003-03-24 三菱電機株式会社 メニュー表示方法およびメニュー表示装置
DE19852653A1 (de) * 1998-11-16 2000-05-18 Bosch Gmbh Robert Vorrichtung zum Erfassen der Belegung eines Fahrzeugsitzes
JP2001092579A (ja) * 1999-09-24 2001-04-06 Toshiba Corp 情報表示装置
JP2002259989A (ja) * 2001-03-02 2002-09-13 Gifu Prefecture ポインティングジェスチャ検出方法及びその装置
JP2004318325A (ja) * 2003-04-14 2004-11-11 Dainippon Printing Co Ltd 情報入力装置およびそのプログラムならびに電子フォーム
JP2004334590A (ja) * 2003-05-08 2004-11-25 Denso Corp 操作入力装置
JP2005138755A (ja) * 2003-11-07 2005-06-02 Denso Corp 虚像表示装置およびプログラム
JP2005196530A (ja) * 2004-01-08 2005-07-21 Alpine Electronics Inc 空間入力装置及び空間入力方法
DE102005017313A1 (de) * 2005-04-14 2006-10-19 Volkswagen Ag Verfahren zur Darstellung von Informationen in einem Verkehrsmittel und Kombiinstrument für ein Kraftfahrzeug
JP4318047B2 (ja) * 2005-06-06 2009-08-19 ソニー株式会社 3次元オブジェクト表示装置、3次元オブジェクト切替表示方法及び3次元オブジェクト表示プログラム
US8279168B2 (en) * 2005-12-09 2012-10-02 Edge 3 Technologies Llc Three-dimensional virtual-touch human-machine interface system and method therefor
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
DE102006032117A1 (de) 2006-07-12 2008-01-24 Volkswagen Ag Informationssystem für ein Verkehrsmittel und Verfahren zum Steuern eines solchen Informationssystems
WO2008132724A1 (en) * 2007-04-26 2008-11-06 Mantisvision Ltd. A method and apparatus for three dimensional interaction with autosteroscopic displays
DE102007039442A1 (de) * 2007-08-21 2009-02-26 Volkswagen Ag Verfahren zum Anzeigen von Informationen in einem Fahrzeug und Anzeigeeinrichtung für ein Fahrzeug
JP4645678B2 (ja) * 2008-05-08 2011-03-09 ソニー株式会社 情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラム
US20100050129A1 (en) 2008-08-19 2010-02-25 Augusta Technology, Inc. 3D Graphical User Interface For Simultaneous Management Of Applications
US20100128112A1 (en) * 2008-11-26 2010-05-27 Samsung Electronics Co., Ltd Immersive display system for interacting with three-dimensional content

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140107229A (ko) * 2011-12-06 2014-09-04 톰슨 라이센싱 3차원으로 디스플레이된 오브젝트의 사용자 선택 제스쳐에 응답하기 위한 방법 및 시스템
WO2020032307A1 (ko) * 2018-08-10 2020-02-13 엘지전자 주식회사 차량용 디스플레이 시스템

Also Published As

Publication number Publication date
US20150234569A1 (en) 2015-08-20
CN102207770A (zh) 2011-10-05
EP2372512A1 (en) 2011-10-05
US20110242102A1 (en) 2011-10-06
CA2730379C (en) 2013-05-14
US9030465B2 (en) 2015-05-12
JP2011210239A (ja) 2011-10-20
CA2730379A1 (en) 2011-09-30

Similar Documents

Publication Publication Date Title
KR20110109974A (ko) 차량 전자 장치용 차량 유저 인터페이스 유닛
CN108780360B (zh) 虚拟现实导航
US9756319B2 (en) Virtual see-through instrument cluster with live video
KR101541803B1 (ko) 화상인식장치 및 조작판정방법, 그리고 프로그램
CN109643219B (zh) 用于与在车辆中的显示设备上呈现的图像内容进行交互的方法
EP2740118B1 (en) Changing between display device viewing modes
JP5781080B2 (ja) 3次元立体表示装置および3次元立体表示処理装置
US20120200495A1 (en) Autostereoscopic Rendering and Display Apparatus
JP5114795B2 (ja) 画像認識装置および操作判定方法並びにプログラム
CN111566596B (zh) 用于虚拟现实显示器的真实世界门户
JP6339887B2 (ja) 画像表示装置
KR20170087292A (ko) Hmd 디바이스 및 그 제어 방법
JP2012108723A (ja) 指示受付装置
JP6757404B2 (ja) シースルー・グラス用の補助アイテム選択
US11443487B2 (en) Methods, apparatus, systems, computer programs for enabling consumption of virtual content for mediated reality
JP6638392B2 (ja) 表示装置、表示システム、表示装置の制御方法、及び、プログラム
EP3169068B1 (en) Portable device that controls photography mode, and control method therefor
JP6740613B2 (ja) 表示装置、表示装置の制御方法、及び、プログラム
JP5465334B2 (ja) 3次元立体表示装置
EP3534241B1 (en) Method, apparatus, systems, computer programs for enabling mediated reality
CN117289789A (zh) 使用头部姿势来控制设备设置
KR20210102210A (ko) 상호 작용을 위한 물리적 인터페이스로서의 모바일 플랫폼

Legal Events

Date Code Title Description
A201 Request for examination
E601 Decision to refuse application