KR20230010734A - 터치 감응형 조작면이 있는 조작유닛 - Google Patents

터치 감응형 조작면이 있는 조작유닛 Download PDF

Info

Publication number
KR20230010734A
KR20230010734A KR1020227043945A KR20227043945A KR20230010734A KR 20230010734 A KR20230010734 A KR 20230010734A KR 1020227043945 A KR1020227043945 A KR 1020227043945A KR 20227043945 A KR20227043945 A KR 20227043945A KR 20230010734 A KR20230010734 A KR 20230010734A
Authority
KR
South Korea
Prior art keywords
operating
area
finger
control unit
touch
Prior art date
Application number
KR1020227043945A
Other languages
English (en)
Inventor
볼케르 스탈
Original Assignee
메르세데스-벤츠 그룹 아게
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 메르세데스-벤츠 그룹 아게 filed Critical 메르세데스-벤츠 그룹 아게
Publication of KR20230010734A publication Critical patent/KR20230010734A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • G06F3/04186Touch location disambiguation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/60Instruments characterised by their location or relative disposition in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/10Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • B60K37/02
    • B60K37/06
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/143Touch sensitive instrument input devices
    • B60K2360/1438Touch screens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/146Instrument input by gesture
    • B60K2360/1468Touch gesture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/16Type of output information
    • B60K2360/161Explanation of functions, e.g. instructions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/77Instrument locations other than the dashboard
    • B60K2360/782Instrument locations other than the dashboard on the steering wheel
    • B60K2370/1438
    • B60K2370/1468
    • B60K2370/152
    • B60K2370/161
    • B60K2370/782
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/21Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
    • B60K35/22Display screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04106Multi-sensing digitiser, i.e. digitiser using at least two different sensing technologies simultaneously or alternatively, e.g. for detecting pen and finger, for saving power or for improving position detection

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 터치 감응형 조작면(3)과 컨트롤 유닛(5)이 있는 조작유닛(1)에 관한 것으로, 이때 조작면(3)은 터치된 영역을 감지하고 터치된 영역에 대한 정보를 컨트롤 유닛(5)에 전달하도록 설계되었으며 이때 컨트롤 유닛(5)은 터치된 영역에 대한 정보로부터 조작면(3)의 활성화 위치를 산출하고 활성화 위치가 조작면의 미리 정의된 필드에 있는 경우 필드에 할당된 기능을 수행하며, 이때 컨트롤 유닛(5)은 조작면(3)의 터치 영역을 지나는 산출된 움직임 속도가 미리 정의된 한계값을 초과하는 경우에만 손가락 단부를 제한하면서 접촉면(3) 표면에서 손가락 움직임 방향으로 앞에 있는 가장자리 선에 있는 위치나 가장자리 선의 영역 내에 있는 위치에서 활성화 위치가 결정되고, 그렇지 않은 경우에 활성화 위치는 한 시점에 손가락으로 터치된 모든 조작면(3) 영역의 중심에서 산출되도록 설계된다.

Description

터치 감응형 조작면이 있는 조작유닛
본 발명은 터치 감응형 조작면과 컨트롤 유닛을 갖는 조작유닛 및 이러한 조작유닛을 갖는 스티어링 휠에 관한 것이다.
터치 감응형 조작면은 종래 기술에서 알려져 있다. 예컨대 US 2011 0148770 A1은 터치 감응형 표면에서 사용자 입력을 감지하고, 입력을 위한 복잡한 터치 패턴을 인식하며, 터치 패턴을 기반으로 작업을 수행하는 방법에 관한 것이다. 이때 터치 패턴은 다음 중 하나이다: 시간 패턴, 다중 패턴, 손가락 등을 사용한 멀티 터치 제스처, 키패드에서 한 위치를 따라 하나 이상의 터치 동작, 다양한 강도나 탭 각도의 일련의 터치. 또한 작업은 다음 중 하나이다: 시스템 작업 수행, 텍스트에 특성 추가, 잠금식 설계된 조작 방식을 제거하기 위한 필터링.
또한 US 2007 / 0 097 096 A1은 바이모달 터치 스크린 상호 작용에 관한 것이며, 이때 터치 스크린의 표면에 닿는 손가락 표면이 산출되고 크기, 모양 또는 방향에 근거하여 상호 작용이 손가락 끝 상호 작용인지 아니면 손가락 면 상호 작용인지 결정되며, 두 개의 서로 다른 모드 중 어느 하나의 결정에 기초하여 산출되고, 이 때 한 모드는 손가락 면 상호 작용과 관련되고 다른 모드는 손가락 끝 상호 작용과 관련된다.
DE 10 2013 020 795 A1은 또한 차량 또는 차량에 포함된 장치의 기능을 제어하는 방법에 관한 것으로, 이 방법에서는 손 및/또는 손가락 및/또는 엄지 손가락의 동작이나 제스처가 스티어링 휠 주변에 배치된 센서 장치에 의해 감지되고 동작이나 제스처가 미리 정의된 동작이나 제스처와 상관관계가 있는 경우 적어도 실제로 존재하지 않는 가상 조작요소의 조작으로 평가된다. 적어도 하나 이상의 가상 조작요소가 스티어링 휠에 정의되며, 이때 스티어링 휠 쪽을 향하는 센서 장치와 평가 장치에 의해 스티어링 휠과 관련된 동작이나 제스처가 평가되고 센서 장치가 스티어링 휠에서 미리 정의된 적어도 하나 이상의 영역에서 손 및/또는 손가락 및/또는 엄지손가락의 동작 또는 제스처가 감지되고 평가 장치에 전달되고 평가 장치는 스티어링 휠에 대해 수행된 감지된 동작이나 제스처를 적어도 하나 이상의 미리 정의된 저장된 패턴과 비교하고 평가 장치는 적어도 하나 이상의 패턴과 미리 정의된 패턴이 일치 시 미리 정의된 전환 단계를 작동하도록 되어 있다.
또한, DE 699 30 774 T2는 2차원 디스플레이 화면을 통해 시각적 포인터 표시의 선택적 동작 제어를 위한 전기 출력 신호를 제공하기 위한 정전 용량형 터치 패드에 관한 것이며, 이는 다음을 포함한다. 제1 이차원 행/열 어레이에 배열된 복수의 N개의 개별 커패시턴스 측정셀을 포함하며 이때 제1 어레이는 N개의 행/열 인터페이스를 갖고, 제1 어레이는 표시 동작을 제어하기 위한 출력 신호를 생성하기 위해 사람의 손가락 접촉면과 함께 작용하도록 설계된 일반적으로 평면 영역을 가지며, 이때 각 개별 측정 셀은 사람의 손가락 끝에 대한 위치 상황에 따라 달라지는 명백한 출력 신호를 가지고, 제2 이차원 행/열 어레이에 배열된 복수의 N개의 개별 저항 노드를 포함하며 이때 제2 어레이는 제1 어레이의 N개의 행/열 인터페이스에 해당하는 N개의 행/열 인터페이스를 하나의 배열에서 가지고, 측정셀의 명확한 각 출력 신호가 제2 어레이의 해당 저항 노드에서 생성되는 회로 장치를 포함하고, 사람 손가락 접촉면의 위치 함수로서 제1 어레이의 평면 영역에서 중심 신호를 계산하기 위해 제2 어레이와 연결된 제1 계산 장치를 포함하며, 제1 계산 장치와 연결되어 있고 중심 신호의 함수로서 표시 동작 제어 신호를 제공하는 제1 출력 장치를 포함한다.
기준점으로서, 터치하는 손가락 접촉면의 이러한 중심을 사용하거나 또는 다른 방법에 따라 계산된 최대한 손가락 접촉면의 중앙에 있는 기준점을 사용하는 경우 사용자는 기준점, 즉 중심이 필드 영역에 올 때까지, 그렇게 하여 필드에 할당된 기능의 작동이 지연 수행되도록, 미리 정의된 필드를 통해 사용자 인터페이스를 살짝 밀기 제스처에서 손가락을 밀어야 한다.
본 발명의 과제는 특히 차량에서 사용하기 위한 터치 감응형 조작유닛을 개선하는 데 있다.
발명은 독립항의 특징에서 나온다. 바람직한 실시예와 양태는 종속항의 대상이다.
본 발명의 제1 양태는 터치 감응형 조작면과 컨트롤 유닛이 있는 조작유닛에 관한 것이며, 이때 조작면은 사용자의 손가락으로 터치된 조작면 영역을 감지하고 터치된 영역에 대한 정보를 컨트롤 유닛에 전달하도록 설계되었으며 이때 컨트롤 유닛은 터치된 영역에 대한 정보로부터 조작면의 활성화 위치를 결정하도록 설계되었고 활성화 위치가 조작면의 미리 결정된 필드에 있는 경우 필드에 할당된 기능을 수행하도록 설계되었으며
컨트롤 유닛이 손가락 단부 또는 손가락 끝을 제한하면서 조작면 표면에서 손가락의 움직임 방향으로 터치하는 손가락의 앞에 있는 가장자리 선에서 또는 가장자리 선의 영역 내에서 활성화 위치를 결정하도록 설계된 것을 특징으로 한다.
터치 감응형 조작면은 터치 패드 또는 터치 디스플레이의 일부이다. 터치 디스플레이는 컨트롤 유닛을 화면 하단부에 배치하여 컨트롤 유닛과 함께 화면 외부에서 단일한 장치로 이용할 수 있다. 터치 감응형 조작면은 특히 저항성 센서 셀 매트릭스를 갖지만 바람직하게는 정전 용량형 센서 셀 매트릭스를 갖는다. 정전 용량형 센서 셀에 사람 손가락이 매우 가깝게 접근할 경우 해당 용량이 변하면 손가락의 접근이 인식된다. 이들 각각, 특히 화면의 정전 용량형 센서 셀은 각각의 센서 셀에서 터치가 감지되는지 여부, 특히 바람직하게는 각각의 센서 셀에 어떤 신호 값이 있는지에 대한 적어도 하나 이상의 정보를 컨트롤 유닛에 제공한다. 이러한 신호 값은 특히 각 센서 셀에서 손가락 영역의 거리에 따른 터치 강도를 나타낸다.
활성화 위치는 손가락으로 터치되는 조작면의 위치 또는 영역이다. 조작면의 활성화 위치는 컨트롤 유닛에 의해 실행되는 기능이 연결되어 있을 수 있으며 예컨대 기호 표시로 필드를 나타낸다.
기호의 표시는 정적 시각적 표시를 사용하여 사용자 인터페이스에 표시, 터치 감응형 화면에 아이콘 표시 또는 터치패드로 설계된 조작면의 경우 할당된 화면의 표시로 구현된다.
활성화 위치, 즉 조작면에서 손가락 움직임 방향으로 앞에 있는 가장자리 선의 활성화 위치 또는 손가락 단부의 가장자리 선 영역이 기호로 시각화된 필드의 미리 정의된 영역에서 미리 정의된 시간이 남아 있게 되면 기능이 작동된다. 미리 정의된 시간의 카운트는 손가락 단부의 가장자리 선이나 가장자리 선 영역에 미리 정의된 필드가 처음 닿으면 시작된다. 활성화 위치가 시간에 따라 변하는 경우 활성화 위치를 통해 살짝 밀기 제스처를 생성할 수도 있다. 예컨대, 조작면 표면에서 달라지는 활성화 위치는 슬라이더를 작동시킬 수 있다.
컨트롤 유닛은 손가락의 움직임 방향에서 손가락 단부, 특히 접촉하는 손가락의 가장자리 선이 조작면, 특히 조작면의 모든 터치된 영역에 대해 어디에 위치하는지 산출한다. 기본적으로 손가락이 해당 사용에서 표면의 순수한 수직 방향으로 조작면을 터치하는 것이 아니라 표면을 따라 움직임 방향에 조작면이 있는 것으로, 즉 살짝 밀기 제스처를 수행하는 것으로 가정한다. 손가락 움직임의 이러한 접선 방향 성분은 움직임 방향의 용어에서 고려된다. 이 움직임 방향에서 조작면에 대해 손가락의 원위 끝 위치가 산출된다. 이로써 사용자의 터치 입력 시 조작면에 대해 터치 손가락의 가장자리 선의 위치 및 영역이 알려진다.
손가락 단부는 이때 손가락 끝을 포함하며 특히 손가락의 근위 단부에 있는 손가락 기저부의 반대쪽 단부인 사용자 손가락의 원위 단부를 말한다. 또한 손가락 단부는 특히 손가락에서 손톱에 반대되는 면이다.
손가락 터치로 선택된 활성화 위치는 선행 기술에서와 같이 조작면에서 모든 터치된 영역 면의 중심과 관련하여 산출되는 것이 아니라 손가락 단부 가장자리 선의 위치 및 영역별 위치에 따라 산출되면서 기능을 더 빨리 작동할 수 있다. 또한, 손가락으로 가려지기 때문에 원치 않은 필드나 기호는 “무작위"로 선택되지 않게 된다. 본 발명에 따르면, 컨트롤 유닛은 조작면의 터치 영역을 지나는 산출된 움직임 속도가 미리 정의된 한계값을 초과하는 경우 활성화 위치가 손가락의 위치나 손가락 단부 영역을 제한하는 가장자리 선에만 관련되고, 그렇지 않은 경우에 활성화 위치는 한 시점에 손가락으로 터치된 모든 조작면 영역의 중심에서 산출되도록 설계된다.
움직임 속도는 사용자가 터치하는 동안 예컨대 카메라 유닛으로 기록될 수 있다. 또는 바람직하게는 이전 실시예와 유사하게 조작면의 터치 영역의 시간 경과에서 움직임 속도가 도출될 수 있다. 이 실시예는 바람직하게는 사용자가 충분히, 즉, 최소 속도로 활성화 영역을 포함하는 필드를 손가락 끝으로 움직이기로 결정한 경우에만 손가락 끝 영역에서 기호로 시각화된 필드를 선택하려는 의도가 있다는 가정을 고려한다. 최소 속도 이상에 있는 더 빠른 움직임 속도에서 사용자는 예컨대 메뉴를 스크롤하며 이때 더 빠른 시스템 반응을 위해 바람직하게는 움직임 방향에 있는 손가락 가장자리 선에서 하나 이상의 기호가 터치되면 곧바로 이 기호를 선택할 수 있다. 반면에, 사용자가 조작면 위로 손가락을 매우 천천히 터치하면 작동 안전 범위에서 손가락 표면 중심에 닿을 때 기호가 선택되는 것이 바람직하다.
따라서 본 발명의 바람직한 실시예에 따르면 터치 감응형 조작면의 무작위로 가려지는 영역이 활성화되는 것이 아니라 기본적으로 사용자의 손가락 단부를 제한하는 가장자리 선으로 터치되는 경우에만 필드가 활성화된다. 특히 자동차 부문의 응용 분야에서, 예컨대 스티어링 휠의 터치 감응형 조작면에서 사용자의 손가락이 조작면의 가장자리를 지나 조작면 중앙의 필드 방향으로 이동하기 때문에 손가락 끝 및 손가락 단부의 살짝 밀기 제스처에서 의도적으로 해당 기호로 시각화된 필드만을 활성화한다.
바람직한 실시예에 따르면, 컨트롤 유닛은 가장 높은 신호 값의 위치에서 또는 터치된 영역에서 조작면에서 검출된 신호 값의 가장자리 선이나 가장자리 선 영역의 중심에서 활성화 위치를 결정하도록 설계된다.
특히, 터치 감응형 조작면에 각각 해당 신호 값을 결정하도록 설계된 센서 셀의 매트릭스 형태 배열이 있는 경우, 각 센서 셀에서 터치가 있는지 없는지에 대한 이진 정보만 있는 것이 아니라 각 센서 셀에 대한 터치 강도에 대한 정보도 있다. 강도는 손가락 부분과 조작면의 거리에 따라 다른 신호 값의 높이에 의해 결정된다.
예컨대 손가락 부분의 거리와 터치 면의 형태는 사용자가 조작면을 얼마나 세게 누르는지에 따라 다르다.
이 덕분에 바람직하게는 터치 감응형 조작면의 의도하지 않은 것으로 보이는 부드러운 터치는 컨트롤 유닛에 의해 중요한 터치로 분류되지 않게 된다. 이 실시예에 따라 터치 손가락의 손가락 끝 및 가장자리 선 영역에서 신호 값이 감지되면 한 편으로는 이 가장자리 선이나 가장자리 선 영역에서 터치된 센서 셀의 가장 높은 신호 값의 위치가 활성화 위치로 결정될 수 있으며, 이를 통해 신호 값의 현저한 차이에서 미리 정의된 필드의 의도적인 선택이 보장된다. 손가락 단부를 제한하면서 움직임 방향으로 앞에 있는 가장자리 선이나 가장자리 선의 영역 내에서 센서 신호의 중심을 결정하면 가장자리 선이나 가장자리 선 영역 내에 있는 비슷하게 높은 신호 값에서 다른 신호 값보다 약간 높은 신호 값에 과도한 가중을 방지하게 된다. 선행 기술에서 알려진 방법에 따라 산출된 이러한 중심은 센서 셀의 위치 벡터의 산술 평균(정확하게는 정규화 적분)의 기하학적 해석으로 이해될 수 있다.
바람직한 실시예에 따르면, 컨트롤 유닛은 검출 영역이 조작면을 향하는 카메라 유닛을 가지고 있으며, 이때 컨트롤 유닛은 카메라 장치의 데이터로부터 손가락의 움직임 방향을 산출하도록 설계된다.
카메라 유닛에는 특히 이미지에서 공간 정보를 얻기 위해 스테레오 카메라가 있다. 카메라 유닛의 검출 영역은 바람직하게는 손가락의 움직임 방향이 이미지 식별에 의해 인식되고 동시에 손목에 대한 손가락 단부나 손가락 끝의 위치를 따라 인식한다. 이는 바람직하게는 손가락의 움직임 방향, 특히 조작면의 표면을 따라 손가락의 방향을 파악하기 위한 신뢰할 수 있는 방법이다.
다른 또는 추가적일 일 실시예에 따르면, 컨트롤 유닛은 조작면에 터치된 영역의 시간 경과에서 손가락의 움직임 방향을 산출하도록 설계된다.
조작면에 터치된 영역의 시간 경과는 특히 터치된 것으로 분류된 조작면 센서 셀의 시간 기록으로 결정된다. 특히 사용자의 손가락이 조작면 중심 방향으로 한쪽 가장자리에서 조작면을 터치할 때, 조작면의 터치 영역에서 시간이 지남에 따라 점점 더 커지고 가장자리에서 안쪽으로 퍼지는 면이 나온다. 이 실시예에 따르면, 바람직하게는 조작면의 표면에서 손가락의 움직임 방향을 인식하기 위해 카메라 유닛이 불필요하다.
다른 바람직한 일 실시예에 따르면, 컨트롤 유닛은 컨트롤 유닛을 통해 조작면 가장자리에서 손가락 터치가 인식될 때 활성화 위치가 손가락 단부를 제한하는 가장자리 선의 위치 또는 영역에만 관련되도록 설계된다.
이 실시예는 접촉면의 표면을 따라 손가락이 가장자리에서 사용자 조작면 중심 방향으로 손가락 단부가 접선 방향으로 접촉하게 되면 기능 작동을 위해 미리 정의된 필드가 제어되는 것이 바람직하다. 가능한 한 빠른 시스템 반응을 위해, 바람직하게는 필드에 체류 시간 이후 가장자리 선 또는 손가락 단부의 가장자리 선 영역이 미리 정의된 필드에 닿을 때 기능이 작동된다. 반면에 사용자가 조작면의 가장자리에서 먼 영역에 손가락을 터치하면 기능을 직접 활성화하거나 이 경우 예컨대 바람직하게는 전체 손가락 접촉면에 작용하는 센서 신호의 중심을 결정함으로써 활성화 위치가 결정되도록 경우에 따라 거기에서 손가락 중심으로 살짝 밀기 제스처를 사용하여 활성화고자 하는 것이다.
바람직한 추가 또는 대안 실시예에 따르면, 컨트롤 유닛은 바람직하게는 터치 영역의 면적이 가장자리에서 시간이 경과하면서 조작면의 중심 방향으로 증가할 경우에만 활성화 영역을 손가락 단부를 제한하는 가장자리 선 영역이나 위치에 적용하도록 설계된다. 터치 영역 면적의 증가는 종래의 방법에 따라 활성화 위치 결정이 예컨대 터치면의 중심을 결정함으로써 의도하지 않은 오작동을 수반하는 빈번한 조작 사례이다. 사용자가 예컨대 조작패널의 가장자리에서 엄지 손가락을 스티어링 휠에 배치된 조작면에서 선택된 필드의 방향으로, 예컨대 조작패널 중앙에서 밀면, 손가락 접촉면이 기호에 닿을 때까지 계속 커진다. 중심 위치는 손가락 단부의 위치 및 가장자리 선이나 가장자리 선 영역에서 크게 차이가 난다. 사용자 요청은 기호로 표시되는 필드의 선택이기 때문에 기호 영역, 즉 필드 영역에서 가장자리 선이 닿으면 활성화가 작동된다. 바람직한 방식에서 필드에 할당된 기능은 사용자 요청에 따라 가능한 한 빨리 작동된다. 동시에, 필드의 의도치 않은 선택은 손가락 접촉면의 중심에 있는 활성화 위치를 활성화하여 예컨대 중심에 따라 피한다.
다른 바람직한 실시예에 따르면, 컨트롤 유닛은 신호 값의 미리 정의된 임계값이 조작면의 해당 위치에서 초과되는 경우에만 조작면에서 해당 위치가 터치된 것으로 분류되는 것으로 설계된다. 이와 관련하여 신호 값의 정의와 설명, 특히 정전 용량형 센서 셀과 관련하여 위를 참조한다.
바람직하게는 조작면이 터치 감응형 화면으로 설계된다. 화면에서 조작할 필드는 아이콘이라고도 하는 기호로 표시된다.
본 발명의 또 다른 실시 양태는 이러한 조작유닛 및 스티어링 휠 림에 배치된 접촉 센서 유닛이 있는 스티어링 휠과 관련이 있으며, 이때 접촉 센서 유닛은 조작면의 표면에서 손가락의 움직임 방향을 조작유닛과 관련하여 스티어링 휠에 있는 손의 터치 위치에 기초하여 측정하고 컨트롤 유닛에 특정 움직임 방향을 전송하도록 설계된다.
접촉 센서 유닛은 특히 상기 사용자에 해당하는 차량의 운전자가 스티어링 휠에 한 손을 두는지 아니면 양손을 두는지 검출하도록 설계된다. 이러한 접촉 센서 유닛은 특히 안전을 높이기 위해 운전자 보조 시스템으로 사용되지만, 이 발명의 다른 양태에 따르면, 접촉 센서 유닛의 정보는 스티어링 휠에서 손 위치가 산출되고 따라서 이 정보를 사용하여 터치 시 손가락의 움직임 방향을 추론하고 이러한 정보를 컨트롤 유닛에 전달하는 데 사용된다. 조작유닛의 조작면은 바람직하게는 스티어링 휠에 배치되고, 바람직하게는 스티어링 휠의 스포크에 배치되며, 특히 바람직하게는 스티어링 휠 스포크에서 스티어링 휠 림으로 넘어가는 영역에서 스티어링 휠 스포크의 방사 방향으로 바깥에 있는 단부에 배치된다.
제안된 스티어링 휠의 장점과 바람직한 실시 양태는 제안된 조작유닛과 관련이 있는 상기 실시예의 유사하고 적합한 응용에서 나온다.
다른 장점, 특징 및 세부사항은 필요한 경우 도면을 참조하여 적어도 하나의 예시적인 실시예를 상세하게 설명하는 다음 명세서에서 제시된다. 동일하거나 유사 및/또는 기능적으로 동일한 부분에는 동일한 참조 기호를 붙인다.
다음을 도시한다.
도 1: 발명의 실시예에 따른 조작유닛
도 2: 발명의 다른 일 실시예에 따른 조작유닛이 있는 스티어링 휠
도 3: 조작 손가락이 있는 조작패널
도 4: 조작 손가락이 있는 슬라이더로서의 조작패널
그림은 개략적으로 도시한 것이며 실물 크기가 아니다.
도 1은 터치 감응형 화면(3)으로 설계된 조작패널과 컨트롤 유닛(5)를 갖는 조작유닛(1)을 도시한다. 컨트롤 유닛(5)은 화면(3)에 연결되어 있고 여기에서 데이터를 수신한다. 화면(3)은 사용자가 손가락으로 터치한 화면(3)의 표면 영역을 감지하기 위한 것이다. 화면(3)은 또한 터치된 영역의 감지에 대한 정보를 컨트롤 유닛(5)에 전달한다. 그러면 컨트롤 유닛(5)은 터치 영역에 대한 정보에서 화면(3)의 활성화 위치를 산출한다. 화면(3)의 활성화 위치에 기능이 할당되어 있지 않으면 기능이 실행되지 않는다. 반면에, 활성화 위치가 화면(3)에 표시된 기호의 미리 정의된 필드 또는 영역에 있는 경우, 기호에 할당된 기능이 컨트롤 유닛(5)에 의해 실행된다. 컨트롤 유닛(5)은 터치하는 손가락 단부를 제한하는 가장자리 선 영역에서 활성화 위치를 결정한다. 이 가장자리 선은 전면 화면(3) 표면에서 손가락의 움직임 방향에 있다. 이때 컨트롤 유닛(5)은 손가락 단부의 가장자리 영역에서 신호 값의 중심을 산출하고 터치가 완료되면 이 중심의 위치가 화면(3)의 표면에서 활성화 위치로 결정된다. 가장자리 영역은 가장자리 선 자체나 가장자리 선에서 나오는 미리 정의된 폭 영역을 포함할 수 있다. 손가락의 움직임 방향은 화면(3)에 닿은 영역의 시간 경과에서 컨트롤 유닛(5)에 의해 산출된다. 움직임 방향은 도 1에서 화살표로 표시된다. 그러나 컨트롤 유닛(5)에 의해 화면(3) 가장자리에서 손가락의 터치가 감지되는 경우에 컨트롤 유닛(5)은 활성화 위치를 가장자리 선의 중심이나 가장자리 선 영역에 적용한다. 이 경우 터치 영역의 면적은 시간이 경과함에 따라 화면(3)의 가장자리에서 화면(3)의 내부 방향으로 늘어나는 경우이다. 도 1에서 이 경우 사용자의 손가락이 화면 바깥에서 하단 가장자리를 지나 상단 왼쪽으로 그림에는 표시되지 않은 아이콘을 터치한다.
도 2는 조작유닛(1)이 있는 스티어링 휠(10)을 도시한다. 이때 도 1의 예시와 달리 예컨대 화면(3)과 컨트롤 유닛(5)은 하나의 공통 유닛에 배열된다. 화면(3)은 화면의 왼쪽 가장자리 위에 있는 운전자의 왼손 엄지 손가락(스티어링 휠이 직진일 때)이 화면(3)의 표면을 따라 스티어링 휠의 회전축 방향으로 터치하는 방식으로 배열된다. 스티어링 휠 림에 접촉 센서 유닛(12)이 배열되고, 이때 접촉 센서 유닛(12)은 스티어링 휠(10)에서 손의 터치 위치를 기반으로 화면(3)의 표면에서 손가락의 움직임 방향을 조작유닛(1)과 관련하여 결정하고 컨트롤 유닛(5)에 특정 움직임 방향을 전송하도록 설계된다. 즉, 화면(3) 영역의 스티어링 휠 림에서 운전자의 왼손이 감지되면 운전자의 손가락이 스티어링 휠 림의 이 가장자리를 지나 화면(3) 표면에서 움직이는 것으로 가정한다. 검출 영역이 화면(3)을 향하는 카메라 유닛(7)은 추가로 움직임 방향을 감지한다. 두 소스에서 즉, 접촉 센서 유닛(12)과 카메라 유닛(7)의 데이터에 따라 화면(3)의 가장자리에서 터치가 감지되는 경우에만 컨트롤 유닛(5)은 손가락 단부를 제한하는 가장자리 선이나 가장자리 선의 영역 내에 있는 중심에 활성화 위치를 적용한다.
도 3과 4에 기초하여, 본 발명에 따른 조작유닛의 작동 방식은 선행 기술에 따른 실시예에 비교하여 다음에서 설명한다.
도 3에서는 아이콘(22)으로 제시된 기호 A부터 F까지의 조작패널(20)이 도시된다. 아이콘(22)은 활성화의 위치가 손가락(26) 터치로 아이콘(22) A-F의 필드 중 어느 하나에 있는 경우 기능이 할당된 미리 정의된 필드를 나타낸다. 간단하게 표시하기 위해 A ~ F 중 한 아이콘에만 참조 부호(22)를 붙인다. 조작 손가락(26)은 조작패널(20)의 가장자리에서 시작하여 오른쪽에서 왼쪽으로 아이콘 B 방향을 터치한다. 가장자리에서 움직이면, 손가락의 평평한 살짝 밀기 제스처로 점선으로 표시된 센서 신호 필드(27)가 생성된다. 즉, 예컨대 정전 용량형 터치면이나 정전 용량형 디스플레이의 이 영역에서 센서 신호가 생긴다. 가장자리에서의 움직임 방향을 근거로 조작유닛은 사용자가 손가락으로 활성화해야 하는 아이콘을 제어하고 있으며 본 경우에 B로 표시된 아이콘(22)에 할당된 기능을 활성화하려고 하는 것을 인식한다. 이 사용자 요청에 근거하여 손가락 터치로 작동하는 활성화 위치(28)는 손가락의 움직임 방향으로 앞에 있는 가장자리 선에서 또는 가장자리 선의 영역 내에서 결정된다. 활성화 위치(28)가 B로 표시된 아이콘(22) 필드에 있으면 아이콘(22)에 할당된 기능이 실행된다. 이로 인해 사용자는 빠른 시스템 반응을 얻는다.
이에 대조적으로, 선행 기술로부터 알려진 결정을 통한 활성화 위치의 결정은, 예컨대 센서 신호 필드(27)의 중심 결정은 사용자 요청에 반해 C로 표시된 아이콘(22)에 할당된 기능을 작동시킬 수 있는 활성화 위치(24)로 이어지게 될 수 있다. 이때 바람직하게는 센서 필드의 조작면을 통해 산출된 움직임 속도는 미리 정의 가능한 한계값 이상인 경우에만 앞에 있는 가장자리 선을 통해 활성화 위치가 선택된다. 반면에, 예컨대, 사용자가 센서 필드에 손가락을 올리고 위치 주변으로 손가락을 천천히 움직이거나 필요한 경우 다음 위치로 움직이면 사용자 요청에 따라 활성화 위치 결정이 손가락에서 터치한 영역의 중심에서 이루어진다.
도 4에서, 다른 실시예로서 조작유닛은 막대(30)로 표시된 단계를 선택하여 예컨대 오디오 시스템의 볼륨을 조절할 수 있는 터치 감응형 조작패널(20)로 도시된다. 즉, 손가락의 활성화 위치가 막대(30) 영역에 오게 되면 곧바로 해당 볼륨이 설정된다. 도 4의 상단 그림에서, 조작 손가락은 오른쪽에서 조작패널(20)에 접근한다. 하단 그림은 손가락이 오른쪽 가장자리에서 네 번째 기둥(30)까지 조작패널(20)로 이동해서 전체 면에 놓이게 되면 점선 센서 신호 필드(27)이 생성되는 상태를 도시한다. 조작 방식에 근거하여 사용자가 네 번째 기둥에 할당된 볼륨을 설정하려는 것이 분명하기 때문에, 손가락 터치로 작동된 활성화 위치(28)가 손가락의 움직임 방향으로 앞에 있는 가장자리 선에서 또는 가장자리 선의 영역 내에서 결정된다. 조작패널에서 손가락의 이동은 활성화 위치(28)의 변화와 일치한다. 따라서 사용자 요청에 손가락 위치를 명확하게 할당시켜 사용자에게 쉬운 조작이 보장된다. 이와 달리 사용자는 원하는 볼륨을 활성화하려면 손가락을 조작패널에 얼마나 멀리 밀어야 하는지 애매하기 때문에 상기 실시예에 따라 한계값 이상의 움직임 속도에서 센서면(27)의 중심에서 특정 활성화 위치(24)가 적합하지 않게 될 수 있다. 특히 손가락을 해당 속도 피드 모션으로 조작패널(20)로 미는 경우에 앞에 있는 가장자리 선을 통해 활성화 위치를 결정하여 사용자에게 즉흥적이고 타당한 반응을 전달한다. 중심을 통해 활성화 위치가 산출되는 한계값 이하의 느린 움직임이나 준정적 움직임에서 바람직하게는 조작패널(20)의 정적 손가락 접촉 위치에서 시작하여 손가락 접촉 위치 다음의 움직임에서 계속 중심을 통해 활성화 위치가 결정되어 사용자에게 있어서 산출된 활성화 위치가 손가락 움직임과 관련하여 명백하게 된다.
본 발명에 따른 조작유닛으로 스티어링 휠, 도어 버튼 또는 대시보드에 배치된 조작면의 조작을 크게 개선할 수 있다. 특히 공간상의 배치로 인해 사용자에게 전체 면을 접촉한 손가락으로 조작을 용이하게 해준다. 조작면은 예컨대 정적 필드가 있는 터치 감응형 센서가 있는 정전 용량형 조작면, 예컨대 기계적인 스위치가 사용된다. 다른 실시예에서, 조작면은 할당된 모니터를 터치하여 조작할 수 있는 터치 패드 또는 터치 디스플레이이다.
본 발명이 바람직한 예시적인 실시예를 통해 상세하게 도시되고 설명되었지만, 본 발명은 공개된 실시예로 국한되지 않으며 본 발명의 보호 범위를 벗어나지 않고 당업자에 의해 다른 변형이 유도될 수 있다. 따라서 다수의 변형 가능성이 존재한다는 사실은 명확하다. 예로서 제시된 실시예는 실제로 단지 예시일 뿐이며 어떤 식으로든 본 발명의 범위나 적용 가능성 또는 구성을 제한하는 것으로 해석되어서는 안 된다는 사실 또한 명확하다. 오히려, 상기 명세서와 그림 설명은 당업자에게 예시적인 실시예를 구체적으로 구현할 수 있도록 한다. 이때 당업자는 공개된 발명 아이디어를 알면 명세서에 있는 구체적인 설명과 같이 청구항과 그 법적 부합으로 정의되는 보호 영역을 벗어나지 않고 예컨대 예시적인 실시예에서 언급된 개별 요소의 기능이나 배치와 관련하여 다양한 변형을 할 수 있다.

Claims (9)

  1. 터치 감응형 조작면(3)과 컨트롤 유닛(5)이 있는 조작유닛으로서, 이때 조작면(3)은 사용자의 손가락으로 터치된 조작면(3)의 영역을 검출하고 터치된 영역에 대한 정보를 컨트롤 유닛(5)으로 전송하기 위해 설계되었으며, 이때 컨트롤 유닛(5)은 터치된 영역에 대한 정보에서 조작면(3)의 활성화 위치를 산출하도록 설계되었고 활성화 위치가 조작면(3)의 미리 정의된 필드에 있을 때 필드에 할당된 기능이 실행되며,
    조작면(3)의 터치 영역을 지나는 산출된 움직임 속도가 미리 정의된 한계값을 초과할 때 컨트롤 유닛(5)은 손가락 단부를 제한하면서 조작면(3)의 표면에서 손가락의 움직임 방향으로 앞에 있는 가장자리 선에서 또는 가장자리 선의 영역 내에서 활성화 위치를 결정하고, 그렇지 아니한 경우 한 시점에 손가락이 터치한 조작면(3)의 모든 영역의 중심에서 활성화 위치가 산출되도록 설계된 것을 특징으로 하는 조작유닛(1).
  2. 제1항에 있어서,
    컨트롤 유닛(5)은 활성화 위치를 가장 높은 신호 값의 위치에서 측정하거나 터치 영역에서 조작면(3)에서 감지된 신호 값의 가장자리 선에서 또는 가장자리 선의 영역 내에서 중심에서 측정하도록 설계된 것을 특징으로 하는 조작유닛(1).
  3. 제1항부터 제2항 중 어느 한 항에 있어서
    검출 영역이 조작면(3)을 향하는 카메라 유닛(7)이 있는 조작유닛으로 이때 컨트롤 유닛(5)이 손가락의 움직임 방향을 카메라 유닛(7)의 데이터에서 산출하도록 설계된 조작유닛(1).
  4. 제1항부터 제2항 중 어느 한 항에 있어서
    컨트롤 유닛(5)이 조작면(3) 터치 영역의 시간 경과에서 손가락의 움직임 방향을 산출하도록 설계된 조작유닛(1)
  5. 상기 항 중 어느 한 항에 있어서,
    컨트롤 유닛(5)으로 조작면(3) 가장자리에서 손가락 터치가 감지될 경우 컨트롤 유닛(5)이 손가락 단부를 제한하는 가장자리 선의 영역 또는 위치에 활성화 위치를 적용하도록 설계된 조작유닛(1).
  6. 제5항에 있어서,
    터치 영역의 면적이 조작면(3) 가장자리에서 시간이 경과하면서 조작면(3)의 중심 방향으로 증가할 경우에만 컨트롤 유닛(5)이 활성화 영역을 손가락 단부의 영역을 제한하는 가장자리 선의 영역이나 위치에 적용하도록 설계된 조작유닛(1).
  7. 상기 항 중 어느 한 항에 있어서,
    신호 값 높이의 미리 정의된 임계값이 조작면(3)의 해당 위치에서 초과되는 경우에만 조작면(3)에서 해당 위치가 터치된 것으로 분류되도록 컨트롤 유닛(5)이 설계된 조작유닛(1).
  8. 상기 항 중 어느 한 항에 있어서,
    조작면(3)이 터치 감응형 화면으로 설계된 조작유닛(1).
  9. 상기 항 중 어느 한 항에 따른 조작유닛(1)과, 스티어링 휠(10)의 스티어링 휠 림에 배치된 접촉 센서 유닛(12)을 포함하는 스티어링 휠(10)로서, 이때 접촉 센서 유닛(12)은 손가락의 움직임 방향을 조작면(3)의 표면에서 조작유닛(1)과 관련하여 스티어링 휠(10)에서 손의 터치 위치에 기초하여 결정하고 컨트롤 유닛(5)에 특정 움직임 방향을 전송하도록 설계된 스티어링 휠(10).
KR1020227043945A 2020-06-30 2021-06-21 터치 감응형 조작면이 있는 조작유닛 KR20230010734A (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102020003923.5 2020-06-30
DE102020003923.5A DE102020003923B3 (de) 2020-06-30 2020-06-30 Bedieneinheit mit einer berührungssensitiven Bedienfläche
PCT/EP2021/066817 WO2022002665A1 (de) 2020-06-30 2021-06-21 Bedieneinheit mit einer berührungssensitiven bedienfläche

Publications (1)

Publication Number Publication Date
KR20230010734A true KR20230010734A (ko) 2023-01-19

Family

ID=76624049

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020227043945A KR20230010734A (ko) 2020-06-30 2021-06-21 터치 감응형 조작면이 있는 조작유닛

Country Status (7)

Country Link
US (1) US11938823B2 (ko)
EP (1) EP3990301B1 (ko)
JP (1) JP7361230B2 (ko)
KR (1) KR20230010734A (ko)
CN (1) CN115867455A (ko)
DE (1) DE102020003923B3 (ko)
WO (1) WO2022002665A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116339607B (zh) * 2023-05-29 2023-08-08 上海泰矽微电子有限公司 触控检测方法、装置、系统、触控设备和介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0876927A (ja) * 1994-08-31 1996-03-22 Brother Ind Ltd 情報処理装置
US6392636B1 (en) 1998-01-22 2002-05-21 Stmicroelectronics, Inc. Touchpad providing screen cursor/pointer movement control
US20070097096A1 (en) 2006-03-25 2007-05-03 Outland Research, Llc Bimodal user interface paradigm for touch screen devices
US20080088597A1 (en) * 2006-10-11 2008-04-17 Apple Inc. Sensor configurations in a user input device
JP2008192012A (ja) 2007-02-06 2008-08-21 Sharp Corp 座標入力装置、座標入力方法、制御プログラム、およびコンピュータ読取可能な記録媒体
JP5269648B2 (ja) 2009-03-02 2013-08-21 パナソニック株式会社 携帯端末装置及び入力装置
US8510665B2 (en) * 2009-03-16 2013-08-13 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
JP2011081447A (ja) 2009-10-02 2011-04-21 Seiko Instruments Inc 情報処理方法及び情報処理装置
US8587532B2 (en) 2009-12-18 2013-11-19 Intel Corporation Multi-feature interactive touch user interface
DE102011111123A1 (de) * 2011-08-20 2013-02-21 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Vorrichtung zur Steuerung von Funktionen elektronischer Ein-richtungen eines Fahrzeugs und Fahrzeug mit der Vorrichtung
US20140304636A1 (en) * 2011-08-31 2014-10-09 Qoros Automotive Co., Ltd. Vehicle's interactive system
JP5904440B2 (ja) * 2012-04-20 2016-04-13 シャープ株式会社 操作入力装置、操作入力方法およびプログラム
BR112014028774B1 (pt) * 2012-05-18 2022-05-10 Apple Inc Método, dispositivo eletrônico, meio de armazenamento legível por computador e aparelho de processamento de informações
DE102013215905A1 (de) * 2013-08-12 2015-02-12 Volkswagen Aktiengesellschaft Bedienvorrichtung mit berührungsempfindlicher Oberfläche
DE102013020795A1 (de) 2013-12-12 2015-06-18 Man Truck & Bus Ag Verfahren und Anordnung zum Steuern von Funktionen eines Kraftfahrzeugs
US9248840B2 (en) * 2013-12-20 2016-02-02 Immersion Corporation Gesture based input system in a vehicle with haptic feedback
DE102014118956A1 (de) * 2014-12-18 2016-06-23 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben einer Bedienanordnung für ein Kraftfahrzeug mit Bereitstellen von zwei Bedienmodi für ein Bedienelement, Bedienanordnung sowie Kraftfahrzeug

Also Published As

Publication number Publication date
DE102020003923B3 (de) 2021-11-04
EP3990301A1 (de) 2022-05-04
JP2023527587A (ja) 2023-06-29
WO2022002665A1 (de) 2022-01-06
JP7361230B2 (ja) 2023-10-13
US20230264570A1 (en) 2023-08-24
US11938823B2 (en) 2024-03-26
CN115867455A (zh) 2023-03-28
EP3990301B1 (de) 2023-05-10

Similar Documents

Publication Publication Date Title
KR101492678B1 (ko) 전자 장치를 위한 입력 방법, 전자 시스템을 위한 입력 장치 및 컴퓨터 판독 가능한 저장 매체
US9436282B2 (en) Contactor-based haptic feedback generation
JP5832784B2 (ja) タッチパネルシステムおよびそれを用いた電子機器
US8139028B2 (en) Proximity sensor and method for indicating extended interface results
US20080192024A1 (en) Operator distinguishing device
US20090167719A1 (en) Gesture commands performed in proximity but without making physical contact with a touchpad
US20110221684A1 (en) Touch-sensitive input device, mobile device and method for operating a touch-sensitive input device
JP5640486B2 (ja) 情報表示装置
KR20180041049A (ko) 상황 압력 감지 햅틱 응답
GB2509599A (en) Identification and use of gestures in proximity to a sensor
JP2010134895A (ja) 選択的入力信号拒否及び修正
EP3617834B1 (en) Method for operating handheld device, handheld device and computer-readable recording medium thereof
JP2013546066A (ja) デバイスとのユーザのタッチ及び非タッチベースのインタラクション
KR101601268B1 (ko) 휴대용 단말기 및 그 사용자 인터페이스 제어 방법
US20110248946A1 (en) Multi-mode prosthetic device to facilitate multi-state touch screen detection
US20120075202A1 (en) Extending the touchable area of a touch screen beyond the borders of the screen
US20140282279A1 (en) Input interaction on a touch sensor combining touch and hover actions
US9367169B2 (en) Method, circuit, and system for hover and gesture detection with a touch screen
US20140298275A1 (en) Method for recognizing input gestures
KR20230010734A (ko) 터치 감응형 조작면이 있는 조작유닛
JPWO2012111227A1 (ja) タッチ式入力装置、電子機器および入力方法
US20140210739A1 (en) Operation receiver
KR100859882B1 (ko) 터치 기반 사용자 입력 장치상의 듀얼 포인트 사용자입력을 인지하기 위한 방법 및 장치
US20180292924A1 (en) Input processing apparatus
KR101546966B1 (ko) 제스처 판단 방법 및 접촉 감지 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right