KR20220071410A - 전자 장치 및 이의 제어 방법 - Google Patents

전자 장치 및 이의 제어 방법 Download PDF

Info

Publication number
KR20220071410A
KR20220071410A KR1020200158479A KR20200158479A KR20220071410A KR 20220071410 A KR20220071410 A KR 20220071410A KR 1020200158479 A KR1020200158479 A KR 1020200158479A KR 20200158479 A KR20200158479 A KR 20200158479A KR 20220071410 A KR20220071410 A KR 20220071410A
Authority
KR
South Korea
Prior art keywords
icon
members
user touch
guide voice
area
Prior art date
Application number
KR1020200158479A
Other languages
English (en)
Inventor
박상호
김광연
김수암
김지웅
박준재
양덕조
양순배
이소용
장보은
주영웅
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020200158479A priority Critical patent/KR20220071410A/ko
Priority to PCT/KR2021/013803 priority patent/WO2022114507A1/ko
Publication of KR20220071410A publication Critical patent/KR20220071410A/ko
Priority to US18/198,372 priority patent/US20230289058A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05BELECTRIC HEATING; ELECTRIC LIGHT SOURCES NOT OTHERWISE PROVIDED FOR; CIRCUIT ARRANGEMENTS FOR ELECTRIC LIGHT SOURCES, IN GENERAL
    • H05B6/00Heating by electric, magnetic or electromagnetic fields
    • H05B6/64Heating using microwaves
    • H05B6/6435Aspects relating to the user interface of the microwave heating apparatus

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치가 개시된다. 본 전자 장치는 패널, 패널의 하부에 배치되며, 패널의 복수의 영역 각각에 대한 사용자 터치를 감지하는 센서, 패널의 복수의 영역 중 적어도 하나의 영역의 상부에 부착 가능하며, 전자 장치에서 수행 가능한 기능에 대응되는 아이콘이 도시된 복수의 아이콘 부재 및 복수의 아이콘 부재 중 하나의 아이콘 부재에 대한 사용자 터치가 발생하면, 사용자 터치가 발생한 아이콘 부재에 대응되는 기능을 수행하는 프로세서를 포함한다.

Description

전자 장치 및 이의 제어 방법{ELECTRONIC APPARATUS AND CONTROL METHOD THEREOF}
본 개시는 전자 장치 및 이의 제어 방법에 관한 것으로, 보다 상세하게는 사용자가 터치 UI의 위치를 자유롭게 변경 가능한 전자 장치 및 이의 제어 방법에 관한 것이다.
전자 기술의 발달에 힘입어 다양한 유형의 전자 제품들이 개발 및 보급되고 있으며, 이러한 전자 장치들은 사용자 명령을 입력 받기 위한 다양한 UI를 구비하고 있다. 사용자 명령을 입력 받기 위한 UI의 일 예로, 사용자의 터치를 통해 사용자 명령을 입력 받는 터치 패널이 많이 사용되고 있다.
다만, 종래에는 사용자에게 제공하는 기능이 정해져 있는 전자 장치(예컨대, 전자레인지, 오븐 등의 생활 가전 제품)에서, 수행 가능한 기능을 나타내는 메뉴를 표시하고 각 메뉴에 대한 사용자 터치를 입력 받기 위한 터치 패널의 경우, 터치 패널 상에서 각각의 메뉴가 표시된 위치가 고정되어 있어 사용자가 이를 변경할 수 없었으므로, 사용자의 니즈를 충족시키지 못하는 문제가 있었다.
본 개시는 상술한 문제점을 해결하기 위한 것으로, 본 개시의 목적은 전자 장치에서 수행 가능한 기능에 대응되는 복수의 아이콘 부재를 터치 패널 상의 임의의 위치에 부착 가능한 전자 장치 및 이의 제어 방법을 제공함에 있다.
이상과 같은 목적을 달성하기 위해 본 개시의 일 실시예에 따른 전자 장치는, 패널, 상기 패널의 하부에 배치되며, 상기 패널의 복수의 영역 각각에 대한 사용자 터치를 감지하는 센서, 상기 패널의 복수의 영역 중 적어도 하나의 영역의 상부에 부착 가능하며, 상기 전자 장치에서 수행 가능한 기능에 대응되는 아이콘이 도시된 복수의 아이콘 부재 및 상기 복수의 아이콘 부재 중 하나의 아이콘 부재에 대한 사용자 터치가 발생하면, 상기 사용자 터치가 발생한 아이콘 부재에 대응되는 기능을 수행하는 프로세서를 포함한다.
이 경우, 상기 복수의 아이콘 부재 각각은 서로 다른 유전율을 가지며, 상기 프로세서는, 상기 센서에서 감지한 센싱 값에 기초하여 상기 복수의 아이콘 부재 중 사용자 터치가 발생한 아이콘 부재를 확인할 수 있다.
이 경우, 상기 프로세서는, 상기 복수의 영역 중 커패시턴스 변화가 가장 큰 영역 및 상기 가장 큰 영역의 주변 영역의 커패시턴스 변화 합산 값에 기초하여 사용자 터치가 발생한 아이콘 부재를 확인할 수 있다.
한편, 상기 전자 장치는 상기 복수의 영역 중 상기 복수의 아이콘 부재가 위치하는 영역 및 상기 영역에 대응되는 기능 정보를 저장하는 메모리를 더 포함하고, 상기 프로세서는, 상기 복수의 영역 중 상기 사용자 터치가 발생한 영역을 확인하고, 상기 확인된 영역에 대응되는 기능 정보를 확인하고, 상기 확인된 기능 정보에 대응되는 기능을 수행할 수 있다.
한편, 상기 전자 장치는 스피커를 더 포함하고, 상기 프로세서는, 상기 복수의 아이콘 부재의 부착을 가이드하는 제1 가이드 음성 및 부착된 아이콘 부재를 터치하도록 가이드하는 제2 가이드 음성을 출력하도록 상기 스피커를 제어할 수 있다.
이 경우, 상기 제1 가이드 음성은 상기 복수의 아이콘 부재 중 하나의 아이콘 부재의 부착을 가이드하고, 상기 제2 가이드 음성은 부착된 아이콘 부재를 터치하도록 가이드하며, 상기 프로세서는, 상기 복수의 아이콘 부재 각각에 대하여 상기 제1 가이드 음성 및 상기 제2 가이드 음성을 각각 출력하도록 상기 스피커를 제어할 수 있다.
이 경우, 상기 전자 장치는 메모리를 더 포함하고, 상기 프로세서는, 상기 제2 가이드 음성이 출력된 후 상기 복수의 영역 중 사용자 터치가 발생한 영역을 확인하고, 상기 사용자 터치가 발생한 영역을 상기 부착된 아이콘 부재가 위치하는 영역으로 상기 메모리에 저장할 수 있다.
한편, 상기 전자 장치는 메모리를 더 포함하고, 상기 프로세서는, 상기 제2 가이드 음성이 출력된 후 상기 센서의 센싱 값에 기초하여 상기 복수의 아이콘 부재 중 상기 부착된 아이콘 부재를 식별하고, 상기 복수의 영역 중 사용자 터치가 발생한 영역을 확인하고, 상기 사용자 터치가 발생한 영역을 상기 식별된 아이콘 부재가 위치하는 영역으로 상기 메모리에 저장할 수 있다.
한편, 상기 전자 장치는 메모리를 더 포함하고, 상기 제1 가이드 음성은 상기 복수의 아이콘 부재의 부착을 가이드하고, 상기 제2 가이드 음성은 부착된 복수의 아이콘 부재를 순차적으로 터치하도록 가이드하며, 상기 프로세서는, 상기 제2 가이드 음성이 출력된 후 상기 복수의 영역 중 사용자 터치가 발생한 영역 및 사용자 터치 발생 순서를 확인하고, 상기 사용자 터치가 발생한 순서에 기초하여 상기 사용자 터치가 발생한 영역을 각각 상기 복수의 아이콘 부재가 위치하는 영역으로 상기 메모리에 저장할 수 있다.
한편, 상기 전자 장치는 메모리를 더 포함하고, 상기 제1 가이드 음성은 상기 복수의 아이콘 부재의 부착을 가이드하고, 상기 제2 가이드 음성은 부착된 복수의 아이콘 부재를 각각 서로 다른 횟수로 터치하도록 가이드하며, 상기 프로세서는, 상기 제2 가이드 음성이 출력된 후 상기 복수의 영역 중 사용자 터치가 발생한 영역 및 사용자 터치 발생 횟수를 확인하고, 상기 사용자 터치가 발생한 횟수에 기초하여 상기 사용자 터치가 발생한 영역을 각각 상기 복수의 아이콘 부재가 위치하는 영역으로 상기 메모리에 저장할 수 있다.
한편, 본 개시의 일 실시예에 따른 전자 장치의 제어 방법은, 상기 전자 장치에서 수행 가능한 기능에 대응되는 아이콘이 도시된 복수의 아이콘 부재를 패널에 부착하도록 가이드하는 단계 및 상기 복수의 아이콘 부재 중 하나의 아이콘 부재에 대한 사용자 터치가 발생하면, 상기 사용자 터치가 발생한 아이콘 부재에 대응되는 기능을 수행하는 단계를 포함한다.
이 경우, 상기 복수의 아이콘 부재 각각은 서로 다른 유전율을 가지며, 상기 패널의 복수의 영역 각각에 대한 사용자 터치를 감지하는 센서를 통해 감지한 센싱 값에 기초하여 상기 복수의 아이콘 부재 중 사용자 터치가 발생한 아이콘 부재를 확인하는 단계를 더 포함할 수 있다.
이 경우, 상기 사용자 터치가 발생한 아이콘 부재를 확인하는 단계는, 상기 복수의 영역 중 커패시턴스 변화가 가장 큰 영역 및 상기 가장 큰 영역의 주변 영역의 커패시턴스 변화 합산 값에 기초하여 사용자 터치가 발생한 아이콘 부재를 확인할 수 있다.
한편, 상기 복수의 영역 중 상기 복수의 아이콘 부재가 위치하는 영역 및 상기 영역에 대응되는 기능 정보를 메모리에 저장하는 단계, 상기 복수의 영역 중 상기 사용자 터치가 발생한 영역을 확인하는 단계 및 상기 확인된 영역에 대응되는 기능 정보를 확인하는 단계를 더 포함하고, 상기 기능을 수행하는 단계는, 상기 확인된 기능 정보에 대응되는 기능을 수행할 수 있다.
한편, 상기 가이드하는 단계는, 상기 복수의 아이콘 부재의 부착을 가이드하는 제1 가이드 음성을 출력하는 단계 및 부착된 아이콘 부재를 터치하도록 가이드하는 제2 가이드 음성을 출력하는 단계를 포함할 수 있다.
한편, 상기 제1 가이드 음성은 상기 복수의 아이콘 부재 중 하나의 아이콘 부재의 부착을 가이드하고, 상기 제2 가이드 음성은 부착된 아이콘 부재를 터치하도록 가이드하며, 상기 가이드하는 단계는, 상기 복수의 아이콘 부재 각각에 대하여 상기 제1 가이드 음성 및 상기 제2 가이드 음성을 각각 출력할 수 있다.
이 경우, 상기 제2 가이드 음성이 출력된 후 상기 복수의 영역 중 사용자 터치가 발생한 영역을 확인하는 단계 및 상기 사용자 터치가 발생한 영역을 상기 부착된 아이콘 부재가 위치하는 영역으로 메모리에 저장하는 단계를 더 포함할 수 있다.
한편, 상기 복수의 아이콘 부재 각각은 서로 다른 유전율을 가지며, 상기 제2 가이드 음성이 출력된 후 센서의 센싱 값에 기초하여 상기 복수의 아이콘 부재 중 상기 부착된 아이콘 부재를 식별하는 단계, 상기 복수의 영역 중 사용자 터치가 발생한 영역을 확인하는 단계 및 상기 사용자 터치가 발생한 영역을 상기 식별된 아이콘 부재가 위치하는 영역으로 메모리에 저장하는 단계를 더 포함할 수 있다.
한편, 상기 제1 가이드 음성은 상기 복수의 아이콘 부재의 부착을 가이드하고, 상기 제2 가이드 음성은 부착된 복수의 아이콘 부재를 순차적으로 터치하도록 가이드하며, 상기 제2 가이드 음성이 출력된 후 상기 복수의 영역 중 사용자 터치가 발생한 영역 및 사용자 터치 발생 순서를 확인하는 단계 및 상기 사용자 터치가 발생한 순서에 기초하여 상기 사용자 터치가 발생한 영역을 각각 상기 복수의 아이콘 부재가 위치하는 영역으로 메모리에 저장하는 단계를 더 포함할 수 있다.
한편, 상기 제1 가이드 음성은 상기 복수의 아이콘 부재의 부착을 가이드하고, 상기 제2 가이드 음성은 부착된 복수의 아이콘 부재를 각각 서로 다른 횟수로 터치하도록 가이드하며, 상기 제2 가이드 음성이 출력된 후 상기 복수의 영역 중 사용자 터치가 발생한 영역 및 사용자 터치 발생 횟수를 확인하는 단계 및 상기 사용자 터치가 발생한 횟수에 기초하여 상기 사용자 터치가 발생한 영역을 각각 상기 복수의 아이콘 부재가 위치하는 영역으로 메모리에 저장하는 단계를 더 포함할 수 있다.
도 1은 본 개시의 일 실시예에 따른 전자 장치를 개략적으로 나타낸 도면이다.
도 2는 본 개시의 일 실시예에 따른 전자 장치의 패널 상에 복수의 아이콘 부재가 임의의 위치에 부착된 것을 나타낸 도면이다.
도 3은 본 개시의 일 실시예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.
도 4는 본 개시의 일 실시예에 따른 전자 장치의 세부 구성을 설명하기 위한 블록도이다.
도 5는 본 개시의 일 실시예에 따른 센서의 구성을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시예에 따른 센서가 패널의 복수의 영역 중 적어도 하나의 영역에 대한 사용자 터치를 감지하는 동작을 설명하기 위한 도면이다.
도 7은 복수의 아이콘 부재의 부착을 가이드하는 제1 가이드 음성에 대해 설명하기 위한 도면이다.
도 8은 부착된 아이콘 부재를 터치하도록 가이드하는 제2 가이드 음성에 대해 설명하기 위한 도면이다.
도 9는 제2 가이드 음성의 다른 예를 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시예에 따른 전자 장치의 제어 방법을 설명하기 위한 도면이다.
이하에서 설명되는 실시 예는 본 개시의 이해를 돕기 위하여 예시적으로 나타낸 것이며, 본 개시는 여기서 설명되는 실시 예들과 다르게, 다양하게 변형되어 실시될 수 있음이 이해되어야 할 것이다. 다만, 이하에서 본 개시를 설명함에 있어서, 관련된 공지 기능 혹은 구성요소에 대한 구체적인 설명이 본 개시의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명 및 구체적인 도시를 생략한다. 또한, 첨부된 도면은 개시의 이해를 돕기 위하여 실제 축척대로 도시된 것이 아니라 일부 구성요소의 치수가 과장되게 도시될 수 있다.
본 명세서 및 청구범위에서 사용되는 용어는 본 개시의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다.
본 개시의 설명에 있어서 각 단계의 순서는 선행 단계가 논리적 및 시간적으로 반드시 후행 단계에 앞서서 수행되어야 하는 경우가 아니라면 각 단계의 순서는 비제한적으로 이해되어야 한다. 즉, 위와 같은 예외적인 경우를 제외하고는 후행 단계로 설명된 과정이 선행단계로 설명된 과정보다 앞서서 수행되더라도 개시의 본질에는 영향이 없으며 권리범위 역시 단계의 순서에 관계없이 정의되어야 한다.
본 명세서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용될 수 있다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
그리고, 본 명세서에서는 본 개시의 각 실시 예의 설명에 필요한 구성요소를 설명한 것이므로, 반드시 이에 한정되는 것은 아니다. 따라서, 일부 구성요소는 변경 또는 생략될 수도 있으며, 다른 구성요소가 추가될 수도 있다. 또한, 서로 다른 독립적인 장치에 분산되어 배치될 수도 있다.
나아가, 이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 개시의 실시 예를 상세하게 설명하지만, 본 개시가 실시 예들에 의해 제한되거나 한정되는 것은 아니다.
이하에서는 도면을 참고하여 본 개시에 대해 상세하게 설명하도록 한다.
도 1은 본 개시의 일 실시예에 따른 전자 장치를 개략적으로 나타낸 도면이다.
도 1을 참고하면, 전자 장치(100)는 본체(10), 패널(110) 및 패널(110) 상부에 부착 가능한 복수의 아이콘 부재(130)를 포함할 수 있다.
전자 장치(100)는 다양한 기능을 수행함으로써 사용자에게 서비스를 제공하는 다양한 장치일 수 있다. 예를 들어, 전자 장치(100)는 전자레인지, 오븐, 인덕션, 냉장고, 세탁기, 건조기, 공기조화기, 청소기, TV, 데스크탑 PC, 노트북, 스마트폰, 태블릿 PC, 웨어러블 기기 등으로 구현될 수 있다. 다만, 이에 한정되는 것은 아니며, 전자 장치(100)는 터치 패널을 통해 사용자의 터치 입력을 수신하는 장치라면 어떠한 장치라도 무방하다. 도 1은 전자 장치(100)가 전자레인지로 구현된 일 예를 나타낸 것이다.
패널(110)은 사용자에게 제공 가능한 서비스를 표시하기 위해 수행 가능한 기능을 나타내는 아이콘을 표시하고, 사용자의 터치 입력을 수신하기 위한 터치 패널일 수 있다. 패널(110)은 본체(10)의 전면에 배치됨으로써, 사용자의 접근성을 높일 수 있다.
전자 장치(100)는 패널(110) 상에 제공되는 각각의 아이콘에 대한 사용자 터치 입력에 따라 해당 아이콘에 대응되는 기능을 수행할 수 있다.
이하, 도 2를 참고하여 패널(110) 상에 부착되는 복수의 아이콘 부재(130)에 대해 설명한다.
도 2는 본 개시의 일 실시예에 따른 전자 장치의 패널 상에 복수의 아이콘 부재가 임의의 위치에 부착된 것을 나타낸 도면이다.
도 2를 참고하여 전자 장치(100)가 전자레인지인 경우를 예로 들면, 복수의 아이콘 부재(130)에는 레인지(131), 그릴(132), 자동조리(133)와 같이 전자 장치(100)가 제공하는 다양한 기능에 대응되는 아이콘이 도시되거나, 확인(134), 시작(135), 취소/절전(136)과 같이 전자 장치(100)를 제어하기 위한 사용자 명령에 대응되는 아이콘이 도시될 수 있다.
이 경우, 아이콘은 이미지, 텍스트 중 적어도 하나를 포함할 수 있고, 아이콘 부재(130) 상에 인쇄되는 형태로 도시될 수 있다. 다만, 이에 한정되는 것은 아니며, 아이콘은 양각, 음각과 같은 입체적인 형태로 아이콘 부재(130) 상에 도시될 수도 있다.
전자 장치(100)는 패널(110) 상에 부착된 복수의 아이콘 부재(130) 각각의 부착 위치를 확인하고, 각각의 아이콘 부재(130)의 위치 정보를 메모리(150)에 저장할 수 있다. 이에 따라, 전자 장치(100)는 이후 사용자가 아이콘 부재를 터치하면 터치 위치를 복수의 아이콘 부재(130) 각각의 위치 정보와 매칭하여 사용자 터치가 발생한 아이콘 부재를 확인하고, 이에 대응되는 기능을 수행할 수 있다. 이와 관련한 상세한 설명은 이후 도면들을 참고하여 후술하기로 한다.
도 3은 본 개시의 일 실시예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.
도 3을 참고하면, 전자 장치(100)는 센서(120), 프로세서(140), 메모리(150), 스피커(160) 및 디스플레이(170)를 포함할 수 있다.
센서(120)는 패널(110)의 하부에 배치되며, 패널(110)의 복수의 영역 각각에 대한 사용자 터치를 감지할 수 있으며, 감지 결과에 대한 전기적 신호를 생성하여 출력할 수 있다. 센서(120)는 전기적 신호를 프로세서(140)로 전달하거나, 감지 결과를 전자 장치(100)의 메모리(150) 또는 외부 장치에 저장할 수 있다.
센서(120)는 정전 용량을 감지하는 정전식 센서일 수 있다. 다만, 이에 한정되는 것은 아니며, 센서(120)는 터치 입력을 감지할 수 있는 다양한 종류의 센서로 구현될 수 있다. 전자 장치(100)는 센서(120)의 센싱 값을 통해 사용자 터치가 발생한 위치를 확인할 수 있으며, 복수의 아이콘 부재(130)의 부착 위치를 확인할 수 있다. 전자 장치(100)가 센서(120)의 사용자 터치 감지를 통해 복수의 아이콘 부재(130) 각각의 위치 정보를 확인하는 동작과 관련한 상세한 설명은 도 5 내지 도 6에서 후술하기로 한다.
프로세서(140)는 전자 장치(100)의 전반적인 동작을 제어할 수 있다. 이를 위해, 프로세서(140)는 RAM(미도시), ROM(미도시), 그래픽 처리부(미도시), 메인 CPU(미도시), 제1 내지 n 인터페이스(미도시), 버스(미도시)를 포함할 수 있다. 이때, RAM(미도시), ROM(미도시), 그래픽 처리부(미도시), 메인 CPU(미도시), 제1 내지 n 인터페이스(미도시) 등은 버스(미도시)를 통해 서로 연결될 수 있다.
프로세서(140)는 복수의 아이콘 부재(130) 중 하나의 아이콘 부재에 대한 사용자 터치가 발생하면, 사용자 터치가 발생한 아이콘 부재에 대응되는 기능을 수행할 수 있다. 예를 들어, 프로세서(140)는 센서(120)의 센싱 값에 기초하여 패널(110)의 복수의 영역 중 사용자 터치가 발생한 영역을 확인하고, 확인된 영역에 대응되는 기능 정보를 확인하고, 확인된 기능 정보에 대응되는 기능을 수행할 수 있다.
한편, 프로세서(140)는 복수의 아이콘 부재(130)를 패널(110)에 부착하고 부착된 아이콘 부재(130)를 터치하도록 가이드하는 가이드 메시지를 제공하도록 스피커(160), 디스플레이(170) 등의 출력 인터페이스를 제어할 수 있다. 이와 관련한 상세한 설명은 도 7 내지 도 9에서 후술하기로 한다.
메모리(150)에는 전자 장치(100) 또는 프로세서(140)의 동작에 필요한 각종 명령어(instruction), 프로그램 또는 데이터가 저장될 수 있다. 예를 들어, 메모리(150)에는 센서(120)에 의해 획득된 정보, 외부 전자 장치(미도시)로부터 수신된 데이터가 저장될 수 있다.
메모리(150)는 S-RAM(Static Random Access Memory), D-RAM(Dynamic Random Access Memory) 등의 휘발성 메모리와, Flash Memory, ROM(Read Only Memory), EPROM(Erasable Programmable Read Only Memory), EEPROM(Electrically Erasable Programmable Read Only Memory) 등의 비휘발성 메모리, 하드디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD) 등으로 구현될 수 있다. 메모리(150)는 프로세서(140)에 의해 액세스되며, 프로세서(140)에 의한 데이터의 독취/기록/수정/삭제/갱신 등이 수행될 수 있다. 본 개시의 메모리라는 용어는 메모리(150), 프로세서(140) 내의 RAM(미도시), ROM(미도시) 또는 전자 장치(100)에 장착되는 메모리 카드(미도시)(예를 들어, micro SD 카드, 메모리 스틱 등)를 포함할 수 있다.
여기서, 프로세서(140)와 메모리(150)는 각각 물리적으로 분리된 구성으로 구현되거나, 프로세서(140)가 메모리(150)를 포함하는 것과 같이 단일 구성으로 구현될 수 있다. 또한, 프로세서(140)는 단일 구성 또는 복수의 구성이 하나의 시스템으로 구현될 수도 있다. 메모리(150) 또한 단일 구성 또는 복수의 구성이 하나의 시스템으로 구현될 수도 있다.
메모리(150)는 패널(110)의 복수의 영역 중 복수의 아이콘 부재(130)가 위치하는 영역 및 상기 영역에 대응되는 기능 정보를 저장할 수 있다.
예를 들어, 프로세서(140)는 복수의 아이콘 부재(130)를 패널(110)에 부착하고 부착된 아이콘 부재(130)를 터치하도록 가이드하는 가이드 메시지를 제공한 후, 복수의 영역 중 사용자 터치가 발생한 영역을 확인하고, 사용자 터치가 발생한 영역을 부착된 아이콘 부재가 위치하는 영역으로 메모리(150)에 저장할 수 있다.
이에 따라, 전자 장치(100)는 사용자가 복수의 아이콘 부재(130)를 패널(110) 상의 임의의 위치에 부착하더라도 각각의 아이콘 부재(130)의 위치를 확인하여 저장할 수 있으며, 이후 특정 아이콘 부재에 대한 사용자 터치가 발생하면 사용자 터치가 발생한 영역을 메모리(150)에 저장된 복수의 아이콘 부재(130)의 위치 정보와 매칭하여 사용자 터치가 발생한 아이콘 부재를 확인함으로써, 해당 아이콘 부재에 대응되는 기능을 수행할 수 있다.
스피커(160)는 전자 장치(100)에 내장되어 오디오 처리부(미도시)에 의해 디코딩이나 증폭, 노이즈 필터링과 같은 다양한 처리 작업이 수행된 각종 오디오 데이터뿐만 아니라 각종 알림음이나 음성 메시지를 직접 소리로 출력할 수 있다.
예를 들어, 스피커(160)는 프로세서(140)의 제어에 따라 복수의 아이콘 부재(130)를 패널(110)에 부착하고 부착된 아이콘 부재(130)를 터치하도록 가이드하는 가이드 음성을 출력할 수 있다.
이 경우, 스피커(160)는 복수의 아이콘 부재(130)의 부착을 가이드하는 제1 가이드 음성 및 부착된 아이콘 부재를 터치하도록 가이드하는 제2 가이드 음성을 순차적으로 출력할 수 있다. 이와 관련한 상세한 설명은 도 7 내지 도 9에서 후술하기로 한다.
디스플레이(170)는 다양한 정보를 표시할 수 있다. 구체적으로, 디스플레이(170)는 영상 처리부(미도시)에서 처리한 영상 데이터를 디스플레이 영역(또는 디스플레이)에 표시할 수 있다.
예를 들어, 디스플레이(170)는 프로세서(140)의 제어에 따라 복수의 아이콘 부재(130)를 패널(110)에 부착하고 부착된 아이콘 부재(130)를 터치하도록 가이드하는 가이드 메시지를 표시할 수 있다.
디스플레이(170)의 적어도 일부는 디스플레이가 구부려지거나 휠 수 있는 플렉서블(flexible) 디스플레이, 디스플레이가 접힐 수 있는 폴더블(foldable) 디스플레이, 디스플레이가 말릴 수 있는 롤러블(rollable) 디스플레이의 형태로 전자 장치(100)의 전면, 측면, 상면, 후면 영역 중 적어도 하나에 결합될 수 있다. 다만, 이에 한정되는 것은 아니며, 디스플레이(170)는 전자 장치(100) 내부에 내장된 것이 아닌 외장된 형태로 구현될 수 있고, 전자 장치(100)와 유선 또는 무선으로 연결된 외장 디스플레이에 영상 데이터를 표시할 수도 있다.
이를 위해, 디스플레이(170)는 LCD(Liquid Crystal Display), LED(Light Emitting Display), OLED(Organic Light Emitting Display), Micro LED, 전자 잉크(e-ink) 등과 같은 형태로 구현될 수 있으며, 다만 이는 일 예일 뿐 이에 한정되지 아니하고 다양하게 변형되어 실시될 수 있다.
도 4는 본 개시의 일 실시예에 따른 전자 장치의 세부 구성을 설명하기 위한 블록도이다.
도 4를 참고하면, 전자 장치(100)는 센서(120), 프로세서(140), 메모리(150), 스피커(160) 및 디스플레이(170) 외에도, 통신 인터페이스(180) 및 입력 인터페이스(190)를 더 포함할 수 있다. 도 3에 도시된 구성 중 도 2에 도시된 구성과 중복되는 부분에 대해서는 자세한 설명을 생략하도록 한다.
통신 인터페이스(180)는 다양한 유형의 통신 방식에 따라 외부 기기(예: 서버, 스마트폰 등)와 통신을 수행하여 다양한 유형의 데이터를 송수신할 수 있다. 이를 위해, 통신 인터페이스(180)는 무선 통신을 수행하는 블루투스 칩(미도시), 와이파이 칩(미도시), 무선 통신 칩(미도시) 및 NFC 칩(미도시), 유선 통신을 수행하는 이더넷 모듈(미도시) 및 USB 모듈(미도시) 중 적어도 하나를 포함할 수 있다. 이 경우, 유선 통신을 수행하는 이더넷 모듈 및 USB 모듈 등은 입출력포트(미도시)를 통하여 외부 기기와 통신을 수행할 수 있다.
여기서, 입출력포트(미도시)는 HDMI 포트, 디스플레이 포트, RGB 포트, DVI(Digital Visual Interface) 포트, 썬더볼트, LAN 포트, USB 포트, 라이트닝 케이블 포트 및 컴포넌트 포트 등 유선 포트로 구현될 수 있다. 입출력포트는 각각의 통신 규격을 통해 다양한 유형의 외부 기기와 통신을 수행하여 다양한 유형의 데이터를 송수신할 수 있다.
입력 인터페이스(190)는 사용자로부터 다양한 방식의 사용자 명령(command)을 수신할 수 있는 구성이며, 수신된 사용자 명령을 프로세서(140)로 전달할 수 있다. 예를 들어, 프로세서(140)는 입력 인터페이스(190)를 통해 전자 장치(100)의 특정 기능을 수행하기 위한 사용자 명령을 입력 받을 수 있다.
입력 인터페이스(190)는 예를 들면, 터치 패널 또는 키를 포함할 수 있다. 터치 패널은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있으며, 이를 위한 제어 회로를 포함할 수 있다. 터치 패널은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다. 키는 예를 들면, 물리적인 버튼 방식, 광학 방식 또는 터치 패널과 결합된 가상의 키패드 방식을 통해 구현될 수 있다. 한편, 입력 인터페이스(190)는 유선 또는 무선으로 연결된 키보드, 마우스, 스마트폰 등과 같은 외부 장치(미도시)를 통해 사용자 명령을 수신할 수 있다.
입력 인터페이스(190)는 전자 장치(100)에 내장되거나 또는 외장된 마이크를 통해 사용자의 음성을 직접 수신할 수 있으며, 디지털 변환부(미도시)에 의해 아날로그 신호인 사용자의 음성을 디지털로 변환하여 오디오 신호를 획득할 수 있다. 또한 일 실시 예로서 입력 인터페이스(190)는 유선 또는 무선으로 연결된 스마트폰 등과 같은 외부 장치(미도시)로부터 아날로그 신호인 사용자의 음성 또는 사용자의 음성이 디지털로 변환된 오디오 신호을 수신할 수 있다. 이 경우, 입력 인터페이스(190) 또는 프로세서(140)는 다양한 음성 인식(Speech Recognition) 알고리즘을 이용하여, STT(Speech-to-Text)와 같이 사용자의 음성을 문자 데이터로 전환할 수 있으며, 문자 데이터를 해석해 그 의미를 인식하여 인식된 의미에 따른 명령을 수행할 수도 있다.
입력 인터페이스(190)가 유선 통신을 수행하는 경우 상술한 입출력포트(미도시)를 통하여 외부 기기와 통신을 수행할 수 있다.
도 5는 본 개시의 일 실시예에 따른 센서의 구성을 설명하기 위한 도면이다.
도 5를 참고하면, 센서(120)는 사용자 터치가 발생한 영역의 횡방향(X축 방향) 좌표를 감지하기 위한 제1 센서(121) 및 종방향(Y축 방향) 좌표를 감지하기 위한 제2 센서(122)를 포함할 수 있다. 이에 따라, 프로세서(140)는 센서(120)의 센싱 값에 기초하여, 사용자 터치가 발생한 영역을 확인할 수 있다.
도 6은 본 개시의 일 실시예에 따른 센서가 패널의 복수의 영역 중 적어도 하나의 영역에 대한 사용자 터치를 감지하는 동작을 설명하기 위한 도면이다.
도 6을 참고하면, 아이콘 부재(130)가 패널(110)에 부착되고 부착된 아이콘 부재(130)에 대한 사용자 터치가 발생하면, 프로세서(140)는 패널(110)의 하부에 배치된 센서(120)의 센싱 값에 기초하여 사용자 터치가 발생한 영역을 확인할 수 있다.
이 경우, 프로세서(140)는 아이콘 부재(130)의 크기에 따라 패널(110)의 복수의 영역 중 하나의 영역 또는 하나 이상의 영역에 대해 사용자 터치가 발생한 것으로 확인할 수 있다.
한편, 복수의 아이콘 부재(130) 각각은 서로 다른 유전율을 가질 수 있다. 이를 위해, 복수의 아이콘 부재(130) 각각은 크기, 두께, 면적, 재질 등이 상이하도록 제작할 수 있다.
복수의 아이콘 부재(130)가 각각 서로 다른 유전율을 가지면, 각각의 아이콘 부재(130)에 대한 사용자 터치 발생 시, 센서(120)를 통해 감지되는 커패시턴스 변화 값이 상이할 수 있다. 이에 따라, 프로세서(140)는 패널(110)의 복수의 영역 각각에 대한 사용자 터치를 감지하는 센서(120)를 통해 감지한 센싱 값에 기초하여 복수의 아이콘 부재(130) 중 사용자 터치가 발생한 아이콘 부재를 확인할 수 있다. 예를 들어, 패널(110)의 복수의 영역 중 커패시턴스 변화가 가장 큰 영역 및 가장 큰 영역의 주변 영역의 커패시턴스 변화 합산 값에 기초하여 사용자 터치가 발생한 아이콘 부재를 확인할 수 있다.
이에 따라, 패널(110)에 부착되는 복수의 아이콘 부재(130)를 식별할 수 있고, 이에 기초하여 각각의 아이콘 부재(130)가 패널(110) 상에 부착된 위치에 대한 정보를 획득할 수 있다.
한편, 전자 장치(100)는 복수의 아이콘 부재의 부착을 가이드하는 제1 가이드 음성 및 부착된 아이콘 부재(130)를 터치하도록 가이드하는 제2 가이드 음성을 출력할 수 있다. 이하, 도 7 내지 도 9를 참고하여 상세하게 설명하도록 한다.
도 7은 복수의 아이콘 부재의 부착을 가이드하는 제1 가이드 음성에 대해 설명하기 위한 도면이고, 도 8 및 도 9는 부착된 아이콘 부재를 터치하도록 가이드하는 제2 가이드 음성에 대해 설명하기 위한 도면이다.
도 7을 참고하면, 전자 장치(100)는 스피커를 통해 아이콘 부재의 부착을 가이드하는 제1 가이드 음성을 출력할 수 있다.
여기에서, 제1 가이드 음성은 복수의 아이콘 부재(130) 중 하나의 아이콘 부재의 부착을 가이드하거나, 복수의 아이콘 부재(130)를 모두 부착하도록 가이드할 수 있다.
제1 가이드 음성이 하나의 아이콘 부재의 부착을 가이드하는 경우, 전자 장치(100)는 기설정된 아이콘 부재, 예컨대 “확인” 아이콘 부재의 부착을 가이드할 수 있다. 사용자는 “확인” 아이콘 부재의 부착을 가이드하는 제1 가이드 음성에 따라 “확인” 아이콘 부재를 패널(110) 상에 원하는 위치에 부착할 수 있다. 그리고, 도 8을 참고하면, 전자 장치(100)는 “확인” 아이콘 부재를 터치하도록 가이드하는 제2 가이드 음성을 출력할 수 있다. 사용자가 제2 가이드 음성에 따라 “확인” 아이콘 부재를 터치하면, 전자 장치(100)는 센서(120)를 통해 사용자 터치가 발생한 위치를 감지하여 사용자 터치가 발생한 영역을 “확인” 아이콘 부재가 위치하는 영역으로 메모리(150)에 저장할 수 있다.
제1 가이드 음성이 복수의 아이콘 부재(130)를 모두 부착하도록 가이드하는 경우, 사용자는 제1 가이드 음성에 따라 복수의 아이콘 부재(130)를 패널(110) 상에 원하는 위치에 각각 부착할 수 있다. 그리고, 도 9를 참고하면, 전자 장치(100)는 복수의 아이콘 부재(130)를 기설정된 순서대로 터치하도록 가이드하는 제2 가이드 음성을 출력할 수 있다. 사용자가 제2 가이드 음성에 따라 복수의 아이콘 부재(130)를 기설정된 순서대로 터치하면, 전자 장치(100)는 센서(120)를 통해 사용자 터치가 발생한 영역 및 사용자 터치 발생 순서를 확인하고, 사용자 터치가 발생한 순서에 기초하여 사용자 터치가 발생한 영역을 각각 복수의 아이콘 부재(130)가 위치하는 영역으로 메모리(150)에 저장할 수 있다.
한편, 제1 가이드 음성이 복수의 아이콘 부재(130)를 모두 부착하도록 가이드하는 경우, 제2 가이드 음성은 부착된 복수의 아이콘 부재(130)를 각각 서로 다른 횟수로 터치하도록 가이드할 수도 있다. 사용자가 제2 가이드 음성에 따라 복수의 아이콘 부재(130)를 기설정된 횟수대로 터치하면, 전자 장치(100)는 센서(120)를 통해 사용자 터치가 발생한 영역 및 사용자 터치 발생 횟수를 확인하고, 사용자 터치가 발생한 횟수에 기초하여 사용자 터치가 발생한 영역을 각각 복수의 아이콘 부재(130)가 위치하는 영역으로 메모리(150)에 저장할 수 있다.
도 10은 본 개시의 일 실시예에 따른 전자 장치의 제어 방법을 설명하기 위한 도면이다.
도 10을 참고하면, 본 개시의 일 실시예에 따른 전자 장치(100)의 제어 방법은 전자 장치(100)에서 수행 가능한 기능에 대응되는 아이콘이 도시된 복수의 아이콘 부재(130)를 패널(110)에 부착하도록 가이드하는 단계(S1010) 및 복수의 아이콘 부재(130) 중 하나의 아이콘 부재에 대한 사용자 터치가 발생하면, 사용자 터치가 발생한 아이콘 부재에 대응되는 기능을 수행하는 단계(S1020)를 포함할 수 있다.
먼저, 전자 장치(100)는 수행 가능한 기능에 대응되는 아이콘이 도시된 복수의 아이콘 부재(130)를 패널(110)에 부착하도록 가이드(S1010)할 수 있다.
여기에서, 복수의 아이콘 부재(130) 각각은 서로 다른 유전율을 가질 수 있다. 이 경우, 각각의 아이콘 부재(130)에 대한 사용자 터치 발생 시, 센서(120)를 통해 감지되는 커패시턴스 변화 값이 상이할 수 있다.
전자 장치(100)는 패널(110)의 복수의 영역 각각에 대한 사용자 터치를 감지하는 센서(120)를 통해 감지한 센싱 값에 기초하여 복수의 아이콘 부재(130) 중 사용자 터치가 발생한 아이콘 부재를 확인할 수 있다.
예를 들어, 패널(110)의 복수의 영역 중 커패시턴스 변화가 가장 큰 영역 및 가장 큰 영역의 주변 영역의 커패시턴스 변화 합산 값에 기초하여 사용자 터치가 발생한 아이콘 부재를 확인할 수 있다.
이에 따라, 패널(110)에 부착되는 복수의 아이콘 부재(130)를 식별할 수 있고, 이에 기초하여 각각의 아이콘 부재(130)가 패널(110) 상에 부착된 위치에 대한 정보를 획득할 수 있다.
한편, 전자 장치(100)는 복수의 아이콘 부재의 부착을 가이드하는 제1 가이드 음성 및 부착된 아이콘 부재(130)를 터치하도록 가이드하는 제2 가이드 음성을 출력할 수 있다.
여기에서, 제1 가이드 음성은 복수의 아이콘 부재(130) 중 하나의 아이콘 부재의 부착을 가이드하고, 제2 가이드 음성은 부착된 아이콘 부재를 터치하도록 가이드하며, 전자 장치(100)는 복수의 아이콘 부재 각각에 대하여 제1 가이드 음성 및 제2 가이드 음성을 각각 출력할 수 있다. 이 경우, 전자 장치(100)는 제2 가이드 음성이 출력된 후 복수의 영역 중 사용자 터치가 발생한 영역을 확인하고, 사용자 터치가 발생한 영역을 부착된 아이콘 부재(130)가 위치하는 영역으로 메모리(150)에 저장할 수 있다. 이에 따라, 전자 장치(100)는 사용자 터치 발생 영역에 기초하여 각각의 아이콘 부재(130)가 부착된 위치 정보를 순차적으로 확인하고, 위치 정보를 저장할 수 있다.
다른 예로, 제1 가이드 음성은 복수의 아이콘 부재(130)의 부착을 가이드하고, 제2 가이드 음성은 부착된 복수의 아이콘 부재(130)를 순차적으로 터치하도록 가이드할 수 있다. 이 경우, 전자 장치(100)는 제2 가이드 음성이 출력된 후 복수의 영역 중 사용자 터치가 발생한 영역 및 사용자 터치 발생 순서를 확인하고, 사용자 터치가 발생한 순서에 기초하여 사용자 터치가 발생한 영역을 각각 복수의 아이콘 부재(130)가 위치하는 영역으로 메모리(150)에 저장할 수 있다.
또 다른 예로, 제1 가이드 음성은 복수의 아이콘 부재(130)의 부착을 가이드하고, 제2 가이드 음성은 부착된 복수의 아이콘 부재(130)를 각각 서로 다른 횟수로 터치하도록 가이드할 수 있다. 이 경우, 전자 장치(100)는 제2 가이드 음성이 출력된 후 복수의 영역 중 사용자 터치가 발생한 영역 및 사용자 터치 발생 횟수를 확인하고, 사용자 터치가 발생한 횟수에 기초하여 사용자 터치가 발생한 영역을 각각 복수의 아이콘 부재(130)가 위치하는 영역으로 메모리에 저장할 수 있다.
그리고, 전자 장치(100)는 복수의 아이콘 부재(130) 중 하나의 아이콘 부재에 대한 사용자 터치가 발생하면, 사용자 터치가 발생한 아이콘 부재에 대응되는 기능을 수행(S1020)할 수 있다.
여기에서, 전자 장치(100)는 사용자 터치가 발생한 위치를 확인하고, 메모리(150)에 저장된 각각의 아이콘 부재(130)의 부착 위치 정보와 매칭하여, 사용자 터치가 발생한 아이콘 부재를 확인하여 이에 대응되는 기능을 수행할 수 있다.
즉, 전자 장치(100)는 패널(110)의 복수의 영역 중 복수의 아이콘 부재(130)가 위치하는 영역 및 상기 영역에 대응되는 기능 정보를 메모리(150)에 저장하고, 복수의 영역 중 사용자 터치가 발생한 영역을 확인하고, 확인된 영역에 대응되는 기능 정보를 확인할 수 있다. 그리고, 전자 장치(100)는 확인된 기능 정보에 대응되는 기능을 수행할 수 있다.
본 개시의 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media에 저장된 명령어를 포함하는 소프트웨어로 구현될 수 있다. 기기는 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자레인지) 포함할 수 있다. 상기 명령이 프로세서에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어 하에 다른 구성요소들을 이용하여 상기 명령에 상기하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.
다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
이상에서는 본 개시의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시가 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.
100: 전자 장치 110: 패널
120: 센서 130: 아이콘 부재
140: 프로세서 150: 메모리
160: 스피커 170: 디스플레이

Claims (20)

  1. 전자 장치에 있어서,
    패널;
    상기 패널의 하부에 배치되며, 상기 패널의 복수의 영역 각각에 대한 사용자 터치를 감지하는 센서;
    상기 패널의 복수의 영역 중 적어도 하나의 영역의 상부에 부착 가능하며, 상기 전자 장치에서 수행 가능한 기능에 대응되는 아이콘이 도시된 복수의 아이콘 부재; 및
    상기 복수의 아이콘 부재 중 하나의 아이콘 부재에 대한 사용자 터치가 발생하면, 상기 사용자 터치가 발생한 아이콘 부재에 대응되는 기능을 수행하는 프로세서;를 포함하는, 전자 장치.
  2. 제1항에 있어서,
    상기 복수의 아이콘 부재 각각은 서로 다른 유전율을 가지며,
    상기 프로세서는,
    상기 센서에서 감지한 센싱 값에 기초하여 상기 복수의 아이콘 부재 중 사용자 터치가 발생한 아이콘 부재를 확인하는, 전자 장치.
  3. 제2항에 있어서,
    상기 프로세서는,
    상기 복수의 영역 중 커패시턴스 변화가 가장 큰 영역 및 상기 가장 큰 영역의 주변 영역의 커패시턴스 변화 합산 값에 기초하여 사용자 터치가 발생한 아이콘 부재를 확인하는, 전자 장치.
  4. 제1항에 있어서,
    상기 복수의 영역 중 상기 복수의 아이콘 부재가 위치하는 영역 및 상기 영역에 대응되는 기능 정보를 저장하는 메모리;를 더 포함하고,
    상기 프로세서는,
    상기 복수의 영역 중 상기 사용자 터치가 발생한 영역을 확인하고, 상기 확인된 영역에 대응되는 기능 정보를 확인하고, 상기 확인된 기능 정보에 대응되는 기능을 수행하는, 전자 장치.
  5. 제1항에 있어서,
    스피커;를 더 포함하고,
    상기 프로세서는,
    상기 복수의 아이콘 부재의 부착을 가이드하는 제1 가이드 음성 및 부착된 아이콘 부재를 터치하도록 가이드하는 제2 가이드 음성을 출력하도록 상기 스피커를 제어하는, 전자 장치.
  6. 제5항에 있어서,
    상기 제1 가이드 음성은 상기 복수의 아이콘 부재 중 하나의 아이콘 부재의 부착을 가이드하고, 상기 제2 가이드 음성은 부착된 아이콘 부재를 터치하도록 가이드하며,
    상기 프로세서는,
    상기 복수의 아이콘 부재 각각에 대하여 상기 제1 가이드 음성 및 상기 제2 가이드 음성을 각각 출력하도록 상기 스피커를 제어하는, 전자 장치.
  7. 제6항에 있어서,
    메모리;를 더 포함하고,
    상기 프로세서는,
    상기 제2 가이드 음성이 출력된 후 상기 복수의 영역 중 사용자 터치가 발생한 영역을 확인하고, 상기 사용자 터치가 발생한 영역을 상기 부착된 아이콘 부재가 위치하는 영역으로 상기 메모리에 저장하는, 전자 장치.
  8. 제5항에 있어서,
    메모리;를 더 포함하고,
    상기 프로세서는,
    상기 제2 가이드 음성이 출력된 후 상기 센서의 센싱 값에 기초하여 상기 복수의 아이콘 부재 중 상기 부착된 아이콘 부재를 식별하고, 상기 복수의 영역 중 사용자 터치가 발생한 영역을 확인하고, 상기 사용자 터치가 발생한 영역을 상기 식별된 아이콘 부재가 위치하는 영역으로 상기 메모리에 저장하는, 전자 장치.
  9. 제5항에 있어서,
    메모리;를 더 포함하고,
    상기 제1 가이드 음성은 상기 복수의 아이콘 부재의 부착을 가이드하고, 상기 제2 가이드 음성은 부착된 복수의 아이콘 부재를 순차적으로 터치하도록 가이드하며,
    상기 프로세서는,
    상기 제2 가이드 음성이 출력된 후 상기 복수의 영역 중 사용자 터치가 발생한 영역 및 사용자 터치 발생 순서를 확인하고, 상기 사용자 터치가 발생한 순서에 기초하여 상기 사용자 터치가 발생한 영역을 각각 상기 복수의 아이콘 부재가 위치하는 영역으로 상기 메모리에 저장하는, 전자 장치.
  10. 제5항에 있어서,
    메모리;를 더 포함하고,
    상기 제1 가이드 음성은 상기 복수의 아이콘 부재의 부착을 가이드하고, 상기 제2 가이드 음성은 부착된 복수의 아이콘 부재를 각각 서로 다른 횟수로 터치하도록 가이드하며,
    상기 프로세서는,
    상기 제2 가이드 음성이 출력된 후 상기 복수의 영역 중 사용자 터치가 발생한 영역 및 사용자 터치 발생 횟수를 확인하고, 상기 사용자 터치가 발생한 횟수에 기초하여 상기 사용자 터치가 발생한 영역을 각각 상기 복수의 아이콘 부재가 위치하는 영역으로 상기 메모리에 저장하는, 전자 장치.
  11. 전자 장치의 제어 방법에 있어서,
    상기 전자 장치에서 수행 가능한 기능에 대응되는 아이콘이 도시된 복수의 아이콘 부재를 패널에 부착하도록 가이드하는 단계; 및
    상기 복수의 아이콘 부재 중 하나의 아이콘 부재에 대한 사용자 터치가 발생하면, 상기 사용자 터치가 발생한 아이콘 부재에 대응되는 기능을 수행하는 단계;를 포함하는, 제어 방법.
  12. 제11항에 있어서,
    상기 복수의 아이콘 부재 각각은 서로 다른 유전율을 가지며,
    상기 패널의 복수의 영역 각각에 대한 사용자 터치를 감지하는 센서를 통해 감지한 센싱 값에 기초하여 상기 복수의 아이콘 부재 중 사용자 터치가 발생한 아이콘 부재를 확인하는 단계;를 더 포함하는, 제어 방법.
  13. 제12항에 있어서,
    상기 사용자 터치가 발생한 아이콘 부재를 확인하는 단계는,
    상기 복수의 영역 중 커패시턴스 변화가 가장 큰 영역 및 상기 가장 큰 영역의 주변 영역의 커패시턴스 변화 합산 값에 기초하여 사용자 터치가 발생한 아이콘 부재를 확인하는, 제어 방법.
  14. 제11항에 있어서,
    상기 복수의 영역 중 상기 복수의 아이콘 부재가 위치하는 영역 및 상기 영역에 대응되는 기능 정보를 메모리에 저장하는 단계;
    상기 복수의 영역 중 상기 사용자 터치가 발생한 영역을 확인하는 단계; 및
    상기 확인된 영역에 대응되는 기능 정보를 확인하는 단계;를 더 포함하고,
    상기 기능을 수행하는 단계는,
    상기 확인된 기능 정보에 대응되는 기능을 수행하는, 제어 방법.
  15. 제11항에 있어서,
    상기 가이드하는 단계는,
    상기 복수의 아이콘 부재의 부착을 가이드하는 제1 가이드 음성을 출력하는 단계; 및
    부착된 아이콘 부재를 터치하도록 가이드하는 제2 가이드 음성을 출력하는 단계;를 포함하는, 제어 방법.
  16. 제15항에 있어서,
    상기 제1 가이드 음성은 상기 복수의 아이콘 부재 중 하나의 아이콘 부재의 부착을 가이드하고, 상기 제2 가이드 음성은 부착된 아이콘 부재를 터치하도록 가이드하며,
    상기 가이드하는 단계는,
    상기 복수의 아이콘 부재 각각에 대하여 상기 제1 가이드 음성 및 상기 제2 가이드 음성을 각각 출력하는, 제어 방법.
  17. 제16항에 있어서,
    상기 제2 가이드 음성이 출력된 후 상기 복수의 영역 중 사용자 터치가 발생한 영역을 확인하는 단계; 및
    상기 사용자 터치가 발생한 영역을 상기 부착된 아이콘 부재가 위치하는 영역으로 메모리에 저장하는 단계;를 더 포함하는, 제어 방법.
  18. 제15항에 있어서,
    상기 복수의 아이콘 부재 각각은 서로 다른 유전율을 가지며,
    상기 제2 가이드 음성이 출력된 후 센서의 센싱 값에 기초하여 상기 복수의 아이콘 부재 중 상기 부착된 아이콘 부재를 식별하는 단계;
    상기 복수의 영역 중 사용자 터치가 발생한 영역을 확인하는 단계; 및
    상기 사용자 터치가 발생한 영역을 상기 식별된 아이콘 부재가 위치하는 영역으로 메모리에 저장하는 단계;를 더 포함하는, 제어 방법.
  19. 제15항에 있어서,
    상기 제1 가이드 음성은 상기 복수의 아이콘 부재의 부착을 가이드하고, 상기 제2 가이드 음성은 부착된 복수의 아이콘 부재를 순차적으로 터치하도록 가이드하며,
    상기 제2 가이드 음성이 출력된 후 상기 복수의 영역 중 사용자 터치가 발생한 영역 및 사용자 터치 발생 순서를 확인하는 단계; 및
    상기 사용자 터치가 발생한 순서에 기초하여 상기 사용자 터치가 발생한 영역을 각각 상기 복수의 아이콘 부재가 위치하는 영역으로 메모리에 저장하는 단계;를 더 포함하는, 제어 방법.
  20. 제15항에 있어서,
    상기 제1 가이드 음성은 상기 복수의 아이콘 부재의 부착을 가이드하고, 상기 제2 가이드 음성은 부착된 복수의 아이콘 부재를 각각 서로 다른 횟수로 터치하도록 가이드하며,
    상기 제2 가이드 음성이 출력된 후 상기 복수의 영역 중 사용자 터치가 발생한 영역 및 사용자 터치 발생 횟수를 확인하는 단계; 및
    상기 사용자 터치가 발생한 횟수에 기초하여 상기 사용자 터치가 발생한 영역을 각각 상기 복수의 아이콘 부재가 위치하는 영역으로 메모리에 저장하는 단계;를 더 포함하는, 제어 방법.
KR1020200158479A 2020-11-24 2020-11-24 전자 장치 및 이의 제어 방법 KR20220071410A (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020200158479A KR20220071410A (ko) 2020-11-24 2020-11-24 전자 장치 및 이의 제어 방법
PCT/KR2021/013803 WO2022114507A1 (ko) 2020-11-24 2021-10-07 전자 장치 및 이의 제어 방법
US18/198,372 US20230289058A1 (en) 2020-11-24 2023-05-17 Electronic device and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200158479A KR20220071410A (ko) 2020-11-24 2020-11-24 전자 장치 및 이의 제어 방법

Publications (1)

Publication Number Publication Date
KR20220071410A true KR20220071410A (ko) 2022-05-31

Family

ID=81755233

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200158479A KR20220071410A (ko) 2020-11-24 2020-11-24 전자 장치 및 이의 제어 방법

Country Status (3)

Country Link
US (1) US20230289058A1 (ko)
KR (1) KR20220071410A (ko)
WO (1) WO2022114507A1 (ko)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100827228B1 (ko) * 2006-05-01 2008-05-07 삼성전자주식회사 터치 기능을 갖는 영역 분할 수단을 제공하는 장치 및 그방법
US8488069B2 (en) * 2008-08-04 2013-07-16 Casino Technology Ad Electronic display with push buttons
JP6246238B2 (ja) * 2014-02-03 2017-12-13 三菱電機株式会社 電力制御システム、健康管理機器、運動計測機器及び電力指令装置
KR101527054B1 (ko) * 2014-04-11 2015-06-09 현대자동차주식회사 큐브 타입 전자식 변속레버
JP2016162364A (ja) * 2015-03-04 2016-09-05 ソニー株式会社 入力装置および情報処理装置
US9965116B1 (en) * 2015-07-14 2018-05-08 Square, Inc. Tactile overlay for touchscreen device
KR102387613B1 (ko) * 2017-06-26 2022-04-15 엘지전자 주식회사 차량용 인터페이스 시스템
KR20200071835A (ko) * 2018-12-03 2020-06-22 현대자동차주식회사 탈착식 조작계를 이용한 차량용 제어 장치 및 그 제어 방법
KR20200109467A (ko) * 2019-03-13 2020-09-23 삼성전자주식회사 전자 장치 및 그 제어 방법

Also Published As

Publication number Publication date
WO2022114507A1 (ko) 2022-06-02
US20230289058A1 (en) 2023-09-14

Similar Documents

Publication Publication Date Title
KR102488699B1 (ko) 전자 장치 및 그 지문 인증 인터페이스 방법
EP2796993B1 (en) Display apparatus and control method capable of performing an initial setting
AU2017259344B2 (en) Method and apparatus for controlling multi-window display in interface
US20150186017A1 (en) Unlocking method and device using tension effect
CN102981747B (zh) 信息处理装置、信息处理方法和计算机程序
JP6448900B2 (ja) 状況情報基盤の情報提供方法、そのシステム及びその記録媒体
KR102456456B1 (ko) 복수 개의 디스플레이를 가지는 전자 장치 및 제어 방법
US10474344B2 (en) Method, apparatus and recording medium for a scrolling screen
US10037135B2 (en) Method and electronic device for user interface
KR102215178B1 (ko) 전자장치에서 사용자 입력 방법 및 장치
US9557911B2 (en) Touch sensitive control
KR20150002312A (ko) 페이지 표시 방법 및 이를 구현하는 전자 장치
US9588584B2 (en) System and method for processing touch input
KR20190076729A (ko) 전자 장치 및 스트로크 입력에 따른 기능 실행 방법
KR20140073258A (ko) 어플리케이션 정보 제공 방법 및 휴대 단말
CN111338524A (zh) 应用程序控制方法及电子设备
KR102527278B1 (ko) 전자 장치, 그 제어 방법 및 컴퓨터 판독가능 기록 매체
US20150169214A1 (en) Graphical input-friendly function selection
KR102161159B1 (ko) 전자 장치 및 전자 장치에서 색상 추출 방법
KR20180121254A (ko) 그래픽 표시를 출력하는 전자 장치
EP3748481A1 (en) Control method and electronic device
KR20140130798A (ko) 터치 스크린 패널 디스플레이 및 터치 키 입력 장치 및 방법
KR20220071410A (ko) 전자 장치 및 이의 제어 방법
US20210271384A1 (en) Electronic device and method for performing function of electronic device
US20190302952A1 (en) Mobile device, computer input system and computer readable storage medium

Legal Events

Date Code Title Description
A201 Request for examination