KR20120129621A - User Interface Control Apparatus and Method of Portable Electric and Electronic Device - Google Patents

User Interface Control Apparatus and Method of Portable Electric and Electronic Device Download PDF

Info

Publication number
KR20120129621A
KR20120129621A KR1020110047981A KR20110047981A KR20120129621A KR 20120129621 A KR20120129621 A KR 20120129621A KR 1020110047981 A KR1020110047981 A KR 1020110047981A KR 20110047981 A KR20110047981 A KR 20110047981A KR 20120129621 A KR20120129621 A KR 20120129621A
Authority
KR
South Korea
Prior art keywords
user interface
user
screen
touch
electronic device
Prior art date
Application number
KR1020110047981A
Other languages
Korean (ko)
Inventor
이제호
김지훈
Original Assignee
한국산업기술대학교산학협력단
주식회사 넥스트파피루스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국산업기술대학교산학협력단, 주식회사 넥스트파피루스 filed Critical 한국산업기술대학교산학협력단
Priority to KR1020110047981A priority Critical patent/KR20120129621A/en
Publication of KR20120129621A publication Critical patent/KR20120129621A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)

Abstract

PURPOSE: A user interface control apparatus and a method of portable electric and electronic device are provided to sense automatically a hand of a user and to touch easily the interface image. CONSTITUTION: A touch sensor signal receiver(220) receives electric signals from contact sensors installed at left/right sides or rear left/right sides of device. A direction recognizer(230) recognizes the device gripping direction of a user according to the electric signals. A controller(210) arranges the user interface image to a scene region which fingers moves within. A display driver(240) indicates the user interface image on the screen of the device. [Reference numerals] (210) Controller; (220) Touch sensor signal receiver; (230) Direction recognizer; (240) Display driver; (250) Touch screen driving unit; (AA) Touch sensor; (BB) Touch input

Description

휴대용 전기전자 기기의 사용자 인터페이스 제어 장치 및 방법{User Interface Control Apparatus and Method of Portable Electric and Electronic Device}User Interface Control Apparatus and Method of Portable Electric and Electronic Device

본 발명은 휴대용 전기전자 기기의 사용자 인터페이스 제어 장치 및 방법에 관한 것으로서, 터치스크린을 통해 사용자가 선택 위치를 터치로 입력하는 휴대 단말기(전기전자 기기)에 표시되는 확인 버튼, 취소버튼, 방향 버튼 등의 사용자 인터페이스 영상을, 사용자가 기기를 파지한 좌우의 손의 방향을 감지하여 자동으로 대칭적으로 전환 배치하여 표시하여 줌으로써, 사용자가 편리하게 사용자 인터페이스 영상의 버튼을 터치할 수 있도록 한 휴대용 전기전자 기기의 사용자 인터페이스 제어 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for controlling a user interface of a portable electric and electronic device, and includes a check button, a cancel button, a direction button, and the like displayed on a mobile terminal (electrical and electronic device) in which a user inputs a selected position by a touch through a touch screen. Portable electronics that allow the user to conveniently touch the buttons on the user interface image by detecting and displaying the user interface images of the user's left and right hands that are symmetrically automatically arranged and displayed. An apparatus and method for controlling a user interface of a device are provided.

종래의 휴대폰, 전자책 단말기, 테블릿 단말기 등의 휴대 단말기에서 구동되는 터치스크린 운용에 있어서 일반적으로 한 손으로 파지한 후 다른 한 손으로 터치조작을 하거나 두 손으로 파지하여 양손의 엄지손가락을 이용하여 화면의 사용자 입력 버튼이나 아이콘 등을 터치 조작한다. In the operation of a touch screen driven in a mobile terminal such as a conventional mobile phone, an e-book terminal, a tablet terminal, and the like, a finger is generally held by one hand and then touched by the other hand or by two hands to use the thumb of both hands. Touch the user input button or icon on the screen.

이와 같은 화면의 버튼과 같은 사용자 인터페이스 영상은 일반적으로 고정된 위치에 표시되도록 프로그램되어 있으며, 휴대 단말기의 화면이 5인치 이상으로 클 경우에는 사용자 인터페이스 영상이 엄지손가락의 움직임 범위를 벗어나기 때문에 한 손으로 파지하여 터치 조작하기 어려운 문제점이 있다. The user interface image such as a button on the screen is generally programmed to be displayed at a fixed position. When the screen of the mobile terminal is larger than 5 inches, the user interface image is out of the range of the thumb movement. There is a problem that it is difficult to grip and touch operation.

또한, 사용자는 손의 피로감으로 장시간 휴대 단말기를 한손으로만 파지하지 못하며 양손을 번갈아 가며 휴대 단말기를 파지하게 된다. 이와 같이 손을 바꾸는 경우에, 사용자 인터페이스 영상이 좌측 또는 우측으로 치우쳐 배치되어 있다면 사용자는 해당 엄지 손가락으로 사용자 입력 버튼 등을 더욱 터치하기 어려운 문제점이 있다. In addition, the user may not hold the mobile terminal with only one hand for a long time due to fatigue of the hand, and alternately hold the portable terminal with both hands alternately. In this case, when the user interface image is disposed to the left or the right side, it is difficult for the user to touch the user input button or the like with the corresponding thumb.

따라서, 본 발명은 상술한 문제점을 해결하기 위한 것으로서, 본 발명의 목적은, 휴대 단말기(전기전자 기기)를 양손을 번갈아가며 파지하더라도 파지한 좌우의 손의 방향을 자동 감지하여 해당 손의 엄지손가락 움직임 범위 내에 확인 버튼, 취소버튼, 방향 버튼 등의 사용자 인터페이스 영상이 전환 배치하여 줌으로써, 사용자가 편리하게 사용자 인터페이스 영상의 버튼을 터치할 수 있도록 한 휴대용 전기전자 기기의 사용자 인터페이스 제어 장치 및 방법을 제공하는 데 있다.Accordingly, the present invention is to solve the above-described problems, an object of the present invention, even if the mobile terminal (electrical and electronic device) holding both hands alternately holding the hand of the left and right of the hand to sense the direction of the thumb Provided is a user interface control device and method for a portable electric and electronic device that allows a user to conveniently touch a button of a user interface image by arranging user interface images such as an OK button, a cancel button, and a direction button within a movement range. There is.

먼저, 본 발명의 특징을 요약하면, 본 발명의 일면에 따른, 휴대용 전기전자 기기의 사용자 인터페이스 제어 방법은, 사용자가 휴대용 전기전자 기기를 파지하는 방향을 인식하여, 사용자가 상기 기기를 파지한 상태에서의 엄지 손가락의 움직임 범위 내의 화면 영역에 사용자 인터페이스 영상을 표시하는 것을 특징으로 한다.First, to summarize the features of the present invention, according to an aspect of the present invention, the user interface control method of a portable electronic device, the user recognizes the direction of gripping the portable electronic device, the user grips the device And displaying a user interface image in a screen area within a movement range of a thumb in.

사용자가 상기 사용자 인터페이스 영상에 포함된 사용자 입력 버튼을 터치하면 상기 기기의 화면 상에 구비된 터치스크린에 의해 해당 선택 위치 정보에 대응되는 명령을 실행시키기 위한 것이다.When a user touches a user input button included in the user interface image, a command corresponding to the selected location information is executed by a touch screen provided on the screen of the device.

사용자가 좌우 양손을 서로 번갈아 바꾸어 상기 기기를 파지함에 따라 좌우 대칭적인 사용자 인터페이스 영상을 해당 엄지 손가락의 움직임 범위 내의 화면 영역에 표시할 수 있다.As the user grips the device by alternating the left and right hands, the left and right symmetrical user interface images may be displayed on the screen area within the movement range of the corresponding thumb.

상기 사용자 인터페이스 영상은, 상기 기기의 운용 시에 화면에 표시되는 한글, 영문, 숫자, 기호, 방향키 또는 기능키를 포함하는 키보드, 상기 기기의 초기 구동 시의 바탕화면에 표시되는 아이콘, 또는 상기 기기에서 응용 프로그램 실행시의 메뉴, 확인, 취소, 또는 방향키에 대한 버튼을 포함한다.The user interface image may include a keyboard including Korean, English, numbers, symbols, direction keys or function keys displayed on the screen when the device is operated, an icon displayed on the background screen when the device is initially driven, or the device. Includes buttons for menus, OK, Cancel, or arrow keys at application launch time.

그리고, 본 발명의 다른 일면에 따른 휴대용 전기전자 기기의 사용자 인터페이스 제어 장치는, 사용자가 휴대용 전기전자 기기를 왼손 또는 오른손으로 파지 시 상기 기기의 좌우 측면이나 후면 좌우에 설치된 접촉센서로부터 전기적 신호를 수신하는 접촉 센서 신호 수신부; 상기 전기적 신호에 따라 사용자가 상기 기기를 파지한 방향을 인식하는 방향 인식부; 사용자가 상기 기기를 파지한 상태에서의 엄지 손가락의 움직임 범위 내의 화면 영역에 사용자 인터페이스 영상을 배치하는 제어부; 및 상기 사용자 인터페이스 영상을 상기 기기의 화면에 표시하는 디스플레이 구동부를 포함한다.In addition, the user interface control device for a portable electronic device according to another aspect of the present invention, when the user grips the portable electronic device with his left or right hand, receives an electrical signal from the contact sensor installed on the left and right sides or rear left and right of the device A contact sensor signal receiving unit; A direction recognizing unit recognizing a direction in which the user grips the device according to the electrical signal; A control unit for arranging a user interface image in a screen area within a movement range of a thumb in a state in which a user grips the device; And a display driver configured to display the user interface image on the screen of the device.

상기 휴대용 전기전자 기기의 사용자 인터페이스 제어 장치는, 사용자가 상기 사용자 인터페이스 영상에 포함된 사용자 입력 버튼을 터치하면 상기 기기의 화면 상에 구비된 터치스크린으로부터 터치 입력 신호를 수신하여 상기 제어부가 해당 선택 위치에 대응되는 명령을 실행하도록 제어하는 터치스크린 구동부를 더 포함한다.When the user touches a user input button included in the user interface image, the user interface control device of the portable electric and electronic device receives a touch input signal from a touch screen provided on the screen of the device, and the control unit selects a corresponding position. The touch screen driver may further include a touch screen driver configured to execute a command corresponding to the touch screen driver.

상기 접촉 센서는 사용자의 손바닥 또는 손가락 접촉 시의 접촉 압력에 따라 해당 전기적 신호를 발생하는 압력 센서, 또는 사용자의 손바닥 또는 손가락 접촉 시의 정전 용량 변화에 따라 해당 전기적 신호를 발생하는 정전용량 센서를 포함한다.The touch sensor may include a pressure sensor generating a corresponding electrical signal according to a contact pressure when a user touches a palm or a finger, or a capacitive sensor generating a corresponding electrical signal according to a change in capacitance when a user touches a palm or a finger. do.

상기 제어부는 사용자가 좌우 양손을 서로 번갈아 바꾸어 상기 기기를 파지함에 따라 좌우 대칭적인 사용자 인터페이스 영상을 해당 엄지 손가락의 움직임 범위 내의 화면 영역에 배치할 수 있다.The controller may arrange the left and right symmetrical user interface images in the screen area within the movement range of the thumb as the user alternates between the left and right hands and grips the device.

상기 사용자 인터페이스 영상은, 상기 기기의 운용 시에 화면에 표시되는 한글, 영문, 숫자, 기호, 방향키 또는 기능키를 포함하는 키보드, 상기 기기의 초기 구동 시의 바탕화면에 표시되는 아이콘, 또는 상기 기기에서 응용 프로그램 실행시의 메뉴, 확인, 취소, 또는 방향키에 대한 버튼을 포함한다.The user interface image may include a keyboard including Korean, English, numbers, symbols, direction keys or function keys displayed on the screen when the device is operated, an icon displayed on the background screen when the device is initially driven, or the device. Includes buttons for menus, OK, Cancel, or arrow keys at application launch time.

본 발명에 따른 휴대용 전기전자 기기의 사용자 인터페이스 제어 장치 및 방법에 따르면, 사용자가 기기를 파지한 손의 방향을 자동 감지하여 해당 손의 엄지손가락 움직임 범위 내에 확인 버튼, 취소버튼, 방향 버튼 등의 사용자 인터페이스 영상이 전환 배치하여 줌으로써, 사용자가 양손을 번갈아가며 기기를 파지하더라도 편리하게 사용자 인터페이스 영상의 버튼을 터치할 수 있도록 한다. According to an apparatus and method for controlling a user interface of a portable electric and electronic device according to the present invention, a user automatically detects the direction of a hand held by the user and checks a user's hand in a thumb movement range of the corresponding hand. By changing the interface image, the user can conveniently touch the button of the user interface image even if the user grips the device alternately with both hands.

도 1은 본 발명의 일실시예에 따른 휴대 단말기의 사시도이다.
도 2는 휴대 단말기의 후면에 접촉 센서를 배치한 예이다.
도 3a는 사용자가 왼손으로 휴대 단말기를 파지할 때의 사용자 인터페이스 영상의 일례이다.
도 3b는 사용자가 오른손으로 휴대 단말기를 파지할 때의 사용자 인터페이스 영상의 일례이다.
도 4는 본 발명의 일실시예에 따른 휴대 단말기의 사용자 인터페이스 제어 장치의 블록도이다.
도 5는 본 발명의 일실시예에 따른 휴대 단말기의 동작을 설명하기 위한 흐름도이다.
1 is a perspective view of a portable terminal according to an embodiment of the present invention.
2 illustrates an example in which a touch sensor is disposed on a rear surface of a mobile terminal.
3A is an example of a user interface image when the user grips the portable terminal with his left hand.
3B is an example of a user interface image when the user grips the portable terminal with his right hand.
4 is a block diagram of an apparatus for controlling a user interface of a mobile terminal according to an embodiment of the present invention.
5 is a flowchart illustrating an operation of a portable terminal according to an embodiment of the present invention.

이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 본 발명의 바람직한 실시예를 상세하게 설명하지만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to the preferred embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout.

본 발명에서 언급되는 휴대 단말기(100)는 휴대용 전기전자 기기로서, 예를 들어, 전자책 단말기, 테블릿 PC, 또는 WiFi, WCDMA, WiBro 등의 무선 이동 통신망을 이용하여 통신하는 아이팟, 안드로이드 폰 등의 스마트폰(Smart phone)일 수 있고, 이외에도 네트워크를 통해 통신하는 셀룰러폰(Cellular phone), 피씨에스폰(PCS phone: Personal Communications Services phone), 무선 통신이 가능한 동기식/비동기식 IMT-2000(International Mobile Telecommunication-2000), 개인용 디지털 보조기(PDA:Personal Digital Assistant), 왑폰(WAP phone:Wireless application protocol phone), 모바일 게임기(mobile play-station), 기타 PMP(Portable Multimedia Player) 등의 휴대용 또는 이동 단말일 수 있으며, 경우에 따라 다른 전자 기기와 통신할 수 있는 가정용 또는 산업용 사회 전반의 다양한 휴대용 전기전자 또는 장치일 수 있다.The portable terminal 100 referred to in the present invention is a portable electric and electronic device, for example, an e-book terminal, a tablet PC, or an iPod, an Android phone, or the like, which communicates using a wireless mobile communication network such as WiFi, WCDMA, WiBro, etc. It can be a smart phone of the smart phone, in addition to the cellular phone (Cellular phone), PCS phone (PCS phone: Personal Communications Services phone) to communicate over the network, synchronous / asynchronous IMT-2000 (wireless mobile) Telecommunication-2000), personal digital assistant (PDA), wireless application protocol phone (WAP phone), mobile play-station, other portable multimedia player (PMP), etc. And in some cases, a variety of portable electrical or electronic devices throughout the home or industrial society that can communicate with other electronic devices.

도 1은 본 발명의 일실시예에 따른 휴대 단말기(100)의 사시도이다.1 is a perspective view of a portable terminal 100 according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 따른 휴대 단말기(100)는, 터치 스크린(110), 좌측 접촉 센서(120), 우측 접촉 센서(130), 및 사용자 인터페이스 제어 장치(200)(도 4 참조)를 포함한다. Referring to FIG. 1, the mobile terminal 100 according to an embodiment of the present invention may include a touch screen 110, a left contact sensor 120, a right contact sensor 130, and a user interface control device 200 ( 4).

터치 스크린(110)은 휴대 단말기(100)의 화면 상에 구비되며 사용자의 터치 입력에 따라 해당 선택 위치에 대응되는 터치 입력 신호를 발생시켜, 휴대 단말기(100)가 해당 선택 위치에 대응되는 명령을 실행하도록 제어한다. The touch screen 110 is provided on the screen of the portable terminal 100 and generates a touch input signal corresponding to the selected position according to the user's touch input, so that the portable terminal 100 commands a command corresponding to the selected position. Control to run

좌측 접촉 센서(120)는 휴대 단말기(100)의 외관 재질(프레임)의 좌측 측면이나, 후면 좌측(도 2 참조)의 적절한 위치에 설치될 수 있다. 우측 접촉 센서(130)는 휴대 단말기(100)의 외관 재질(프레임)의 우측 측면이나, 후면 우측(도 2 참조)의 적절한 위치에 설치될 수 있다. 이와 같은 접촉 센서들(120, 130)은 사용자가 왼손 또는 오른손으로 파지하고 화면을 보면서 터치조작을 할 때, 사용자가 왼손 또는 오른손(손바닥 또는 손가락)에 의해 접촉 될 수 있는 위치에 적절히 배치되며, 접촉 감지의 오류를 방지하기 위하여 좌측 접촉 센서(120)와 우측 접촉 센서(130)는 각각 2개 이상 복수개씩 설치될 수 있다.The left contact sensor 120 may be installed at a left side of the exterior material (frame) of the portable terminal 100 or at an appropriate position on the left side of the rear side (see FIG. 2). The right contact sensor 130 may be installed at a right side of the exterior material (frame) of the mobile terminal 100 or at an appropriate position on the rear right side (see FIG. 2). Such touch sensors 120 and 130 are appropriately disposed in a position where the user can be touched by the left or right hand (palm or finger) when the user grips with his left or right hand and performs a touch operation while viewing the screen. In order to prevent an error in touch detection, two or more left contact sensors 120 and right contact sensors 130 may be installed.

이에 따라 본 발명의 일실시예에 따른 휴대 단말기(100)에서는, 사용자가 휴대 단말기(100)를 파지하는 방향을 인식하여, 사용자가 휴대 단말기(100)를 파지한 상태에서의 엄지 손가락의 움직임 범위 내의 화면 영역에 사용자 인터페이스 영상(140)을 표시할 수 있도록 하였다. 예를 들어, 도 3a 및 도 3b와 같이, 사용자가 좌우 양손을 서로 번갈아 바꾸어 휴대 단말기(100)를 파지함에 따라 좌우 대칭적인 사용자 인터페이스 영상(140)을 해당 엄지 손가락의 움직임 범위 내의 화면 영역에 표시할 수 있으며, 이에 따라 사용자가 사용자 인터페이스 영상(140)에 포함된 사용자 입력 버튼(확인, 취소, 방향키 등)을 터치하면, 휴대 단말기(100)는 화면 상에 구비된 터치스크린(110)에 의해 해당 선택 위치 정보에 대응되는 명령을 실행할 수 있게 된다.Accordingly, in the mobile terminal 100 according to an embodiment of the present invention, the user recognizes the direction in which the user grips the mobile terminal 100, and the movement range of the thumb in the state where the user grips the mobile terminal 100. The user interface image 140 may be displayed on the screen area within the display. For example, as shown in FIGS. 3A and 3B, as the user grips the mobile terminal 100 by alternating both the left and right hands, the left and right symmetrical user interface image 140 is displayed on the screen area within the movement range of the corresponding thumb. Accordingly, when the user touches a user input button (confirmation, cancellation, direction key, etc.) included in the user interface image 140, the mobile terminal 100 may be touched by the touch screen 110 provided on the screen. The command corresponding to the selected position information can be executed.

여기서, 사용자 인터페이스 영상(140)은 휴대 단말기(100)의 운영 체계 프로그램 또는 운용을 위해 필요한 기타의 응용 프로그램 실행시의 사용자 입력이 요구되는 확인, 취소, 또는 방향키에 대한 버튼을 포함할 수 있고, 이외에도, 응용 프로그램 실행시의 메뉴(예를 들어, 휴대폰의 문자 메시지 내의 상세 메뉴, 전화번호부 내의 상세 메뉴 등)에 대한 버튼을 포함할 수 있다. 또한, 사용자 인터페이스 영상(140)은 휴대 단말기(100)의 운용 시에 사용자 입력 요구를 위해 화면에 표시되는 한글, 영문, 숫자, 기호, 방향키 또는 기능키를 포함하는 키보드 버튼일 수 있으며, 휴대 단말기(100)의 초기 구동(파워 온) 시의 바탕화면에 표시되는 아이콘 등일 수도 있다. Here, the user interface image 140 may include a button for confirming, canceling, or directional keys requiring user input when executing an operating system program of the mobile terminal 100 or other application programs required for operation. In addition, it may include a button for a menu when executing an application program (for example, a detailed menu in a text message of a mobile phone, a detailed menu in a phone book, etc.). In addition, the user interface image 140 may be a keyboard button including Korean, English, numbers, symbols, direction keys or function keys displayed on the screen for a user input request when the portable terminal 100 is operated. It may be an icon displayed on the background screen during the initial driving (power on) of the 100.

이와 같이 본 발명의 일실시예에 따른 휴대 단말기(100)에서는, 사용자가 휴대 단말기(100)를 파지한 손의 방향을 자동 감지하여 해당 손의 엄지손가락 움직임 범위 내에 사용자 인터페이스 영상(140)을 전환 배치하여 줌으로써, 사용자가 양손을 번갈아가며 휴대 단말기(100)를 파지하더라도 편리하게 사용자 인터페이스 영상의 버튼을 터치하여 입력할 수 있도록 하였다. As described above, in the mobile terminal 100 according to an embodiment of the present invention, the user automatically detects the direction of the hand holding the mobile terminal 100 to switch the user interface image 140 within the thumb movement range of the corresponding hand. By arranging, even if the user grips the mobile terminal 100 alternately with both hands, the user can conveniently input by touching a button of the user interface image.

이를 위하여, 본 발명의 일실시예에 따른 휴대 단말기(100)는 도 4와 같은 사용자 인터페이스 제어 장치(200)를 포함할 수 있다. 사용자 인터페이스 제어 장치(200)는 장치의 전반적인 제어를 담당하는 제어부(210), 제어부(210)가 제어하는 접촉 센서 신호 수신부(220), 방향 인식부(230), 디스플레이 구동부(240), 및 터치스크린 구동부(250)를 포함할 수 있다. 이하, 도 5의 흐름도를 참조하여, 휴대 단말기(100)의 사용자 인터페이스 제어 장치(200)의 동작을 설명한다.To this end, the portable terminal 100 according to an embodiment of the present invention may include the user interface control apparatus 200 shown in FIG. 4. The user interface control apparatus 200 may include a controller 210 which is in charge of overall control of the apparatus, a touch sensor signal receiver 220 controlled by the controller 210, a direction recognition unit 230, a display driver 240, and a touch. The screen driver 250 may be included. Hereinafter, an operation of the user interface control apparatus 200 of the portable terminal 100 will be described with reference to the flowchart of FIG. 5.

먼저, 사용자가 휴대 단말기(100)를 도 3a 또는 도 3b와 같이 왼손 또는 오른손으로 파지하면, 휴대 단말기(100)의 좌우 측면이나 후면 좌우에 설치된 접촉센서(120/130) 중 파지된 쪽의 접촉센서(120/130)는 전기적 신호를 발생한다(S10). 접촉센서(120/130)로서는 사용자의 손(손바닥 또는 손가락) 접촉 시의 접촉 압력에 따라 해당 전기적 신호를 발생하는 압력 센서, 또는 사용자의 손(손바닥 또는 손가락) 접촉 시의 정전 용량 변화에 따라 해당 전기적 신호를 발생하는 정전용량 센서가 이용될 수 있다.First, when the user grips the mobile terminal 100 with his left or right hand as shown in FIG. 3A or 3B, the contact of the gripped side of the contact sensor 120/130 installed at the left and right sides or the rear left and right sides of the mobile terminal 100 is shown. Sensor 120/130 generates an electrical signal (S10). As the touch sensor 120/130, a pressure sensor that generates a corresponding electric signal according to the contact pressure when the user touches the hand (palm or finger), or according to the capacitance change when the user touches the palm (finger or finger) Capacitive sensors that generate electrical signals can be used.

이와 같이 파지된 쪽의 접촉센서(120/130)가 발생하는 전기적 신호는 접촉 센서 신호 수신부(220)로 전달되고, 접촉 센서 신호 수신부(220)는 이를 수신하여 신호를 필터링하거나 적절한 크기의 전압으로 증폭할 수 있다. 접촉 센서 신호 수신부(220)가 처리한 접촉센서(120/130)의 전기적 신호에 따라 방향 인식부(230)는 사용자가 휴대 단말기(100)를 파지한 방향을 인식할 수 있다(S20).The electrical signal generated by the touch sensor 120/130 of the gripped side is transmitted to the touch sensor signal receiver 220, and the touch sensor signal receiver 220 receives the signal and filters the signal to a voltage having an appropriate magnitude. Can be amplified. According to the electrical signal of the touch sensor 120/130 processed by the touch sensor signal receiver 220, the direction recognition unit 230 may recognize a direction in which the user grips the portable terminal 100 (S20).

예를 들어, 좌측의 복수의 접촉센서(120) 중 어느 하나에서 액티브되는 전기적 신호가 발생하면, 방향 인식부(230)는 왼쪽손으로 파지된 것을 인식하고(S30), 이에 따라, 제어부(210)는 사용자가 휴대 단말기(100)를 왼손으로 파지한 상태에서의 해당 엄지 손가락의 움직임 범위 내의 화면 영역에 사용자 인터페이스 영상(140)을 배치하고(도 3a 참조), 디스플레이 구동부(240)는 왼손 엄지 손가락의 움직임 범위 내의 화면 영역에 사용자 인터페이스 영상(140)을 화면에 표시한다(S40). For example, when an active electrical signal is generated from any one of the plurality of contact sensors 120 on the left side, the direction recognition unit 230 recognizes that the left hand is held (S30), and accordingly, the controller 210 ) Places the user interface image 140 in the screen area within the movement range of the corresponding thumb in the state in which the user holds the mobile terminal 100 with his left hand (see FIG. 3A), and the display driver 240 uses the left hand thumb. The user interface image 140 is displayed on the screen in the screen area within the movement range of the finger (S40).

마찬가지로, 우측의 복수의 접촉센서(130) 중 어느 하나에서 액티브되는 전기적 신호가 발생하면, 방향 인식부(230)는 오른손으로 파지된 것을 인식하고(S30), 이에 따라, 제어부(210)는 사용자가 휴대 단말기(100)를 오른손으로 파지한 상태에서의 해당 엄지 손가락의 움직임 범위 내의 화면 영역에 사용자 인터페이스 영상(140)을 배치하고(도 3b 참조), 디스플레이 구동부(240)는 오른손 엄지 손가락의 움직임 범위 내의 화면 영역에 사용자 인터페이스 영상(140)을 화면에 표시한다(S50). Similarly, when an active electrical signal is generated from any one of the plurality of touch sensors 130 on the right side, the direction recognizing unit 230 recognizes that the right hand is held (S30), and accordingly, the controller 210 controls the user. Places the user interface image 140 on the screen area within the movement range of the thumb in the state where the mobile terminal 100 is held by the right hand (see FIG. 3B), and the display driver 240 moves the right hand thumb. The user interface image 140 is displayed on the screen in the screen area within the range (S50).

이와 같이, 사용자가 좌우 양손을 서로 번갈아 바꾸어 휴대 단말기(100)를 파지함에 따라, 제어부(210)는 좌우 대칭적인 사용자 인터페이스 영상(140)을 해당 엄지 손가락의 움직임 범위 내의 화면 영역에 배치할 수 있다.As described above, as the user grips the mobile terminal 100 by alternating the left and right hands, the controller 210 may arrange the left and right symmetrical user interface image 140 in the screen region within the movement range of the thumb. .

이와 같이 사용자의 파지 상태에 따라 화면의 좌측 또는 우측에 사용자 인터페이스 영상(140)을 표시함에 따라, 사용자는 사용자 인터페이스 영상(140)에 포함된 사용자 입력 버튼을 엄지손가락으로 용이하게 터치할 수 있으며, 사용자가 사용자 입력 버튼을 터치하면 터치스크린(110)은 해당 위치에 대한 터치 입력 신호를 발생시키고, 터치스크린 구동부(240)는 제어부(210)가 해당 선택 위치에 대응되는 명령을 실행하도록 제어할 수 있다.As the user interface image 140 is displayed on the left or right side of the screen according to the user's gripping state, the user can easily touch the user input button included in the user interface image 140 with a thumb. When the user touches the user input button, the touch screen 110 generates a touch input signal for the corresponding position, and the touch screen driver 240 may control the controller 210 to execute a command corresponding to the selected position. have.

예를 들어, 사용자 인터페이스 영상(140)이 휴대 단말기(100)의 운영 체계 프로그램 또는 운용을 위해 필요한 기타의 응용 프로그램 실행시의 사용자 입력이 요구되는 확인, 취소, 또는 방향키에 대한 버튼을 포함할 수 있으며, 이때 사용자가 엄지손가락을 이용해 어느 하나의 버튼을 터치하면 제어부(210)는 운영 체계 프로그램이나 기타 응용 프로그램에서 해당 터치된 버튼의 명령을 실행하도록(해당 신호나 정보가 입력되도록) 제어할 수 있다.For example, the user interface image 140 may include a button for confirming, canceling, or a direction key requiring user input when executing an operating system program of the mobile terminal 100 or other application programs required for operation. In this case, when a user touches any one button using a thumb, the controller 210 may control to execute a command of the touched button (to input a corresponding signal or information) in an operating system program or other application program. have.

또한, 사용자 인터페이스 영상(140)이 소정 응용 프로그램 실행시의 메뉴(예를 들어, 휴대폰의 문자 메시지 내의 상세 메뉴, 전화번호부 내의 상세 메뉴 등)에 대한 버튼을 포함할 수 있고, 이때 사용자가 엄지손가락을 이용해 어느 하나의 버튼을 터치하면 제어부(210)는 해당 응용 프로그램에서 해당 터치된 버튼의 명령을 실행하도록(해당 신호나 정보가 입력되도록) 제어할 수 있다.In addition, the user interface image 140 may include a button for a menu (eg, a detailed menu in a text message of a mobile phone, a detailed menu in a phone book, etc.) when a predetermined application program is executed, and the user thumbs up. When one of the buttons is touched, the control unit 210 may control to execute a command of the touched button (the corresponding signal or information is input) in the corresponding application program.

또한, 사용자 인터페이스 영상(140)이 휴대 단말기(100)의 운용 시에 운영 체계 프로그램이나 기타 응용 프로그램에서 사용자 입력 요구를 위해 화면에 표시되는 한글, 영문, 숫자, 기호, 방향키 또는 기능키를 포함하는 키보드 버튼을 포함할 수 있으며, 이때 사용자가 엄지손가락을 이용해 어느 하나의 버튼을 터치하면 제어부(210)는 해당 프로그램에서 해당 터치된 버튼의 명령을 실행하도록(해당 신호나 정보가 입력되도록) 제어할 수 있다.In addition, the user interface image 140 includes Korean, English, numerals, symbols, direction keys or function keys displayed on the screen for user input request in an operating system program or other application program when the mobile terminal 100 is operated. The controller 210 may include a keyboard button, and when the user touches any one button using a thumb, the controller 210 controls to execute a command of the touched button in the corresponding program (to input a corresponding signal or information). Can be.

그리고, 사용자 인터페이스 영상(140)이 휴대 단말기(100)의 초기 구동(파워 온) 시의 바탕화면에 표시되는 아이콘 등을 포함할 수도 있으며, 이때 사용자가 엄지손가락을 이용해 어느 하나의 아이콘의 버튼을 터치하면 제어부(210)는 해당 프로그램에서 해당 터치된 버튼의 명령을 실행하도록(해당 신호나 정보가 입력되도록) 제어할 수 있다.In addition, the user interface image 140 may include an icon displayed on the background screen when the mobile terminal 100 is initially driven (powered on), and the user may press a button of any one icon by using a thumb. When touched, the controller 210 may control to execute a command of the touched button (to input a corresponding signal or information) in the corresponding program.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

100: 휴대 단말기
110: 터치 스크린
120: 좌측 접촉 센서
130: 우측 접촉 센서
140: 사용자 인터페이스 영상
200: 사용자 인터페이스 제어 장치
100: portable terminal
110: touch screen
120: left contact sensor
130: right side contact sensor
140: user interface video
200: user interface control device

Claims (10)

사용자가 휴대용 전기전자 기기를 파지하는 방향을 인식하여,
사용자가 상기 기기를 파지한 상태에서의 엄지 손가락의 움직임 범위 내의 화면 영역에 사용자 인터페이스 영상을 표시하는 것을 특징으로 하는 휴대용 전기전자 기기의 사용자 인터페이스 제어 방법.
Recognizing the direction in which the user grips the portable electric and electronic devices,
And a user interface image is displayed on a screen area within a movement range of a thumb in a state in which the user grips the device.
제1항에 있어서,
사용자가 상기 사용자 인터페이스 영상에 포함된 사용자 입력 버튼을 터치하면 상기 기기의 화면 상에 구비된 터치스크린에 의해 해당 선택 위치 정보에 대응되는 명령을 실행시키기 위한 것을 특징으로 하는 휴대용 전기전자 기기의 사용자 인터페이스 제어 방법.
The method of claim 1,
When a user touches a user input button included in the user interface image, a user interface of a portable electric and electronic device for executing a command corresponding to the selected location information by a touch screen provided on the screen of the device. Control method.
제1항에 있어서,
사용자가 좌우 양손을 서로 번갈아 바꾸어 상기 기기를 파지함에 따라 좌우 대칭적인 사용자 인터페이스 영상을 해당 엄지 손가락의 움직임 범위 내의 화면 영역에 표시하는 것을 특징으로 하는 휴대용 전기전자 기기의 사용자 인터페이스 제어 방법.
The method of claim 1,
The user interface control method of a portable electric and electronic device, characterized in that as the user alternates between the left and right hands to grip the device, the left and right symmetrical user interface images are displayed on the screen area within the movement range of the corresponding thumb.
제1항에 있어서,
상기 사용자 인터페이스 영상은, 상기 기기의 운용 시에 화면에 표시되는 한글, 영문, 숫자, 기호, 방향키 또는 기능키를 포함하는 키보드, 상기 기기의 초기 구동 시의 바탕화면에 표시되는 아이콘, 또는 상기 기기에서 응용 프로그램 실행시의 메뉴, 확인, 취소, 또는 방향키에 대한 버튼을 포함하는 것을 특징으로 하는 휴대용 전기전자 기기의 사용자 인터페이스 제어 방법.
The method of claim 1,
The user interface image may include a keyboard including Korean, English, numbers, symbols, direction keys or function keys displayed on the screen when the device is operated, an icon displayed on the background screen when the device is initially driven, or the device. And a button for a menu, confirmation, cancellation, or direction key when the application is executed.
사용자가 휴대용 전기전자 기기를 왼손 또는 오른손으로 파지 시 상기 기기의 좌우 측면이나 후면 좌우에 설치된 접촉센서로부터 전기적 신호를 수신하는 접촉 센서 신호 수신부;
상기 전기적 신호에 따라 사용자가 상기 기기를 파지한 방향을 인식하는 방향 인식부;
사용자가 상기 기기를 파지한 상태에서의 엄지 손가락의 움직임 범위 내의 화면 영역에 사용자 인터페이스 영상을 배치하는 제어부; 및
상기 사용자 인터페이스 영상을 상기 기기의 화면에 표시하는 디스플레이 구동부
를 포함하는 것을 특징으로 하는 휴대용 전기전자 기기의 사용자 인터페이스 제어 장치.
A contact sensor signal receiver configured to receive an electrical signal from a touch sensor installed at left, right, left, and right sides of the device when the user grips the portable electronic device with his left or right hand;
A direction recognizing unit recognizing a direction in which the user grips the device according to the electrical signal;
A control unit for arranging a user interface image in a screen area within a movement range of a thumb in a state in which a user grips the device; And
A display driver to display the user interface image on the screen of the device;
Device for controlling the user interface of a portable electrical and electronic device comprising a.
제5항에 있어서,
사용자가 상기 사용자 인터페이스 영상에 포함된 사용자 입력 버튼을 터치하면 상기 기기의 화면 상에 구비된 터치스크린으로부터 터치 입력 신호를 수신하여 상기 제어부가 해당 선택 위치에 대응되는 명령을 실행하도록 제어하는 터치스크린 구동부
를 더 포함하는 것을 특징으로 하는 휴대용 전기전자 기기의 사용자 인터페이스 제어 장치.
The method of claim 5,
When a user touches a user input button included in the user interface image, the touch screen driver receives a touch input signal from a touch screen provided on the screen of the device and controls the controller to execute a command corresponding to the selected position.
Device for controlling the user interface of a portable electrical and electronic device further comprising.
제5항에 있어서,
상기 접촉 센서는 사용자의 손바닥 또는 손가락 접촉 시의 접촉 압력에 따라 해당 전기적 신호를 발생하는 압력 센서, 또는 사용자의 손바닥 또는 손가락 접촉 시의 정전 용량 변화에 따라 해당 전기적 신호를 발생하는 정전용량 센서를 포함하는 것을 특징으로 하는 휴대용 전기전자 기기의 사용자 인터페이스 제어 장치.
The method of claim 5,
The touch sensor may include a pressure sensor generating a corresponding electrical signal according to a contact pressure when a user touches a palm or a finger, or a capacitive sensor generating a corresponding electrical signal according to a change in capacitance when a user touches a palm or a finger. A user interface control device for a portable electric electronic device, characterized in that.
제5항에 있어서,
상기 휴대용 전기전자 기기의 좌우 측면과 후면 좌우의 각각의 2 이상의 복수의 위치에 상기 접촉 센서가 설치되는 것을 특징으로 하는 휴대용 전기전자 기기의 사용자 인터페이스 제어 장치.
The method of claim 5,
And the touch sensor is provided at two or more positions respectively at the left and right sides and the rear left and right sides of the portable electric and electronic device.
제5항에 있어서,
상기 제어부는 사용자가 좌우 양손을 서로 번갈아 바꾸어 상기 기기를 파지함에 따라 좌우 대칭적인 사용자 인터페이스 영상을 해당 엄지 손가락의 움직임 범위 내의 화면 영역에 배치하는 것을 특징으로 하는 휴대용 전기전자 기기의 사용자 인터페이스 제어 장치.
The method of claim 5,
And the control unit arranges the left and right symmetrical user interface images in a screen area within a movement range of the thumb as the user alternates between the left and right hands and grips the device.
제5항에 있어서,
상기 사용자 인터페이스 영상은, 상기 기기의 운용 시에 화면에 표시되는 한글, 영문, 숫자, 기호, 방향키 또는 기능키를 포함하는 키보드, 상기 기기의 초기 구동 시의 바탕화면에 표시되는 아이콘, 또는 상기 기기에서 응용 프로그램 실행시의 메뉴, 확인, 취소, 또는 방향키에 대한 버튼을 포함하는 것을 특징으로 하는 휴대용 전기전자 기기의 사용자 인터페이스 제어 장치.
The method of claim 5,
The user interface image may include a keyboard including Korean, English, numbers, symbols, direction keys or function keys displayed on the screen when the device is operated, an icon displayed on the background screen when the device is initially driven, or the device. The user interface control device of a portable electric and electronic device, characterized in that it comprises a button for the menu, confirmation, cancel, or direction keys when the application is executed.
KR1020110047981A 2011-05-20 2011-05-20 User Interface Control Apparatus and Method of Portable Electric and Electronic Device KR20120129621A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110047981A KR20120129621A (en) 2011-05-20 2011-05-20 User Interface Control Apparatus and Method of Portable Electric and Electronic Device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110047981A KR20120129621A (en) 2011-05-20 2011-05-20 User Interface Control Apparatus and Method of Portable Electric and Electronic Device

Publications (1)

Publication Number Publication Date
KR20120129621A true KR20120129621A (en) 2012-11-28

Family

ID=47514092

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110047981A KR20120129621A (en) 2011-05-20 2011-05-20 User Interface Control Apparatus and Method of Portable Electric and Electronic Device

Country Status (1)

Country Link
KR (1) KR20120129621A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140103631A (en) * 2013-02-19 2014-08-27 삼성전자주식회사 Apparatus and method for processing input through user interface
KR101438636B1 (en) * 2013-07-25 2014-09-05 현대자동차 주식회사 Touch point recognition method of touch screen and the system performing this
KR20140137996A (en) * 2013-05-24 2014-12-03 삼성전자주식회사 Method and apparatus for displaying picture on portable devices
US10691291B2 (en) 2013-05-24 2020-06-23 Samsung Electronics Co., Ltd. Method and apparatus for displaying picture on portable device
CN115087952A (en) * 2020-02-10 2022-09-20 日本电气株式会社 Program for portable terminal, processing method, and portable terminal

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140103631A (en) * 2013-02-19 2014-08-27 삼성전자주식회사 Apparatus and method for processing input through user interface
KR20140137996A (en) * 2013-05-24 2014-12-03 삼성전자주식회사 Method and apparatus for displaying picture on portable devices
US10691291B2 (en) 2013-05-24 2020-06-23 Samsung Electronics Co., Ltd. Method and apparatus for displaying picture on portable device
KR101438636B1 (en) * 2013-07-25 2014-09-05 현대자동차 주식회사 Touch point recognition method of touch screen and the system performing this
CN115087952A (en) * 2020-02-10 2022-09-20 日本电气株式会社 Program for portable terminal, processing method, and portable terminal

Similar Documents

Publication Publication Date Title
JP5759660B2 (en) Portable information terminal having touch screen and input method
US20130215060A1 (en) Mobile terminal apparatus and display method for touch panel in mobile terminal apparatus
JP4880304B2 (en) Information processing apparatus and display method
JP5977627B2 (en) Information processing apparatus, information processing method, and program
WO2012150697A1 (en) Touch panel-type portable terminal and input operation method
WO2009090704A1 (en) Portable terminal
EP3525075B1 (en) Method for lighting up screen of double-screen terminal, and terminal
WO2013150998A1 (en) Mobile electronic device
JP5640486B2 (en) Information display device
JP2014203183A (en) Information processing device and program
JP5222967B2 (en) Mobile device
KR20130036329A (en) Tactile sensation providing apparatus and control method for tactile sensation providing apparatus
WO2014012472A1 (en) User interface icon mangement method and touch control device
CN103809866A (en) Operation mode switching method and electronic equipment
KR20120129621A (en) User Interface Control Apparatus and Method of Portable Electric and Electronic Device
KR20130069725A (en) Tactile sensation providing apparatus and control method for tactile sensation providing apparatus
EP3211510B1 (en) Portable electronic device and method of providing haptic feedback
JP6017995B2 (en) Portable information processing apparatus, input method thereof, and computer-executable program
CN109643174B (en) Information processing apparatus, storage medium, and information processing system
WO2012111227A1 (en) Touch input device, electronic apparatus, and input method
EP2146493B1 (en) Method and apparatus for continuous key operation of mobile terminal
CA2771545C (en) Portable electronic device including touch-sensitive display and method of controlling same
WO2012102055A1 (en) Electronic device
US20170075453A1 (en) Terminal and terminal control method
EP2521342B1 (en) Method of device selection using sensory input and portable electronic device configured for same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E601 Decision to refuse application