KR20110011338A - 사용자의 동작에 따른 디스플레이 장치 및 방법 - Google Patents

사용자의 동작에 따른 디스플레이 장치 및 방법 Download PDF

Info

Publication number
KR20110011338A
KR20110011338A KR1020090068929A KR20090068929A KR20110011338A KR 20110011338 A KR20110011338 A KR 20110011338A KR 1020090068929 A KR1020090068929 A KR 1020090068929A KR 20090068929 A KR20090068929 A KR 20090068929A KR 20110011338 A KR20110011338 A KR 20110011338A
Authority
KR
South Korea
Prior art keywords
user
display
application
detected
controlling
Prior art date
Application number
KR1020090068929A
Other languages
English (en)
Other versions
KR101590762B1 (ko
Inventor
장욱
박준아
이현정
한승주
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090068929A priority Critical patent/KR101590762B1/ko
Publication of KR20110011338A publication Critical patent/KR20110011338A/ko
Application granted granted Critical
Publication of KR101590762B1 publication Critical patent/KR101590762B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger

Abstract

사용자의 동작에 따른 디스플레이 장치 및 방법이 개시된다. 사용자의 행위를 감지하고, 상기 감지된 사용자의 행위에 따라 애플리케이션의 실행을 제어하고, 상기 제어된 애플리케이션의 상태를 디스플레이하는 디스플레이 장치 및 방법이 개시된다.
Figure P1020090068929
사용자, 동작, 애플리케이션, 객체, 모드

Description

사용자의 동작에 따른 디스플레이 장치 및 방법{DISPLAY APPARATUS AND METHOD BY USER'S ACTION}
본 발명의 실시예들은 사용자의 동작에 따른 디스플레이 장치 및 방법에 관한 것이다.
전형적인 사무 환경은 책상 위에 컴퓨터가 배치되고, 컴퓨터를 이용하여 사용자가 작업을 수행하기 위해 필요한 정보가 종이와 같은 인쇄 매체나 컴퓨터 모니터 화면을 통해 보이는 전자 문서 형태로 제공된다.
현재 대중화된 모니터들 중 대형 모니터는 22인치 정도로서 그 크기가 가로 52센티미터, 세로 44.15센티미터이고, 일반적인 책상의 크기는 가로 120센티미터, 세로 80센티미터이다. 그러나, 현재 모니터가 22인치로 상당히 큰 경우라고 해도 전체 크기는 일반 책상에 비해 면적으로 23퍼센트 정도의 공간만을 사용자에게 제시한다. 인간이 어느 정도 집중된 작업을 할 때 시각적으로 인지할 수 있는 형태의 정보를 볼 수 있는 정도의 공간이 필요하다. 그러나, 22인치 모니터인 경우에도 A4 용지를 최대한 2매 정도로 표시할 수 있으며, 이는 일반 사용자가 집중적인 업무를 수행하기에 필요한 모든 정보를 표시하기에 그 크기가 부족하다. 이러한 이유로 컴퓨터만을 이용하여 모든 사무 작업을 수행하기 어렵다. 그래픽 사용자 인터페이스의 특징인 겹치는 윈도우를 활용하면 많은 양의 문서를 모니터 하나에 표현할 수 있으나 이는 수많은 문서가 단지 모니터상에 표현될 수 있을 뿐이며, 사용자가 직접적으로 인지할 수 있는 형태로 보여지지 않는다.
현재 그래픽 사용자 인터페이스는 데스크탑 작업 환경에서 영감을 받은 데스크탑 메타포(desktop metaphor)를 사용하지만 진정한 의미에서 데스크탑 환경을 디지털 디바이스로 대체하기에는 부족하다.
따라서, 디스플레이 자체가 모든 정보를 담을 수 있을 정도로 물리적인 크기가 커져야 하므로 그에 적합한 인터랙션 방안이 요청되고 있다.
본 발명의 일실시예에 따른 디스플레이 장치는 사용자의 행위를 감지하는 센서부와, 상기 감지된 사용자의 행위에 따라 애플리케이션의 실행을 제어하는 제어부 및 상기 제어된 애플리케이션의 실행을 디스플레이하는 디스플레이부를 포함한다.
또한 본 발명의 일실시예에 따른 디스플레이 방법은 사용자의 행위를 감지하는 단계와, 상기 감지된 사용자의 행위에 따라 애플리케이션의 실행을 제어하는 단계 및 상기 제어된 애플리케이션의 상태를 디스플레이하는 단계를 포함하고, 상기 사용자의 행위는 멀티터치, 펜 입력 또는 객체 조작 동작을 포함한다.
본 발명의 일실시예에 따르면, 사용자의 확대/축소 동작에 따라 애플리케이션의 모드를 전환할 수 있는 디스플레이 장치 및 방법은 제공할 수 있다.
또한 본 발명의 일실시예에 따르면, 사용자의 위치 및 방향에 따라 애플리케이션 또는 가상 객체를 자동으로 정렬할 수 있는 디스플레이 장치 및 방법을 제공할 수 있다.
또한 본 발명의 일실시예에 따르면, 두 개 이상의 디스플레이에 정보를 교환할수 있도록 가상 객체를 이동 또는 복사할 수 있는 디스플레이 장치 및 방법을 제공할 수 있다.
또한 본 발명의 일실시예에 따르면, 문서를 스캔할 수 있는 디스플레이 장 치 및 방법을 제공할 수 있다.
이하에서, 첨부된 도면을 참조하여 본 발명에 따른 실시예들을 상세히 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 또한, 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 일실시예에 따른 디스플레이 장치의 형태를 나타내는 도면이다.
도 1을 참조하면, 제1 디스플레이 장치(a)는 테이블 탑 형태의 제1 디스플레이(110)로 이루어지는 경우이고, 제2 디스플레이 장치(b)는 데이터 탑 형태의 제1 디스플레이(110)와 모니터 형태의 제2 디스플레이(120)가 결합된 혼합 형태이다.
제1 디스플레이 장치(a) 및 제2 디스플레이 장치(b)는 터치, 펜 또는 스마트 퍽(smart puck) 등의 사용자 입력 조작에 따른 애플리케이션에 대한 동작을 디스플레이할 수 있다. 상기 사용자 입력 조작은 펜 입력, 터치 입력 또는 상기 스마트 퍽을 이용한 가상 객체의 조작 등이 포함될 수 있다. 상기 스마트 퍽은 디스플레이(110)에 위치되는 가상 객체를 선택하고, 상기 선택된 가상 객체를 저장할 수 있는 객체의 일종일 수 있다.
도 2는 본 발명의 일실시예에 따른 디스플레이 장치의 구성을 나타내는 도면이다.
도 2를 참조하면, 본 발명의 일실시예에 따른 디스플레이 장치(200)는 센서부(210), 입력 사용자 인터페이스 프로세싱부(220), 제어부(230), 저장부(240), 출 력 사용자 인터페이스 프로세싱부(250), 출력부(260) 및 디스플레이부(270)를 포함한다.
센서부(210)는 디스플레이 장치(200)에서 애플리케이션을 조작하기 위한 각종 사용자의 입력을 감지하기 위한 하나 이상의(1~M) 센서를 포함하고, 상기 복수 개의 센서로부터 상기 사용자의 행위에 따른 상기 사용자의 입력을 감지한다. 센서부(210)는 상기 사용자의 터치를 감지하는 터치 감지 모듈, 상기 사용자에 의해 조작되는 펜의 입력을 감지하는 펜 감지 모듈 또는 스마트 퍽과 같은 객체를 인식하는 객체 인식 모듈을 포함할 수 있다.
일례로 센서부(210)는 상기 터치 감지 모듈을 통해 상기 애플리케이션의 크기를 조작하기 위한 사용자의 축소/확대 동작을 감지할 수 있다.
다른 일례로 센서부(210)는 상기 사용자의 위치 및 방향을 감지할 수 있다.
또 다른 일례로 센서부(210)는 상기 객체 인식 모듈을 통해 디스플레이 상에 위치되는 상기 스마트 퍽과 같은 객체를 인식할 수 있다. 상기 객체 인식 모듈은 상기 객체의 위치 및 영역을 파악하고, 상기 객체의 영역내의 압력 변화를 감지할 수 있다.
또 다른 일례로 센서부(210)는 포토 센서를 더 구비하여 디스플레이 상에 위치한 문서를 스캔하는 스캐너 기능을 수행할 수 있다.
입력 사용자 인터페이스 프로세싱부(220)는 센서부(210)로부터 감지된 사용자의 행위에 관한 정보를 애플리케이션에서 사용 가능한 의미 있는 정보로 변환하기 위한 프로세싱 동작을 수행한다.
제어부(230)는 입력 사용자 인터페이스 프로세싱부(220)을 통해 센서부(210)로부터 감지된 사용자의 행위에 관한 정보가 프로세싱된 데이터를 분석한 결과에 의한 상기 사용자의 행위에 따라 디스플레이 장치(200)의 구성 요소들간의 정보 전달 등을 제어한다. 또한 제어부(230)는 상기 사용자의 행위에 따라 상기 애플리케이션에 대한 동작이 제어된 결과를 출력 사용자 인터페이스 프로세싱부(250)를 통해 출력부(260) 또는 디스플레이부(270)로 제공한다.
일례로 제어부(230)는 상기 감지된 사용자의 동작에 따라 상기 애플리케이션에 대한 모드가 아이콘 모드, 미리 보기 모드 또는 실행(편집) 모드로 변경되도록 제어하고, 상기 변경된 애플리케이션에 대한 모드를 출력 사용자 인터페이스 프로세싱부(240)를 통해 디스플레이부(270)로 제공할 수 있다.
다른 일례로 제어부(230)는 상기 감지된 사용자의 위치 및 방향에 따라 상기 애플리케이션 또는 아이콘의 방향이 조정되도록 제어할 수 있다.
또 다른 일례로 제어부(230)는 상기 감지된 객체 대한 압력 변화에 따라 상기 객체와의 통신 채널을 생성한 후 상기 생성된 통신 채널을 통해 상기 객체의 영역 내 애플리케이션에 대한 정보가 상기 객체로 전송되도록 제어할 수 있다.
또 다른 일례로 제어부(230)는 상기 감지된 사용자의 터치 동작이 객체 선택 동작이면 상기 터치 동작의 위치를 파악하고, 상기 파악된 위치에 대응되는 가상 객체를 선택한 후 상기 감지된 사용자의 터치 동작이 객체 해제 동작이면 상기 사용자의 손 위치를 파악하여 상기 가상 객체를 이동 또는 복사되도록 제어할 수 있다.
또 다른 일례로 제어부(230)는 디스플레이 상에 위치한 물체가 스캔 가능한 문서인 경우 상기 사용자의 스캔 명령 요청 동작에 따라 상기 문서가 스캔되도록 제어할 수 있다.
저장부(240)는 상기 애플리케이션뿐만 아니라 상기 애플리케이션의 동작에 따른 데이터 또는 정보를 저장한다.
출력 사용자 인터페이스 프로세싱부(250)는 제어부(230)의 의해 상기 사용자의 행위에 따른 애플리케이션에 대한 제어 동작에 대한 결과를 출력부(260) 또는 디스플레이부(270)로 출력할 수 있는 정보로 변환한다.
출력부(260)는 비시각적 인터페이스로서 상기 사용자의 행위에 따른 애플리케이션이 제어된 결과를 출력한다. 상기 비시각적 인터페이스는 디스플레이 형태의 시각적 인터페이스를 제외한 모든 출력 인터페이스가 포함될 수 있다.
디스플레이부(270)는 하나 이상의 디스플레이(1~N)를 포함하고, 상기 사용자에게 시각적인 피드백을 제공하기 위한 시각적 인터페이스로서 상기 사용자의 행위에 따른 애플리케이션이 제어된 결과를 상기 디스플레이 상에 디스플레이한다.
일례로 디스플레이부(270)는 출력 사용자 인터페이스 프로세싱부(250)를 통해 제어부(230)의 제어에 의해 상기 애플리케이션에 대한 축소/확대 동작에 따른 전환된 애플리케이션에 대한 모드를 아이콘 모드, 미리 보기 모드 또는 실행(편집) 모드로 디스플레이할 수 있다.
다른 일례로 디스플레이부(270)는 상기 사용자의 위치 및 방향에 대응되도록 정렬된 애플리케이션 또는 아이콘의 위치 및 방향을 디스플레이할 수 있다.
또 다른 일례로 디스플레이부(270)는 제1 디스플레이 및 제2 디스플레이를 포함하는 경우 상기 제1 디스플레이에 위치한 가상 객체가 사용자의 동작에 따라 상기 제2 디스플레이로 이동 또는 복사된 것을 디스플레이할 수 있다.
도 3은 본 발명의 일실시예에 따른 확대/축소 기능에 의한 애플리케이션의 실행을 나타내는 도면이다.
도 3을 참조하면, 센서부(210)는 애플리케이션에 대한 확대 또는 축소 기능을 선택하기 위한 사용자의 행위에 따라 축소 동작(301) 또는 확대 동작(302)을 감지한다. 축소 동작(301) 또는 확대 동작(302)은 애플리케이션에 대한 아이콘 모드(311), 미리 보기 모드(312) 또는 실행(편집) 모드(313)로 변환하기 위한 사용자의 터치 동작일 수 있다. 예를 들어, 상기 애플리케이션이 문서 작성 응용 프로그램인 경우, 아이콘 모드(311)는 상기 문서 작성 응용 프로그램으로 작성된 문서 파일에 대한 아이콘 형태로 제공되고, 미리 보기 모드(312)는 상기 작성된 문서 파일의 내용이 미리 보기 형태로 제공되고, 실행(편집) 모드(313)는 상기 작성된 문서 파일이 실행되어 편집될 수 있는 상태로 제공될 수 있다.
일례로 상기 사용자는 애플리케이션에 대한 아이콘 모드(311)에서 애플리케이션의 축소 동작(301) 또는 확대 동작(302)을 수행하면, 센서부(210)가 확대 동작(302)을 감지할 수 있다. 입력 사용자 인터페이스 프로세싱부(220)가 상기 감지된 확대 동작(302)에 대한 정보를 프로세싱할 수 있다. 제어부(230)가 상기 프로세싱 결과에 따라 축소 동작(301) 또는 확대 동작(302)에 따라 상기 애플리케이션에 대한 미리 보기 모드(312) 또는 실행(편집) 모드(313)로 전환되도록 제어 동작 을 수행할 수 있다.
도 4는 본 발명의 일실시예에 따른 애플리케이션에 대한 모드 변환 절차를 나타내는 도면이다.
도 4를 참조하면, 디스플레이 장치(200)는 사용자의 입력에 따른 센서 데이터를 획득하고(S410), 상기 획득된 센서 데이터를 인식한 후(S420) 상기 인식된 센서 데이터를 이용하여 애플리케이션에 대한 크기를 계산하고(S430), 계산된 애플리케이션에 대한 크기에 따라 아이콘 모드, 미리 보기 모드 또는 실행(편집) 모드를 디스플레이한다(S440~S460). 상기 애플리케이션에 대한 크기는 도 3에 도시된 것과 같이 상기 사용자의 입력에 따라 축소 동작(301) 또는 확대 동작(302)에 의한 상기 사용자가 변경하고자 하는 애플리케이션의 크기에 대응될 수 있다.
일례로 상기 계산된 애플리케이션에 대한 크기가 제1 기준치보다 작은 경우, 디스플레이 장치(200)는 상기 애플리케이션에 대한 모드를 애플리케이션에 대한 아이콘 모드로 전환하여 디스플레이할 수 있다(S440). 상기 제1 기준치는 상기 애플리케이션에 대한 모드가 상기 애플리케이션에 대한 아이콘 모드 또는 미리 보기 모드로 전환될 수 있는 기준치이다.
다른 일례로 상기 계산된 애플리케이션에 대한 크기가 제1 기준치보다 크고, 제2 기준치보다 작은 경우, 디스플레이 장치(200)는 상기 애플리케이션에 대한 모드를 애플리케이션에 대한 미리 보기 모드로 전환하여 디스플레이할 수 있다(S450). 상기 제2 기준치는 상기 애플리케이션에 대한 모드가 상기 애플리케이션에 대한 미리 보기 모드 또는 실행(편집) 모드로 전환될 수 있는 기준치이다.
또 다른 일례로 상기 계산된 애플리케이션에 대한 크기가 상기 제2 기준치보다 큰 경우, 디스플레이 장치(200)는 상기 애플리케이션에 대한 모드를 애플리케이션에 대한 실행(편집) 모드로 전환하여 디스플레이할 수 있다(S460).
이와 같이, 본 발명의 일실시예에 따른 디스플레이 장치는 사용자가 애플리케이션의 크기를 변경하고자 하는 경우 사용자의 축소 또는 확대 동작에 따른 애플리케이션의 크기를 정해진 기준치와 비교한 결과에 따라 애플리케이션에 대한 모드를 아이콘 모드, 미리 보기 모드 또는 실행(편집) 모드로 전환할 수 있다.
도 5는 본 발명의 일실시예에 따른 애플리케이션 또는 아이콘의 방향이 조정된 일례를 나타내는 도면이다.
도 5를 참조하면, 디스플레이(500)는 제1 사용자(501)가 제1 방향에 위치하면, 제1 사용자(502)에 의해 사용되는 애플리케이션 또는 아이콘(511)의 방향을 상기 제1 방향으로 조정하여 디스플레이할 수 있다. 또한 디스플레이(500)는 제2 사용자(502)가 제2 방향에 위치하면, 제2 사용자(502)에 의해 사용되는 애플리케이션 또는 아이콘(512)의 방향을 상기 제2 방향으로 조정하여 디스플레이할 수 있다.
이와 같이, 본 발명의 일실시예에 따른 디스플레이 장치는 사용자의 위치를 파악하고, 파악된 사용자의 위치에 따라 애플리케이션 또는 아이콘의 방향을 조정하여 디스플레이할 수 있다.
도 6은 본 발명의 일실시예에 따른 가상 객체가 정렬된 일례를 나타내는 도면이다.
도 6을 참조하면, 사용자(600)가 디스플레이(610)에서 X만큼의 위치에서
Figure 112009046268616-PAT00001
Figure 112009046268616-PAT00002
만큼의 각도에 위치하는 경우 디스플레이(610)상의 제1 위치(611)에 디스플레이되는 정렬 이전의 가상 객체 상태(a)에서 사용자(600)의 위치 및 방향에 따라 디스플레이(610)상의 제2 위치(612)에 정렬된 가상 객체 상태(b)로 변환되도록 가상 객체에 대한 위치 및 방향을 조정할 수 있다.
도 7은 본 발명의 일실시예에 따른 가상 객체 정렬의 순서도를 나타내는 도면이다.
도 7을 참조하면, 단계(S710)에서 디스플레이 장치(200)는 센서 데이터를 획득한다. 즉, 단계(S710)에서 디스플레이 장치(200)는 센서부(210)를 통해 사용자의 위치 및 방향에 대한 센서 데이터를 획득한다.
단계(S720)에서 디스플레이 장치(200)는 상기 획득된 센서 데이터를 분석하여 상기 사용자의 위치(X) 및 방향(
Figure 112009046268616-PAT00003
)을 파악한다.
도 8은 본 발명의 일실시예에 따른 사용자의 위치 및 방향 파악 방법을 나타내는 도면이다.
도 8을 참조하면, (a)에 도시된 것과 같이 제1 위치(x1, y1)는 사용자(810) 손끝의 위치이며, 제2 각도(
Figure 112009046268616-PAT00004
)는 사용자의 팔과 디스플레이(800) 간의 각도이다. 이 값들은 디스플레이(800)에 내장된 터치 센서를 이용해 계산 가능하다. (b)에 도시된 것과 같이 터치 센서는 사용자의 팔 전체에 관한 이미지(820)를 획득한다. 해당 이미지(820)는 영상 정보의 형태 또는 압력, 접촉과 같은 정보의 형태일 수 있다. 제1 위치(x1, y1)는 영상 처리 기법을 통해 구해질 수 있으며, 제2 각도(
Figure 112009046268616-PAT00005
)는 제1 위치(x1, y1)와 제2 위치(x2, y2)를 이용해 수학식 1에 의해 계산 가능하다.
Figure 112009046268616-PAT00006
L1, L2는 각각 사용자(810)의 팔 길이, 사용자(810)의 상반신의 폭의 절반 크기를 의미하며, 미리 설정될 수 있다. 제1 각도(
Figure 112009046268616-PAT00007
)는 사용자(810)의 팔과 상반신 사이의 각도이며, 마찬가지로 미리 설정될 수 있다. 이때 사용자(810)의 방향(
Figure 112009046268616-PAT00008
)은 수학식 2와 같이 계산된다.
Figure 112009046268616-PAT00009
사용자(810)의 상반신 중앙의 위치(x3, y3)는 수학식 3을 이용하여 계산될 수 있다.
Figure 112009046268616-PAT00010
Figure 112009046268616-PAT00011
따라서 가상 객체의 자동 정렬을 위해 필요한 정보인 사용자(810)의 위 치(X(=x3))와 방향(
Figure 112009046268616-PAT00012
)을 상기 획득된 센서 데이터를 이용하여 계산할 수 있다.
단계(S730)에서 디스플레이 장치(200)는 상기 사용자의 위치에 맞추어 가상 객체를 정렬한다. 일례로 단계(S730)에서 디스플레이 장치(200)는 상기 파악된 사용자의 위치가 제1 위치인 경우, 상기 제1 위치에 대응되도록 상기 가상 객체의 위치를 정렬한다.
단계(S740)에서 디스플레이 장치(200)는 상기 사용자의 방향에 맞추어 상기 가상 객체의 방향을 조정한다. 일례로 단계(S740)에서 디스플레이 장치(200)는 상기 파악된 사용자의 방향이 제1 방향인 경우, 상기 제1 방향에 대응되도록 상기 가상 객체의 방향을 조정할 수 있다.
이와 같이, 본 발명의 일실시예에 따른 디스플레이 장치는 사용자의 위치 및 방향을 파악하여 가상 객체에 대한 위치를 정렬하고, 가상 객체에 대한 방향을 조정할 수 있다.
도 9는 본 발명의 일실시예에 따른 스마트 퍽에 의해 가상 객체가 전송되는 일례를 나타내는 도면이다.
도 9를 참조하면, 사용자는 디스플레이(900)에서 디스플레이되는 가상 객체(910)를 스마트 퍽(920)에 저장하고자 하는 경우 가상 객체(910) 상에 스마트 퍽(920)을 위치시킨 후 스마트 퍽(920)에 압력을 가하는 사용자의 터치 동작(930)이 수행되면, 디스플레이(900)는 가상 객체(910)를 스마트 퍽(920)으로 전송한다. 스마트 퍽(920)는 디스플레이(900)에 디스플레이되는 가상 객체(910)를 저장할 수 있는 객체일 수 있다.
도 10은 본 발명의 일실시예에 따른 스마트 퍽으로 가상 객체를 전송하는 순서도를 나타내는 도면이다.
도 10을 참조하면, 단계(S1010)에서 디스플레이 장치(200)는 센서부(210)를 통해 스마트 퍽의 위치 및 영역을 파악한다. 즉, 단계(S1010)에서 디스플레이 장치(200)는 센서부(210)를 통해 가상 객체를 전송하여 저장할 수 있는 객체에 해당되는 스마트 퍽의 위치 및 영역을 파악한다. 일례로 단계(S1010)에서 디스플레이 장치(200)는 센서부(210)를 통해 도 9에 도시된 것과 같이 디스플레이(900)에 위치된 스마트 퍽(920)을 감지하고, 스마트 퍽(920)의 위치 및 영역을 파악할 수 있다.
단계(S1020)에서 디스플레이 장치(200)는 센서부(210)를 통해 스마트 퍽 영역 내의 압력 변화를 감지한다. 일례로 단계(S1020)에서 디스플레이 장치(200)는 센서부(210)를 통해 도 9에 도시된 것과 같이 사용자가 스마트 퍽(920)에 압력을 가하면, 스마트 퍽(920) 영역 내의 압력 변화를 감지할 수 있다.
단계(S1030)에서 디스플레이 장치(200)는 스마트 퍽 영역 내에 위치한 가상 객체를 선택한다. 일례로 단계(S1030)에서 디스플레이 장치(200)는 도 9에 도시된 것과 같이 스마트 퍽(920) 영역 내에 위치한 가상 객체(910)를 선택한다.
단계(S1040)에서 디스플레이 장치(200)는 스마트 퍽과 통신 채널을 생성한다. 즉, 단계(S1040)에서 디스플레이 장치(200)는 상기 선택된 가상 객체를 전송하기 위한 스마트 퍽과 디스플레이 장치(200)간의 통신 채널을 생성한다.
단계(S1050)에서 디스플레이 장치(200)는 상기 선택된 가상 객체를 스마트 퍽으로 전송한다. 즉, 단계(S1050)에서 디스플레이 장치(200)는 상기 생성된 스마트 퍽과의 통신 채널을 통해 상기 선택된 가상 객체의 정보를 상기 스마트 퍽으로 전송한다.
이와 같이, 본 발명의 일실시예에 따른 디스플레이 장치는 사용자의 터치 제스처를 통해 스마트 퍽 영역 내에 위치한 가상 객체를 통신 채널을 통해 스마트 퍽으로 전송하여 저장할 수 있다.
도 11은 본 발명의 일실시예에 따른 가상 객체를 이동/복사하는 일례를 나타내는 도면이다.
도 11을 참조하면, (a) 상태는 제1 디스플레이(1111)가 가상 객체(1120)를 디스플레이하고, 내장된 터치 센서를 통해 사용자의 터치 동작이 가상 객체(1120)를 선택하는 동작임을 감지한 상태이다. 제1 디스플레이(1111)는 사용자가 (a) 상태와 같이 실제로 물건을 쥐는 제1 손 동작(1131)을 취하는 경우 가상 객체(1120)가 선택되었음을 시스템에 알린다. (b) 상태는 사용자가 제1 디스플레이(1111)에서 제2 디스플레이(1112)로 가상 객체(1120)를 이동시키기 위한 제2 손 동작(1132)을 나타낸다. (c) 상태는 사용자가 제1 디스플레이(1110)에서 제2 디스플레이(1120)로 손을 이동한 후 제2 디스플레이(1120)에서 물건을 놓는 제2 손 동작(1133)을 취하면, 가상 객체(1120)가 제2 디스플레이(1120)로 이동 또는 복사된 상태이다. 제1 디스플레이(1110) 및 제2 디스플레이(1120)는 디스플레이 장치(200)에 의해 서로 연동된다.
도 12는 본 발명의 일실시예에 따른 가상 객체를 이동/복사하는 순서도를 나 타내는 도면이다.
도 12를 참조하면, 단계(S1210)에서 디스플레이 장치(200)는 사용자 터치 제스처를 감지한다. 일례로 단계(S1210)에서 디스플레이 장치(200)는 도 11에 도시된 것과 같이 제1 디스플레이(1111)상의 사용자 터치 제스처를 감지할 수 있다.
단계(S1220)에서 디스플레이 장치(200)는 상기 감지된 사용자 터치 제스처가 객체 선택 동작인지 여부를 판단한다. 일례로 단계(S1220)에서 디스플레이 장치(200)는 상기 감지된 사용자 터치 제스처가 도 11에 도시된 것과 같은 제1 손 동작(1131)인 경우 가상 객체를 선택하기 위한 객체 선택 동작인 것으로 판단할 수 있다.
단계(S1230)에서 디스플레이 장치(200)는 상기 감지된 사용자 터치 제스처가 상기 객체 선택 동작인 것으로 판단되면, 터치 제스처 위치를 파악한다. 일례로 단계(S1230)에서 디스플레이 장치(200)는 도 11에 도시된 것과 같은 제1 디스플레이(1111)의 객체 선택 동작에 해당되는 제1 손 동작(1131)의 위치를 파악할 수 있다.
단계(S1240)에서 디스플레이 장치(200)는 상기 파악된 터치 제스처 위치에 대응되는 가상 객체를 선택한다. 일례로 단계(S1240)에서 디스플레이 장치(200)는 도 11에 도시된 것과 같이 제1 손 동작(113)의 위치에 대응되는 가상 객체(1120)를 선택할 수 있다.
단계(S1250)에서 디스플레이 장치(200)는 상기 선택된 가상 객체에 대한 해제 동작인지 여부를 판단한다. 일례로 단계(S1250)에서 디스플레이 장치(200)는 도 11에 도시된 것과 같은 제2 디스플레이(1112)로 이동된 후 가상 객체(1120)를 놓는 제3 손 동작(1133)인 경우 선택된 가상 객체(1120)를 해제하는 동작인 것으로 판단할 수 있다.
단계(S1260)에서 디스플레이 장치(200)는 사용자의 손 위치를 파악한다. 일례로 단계(S1260)에서 디스플레이 장치(200)는 도 11에 도시된 것과 같이 제2 디스플레이(1112)에 위치한 제3 손 동작(113)에 대한 사용자의 손 위치를 파악할 수 있다.
단계(S1270)에서 디스플레이 장치(200)는 상기 파악된 사용자의 손 위치에 대응되는 디스플레이의 위치에 가상 객체를 이동시키거나 복사한다. 일례로 단계(S1270)에서 디스플레이 장치(200)는 도 11에 도시된 것과 같이 제3 손 동작(113)에 대한 사용자의 손 위치에 대응되는 제2 디스플레이(1112)의 위치에 가상 객체(1120)를 이동시키거나 복사할 수 있다.
이와 같이, 본 발명의 일실시예에 따른 디스플레이 장치(200)는 두 개 이상의 디스플레이에 정보를 교환할 필요가 있는 경우 사용자의 터치 제스처를 활용하여 제1 디스플레이에 존재하는 가상 객체를 제2 디스플레이로 이동 또는 복사할 수 있다.
도 13은 본 발명의 일실시예에 따른 디스플레이 장치에서 문서 스캔의 일례를 나타내는 도면이다.
도 13을 참조하면, 디스플레이(1300)는 각 픽셀 사이에 포토 센서(photo sensor)가 배치되어 스캐너의 역할을 수행할 수 있는 입출력 일체형 디스플레이 형 태로 구현된다. 물체(1310)가 디스플레이(1300) 상에 위치되고, 사용자의 터치 제스처를 통해 스캔 명령이 요청되고, 물체(1310)가 스캔 가능한 문서인 경우 자동으로 스캔될 수 있다.
도 14는 본 발명의 일실시예에 따른 문서 스캔 순서도의 일례를 나타내는 도면이다.
도 14를 참조하면, 단계(S1410)에서 디스플레이 장치(200)는 센서부(210)를 통해 센서 데이터를 취득한다. 일례로 단계(S1410)에서 디스플레이 장치(200)는 센서부(210)를 통해 도 13에 도시된 것과 같이 디스플레이(1300) 상에 위치한 물체(1310)에 대한 센서 데이터를 취득한다.
단계(S1420)에서 디스플레이 장치(200)는 상기 취득된 센서 데이터를 해석한다. 일례로 단계(S1420)에서 디스플레이 장치(200)는 도 13에 도시된 것과 같이 디스플레이(1300) 상에 위치된 물체(1310)로부터 취득된 센서 데이터를 해석할 수 있다.
단계(S1430)에서 디스플레이 장치(200)는 상기 해석된 센서 데이터가 문서인지 여부를 판단한다. 일례로 단계(S1430)에서 디스플레이 장치(200)는 도 13에 도시되 것과 같이 디스플레이(1300) 상에 위치한 물체(1310)에 대한 해석된 센서 데이터가 스캔 가능한 문서인지 여부를 판단할 수 있다.
단계(S1440)에서 디스플레이 장치(200)는 상기 해석된 센서 데이터가 스캔 가능한 문서인 것으로 판단된 후 센서부(210)를 통해 센서 데이터를 취득한다. 일례로 단계(S1440)에서 디스플레이 장치(200)는 상기 해석된 센서 데이터가 스캔 가 능한 문서인 것으로 판단된 후 센서부(210)를 통해 상기 스캔 가능한 문서에 대해 스캔 명령을 요청하기 위한 사용자의 터치 동작에 대한 센서 데이터를 취득할 수 있다.
단계(S1450)에서 디스플레이 장치(200)는 상기 취득된 센서 데이터가 스캔 명령인지 여부를 판단한다. 일례로 단계(S1450)에서 디스플레이 장치(200)는 상기 사용자의 터치 동작에 의해 취득된 센서 데이터가 상기 스캔 가능한 문서에 대해 상기 사용자에 의해 가해지는 압력 정보인 경우 상기 문서에 대한 스캔 명령인 것을 판단할 수 있다.
단계(S1460)에서 디스플레이 장치(200)는 상기 취득된 센서 데이터가 스캔 명령인 것으로 판단되면, 문서를 스캔한다. 일례로 단계(S1460)에서 디스플레이 장치(200)는 상기 취득된 센서 데이터가 스캔 명령인 것으로 판단되면, 상기 내장된 스캐너 기능을 이용하여 상기 스캔 가능한 문서를 스캔할 수 있다.
이와 같이, 본 발명의 일실시예에 따른 디스플레이 장치는 스캐너의 역할을 수행할 수 있는 입출력 일체형 디스플레이인 경우 디스플레이 상에 문서를 위치시킨 후 사용자의 터치 제스처를 통해 문서 스캔을 자동을 수행할 수 있다.
본 발명의 일실시예에 따른 디스플레이 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.
따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
도 1은 본 발명의 일실시예에 따른 디스플레이 장치의 형태를 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 디스플레이 장치의 구성을 나타내는 도면이다.
도 3은 본 발명의 일실시예에 따른 확대/축소 기능에 의한 애플리케이션의 실행을 나타내는 도면이다.
도 4는 본 발명의 일실시예에 따른 애플리케이션에 대한 모드 변환 절차를 나타내는 도면이다.
도 5는 본 발명의 일실시예에 따른 애플리케이션 또는 아이콘의 방향이 조정된 일례를 나타내는 도면이다.
도 6은 본 발명의 일실시예에 따른 가상 객체가 정렬된 일례를 나타내는 도면이다.
도 7은 본 발명의 일실시예에 따른 가상 객체 정렬의 순서도를 나타내는 도면이다.
도 8은 본 발명의 일실시예에 따른 사용자의 위치 및 방향 파악 방법을 나타내는 도면이다.
도 9는 본 발명의 일실시예에 따른 스마트 퍽에 의해 가상 객체가 전송되는 일례를 나타내는 도면이다.
도 10은 본 발명의 일실시예에 따른 스마트 퍽으로 가상 객체를 전송하는 순 서도를 나타내는 도면이다.
도 11은 본 발명의 일실시예에 따른 가상 객체를 이동/복사하는 일례를 나타내는 도면이다.
도 12는 본 발명의 일실시예에 따른 가상 객체를 이동/복사하는 순서도를 나타내는 도면이다.
도 13은 본 발명의 일실시예에 따른 문서 스캔의 일례를 나타내는 도면이다.
도 14는 본 발명의 일실시예에 따른 문서 스캔 순서도의 일례를 나타내는 도면이다.
<도면의 주요 부분에 대한 부호의 설명>
200: 디스플레이 장치
210: 센서부
220: 입력 사용자 인터페이스 프로세싱부
230: 제어부
240: 저장부
250: 출력 사용자 인터페이스 프로세싱부
260: 출력부
270: 디스플레이부

Claims (14)

  1. 사용자의 행위를 감지하는 센서부;
    상기 감지된 사용자의 행위에 따라 애플리케이션의 실행을 제어하는 제어부; 및
    상기 제어된 애플리케이션의 실행을 디스플레이하는 디스플레이부
    를 포함하는 디스플레이 장치.
  2. 제1항에 있어서,
    상기 센서부는,
    상기 사용자의 터치 동작을 감지하는 터치 감지 모듈;
    상기 사용자에 의한 펜 입력을 감지하는 펜 감지 모듈; 및
    상기 사용자에 의해 조작되는 객체를 인식하는 객체 인식 모듈
    을 포함하는 디스플레이 장치.
  3. 제1항에 있어서,
    상기 센서부는,
    상기 사용자로부터 상기 애플리케이션을 확대 또는 축소하는 동작을 감지하고,
    상기 제어부는,
    상기 감지된 사용자의 확대 또는 축소 동작에 따라 상기 애플리케이션에 대한 모드가 아이콘 모드, 미리 보기 모드 또는 실행 모드로 변경되도록 제어하는 디스플레이 장치.
  4. 제1항에 있어서,
    상기 센서부는,
    상기 사용자의 위치 및 방향을 감지하고,
    상기 제어부는,
    상기 감지된 사용자의 위치 및 방향에 따라 상기 애플리케이션 또는 아이콘의 방향이 조정되도록 제어하는 디스플레이 장치.
  5. 제2항에 있어서,
    상기 객체 인식 모듈은,
    상기 객체의 위치 및 영역을 파악하고, 상기 객체의 영역내의 압력 변화를 감지하고,
    상기 제어부는,
    상기 감지된 압력 변화에 따라 상기 객체와 시스템간의 통신 채널을 생성한 후 상기 생성된 통신 채널을 통해 상기 객체의 영역 내 애플리케이션에 대한 정보가 상기 객체로 전송되도록 제어하는 디스플레이 장치.
  6. 제1항에 있어서,
    상기 디스플레이부는,
    제1 디스플레이 및 제2 디스플레이를 포함하고,
    상기 센서부는,
    상기 제1 디스플레이 또는 상기 제2 디스플레이에서 상기 사용자의 터치 동작 또는 상기 사용자의 손 위치를 감지하고,
    상기 제어부는,
    상기 감지된 사용자의 터치 동작이 객체 선택 동작이면 상기 터치 동작의 위치를 파악하고, 상기 파악된 위치에 대응되는 가상 객체를 선택한 후 상기 감지된 사용자의 터치 동작이 객체 해제 동작이면 상기 사용자의 손 위치를 파악하여 상기 가상 객체가 상기 제1 디스플레이에서 상기 제2 디스플레이로 이동 또는 복사되도록 제어하는 디스플레이 장치.
  7. 제1항에 있어서,
    상기 제어부는,
    상기 디스플레이 상에 위치한 물체가 스캔 가능한 문서인 경우 상기 사용자의 스캔 명령 요청 동작에 따라 상기 문서가 스캔되도록 제어하는 디스플레이 장치.
  8. 사용자의 행위를 감지하는 단계;
    상기 감지된 사용자의 행위에 따라 애플리케이션의 실행을 제어하는 단계; 및
    상기 제어된 애플리케이션의 상태를 디스플레이하는 단계
    를 포함하고,
    상기 사용자의 행위는,
    멀티터치, 펜 입력 또는 객체 조작 동작을 포함하는 디스플레이 방법.
  9. 제8항에 있어서,
    상기 사용자의 행위를 감지하는 단계는,
    상기 사용자에 의한 상기 애플리케이션을 확대 또는 축소하는 동작을 감지하고,
    상기 제어된 애플리케이션의 상태를 디스플레이하는 단계는,
    상기 감지된 동작에 따라 아이콘 모드, 미리 보기 모드 또는 실행 모드로 변환된 애플리케이션을 디스플레이하는 디스플레이 방법.
  10. 제8항에 있어서,
    상기 사용자의 행위를 감지하는 단계는,
    상기 사용자의 위치 및 방향을 감지하고,
    상기 제어된 애플리케이션의 상태를 디스플레이하는 단계는,
    상기 감지된 사용자의 위치 및 방향에 따라 방향이 조정된 애플리케이션 또 는 아이콘을 디스플레이하는 디스플레이 방법.
  11. 제8항에 있어서,
    상기 사용자의 행위를 감지하는 단계는,
    상기 사용자에 의해 조작되는 객체의 위치 및 영역을 파악하고, 상기 객체의 영역내의 압력 변화를 감지하고,
    상기 감지된 사용자의 행위에 따라 애플리케이션의 상태를 제어하는 단계는,
    상기 감지된 압력 변화에 따라 상기 객체의 통신 채널을 생성한 후 상기 생성된 통신 채널을 통해 상기 객체의 영역 내 애플리케이션에 대한 정보가 상기 객체로 전송되도록 제어하는 디스플레이 방법.
  12. 제8항에 있어서,
    상기 사용자의 행위를 감지하는 단계는,
    제1 디스플레이 또는 제2 디스플레이에서 사용자의 터치 동작 또는 사용자의 손 위치를 감지하고,
    상기 감지된 사용자의 행위에 따라 애플리케이션의 상태를 제어하는 단계는,
    상기 감지된 사용자의 터치 동작이 객체 선택 동작이면 상기 터치 동작의 위치를 파악하고, 상기 파악된 위치에 대응되는 가상 객체를 선택한 후 상기 감지된 사용자의 터치 동작이 객체 해제 동작이면 상기 사용자의 손 위치를 파악하여 상기 가상 객체가 상기 제1 디스플레이에서 상기 제2 디스플레이로 이동 또는 복사되도 록 제어하는 디스플레이 방법.
  13. 제8항에 있어서,
    상기 사용자의 행위를 감지하는 단계는,
    디스플레이 상에 위치한 문서를 스캐닝하는 기능을 선택하는 사용자의 행위를 감지하고,
    상기 감지된 사용자의 행위에 따라 애플리케이션의 상태를 제어하는 단계는,
    상기 디스플레이 상에 위치한 물체가 스캔 가능한 문서인 경우 상기 문서가 스캔되도록 제어하는 디스플레이 방법.
  14. 제8항 내지 제13항 어느 한 항의 방법을 수행하는 프로그램을 기록한 컴퓨터 판독 가능 기록 매체.
KR1020090068929A 2009-07-28 2009-07-28 사용자의 동작에 따른 디스플레이 장치 및 방법 KR101590762B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090068929A KR101590762B1 (ko) 2009-07-28 2009-07-28 사용자의 동작에 따른 디스플레이 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090068929A KR101590762B1 (ko) 2009-07-28 2009-07-28 사용자의 동작에 따른 디스플레이 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20110011338A true KR20110011338A (ko) 2011-02-08
KR101590762B1 KR101590762B1 (ko) 2016-02-02

Family

ID=43771570

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090068929A KR101590762B1 (ko) 2009-07-28 2009-07-28 사용자의 동작에 따른 디스플레이 장치 및 방법

Country Status (1)

Country Link
KR (1) KR101590762B1 (ko)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013032234A1 (en) * 2011-08-31 2013-03-07 Samsung Electronics Co., Ltd. Method of providing of user interface in portable terminal and apparatus thereof
KR101380930B1 (ko) * 2012-06-05 2014-04-02 크레신 주식회사 터치 스크린 입력장치
US8931199B1 (en) 2013-03-14 2015-01-13 Battenfeld Technologies, Inc. Firearm magazine loader
KR20160013009A (ko) * 2013-05-20 2016-02-03 소니 주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
US9574836B1 (en) 2016-02-04 2017-02-21 Battenfeld Technologies, Inc. Firearm magazine loader
US10175017B2 (en) 2015-08-19 2019-01-08 Battenfeld Technologies, Inc. Firearm magazine loader having adjustable magazine well

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102311847B1 (ko) * 2019-11-27 2021-10-12 이유상 실감형 사용자 인터페이스를 제공하는 스마트 퍽 및 스마트 테이블

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4264826B2 (ja) * 2004-06-08 2009-05-20 富士フイルム株式会社 画像表示テーブル及び画像表示制御システム
KR100746034B1 (ko) * 2006-02-22 2007-08-06 삼성전자주식회사 미리보기 아이콘을 제공하는 휴대용 장치 및 그 방법
JP4958286B2 (ja) * 2007-05-28 2012-06-20 シャープ株式会社 情報表示装置及び情報表示方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013032234A1 (en) * 2011-08-31 2013-03-07 Samsung Electronics Co., Ltd. Method of providing of user interface in portable terminal and apparatus thereof
KR101380930B1 (ko) * 2012-06-05 2014-04-02 크레신 주식회사 터치 스크린 입력장치
US8931199B1 (en) 2013-03-14 2015-01-13 Battenfeld Technologies, Inc. Firearm magazine loader
US9003687B2 (en) 2013-03-14 2015-04-14 Battenfeld Technologies, Inc. Firearm magazine loader
US9335108B2 (en) 2013-03-14 2016-05-10 Battenfeld Technologies, Inc. Firearm magazine loader
KR20160013009A (ko) * 2013-05-20 2016-02-03 소니 주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
US10175017B2 (en) 2015-08-19 2019-01-08 Battenfeld Technologies, Inc. Firearm magazine loader having adjustable magazine well
US10330411B2 (en) 2015-08-19 2019-06-25 Battenfeld Technologies, Inc. Handgun magazine loader having cartridge driver
US10641566B2 (en) 2015-08-19 2020-05-05 Battenfeld Technologies, Inc. Handgun magazine loader having cartridge driver
US10830547B2 (en) 2015-08-19 2020-11-10 Aob Products Company Firearm magazine loader having adjustable magazine well
US9574836B1 (en) 2016-02-04 2017-02-21 Battenfeld Technologies, Inc. Firearm magazine loader

Also Published As

Publication number Publication date
KR101590762B1 (ko) 2016-02-02

Similar Documents

Publication Publication Date Title
KR101590762B1 (ko) 사용자의 동작에 따른 디스플레이 장치 및 방법
JP4701027B2 (ja) 情報処理装置、制御方法及びプログラム
JP5751934B2 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5917805B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP2006164238A (ja) タッチパッド入力情報の処理方法及びタッチパッド入力情報の処理装置
JP5887807B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP6136321B2 (ja) 情報処理装置、画像処理装置及びプログラム
WO2012044363A1 (en) Systems and methods to facilitate active reading
TW201137692A (en) Control method for touchpad and touch device using the same
US20150220255A1 (en) Information processing apparatus, information processing method, and related program
JP6248462B2 (ja) 情報処理装置及びプログラム
JP2015001813A (ja) 画像形成装置、画像形成装置の制御方法、並びにコンピュータプログラム
JP2012084063A (ja) 表示制御装置、表示制御方法、およびプログラム
US20160028905A1 (en) Image processing apparatus, method for controlling the same, and storage medium
JP6108879B2 (ja) 画像形成装置及びプログラム
EP2610721B1 (en) Method and device for editing layout of objects
US9594445B2 (en) Operation reception device and method for receiving operation on page image, storage medium, and image forming apparatus for use with operation reception device
JP2017142564A (ja) 情報処理装置、情報処理方法、及び、プログラム
JP6745604B2 (ja) 情報処理装置およびその制御方法、並びにプログラム
JP2013164659A (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP5272958B2 (ja) 情報入力装置、情報入力方法、及び情報入力プログラム
JP3439157B2 (ja) 文書処理装置、文書処理方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP7114678B2 (ja) 画像処理装置、画像処理装置の制御方法、及びプログラム
JP2018039270A (ja) 画像形成装置及びプログラム
US11704473B2 (en) Systems and methods to facilitate active reading

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20181218

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20191216

Year of fee payment: 5