KR101714050B1 - 휴대단말기의 데이터 표시장치 및 방법 - Google Patents

휴대단말기의 데이터 표시장치 및 방법 Download PDF

Info

Publication number
KR101714050B1
KR101714050B1 KR1020100107538A KR20100107538A KR101714050B1 KR 101714050 B1 KR101714050 B1 KR 101714050B1 KR 1020100107538 A KR1020100107538 A KR 1020100107538A KR 20100107538 A KR20100107538 A KR 20100107538A KR 101714050 B1 KR101714050 B1 KR 101714050B1
Authority
KR
South Korea
Prior art keywords
data
screen
displayed
delete delete
unit
Prior art date
Application number
KR1020100107538A
Other languages
English (en)
Other versions
KR20120045761A (ko
Inventor
박상민
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020100107538A priority Critical patent/KR101714050B1/ko
Priority to US13/283,694 priority patent/US9245469B2/en
Publication of KR20120045761A publication Critical patent/KR20120045761A/ko
Priority to US14/847,557 priority patent/US10102786B2/en
Application granted granted Critical
Publication of KR101714050B1 publication Critical patent/KR101714050B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/02Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes by tracing or scanning a light beam on a screen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Telephone Function (AREA)
  • Projection Apparatus (AREA)

Abstract

본 발명은 휴대단말기의 데이터 표시장치 및 방법에 관한 것으로, 특히 빔 화면으로 표시되는 데이터를 제어하기 위한 휴대단말기의 데이터 표시장치 및 방법에 관한 것이다.
이를 달성하기 위해 휴대단말기의 데이터 표시장치가, 데이터를 빔 화면으로 표시하는 빔 프로젝트부와; 상기 빔 화면으로 표시되는 데이터를 촬영하는 적어도 하나의 카메라부와; 상기 빔 화면으로 표시되기 위한 데이터와 상기 카메라부를 통해 촬영된 데이터에서 차이점영역을 추출하고, 상기 차이점영역을 제외한 표시화면영역으로 데이터를 빔 화면으로 표시하도록 제어하는 제어부를 포함하는 것을 특징으로 한다.

Description

휴대단말기의 데이터 표시장치 및 방법{DEVICE AND METHOD FOR DISPLAYING DATA IN WIRELESS TERMINAL}
본 발명은 휴대단말기의 데이터 표시장치 및 방법에 관한 것으로, 특히 빔 화면으로 표시되는 데이터를 제어하기 위한 휴대단말기의 데이터 표시장치 및 방법에 관한 것이다.
휴대 단말기에 구비된 빔 프로제트 또는 휴대용 빔 프로젝트의 용도는 비교적 좁은 공간에서 10명이하의 사람들에게 정보를 공유하는데 있다. 이러한 좁은 공간으로 인하여 발표하는 공간상의 제약이 따르고 빔 프로젝터의 특성상 방해물에 취약한 단점이 있다.
빔 프로젝트의 용도는 영화감상 등으로 단순히 화면을 보여 주는 역할만을 하고 있어 빔 프로젝트 기능을 구비한 휴대단말기가 많이 보급되고 있지 않아, 활용도가 떨어지고 있다.
또한 스마트 폰의 발전에 따라 증강현실(Augment Reality)을 이용한 어플리케이션이 많이 개발되고 있다. 현재 증강현실은 주로 카메라 위주로, 현재 촬영되는 이미지상태에 대한 추가 정보를 제공하여 주는 것에 초점을 맞추는 기술들이 진행되고 있다.
증강현실은 기본적으로 현재에 보이는 화면에 덧대어 추가적인 정보를 표시해주는 방식으로 사용되고 있다. 하지만 휴대성과 제품단가 때문에 물리적인 LCD사이즈를 넓히는 데에는 문제가 있고 내용을 간단하게 표시하려고 하면 추가적인 UI 플로우 등이 발생한다.
따라서 본 발명의 목적은 빔 화면으로 표시되는 데이터가 방해물 없이 표시되기 위한 휴대단말기의 데이터 표시 장치 및 방법을 제공하는 것이다.
본 발명의 다른 목적은 빔 화면으로 표시되는 데이터를 통해 적어도 두 피사체 간의 관련 데이터를 표시하기 위한 휴대단말기의 데이터 표시 장치 및 방법을 제공하는 것이다.
본 발명의 또 다른 목적은 빔 화면으로 표시되는 데이터를 통해 무선통신으로 연결된 두 휴대단말기 간에 데이터를 전송하기 위한 휴대단말기의 데이터 표시 장치 및 방법을 제공하는 것이다.
본 발명의 또 다른 목적은 빔 화면으로 표시되는 데이터를 통해 무선통신으로 연결된 두 휴대단말기 간에 동일메뉴에 대한 데이터를 통합하여 표시하기 위한 휴대단말기의 데이터 표시 장치 및 방법을 제공하는 것이다.
본 발명의 또 다른 목적은 빔 화면을 표시되는 데이터를 통해 표시 가능한 화면을 넓게 사용하여 동적으로 정보를 표시함으로서 증강현실의 많은 정보를 표시하기 위한 휴대단말기의 데이터 표시 장치 및 방법을 제공하는 것이다.
상기 목적을 달성하기 위한 휴대단말기의 데이터 표시장치가, 데이터를 빔 화면으로 표시부에 표시하는 빔 프로젝트부와, 상기 빔 화면으로 표시되는 데이터를 촬영하는 적어도 하나의 카메라부와, 상기 빔 화면으로 표시되기 위한 데이터와 상기 카메라부를 통해 촬영된 데이터에서 이동하는 피사체에 의해 발생된 차이점 영역을 추출하고, 상기 추출된 차이점 영역을 제외한 상기 표시부의 표시화면 영역에 상기 빔 화면으로 표시되기 위한 데이터를 빔 화면으로 표시하도록 제어하는 제어부를 포함하며, 상기 빔 화면으로 표시되기 위한 데이터는 상기 차이점 영역에 의해 가려지지 않고 상기 빔 프로젝트부에 의해 빔 화면으로 상기 표시화면 영역에 표시되는 것을 특징으로 한다.
삭제
삭제
삭제
또한, 상기 목적을 달성하기 위한 휴대단말기의 데이터 표시방법이, 데이터를 빔 프로젝트부에 의해 빔 화면으로 표시부에 표시하는 과정과, 적어도 하나의 카메라부에 의해 상기 빔 화면으로 표시되는 데이터를 촬영하는 과정과, 상기 빔 화면으로 표시되기 위한 데이터와 상기 촬영된 데이터에서 이동하는 피사체에 의해 발생된 차이점 영역을 추출하는 과정과, 상기 추출된 차이점 영역을 제외한 상기 표시부의 표시화면영역에 상기 빔 화면으로 표시되기 위한 데이터를 빔 화면으로 표시하는 과정을 포함하며, 상기 빔 화면으로 표시되기 위한 데이터는 상기 차이점 영역에 의해 가려지지 않고 상기 빔 프로젝트부에 의해 빔 화면으로 상기 표시화면 영역에 표시되는 것을 특징으로 한다.
삭제
삭제
삭제
본 발명은 휴대단말기의 데이터 표시 장치 및 방법을 제공함으로써, 방해물 없이 빔 화면으로 데이터를 표시할 수 있으며, 적어도 두 피사체간의 관련 데이터를 공유할 수 있는 효과가 있다.
또한 빔 화면에서 사용자의 동작만으로 무선통신으로 연결된 두 휴대단말기 간에 데이터를 전송하거나 또는 동일메뉴에 대한 데이터 통합하여 표시할 수 있는 효과가 있다.
또한 빔 화면으로 표시되는 데이터를 통해 표시 가능한 화면을 넓게 사용하여 동적으로 정보를 표시함으로써 증강현실의 많은 정보를 표시할 수 있는 효과가 있다.
도 1은 본 발명의 실시 예에 따른 휴대단말기의 구성도.
도 2는 본 발명의 제1 실시 예에 따른 휴대단말기에서 빔 화면으로 데이터를 표시하는 과정을 도시한 흐름도.
도 3은 상기 도 2를 설명하기 위한 도면.
도 4는 본 발명의 제2 실시 예에 따른 휴대단말기에서 두 피사체 간의 관련데이터를 빔 화면으로 표시하는 과정을 도시한 흐름도.
도 5는 상기 도 4를 설명하기 위한 도면.
도 6은 본 발명의 제3 실시 예에 따른 휴대단말기에서 빔 화면에서의 사용자 동작을 통해 무선통신으로 연결된 상대 휴대단말기에게 데이터를 전송하는 과정을 도시한 흐름도.
도 7은 상기 도 6을 설명하기 위한 도면.
도 8은 본 발명의 제4 실시 예에 따른 휴대단말기에서 빔 화면에서의 사용자 동작을 통해 상기 휴대단말기와 무선통신으로 연결된 상대 휴대단말기 간에 동일메뉴에 대한 데이터를 통합하여 표시하는 과정을 도시한 흐름도.
도 9는 상기 도 8을 설명하기 위한 도면.
이하 본 발명의 바람직한 실시 예들의 상세한 설명이 첨부된 도면들을 참조하여 설명될 것이다. 도면들 중 동일한 구성들은 가능한 한 어느 곳에서든지 동일한 부호들을 나타내고 있음을 유의하여야 한다.
도 1은 본 발명의 실시 예에 따른 휴대단말기의 구성을 도시한 도면이다.
상기 도 1을 참조하면, RF부(123)는 휴대 단말기의 무선 통신 기능을 수행한다. 상기 RF부(123)는 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF송신기와, 수신되는 신호를 저잡음 증폭하고 주파수를 하강변환하는 RF수신기등을 포함한다. 데이터처리부(120)는 상기 송신되는 신호를 부호화 및 변조하는 송신기 및 상기 수신되는 신호를 복조 및 복호화 하는 수신기 등을 구비한다. 즉, 상기 데이터 처리부(123)는 모뎀(MODEM) 및 코덱(CODEC)으로 구성될 수 있다. 여기서 상기 코덱은 패킷데이터 등을 처리하는 데이터 코덱과 음성 등의 오디오 신호를 처리하는 오디오 코덱을 구비한다. 오디오 처리부(125)는 상기 데이터 처리부(120)의 오디오 코덱에서 출력되는 수신 오디오신호를 재생하거나 또는 마이크로부터 발생되는 송신 오디오신호를 상기 데이터 처리부(120)의 오디오 코덱에 전송하는 기능을 수행한다.
키 입력부(127)는 숫자 및 문자 정보를 입력하기 위한 키들 및 각종 기능들을 설정하기 위한 기능 키들을 구비한다.
메모리(130)는 프로그램 메모리, 데이터 메모리들로 구성될 수 있다. 상기 프로그램 메모리는 휴대 단말기의 일반적인 동작을 제어하기 위한 프로그램들 및 빔 화면으로 표시되는 데이터를 제어하는 프로그램들을 저장할 수 있다.
제어부(110)는 휴대 단말기의 전반적인 동작을 제어하는 기능을 수행한다.
또한 상기 제어부(110)는 본 발명의 제1 실시 예에 따라 빔 프로젝트 모드에서 빔 프로젝트부(170)를 통해 표시되고 있는 데이터를 카메라부(140)를 통해 촬영하도록 제어한다.
그리고 상기 제어부(110)는 상기 빔 프로젝트부(170)를 통해 표시되기 위한 데이터와 상기 카메라부(140)를 통해 촬영된 데이터간의 차이점영역을 추출하고, 상기 차이점영역을 제외한 표시화면영역을 재정의 하며, 상기 재 정의된 표시화면영역으로 상기 데이터를 빔 화면으로 표시하도록 제어한다.
또한 상기 제어부(110)는 본 발명의 제2 실시 예에 따라 상기 카메라부(140)를 통해 촬영된 적어도 두 피사체간의 관련데이터를 메모리(130)에서 검색하고, 관련데이터 리스트를 상기 빔 프로젝트부(170)를 통해 빔 화면으로 표시하도록 제어한다.
그리고 상기 제어부(110)는 상기 빔 화면에서 상기 관련데이터 리스트를 표시하는 중 상기 빔 화면으로 표시되기 위한 리스트와 상기 카메라부(140)를 통해 촬영된 리스트가 일치하지 않으면 차이점영역을 추출하고, 상기 차이점영역에 위치된 데이터가 피사체에 의해 선택된 것으로 판단하여, 상기 선택된 데이터를 빔 화면으로 표시하도록 제어한다.
상기 빔 화면으로 표시되는 상기 관련데이터 리스트는 상기 적어도 두 피사체 간에 송수신 되었던 SMS 및 e-mail 내용과 같은 대화목록 및 상기 두 피사체간의 관련 영상을 포함한다.
또한 상기 제어부(110)는 본 발명의 제3 실시 예에 따라 무선통신부(180)를 통해 상대 휴대단말기와 연결하고, 두 피사체 각각의 위치에 상기 휴대단말기와 상대 휴대단말기로부터 수신된 데이터를 빔 화면으로 표시하도록 제어한다.
그리고 상기 제어부(110)는 상기 빔 화면으로 표시되기 위한 데이터와 상기 카메라부(140)를 통해 촬영된 데이터 간의 차이점 영역이 발생되면, 데이터 선택 및 이동을 위한 피사체의 동작으로 감지한다.
상기 제어부(110)는 상기 피사체의 동작에 따라 선택된 데이터가 상기 상대 휴대단말기로 이동하는 이미지를 상기 빔 화면으로 표시하도록 제어한다.
상기 제어부(110)는 상기 빔 화면에서 다른 피사체의 동작을 통해 상기 상대 휴대단말기에서 상기 데이터의 수신허여를 판단하면, 상기 무선통신부(180)를 통해 상기 선택된 데이터를 상기 상대 휴대단말기로 전송하도록 제어한다.
상기 제어부(110)는 상기 빔 화면으로 표시되기 위한 데이터와 상기 카메라부(140)를 통해 촬영된 데이터 간에 발생된 차이점 영역을 통해 상기 빔 화면에서의 다른 피사체 동작을 감지할 수 있다.
상기 두 피사체 각각의 위치에 표시되는 데이터는 SNS서비스 목록이 될 수 있다.
또한 상기 두 피사체 각각의 위치에 표시되는 데이터는 휴대단말기에 구비된 두 개의 빔 프로젝트부(170)를 통해 빔 화면으로 표시될 수 있다.
또는 상기 두 피사체 각각의 위치에 표시되는 데이터는 무선통신이 연결된 상기 휴대단말기와 상기 상대 휴대단말기 각각이 구비하고 있는 빔 프로젝트부(170)를 통해 빔 화면으로 표시될 수 있다.
또한 상기 제어부(110)는 본 발명의 제4 실시 예에 따라 무선통신부(180)를 통해 상대 휴대단말기와 연결하고, 두 피사체 각각의 위치에 메뉴의 종류를 빔 화면으로 표시하도록 제어한다.
상기 제어부(110)는 상기 빔 화면으로 표시되기 위한 데이터와 상기 카메라부(140)를 통해 촬영된 데이터 간에 차이점 영역이 발생되면, 메뉴 선택 및 이동을 위한 상기 피사체의 동작으로 감지한다.
상기 제어부(110)는 상기 빔 화면에서 상기 두 피사체의 동작에 따라 선택되는 메뉴를 판단하고, 선택된 메뉴가 동일하면 상기 무선통신부(180)를 통해 상기 상대 휴대단말기로부터 상기 선택된 메뉴에 대한 데이터를 수신한다.
그리고 상기 제어부(110)는 상기 휴대단말기의 데이터와 상기 상대 단말기의 데이터를 통합하고 상기 통합된 데이터를 상기 빔 화면으로 표시하도록 제어한다.
상기 빔 화면으로 표시되는 상기 메뉴는 스케줄, 음악리스트 및 연락처를 포함한다.
또한 상기 두 피사체 각각의 위치에 표시되는 메뉴의 종류는 휴대단말기에 구비된 두 개의 빔 프로젝트부(170)를 통해 빔 화면으로 표시될 수 있다.
또는 상기 두 피사체 각각의 위치에 표시되는 메뉴의 종류는 무선통신이 연결된 상기 휴대단말기와 상기 상대 휴대단말기 각각이 구비하고 있는 빔 프로젝트부(170)를 통해 빔 화면으로 표시될 수 있다.
상기 카메라부(140)는 영상 데이터를 촬영하며, 촬영된 광 신호를 전기적 신호로 변환하는 카메라 센서와, 상기 카메라센서로부터 촬영되는 아날로그 영상신호를 디지털 데이터로 변환하는 신호처리부를 구비한다. 여기서 상기 카메라 센서는 CCD 또는 CMOS센서라 가정하며, 상기 신호처리부는 DSP(Digital Signal Processor)로 구현할 수 있다. 또한 상기 카메라 센서 및 신호처리부는 일체형으로 구현할 수 있으며, 또한 분리하여 구현할 수도 있다.
또한 상기 카메라부(140)는 본 발명의 실 시예에 따라 휴대단말기에서 적어도 하나가 구비될 수 있으며, 적어도 두 피사체를 촬영하거나 또는 상기 빔 화면으로 표시되는 데이터를 촬영한다.
또한 상기 카메라부(140)는 본 발명의 실시 예에 따라 상기 빔 프로젝트부(170)와 일렬로 배치되며, 각도 조절이 가능하다.
상기 영상처리부(150)는 상기 카메라부(140)에서 출력되는 영상신호를 표시부(160)에 표시하기 위한 ISP(Image Signal Processing)를 수행하며, 상기 ISP는 감마교정, 인터폴레이션, 공간적 변화, 이미지 효과, 이미지 스케일, AWB, AE,AF등과 같은 기능을 수행한다. 따라서 상기 영상처리부(150)상기 카메라부(140)에서 출력되는 영상신호를 프레임 단위로 처리하며, 상기 프레임 영상데이터를 상기 표시부(160)의 특성 및 크기에 맞춰 출력한다. 또한 상기 영상처리부(150)는 영상코덱을 구비하며, 상기 표시부(160)에 표시되는 프레임 영상데이터를 설정된 방식으로 압축하거나, 압축된 프레임 영상데이터를 원래의 프레임 영상데이터로 복원하는 기능을 수행한다. 여기서 상기 영상코덱은 JPEG 코덱, MPEG4 코덱, Wavelet 코덱 등이 될 수 있다. 상기 영상처리부(150)는 OSD(On Screen Display) 기능을 구비한다고 가정하며, 상기 제어부(110)의 제어하여 표시되는 화면크기에 따라 온 스크린 표시데이터를 출력할 수 있다.
상기 표시부(160)는 상기 영상처리부(150)에서 출력되는 영상신호를 화면으로 표시하며, 상기 제어부(110)에서 출력되는 사용자 데이터를 표시한다. 여기서 상기 표시부(160)는 LCD를 사용할 수 있으며, 이런 경우 상기 표시부(160)은 LCD제어부(LCD controller), 영상데이터를 저장할 수 있는 메모리 및 LCD표시소자 등을 구비할 수 있다. 여기서 상기 LCD를 터치스크린(touch screen) 방식으로 구현하는 경우, 입력부로 동작할 수도 있으며, 이때 상기 표시부(160)에는 상기 키 입력부(127)와 같은 키들을 표시할 수 있다.
또한 상기 표시부(160)는 본 발명의 실 시예에 따라 상기 빔 프로젝트(170)를 통해 표시되기 위한 데이터가 표시될 수 있다.
상기 빔 프로젝트(170)는 본 발명의 실시 예에 따라 적어도 하나가 구비될 수 있으며, 빔 화면으로 표시하기 위해 정의된 표시화면영역으로 상기 휴대단말기에 저장된 또는 상기 휴대단말기와 유/무선으로 연결된 외부장치의 데이터를 빔 화면으로 표시한다.
또한 상기 빔 프로젝트부(170)는 본 발명의 실시 예에 따라 상기 카메라부(140)와 일렬로 배치되며, 각도 조절이 가능하다.
상기 무선통신부(180)는 상대 휴대단말기와 무선으로 연결하며, 상기 무선으로 연결된 상대 휴대단말기로부터 데이터를 송수신한다. 상기 무선통신부(180)는 WIFI, 적외선 통신 및 블루투스 통신이 될 수 있다.
상기와 같은 휴대단말기에서 빔 화면으로 표시되는 데이터의 제어동작 도 2 - 도 9를 통해 상세히 살펴본다.
도 2는 본 발명의 제1 실시 예에 따른 휴대단말기에서 빔 화면으로 데이터를 표시하는 과정을 도시한 흐름도이고, 도 3은 상기 도 2를 설명하기 위한 도면이다.
이하 본 발명의 실시 예를 도 1의 참조와 함께 상세히 설명한다.
상기 도 2를 참조하면, 휴대단말기의 빔 프로젝트 모드인 201단계에서 상기 제어부(110)는 빔 화면으로 표시되기 위해 사용자에 의해 선택된 데이터를 유동성 데이터로 변환하는 202단계를 진행한다.
상기 202단계에서 상기 제어부(110)는 상기 빔 화면으로 표시하기 위한 데이터를 XAML(Extensible Application Markup Language)이라는 보다 유동성 있는 마크업 랭귀지를 사용하여 변환할 수 있다.
유동문서는 XAML과 XML 기반 표준 생성 언어를 사용하여 정의하는데, 상기 XAML(Extensible Application Markup Language)는 HTML과 유사하기 때문에 특히 직관적이다.
상기와 같은 유동문서는 데이터를 동적으로 변환시키는데 편리함으로, 하기 208단계에서 빔 화면 표시를 위한 표시화면영역을 재 정의하는데 있어서 편리하게 사용될 수 있다.
상기 제어부(110)는 상기 202단계에서 유동문서로 변환된 데이터를 상기 빔 프로젝트부(170)를 통해 빔 화면으로 표시하는 203단계를 진행한다.
상기 제어부(110)는 상기 데이터가 빔 화면으로 표시하는 동안 상기 카메라부(140)를 통해 상기 빔 화면으로 표시되는 데이터를 촬영하도록 제어하는 204단계를 진행한다, 그리고 상기 제어부(110)는 상기 빔 화면으로 표시되기 위한 상기 202단계의 데이터와 상기 204단계에서 상기 카메라부(140)에 의해 촬영된 데이터를 비교하는 205단계를 진행한다.
상기 205단계에서 상기 빔 화면으로 표시되기 위한 상기 202단계의 데이터와 상기 204단계에서 상기 카메라부(140)에 의해 촬영된 데이터가 일치하면, 상기 제어부(110)는 206단계에서 이를 감지하고 상기 빔 화면으로 상기 데이터를 표시하는 상기 203단계를 진행한다.
그러나 일치하지 않으면, 상기 제어부(110)는 상기 206단계에서 이를 감지하고 상기 두 데이터간의 차이점영역을 추출하는 207단계를 진행한다.
그리고, 상기 제어부(110)는 상기 빔 화면으로 데이터를 표시하기 위한 표시화면영역을 상기 차이점영역을 제외한 표시화면영역으로 재 정의하는 208단계를 진행한다.
상기 208단계에서 상기 표시화면 영역이 재정의 되면, 상기 제어부(110)는 상기 재 정의된 표시화면영역으로 상기 202단계의 데이터를 빔 화면으로 표시하는 209단계를 진행한다.
상기 도 3을 통해 상기 도 2의 과정을 설명하면, 도 3의 (a)와 같이 빔 화면에 데이터를 표시하는 동안 상기 데이터를 설명하기 위한 피사체에 의해 상기 데이터의 일부분이 가려져서 안보일 수 가 있다.
따라서, 상기 204단계 - 상기 208단계를 통해 상기 빔 화면으로 표시되기 위한 데이터와 상기 카메라부(140)에 의해 촬영된 데이터 간에 발생되는 차이점 영역인 피사체 영역(301)을 제외한 표시화면영역을 재 정의하고, 상기 재 정의된 표시화면영역으로 상기 데이터를 빔 화면으로 표시하면, 도 3의 (b) - (c)와 같이 이동하는 상기 피사체(301)에 가려지지 않은 채, 상기 데이터를 빔 화면으로 모두 표시할 수 있다
도 4는 본 발명의 제2 실시 예에 따른 휴대단말기에서 두 피사체 간의 관련데이터를 빔 화면으로 표시하는 과정을 도시한 흐름도이고, 도 5는 상기 도 4를 설명하기 위한 도면이다.
이하 본 발명의 실시 예를 도 1의 참조와 함께 상세히 설명한다.
상기 도 4를 참조하면, 401단계에서 상기 휴대단말기에 구비된 하나 또는 두 개의 카메라부(140)를 통해 두 명의 피사체가 촬영되면, 상기 제어부(110)는 상기 촬영된 두 명의 피사체 얼굴을 추출하고, 상기 메모리(130)에서 상기 추출된 얼굴과 매칭되는 상기 피사체들의 정보를 추출한다.
상기 제어부(110)는 상기 휴대단말기의 메모리(130)에 저장된 데이터들 예를 들어, SMS , e-mail 및 영상데이터 중 상기 두 명의 피사체들과 관련된 데이터를 검색하는 402단계를 진행한다.
상기 402단계에서 상기 두 명의 피사체들 간의 관련된 데이터가 검색되면 상기 제어부(110)는 관련데이터 리스트를 상기 빔 프로젝트(170)를 통해 빔 화면으로 표시하는 403단계를 진행한다.
상기 관련데이터 리스트를 빔 화면으로 표시하는 동안 상기 제어부(110)는 404단계에서 상기 카메라부(140)를 통해 상기 빔 화면으로 표시하는 데이터를 촬영도록 제어하고, 상기 빔 화면으로 표시하기 위한 관련데이터 리스트와 상기 카메라부(140)를 통해 촬영된 관련데이터 리스트를 비교하는 405단계를 진행한다.
상기 빔 화면으로 표시하기 위한 관련데이터 리스트와 상기 카메라부(140)를 통해 촬영된 관련데이터 리스트가 일치하지 않으면, 상기 제어부(110) 406단계에서 이를 감지하고, 상기 두 관련리스트들 간의 차이점 영역을 추출하는 407단계를 진행한다.
상기 제어부(110)는 상기 차이점영역의 위치가 상기 관련데이터 리스트내의 위치이면, 피사체의 특정동작에 따라 상기 관련데이터 리스트 중 소정의 데이터가 선택된 것으로 판단하는 408단계를 진행한다.
상기 408단계에서 상기 관련데이터 리스트 중 상기 차이점영역의 위치와 대응되는 소정의 데이터가 선택되면, 상기 제어부(110)는 이를 감지하고 상기 선택된 데이터를 상기 빔 화면으로 표시하는 409단계를 진행한다.
또한 상기 소정 데이터의 선택은 상기 키 입력부(127)에 구비된 특정 키의 입력을 통해 이루어질 수 있다.
상기 관련데이터 리스트는 상기 적어도 두 피사체 간에 송수신된 SMS 및 e-mail 내용과, 상기 두 피사체 관련 영상을 포함한다.
상기 도 5를 통해 상기 도 4의 과정을 설명하면, 도 5의 (a)는 촬영된 두 명의 피사체(501,502)가 서로 송수신 했던 SMS 데이터를 빔 화면으로 표시하고 있는 도면이다. 또한 도 5의 (b)는 촬영된 두 명의 피사체(501,502)간의 관련 영상데이터를 빔 화면으로 표시하고 있는 도면이다.
도 6은 본 발명의 제3 실시 예에 따른 휴대단말기에서 빔 화면에서의 사용자 동작을 통해 무선통신으로 연결된 상대 휴대단말기에게 데이터를 전송하는 과정을 도시한 흐름도이고, 도 7은 상기 도 6을 설명하기 위한 도면이다.
이하 본 발명의 실시 예를 도 1의 참조와 함께 상세히 설명한다.
상기 도 6을 참조하면, 601단계에서 상기 휴대단말기가 상기 무선통신부(180)를 통해 상대 휴대단말기와 연결되면, 상기 제어부(110)는 휴대단말기의 사용자인 제1 피사체의 위치에 상기 휴대단말기의 데이터를 빔 화면으로 표시하고, 상기 상대 휴대단말기의 사용자인 제2 피사체의 위치에 상기 상대 휴대단말기의 데이터를 빔 화면으로 표시하는 602단계를 진행한다.
상기 602단계에서 상기 제어부(110)는 상기 휴대단말기에 구비된 하나 또는 두 개의 빔 프로젝트부(170)를 통해 상기 휴대단말기의 데이터 및 상기 상대 휴대단말기의 데이터를 빔 화면으로 표시할 수 있다.
상기 602단계에서 상기 제어부(110)는 상기 무선통신부(180)를 통해 연결된 상기 상대 휴대단말기로부터 데이터를 수신하여 상기 제2 피사체의 위치에 상기 빔 화면으로 표시하도록 제어한다.
상기 602단계에서 상기 제1 피사체의 동작을 통해 상기 휴대단말기의 데이터 중 소정의 데이터가 선택 및 이동이 감지되면, 상기 제어부(110)는 이를 감지하고 상기 선택된 데이터를 상기 상대 휴대단말기로 이동하는 이미지를 상기 빔 화면으로 표시하는 604단계를 진행한다.
상기 데이터의 선택 및 이동을 위한 상기 제1 피사체의 동작을 감지하는 과정을 살펴보면, 상기 휴대단말기의 데이터 및 상기 상대 휴대단말기의 데이터를 상기 제1 피사체 및 상기 제2 피사체 각각의 위치에 상기 빔 화면으로 표시하는 동안, 상기 제어부(110)는 상기 카메라부(140)를 통해 상기 빔 화면으로 표시하는 데이터를 촬영도록 제어한다.
그리고 상기 제어부(110)는 상기 빔 화면으로 표시하기 위한 상기 데이터들과 상기 카메라부(140)를 통해 촬영된 상기 데이터들을 비교한다.
상기 빔 화면으로 표시하기 위한 상기 데이터들과 상기 카메라부(140)를 통해 촬영된 상기 데이터들이 일치하지 않으면, 상기 제어부(110) 이를 감지하고, 상기 두 데이터들 간의 차이점 영역을 추출한다.
상기 차이점영역의 위치가 상기 빔 화면으로 표시되는 상기 휴대단말기의 데이터들 중 소정 데이터의 위치이면, 상기 제어부(110)는 상기 제1 피사체의 동작에 따라 상기 휴대단말기의 데이터 중 소정의 데이터가 선택된 것으로 판단한다.
상기 소정 데이터를 선택하는 상기 제1 피사체의 동작이후 상기 두 데이터들 간의 차이점영역이, 상기 휴대단말기의 데이터가 표시 중인 상기 제1 피사체의 위치에서 상기 상대 휴대단말기의 데이터가 표시 중인 제2 피사체의 위치로 순서적으로 추출되면, 상기 제어부(110)는 상기 선택된 데이터를 상기 제2 피사체로 전송하기 위한 상기 제1 피사체의 동작으로 판단한다.
따라서, 상기 제어부(110)는 상기 제1 피사체의 동작에 따라 상기 선택된 데이터를 상기 제2 피사체의 위치로 이동하는 이미지를 빔 화면으로 표시하는 상기 604단계를 진행한다.
605단계에서 상기 제어부(110)는 상기 제2 피사체의 동작을 통해 상기 데이터 수신의 허여를 판단하면, 상기 무선통신부(180)를 통해 상기 제1 피사체에 의해 선택된 데이터를 실질적으로 상기 상대 휴대단말기에 전송하는 606단계를 진행한다.
상기 605단계에서 상기 데이터 수신의 허여를 위한 상기 제2 피사체의 동작은 상기 제1 피사체의 동작과 같이 차이점영역을 통해 판단될 수 있으며, 미리 정의된 특정 동작이 될 수 있다.
또한 상기 소정 데이터의 선택 및 이동은 상기 키 입력부(127)에 구비된 특정 키의 입력을 통해 이루어질 수 있다.
또한 상기 도 6에서는 상기 휴대단말기에서 무선통신으로 연결된 상기 상대 휴대단말기의 데이터를 수신하여, 상기 휴대말기의 데이터와 상기 상대 휴대단말기의 데이터를 빔 화면으로 표시하는 것으로 설명하고 있으나, 무선통신으로 연결된 상기 휴대단말기와 상기 상대 휴대단말기 각각이 구비하고 있는 빔 프로젝트부를 통해, 상기 휴대말기의 데이터와 상기 상대 휴대단말기의 데이터를 빔 화면으로 표시할 수 있다.
상기 도 7을 통해 상기 도 6을 설명하면, 도 7의 (a)는 제1 피사체(701)의 위치에 상기 제1 피사체가 등록한 휴대단말기의 데이터 예를 들어 SNS 서비스 목록을 표시하고, 제2 피사체(702)의 위치에 상기 제2 피사체가 등록한 상대 휴대단말기의 데이터 예를 들어 SNS 서비스 목록을 빔 화면으로 표시하는 도면이다.
도 7의 (b)는 상기 제1 피사체(701)의 동작에 따라 선택된 데이터( "facebook")가 상기 제2 피사체(702)로 이동하는 이미지를 빔 화면으로 표시하는 도면이다.
상기 도 7의 (b)의 경우, 상기 제1 피사체(701)의 동작에 따라 선택된 데이터("facebook")가 상기 제2 피사체(702)로 이동하면 간단히 일촌맺기등과 같은 SNS서비스를 제공할 수 있다.
도 8은 본 발명의 제4 실시 예에 따른 휴대단말기에서 빔 화면에서의 사용자 동작을 통해 상기 휴대단말기와 무선통신으로 연결된 상대 휴대단말기 간에 동일메뉴에 대한 데이터를 통합하여 표시하는 과정을 도시한 흐름도이고, 도 9는 상기 도 8을 설명하기 위한 도면이다.
이하 본 발명의 실시 예를 도 1의 참조와 함께 상세히 설명한다.
상기 도 8을 참조하면, 801단계에서 상기 휴대단말기가 상기 무선통신부(180)를 통해 상대 휴대단말기와 연결되면, 상기 제어부(110)는 휴대단말기의 사용자인 제1 피사체 및 제2 피사체의 위치에 각각에 상기 휴대단말기의 메뉴 종류를 빔 화면으로 표시하는 802단계를 진행한다.
상기 802단계에서 상기 제어부(110)는 상기 휴대단말기에 구비된 하나 또는 두 개의 빔 프로젝트부(170)를 통해 상기 제1 피사체의 위치에 상기 메뉴종류를 빔 화면으로 표시하고, 상기 제2 피사체의 위치에 상기 메뉴종류를 빔 화면으로 표시할 수 있다.
803단계에서 상기 제1 피사체의 동작을 통해 상기 메뉴의 종류 중 소정의 메뉴가 선택 및 이동이 감지되고, 상기 제2 피사체의 동작을 통해 상기 메뉴의 종류 중 소정의 메뉴가 선택 및 이동이 감지되면, 상기 제어부(110)는 상기 두 피사체에 의해 선택된 메뉴가 동일한 메뉴인지 판단한다.
상기 두 피사체에 의해 선택된 메뉴가 동일한 메뉴이면, 상기 제어부(110)는 이를 감지하고 상기 무선통신부(180)를 통해 상기 상대 휴대단말기로부터 상기 선택된 메뉴에 대응되는 데이터를 수신하고, 상기 선택된 메뉴에 대응되는 상기 휴대단말기의 데이터와 상기 상대 휴대단말기의 데이터를 통합하는 804단계를 진행한다.
그리고, 상기 제어부(110)는 상기 통합된 데이터를 빔 화면으로 표시하는 805단계를 진행한다.
상기 메뉴의 선택 및 이동을 위한 제1 피사체 및 제2 피사체의 동작을 감지하는 과정을 살펴보면, 상기 제1 피사체 및 상기 제2 피사체의 각각의 위치에 메뉴의 종류 데이터를 빔 화면으로 표시하는 동안, 상기 제어부(110)는 상기 카메라부(140)를 통해 상기 빔 화면으로 표시하는 상기 두 피사체의 메뉴의 종류 데이터를 촬영도록 제어한다.
그리고 상기 제어부(110)는 상기 빔 화면으로 표시하기 위한 상기 메뉴의 종류 데이터와 상기 카메라부(140)를 통해 촬영된 메뉴의 종류 데이터를 비교한다.
상기 빔 화면으로 표시하기 위한 상기 메뉴의 종류 데이터와 상기 카메라부(140)를 통해 촬영된 메뉴의 종류 데이터가 일치하지 않으면, 상기 제어부(110) 이를 감지하고, 상기 두 데이터들 간의 차이점 영역을 추출한다.
상기 차이점영역의 위치가 상기 빔 화면으로 표시되는 메뉴의 종류데이터들 중 소정 데이터의 위치이면, 상기 제어부(110)는 제1 피사체 또는 제2 피사체의 동작에 따라 상기 메뉴종류의 데이터 중 소정의 메뉴가 선택된 것으로 판단한다.
상기 차이점영역의 위치에 대응되는 상기 소정 메뉴를 선택한 후 상기 두 데이터들 간의 차이점영역이, 상기 제1 피사체 또는 상기 제2 피사체의 위치에서 상기 2 피사체 또는 상기 제1 피사체의 위치로 순서적으로 추출되면, 상기 제어부(110)는 상기 제1 피사체 또는 상기 제2 피사체의 동작에 따라 상기 선택 메뉴가 통합을 위해 최종선택됨을 판단할 수 있다.
상기 메뉴의 종류는 스케줄, 음악리스트 및 연락처를 포함한다.
또한 상기 도 8에서는 상기 휴대단말기에서 상기 제1 피사체 및 상기 제2 피사체 각각의 위치에 메뉴의 종류를 빔 화면으로 표시하는 것으로 설명하고 있으나, 무선통신으로 연결된 상기 휴대단말기와 상기 상대 휴대단말기 각각이 구비하고 있는 빔 프로젝트부를 통해, 상기 제1 피사체 및 상기 제2 피사체 각각의 위치에 메뉴의 종류를 빔 화면으로 표시할 수 있다.
상기 도 9를 통해 상기 도 8의 과정을 설명하면, 도 9의 (a)는 제1 피사체(901)의 발 주변 위치에 메뉴의 종류 데이터를 표시하고, 상기 제2 피사체(902)의 발 주변 위치에 메뉴의 종류 데이터를 표시하는 도면이다.
도 9의 (b)는 제1 피사체(901)가 빔 화면에서 발을 이용하여 소정 메뉴 예를 들어 스케줄을 선택하고 상기 선택된 스케줄 메뉴를 발로 이동시키는 동작을 수행하고, 제2 피사체(902)가 빔 화면에서 발을 이용하여 소정 메뉴 예를 들어 스케줄을 선택하고 상기 선택된 스케줄 메뉴를 발로 이동시키는 동작을 수행함에 따라, 상기 휴대단말기의 스케줄 데이터와 상기 상대 휴대단말기의 스케줄 데이터가 통합되어 빔 화면으로 표시하는 도면이다.
상술한 본 발명의 설명에서는 휴대 단말기와 같은 구체적인 실시 예에 관해 설명하였으나, 여러 가지 변형이 본 발명의 범위에서 벗어나지 않고 실시 될 수 있다. 따라서 본 발명의 범위는 설명된 실시 예에 의하여 정할 것이 아니고 특허청구범위와 특허청구범위의 균등한 것에 의해 정해져야 한다.
110: 제어부, 140:카메라부, 170:빔 프로젝트부, 180:무선통신부

Claims (33)

  1. 휴대단말기의 데이터 표시장치에 있어서,
    데이터를 빔 화면으로 표시부에 표시하는 빔 프로젝트부와,
    상기 빔 화면으로 표시되는 데이터를 촬영하는 적어도 하나의 카메라부와,
    상기 빔 화면으로 표시되기 위한 데이터와 상기 카메라부를 통해 촬영된 데이터에서 이동하는 피사체에 의해 발생된 차이점 영역을 추출하고, 상기 추출된 차이점 영역을 제외한 상기 표시부의 표시화면 영역에 상기 빔 화면으로 표시되기 위한 데이터를 빔 화면으로 표시하도록 제어하는 제어부를 포함하며,
    상기 빔 화면으로 표시되기 위한 데이터는 상기 차이점 영역에 의해 가려지지 않고 상기 빔 프로젝트부에 의해 빔 화면으로 상기 표시화면 영역에 표시되는 것을 특징으로 하는 휴대단말기의 데이터 표시장치.
  2. 제1 항에 있어서, 상기 제어부는,
    상기 빔 화면으로 표시되기 위한 데이터와 상기 카메라부를 통해 촬영된 데이터가 일치하지 않으면 상기 차이점 영역을 추출하고, 상기 차이점 영역을 제외한 표시화면 영역을 재정의하며, 상기 재정의된 표시화면 영역으로 상기 데이터를 빔 화면으로 표시하도록 제어하며,
    상기 카메라부와 상기 빔 프로젝트부는 일렬로 배치되며, 상기 카메라부와 상기 빔 프로젝트부 간에는 각도 조절이 가능한 것을 특징으로 하는 휴대단말기의 데이터 표시장치.
  3. 삭제
  4. 삭제
  5. 삭제
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
  11. 삭제
  12. 삭제
  13. 삭제
  14. 삭제
  15. 삭제
  16. 삭제
  17. 삭제
  18. 휴대단말기의 데이터 표시방법에 있어서,
    데이터를 빔 프로젝트부에 의해 빔 화면으로 표시부에 표시하는 과정과,
    적어도 하나의 카메라부에 의해 상기 빔 화면으로 표시되는 데이터를 촬영하는 과정과,
    상기 빔 화면으로 표시되기 위한 데이터와 상기 촬영된 데이터에서 이동하는 피사체에 의해 발생된 차이점 영역을 추출하는 과정과,
    상기 추출된 차이점 영역을 제외한 상기 표시부의 표시화면 영역에 상기 빔 화면으로 표시되기 위한 데이터를 빔 화면으로 표시하는 과정을 포함하며,
    상기 빔 화면으로 표시되기 위한 데이터는 상기 차이점 영역에 의해 가려지지 않고 상기 빔 프로젝트부에 의해 빔 화면으로 상기 표시화면 영역에 표시되는 것을 특징으로 하는 휴대단말기의 데이터 표시방법.
  19. 제18 항에 있어서, 상기 데이터를 빔 화면으로 표시하는 과정이,
    상기 빔 화면으로 표시되기 위한 데이터와 상기 촬영된 데이터를 비교하는 과정과,
    상기 두 데이터가 일치하지 않으면, 상기 차이점 영역을 추출하는 과정과,
    상기 차이점 영역을 제외한 상기 표시화면 영역을 재정의하는 과정과,
    상기 재정의된 표시화면 영역으로 상기 빔 화면으로 표시되기 위한 데이터를 빔 화면으로 표시하는 과정을 포함하는 것을 특징으로 하는 휴대단말기의 데이터 표시방법.
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
  28. 삭제
  29. 삭제
  30. 삭제
  31. 삭제
  32. 삭제
  33. 제18 항에 있어서,
    상기 카메라부와 상기 빔 프로젝트부는 일렬로 배치되며, 상기 카메라부와 상기 빔 프로젝트부 간에는 각도 조절이 가능한 것을 특징으로 하는 휴대단말기의 데이터 표시방법.








KR1020100107538A 2010-11-01 2010-11-01 휴대단말기의 데이터 표시장치 및 방법 KR101714050B1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020100107538A KR101714050B1 (ko) 2010-11-01 2010-11-01 휴대단말기의 데이터 표시장치 및 방법
US13/283,694 US9245469B2 (en) 2010-11-01 2011-10-28 Apparatus and method for displaying data in portable terminal
US14/847,557 US10102786B2 (en) 2010-11-01 2015-09-08 Apparatus and method for displaying data in portable terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100107538A KR101714050B1 (ko) 2010-11-01 2010-11-01 휴대단말기의 데이터 표시장치 및 방법

Publications (2)

Publication Number Publication Date
KR20120045761A KR20120045761A (ko) 2012-05-09
KR101714050B1 true KR101714050B1 (ko) 2017-03-08

Family

ID=45996204

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100107538A KR101714050B1 (ko) 2010-11-01 2010-11-01 휴대단말기의 데이터 표시장치 및 방법

Country Status (2)

Country Link
US (2) US9245469B2 (ko)
KR (1) KR101714050B1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101714050B1 (ko) * 2010-11-01 2017-03-08 삼성전자주식회사 휴대단말기의 데이터 표시장치 및 방법
US8601380B2 (en) * 2011-03-16 2013-12-03 Nokia Corporation Method and apparatus for displaying interactive preview information in a location-based user interface
JP5786900B2 (ja) 2013-06-13 2015-09-30 横河電機株式会社 情報表示装置及び情報表示方法
WO2018123152A1 (ja) * 2016-12-26 2018-07-05 ソニー株式会社 投影システム、プロジェクションデバイスおよびクレードル
CN108521591A (zh) * 2018-03-30 2018-09-11 广东工业大学 一种投屏方法、装置及系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010034820A (ja) 2008-07-29 2010-02-12 Seiko Epson Corp プロジェクタ、プロジェクタの制御方法、及び、制御プログラム
JP2010061265A (ja) 2008-09-02 2010-03-18 Fujifilm Corp 人物検索登録システム
JP2010086193A (ja) 2008-09-30 2010-04-15 Saxa Inc プレゼンテーション資料配信システム、及びプレゼンテーション資料上の指示位置データの配信システム

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6858826B2 (en) * 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
US7369161B2 (en) * 1999-06-08 2008-05-06 Lightsurf Technologies, Inc. Digital camera device providing improved methodology for rapidly taking successive pictures
US6661393B2 (en) * 1999-08-05 2003-12-09 Microvision, Inc. Scanned display with variation compensation
ATE287548T1 (de) * 2001-10-05 2005-02-15 Fraunhofer Ges Forschung Projektionsvorrichtung
US8553037B2 (en) * 2002-08-14 2013-10-08 Shawn Smith Do-It-Yourself photo realistic talking head creation system and method
US7227893B1 (en) * 2002-08-22 2007-06-05 Xlabs Holdings, Llc Application-specific object-based segmentation and recognition system
US20070035562A1 (en) * 2002-09-25 2007-02-15 Azuma Ronald T Method and apparatus for image enhancement
JP4517601B2 (ja) * 2003-07-09 2010-08-04 ソニー株式会社 投射型画像表示装置
US7536032B2 (en) * 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
GB0404269D0 (en) * 2004-02-26 2004-03-31 Leuven K U Res & Dev Time-dependent three-dimensional musculo-skeletal modeling based on dynamic surface measurements of bodies
US7671916B2 (en) * 2004-06-04 2010-03-02 Electronic Arts Inc. Motion sensor using dual camera inputs
US7325933B2 (en) * 2004-08-09 2008-02-05 Sanyo Electric Co., Ltd Projection type video display apparatus
DE102004060576B4 (de) * 2004-12-16 2017-12-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Projektor zur Bildprojektion
JP4664665B2 (ja) * 2004-12-22 2011-04-06 オリンパスイメージング株式会社 デジタルプラットフォーム装置
EP2458554B1 (en) * 2005-01-21 2015-04-29 Qualcomm Incorporated Motion-based tracking
US8953909B2 (en) * 2006-01-21 2015-02-10 Elizabeth T. Guckenberger System, method, and computer software code for mimic training
US7984995B2 (en) * 2006-05-24 2011-07-26 Smart Technologies Ulc Method and apparatus for inhibiting a subject's eyes from being exposed to projected light
US8582092B1 (en) * 2006-06-28 2013-11-12 Sandia Corporation Alignment and focus of mirrored facets of a heliostat
KR20080014495A (ko) * 2006-08-11 2008-02-14 삼성전자주식회사 프로젝터의 영상 보정기능을 제공하는 장치 및 방법
KR101264804B1 (ko) * 2006-08-16 2013-05-15 삼성전자주식회사 최적의 촬영위치를 알릴 수 있는 파노라마 촬영 방법 및장치
JP4680166B2 (ja) * 2006-10-30 2011-05-11 ソニー株式会社 撮像装置および撮像方法
JP2010512693A (ja) * 2006-12-07 2010-04-22 アダックス,インク. データの付加、記録および通信のためのシステムと方法
US8213685B2 (en) * 2007-01-05 2012-07-03 American Traffic Solutions, Inc. Video speed detection system
US7859588B2 (en) * 2007-03-09 2010-12-28 Eastman Kodak Company Method and apparatus for operating a dual lens camera to augment an image
CN101339744B (zh) * 2007-07-06 2011-02-09 群康科技(深圳)有限公司 液晶显示装置及其控制方法
EP2208354A4 (en) * 2007-10-10 2010-12-22 Gerard Dirk Smits IMAGE PROJECTOR WITH REFLECTIVE LIGHT TRACKING
US8180396B2 (en) 2007-10-18 2012-05-15 Yahoo! Inc. User augmented reality for camera-enabled mobile devices
JP4906685B2 (ja) * 2007-11-14 2012-03-28 キヤノン株式会社 撮像装置、その制御方法及びプログラム
US8007110B2 (en) * 2007-12-28 2011-08-30 Motorola Mobility, Inc. Projector system employing depth perception to detect speaker position and gestures
US20100066689A1 (en) * 2008-06-17 2010-03-18 Jung Edward K Y Devices related to projection input surfaces
US8353598B2 (en) * 2008-08-22 2013-01-15 Texas Instruments Incorporated Display systems and methods for mobile devices
US7869204B2 (en) * 2008-09-15 2011-01-11 International Business Machines Corporation Compact size portable computer having a fully integrated virtual keyboard projector and a display projector
CZ2009133A3 (cs) * 2009-03-03 2009-07-08 Witrins S.R.O. Zarízení, zpusob merení vnejších rozmeru testovaného výrobku a použití tohoto zarízení
GB0822605D0 (en) * 2008-12-11 2009-01-21 Pneumacare Ltd Method and apparatus for monitoring an object
US8284996B2 (en) * 2008-12-17 2012-10-09 Automated Speed Technologies, LLC Multiple object speed tracking system
US8290208B2 (en) * 2009-01-12 2012-10-16 Eastman Kodak Company Enhanced safety during laser projection
US8289288B2 (en) * 2009-01-15 2012-10-16 Microsoft Corporation Virtual object adjustment via physical object detection
US8390718B2 (en) * 2009-01-28 2013-03-05 Hewlett-Packard Development Company, L.P. Methods and systems for performing visual collaboration between remotely situated participants
US8619111B2 (en) * 2009-03-20 2013-12-31 Georgia Tech Research Corporation Methods and apparatuses for using a mobile device to provide remote assistance
US9024972B1 (en) * 2009-04-01 2015-05-05 Microsoft Technology Licensing, Llc Augmented reality computing with inertial sensors
US20100265313A1 (en) * 2009-04-17 2010-10-21 Sony Corporation In-camera generation of high quality composite panoramic images
US8525900B2 (en) * 2009-04-23 2013-09-03 Csr Technology Inc. Multiple exposure high dynamic range image capture
US9074899B2 (en) * 2009-05-11 2015-07-07 Acer Incorporated Object guiding method, mobile viewing system and augmented reality system
US8427508B2 (en) * 2009-06-25 2013-04-23 Nokia Corporation Method and apparatus for an augmented reality user interface
US8388151B2 (en) * 2009-07-23 2013-03-05 Kenneth J. Huebner Object aware, transformable projection system
US20120224062A1 (en) * 2009-08-07 2012-09-06 Light Blue Optics Ltd Head up displays
US8876830B2 (en) * 2009-08-13 2014-11-04 Zimmer, Inc. Virtual implant placement in the OR
JP2011055250A (ja) * 2009-09-02 2011-03-17 Sony Corp 情報提供方法及び装置、情報表示方法及び携帯端末、プログラム、並びに情報提供システム
JP2011188134A (ja) * 2010-03-05 2011-09-22 Panasonic Corp 監視システム、その制御方法及び監視装置
WO2011154072A1 (en) * 2010-06-10 2011-12-15 Sartorius Stedim Biotech Gmbh Assembling method, operating method, augmented reality system and computer program product
US8488040B2 (en) * 2010-06-18 2013-07-16 Microsoft Corporation Mobile and server-side computational photography
US9489040B2 (en) * 2010-07-19 2016-11-08 Smart Technologies Ulc Interactive input system having a 3D input space
US8346500B2 (en) * 2010-09-17 2013-01-01 Chang Sung Ace Co., Ltd. Self check-type flame detector
KR101714050B1 (ko) * 2010-11-01 2017-03-08 삼성전자주식회사 휴대단말기의 데이터 표시장치 및 방법
US8550903B2 (en) * 2010-11-15 2013-10-08 Bally Gaming, Inc. System and method for bonus gaming using a mobile device
WO2012078190A1 (en) * 2010-12-09 2012-06-14 Checkpoints Llc Systems, apparatuses and methods for verifying consumer activity and providing value to consumers based on consumer activity
US8514295B2 (en) * 2010-12-17 2013-08-20 Qualcomm Incorporated Augmented reality processing based on eye capture in handheld device
US8446364B2 (en) * 2011-03-04 2013-05-21 Interphase Corporation Visual pairing in an interactive display system
CA2750287C (en) * 2011-08-29 2012-07-03 Microsoft Corporation Gaze detection in a see-through, near-eye, mixed reality display
EP2919104B1 (en) * 2012-11-09 2019-12-04 Sony Corporation Information processing device, information processing method, and computer-readable recording medium

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010034820A (ja) 2008-07-29 2010-02-12 Seiko Epson Corp プロジェクタ、プロジェクタの制御方法、及び、制御プログラム
JP2010061265A (ja) 2008-09-02 2010-03-18 Fujifilm Corp 人物検索登録システム
JP2010086193A (ja) 2008-09-30 2010-04-15 Saxa Inc プレゼンテーション資料配信システム、及びプレゼンテーション資料上の指示位置データの配信システム

Also Published As

Publication number Publication date
US20150379779A1 (en) 2015-12-31
US10102786B2 (en) 2018-10-16
US20120105477A1 (en) 2012-05-03
KR20120045761A (ko) 2012-05-09
US9245469B2 (en) 2016-01-26

Similar Documents

Publication Publication Date Title
CN109040643B (zh) 移动终端及远程合影的方法、装置
KR100816286B1 (ko) 휴대 단말기와 외부 장치를 이용한 디스플레이 장치 및방법
EP2753075A1 (en) Display apparatus and method for video calling thereof
KR20120046112A (ko) 자동으로 동작 모드를 결정하는 이동 장치
US20220342516A1 (en) Display Method for Electronic Device, Electronic Device, and Computer-Readable Storage Medium
US11144422B2 (en) Apparatus and method for controlling external device
US10102786B2 (en) Apparatus and method for displaying data in portable terminal
US10205868B2 (en) Live view control device, live view control method, live view system, and program
US20120133678A1 (en) Apparatus and method for controlling screen conversion in portable terminal
US9215003B2 (en) Communication apparatus, communication method, and computer readable recording medium
US10185387B2 (en) Communication apparatus, communication method, and computer readable recording medium
US9270982B2 (en) Stereoscopic image display control device, imaging apparatus including the same, and stereoscopic image display control method
CN112637481B (zh) 图像缩放方法和装置
US20130286232A1 (en) Use of close proximity communication to associate an image capture parameter with an image
US20120154266A1 (en) Apparatus and method for controlling data in portable terminal
US10013949B2 (en) Terminal device
CN112153404B (zh) 码率调整方法、检测方法、装置、设备及存储介质
KR20120073049A (ko) 휴대단말기의 카메라부 원격제어 장치 및 방법
KR100678130B1 (ko) 휴대단말기의 통화수행 방법
KR20120078980A (ko) 휴대단말기에서 영상의 방향정보 추출장치 및 방법
JP2012123091A (ja) 画像表示装置
KR20060136235A (ko) 휴대단말기의 통화수행 방법
KR101939820B1 (ko) 외부기기 제어장치 및 방법
US12019947B2 (en) Projection method and system
US20240004603A1 (en) Projection method and system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant