KR102393297B1 - 전자기기 및 방법 - Google Patents

전자기기 및 방법 Download PDF

Info

Publication number
KR102393297B1
KR102393297B1 KR1020150056896A KR20150056896A KR102393297B1 KR 102393297 B1 KR102393297 B1 KR 102393297B1 KR 1020150056896 A KR1020150056896 A KR 1020150056896A KR 20150056896 A KR20150056896 A KR 20150056896A KR 102393297 B1 KR102393297 B1 KR 102393297B1
Authority
KR
South Korea
Prior art keywords
electronic device
projection surface
image
projection
module
Prior art date
Application number
KR1020150056896A
Other languages
English (en)
Other versions
KR20160125853A (ko
Inventor
박정철
강명수
김중형
김지현
김효정
김희경
남궁보람
송세준
양성광
이윤기
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020150056896A priority Critical patent/KR102393297B1/ko
Priority to CN201680030964.8A priority patent/CN107667526B/zh
Priority to PCT/KR2016/003069 priority patent/WO2016171403A1/en
Priority to EP16164524.7A priority patent/EP3094089B1/en
Priority to US15/099,840 priority patent/US10250857B2/en
Publication of KR20160125853A publication Critical patent/KR20160125853A/ko
Application granted granted Critical
Publication of KR102393297B1 publication Critical patent/KR102393297B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/315Modulator illumination systems
    • H04N9/3161Modulator illumination systems using laser light sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/145Housing details, e.g. position adjustments thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/40Transceivers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3191Testing thereof
    • H04N9/3194Testing thereof including sensor feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Geometry (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Projection Apparatus (AREA)
  • Optical Communication System (AREA)

Abstract

실시예들에 따라 광학모듈을 포함하는 전자기기 및 광학모듈을 포함하는 전자기기에서의 동작 방법 및 상기 동작 방법을 수행하는 프로그램이 기록된 컴퓨터 판독가능 기록 매체가 개시된다. 일 실시예에 따른 전자기기는, 컨텐츠를 투사하는 광학 모듈, 및 상기 전자기기가 투사면으로부터 소정 범위 이내로 근접했는지 판단하고, 상기 판단에 기반해서 상기 광학 모듈이 상기 컨텐츠를 상기 투사면에 투사하도록 제어하는 프로세서를 포함한다.

Description

전자기기 및 방법{A eletronic device and a method}
일 실시예는 전자기기 및 방법에 관한 것으로, 광학 모듈을 구비한 전자기기 및 전자기기의 동작 방법을 제공하는 것에 관한 것이다.
프로젝터 또는 프로젝션 시스템등은 입력받은 영상신호를 예를 들어, LED 또는 램프와 같은 광원에서 방출되는 빛을 이용하여 스크린에 투영시켜 화상을 보여주는 디스플레이 장치이다. 이러한 디스플레이 장치는 주로 회의실의 프리젠테이션, 극장의 영사기, 가정의 홈시어터 등을 구현하는데 이용된다.
프로젝터에 구비된 광원은 전원이 공급되는 투사광을 방출한다. 이러한 프로젝터에서 방출되는 투사광의 세기는 매우 강하여 동작중인 프로젝터의 렌즈를 사람이 직시하는 경우 시력저하를 일으키며 장시간 노출될 경우에는 시력 손실까지도 일으킬 수 있다.
일반적인 프로젝터는 100인치의 스크린에 화면을 투사하기 위해서는 스크린과 프로젝터간의 거리가 3-4 미터 정도 간격이 있어야 100인치 크기의 화면을 투사할 수 있다. 따라서 공간이 좁아서 스크린과 프로젝터의 거리가 4 미터가 안되는 곳에서는 스크린에 맞는 크기의 화면을 투사하기 어렵다.
또한 강의용으로 쓸 때에는 강사의 시선이 프로젝터의 정면을 바라보기 때문에 빔 프로젝터에서 나오는 강한 빛을 눈부시게 봐야 하는 불편함이 있다.
단초점 프로젝터는 이를 보완한 프로젝터로서 단초점 렌즈가 장착되어 1.5 미터 거리에서 80-100 인치의 화면을 투사할 수 있는 프로젝터를 말한다. 일반적인 프로젝터에 비해서 가격이 고가이기는 하나 편리성 때문에 좁은 공간이나 학교 학원등의 강의용으로 많이 쓰이고 있다.
본 명세서에 개시된 실시예들은 포지션을 잡기가 용이한 광학 모듈을 포함하는 전자기기 및 그 동작방법을 제공하는 것을 목적으로 한다.
본 명세서에 개시된 실시예들은 복수개의 기기를 연결하여 화면 확장이 용이한 광학 모듈을 포함하는 전자기기 및 그 동작방법을 제공하는 것을 목적으로 한다.
일 실시예에 따른 전자기기는, 컨텐츠를 투사하는 광학 모듈, 및 상기 전자기기가 투사면으로부터 소정 범위 이내로 근접했는지 판단하고, 상기 판단에 기반해서 상기 광학 모듈이 상기 컨텐츠를 상기 투사면에 투사하도록 제어하는 프로세서를 포함한다.
일 실시예에 따라 프로세서는, 상기 광학 모듈로부터 출력될 투사 영상의 위치를 표시하기 위한 가이드를 출력할 수 있다.
일 실시예에 따라 상기 프로세서는, 상기 전자기기가 상기 투사면에 포지션되지 않은 것으로 판단된 경우 상기 전자기기를 상기 투사면에 포지션하도록 가이드를 제공하는 인디케이터를 출력할 수 있다.
일 실시예에 따라 상기 인디케이터는, 지정된 포지션으로 위치시키도록 지시하는 사운드 또는 기계음 사운드; 상기 지정된 포지션으로 위치시키도록 지시하는 메시지를 담고 있는 투사 영상; LED 램프의 색상 또는 깜빡임 횟수, 또는 레이저 의 광 가이드; 및 상기 전자기기에 마련된 진동 소자의 진동 중 적어도 하나 이상을 포함할 수 있다.
일 실시예에 따라 상기 프로세서는, 상기 전자기기에 인접한 다른 전자기기를 인식하고, 및 상기 전자기기가 상기 인접한 다른 전자기기와 수평 위치에 포지션되지 않은 것으로 판단된 경우 상기 전자기기 또는 상기 다른 전자기기를 상기 수평 위치에 포지션하도록 지시하는 인디케이터를 출력할 수있다.
일 실시예에 따라 상기 인디케이터는, 사운드, 광, 진동 및 영상 중 적어도 하나 이상을 포함할 수 있다.
일 실시예에 따라 상기 전자기기는, 상기 광학 모듈의 회전을 가능하게 하는 힌지 구조를 더 포함하고, 상기 프로세서는, 상기 전자기기의 회전 정보에 기초해서 상기 전자기기가 투사면에 포지션되도록 상기 힌지 구조를 제어할 수 있다.
일 실시예에 따라 상기 프로세서는, 감지된 상기 전자기기의 방향 정보에 기초하여 영상의 기하 정보 및 색상 정보 중 적어도 하나를 보정할 수 있다.
일 실시예에 따라 상기 프로세서는, 상기 투사면이 지표면과 이루는 각도가 미리 정해진 값보다 작으면 투사 영상에 대한 보정을 수행하지 않고, 상기 투사면이 지표면과 이루는 각도가 상기 미리 정해진 값 이상이면 상기 투사 영상에 대한 보정을 수행할 수 있다.
일 실시예에 따라 상기 프로세서는, 상기 투사면이 지표면과 이루는 각도가 미리 정해진 값보다 작으면 투사 영상에 대한 보정을 수행하고, 상기 투사면이 지표면과 이루는 각도가 상기 미리 정해진 값 이상이면 상기 투사 영상에 대한 보정을 수행하지 않을 수 있다.
일 실시예에 따라 상기 프로세서는, 상기 전자 기기의 투사면이 지표면에 수직인지 수평인지에 따라 투사 영상에 대한 보정 여부를 결정할 수 있다.
일 실시예에 따라 상기 프로세서는, 상기 투사면의 크기보다 상기 전자기기로부터 영상이 투사될 공간의 크기가 작을 때 투사 영상의 크기를 보정할 수 있다.
일 실시예에 따라 상기 프로세서는, 상기 전자기기의 주변에 적어도 하나의 다른 전자기기가 존재하는지 판단하고, 상기 전자기기의 주변에 적어도 하나의 다른 전자기기가 존재하는지 여부에 따라 상기 투사영상의 확장가능성을 결정할 수 있다.
일 실시예에 따라 상기 프로세서는, 상기 전자기기와 상기 다른 전자기기 간의 무선통신의 신호세기 또는 센서를 통하여 측정된 상기 전자기기와 상기 다른 전기기간의 상대적인 거리 중 적어도 하나를 이용하여, 상기 다른 전자기기의 존재를 판단할 수 있다.
일 실시예에 따라 상기 프로세서는, 상기 전자기기의 주변에 적어도 하나의 다른 전자기기가 존재함에 따라 상기 투사영상의 확장 가능성을 결정한 경우에, 상기 투사할 영상을 적어도 하나 이상의 영상으로 분할하고, 상기 분할된 적어도 하나 이상의 영상을 상기 적어도 하나의 다른 전자기기로 전송할 수 있다.
일 실시예에 따라 상기 프로세서는, 상기 투사된 투사영상 상의 오브젝트의 이동을 지시하는 사용자 입력을 감지하고, 및 상기 사용자 입력에 기반해서 상기 오브젝트가 이동되는 투사 영상을 출력할 수 있다.
일 실시예에 따라 상기 프로세서는, 상기 투사된 투사 영상 상의 오브젝트를 다른 전자기기에 대응하는 투사 영상으로 이동시키는 사용자 입력을 감지하고, 및 상기 사용자 입력에 기반해서 상기 오브젝트를 상기 다른 전자기기로 전송할 수있다.
일 실시예에 따른 광학 모듈을 구비한 전자기기의 동작 방법은, 상기 전자기기가 투사면으로부터 소정 범위 이내로 근접했는지 판단하는 동작; 및 상기 판단에 기반해서 상기 광학 모듈을 이용하여 상기 투사면으로 컨텐츠를 투사하는 동작을 포함한다.
일 실시예에 따라 투사 모듈을 구비한 전자기기의 동작 방법을 수행하는 프로그램이 기록된 컴퓨터 판독가능 기록 매체에서, 상기 동작방법은 상기 전자기기가 투사면으로부터 소정 범위 이내로 근접했는지 판단하는 동작; 및 상기 판단에 기반해서 상기 광학 모듈을 이용하여 상기 투사면으로 컨텐츠를 투사하는 동작을 포함한다.
이상과 같은 실시예들에 따르면 사용자 인터랙션을 통하여 광학 모듈을 구비한 전자기기를 투사면에 포지션함으로써 사용자는 벽이나 천장 등 간편하게 자신이 원하는 컨텐츠를 포커스나 키스톤의 조절없이 투사면에 위치시킬 수 있다.
또한 전자기기가 투사면에 포지션된 경우 또는 투사면으로부터 소정 거리 이내에 접근한 경우에 광학모듈을 동작시켜 투사를 수행하고, 그외의 경우에는 광학모듈의 전원을 차단함으로써 전력 소모를 줄일 수 있다.
또한 사용자는 2개 이상의 전자기기를 인접하여 배치함으로써 투사면을 용이하게 확장시켜 화면을 확대시켜 컨텐츠를 공유할 수 있다.
도 1a 및 1b는 일 실시예에 따른 전자기기의 개념을 설명하는 참고도이다.
도 2a 일 실시예에 따른 전자기기의 개략도이다.
도 2b는 일 실시예에 따른 전자기기의 구체적인 블록도이다.
도 2c는 일 실시예에 따라 저장부(130)에 저장되는 모듈의 일 예이다.
도 2d는 전자기기(100)가 데이터를 수신할 수 있는 외부 기기들의 예이다.
도 3a는 일 실시예에 따라 복수개의 전자기기가 하나의 화면을 투사하는 일 예이다.
도 3b는 일 실시예에 따라 복수개의 전자기기가 각각 화면을 투사하는 다른 예이다.
도 3b는 일 실시예에 따라 복수개의 전자기기가 각각 화면을 투사하는 또다른 예이다.
도 3d는 일 실시예에 따라 2개의 전자기기에 의해 하나의 화면을 확장하는 예이다.
도 3e는 일 실시예에 따라 2개의 전자기기에 의해 서로 다른 화면을 투사하는 예이다.
도 4는 일 실시예에 따라 전자기기에서 컨텐츠를 투사하는 동작을 나타내는 흐름도이다.
도 5a 내지 도 5c는 일 실시예에 따라 전자기기 100의 프로세서 110는 전자기기 100가 투사면에 포지션되었는지 또는 투사면으로부터 소정 거리 이내에 근접했는지 판단에 따라 컨텐츠를 투사하도록 광학 모듈 160을 제어하는 동작을 설명하는 참고도이다.
도 6은 일 실시예에 따라 도 4에 도시된 기기의 포지션 판단의 구체적인 동작을 나타내는 흐름도이다.
도 7a 내지 도 7c는 일 실시예에 따라 전자기기 100의 프로세서 110는 전자기기 100가 투사면으로부터 소정 거리 이내에 근접했는지 포지션 분석에 따라 투사 영상의 위치를 안내하는 인디케이터를 출력하는 동작을 설명하는 참고도이다.
도 8a는 일 실시예에 따라 전자기기에서의 동작을 나타내는 흐름도이다.
도 8b은 도 8a에 도시된 기기의 포지션 판단 과정중의 일부 동작을 나타내는 흐름도이다.
도 8c은 도 8a에 도시된 기기의 포지션 판단 과정중의 일부 동작을 나타내는 흐름도이다.
도 9a는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 LED 색상을 나타내는 도면이다.
도 9b는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 레이저 LED를 나타내는 도면이다.
도 9c는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 기계음 사운드를 나타내는 도면이다.
도 9d는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 음성 안내 사운드를 나타내는 도면이다.
도 9e는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 안내 영상의 일 예를 나타내는 도면이다.
도 9f는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 안내 영상의 다른 예를 나타내는 도면이다.
도 9g는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 진동을 나타내는 도면이다.
도 10은 일 실시예에 따라 힌지 구조를 채택하여 전자기기를 자동으로 회전시키는 개념을 설명하기 위한 도면이다.
도 11은 도 6에 도시된 전자기기의 포지션 판단 과정중의 일부 동작을 나타내는 흐름도이다.
도 12a는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 LED 색상을 나타내는 도면이다.
도 12b는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 LED 색상 및 화살표 길이를 나타내는 도면이다.
도 12c는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 레이저 LED를 나타내는 도면이다.
도 12d는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 레이저 LED 및 화면비율 안내를 나타내는 도면이다.
도 12e는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 안내 영상을 나타내는 도면이다.
도 13은 일 실시예에 따라 힌지 구조를 이용하여 복수의 전자기기의 수평을 맞추는 예를 설명하는 참고도이다.
도 14는 일 실시예에 따라 힌지 구조를 이용하여 복수의 전자기기의 수평을 맞추는 예를 설명하는 참고도이다.
도 15는 일 실시예에 따라 투사면 분석중 기하 보정을 나타내는 예이다.
도 16은 도 6에 도시된 투사면 분석 과정중의 일부 동작을 나타내는 흐름도이다.
도 17은 도 14에 도시된 일 실시예에 따라 전자기기와 지표면이 이루는 각도가 제1임계치 이하이면 보정을 수행하지 않고, 제2임계치를 초과하면 보정을 수행하는 것을 설명하는 참고도이다.
도 18은 도 6에 도시된 투사면 분석 과정중의 일부 동작을 나타내는 흐름도이다.
도 19는 도 17에 도시된 일 실시예에 따라 전자기기와 지표면이 이루는 각도가 제1임계치 이하이면 보정을 수행하고, 제2임계치를 초과하면 보정을 수행하지 않는 것을 설명하는 참고도이다.
도 20은 일 실시예에 따라 전자기기와 지표면이 이루는 각도가 제3임계치를 초과하는 경우 보정을 수행하거나 보정을 수행하지 않는 것을 설명하는 참고도이다.
도 21은 일 실시예에 따라 테이블위에서는 보정을 수행하지 않는 예를 설명하는 참고도이다.
도 22는 일 실시예에 따라 투사면이 투사 영상보다 작은 경우 투사 영상의 사이즈를 보정하는 예를 설명하는 참고도이다.
도 23a는 일 실시예에 따라 투사면의 영상을 영상 인식으로 합치는 방법을 설명하는 참고도이다.
도 23b는 일 실시예에 따라 투사면의 영상을 스타일러스로 합치는 방법을 설명하는 참고도이다.
도 24는 일 실시예에 따라 전자기기에서 투사면을 확장하여 컨텐츠를 투사하는 동작의 일 예를 나타내는 흐름도이다.
도 25는 도 24에 도시된 투사면의 확장성 판단 과정중의 일부 동작을 나타내는 흐름도이다.
도 26는 도 24에 도시된 투사면의 확장 가능성 판단 과정중의 일부 동작을 나타내는 흐름도이다.
도 27a는 복수개의 전자기기간의 통신 방법의 일 예이다.
도 27b는 복수개의 전자기기간의 통신 방법의 다른 예이다.
도 27c는 복수개의 전자기기간의 통신 방법의 또다른 예이다.
도 28은 일 실시예에 따라 전자기기에서 컨텐츠를 투사하는 방법을 나타내는 흐름도이다.
도 29는 일 실시예에 따라 적외선 센서를 통해 사용자 입력을 감지하는 것을 설명하는 참고도이다.
도 30은 일 실시예에 따라 전자기기 100가 구비하고 있는 카메라를 통해서 사용자의 동작을 감지해서 명령을 처리하는 것을 설명하는 참고도이다.
도 31은 도 28에 도시된 사용자 입력처리 과정의 일부 동작을 나타내는 흐름도이다.
도 32는 도 28에 도시된 사용자 입력처리 과정의 일부 동작을 나타내는 흐름도이다.
도 33은 일 실시예에 따라 하나의 투사 영상에서의 오브젝트를 사용자 인터랙션에 의해 다른 투사 영상으로 이동시키는 동작을 설명하는 참고도이다.
도 34는 일 실시예에 따라 하나의 투사 영상에서의 오브젝트를 사용자 인터랙션에 의해 다른 투사 영상으로 이동시키는 동작시 특정한 제스쳐를 이용하는 것을 설명하는 참고도이다.
도 35는 일 실시예에 따라 복수개의 전자기기가 인접하여 배치된 경우 사용자 제스쳐에 따라 오브젝트를 이동시키는 예를 설명하는 참고도이다.
도 36a 내지 도 36d는 일 실시예에 따라 복수개의 전자기기가 인접하여 배치된 경우 사용자 제스쳐 및 메뉴 제공에 따라 오브젝트를 이동시키는 예를 설명하는 참고도이다.
도 37은 일 실시예에 따라 플렉서블 기기의 구부림을 사용자 인터랙션으로 감지하여 오브젝트를 이동시키는 예를 나타낸다.
도 38은 파일 폴더에서의 사용자 인터랙션의 구체 적용 예를 나타낸다.
도 39는 PPT 화면에서의 사용자 인터랙션의 구체 적용 예를 나타낸다.
도 40은 일 실시예에 따라 전자기기의 광학계의 일 예를 나타내는 도면이다.
도 41a 내지 도 41c는 전자기기의 다양한 실시예들에 따른 외관을 나타낸다.
도 42a 내지 도 42e는 일 실시예에 따라 외부기기를 도킹(docking)할 수 있는 구조의 전자기기의 예를 나타낸다.
도 43은 일 실시예에 따른 전자기기를 비행기 좌석에 응용하는 예들을 나타낸다.
도 44는 일 실시예에 따른 전자기기를 자동차 실내에 응용하는 예들을 나타낸다.
이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 예시적 실시예를 상세하게 설명한다. 또한, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명의 실시예에 따른 전자 장치를 구성하고 사용하는 방법을 상세히 설명한다. 각 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되지는 않는다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 항목들의 조합 또는 복수의 관련된 항목들 중의 어느 하나의 항목을 포함한다.
본 명세서에서 사용한 용어는 실시예를 설명하기 위해 사용된 것으로, 본 발명을 제한 및/또는 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원서에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 숫자, 동작, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 동작, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
도 1a 및 1b는 일 실시예에 따른 전자기기의 개념을 설명하는 참고도이다.
일 실시예에 따른 전자기기는 프로젝션 렌즈 미러 시스템(projector lens mirror system)을 이용하여 전자기기 100를 투사면에 위치시켜 사용할 수 있다.
일 실시예에 따른 전자기기 100는 도 1a에 도시된 바와 같이 테이블 위에 위치시키거나 또는 도 1b에 도시된 바와 같이 벽에 부착하여 사용할 수 있다.
도 1a를 참조하면, 사용자가 일 실시예에 따른 전자기기 100를 테이블 10 상에 위치시키는 동작만으로 전자기기 100는 전자기기 100가 위치한 테이블 10의 표면 일부를 투사면으로 하여 영상 20을 투사할 수 있다. 사용자는 전자기기 100의 투사면을 조정하는 번거로운 과정없이 단지 테이블 10상에 전자기기 100를 놓는 동작에 의해 투사 영상을 즐길 수 있다.
도 1b를 참조하면, 사용자가 일 실시예에 따른 전자기기 100를 벽 30에 부착시키는 동작만으로 전자기기 100는 전자기기 100가 위치한 벽면 일부를 투사면으로 하여 영상 40을 투사할 수 있다.
일 실시예에 따른 전자기기는 전자기기가 투사면에 포지션되었는지 또는 투사면으로부터 소정 거리 이내에 근접했는지를 판단하고 판단 결과에 따라 컨텐츠의 투사를 수행할 수 있다.
일 실시예에 따른 전자기기는 전자기기의 포지션을 분석하고 이에 따라 투사 영상의 위치를 안내하는 인디케이터를 출력할 수 있다.
일 실시예에 따른 전자기기는 전자기기가 투사면에 포지션되었는지를 판단하고 판단 결과에 따라 전자기기를 투사면에 포지션시키도록 사용자에게 가이드를 제공할 수 있다.
일 실시예에 따라 투사모듈을 구비한 전자기기를 복수개 인접하게 위치시키고 각 투사모듈을 구비한 전자기기가 컨텐츠를 함께 투사함으로써 투사 영상을 확장시킬 수 있다.
도 2a 일 실시예에 따른 전자기기 100가 다른 전자기기 200 및 전자기기 400과 통신하는 시스템을 설명하는 개략도이다.
도 2a를 참조하면, 시스템은 투사모듈을 구비한 전자기기 100, 투사모듈을 구비한 전자기기 200, 외부 기기 400 및 네트워크 300을 포함한다.
일 실시예에 따른 전자기기 100는 투사 모듈 163, 프로세서 110, 및 통신 모듈 120를 포함한다.
투사 모듈 163은 프로세서 110의 제어에 의해 컨텐츠를 투사면에 투사한다. 투사 모듈은 다른 실시예들에서 광학 모듈로 언급될 수도 있다.
통신 모듈 120은 프로세서 110의 제어에 의해 투사 모듈을 구비하는 다른 전자기기 200 및 전자 기기 100와 연결되어 전자기기 100에 컨텐츠를 전송하는 외부 기기 400과 네트워크 300을 통해서 통신한다.
일 실시예에 따라 프로세서 110는 전자기기 100가 투사면에 포지션되었는지 또는 투사면으로부터 소정 거리 이내에 접근했는지를 판단하고 그 판단에 기초해서 컨텐츠 투사 여부를 결정할 수 있다.
일 실시예에 따라 프로세서 110는 전자기기 100가 투사면에 포지션되었는지를 판단하고 전자기기 100가 투사면에 포지션될 수 있도록 지시하는 인디케이터를 출력할 수 있다.
프로세서 110는 프로세서 110는 전자기기 100의 주변에 인접한 전자기기 200이 존재하는지를 인식하여 투사 영상의 확장성을 판단할 수 있다.
전자기기 100과 전자기기 200은 네트워크 300를 통해서 외부 기기 400과 통신할 수 있다. 전자기기 100은 네트워크를 통해 외부 기기 400로부터 수신한 컨텐츠를 투사 모듈 163을 이용하여 투사할 수 있다. 전자기기 200은 네트워크를 통해 외부 기기 400로부터 수신한 컨텐츠를 투사 모듈 263을 이용하여 투사할 수 있다.
전자기기 100은 전자기기 100의 주변에 위치한 전자기기 200을 인식할 수 있다. 전자기기 100이 전자기기 200을 인식한 경우에 전자기기 100과 전자기기 200은 네트워크 300를 통해 통신할 수 있다. 전자기기 100이 전자기기 200을 인식한 경우에 투사 영상을 확장하기 위해 전자기기 100은 외부기기 400으로부터 수신한 컨텐츠의 적어도 일부를 전자기기 200으로 전송할 수 있다.
전자기기 100은 투사 영상에 표시된 오브젝트에 대한 사용자 입력에 응답하여, 오브젝트에 관한 정보를 네트워크 300을 통하여 전자기기 200으로 전송할 수 있다.
도 2b는 일 실시예에 따른 전자 장치(100)의 구체적인 블록도이다.
도 2b를 참조하면, 전자 장치(100)는, 예를 들면, 도 2a에 도시된 전자 장치 100의 전체 또는 일부를 구성할 수 있다. 도 2b를 참조하면, 상기 전자 장치 100는 하나 이상의 프로세서(processor) 110, 통신 모듈 120, 메모리 130, 센서 모듈 140, 입력 장치 150, 광학 모듈 160, 인터페이스 170, 오디오 모듈 180, 카메라 모듈 191, 인디케이터 192, 모터 193, 전력관리 모듈 194, 배터리 195, 무선 충전 모듈 196를 포함할 수 있다.
상기 프로세서 110는 운영체제 또는 응용 프로그램을 구동하여 상기 프로세서 110에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 프로세서 110는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 상기 프로세서 110는 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
상기 통신 모듈 120은 상기 전자 장치 100와 네트워크를 통해 연결된 다른 전자 장치들, 예를 들어다른 전자 장치나 서버 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시예에 따르면, 상기 통신 모듈 120은 Wifi 모듈 121, BT 모듈 122121 및 RF(radio frequency) 모듈 123122을 포함할 수 있다.
상기 와이파이(Wifi) 모듈 121, 및 상기 BT 모듈 122은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하는 프로세서를 포함할 수 있다. 도 2a에서는 Wifi 모듈 121, 또는 BT 모듈 122, 이 각각 별개의 블록으로 도시되었으나, 한 실시예에 따르면, Wifi 모듈 121, BT 모듈 122중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, Wifi 모듈 121, BT 모듈 122각각에 대응하는 프로세서들 중 적어도 일부121는 하나의 SoC로 구현될 수 있다.
상기 RF 모듈 123은 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. 상기 RF 모듈 123는, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, 상기 RF 모듈 123는 무선 통신에서 자유 공간상의 전자파를 송수신하는 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 2a에서는 Wifi 모듈 121, 및 BT 모듈 122, 이 하나의 RF 모듈 123을 서로 공유하는 것으로 도시되어 있으나, 한 실시예에 따르면, Wifi 모듈 121 및 BT 모듈 122 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
메모리 130는 내장 메모리 131 를 포함할 수 있다. 상기 내장 메모리 131는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
메모리 130는 프로세서의 제어에 의해 전자기기 100를 구동하고 제어하는 다양한 데이터, 프로그램 또는 어플리케이션을 저장할 수 있다. 메모리 130는 하나 이상의 프로세서(processor) 110, 통신 모듈 120, 센서 모듈 140, 입력 장치 150, 광학 모듈 160, 인터페이스 170, 오디오 모듈 180, 카메라 모듈 191, 인디케이터 192, 모터 193, 전력관리 모듈 194, 배터리 195, 무선충전모듈 196의 구동에 대응되는 입력/출력되는 신호 또는 데이터를 저장할 수 있다
상기 센서 모듈 140은 물리량을 계측하거나 전자 장치 100의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈 140은, 예를 들면, 제스처 센서 140A, 자이로 센서 140B, 가속도 센서 140C, 초음파 센서 140D, 적외선 센서 140E, 홀 센서 140F, 근접 센서 140G, 조도 센서 140H 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 센서 모듈 140은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), 홍채 센서(미도시) 또는 지문 센서(미도시), 압력 센서 (미도시) 등을 포함할 수 있다. 상기 센서 모듈 140은 그 안에 속한 적어도 하나 이상의 센서들을 제어하는 제어 회로를 더 포함할 수 있다.
일 실시예에 따라 센서 모듈 140은 내부에 포함된 적어도 하나의 센서를 이용하여, 전자기기가 투사면에 포지션되었는지, 투사면으로부터 소정 거리 이내에 접근했는지, 전자기기가 지표면과 수평으로 위치되었는지 또는 다른 기기와 인접해있는지 등을 검출할 수 있다.
상기 입력 장치 150은 키(key) 151 를 포함할 수 있다. 상기 키 151는 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 한 실시예에 따르면, 상기 전자 장치 100는 상기 통신 모듈 120를 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
광학 모듈 160은 조명 모듈 161와 투사 모듈 162를 포함할 수 있다. 상기 투사 모듈 163은 스크린에 빛을 투사하여 영상을 표시할 수 있다. 상기 스크린은, 예를 들면, 상기 전자 장치 100의 내부 또는 외부에 위치할 수 있다.
일 실시예에 따라 광학 모듈 160은 전자기기 100가 투사면에 위치한 경우 또는 투사면으로부터 소정 거리 이내에 접근한 경우에는 컨텐츠를 투사할 수 있다.
일 실시예에 따라 전자기기 100가 투사면에 위치하지 않은 경우 또는 투사면으로부터 소정 거리 이내에 접근하지 않은 경우에, 전력 관리 모듈 194는 광학 모듈 160으로의 전원을 차단시켜 광학 모듈 160이 동작하지 않도록 할 수 있다.
투사 모듈 162가 빛을 투사하는 방식으로는, DLP, LCOS, 3LCD, LCD, 레이저 방식 등이 있다.
DLP은 화면 표시 소자(Display Element)의 하나인 디지털 마이크로미러 디스플레이(DMD)를 사용한 프로젝션 디스플레이 방식다. LCOS(Liquid Crystal on Silicon)방식은 다수 개의 스캔라인과 데이터라인에 의해 픽셀을 정의하고, 소정의 분자배열을 갖는 액정을 구비하고, 상기 액정에 의해 외부로부터 입력되는 빛을 투과 및 반사하여 디스플레이하는 LCOS 패널을 이용해서 투사할 수도 있다. 3LCD방식은 프로젝터의 램프 광원이 투과되는 액정 표시장치(LCD)가 3개로 나누어져 있으며, 3LCD는 램프에서 나온 빛을 LCD 패널을 통해 렌즈에서 확대하기 전에 색깔별로 나뉜 빨강, 파랑, 초록의 3LCD를 사용한다. 상기와 같은 3LCD방식으로 프로젝터를 구현할 수도 있다. 또한 LCD와 같이 하나의 LCD패널을 이용한 프로젝터를 구비할 수도 있다. 또한 Laser방식은 적색, 녹색 및 청색 레이저 발광소자로 이루어지는 광원과 상기 광원에서 출사된 레이저 광이 입사되는 광터널과 상기 광터널을 통해 입사된 레이저 광을 이용하여 스크린상에 영상을 투사하는 디스플레이 소자를 포함하되, 상기 광터널의 내부에는, 상기 광원으로부터 출사된 레이저 광의 일부 색을 투과 또는 반사하여 합성하는 합성모듈과, 상기 합성모듈을 통해 합성된 레이저 광의 위상을 불규칙적으로 변환하여 스펙클을 제거하는 스펙클 제거부가 형성된 구조를 투사 모듈로 구비할 수도 있다.
상기 인터페이스 170는, 예를 들면, HDMI(high-definition multimedia interface) 171, USB(universal serial bus) 172를 포함할 수 있다. 상기 인터페이스 170는, 예를 들면, 도 1에 도시된 통신 인터페이스 160에 포함될 수 있다. 추가적으로 또는 대체적으로, 상기 인터페이스 170는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
상기 오디오 모듈 180은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 모듈 180은, 예를 들면, 스피커 181, 또는 마이크 182182 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
일 실시예에 따라 전자 장치100는 오디오 모듈 180을 구비하지 않고, 통신 모듈 120에 포함된 BT 모듈 122을 이용해서 오디오를 외부 BT 장치에 전송할 수도 있을 것이다.
상기 카메라 모듈 191은 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬 (flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
카메라 모듈 191은 카메라 인식 범위에서 제스처를 포함하는 사용자의 모션에 대응되는 영상(예를 들어, 연속되는 프레임)을 수신한다. 예를 들어, 카메라 모듈 191은 인식 범위는 카메라 모듈 191에서부터 사용자까지 0.1 ~ 5 m 이내 거리가 될 수 있다. 사용자 모션은 예를 들어, 사용자의 얼굴, 표정, 손, 주먹, 손가락과 같은 사용자의 신체 일부분 또는 사용자 일부분의 모션 등을 포함할 수 있다.
상기 인디케이터 192는 상기 전자 장치 100 혹은 그 일부(예: 프로세서 110)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다.
상기 모터 193는 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 상기 전자 장치 100는 모바일 TV 지원을 할 수 있는 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV지원을 할 수 있는 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
상기 전력 관리 모듈 194는 상기 전자 장치 100의 전력을 관리할 수 있다. 도시하지는 않았으나, 상기 전력 관리 모듈 194는, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다.
일 실시예에 따라 전력관리 모듈 194는 전자기기 100가 투사면에 위치하거나 또는 투사면으로부터 소정 거리 이내에 접근한 경우에는 광학모듈 160으로 전원을 인가하여 광학모듈 160이 동작하게 할 수 있다.
일 실시예에 따라 전력관리 모듈 194는 전작기 100가 투사면에 위치하지 않거나 또는 투사면으로부터 소정 거리 이내에 접근하지 않은 경우에는 광학모듈 160으로의 전원을 차단하여 광학모듈 160이 컨텐츠를 투사하는 것을 방지할 수 있다.
상기 PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 상기 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시예에 따르면, 상기 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 할 수 있는 충전 IC를 포함할 수 있다.
무선 충전 모듈 196은 무선 충전을 할 수 있는 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로를 포함할 수 있으며, 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있다.
상기 배터리 게이지는, 예를 들면, 상기 배터리 195의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 상기 배터리 195는 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 상기 전자 장치 100에 전원을 공급할 수 있다. 상기 배터리 195는, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시예에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 발명의 다양한 실시예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
도 2c는 일 실시예에 따라 메모리130에 저장되는 모듈의 일 예이다.
도 2c를 참조하면 메모리130는 운영체제 131, 신호처리모듈 132, 기기 포지션 판단 모듈 133, 투사면 분석 모듈 134, 투사영상 확장성 판단 모듈 135, 사용자 입력 처리 모듈 136을 포함할 수 있다.
운영체제 131은 전자기기 100의 전반적인 동작을 제어한다.
신호처리모듈 132는 통신 모듈 120을 통해 수신한 컨텐츠를 광학 모듈 160에 보여질 수 있도록 버퍼링 또는 신호 복호화를 수행한다. 신호처리모듈 132는 전자기기 100가 수신한 영상 데이터에 대한 처리를 수행한다. 신호처리모듈 132는 비디오 데이터에 대한 디코딩, 스케일링, 노이즈 필터링, 프레임 레이트 변환, 해상도 변환 등과 같은 다양한 이미지 처리를 수행할 수 있다.
기기 포지션 판단 모듈 133은 전자 기기가 투사면에 포지션되어 있는지를 판단한다.
일 실시예에 따라 기기 포지션 판단 모듈 133은 전자기기가 투사면에 포지션되었는지 또는 투사면으로부터 소정 거리 이내에 접근했는지를 판단하고, 상기 판단에 따라 컨텐츠의 투사를 결정할 수 있다.
일 실시예에 따라 기기 포지션 판단 모듈 133은 전자 기기의 투사면이 지표면에 수직인지 수평인지 판단하고, 상기 판단에 따라 전자 기기를 투사면에 포지션하도록 지시하는 인디케이터를 출력할지 여부를 결정할 수 있다.
일 실시예에 따라 기기 포지션 판단 모듈 133은 전자 기기가 투사면에 포지션되었는지를 판단하고, 전자 기기가 투사면에 포지션되지 않은 것으로 판단된 경우에는 전자기기를 투사면에 포지션하도록 지시하는 인디케이터를 출력할 수 있다.
일 실시예에 따라 기기 포지션 판단 모듈 133은 전자기기를 투사면에 포지션하도록 지시하는 인디케이터로서, 지정된 포지션으로 위치시키도록 지시하는 안내 사운드 또는 기계음 사운드를 오디오 모듈 180을 통해서 출력함으로써, 이용할 수 있다.
일 실시예에 따라 기기 포지션 판단 모듈 133은 전자기기를 투사면에 포지션하도록 지시하는 인디케이터로서, 지정된 포지션으로 위치시키도록 지시하는 안내 메시지를 담고 있는 투사 영상을 이용할 수 있다. 상기 안내 메시지를 담고 있는 투사 영상은 광학 모듈 160을 통해서 출력될 수 있다.
일 실시예에 따라 기기 포지션 판단 모듈 133은 전자기기를 투사면에 포지션하도록 지시하는 인디케이터로서, LED 램프의 색상 또는 깜빡임 회수, 레이저 의 광 가이드를 이용할 수 있다. LED 램프나 레이저는 전자 장치 100의 인디케이터 192를 통해서 출력될 수 있다.
일 실시예에 따라 기기 포지션 판단 모듈 133은 전자기기를 투사면에 포지션하도록 지시하는 인디케이터로서, 전자 장치에 마련된 진동 소자의 진동을 이용할 수 있다. 상기와 같은 진동은 모터 193를 통해서 출력될 수 있다.
일 실시예에 따라 기기 포지션 판단 모듈 133은 전자 기기가 인접한 다른 전자 기기와 수평위치에 포지션되었는지를 판단하고, 인접한 다른 전자 기기와 수평위치에 포지션되지 않은 것으로 판단된 경우 상기 전자 기기 또는 다른 전자 기기를 수평위치에 포지션하도록 지시하는 인디케이터를 출력할 수 있다. 일 실시예에 따라 기기 포지션 판단 모듈 133은 전자 기기 또는 다른 전자 기기를 수평위치에 포지션하도록 지시하는 인디케이터로서, 지정된 포지션으로 위치시키도록 지시하는 안내 사운드 또는 기계음 사운드를 이용할 수 있다. 상기 사운드는 오디오 모듈 180을 통해서 출력될 수 있다.
일 실시예에 따라 기기 포지션 판단 모듈 133은 전자 기기 또는 다른 전자 기기를 수평위치에 포지션하도록 지시하는 인디케이터로서, 지정된 포지션으로 위치시키도록 지시하는 안내 메시지를 담고 있는 투사 영상을 이용할 수 있다. 상기 안내 메시지를 담고 있는 투사 영상은 광학 모듈 160을 통해서 출력될 수 있다.
일 실시예에 따라 기기 포지션 판단 모듈 133은 전자기기를 전자 기기 또는 다른 전자 기기를 수평위치에 포지션하도록 지시하는 인디케이터로서, LED 램프의 색상 또는 깜빡임 회수, 레이저 의 광 가이드를 이용할 수 있다. LED 램프나 레이저 와 같은 광원은 전자 장치 100의 인디케이터 192에 포함될 수 있다.
일 실시예에 따라 기기 포지션 판단 모듈 133은 전자 기기의 회전 정보에 기초해서 전자기기가 투사면에 포지션되도록 회전시키는 제어를 할 수 있다. 전자기기의 회전은 전자기기에 구비된 힌지 구조를 이용할 수 있다.
투사면 분석 모듈 134은 프로젝터 투사면을 분석해서 영상을 보정한다.
일 실시예에 따라 투사면 분석 모듈 134는 전자기기의 방향 정보를 감지하고 감지된 전자기기의 방향정보에 기초해서 투사 영상의 기하 정보 및 색상 정보 중 적어도 하나를 보정할 수 있다. 전자기기의 방향정보는 전자기기의 센서 모듈 140에 포함된 자이로 센서 140B 및 가속도 센서 140C 중 적어도 하나를 이용하여 감지할 수 있다.
일 실시예에 따라 투사면 분석 모듈 134는 투사면을 분석하여, 투사면이 지표면과 이루는 각도가 미리 정해진 값보다 작으면 투사 영상에 대한 보정을 수행하지 않고, 투사면이 지표면과 이루는 각도가 미리 정해진 값 이상이면 투사 영상에 대한 보정을 수행할 수 있다. 투사면이 지표면과 이루는 각도는 센서 모듈 140에 마련된 자이로 센서 140B 및 가속도 세서 140C 중 적어도 하나를 이용하여 감지할 수 있다. 일 실시예에 따라 투사면 분석 모듈 134는 투사면을 분석하여, 투사면이 지표면과 이루는 각도가 미리 정해진 값보다 작으면 투사 영상에 대한 보정을 수행하고, 투사면이 지표면과 이루는 각도가 미리 정해진 값 이상이면 투사 영상에 대한 보정을 수행하지 않을 수 있다. 일 실시예에 따라 투사면 분석 모듈 134는 전자기기의 투사면이 지표면과 수평인지 수직인지에 따라 투사 영상에 대한 보정 여부를 결정할 수 있다. 전자기기의 투사면이 지표면과 수평인지 수직인지는 센서 모듈 140에 마련된 자이로 센서 140B 및 가속도 센서 140C 중 적어도 하나를 이용하여 감지할 수 있다. 일 실시예에 따라 전자기기가 바닥면에 위치한 경우, 즉 투사면이 지표면과 수평인 경우에는 투사영상에 대한 보정을 행하지 않고 전자기기가 벽에 위치한 경우, 즉 투사면이 지표면과 수직인 경우에는 투사 영상에 대한 보정을 수행할 수 있다. 전자기기가 바닥면에 위치한 경우에는 사용자가 용이하게 전자기기를 회전시키거나 사용자가 위치를 조정함으로써 전자기기로부터 출력되는 투사 영상을 식별하는데 어려움이 없기에 투사 영상에 대한 보정을 수행할 필요성이 떨어진다. 그러나 전자기기가 벽에 위치한 경우에는 투사 영상이 수평으로 출력되지 않는 경우에 사용자가 투사 영상을 인식하거나 식별하는데 곤란성을 주기에 전자기기가 벽에 위치한 경우에 더욱 투사 영상을 보정할 필요성이 증대될 수 있다.
일 실시예에 따라 투사면 분석 모듈 134는 투사면의 크기보다 영상을 투사할 공간의 크기가 작을 때 투사 영상의 크기를 보정할 수 있다. 투사영상 확장성 판단 모듈 135은 투사 영상을 확장해서 투사해야 하는지를 판단한다.
일 실시예에 따라 투사영상 확장성 판단 모듈 135는 전자기기의 주변에 적어도 하나의 다른 전자 기기가 존재하는지 판단하고, 상기 전자기기의 주변에 적어도 하나의 다른 전자기기가 존재하는지 여부에 따라 투사 영상의 확장 가능성을 결정할 수 있다. 일 실시예에 따라 전자기기의 주변에 적어도 하나의 다른 전자기기가 존재하는지는 전자기기 100에 마련된 통신 모듈 120을 통하여 전자기기와 주변의 다른 전자기기간의 무선통신의 신호세기나 센서 모듈 140에 포함된 적외선 센서 140E 또는 초음파 센서 140D를 통하여 측정된 상기 전자기기와 다른 전자기기간의 상대적인 거리 중 적어도 하나를 이용하여 감지할 수 있다.
일 실시예에 따라 투사영상 확장성 판단 모듈 135는 전자기기의 주변에 적어도 하나의 다른 전자기기가 존재함에 따라 투사 영상의 확장성을 결정한 경우에, 투사 영상을 적어도 하나 이상의 영상으로 분할하고, 분할된 적어도 하나 이상의 투사 영상을 적어도 하나의 다른 전자기기로 전송할 수 있다.
사용자 입력 처리모듈 136은 출력된 투사 영상에서의 사용자 입력을 감지하고 상기 감지에 응답해서 데이터 처리를 수행한다.
일 실시예에 따라 사용자 입력처리 모듈 136은 투사된 투사 영상 상의 오브젝트의 이동을 지시하는 사용자 입력을 감지하고 상기 사용자 입력에 기반해서 오브젝트가 이동되는 투사 영상을 출력할 수 있다. 투사 영상 상의 오브젝트의 이동을 지시하는 사용자 입력은 전자기기의 카메라 모듈 191 또는, 센서 모듈 140에 포함된 초음파 센서 140D 나 적외선 센서 140 E 를 통해 감지할 수 있다.
일 실시예에 따라 사용자 입력처리 모듈 136은 투사된 투사 영상 상의 오브젝트를 다른 전자기기에 대응하는 투사 영상으로 이동시키는 사용자 입력을 감지하고 상기 사용자 입력에 기반해서 오브젝트를 상기 다른 전자기기로 전송할 수 있다.
도 2d는 전자기기 100가 데이터를 수신할 수 있는 외부 기기들의 예이다.
일 실시예에 따라 전자기기 100는 투영될 컨텐츠를 외부 기기로부터 통신 모듈 120을 통해서 수신할 수 있다. 예를 들어, 전자기기 100은 플렉서블 디바이스(flexible device) 1, 시계형 디바이스 2, 테이블 PC 3, 모바일 디바이스 4, 텔레비전 등과 같은 디스플레이 5, 노트북 컴퓨터 6, 데스크톱 컴퓨터 7, 안경 형태의 디바이스 8, 또는 헤드마운트 디바이스(headmount device) (도시되지 않음)와 같은 다양한 외부기기들의 적어도 하나로부터 유선 또는 무선으로 컨텐츠를 수신할 수 있다. 이들 외부기기중 하나로부터 수신한 컨텐츠는 미러링일 수도 있고, 컨텐츠를 전송하는 외부기기에서 디스플레이하는 컨텐츠와 다른 컨텐츠일 수도 있다.
일 실시예에 따라 전자기기 100는 투영될 컨텐츠를 전자 기기 100의 인터페이스 170을 통해서 수신할 수 있다.
일 실시예에 따라 전자기기 100는 투영될 컨텐츠를 전자기기 100의 메모리 130로부터 가져올 수 있다.
실시예들에 따라 전자기기 100는 단독으로 사용되어 투사영상을 투사할 수 있지만, 두개 이상의 전자기기를 함께 사용함으로써 투사 영상을 약 2배, 3배, 4배 등 다양한 크기로 확장할 수 있다.
도 3a는 일 실시예에 따라 2개의 전자기기에 의해 투사 영상을 확장하는 예이다.
도 3a를 참조하면, 전자기기 100-1과 전자기기 100-2를 함께 사용함으로써 하나의 전자기기를 사용할 때보다 투사영상의 크기를 약 두배로 확장시킬 수 있다.
예를 들어, 전자기기 100-1은 외부기기 51과 연결되어 있고 전자기기 100-2는 외부기기 52와 연결 되어 있다. 전자기기 100-1은 외부기기 51로부터 수신한 A 화면의 적어도 일부 데이터를 전자기기 100-2로 전송할 수 있다. 전자기기 100-1은 외부기기 51로부터 수신한 A 화면의 적어도 일부인 A-1을 투사하고 전자기기 100-2는 전자기기 100-1로부터 수신한 A화면의 적어도 일부인 A-2를 투사함으로써 전자기기 100-1과 전자기기 100-2는 함께 외부기기 51로부터 수신한 A 화면을 투사함으로써 투사영상을 확장시킬 수 있다.
도 3b는 일 실시예에 따라 4개의 전자기기에 의해 투사영상을 확장하는 예이다.
도 3b를 참조하면, 전자기기 100-1, 전자기기 100-2, 전자기기 100-3, 전자기기 100-4를 함께 사용함으로써 하나의 전자기기를 사용할 때보다 투사영상의 크기를 약 네배로 확장시킬 수 있다.
예를 들어, 전자기기 100-1은 외부기기 61과 연결되어 있고 전자기기 100-2는 외부기기 62와 연결 되어 있고, 전자기기 100-3은 외부기기 63과 연결되어 있고, 전자기기 100-4는 외부기기 64와 연결되어 있다. 전자기기 100-1은 외부기기 51로부터 수신한 A 화면의 적어도 일부 데이터를 전자기기 100-2, 전자기기 100-3, 전자기기 100-4로 전송할 수 있다. 전자기기 100-1은 A화면의 일부인 A-1을, 전자기기 100-2는 A화면의 일부인 A-2를, 전자기기 100-3은 A화면의 일부인 A-3을, 전자기기 100-4는 A화면의 일부인 A-4를 각각 투사함으로써 전자기기 100-1과 전자기기 100-2, 전자기기 100-3, 전자기기 100-4는 함께 외부기기 51로부터 수신한 A 화면을 투사함으로써 투사 영상을 확장시킬 수 있다.
일 실시예에 따라 하나의 전자기기는 복수개의 외부 기기와 연결될 수 있다. 도 3b에서는 각 전자기기가 각 외부 기기와 일대일로 연결된 것으로 도시되었지만 예를 들어 전자기기 100-1은 외부 기기 61, 외부기기 62, 외부기기 63, 외부기기 64 의 하나 이상과연결될 수도 있을 것이다.
일 실시예에 따라 복수개의 전자기기는 하나의 외부 기기와 연결될 수 있다. 예를 들어 복수개의 전자기기 100-1, 전자기기 100-2, 전자기기 100-3, 전자기기 100-4는 외부기기 61, 외부기기 62, 외부기기 63, 외부기기 64중 어느 하나의 외부기기와 연결될 수도 있다.
도 3c는 일 실시예에 따라 4개의 전자기기에 의해 투사영상을 확장하는 다른 예이다.
도 3c를 참조하면, 전자기기 100-1, 전자기기 100-2, 전자기기 100-3, 전자기기 100-4를 함께 사용함으로써 하나의 전자기기를 사용할 때보다 투사영상의 크기를 약 네배로 확장시킬 수 있다. 도 3c에 도시된 확장예는 도 3b에 도시된 확장예와 마찬가지로 투사영상의 크기를 약 네배를 확장시키는 것이다. 다만, 도 3c에서 모든 전자기기가 일렬로 배열된 것과 달리 전자기기들은 가로 2단 세로 2단 형태로 배열되어 투사영상의 크기를 확장시킬 수 있다.
도 3a 내지 도 3b에 도시된 예들은 일 예에 불과하며, 사용자는 원하는 어느 개수의 전자기기 라도 함께 사용하여 투사 영상의 크기를 다양하게 확장시킬 수 있음은 당업자에 의해 충분히 이해될 수 있을 것이다.
실시예들에 따라 전자기기들은 하나의 영상을 함께 투사하여 전체적으로 크기가 확대된 투사 영상을 구현할 수도 있고, 또는 전자기기들 각각은 서로 다른 영상을 투사할 수도 있다.
도 3d는 일 실시예에 따라 복수개의 전자기기가 하나의 화면을 투사하는 예이다.
도 3d를 참조하면, 전자기기 100-1은 외부기기 51과 연결되어 있고 전자기기 100-2는 외부기기 52와 연결되어 있다. 전자기기 100-1은 외부기기 51로부터 수신한 A 화면의 적어도 일부 데이터를 전자기기 100-2로 전송하고 전자기기 100-2는 수신한 A화면의 적어도 일부를 투사함으로써 전자기기 100-1과 전자기기 100-2는 함께 외부기기 51로부터 수신한 A 화면을 투사함으로써 투사영상을 확장시킬 수 있다. 이와 같이 하나의 화면을 복수개의 전자기기가 함께 투사함으로써 사용자들은 보다 큰 화면을 감상할 수 있다.
도 3e는 일 실시예에 따라 복수개의 전자기기가 각각 서로다른 화면을 투사하는 예이다.
도 3e를 참조하면, 전자기기 100-1은 외부기기 51과 연결되어 있고 전자기기 100-2는 외부기기 52와 연결되어 있다. 전자기기 100-1은 외부기기 51로부터 수신한 A 화면을 투사하고, 전자기기 100-2는 연결된 외부기기 52로부터 수신한 B 화면을 투사할 수 있다. 이와 같이 복수개의 전자기기가 각각 서로 다른 화면을 투사함으로써, 예를 들어, 각 외부기기의 사용자는 자신이 필요로 하는 화면을 자신의 전자기기를 통해 투사한 상태에서 필요한 작업 등을 할 수 있다. 예를 들어, 외부기기 51의 사용자와 외부기기 52의 사용자는 각각 파일 폴더가 표시된 화면을 각각 대응하는 전자기기를 통해서 투사하고 파일 송수신 작업 등을 처리할 수 있다. 예를 들어, 외부기기 51의 사용자와 외부기기 52의 사용자는 각자 자신이 작업하는 PPT 화면을 각자 자신의 전자기기를 통해서 투사하고, 각자의 PPT 화면에 대해서 필요한 작업을 수행하는 것과 함께 사용자 입력작업 등을 통해 서로의 PPT 화면에 포함된 오브젝트들을 상대방의 PPT 화면으로 이동시키거나 상대방의 PPT 화면에 포함된 오브젝트들을 자신의 PPT 화면으로 이동시키는 등의 작업을 처리할 수 있다.
도 4는 일 실시예에 따라 전자기기에서 컨텐츠를 투사하는 동작을 나타내는 흐름도이다.
도 4를 참조하면, 동작 410에서 전자기기 100는 전자기기 100의 포지션을 판단한다.
일 실시예에 따라 전자기기 100의 프로세서 110는 기기 포지션 판단 모듈 133을 이용하여 전자기기 100가 투사면에 포지션되었는지를 판단할 수 있다.
일 실시예에 따라 전자기기 100의 프로세서 110는 기기 포지션 판단 모듈 133을 이용하여 전자기기 100가 투사면으로부터 소정 거리 이내로 근접했는지를 판단할 수 있다.
기기 포지션 판단 모듈 13이 전자기기 100가 투사면에 포지션되었는지 또는 투사면으로부터 소정 거리 이내로 근접했는지를 판단할 때, 기기 포지션 판단 모듈 133은 센서 모듈 140에 포함된 하나 이상의 센서가 측정한 센서 값을 분석할 수 있다. 이때 이용될 수 있는 센서는 예를 들어, 근접센서 140G, 조도 센서 140H, 홀센서 (Hall Effect IC) 140F, 또는 초음파 센서 140D, 적외선 센서 140E 또는 압력 센서 140I 중 하나 이상을 이용할 수 있다.
동작 420에서, 전자기기 100는 포지션 판단에 기초해서 컨텐츠를 투사한다.
일 실시예에 따라 전자기기 100의 프로세서 110는 전자기기 100가 투사면에 포지션되었는지 판단에 따라 컨텐츠를 투사하도록 광학 모듈 160을 제어한다. 즉, 전자기기 100는 전자기기 100가 투사면에 포지션되었다고 판단되면 컨텐츠를 투사하고 투사면에 포지션되지 않았다고 판단되면 컨텐츠를 투사하지 않는다. 예를 들어, 전자기기 100의 프로세서 110는 전자기기 100가 투사면에 포지션되었다고 판단된 경우에는 광학 모듈 160을 통해 컨텐츠를 투사할 수 있다. 전자기기 100의 프로세서 110는 전자기기 100가 투사면에 포지션되지 않았다고 판단된 경우에는, 전자기기 100의 전원이 온 상태 일지라도, 광학 모듈 160 또는 광학모듈 160의 조명 모듈 161의 전원을 오프상태로 함으로써 광학 모듈 160을 통해 컨텐츠가 투사되는 것을 막을 수 있다. 이와 같이 전자기기 100가 투사면에 포지션된 경우에만 컨텐츠를 투사하고, 전자기기 100가 투사면에 포지션되지 않은 경우에는 컨텐츠를 투사하는 광학 모듈 160을 오프로 하여 컨텐츠를 투사하지 않음으로써 불필요하게 전력이 소모되는 것을 방지할 수 있다.
일 실시예에 따라 전자기기 100가 투사면에 포지션된 경우에 투사되는 컨텐츠는 아무 내용이 없는 빈 컨텐츠 일 수 있다.
일 실시예에 따라 전자기기 100가 투사면에 포지션된 경우에 투사되는 컨텐츠는 지정된 메시지가 담긴 컨텐츠일 수 있다. 예를 들어, 지정된 메시지는 <컨텐츠 투사 준비가 완료되었습니다> 를 포함할 수 있다.
일 실시예에 따라 전자기기 100의 프로세서 110는 전자기기 100가 투사면으로부터 소정 거리 이내에 근접했는지 판단에 따라 컨텐츠를 투사하도록 광학 모듈 160을 제어한다. 즉, 전자기기 100는 전자기기 100가 투사면으로부터 소정 거리 이내에 근접했다고 판단되면 컨텐츠를 투사하고 투사면으로부터 소정 거리 이내에 근접하지 않았다고 판단되면 컨텐츠를 투사하지 않는다. 예를 들어, 전자기기 100의 프로세서 110는 전자기기 100가 투사면으로부터 소정 거리 이내에 근접했다고 판단된 경우에는 광학 모듈 160을 통해 컨텐츠를 투사할 수 있다. 전자기기 100의 프로세서 110는 전자기기 100가 투사면으로부터 소정 거리 이내에 근접하지 않았다고 판단된 경우에는, 전자기기 100의 전원이 온 상태 일지라도, 광학 모듈 100 또는 광학모듈 100의 조명 모듈 161의 전원을 오프상태로 함으로써 광학 모듈 160을 통해 컨텐츠가 투사되는 것을 막을 수 있다. 이와 같이 전자기기 100가 투사면으로부터 소정 거리 이내에 근접한 경우에 컨텐츠를 투사하고, 전자기기 100가 투사면으로부터 소정 거리 이내에 근접하지 않은 경우에는 컨텐츠를 투사하는 광학 모듈 160을 오프로 하여 컨텐츠를 투사하지 않음으로써 불필요하게 전력이 소모되는 것을 방지할 수 있다. 또한, 전자기기 100가 투사면에 완전히 포지션되기 전이라도 투사면으로부터 소정 거리 이내에 근접하기 시작한 경우에 컨텐츠를 투사함으로써 사용자에게 전자기기 100를 포지션시키면 대략 투사면이 어느 위치에 존재할 지를 미리 알려줌으로써 사용자에게 전자기기 100의 사용의 편리성을 제공할 수 있다.
도 5a 내지 도 5c는 일 실시예에 따라 전자기기 100의 프로세서 110는 전자기기 100가 투사면에 포지션되었는지 또는 투사면으로부터 소정 거리 이내에 근접했는지 판단에 따라 컨텐츠를 투사하도록 광학 모듈 160을 제어하는 동작을 설명하는 참고도이다.
도 5a를 참고하면, 전자기기 100가 투사면에 포지션되지 않은 경우에 전자기기 100의 광학 모듈 160로는 전원을 인가하지 않음으로써 컨텐츠의 투사가 이루어지지 않는다.
도 5b를 참고하면, 전자기기 100가 투사면에 포지션된 경우에 전자기기 100의 광학모듈 160 로도 전원이 인가되어 컨텐츠의 투사 20가 수행된다.
도 5c를 참고하면, 전자기기 100가 투사면에 포지션되기 전이라도 투사면으로부터 소정 거리 이내에 근접한 경우에 전자기기 100의 광학모듈 160 로 전원을 인가함으로써 컨텐츠의 투사 20가 수행된다.
도 6은 일 실시예에 따라 도 4에 도시된 기기의 포지션 판단의 구체적인 동작을 나타내는 흐름도이다.
도 6을 참조하면, 동작 610에서 전자기기 100는 기기의 포지션을 분석한다.
일 실시예에 따라 전자기기 100의 프로세서 110는 기기 포지션 판단 모듈 133을 이용하여 전자기기 100가 전자기기의 포지션을 분석한다. 기기 포지션 판단 모듈 13이 전자기기 100가 투사면으로부터 소정 거리 이내로 근접했는지 등 포지션을 분석하기 위해 센서 모듈 140에 포함된 하나 이상의 센서가 측정한 센서 값을 분석할 수 있다. 이때 이용될 수 있는 센서는 예를 들어, 근접센서 140G, 조도 센서 140H, 홀센서 (Hall Effect IC) 140F, 또는 초음파 센서 140D, 적외선 센서 140E 또는 압력 센서 140I 중 하나 이상을 이용할 수 있다. 투사면으로부터의 소정 거리는 다양하게 결정될 수 있을 것이다.
동작 620에서 투사 영상의 위치를 안내하는 인디케이터를 출력한다.
일 실시예에 따라 전자기기 100의 프로세서 110는 기기 포지션 판단 모듈 133을 이용하여 투사 영상의 위치를 안내하는 인디케이터를 출력할 수 있다.
도 7a 내지 도 7c는 일 실시예에 따라 전자기기 100의 프로세서 110는 전자기기 100가 투사면으로부터 소정 거리 이내에 근접했는지 포지션 분석에 따라 투사 영상의 위치를 안내하는 인디케이터를 출력하는 동작을 설명하는 참고도이다.
도 7a를 참고하면, 전자기기 100가 투사면으로부터 멀리 떨어진 경우에 즉, 투사면으로부터 소정 거리 이내에 접근하지 않은 경우에는 광학 모듈 160 로는 전원을 인가하지 않음으로써 컨텐츠의 투사가 이루어지지 않는다.
도 7b를 참조하면, 전자기기 100가 투사면으로부터 소정 거리 이내에 근접하기 시작한 경우에, 전자기기 100를 포지션 시키면 투사 영상의 위치가 어디가 될 지를 사용자게에 알려주기 위해 전자기기 100은 예를 들어 레이저 광원 같은 것을 이용하여 투사영상의 중심 위치 700를 표시할 수 있다.
도 7c를 참조하면, 전자기기 100가 투사면으로부터 소정 거리 이내에 근접하기 시작한 경우에, 전자기기 100은 예를 들어, 레이저 광원 같은 것을 이용하여 투사 영상의 네 모서리의 위치 710를 표시할 수 있다.
도 7d를 참조하면, 전자기기 100가 투사면으로부터 소정 거리 이내에 근접하기 시작한 경우에, 전자기기 100은 예를 들어, 레이저 광원 또는 투사 모듈을 이용하여 투사 영상의 아웃라인의 위치 720를 표시할 수 있다.
전자기기 100의 투사 영상의 위치를 알려주기 위한 수단은 다양하게 결정될 수 있음은 당업자에 의해 이해될 수 있을 것이다.
도 8a은 일 실시예에 따라 전자기기에서 컨텐츠를 투사하는 동작을 나타내는 흐름도이다.
도 8a을 참조하면, 동작 810에서 전자기기 100는 전자기기 100의 포지션을 판단한다.
일 실시예에 따라 전자기기100의 프로세서 110는 기기 포지션 판단 모듈 133을 이용하여 전자기기 100이 투사면에 포지션되었는지 또는 투사면으로부터 소정 거리 이내에 접근했는지를 판단하고 판단에 기반해서 광학모듈을 통해 컨텐츠의 투사 여부를 결정할 수 있다.
일 실시예에 따라 전자기기 100의 프로세서 110는 기기 포지션 판단 모듈 133을 이용하여 전자기기 100의 포지션을 판단하고, 전자기기 100의 포지션이 투사면에 적합하지 않은 경우에는 전자기기 100을 투사면에 포지션하도록 지시하는 인디케이터를 출력할 수 있다. 또한 프로세서 110는 하나 이상의 인접한 다른 전자기기가 인식된 경우에 전자기기 100와 인접한 다른 전자기기가 수평 위치에 포지션하도록 지시하는 인디케이터를 출력할 수도 있다. 전자기기의 포지션 판단 동작은 도 7 내지 도 12를 참조하여 자세히 후술한다.
동작 820에서 전자기기 100는 투사면을 분석한다.
전자기기 100의 프로세서 110는 투사면 분석 모듈 134를 이용하여 전자기기 100의 투사면을 분석하고, 전자기기 100의 방향 정보나 회전 정보를 이용하여 투사 영상의 기하정보나 색상정보를 보정하거나 투상 영상을 회전시킬 수 있다. 전자기기의 투사면 분석 동작은 도 13 내지 도 21을 참조하여 자세히 후술한다.
동작 830에서 전자기기 100는 컨텐츠를 획득한다.
전자기기 100의 프로세서 110는 통신 모듈 120, 인터페이스 170, 또는 메모리 130의 적어도 하나로부터 투사할 컨텐츠를 획득하고, 신호처리 모듈 132를 이용하여 획득한 컨텐츠를 투사 모듈에 보여질 수 있도록 버퍼링 또는 신호 복호화를 수행할 수 있다.
동작 840에서 전자기기 100는 컨텐츠를 투사한다.
전자기기 100의 프로세서 110는 투사 모듈 163을 이용하여 투사할 컨텐츠를 투사면에 투사할 수 있다.
이제 도 8b 내지 도 12를 참조하여 전자기기의 포지션 판단 동작을 구체적으로 설명한다.
도 8b은 도 8a에 도시된 기기의 포지션 판단 과정 810중의 일부 동작을 나타내는 흐름도이다. 도 8b에 도시된 동작은 기기 포지션 판단 과정 810 내부에 포함시킬 수도 있고, 기기 포지션 판단 과정 810의 이전에 수행되는 전동작으로 볼 수도 있다.
도 8b을 참조하면, 동작 811에서 전자기기는 전자기기의 투사면이 지표면과 수직인지 수평인지를 판단한다.
전자기기 100의 프로세서 110는 기기 포지션 판단 모듈 133을 이용하여 전자기기의 투사면이 지표면과 수직인지 수평인지를 판단할 수 있다. 전자기기의 투사면이 지표면과 수평인 경우에는 전자기기가 바닥면에 위치되었음을 나타내고, 전자기기의 투사면이 지표면과 수직인 경우에는 전자기기가 벽에 설치되었음을 나타낸다. 기기 포지션 판단 모듈 133은 센서 모듈 140에 포함된 자이로 센서 140B 및 가속도 센서 140C 중 적어도 하나를 이용하여 전자기기 100가 전자기기의 투사면이 지표면과 수직인지 수평인지를 판단할 수 있다.
동작 812에서, 전자기기는 전자기기의 투사면이 지표면과 수직인지 수평인지에 따라서 투사면 포지션 판단 과정을 수행할지 여부를 결정한다.
전자기기 100의 프로세서 110는 기기 포지션 판단 모듈 133을 이용하여 전자기기 100가 바닥면에 위치되었는지 벽에 설치되었는지에 따라서 투사면 포지션 판단 과정을 수행할지 여부를 결정할 수 있다. 통상 전자기기 100가 벽에 설치된 경우에는 투사 영상의 가로면이 지표면과 수평으로 위치되지 않고 삐뚤어지는 경우 (예를 들어 도 17의 (c)에서와 같이) 사용자에게 투사 영상의 인식을 어렵게 하는 경우가 많은 반면 전자기기 100가 바닥면이나 테이블에 위치된 경우에 사용자는 사용자가 희망하는 대로 전자기기 100를 위치시키는 조작이 용이하다. 따라서 전자기기 100가 벽에 설치된 경우에는 기기 포지션 판단의 필요성이 많은 반면, 전자기기 100가 바닥면에 설치된 경우에는 기기 포지션 판단의 필요성이 떨어진다. 따라서, 이러한 점을 감안하여 일 실시예에 따라 기기 포지션 판단 모듈 133은 전자기기 100가 바닥면이나 테이블에 위치된 경우에는 기기 포지션 판단 과정을 수행하지 않고 전자기기 100가 벽에 설치된 경우에는 기기 포지션 판단 과정을 수행할 수 있다. 도 8b에 도시된 동작은 생략가능하다. 따라서 도 8b에 도시된 동작은 일 예에 불과하며, 전자기기가 바닥면에 위치되었는지 또는 벽에 설치되었는지에 상관없이 전자기기의 포지션 판단을 수행할 수도 있을 것이다.
도 8c은 도 8a에 도시된 기기의 포지션 판단 과정중의 일부 동작을 나타내는 흐름도이다.
도 8c을 참조하면, 동작 813에서, 전자기기 100는 전자기기가 투사면에 포지션되어 있는지를 판단한다.
전자기기 100의 프로세서 110은 기기 포지션 판단 모듈 133을 이용하여 전자기기 100가 투사면에 적합하게 포지션되어있는지를 판단할 수 있다. 기기 포지션 판단 모듈 133은 센서 모듈 140에 포함된 자이로 센서 140B 및 가속도 센서 140C 중 적어도 하나를 이용하여 전자기기 100가 투사면에 적합하게 포지션되어 있는지, 즉, 전자기기 100가 지표면과 수평으로 위치되어 있는지를 판단할 수 있다.
동작 814에서, 전자기기 100는 전자기기 100가 투사면에 포지션되지 않은 것으로 판단된 경우에 전자기기를 투사면에 포지션하도록 지시하는 인디케이터를 출력한다.
전자기기 100의 프로세서 110은 기기 포지션 판단 모듈 133을 이용하여 전자기기 100가 투사면에 포지션되지 않은 것으로 판단된 경우 즉 전자기기 100가 지표면과 수평으로 위치되어 있지 않다고 판단되는 경우에 전자기기 100를 투사면에 포지션하도록 지시하는 인디케이터를 출력할 수 있다.
전자기기 100은 전자기기 100를 투사면에 포지션하도록 지시하는 인디케이터로는, 광, 사운드, 투사 영상, 및 진동 중 적어도 하나를 이용할 수 있다. 광, 사운드, 투사 영상 및 진동을 이용한 인디케이터들의 예를 도 9를 참조하여 설명한다.
도 9a는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터로서 광을 이용하는 것으로, 광의 일 예로서 LED 색상을 이용하는 것을 나타내는 도면이다.
도 9a를 참조하면, 전자기기 100는 컨텐츠를 투사할 수 있는 투사 모듈 163과 전자기기를 포지션하도록 지시하는 인디케이터를 제공하는 수단의 일 예로서 LED 램프 192-1을 구비한다. LED 램프 192-1은 전자기기 100를 수평한 위치에 놓을 수 있도록 LED 램프의 색상을 이용하여 사용자에게 가이드를 줄 수 있다. 예를 들어, LED 램프 192-1은 전자기기 100가 지표면과 수평한 위치에 놓이면 녹색으로 표시되고 수평한 위치에 놓이지 않으면 적색으로 표시될 수 있다. 사용자는 전자기기 100를 설치한 후 LED 램프 192-1의 색상이 적색으로 표시된 경우에는 전자기기 100가 수평한 위치에 놓이지 않았음을 인식할 수 있다. 따라서 사용자는 전자기기 100의 LED 램프 192-1의 색상이 녹색으로 표시되도록 전자기기 100의 위치를 조정함으로써 전자기기를 투사면에 적합한 위치에 놓을 수 있다.
도 9a의 (a)와 (b)에서는 모두 전자기기 100이 수평으로 위치되지 않아서 LED 램프 192-1의 색상은 적색으로 표시될 수 있다. 사용자가 도 9a의 (c)에서와 같이 전자기기 100의 위치를 수평으로 위치시키면 전자기기 100의 LED 램프 192-1은 녹색으로 표시될 수 있다.
이상의 예에서는 전자기기 100가 투사면에 적합하게 위치되었을 때의 LED 색상과 적합하게 위치되지 않았을 때의 LED 색상을 각각 녹색과 적색으로 표시하였지만, 이는 일 예에 불과하며 투사면에 적합하게 위치된 것을 표시하기 위한 LED 색상과 투사면에 적합하게 위치되지 않았음을 표시하기 위한 LED 색상은 서로 구별되기만 한다면 어떠한 색상을 이용하여도 가능함은 당업자에 의해 충분히 이해될 것이다.
또한 일 실시예에 따라서 전자기기 100가 수평한 위치로부터 떨어진 정도에 비례해서 LED 램프 192-1의 깜빡임 속도를 다르게 해서 사용자로 하여금 가이드를 줄 수도 있다. 예를 들어, 전자기기 100가 수평한 위치로부터 많이 떨어져 있을수록 LED 램프 192-1의 깜빡임 속도를 높게 하고 전자기기 100가 수평한 위치로부터 조금 떨어져 있을수록 LED 램프 192-1의 깜빡임 속도를 낮게 함으로써 사용자로 하여금 전자기기 100가 수평한 위치로부터 얼마나 떨어져 있는지를 직관적으로 느낄 수 있게 할 수 있다.
도 9b는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터로서 광을 이용하는 것으로, 광의 일 예로서 레이저를 이용하는 것을 나타내는 도면이다.
도 9b를 참조하면, 전자기기 100는 컨텐츠를 투사할 수 있는 광학 모듈 160과 전자기기를 포지션하도록 지시하는 인디케이터를 제공하는 수단의 일 예로서 레이저 또는 LED 램프와 같은 광원(도시하지 않음)를 구비한다. 레이저 또는 LED 램프와 같은 광원 는 전자기기 100를 수평한 위치에 놓을 수 있도록 레이저 또는 LED 램프와 같은 광원 로부터 출사되는 레이저 광의 색상을 이용하여 사용자에게 가이드를 줄 수 있다. 예를 들어, 레이저 또는 LED 램프와 같은 광원 는 전자기기가 지표면과 수평한 위치에 있을 때는 녹색 광을 출사하고 전자기기 100가 지표면과 수평한 위치가 아닐 때는 적색 광을 출사할 수 있다. 사용자는 전자기기 100를 설치한 후 레이저 또는 LED 램프와 같은 광원으 로부터 출사되는 광의 색상이 적색이면 전자기기 100가 수평한 위치에 놓이지 않았음을 인식할 수 있다. 따라서 사용자는 전자기기 100의 레이저 또는 LED 램프와 같은 광원 에서 출사되는 레이저 광의 색상이 녹색으로 표시되도록 전자기기 100의 위치를 조정함으로써 전자기기를 투사면에 적합한 위치에 놓을 수 있다.
도 9b의 (a)와 (b)에서는 모두 전자기기 100이 수평으로 위치되지 않아서 전자기기는 레이저 또는 LED 램프와 같은 광원 를 통해 적색 광을 출사할 수 있다. 또한 전자기기 100는 전자기기 100을 수평으로 위치시키기 위한 가이드를 주기 위해 수평 위치에 녹색 광을 또한 출사할 수 있다. 사용자가 도 9b의 (c)에서와 같이 전자기기 100의 위치를 수평으로 위치시키면 전자기기 100의 레이저 또는 LED 램프와 같은 광원은 적색 광의 출사는 중단하고 녹색 광만을 출사할 수 있다.
이상의 예에서는 전자기기 100가 투사면에 적합하게 위치되었을 때의 레이저 색상과 적합하게 위치되지 않았을 때의 레이저 색상을 각각 녹색과 적색으로 표시하였지만, 이는 일 예에 불과하며 투사면에 적합하게 위치된 것을 표시할 수 있는 레이저 색상과 투사면에 적합하게 위치되지 않았음을 표시할 수 있는 레이저 색상은 서로 구별되기만 한다면 어떠한 색상을 이용하여도 가능함은 당업자에 의해 충분히 이해될 것이다.
또한 일 실시예에 따라서 전자기기 100가 수평한 위치로부터 떨어진 정도에 비례해서 레이저 또는 LED 램프와 같은 광원 의 깜빡임 속도를 다르게 해서 사용자로 하여금 가이드를 줄 수도 있다. 예를 들어, 전자기기 100가 수평한 위치로부터 많이 떨어져 있을수록 레이저 또는 LED 램프와 같은 광원 의 깜빡임 속도를 높게 하고 전자기기 100가 수평한 위치로부터 조금 떨어져 있을수록 레이저 의 깜빡임 속도를 낮게 함으로써 사용자로 하여금 전자기기 100가 수평한 위치로부터 얼마나 떨어져 있는지를 직관적으로 느낄 수 있게 할 수 있다.
도 9c는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 기계음 사운드를 나타내는 도면이다.
도 9c를 참조하면, 전자기기 100는 컨텐츠를 투사할 수 있는 투사 모듈 163과 전자기기를 포지션하도록 지시하는 인디케이터를 제공하는 수단의 일 예로서 오디오 모듈 180(도 2b)을 구비한다. 오디오 모듈 180은 전자기기 100를 수평한 위치에 놓을 수 있도록 기계음 사운드를 이용하여 사용자에게 가이드를 줄 수 있다. 예를 들어, 오디오 모듈 180은 전자기기가 지표면과 수평한 위치에 놓이면 기계음 사운드를 내지 않지만 수평한 위치에 놓이지 않으면 미리 정해진 기계음 사운드를 출력할 수 있다. 사용자는 전자기기 100를 설치한 후 전자기기 100로부터 기계음 사운드가 나는 경우에 전자기기 100가 수평한 위치에 놓이지 않았음을 인식할 수 있다. 따라서 사용자는 전자기기 100로부터 기계음 사운드가 나지 않도록 전자기기 100의 위치를 조정함으로써 전자기기를 투사면에 적합한 위치에 놓을 수 있다.
도 9c의 (a)와 (b)에서는 모두 전자기기 100이 수평으로 위치되지 않아서 전자기기 100로부터 <뚜뚜뚜>와 같은 기계음 사운드가 출력된다. 사용자가 도 9c의 (c)에서와 같이 전자기기 100의 위치를 수평으로 위치시키면 전자기기 100는 기계음 사운드의 출력을 중단한다.
또한 일 실시예에 따라서 전자기기 100가 수평한 위치로부터 떨어진 정도에 비례해서 기계음 사운드의 반복 속도를 다르게 해서 사용자로 하여금 가이드를 줄 수도 있다. 예를 들어, 전자기기 100가 수평한 위치로부터 많이 떨어져 있을수록 기계음 사운드의 반복 속도를 높게 하고 전자기기 100가 수평한 위치로부터 조금 떨어져 있을수록 기계음 사운드의 반복 속도를 낮게 함으로써 사용자로 하여금 전자기기 100가 수평한 위치로부터 얼마나 떨어져 있는지를 직관적으로 느낄 수 있게 할 수 있다.
도 9d는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 음성 안내 사운드를 나타내는 도면이다.
도 9d를 참조하면, 전자기기 100는 컨텐츠를 투사할 수 있는 광학 모듈 160과 전자기기를 포지션하도록 지시하는 인디케이터를 제공하는 수단의 일 예로서 오디오 모듈 180(도 2b)을 구비한다. 오디오 모듈 180은 전자기기 100를 수평한 위치에 놓을 수 있도록 음성안내 사운드를 이용하여 사용자에게 가이드를 줄 수 있다. 예를 들어, 오디오 모듈 180은 전자기기 100가 지표면과 수평한 위치에 놓이면 <수평 상태입니다> 라는 음성 안내 사운드를 출력하고, 수평한 위치에 놓이지 않으면 <오른쪽으로 돌리세요>, <왼쪽으로 돌리세요> 와 같은 음성 안내 사운드를 출력할 수 있다. 사용자는 전자기기 100를 설치한 후 전자기기 100로부터<오른쪽으로 돌리세요>, <왼쪽으로 돌리세요> 와 같은 음성안내 사운드가 나는 경우에 전자기기 100가 수평한 위치에 놓이지 않았음을 인식할 수 있다. 따라서 사용자는 전자기기 100로부터 <수평 상태 입니다> 라는 음성 안내 사운드가 나오도록 전자기기 100의 위치를 조정함으로써 전자기기를 투사면에 적합한 위치에 놓을 수 있다.
도 9d의 (a)와 (b)에서는 모두 전자기기 100이 수평으로 위치되지 않아서 전자기기 100로부터 <오른쪽으로 돌리세요> 나 <왼쪽으로 돌리세요> 와 같은 음성 안내 사운드가 출력된다. 사용자가 도 9d의 (c)에서와 같이 전자기기 100의 위치를 수평으로 위치시키면 전자기기 100는 <수평상태입니다> 라는 음성 안내 사운드를 출력할 수 있다.
이상의 예에서는 전자기기 100가 투사면에 적합하게 위치되었을 때의 오디오 모듈에서 출력되는 음성 안내 메시지와 적합하게 위치되지 않았을 때의 음성 안내 메시지는 다양하게 결정될 수 있음은 당업자에 의해 충분히 이해될 것이다.
도 9e는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 안내 영상의 일 예를 나타내는 도면이다.
도 9e를 참조하면, 전자기기 100는 컨텐츠를 투사할 수 있는 광학 모듈 160을 포함하며 전자기기를 포지션하도록 지시하는 인디케이터를 제공하는 수단의 일 예로서 광학 모듈 160을 이용한다. 광학 모듈 160은 전자기기 100를 수평한 위치에 놓을 수 있도록 안내 영상을 이용하여 사용자에게 가이드를 줄 수 있다. 예를 들어, 광학 모듈 160은 전자기기가 수평한 위치에 놓이면 <수평 상태입니다> 라는 메시지를 포함하는 영상을 출력하고, 수평한 위치에 놓이지 않으면 <오른쪽으로 돌리세요> 또는 <→ 방향으로 돌리세요>, <왼쪽으로 돌리세요> 또는 <←방향으로 돌리세요>와 같은 메시지를 포함하는 안내 영상을 출력할 수 있다. 사용자는 전자기기 100를 설치한 후 전자기기 100로부터 <오른쪽으로 돌리세요>, <왼쪽으로 돌리세요> 와 같은 영상이 투사되는 경우에 전자기기 100가 수평한 위치에 놓이지 않았음을 인식할 수 있다. 따라서 사용자는 전자기기 100로부터 <수평 상태 입니다> 라는 안내 영상이 투사되도록 전자기기 100의 위치를 조정함으로써 전자기기를 투사면에 적합한 위치에 놓을 수 있다.
도 9e의 (a)와 (b)에서는 모두 전자기기 100이 수평으로 위치되지 않아서 전자기기 100로부터 <오른쪽으로 돌리세요> 와 같은 안내 영상 910 이나 <왼쪽으로 돌리세요> 와 같은 안내 영상 920이 투사된다. 사용자가 도 9e의 (c)에서와 같이 전자기기 100의 위치를 수평으로 위치시키면 전자기기 100는 <수평상태입니다> 라는 안내 영상 930을 출력할 수 있다.
이상의 예에서는 전자기기 100가 투사면에 적합하게 위치되었을 때의 투사 모듈에서 출력되는 영상의 안내 메시지와 적합하게 위치되지 않았을 때의 안내 메시지는 다양하게 결정될 수 있음은 당업자에 의해 충분히 이해될 것이다.
도 9f는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 안내 영상의 다른 예를 나타내는 도면이다. 도 9e에 도시된 예에서는 텍스트로 나타내진 메시지를 포함하는 안내 영상을 인디케이터로 하는 반면, 도 9f에 도시된 예에서는 그림으로 나타내진 메시지를 포함하는 안내 영상을 인디케이터로 한다.
도 9f를 참조하면, 전자기기 100는 컨텐츠를 투사할 수 있는 광학 모듈 160을 포함하며 전자기기를 포지션하도록 지시하는 인디케이터를 제공하는 수단의 일 예로서 광학 모듈 160을 이용한다. 광학 모듈 160은 전자기기 100를 수평한 위치에 놓을 수 있도록 안내 영상을 이용하여 사용자에게 가이드를 줄 수 있다. 예를 들어, 광학 모듈 160은 전자기기가 수평한 위치에 놓이지 않으면 전자기기를 수평위치로 맞추기 위한 가이드 라인 941 및 현재 전자기기가 놓인 상태를 나타내는 라인 942를 함께 표시한 그림를 포함하는 영상을 출력하고, 수평한 위치에 놓이면 전자기기를 수평위치로 맞추기 위한 가이드 라인941 및 현재 전자기기가 놓인 상태를 나타내는 라인 942을 겹쳐서 표시한 그림을 포함하는 영상을 출력할 수 있다. 사용자는 전자기기 100를 설치한 후 전자기기 100로부터 가이드 라인 941과 현재 상태 라인 942가 어긋나 있는 그림을 포함하는 영상이 투사되는 경우에 전자기기 100가 수평한 위치에 놓이지 않았음을 인식할 수 있다. 따라서 사용자는 전자기기 100로부터 가이드 라인 941과 현재 상태 라인 942가 겹쳐져 있는 그림을 포함하는 안내 영상이 투사되도록 전자기기 100의 위치를 조정함으로써 전자기기를 투사면에 적합한 위치에 놓을 수 있다.
도 9f의 (a)와 (b)에서는 모두 전자기기 100이 수평으로 위치되지 않아서 전자기기 100로부터 가이드라인 941과 현재 상태 라인 942가 어긋나 있는 그림을 포함하는 안내 영상 940, 950이 투사된다. 사용자가 도 9f의 (c)에서와 같이 전자기기 100의 위치를 수평으로 가까이 위치시킴에 따라 전자기기 100는 가이드라인 941과 현재 상태 라인 942의 어긋난 정도가 줄어드는 그림을 포함하는 안내 영상을 투사하며, 전자기기100의 위치를 수평으로 위치시키면 전자기기 100는 가이드라인 941과 현재 상태 라인 942가 겹쳐져서 표시된 안내 영상 960을 출력할 수 있다. 이와 같이 사용자의 전자기기 100의 위치 조정에 따라서 가이드라인 941과 현재 상태 라인 942가 어긋난 정도를 대응시켜 투사함으로써 사용자는 자신의 위치 조정에 따라서 가이드라인 941과 현재 상태 라인 942의 관계를 나타내는 투사 영상을 확인할 수 있어서 사용자로 하여금 전자기기 100의 포지션을 맞추는 것을 직관적으로 용이하게 할 수 있다.
도 9g는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 진동을 나타내는 도면이다.
도 9g를 참조하면, 전자기기 100는 컨텐츠를 투사할 수 있는 광학 모듈 160및 전자기기를 포지션하도록 지시하는 인디케이터를 제공하는 수단의 일 예로서 모터 193을 이용한다. 모터 193은 전자기기 100를 수평한 위치에 놓을 수 있도록 진동을 이용하여 사용자에게 가이드를 줄 수 있다. 예를 들어, 모터 193은 전자기기가 수평한 위치에 놓이지 않으면 진동을 출력하고, 수평한 위치에 놓이면 진동의 출력을 중단한다. 사용자는 전자기기 100를 설치한 후 전자기기 100로부터 진동이 출력되는 경우에 전자기기 100가 수평한 위치에 놓이지 않았음을 인식할 수 있다. 따라서 사용자는 전자기기 100로부터 진동 출력이 중단되도록 전자기기 100의 위치를 조정함으로써 전자기기를 투사면에 적합한 위치에 놓을 수 있다.
도 9g의 (a)와 (b)에서는 모두 전자기기 100이 수평으로 위치되지 않아서 전자기기 100로부터 진동이 출력된다. 또한 일 실시예에 따라서 전자기기 100가 수평으로부터 멀리 떨어져 있을수록 강한 진동을 출력하고, 전자기기 100가 수평으로부터 가까이 있을수록 약한 진동을 출력할 수 있다. 사용자가 도 9g의 (c)에서와 같이 전자기기 100의 위치를 수평으로 가까이 위치시킴에 따라 전자기기 100는 진동의 세기를 약하게 하고, 전자기기100의 위치를 수평으로 위치시키면 전자기기 100는 진동의 출력을 중단할 수 있다. 이와 같이 사용자의 전자기기 100의 위치 조정에 따라서 진동의 세기를 다르게 함으로써 사용자는 자신의 위치 조정에 따라서 전자기기 100의 위치가 수평에 얼마나 가깝게 되었나를 확인할 수 있어서 사용자로 하여금 전자기기 100의 포지션을 맞추는 것을 직관적으로 용이하게 할 수 있다.
일 실시예에 따라 전자기기 100는 기기 포지션 판단 모듈 133을 이용하여 전자기기 100가 투사면에 포지션되지 않은 것으로 판단된 경우 전자기기 100에 구비된 힌지 구조를 이용하여 전자기기 100를 자동으로 회전시킴으로써 투사면에 포지션시킬 수 있다.
도 10은 일 실시예에 따라 힌지 구조를 채택하여 전자기기를 자동으로 회전시키는 개념을 설명하는 도면이다.
도 10의 (a)를 참조하면 전자기기 100는 투사면 1010이 지표면에 수평하게 위치되어 있지 않아서 투사면에 포지션되지 않은 것으로 판단한다.
전자기기 100은 이와 같이 투사면에 포지션되지 않은 것으로 판단된 경우에, 센서 모듈 140내의 자이로 센서 140B나 가속도 센서 140C를 이용하여 측정한 값을 이용하여, 전자기기 100를 수평으로 맞추기 위해 회전되어야 하는 각도의 값을 계산할 수 있다.
도 10의 (b)를 참조하면 전자기기 100은 위와 같이 계산된 회전각의 값 만큼 힌지 구조를 이용하여 전자기기 100를 자동으로 회전시킴으로써 전자기기 100를 자동으로 투사면에 포지션시킬 수 있다. 전자기기 100은 수평으로 맞추어진 투사면1020에 영상을 투사한다.
일 실시예에 따라서 전자기기 100는 회전 정보에 기초하여 전자기기 100를 회전시킬 수 있다. 회전은 전자기기 100에 힌지 구조를 내장하여 전자기기 100 전체가 회전할 수 있다. 또는 전자기기 100의 광학 모듈 하단에 힌지구조를 내장하여 전자기기 광학 모듈 만 회전할 수도 있다.
도 11은 도 6에 도시된 전자기기의 포지션 판단 과정중의 일부 동작을 나타내는 흐름도이다.
도 11을 참조하면, 동작 1110에서, 전자기기 100는 전자기기에 인접한 다른 전자기기를 인식한다.
전자기기 100의 프로세서 110는 기기 포지션 판단 모듈 133을 이용하여 전자기기 100에 인접한 다른 전자기기를 인식할 수 있다. 전자기기 100의 주변에 인접한 전자기기가 있는지를 감지하는 방법으로는 무선 통신의 신호 세기, 또는 적외선 센서나 초음파 센서로부터 측정된 상대적인 거리 등을 이용할 수 있다.
일 실시예에 따라 기기 포지션 판단 모듈 133은 통신 모듈 120을 이용하여 무선통신의 신호세기를 측정하고 신호세기가 일정치 이상이면 주변의 전자기기가 충분히 인접해 있다고 판단할 수 있다. 무선통신은 WiFi, 블루투스, 또는 Zigbee 와 같은 다양한 통신기술이 이용될 수 있다.
다른 실시예에 따라 기기 포지션 판단 모듈 133은 상대적인 거리를 측정할 수 있는 적외선 센서 140E 또는 초음파 센서 140D을 이용하여 전자기기 100와 주변 전자기기와의 상대적인 거리를 측정하고, 측정된 상대적인 거리가 임계치 이하일 때 주변에 전자기기가 위치함을 인식할 수 있다.
동작 1120에서 전자기기 100는 전자기기가 인접한 다른 전자기기와 수평 위치에 포지션되었는지를 판단한다.
전자기기 100의 프로세서 110는 기기 포지션 판단 모듈 133을 이용하여 전자기기가 인접한 다른 전자기기와 수평 위치에 포지션되었는지를 판단할 수 있다. 기기 포지션 판단 모듈 133은 센서 모듈 140 에 포함된 자이로 센서 140B 또는 가속도 센서 140C 중 적어도 하나를 이용하여 전자기기 100가 인접한 다른 전자기기와 수평 위치에 포지션되었는지를 판단할 수 있다.
동작 1130에서 전자기기 100는 전자기기가 인접한 다른 전자기기와 수평 위치에 포지션되지 않은 것으로 판단된 경우 전자기기 또는 인접한 다른 전자기기를 수평위치에 포지션하도록 지시하는 인디케이터를 출력한다.
전자기기 100의 프로세서 110는 기기 포지션 판단 모듈 133을 이용하여 전자기기가 인접한 다른 전자기기와 수평 위치에 포지션되지 않은 것으로 판단된 경우 전자기기 100 또는 인접한 다른 전자기기를 수평위치에 포지션하도록 지시하는 인디케이터를 출력할 수 있다.
전자기기 100은 전자기기 100 또는 인접한 다른 전자기기를 수평위치에 포지션하도록 지시하는 인디케이터로서, 광, 투사 영상 및 사운드 중 적어도 하나를 이용할 수 있다. 광, 사운드, 투사 영상을 이용한 인디케이터들의 예를 도 12를 참조하여 설명한다.
도 12a는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터로서 광을 이용하는 것으로, 광의 일 예로로서 LED 색상을 이용하는 것을 나타내는 도면이다.
도 12a를 참조하면, 전자기기 100-1은 컨텐츠를 투사할 수 있는 투사 모듈 163-1과 전자기기를 포지션하도록 지시하는 인디케이터를 제공하는 수단의 일 예로서 LED 램프 192-1을 구비한다. 전자기기 100-2는 컨텐츠를 투사할 수 있는 투사 모듈 163-2와 전자기기를 포지션하도록 지시하는 인디케이터를 제공하는 수단의 일 예로서 LED 램프 192-2를 구비한다. LED 램프 192-1, 192-2는 전자기기 100-1 이나 전자기기 100-2를 수평한 위치에 놓을 수 있도록 LED 램프의 색상을 이용하여 사용자에게 가이드를 줄 수 있다. 예를 들어, LED 램프 192-1과 192-2는 수평한 위치에 놓이면 녹색으로 표시되고 수평한 위치에 놓이지 않으면 적색으로 표시될 수 있다. 사용자는 전자기기 100-1 및 100-2를 설치한 후 LED 램프 192-1, 192-2의 색상이 적색으로 표시된 경우에는 전자기기 100-1 과 전자기기 100-2가 수평한 위치에 놓이지 않았음을 인식할 수 있다. 따라서 사용자는 전자기기 100-1의 LED 램프 192-1와 전자기기 100-2의 LED 램프 192-2의 색상이 녹색으로 표시되도록 전자기기 100-1이나 100-2의 위치를 조정함으로써 전자기기 100-1과 전자기기 100-2를 수평의 위치에 놓을 수 있다.
도 12a의 (a)와 (b)에서는 모두 전자기기 100-1과 100-2가 수평으로 위치되지 않아서 LED 램프 192-1와 192-2의 색상은 적색으로 표시된다. 사용자가 도 12a의 (c)에서와 같이 예를 들어 전자기기 100-2의 위치를 전자기기 100-1과 수평으로 위치시키면, 즉 전자기기 100-2를 위치 P 에 놓으면, 전자기기 100-1과 100-2의 LED 램프 192-1, 192-2은 녹색으로 표시될 수 있다. 물론 이때 전자기기 100-1의 위치를 옮겨서 전자기기 100-1과 전자기기 100-2의 위치가 수평이 되게 할수도 있을 것이다.
이상의 예에서는 전자기기 100-1과 100-2가 수평으로 위치되었을 때의 LED 색상과 적합하게 위치되지 않았을 때의 LED 색상을 각각 녹색과 적색으로 표시하였지만, 이는 일 예에 불과하며 수평으로 위치된 것을 표시할 수 있는 LED 색상과 수평으로 위치되지 않았음을 표시할 수 있는 LED 색상은 서로 구별되기만 한다면 어떠한 색상을 이용하여도 가능함은 당업자에 의해 충분히 이해될 것이다.
또한 일 실시예에 따라서 전자기기 100-1과 100-2가 수평한 위치로부터 떨어진 정도에 비례해서 LED 램프 192-1, 192-2의 깜빡임 속도를 다르게 해서 사용자로 하여금 가이드를 줄 수도 있다. 예를 들어, 전자기기 100-1과 100-2가 수평한 위치로부터 많이 떨어져 있을수록 LED 램프 192-1, 192-2의 깜빡임 속도를 높게 하고 전자기기 100-1과 100-2가 수평한 위치로부터 조금 떨어져 있을수록 LED 램프 192-1과 192-2의 깜빡임 속도를 낮게 함으로써 사용자로 하여금 전자기기 100-1과 100-2가 서로 수평한 위치로부터 얼마나 떨어져 있는지를 직관적으로 느낄 수 있게 할 수 있다.
도 12b는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터로서 광을 이용하는 것으로, 광의 일 예로로서 LED 색상 및 LED 광의 모양을 이용하는 것을 나타내는 도면이다.
도 12b에 도시된 예는 도 12a에 도시된 예와 유사하지만 다만, LED 광의 모양을 더 이용하는 것이 다르다. 즉, 도 12a에 도시된 LED 램프는 하나의 점 형태로 광을 출력하지만, 도 12b에 도시된 LED 램프는 복수개의 LED 광원을 배치함으로써 복수개의 LED 광원중 하나 이상의 LED 광원을 이용하여 다양한 모양으로 광을 출력할 수 있다. 복수개의 LED 광원의 배치는 예를 들어 3X3 형태의 정사각형 형태로 배치할 수도 있고, 동심원 형태로 3줄로 배치할 수도 있을 것이다.
LED 램프 192-1, 192-2는 전자기기 100-1 이나 전자기기 100-2를 수평한 위치에 놓을 수 있도록 LED 램프의 색상이나 LED 램프로부터 출사되는 광의 모양을 이용하여 사용자에게 가이드를 줄 수 있다. 예를 들어, LED 램프 192-1과 192-2에서 출력되는 광은 수평한 위치에 놓이면 녹색 점으로 표시되고, 수평한 위치에 놓이지 않으면 적색 점으로 표시되거나 또는 적색의 화살표 모양으로 출력될 수 있다. 또한 전자기기 100-1과 전자기기 100-2가 수평에서 떨어진 거리에 비례해서 화살표의 길이를 다르게 보여줄 수 있다.
도 12b의 (a)와 (b)에서는 전자기기 100-1과 100-2가 수평으로 위치되지 않아서 LED 램프 192-1와 192-2의 색상은 적색으로 표시된다. 두개의 전자기기 100-1과 전자기기 100-2중 하나를 기준이 되는 전자기기로 설정할 수 있고 나머지 전자기기를 위치를 이동시켜야 하는 전자기기로 할 수 있다. 두개의 전자기기중 하나의 전자기기를 기준 전자기기로 하는 방법은 다양한 방법이 있을 수 있다. 예를 들어, 두개의 전자기기 중 먼저 부착한 전자기기 또는 먼저 포지션한 전자기기를 기준 전자기기로 설정할 수 있을 것이다. 두개의 전자기기중 기준 전자기기에서 출사되는 LED 램프 광을 적색 점으로 하고 나머지 전자기기에서 출사되는 LED 램프의 광을 화살표 모양으로 할 수 있을 것이다. 도 12b의 (a)와 (b)에서는 전자기기 100-1은 기준이 되는 전자기기로 설정되어 전자기기 100-2와 수평이 맞추어지지 않았음을 표시하기위해 적색 점을 출력하고 전자기기 100-2는 사용자에게 포지션될 위치를 가리키기 위해 적색의 화살표 모양으로 광을 출사할 수 있다. 사용자가 전자기기 100-2의 위치를 조정하여 전자기기 100-1과 수평으로 위치시키면 전자기기 100-1과 100-2의 LED 램프 192-1, 192-2은 녹색으로 표시될 수 있다.
이상의 예에서는 전자기기 100-1과 100-2가 수평으로 위치되었을 때의 LED 색상과 적합하게 위치되지 않았을 때의 LED 색상을 각각 녹색과 적색으로 표시하였지만, 이는 일 예에 불과하며 수평으로 위치된 것을 표시할 수 있는 LED 색상과 수평으로 위치되지 않았음을 표시할 수 있는 LED 색상은 서로 구별되기만 한다면 어떠한 색상을 이용하여도 가능함은 당업자에 의해 충분히 이해될 것이다.
도 12c는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터로 광을 이용하는 것으로, 광의 일 예로서 레이저 를 이용하는 것을 나타내는 도면이다.
도 12c를 참조하면, 전자기기 100-1은 광학모듈 160-1과 전자기기를 포지션하도록 지시하는 인디케이터를 제공하는 수단의 일 예로서 레이저 또는 LED 램프와 같은 광원 192-5를 구비한다. 전자기기 100-2는 광학 모듈 160-2와 전자기기를 포지션하도록 지시하는 인디케이터 제공 수단의 일 예로서 레이저 또는 LED 램프와 같은 광원 192-6을 구비한다.
앞서 설명한 바와 같이 복수개의 전자기기가 인접해 있을 때 복수개의 전자기기중 하나를 기준 전자기기로 설정할 수 있고 기준이 되는 전자기기는 다른 전자기기가 수평을 위해 위치되어야 하는 지점을 레이저 또는 LED 램프와 같은 광원 을 이용하여 가이드를 줄 수 있다. 예를 들어 복수개의 전자기기 중 기준이 되는 전자기기는 전자기기들이 수평이 맞지 않았을 때에는 다른 전자기기가 수평을 맞추기 위해 놓여져야 하는 위치를 레이저 또는 LED 램프와 같은 광원 의 적색 광을 이용하여 가이드하고 전자기기의 수평이 맞추어진 경우에 기준 전자기기는 레이저 또는 LED 램프와 같은 광원 의 녹색 광을 이용하여 수평이 맞추어졌음을 표시할 수 있다.
도 12c의 (a) 에서는 전자기기 100-1과 100-2가 수평으로 위치되지 않아서 기준 전자기기 100-1은 전자기기 100-2와의 수평을 위해 전자기기 100-2가 놓여져야 하는 위치 P를 레이저 192-5를 통하여 표시할 수 있다.
도 12c의 (b)에서는 전자기기 100-1과 100-2가 수평으로 위치되지 않아서 전자기기 100-1은 전자기기 100-2와의 수평을 위해 전자기기 100-2가 놓여져야 하는 위치 P1을 레이저 또는 LED 램프와 같은 광원 192-5를 통해서 표시하고, 전자기기 100-2는 전자기기 100-1과의 수평을 위해 전자기기 100-1이 놓여져야 하는 위치 P2를 레이저 또는 LED 램프와 같은 광원 192-6을 통해 표시할 수 있다. 사용자가 도 12c의 (c)에서와 같이 예를 들어 전자기기 100-2의 위치를 전자기기 100-1이 가이드 하는 위치 P에 놓으면 전자기기 100-1은 레이저 또는 LED 램프와 같은 광원 192-5를 통해 녹색 레이저를 출력할 수 있다.
이상의 예에서는 전자기기 100-1과 100-2가 수평으로 위치되었을 때의 레이저 색상과 적합하게 위치되지 않았을 때의 색상을 각각 녹색과 적색으로 표시하였지만, 이는 일 예에 불과하며 수평으로 위치된 것을 표시할 수 있는 레이저 색상과 수평으로 위치되지 않았음을 표시할 수 있는 레이저 색상은 서로 구별되기만 한다면 어떠한 색상을 이용하여도 가능함은 당업자에 의해 충분히 이해될 것이다.
도 12d는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 레이저 LED 및 화면비율 안내를 함께 이용하는 예를 나타내는 도면이다.
도 12d를 참조하면, 전자기기 100-1은 광학모듈 160-1과 전자기기를 포지션하도록 지시하는 인디케이터를 제공하는 수단의 일 예로서 레이저 또는 LED 램프와 같은 광원 192-5를 구비한다. 전자기기 100-2는 광학모듈 160-2와 전자기기를 포지션하도록 지시하는 인디케이터를 제공하는 수단의 일 예로서 레이저 또는 LED 램프와 같은 광원192-6을 구비한다.
앞서 설명한 바와 같이 복수개의 전자기기중 기준이 되는 전자기기는 다른 전자기기가 수평을 위해 위치되어야 하는 지점을 레이저 를 이용하여 가이드를 줄 수 있다. 또한 이때 기준이 되는 전자기기는 수평을 위해 위치되어야 하는 지점을 복수개 표시하고 각 지점에 따라 구성될 수 있는 화면 비율에 대한 안내 영상을 광학 모듈을 이용하여 투사할 수 있다.
도 12d의 (a)를 참조하면, 전자기기 100-1과 100-2가 수평으로 위치되지 않아서 기준 전자기기 100-1은 전자기기 100-2와의 수평을 위해 전자기기 100-2가 놓여져야 하는 복수개의 지점을 레이저 또는 LED 램프와 같은 광원 192-5를 통하여 표시할 수 있다. 도 12d의 (a)의 예에서 전자기기 100-1은 레이저 또는 LED 램프와 같은 광원 192-5를 이용하여 레이저를 출사하는데 이때 두개의 지점 즉 P3, P4을 표시할 수 있다. 사용자가 도 12d의 (b)에서와 같이 예를 들어 전자기기 100-2의 위치를 전자기기 100-1이 가이드 하는 지점 P4에 놓으면 전자기기 100-1은 레이저 또는 LED 램프와 같은 광원192-5를 통해 녹색 레이저를 출력함과 함께 이러한 전자기기 100-1과 100-2의 배치에 의해 16:9 화면이 구성될 수 있음을 사용자에게 알려주기 위해 전자기기 100-1은 <16:9> 라는 텍스트를 포함하는 영상을 투사할 수 있다.
사용자가 도 12d의 (c)에서와 같이 예를 들어 전자기기 100-2의 위치를 전자기기 100-1이 가이드 하는 지점 P3에 놓으면, 도 12d의 (d)에서와 같이 전자기기 100-1은 레이저 또는 LED 램프와 같은 광원 192-5를 통해 녹색 레이저를 출력함과 함께 이러한 전자기기 100-1과 100-2의 배치에 의해 4:3 화면이 구성될 수 있음을 사용자에게 알려주기 위해 전자기기 100-1은 <4:3> 라는 텍스트를 포함하는 영상을 투사할 수 있다.
도 12e는 일 실시예에 따라 전자기기를 포지션하도록 지시하는 인디케이터의 일 예로서 안내 영상을 나타내는 도면이다.
도 12e를 참조하면, 전자기기 100-1은 컨텐츠를 투사할 수 있는 광학모듈 160-1을 구비하고 전자기기를 포지션하도록 지시하는 인디케이터를 제공하는 수단의 일 예로서 광학모듈 160-1을 이용하고 전자기기 100-2는 광학모듈 160-2를 이용한다. 광학모듈 160-1과 광학모듈 160-2는 전자기기 100-1 이나 전자기기 100-2를 수평한 위치에 놓을 수 있도록 투사 영상의 안내 메시지를 이용하여 사용자에게 가이드를 줄 수 있다. 예를 들어, 광학모듈 160-1과 광학모듈 160-2는 수평한 위치에 놓이면 전자기기가 수평한 위치에 놓여졌음을 나타내는 안내 메시지를 포함하는 영상을 투사하고, 수평한 위치에 놓이지 않았으면 전자기기가 수평한 위치에 놓이기 위해 포지션하도록 지시하는 안내 메지시를 포함하는 영상을 투사할 수 있다.
도 12e의 (a)를 참조하면, 전자기기 100-1과 100-2가 수평으로 위치되지 않아서 전자기기 100-2의 광학모듈 160-2는 <왼쪽 아래로 이동하세요> 또는 <← ↓ 방향으로 이동하세요>와 같은 안내 메시지를 포함하는 영상 1250을 투사할 수 있다. 또한 도 12e의 (b)를 참조하면, 전자기기 100-1과 100-2가 수평으로 위치되지 않아서 전자기기 100-2의 투사모듈 160-2는 <오른쪽 위로 이동하세요> 또는 <→ ↑ 방향으로 이동하세요>와 같은 안내 메시지를 포함하는 영상 1260을 투사할 수 있다. 사용자가 도 12e의 (c)에서와 같이 예를 들어 전자기기 100-2의 위치를 전자기기 100-1과 수평으로 위치시키면 전자기기 100-2는 광학모듈 160-2를 통하여 <화면 확장 위치에 놓여졌습니다> 와 같은 안내 메시지를 포함하는 영상 1270을 투사할 수 있다.
일 실시예에 따라 전자기기 100는 기기 포지션 판단 모듈 133을 이용하여 전자기기 100가 수평위치에 포지션되지 않은 것으로 판단된 경우 자동으로 전자기기 100에 구비된 힌지 구조를 이용하여 투사면에 포지션시킬 수 있다.
도 13은 일 실시예에 따라 힌지 구조를 이용하여 복수의 전자기기의 수평을 맞추는 예를 설명하는 참고도이다.
도 13의 (a)를 참조하면, 전자기기 100-1는 투사면 1300-1이 지표면에 수평하게 위치되어 있지 않아서 투사면에 포지션되지 않은 것으로 판단한다. 전자기기 100-1은 이와 같이 투사면에 포지션되지 않은 것으로 판단된 경우에, 센서 모듈 140내의 자이로 센서 140B나 가속도 센서 140C를 이용하여 측정한 값을 이용하여, 전자기기 100-1를 수평으로 맞추기 위해 회전되어야 하는 각도의 값을 계산할 수 있다.
도 13의 (b)를 참조하면 전자기기 100은 위와 같이 계산된 회전각의 값 만큼 힌지 구조를 이용하여 전자기기 100-1를 자동으로 회전시킴으로써 전자기기 100-1를 자동으로 투사면에 포지션시킬 수 있다. 전자기기 100-1은 수평으로 맞추어진 투사면1300-1에 영상을 투사할 수 있다.
이와 같이 복수개의 전자기기가 인접해 있고 적어도 하나의 전자기기가 수평위치에 놓여지지 않았을 때 수평위치에 놓여지지 않은 전자기기의 힌지 구조를 이용하여 전자기기를 회전시킴으로써 투사 영상을 확장시킬 수 있도록 복수개의 투사면을 배열할 수 있다.
도 14는 일 실시예에 따라 힌지 구조를 이용하여 복수의 전자기기의 수평을 맞추는 다른 예를 설명하는 참고도이다.
도 14의 (a)를 참조하면, 전자기기 100-1는 투사면 1400-1이 지표면에 수평하게 위치되어 있지 않아서 투사면에 포지션되지 않은 것으로 판단한다. 전자기기 100-1은 이와 같이 투사면에 포지션되지 않은 것으로 판단된 경우에, 센서 모듈 140내의 자이로 센서 140B나 가속도 센서 140C를 이용하여 측정한 값을 이용하여, 전자기기 100-1를 수평으로 맞추기 위해 회전되어야 하는 각도의 값을 계산할 수 있다.
도 14의 (b)를 참조하면 전자기기 100은 위와 같이 계산된 회전각의 값 만큼 힌지 구조를 이용하여 전자기기 100-1를 자동으로 회전시킴으로써 전자기기 100-1를 자동으로 투사면에 포지션시킬 수 있다. 전자기기 100-1은 수평으로 맞추어진 투사면1400-1에 영상을 투사할 수 있다.
그러나 도 14의 (b) 에 도시된 바와 같이 전자기기 100-1의 투사면의 가로가 지표면과 수평이 되도록 회전을 시켜도 전자기기 100-1의 투사면과, 인접한 전자기기 100-2의 투사면이 수평으로 배열되지 않을 수 있다. 이경우에, 전자기기 100-1과 전자기기 100-2는 각각 자신의 투사면 1400-1 및 투사면 1400-2에 각각 영상을 투사할 수 있다.
또한, 전자기기 100-1과 전자기기 100-2가 서로를 인식한 경우에 즉, 전자기기 100-1이 주변에 전자기기 100-2가 존재한다고 인식한 경우에 전자기기 100-1은 전자기기 100-2의 투사면을 이용하여 투사 영상을 확장할 수 있다. 이때 전자기기 100-1의 투사면 1400-1과 전자기기 100-2의 투사면 1400-2는 도 14의 (b)에 도시된 바와 같이 수평이 제대로 맞지 않을 수 있다. 이때 전자기기 100-1과 전자기기 100-2 중 적어도 하나는 투사면 1400-1과 투사면 1400-2를 분석하여, 투사면 1400-1과 투사면 1400-2로부터 투사영상의 확장을 위해 이용될 수 있는 영역 1400을 결정할 수 있다. 그리고 나서 전자기기 100-1과 전자기기 100-2는 결정된 영역 1400을 통해서 영상을 투사하도록 각각의 광학 모듈을 제어할 수 있다.
일 실시예에 따라 전자기기 100는 기기 포지션 판단 모듈을 통해서 기기가 제대로 포지션되지 않았을 경우에는 절전 모드 또는 대기 모드로 진입할 수 있다.
예를 들어, 기기가 제대로 포지션되지 않는 경우는, 사용자가 전자기기 100를 바닥에 놓거나 벽에 설치하지 않고 공중에 들고 있는 경우를 포함할 수 있다.
또한 예를 들어, 기기가 제대로 포지션되지 않는 경우는, 사용자가 전자기기 100를 벽에 설치하여 사용하는 경우에 전자기기 100가 수평으로 위치되지 ?邦? 경우를 포함할 수 있다.
대기 모드 또는 절전 모드라 함은, 광학 모듈의 조명계가 오프되어 투사 영상이 밖으로 나가지 않는 대기 상태를 말한다. 이와 같이 불필요하게 영상이 투사됨으로써 발생하는 배터리 소모를 절약할 수 있다.
일 실시예에 따라 전자기기 100는 투사면 분석 모듈 134를 이용하여 투사면을 분석하고 영상을 보정할 수 있다.
일 실시예에 따라 전자기기 100는 전자기기 100의 방향 정보를 감지하여 왜곡된 영상을 보정할 수 있다. 예를 들어 전자기기 100는 가속도 센서나 자이로 센서를 이용하여 전자기기 100가 회전되어 있는 정도를 측정하여 투영 영상을 보정할 수 있다.
전자기기 100은 광학 모듈의 방향이 정확히 수평으로 되어있지 않고 기울어져 있어서 광학 모듈로부터 투영되는 영상도 수평으로 표시되지 않게 된다. 이때 전자기기 100는 전자기기 100의 회전 정보를 이용하여 투사면을 그대로 둔 채 투영 영상 만을 보정하여 출력할 수 있다.
일 실시예에 따라 전자기기 100는 전자기기 100에 구비된 카메라를 이용하여 전자기기로부터 투사된 영상을 분석해서 영상을 보정할 수도 있다. 또한 일 실시예에 따르면 전자기기와 다른 카메라를 포함하고 있는 전자기기를 이용해서 전자기기가 투사면에 포지셔닝되어 있는 상황을 촬영하고 이 촬영된 영상을 통해서 투사면의 보정 정도를 분석할 수 있다. 일 실시예에 따라 전자기기는 구비된 카메라 모듈을 이용하여 색상 정보 및 투사면의 기하정보도 보정할 수 있다.
도 15는 일 실시예에 따라 투사면 분석중 기하 보정을 나타내는 예이다.
기하보정은 투사면이 기하학적으로 요철이 있을 때 이러한 요철을 감안하여 영상을 보정하는 것을 말한다.
일 실시예에 따라 전자기기 100가 벽면에 부착 또는 거치하는 형태로 설치되어 영상을 투사하는 경우 지표면과 투사면 간의 각도에 대한 하나 이상의 임계값을 설정해두고 각 임계값에 따라 영상 보정을 달리 할 수 있다.
도 16은 도 8a에 도시된 투사면 분석 과정중의 일부 동작을 나타내는 것으로, 투사면의 회전 정도에 따라 영상 보정을 달리하는 방법의 흐름도이다.
도 17은 도 16에 도시된 일 실시예에 따른 동작을 설명하는 참고도이다.
이제 도 16 내지 도 17을 참조하여, 전자기기의 투사면과 지표면이 이루는 각도가 제1임계치 이하이면 보정을 수행하지 않고, 제2임계치를 초과하면 보정을 수행하는 것을 설명한다.
도 16을 참조하면, 동작 1610에서 전자기기 100의 프로세서 110는 투사면 분석 모듈 134을 이용하여 투사면이 지표면과 이루는 각도가 미리 정해진 값보다 작은지를 판단한다.
투사면 분석 모듈 134는 센서모듈에 포함된 자이로 센서 및 가속도 센서중 적어도 하나를 이용하여 투사면이 지표면과 이루는 각도를 측정할 수 있다.
동작 1620에서, 전자기기 100의 프로세서 110는 투사면 분석 모듈 134를 이용하여 투사면이 지표면과 이루는 각도가 미리 정해진 값보다 작으면 투사 영상에 대한 보정을 수행하지 않는다.
미리 정해진 값은 적어도 하나 이상 다양하게 결정될 수 있다. 도 17의 (e)를 참조하면, 미리 정해진 값은 가장 작은 각도 크기 θ1, θ1 보다 큰 θ2, θ2 보다 큰 θ3를 결정할 수 있다. 이러한 각도는 고정된 값일 수도 있고, 사용자에 의해 직접 설정될 수도 있다. 또는 사용자는 이러한 각도 임계값을 변경시킬 수 있다.
도 17의 (a)를 참조하면, 지표면과 투사면간의 각도가 임계값 θ1 보다 작을 경우 도 17의 (b)에 도시된 바와 같이, 투사영상이 보정에 의해 화면이 작아지는 것을 방지하기 위해 투사면 분석 모듈 134는 영상에 대한 보정을 수행하지 않고 투사면에 맞추어 그대로 영상을 투사할 수 있다.
동작 1630에서, 투사면 분석 모듈 134는 투사면이 지표면과 이루는 각도가 미리 정해진 값보다 작지 않으면 투사 영상에 대한 보정을 수행한다.
도 17의 (c)를 참조하면, 지표면과 투사면 간의 각도가 임계값 θ1 보다 크고 임계값 θ2 보다 작은 경우 투사면 분석 모듈 134는 도 17의 (d)에 도시된 바와 같이 영상을 지표면과 수평한 형태로 투사되도록 보정할 수 있다. 이와 같이 영상을 지표면과 수평한 형태로 투사되도록 보정함으로써 투사 영상의 크기는 작아지지만, 영상이 회전되어 출력됨으로써 발생하는 사용자 인식의 어려움을 막을 수 있다.
도 18은 도 8a에 도시된 투사면 분석 과정중의 일부 동작을 나타내는 것으로, 투사면의 회전 정도에 따라 영상 보정을 달리하는 방법의 흐름도이다.
도 19는 도 18에 도시된 일 실시예에 따른 동작을 설명하는 참고도이다.
이제 도 18 및 도 19를 참조하여, 전자기기의 투사면과 지표면이 이루는 각도가 제1임계치 이하이면 보정을 수행하고, 제2임계치를 초과하면 보정을 수행하지 않는 것을 설명한다.
도 18을 참조하면, 동작 1810에서 전자기기 100의 프로세서 110는 투사면 분석 모듈 134을 이용하여 투사면이 지표면과 이루는 각도가 미리 정해진 값보다 작은지를 판단한다.
투사면 분석 모듈 134는 센서모듈에 포함된 자이로 센서 및 가속도 센서중 적어도 하나를 이용하여 투사면이 지표면과 이루는 각도를 측정할 수 있다.
동작 1820에서, 전자기기 100의 프로세서 110는 투사면 분석 모듈 134를 이용하여 투사면이 지표면과 이루는 각도가 미리 정해진 값보다 작으면 투사 영상에 대한 보정을 수행한다.
도 19의 (a)를 참조하면, 지표면과 투사면간의 각도가 임계값 θ1 보다 작을 경우 도 19의 (b)에 도시된 바와 같이, 투사면 분석 모듈 134는 영상에 대한 보정을 수행할 수 있다. 전자기기의 회전 정도가 크지 않은 경우에 영상의 크기를 많이 줄이지 않고도 영상을 수평으로 보정할 수 있기 때문에 영상 크기의 큰 손해없이 영상 인식을 좋게 할 수 있다.
동작 1830에서, 투사면 분석 모듈 134는 투사면이 지표면과 이루는 각도가 미리 정해진 값보다 작지 않으면 투사 영상에 대한 보정을 수행하지 않고 영상을 그대로 투사한다.
도 19의 (c)를 참조하면, 지표면과 투사면 간의 각도가 임계값 θ1 보다 크고 임계값 θ2 보다 작은 경우 투사면 분석 모듈 134는 도 19의 (d)에 도시된 바와 같이 영상을 보정하지 않고 투사면에 맞추어 그대로 투사한다. 전자기기의 회전 정도가 큰 경우 투사면을 그대로 두고 영상만을 보정하는 경우에 영상을 수평으로 맞추어 투사면에 보정하려면 영상의 크기가 상당히 작아질 수 밖에 없어서 영상인식을 좋지 않게 할 수 있다. 따라서 이경우에 영상 보정없이 그대로 영상을 투사할 수 있다.
일 실시예에 따라 벽면에 설치된 전자기기 100의 투사면과 지표면 간의 각도가 θ2 보다 크고 θ3보다는 작을 경우 화면을 랜드스케이프 모드로 변경해서 보여주거나 지표면에 수평하게 투사되도록 보정할 수 있다.
도 20은 일 실시예에 따라 전자기기와 지표면이 이루는 각도가 제2임계치를 초과하는 경우 보정을 수행하거나 보정을 수행하지 않는 것을 설명하는 참고도이다.
도 20의 (a)를 참조하면, 벽면에 설치된 전자기기 100의 투사면과 지표면이 이루는 각도가 제2 임계치를 초과하고 제3 임계치보다는 작은 경우 도 20의 (b)에 도시된 바와 같이 영상을 지표면에 수평하게 투사되도록 보정을 수행하거나 도 20의 (c)에 도시된 바와 같이 랜드스케이프 모드로 변경해서 보정할 수 있다.
도 21은 일 실시예에 따라 전자기기의 투사면이 지표면과 수평인 경우에는 보정을 수행하지 않는 예를 설명하는 참고도이다.
일 실시예에 따라 전자기기 100가 전자기기의 투사면이 지표면과 수평으로 위치되는 경우 즉, 전자기기가 바닥면이나 테이블에 놓여져서 설치되는 경우 즉 Z 축에 대해서 값의 변화가 임계치 이하이고 X축과 Y축의 방향으로만 전자기기의 위치가 변경되는 경우에는 전자기기에 포함되어 있는 지자기 센서에 따라서 화면을 보정하지 않을 수 있다. 즉, 전자기기가 벽에 부착 또는 거치되어 투사하고 있는지, 바닥면에 설치되어 투사하고 있는지를 판단해서 전자기기 100 에 구비된 가속도 센서에 따른 값들에 기반한 보정 방식을 다르게 할 수 있다.
도 21의 (a), (b)를 참조하면, 전자기기 100가 테이블에 위치된 경우에는 전자기기 100를 어느 방향으로 배치시키든지 전자기기 100은 회전 위치와 관련해서는 영상에 대한 보정을 수행하지 않고 전자기기 100는 테이블에 놓여진 상태에 대응하는 투사면에 그대로 영상을 투사할 수 있다.
이와 같이 함으로써, 사용자는 자신이 테이블의 어느 방향에 위치하든지 간에 전자기기 100을 손쉽게 이동시키거나 방향을 바꾸어 위치시킴으로써 자신이 위치한 방향으로 투사면이 향하도록 하여 영상을 투사하게 할 수 있다.
도 22는 일 실시예에 따라 투사면이 투사 영상보다 작은 경우 투사 영상의 사이즈를 보정하는 예를 설명하는 참고도이다.
일 실시예에 따라 전자기기 100이 투사하고자 하는 바닥면의 크기가 전자기기 100가 광학적으로 투사하는 투사면의 크기보다 작으면, 전자기기 100는 영상인식 기술을 이용하여 투사하고자 하는 바닥면의 크기를 분석하고, 분석된 투사면의 크기에 기반해서 소프트웨어 적으로 광학적으로 투사하는 면의 크기보다 작은 영상을 투사할 수 있다.
도 22의 (a)를 참조하면, 전자기기 100는 테이블 2200 상에 위치되어 있다. 전자기기 100가 투사하는 투사면의 크기는 2210으로 테이블 2200의 크기를 벗어나서 전자기기 100이 아무런 영상 보정없이 영상을 투사하는 경우 투사 영상의 바깥 부분 2220은 테이블 상에 투사되는 것이 아니라 허공에 투사되기 때문에 제대로 영상이 표시되지 않는다.
이와 같은 경우 전자기기 100는 투사할 바닥면의 크기 즉, 영상이 투사될 공간의 크기를 분석하여 투사할 바닥면의 크기에 맞게 투사할 영상의 사이즈를 조정할 수 있다. 도 22의 (b)를 참조하면, 전자기기 100는 투사할 영상의 사이즈를 조정하여 테이블의 크기에 맞게 영상 2230을 투사함으로써, 영상이 테이블 면을 벗어나 허공에 투사되는 것을 방지할 수 있다.
일 실시예에 따라 전자기기 100는 주변에 다른 전자기기가 없는 경우 단독으로 컨텐츠를 투사하는 반면, 전자기기 100는 주변에 다른 전자기기를 인식한 경우 주변에 위치한 다른 전자기기와 함께 컨텐츠를 투사할 수 있다.
일 실시예에 따라 복수개의 전자기기를 이용해서 영상을 합칠 경우 두개 이상의 전자기기의 방향 정보와 전자기기간에 떨어져 있는 정보를 종합해서 복수개의 전자기기의 영상을 하나로 합칠 수 있다. 주변에 복수개의 전자기기가 인접해있는지를 판단하는 방법은 앞서 설명한 바와같다.
도 23a는 일 실시예에 따라 투사면의 영상을 영상 인식으로 합치는 방법을 설명하는 참고도이다.
카메라가 구비된 디바이스 예를 들어 스마트폰 4를 이용하여 두개 이상의 투영 영상을 촬영하고 촬영된 영상을 분석하여 투영영상의 겹침 및 떨어져있는 영역을 확인한 이후에 해당 정보를 전자기기 100-1에 전송한다. 전자기기 100-1은 겹치는 영역이나 이격된 영역에 대한 정보를 수신하고 이를 바탕으로 겹치는 영역이나 이격된 영역에 대해서 하나의 자연스러운 화면으로 합치는 처리를 할 수 있다.
도 23a를 참조하면, 전자기기 100-1과 전자기기 100-2가 각각 투사하는 A-1 화면 및 A-2 화면은 모두 동일한 A 라는 컨텐츠로부터 나온 것이고, 하나의 외부기기에서 수신한 A라는 컨텐츠를 각각의 전자기기 100-1과 100-2에서 A-1 화면 2310 및 A-2 화면2320으로 나누어 투사한다. 도 23a를 보면, 전자기기 100-1이 투사한 A-1 화면 2310과 전자기기 100-2가 투사한 A-2 화면 2320의 겹침으로 인해 겹침 영역 2330이 발생함을 알 수 있다. 이와 같은 겹침 영역으로 인해 투사 영상의 이질감이 발생할 수 있으므로, 에지 블렌딩(Edge Blending) 기술로 자연스럽게 연결시키는 것이 가능하다. 외부기기의 하나인 스마트폰 4에서 투사 영상을 촬영한 영상 2340을 스마트폰 4에서 분석한 이후에 얼마만큼 에지 블렌딩 해야 하는지에 대한 정보를 각각의 전자기기 100-1과 100-2에 보내고, 전자기기 100-1과 전자기기 100-2는 A-1 화면과 A-2 화면에서 해당 겹침영역만큼 알파값(Alpha값)을 조절해서 자연스럽게 영상을 연결 시킬 수 있다.
도 23b는 일 실시예에 따라 투사면의 영상을 스타일러스로 합치는 방법을 설명하는 참고도이다.
일 실시예에 따라 카메라가 구비된 디바이스를 이용해서 영상을 획득하고, 영상의 보정을 위해서 투영면의 모서리 부분을 사용자의 추가적인 입력 또는 추가적인 기구물 예를 들어 스타일러스를 이용해서 수동으로 찍어서 보정할 수 있다.
도 23b를 참조하면, 전자기기 100-1과 전자기기 100-2가 투사한 A-1 화면과 A-2 화면을 스마트폰 4를 이용하여 촬영한다.
사용자는 스마트폰 4에서 촬영된 A-1화면과 A-화면을 보고 A-1화면의 네 모서리에 있는 꼭지점 41, 43, 45, 47을 스타일러스로 터치하고 또한 A-2화면의 네 모서리에 있는 꼭지점 42, 44, 46, 48을 스타일러스로 터치함으로써 영상의 겹쳐지는 부분을 확인할 수 있다.
스마트 폰 4는 이와 같은 스타일러스 터치 입력에 따라 겹쳐지는 영역 42, 43, 46,47을 확인하고 이 겹쳐지는 영역에 대한 정보를 각각의 전자기기 100-1과 100-2에 보내고, 전자기기 100-1과 전자기기 100-2는 A-1 화면과 A-2 화면에서 해당 겹침영역만큼 알파값(Alpha값)을 조절해서 자연스럽게 영상을 연결 시킬 수 있다.
도 24는 일 실시예에 따라 전자기기에서 투사 영상을 확장하여 컨텐츠를 투사하는 동작의 일 예를 나타내는 흐름도이다.
도 24를 참조하면, 동작 2410에서 전자기기 100는 전자기기 100의 포지션을 판단한다.
전자기기 100의 프로세서 110는 기기 포지션 판단 모듈 133을 이용하여 전자기기 100의 포지션을 판단하고, 전자기기 100의 포지션이 투사면에 적합하지 않은 경우에는 전자기기 100을 투사면에 포지션하도록 지시하는 인디케이터를 출력할 수 있다. 또한 프로세서 110는 하나 이상의 인접한 다른 전자기기가 인식된 경우에 전자기기 100와 인접한 다른 전자기기가 수평 위치에 포지션하도록 지시하는 인디케이터를 출력할 수도 있다. 전자기기의 포지션 판단 동작은 도 8a 내지 도 12를 참조하여 전술한 바와 같다.
동작 2420에서 전자기기 100는 투사영상의 확장성을 판단한다.
전자기기 100의 프로세서 110는 투사영상 확장성 판단 모듈 135를 이용하여 투사영상을 확장하여 야 하는지를 판단한다. 투사영상 확장성 판단 모듈 135는 투사영상 확장 여부를 판단하기 위해 통신 모듈 120 또는 센서 모듈 140에 포함된 적외선 센서 140E 나 초음파 센서 140D을 이용하여 전자기기 100의 주변에 다른 전자기기가 존재하는지 판단할 수 있다. 투사영상 확장성 판단 모듈 135는 전자기기 100의 주변에 다른 전자기기가 존재하고 영상을 확장해서 투사하는 것으로 결정하면 그에 따라 영상을 복수개의 전자기기가 투사하도록 처리한다. 전자기기의 확장성 판단 동작은 도 25 내지 도 27을 참조하여 자세히 후술한다.
동작 2430에서 전자기기 100는 컨텐츠를 획득한다.
전자기기 100의 프로세서 110는 통신 모듈 120, 인터페이스 170, 또는 메모리 130의 적어도 하나로부터 투사할 컨텐츠를 획득하고, 신호처리 모듈 132를 이용하여 획득한 컨텐츠를 투사 모듈에 보여질 수 있도록 버퍼링 또는 신호 복호화를 수행할 수 있다.
동작 2440에서 전자기기 100는 투사면을 분석한다.
전자기기 100의 프로세서 110는 투사면 분석 모듈 134를 이용하여 전자기기 100의 투사면을 분석하고, 전자기기 100의 방향 정보나 회전 정보를 이용하여 투사 영상의 기하정보나 색상정보를 보정하거나 투사 영상을 회전시킬 수 있다. 전자기기의 투사면 분석 동작은 도 13 내지 도 21을 참조하여 자세히 전술한 바와 같다.
일 실시예에 따라 투사영상 확장성 판단 모듈 135에 의해 투사영상을 확장한다고 판단되면, 투사면 분석 모듈 134는 투사할 컨텐츠중 전자기기 100가 투사할 컨텐츠의 일부 및 주변의 다른 전자기기로 전송할 컨텐츠의 일부를 결정할 수 있다.
동작 2450에서 전자기기 100는 컨텐츠를 투사한다.
전자기기 100의 프로세서 110는 광학 모듈 160을 이용하여 투사할 컨텐츠를 투사면에 투사할 수 있다. 광학 모듈 160은 투사영상을 확장한다고 판단된 경우에 컨텐츠의 일부를 투사할 수 있다.
도 25는 도 24에 도시된 투사 영상의 확장성 판단 과정중의 일부 동작을 나타내는 흐름도이다.
도 25를 참조하면, 동작 2510에서, 전자기기 100는 전자기기 100의 주변에 적어도 하나의 다른 전자기기가 존재하는지 판단한다. 전자기기 100가 전자기기 100의 주변에 적어도 하나의 다른 전자기기가 존재하는지 판단하는 것은 앞서 설명한 바와 같다.
동작 2520에서, 전자기기 100는 전자기기 100의 주변에 적어도 하나의 다른 전자기기가 존재하는지 여부에 따라 투사영상의 확장성을 결정한다.
전자기기 100는 전자기기 100의 주변에 적어도 하나의 다른 전자기기가 존재하지 않는 경우에 전자기기 100는 전자기기 100 단독으로 영상을 투사하는 동작을 수행할 수 있다.
전자기기 100는 전자기기 100의 주변에 적어도 하나의 다른 전자기기가 존재한다고 판단된 경우에는, 전자기기 100 에서의 설정 또는 전자기기 100으로 투사할 컨텐츠를 전송하는 디바이스에서의 애플리케이션 설정과 같은 것을 통해 전자기기 100과 주변 다른 전자기기와 함께 컨텐츠를 투사할 수 있거나 또는 전자기기 100과 주변 다른 전자기기는 별도로 컨텐츠를 각각 투사할 수도 있다.
도 26는 도 24에 도시된 투사 영상의 확장 가능성 판단 과정중의 일부 동작을 나타내는 흐름도이다.
도 26을 참조하면, 동작 2610에서, 전자기기 100는 전자기기의 주변에 적어도 하나의 다른 전자기기가 존재함에 따라 투사영상을 확장하는 것으로 결정한다.
전자기기 100의 프로세서 110은 투사영상 확장성 판단 모듈 135를 이용하여 전자기기의 주변에 적어도 하나의 다른 전자기기가 존재함에 따라 투사 영상을 확장하는 것으로 결정할 수 있다.
동작 2620에서, 전자기기 100는 투사 영상을 적어도 하나 이상의 영상으로 분할한다.
투사영상 확장성 판단 모듈 135는 투사 영상을 복수의 전자기기에서 함께 투사할 수 있도록 하나 이상의 영상으로 분할할 수 있다.
일 실시예에 따라 투사영상 확장성 판단 모듈 135는 예를 들어 두개의 전자기기가 함께 영상을 투사하는 것으로 결정한 경우 예를 들어, 영상을 두개로 분할하여, 영상의 반쪽은 전자기기 100이 투사하는 것으로 결정하고 영상의 나머지 반쪽은 인접한 전자기기가 투사하는 것으로 결정할 수 있다.
동작 2630에서, 전자기기 100는 분할된 적어도 하나 이상의 투사 영상을 적어도 하나의 다른 전자기기로 전송한다.
투사영상 확장성 판단 모듈 135는 분할된 적어도 하나 이상의 투사 영상을 적어도 하나의 다른 전자기기로 전송한다.
일 실시예에 따라 전자기기 100는 투사 영상중 인접한 전자기기가 투사할 일부 영상만을 인접한 전자기기로 전송할 수 있다.
일 실시예에 따라 전자기기 100는 투사 영상 전체를 인접한 전자기기로 전송하고 또한 인접한 전자기기로 투사 영상중 어느 부분을 투사해야 할지에 대한 정보를 알려줄 수도 있다.
일 실시예에 따라 복수개의 전자기기는 데이터를 주고 받기 위해 서로 통신을 할 수 있다. 이러한 통신은 UDP, TCP 등의 다양한 방법을 이용할 수 있다.
도 27a는 복수개의 전자기기간의 통신 방법의 일 예이다.
일 실시예에 따라 스마트 기기로부터 데이터를 전달받은 첫번째 전자기기는 주변의 다른 복수개의 전자기기로 순차적으로 데이터를 전달해줄 수 있다.
도 27a를 참조하면, 전자기기 100-1은 스마트 기기로부터 데이터를 전달받고, 전달받은 데이터를 100-2, 100-3, 100-4 등에 순차적으로 전달해줄 수 있다.
도 27b는 복수개의 전자기기간의 통신 방법의 다른 예이다.
일 실시예에 따라 스마트 기기로부터 데이터를 전달받은 첫번째 전자기기는 인접한 다른 전자기기로 데이터를 전달하고 이 데이터를 수신한 전자기기는 또 주변의 인접한 다른 전자기기로 데이터를 전달해줄 수 있다. 화면의 싱크는 싱크 전자기기들중 적어도 하나 이상의 전자기기가 데이터 수신을 완료한 시점으로 맞출 수 있다.
도 27b를 참조하면, 전자기기 100-1은 스마트 기기로부터 데이터를 전달받고, 전달받은 데이터를 두 번째 전자기기 100-2에 주면, 두 번째 전자기기 100-2도 첫 번째 전자기기 100-1로부터 데이터를 받음과 동시에 세 번째 전자기기 100-3에 데이터를 주게 된다. 이렇게 데이터를 받는 것과 보내는 것을 동시에 실시함으로 복수개의 전자기기에 순차적으로 데이터를 줄 수 있다. 화면의 싱크는 상기 디바이스들 중 적어도 하나 이상의 디바이스가 데이터 수신을 완료한 시점으로 맞출 수 있다.
도 27c는 복수개의 전자기기간의 통신 방법의 또다른 예이다.
일 실시예에 따라 스마트 기기로부터 데이터를 전달받은 첫번째 전자기기는 인접한 복수개의 전자기기중 두개 이상의 전자기기로 동시에 데이터를 전송하고, 데이터를 수신한 다른 전자기기도 역시 수신한 데이터를 인접한 전자기기중 두개 이상의 전자기기로 동시에 전달할 수 있다.
도 27c를 참조하면, 스마트 기기로부터 데이터를 전달 받은 첫 번째 전자기기 100-1은 상기 전자기기와 다른 적어도 두 개 이상의 전자기기에 순차적으로 데이터를 줄 수 있다. 이 때 상기 두 개 이상의 전자기기 중 먼저 데이터를 받은 전자기기는 상기 두 개 이상의 전자기기와 다른 두 개 이상의 전자기기로 데이터를 줄 수 있다. 이러한 일련의 동작을 반복 실시함으로 복수개의 전자기기에 순차적으로 데이터를 줄 수 있다. 화면의 싱크는 상기 전자기기들 중 적어도 하나 이상의 전자기기가 데이터 수신을 완료한 시점으로 맞출 수 있다.
도 28은 일 실시예에 따라 전자기기에서 컨텐츠를 투사하는 방법을 나타내는 흐름도이다.
도 28을 참조하면, 동작 2810에서 전자기기 100는 전자기기 100의 포지션을 판단하고, 동작 2820에서 전자기기 100는 투사영상의 확장성을 판단하고, 동작 2830에서 전자기기 100는 컨텐츠를 획득하고, 동작 2840에서 전자기기 100는 투사면을 분석하고, 동작 2850에서 전자기기 100는 컨텐츠를 투사하는 동작은 도 24를 참조하여 설명한 바와 같다.
다만, 투사영상 확장성 판단은 생략될 수 있다.
다음, 동작 2860에서 전자기기 100는 사용자 입력처리를 수행한다.
전자기기 100의 프로세서 110는 사용자 입력처리 모듈 136을 이용하여 사용자 인터랙션을 감지하고, 감지된 사용자 인터랙션에 대응하는 동작을 수행할 수 있다. 사용자 입력 처리 모듈 136은 입력장치 150, 카메라 모듈 191, 센서 모듈 140에 포함된 센서들중 적어도 하나를 이용하여 사용자 인터랙션을 감지할 수 있다.
일 실시예에 따라 사용자 입력처리 모듈136은 입력 장치 150에 포함된 키 151 를 통하여 수신한 사용자 입력에 대응하는 동작을 수행할 수 있다.
일 실시예에 따라 사용자 입력처리 모듈 136은 마이크 182를 통하여 수신한 사용자 입력에 대응하는 동작을 수행할 수 있다. 예를 들어, 전자기기 100는 마이크 182를 통해 수신된 음성을 이용하여 전자기기 100의 투사 영상을 조정할 수 있다. 전자기기 100에 구비된 마이크 182 등을 이용하여 직접 사용자의 음성을 인식할 수도 있고, 전자기기 100과 연결된 외부 디바이스의 마이크를 통해서 음성인식 명령어를 인식해서, 인식된 명령어에 대응하는 동작을 수행할 수 있다. 인식할 수 있는 명령어로는, Play, Pause, Prev, Next 또는 볼륨 조절 등과 같은 다양한 명령어를 음성으로 전달할 수 있다.
일 실시예에 따라 사용자 입력처리 모듈 136은 센서 모듈 140에 포함된 적외선 센서 140E을 통하여 수신한 사용자 입력에 대응하는 동작을 수행할 수 있다. 일 실시예에 따라 전자기기 100의 적외선 센서 140E은 투사 영상에서의 사용자의 손가락 또는 펜 입력을 감지할 수 있다. 적외선 센서(Infrared Ray sensor:IR 센서) 261는 발광부와 수광부를 포함하고, 발광부에서 나온 적외선이 물체에 반사되어 수광부에 얼마나 많은 양이 들어오느냐에 따라서 수광부에 들어오는 전압의 양이 변화하게 된다.
적외선 센서를 이용한 사용자 입력 수신 방법을 도 29를 참조하여 설명한다.
도 29는 일 실시예에 따라 적외선 센서 및 카메라 모듈을 통해 사용자 입력을 감지하는 예를 설명하는 참고도이다.
도 29를 참조하면, 전자기기 100는 투사면에 영상을 투사하고 전자기기 100의 하단에 적외선 센서 140E을 구비한다. 전자기기 100의 하단에 구비된 적외선 센서 140E은 투사 영상 70에서의 사용자의 손가락 50 또는 펜 60 의 입력을 감지할 수 있다. 또한 전자기기 100는 카메라 모듈 151을 더 이용하여 펜 60 또는 손가락 50이 투사 영상 70의 어느 위치에 접촉되었는지를 판단할 수 있다. 카메라 모듈 151은 근접거리에서 영상을 분석할 수 있는 카메라 렌즈를 장착하고 렌즈 보정 알고리즘을 통해서 영상을 보정하여 영상을 분석할 수 있다. 카메라 렌즈로는 광각렌즈를 장착할 수도 있다.
일 실시예에 따라 사용자 입력처리 모듈 136은 카메라 모듈 151을 통하여 수신한 사용자 입력에 대응하는 동작을 수행할 수 있다.
도 30은 일 실시예에 따라 전자기기 100가 구비하고 있는 카메라를 통해서 사용자의 동작을 감지해서 명령을 처리하는 예를 설명하는 참고도이다.
도 30을 참조하면, 전자기기 100의 카메라 모듈 151은 사용자의 손가락 50을 이용한 제스쳐를 인식하고, 인식된 제스쳐에 따라서 Play, Pause, Prev, Next, 볼륨 조절 또는 PPT 화면 넘김 등과 같은 다양한 명령어에 대응하는 동작을 처리할 수 있다.
도 30에서 사용자의 제스쳐는 손가락을 이용한 제스쳐로 도시되었지만 카메라 모듈 151이 인식할 수 있는 제스쳐는 사용자의 손가락 제스쳐에 한정되지 않으며 사용자의 다양한 신체 부위 또는 인터랙션 수단의 제스쳐도 포함할 수 있음은 당업자에 의해 충분히 이해될 수 있을 것이다.
또한 다른 실시예에 따라 전자기기 100 에 구비된 카메라 모듈 151 대신에 전자기기 100과 연결된 외부 디바이스에 구비된 카메라를 통해 사용자의 제스쳐를 인식하고 인식된 제스쳐에 대응하는 명령어를 전자기기 100로 전송해줌으로써 전자기기 100가 명령어에 대한 동작을 처리할 수도 있다.
도 31은 도 28에 도시된 사용자 입력처리 과정의 일부 동작을 나타내는 흐름도이다.
도 31을 참조하면, 동작 3110에서, 전자기기 100는 투사된 투사 영상 상의 오브젝트 이동을 지시하는 사용자 입력을 감지한다.
전자기기 100의 프로세서 110는 사용자 입력처리 모듈 136을 이용하여 투사 영상에 표시된 오브젝트의 이동을 지시하는 사용자 입력을 감지할 수 있다. 사용자 입력처리 모듈 136은 적외선 센서 140E나 카메라모듈 151를 이용하여 사용자 입력을 감지할 수 있다. 투사 영상에 표시된 오브젝트는 예를 들어, 아이콘, 이미지, 텍스트, 버튼 등이 될 수 있다.
동작 3120에서, 전자기기 100는 감지된 사용자 입력에 응답해서 오브젝트가 이동되는 투사 영상을 출력한다.
사용자 입력처리 모듈 136은 사용자가 투사 영상에 표시된 어떤 오브젝트에 사용자 손가락 50이나 펜 60 등의 사용자 입력수단을 갖다대는 동작을 카메라 모듈 151이나 적외선 센서 140E을 통하여 인식하면 오브젝트의 이동이 시작됨을 감지할 수 있다. 다음 카메라 모듈 151이나 적외선 센서 140E은 사용자가 투사 영상에 표시된 오브젝트를 이동시키는 궤적을 트레이스하고 그에 대응하여 실시간으로 오브젝트가 이동된 영상을 투사 모듈 163이 투사함으로써 마치 사용자로 하여금 손가락 등의 인터랙션 수단으로 오브젝트를 드래그하는 느낌을 경험하게 할 수 있다.
도 32는 도 28에 도시된 사용자 입력처리 과정의 일부 동작을 나타내는 흐름도이다.
도 32를 참조하면, 동작 3210에서, 전자기기 100는 투사된 투사 영상에 표시된 오브젝트를 다른 전자기기에 대응하는 투사 영상으로 이동시키는 사용자 입력을 감지한다.
전자기기 100의 프로세서 110는 사용자 입력처리 모듈 136을 이용하여 투사 영상에 표시된 오브젝트의 이동을 지시하는 사용자 입력을 감지할 수 있다. 앞서 설명한 바와 같이 사용자 입력처리 모듈 136은 적외선 센서 140E 나 카메라 모듈 151을 이용하여 사용자 인터랙션을 감지할 수 있다.
투사영상에 표시된 오브젝트를 다른 전자기기에 대응하는 투사 영상으로 이동시키는 사용자 인터랙션은 다양하게 결정될 수 있다. 예를들어, 단순하게 오브젝트를 다른 투사 영상쪽으로 이동시키는 사용자 입력수단의 동작이 될 수도 있고, 또는 오브젝트 상에서 원 형태를 그리는 사용자 입력수단의 동작이 될 수도 있고, 또는 오브젝트를 사용자 입력수단으로 지칭한 동작 이후의 특정한 제스쳐가 될 수도 있을 것이다.
동작 3220에서, 전자기기 100는 감지된 사용자 입력에 응답해서 오브젝트를 다른 전자기기로 전송한다.
전자기기 100의 프로세서 110는 사용자 입력처리 모듈 136을 이용하여 감지된 사용자 입력에 응답해서 오브젝트를 다른 전자기기로 전송할 수 있다. 사용자 입력처리 모듈 136은 통신 모듈 120을 이용하여 오브젝트에 대한 정보를 다른 전자기기로 전송할 수 있다. 도 31에서 설명된 동작과 도 32에서 설명된 동작은 함께 이루어질 수 있다. 즉, 투사 영상에 표시된 오브젝트를 다른 전자기기에 대응하는 투사 영상으로 이동시키는 사용자 인터랙션을 감지하고 전자기기 100는 이러한 사용자 입력에 응답하여 오브젝트가 이동되는 투사영상을 출력함과 함께 오브젝트를 다른 전자기기로 전송할 수도 있다. 도 31 및 도 32에 도시된 동작을 도 33을 참조하여 구체적으로 설명한다.
도 33는 일 실시예에 따라 하나의 투사 영상에서의 오브젝트를 사용자 입력에 의해 다른 투사 영상으로 이동시키는 동작을 설명하는 참고도이다.
도 33의 (a)를 참조하면, 전자기기 100-1는 스마트 기기 51과 연결되어 스마트 기기 51로부터 전송받은 A 화면을 투사하고, 전자기기 100-2는 스마트 기기 52와 연결되어 스마트 기기 52로부터 전송받은 B 화면을 투사하고 있다.
사용자가 A 화면의 투사 영상에 표시된 오브젝트 90를 사용자 손가락 50이나 펜 등의 인터랙션 수단으로 지시하여 이동시키는 동작을 하면 전자기기 100-1의 카메라 151-1는 이러한 사용자의 인터랙션을 감지하고, 전자기기 100-1의 투사 모듈은 사용자 입력수단의 이동에 따라 오브젝트가 이동되는 영상을 투사할 수 있다.
사용자 입력수단의 지시에 의해 오브젝트가 A 화면에서 B 화면으로 이동하여 출력되는 동안 미리 정해진 시점에, 전자기기 100-1은 오브젝트에 대한 정보를 전자기기 100-2로 네트워크를 통해 전송할 수 있다. 여기서 오브젝트가 전자기기 100-1에서 100-1로 전송되는 미리 정해진 시점은, 예를 들어, 오브젝트가 A화면과 B화면의 경계선에 진입할 때, 또는 진입 중에, 또는 진입 후 B화면으로 넘어가는 시점 또는 사용자가 터치 해제(Touch Release)와 유사하게 오브젝트의 지시를 해제하는 시점이 될 수 있다.
또한 전자기기 100-1로부터 전자기기 100-2로 오브젝트의 전송에 의해, 오브젝트 90가 전자기기 100-1로부터 전자기기 100-2로 이동하거나 오브젝트 90가 전자기기 100-1로부터 전자기기 100-2로 복사가 될 수 있다.
일 실시예에 따라 전자기기 100-1이 오브젝트 정보를 전자기기 100-2로 전송할 때 다양한 통신 기술을 이용할 수 있다. 전자기기 100-1과 전자기기 100-2는 같은 AP존에 있어서 WiFi기술을 이용해서 정보를 데이터를 주고 받을 수 있고 또는 블루투스로 연결되어 정보를 주고 받을 수 있다. 또한 WiFi Direct와 같은 기술을 이용해서 별도의 AP 없이 정보를 전달할 수도 있다. 또한 전자기기 100-1과 전자기기 100-2가 사전에 연결(Connected)(Pairing) 되어 있지 않다면 오브젝트 정보가 넘어가는 시점에 상기 연결(connection)에 대한 것을 A화면을 표시하는 전자기기 또는 B 화면을 표시하는 전자기기에 요청할 수 있다.
도 33의 (b)를 참조하면, 사용자가 지시하고 있는 오브젝트 90가 A화면과 B화면의 경계선을 넘어갈 때 전자기기 100-1은 전자기기 100-1과 네트워크로 연결된, B화면을 보여주고 있는 전자기기 100-2에 상기 오브젝트 90의 정보를 네트워크를 통해 전달해 줄 수 있다. 일 실시 예에 따르면 상기 전달하는 오브젝트의 정보란 상기 오브젝트의 아이콘 이미지 또는 이미지의 출력된 정도의 비율 또는 상기 오브젝트의 출력되는 위치를 전달해 줄 수 있다. 오브젝트 이미지의 출력된 정도의 비율은, 예를 들어 오브젝트가 A화면과 B화면의 경계선에 걸쳐 있는 경우 오브젝트가 A화면상에서 출력되는 비율과 B화면상에서 출력되는 비율을 나타낼 수 있다. 상기 오브젝트의 정보를 수신한 전자기기 100-2는 상기 오브젝트가 A화면과 B화면의 경계선에 걸쳐있는 경우 B화면에 표시되는 오브젝트 90의 나머지 부분을 B화면에 출력할 수 있다.
또한 전자기기 100-2는 오브젝트 90가 B화면으로 이동하여 출력될 때 B 화면상에서 사용자가 오브젝트를 지시하며 이동하는 사용자 인터랙션을 카메라 모듈 151-2로 인식하여 오브젝트 이동에 따른 영상을 투사할 수 있다.
도 34는 일 실시예에 따라 하나의 투사 영상에서의 오브젝트를 사용자 입력에 의해 다른 투사 영상으로 이동시키는 동작시 특정한 제스쳐를 이용하는 것을 설명하는 참고도이다.
사용자가 A 화면의 투사 영상에 표시된 오브젝트 90를 사용자 손가락 50이나 펜 등의 입력 수단으로 조작을 하면 전자기기 100-1의 카메라 151-1는 이러한 사용자의 입력을 감지하고, 전자기기 100-1의 투사 모듈은 사용자 입력수단의 이동에 따라 오브젝트가 이동되는 영상을 투사할 수 있다. 또한 전자기기 100-1은 오브젝트 90에 대한 정보를 전자기기 100-2로 네트워크를 통해 전송할 수 있다.
일 실시예에 따라 오브젝트 90에 대한 사용자 입력수단의 조작은 사용자 입력수단의 제스쳐를 포함할 수 있다.
도 34의 (a)를 참조하면, 사용자가 A 화면의 투사 영상에 표시된 오브젝트 90에 대해서 사용자 손가락 50을 이용하여 왼쪽에서 오른쪽으로 이동하는 제스처를 하면, 전자기기 100-1의 카메라 151-1는 이러한 사용자의 제스쳐를 감지할 수 있다. 전자기기 100-1은 이러한 사용자 제스쳐에 대응하는 동작으로, 오브젝트 90을 B화면으로 이동시키면서 출력하고, 또한 오브젝트가 B화면으로 이동하는 특정 시점에 오브젝트에 대한 정보를 전자기기 100-2로 전송할 수 있다.
도 34의 (b)를 참조하면, 사용자 제스쳐에 대응하는 동작에 따라 오브젝트 90가 전자기기 100-2가 투사하는 영상의 화면상에 출력되는 것이 도시되어 있다.
도 35 및 도 36을 참조하여 복수개의 전자기기가 인접하여 배치된 경우의 사용자 입력에 따라 오브젝트를 이동시키는 실시예들을 설명한다.
도 35는 일 실시예에 따라 복수개의 전자기기가 인접하여 배치된 경우 사용자 제스쳐에 따라 오브젝트를 이동시키는 예를 설명하는 참고도이다.
도 35를 참조하면, 전자기기 100-1는 스마트 기기 61과 연결되어 스마트 기기 61로부터 전송받은 A 화면을 투사하고, 전자기기 100-2는 스마트 기기 62와 연결되어 스마트 기기 62로부터 전송받은 B 화면을 투사하고, 전자기기 100-3는 스마트 기기 63과 연결되어 스마트 기기 63으로부터 전송받은 C 화면을 투사하고, 전자기기 100-4는 스마트 기기 64와 연결되어 스마트 기기 64로부터 전송받은 D 화면을 투사하고 있다. 전자기기 100-1 내지 100-4가 인접하여 서로를 인식한 경우 전자기기 100-1 내지 100-4는 하나의 스마트 기기로부터의 화면을 함께 큰 화면으로 투사할 수도 있고 도 35에 도시된 바와 같이 각각의 전자기기는 각각 연결된 스마트 기기로부터의 화면을 투사할 수도 있다.
일 실시예에 따라 이와 같이 복수개의 전자기기들이 인접하게 배치되어 있을 때 하나의 화면상에 표시된 오브젝트를 서로 다른 방향에 위치한 화면쪽으로 이동시키는 사용자 입력수단의 제스쳐에 대응하여 해당하는 화면의 방향으로 오브젝트의 표시를 이동시키거나 해당하는 화면을 투사하는 전자기기로 오브젝트 정보를 전송할 수 있다.
예를 들어, 전자기기 100-1의 카메라 모듈 151-1은 사용자가 A 화면의 투사 영상에 표시된 오브젝트 90를 사용자 손가락 50이나 펜 등의 입력 수단을 통해 B화면 방향으로 이동시키는 제스쳐 91, C화면 방향으로 이동시키는 제스쳐 92, D 화면 방향으로 이동시키는 제스쳐 93 중 하나를 감지할 수 있다. 그리고 전자기기 100-1은 카메라 모듈 151-1에 의해 감지된 사용자 제스쳐에 따라서, 감지된 사용자 제스쳐에 대응하는 방향의 화면으로 오브젝트의 이동을 표시하거나, 감지된 사용자 제스쳐에 대응하는 방향의 화면을 투사하는 전자기기로 오브젝트의 정보를 전송할 수 있다.
도 36a 내지 도 36d는 일 실시예에 따라 복수개의 전자기기가 인접하여 배치된 경우 사용자 제스쳐 및 메뉴 제공에 따라 오브젝트를 이동시키는 예를 설명하는 참고도이다.
도 36a를 참조하면, 4개의 전자기기 100-1 내지 100-4를 인접하게 배치하여 사용하는 상태에서 사용자가 손가락으로 A 화면에 표시된 오브젝트 90을 지시하면 전자기기 100-1의 카메라 모듈 151-1은 이러한 사용자 입력을 감지한다.
도 36b를 참조하면, 전자기기 100-1은, 감지된 입력에 응답해서, 전자기기 100-1의 주변에 위치한 전자기기 100-2, 100-3, 100-4 중 어느 하나를 선택하는 입력을 받아 들일수 있는 사용자 인터페이스를 표시한다. 전자기기 100-2, 100-3, 100-4 중 어느 하나를 선택하는 입력을 받아 들일수 있는 사용자 인터페이스는 다양하게 결정될 수 있는데, 예를 들어 도 36b에는 B 디바이스라는 텍스트를 포함하는 오브젝트 94, C 디바이스라는 텍스트를 포함하는 오브젝트 95, D 디바이스라는 텍스트를 포함하는 오브젝트 96를 포함하는 사용자 인터페이스가 표시되어 있다. 도 36b에 표시된 사용자 인터페이스에서 텍스트를 이용하거나 원 형태의 오브젝트를 이용한 것은 일 예에 불과하고 다양한 변형예가 가능함은 당업자에 의해 잘 이해될 수 있을 것이다.
이와 같이 사용자 인터페이스가 표시된 상태에서 사용자가 오브젝트 95를 손가락 50으로 지시하면 전자기기 100-1의 카메라 모듈 151-1은 이러한 사용자의 선택을 인식하고, 전자기기 100-1은 이와 같은 사용자 선택에 대응하여 오브젝트 90을 선택된 오브젝트 95에 대응하는 전자기기 100-3으로 이동시키거나 오브젝트 90의 정보를 전자기기 100-3으로 전송할 수 있다.
도 36c는 이와 같은 전자기기 100-1의 동작에 따라 오브젝트 90이 전자기기 100-3으로 이동되어 전자기기 100-3이 오브젝트 90을 출력하는 화면이 도시되어 있다.
일 실시예에 따라 전자기기는 플렉서블 기기의 구부림을 사용자 입력으로 감지할 수 있다.
도 37은 일 실시예에 따라 플렉서블 기기의 구부림을 사용자 입력으로 감지하여 오브젝트를 이동시키는 예를 나타낸다.
도 37을 참조하면, 전자기기 100-1은 플렉서블 기기 1과 연결되어 스마트 기기 1로부터 수신한 A 화면을 투사하고 전자기기 100-2는 스마트 기기 52와 연결되어 스마트 기기 52로부터 수신한 B 화면을 투사한다.
전자기기 100-1는 플렉서블 기기 1의 구부림을 하나의 명령어로 인식해서, 인식된 명령어에 대응하여 A 화면에 표시된 오브젝트 90을 B 화면으로 이동시켜 표시하거나 또는 오브젝트 90의 정보를 전자기기 100-2로 전송할 수 있다.
이때 전자기기 100-1은 플렉서블 기기 1의 구부림을 전자기기 100-1이 카메라 모듈을 이용하여 촬영함으로써 인식할 수도 있거나 또는 플렉서블 기기 1의 구부림에 따른 명령어를 플렉서블 기기 1로부터 수신함으로써 인식할 수도 있을 것이다.
복수개의 전자기기를 이용하여 오브젝트를 이동시키는 동작은 다양한 실시예에 적용될 수 있다.
일 실시예에 따라 하나의 전자기기는 사진 앱을 이용한 화면을 출력하고 다른 전자기기는 파일 브라우저 화면을 출력한 경우, 사진 앱에 포함된 적어도 하나의 사진은 오브젝트를 이동시키는 사용자 인터랙션에 대응하여 파일 브라우저 화면으로 이동될 수 있다.
도 38은 파일 폴더에서의 사용자 인터랙션의 구체 적용 예를 나타낸다.
도 38의 (a)을 참조하면, 전자기기 100-1은 스마트 기기 51로부터 사진 앱 화면을 수신하여 광학 모듈을 이용하여 투사하고, 전자기기 100-2는 스마트 기기 52로부터 파일 브라우저 화면을 수신하여 광학 모듈을 이용하여 투사한다. 사용자가 손가락으로 투사된 사진 앱 화면 71에 표시된 적어도 하나의 사진 73을 선택하여 이동시키는 제스쳐를 인식하면 전자기기 100-1은 선택된 적어도 하나의 사진을, 전작기기 100-2가 투사한 또다른 사진 앱 화면 72 방향으로 이동시켜 출력하거나 또는 선택된 적어도 하나의 사진 73에 대한 정보를 전자기기 100-2로 전송할 수 있다.
위와 같은 사용자 제스처에 따라 도 38의 (b)에는 사용자에 의해 선택된 사진 73이 전자기기 100-2가 투사하는 사진 앱 화면 72로 이동된 것이 도시되어 있다.
이와 같은 적용 예에 따라 복수의 사용자들은 각자의 사진 앱을 이용하여 사진을 큰 화면으로 감상하다가 다른 사용자에게 사진을 보내주고 싶을 때 편리하고 용이하게 사진을 다른 사용자에게 전달해줄 수 있다.
일 실시예에 따라 하나의 전자기기는 하나의 PPT 화면을 출력하고 다른 전자기기는 다른 PPT 화면을 출력하는 경우, 하나의 PPT 화면에 포함된 오브젝트는 오브젝트를 이동시키는 사용자 입력에 대응하여 다른 PPT 화면으로 이동될 수 있다.
도 39는 PPT 화면에서의 사용자 인터랙션의 구체 적용 예를 나타낸다.
도 39의 (a)을 참조하면, 전자기기 100-1은 스마트 기기 51로부터 수신한 제1PPT 화면 73을 광학 모듈을 이용하여 투사하고, 전자기기 100-2는 스마트 기기 52로부터 수신한 제2PPT 화면 74를 광학 모듈을 이용하여 투사한다. 사용자가 손가락으로, 투사된 제1PPT 화면 73에 표시된 적어도 오브젝트 76를 선택하여 이동시키는 제스쳐를 인식하면 전자기기 100-1은 선택된 적어도 하나의 오브젝트 76를 제2PPT 화면 74 방향으로 이동시켜 출력하거나 또는 선택된 적어도 하나의 오브젝트에 대한 정보를 전자기기 100-2로 전송할 수 있다.
위와 같은 사용자 제스처에 따라 도 39의 (b)에는 사용자에 의해 선택된 오브젝트 76가 전자기기 100-2가 투사하는 제2 PPT 화면 74로 이동된 것이 도시되어 있다.
이와 같은 적용 예에 따라 복수의 사용자들은 각자의 PPT 화면을 이용하여 큰 화면으로 확대하여 작업을 진행하다가 다른 사용자에게 오브젝트를 보내주고 싶을 때 편리하고 용이하게 오브젝트를 다른 사용자에게 전달해줄 수 있다.
이외에도 하나의 전자기기는 웹페이지 화면을 투사하고 다른 전자기기는 채팅 프로그램 화면을 투사하고 있는 경우 웹페이지 화면에 표시된 특정 문자나 이미지를 선택하고 이동시키는 사용자 인터랙션에 응답해서 선택된 문자나 이미지는 채팅 프로그램 화면으로 이동될 수 있다.
도 40은 일 실시예에 따라 전자기기 100의 광학 모듈의 일 예를 나타내는 도면이다.
도 40을 참조하면, 하우징 16은 조명광학계 11과 투사계 렌즈부 13를 포함한다. 조명광학계 11에서 투사한 빛은 프리즘 12을 통해서 수직으로 빛의 방향이 꺽일 수 있다. 투사계 렌즈부 13는 렌즈의 조합 14으로 이루어져 있으며 렌즈의 조합 14는 작은 투사 거리에서도 상이 왜곡되지 않도록 렌즈의 조합을 구성할 수 있다. 또한 투사계 렌즈부 13은 미러 15를 구비할 수도 있으며, 미러 15를 통해서 빛을 측면으로 반사시킬 수 있다.
투사계 렌즈부 13의 렌즈의 조합에 초단초점 렌즈를 이용함으로써 짧은 투사 거리에서도 측면의 투사면으로 투사가 가능하게 할 수 있다.
일 실시예에 따라 프리즘을 제외하고 조명광학계와 투사계 렌즈부를 수평으로 위치시켜 광학계를 구성할 수도 있다.
또한 일 실시예에 따라 하우징 16을 연장 및 폴딩 가능하도록 하여 길이를 조정하게 함으로써 휴대할 때에는 전자기기를 폴딩하여 작은 사이즈로 만들고 실제로 투사를 할 때는 하우징을 연장하여 투사거리를 확보할 수 있다.
도 41a 내지 도 41c는 전자기기의 다양한 실시예들에 따른 외관을 나타낸다.
도 41a는 일 실시예에 따른 전자기기 100a의 예이다.
도 41b는 일 실시예에 따른 전자기기 100b의 예이다.
도 41c는 일 실시예에 따른 전자기기 100c의 예이다.
도 42a 내지 도 42e는 일 실시예에 따라 외부기기를 도킹(docking)할 수 있는 구조의 전자기기 100c의 예를 나타낸다.
도 42a는 전자기기 100c의 측면도이다.
도 42a를 참조하면, 전자기기 100c는 외부 기기를 도킹할 수 있는 삽입구 21를 구비하며, 전면에는 카메라 모듈 151을 구비한다.
도 42b는 전자기기 100c의 상면도이다.
도 42b를 참조하면, 전자기기 100c는 외부 기기를 도킹할 수 있는 삽입구 21의 내부에, 외부기기와의 접촉 여부를 판단하고 외부기기와의 데이터 송수신을 할 수 있도록 하는 접촉 모듈 22를 구비한다.
도 42c는 전자기기 100c의 측단면도이다.
도 42c를 참조하면, 사용자는 전자기기 100c의 삽입구 21을 통해 외부기기를 도킹시킬 수 있다.
도 42d는 외부기기를 도킹하는 형태를 설명하기 위한 참고도이다.
도 42d를 참조하면, 사용자는 전자기기 100c의 삽입구 21을 통해 외부기기 51을 밀어넣음으로써 외부기기 51을 전자기기 100c에 도킹시켜 사용할 수 있다.
도 42e는 외부기기가 전자기기 100c에 도킹된 상태를 나타내는 도면이다.
도 42e를 참조하면, 외부기기 51가 전자기기 100c에 도킹된 상태를 나타내며 이와 같이 도킹된 상태에서 전자기기 100c와 외부기기 51는 데이터 송수신이 가능하다.
도 42a 내지 도 42e에 도시된 바와 같이 전자기기 100c에 외부기기를 도킹할 수 있는 삽입구를 마련함으로써 사용자는 별도의 무선 송수신 조작 없이 단지 외부기기를 전자기기 100c에 도킹시키는 동작만으로 데이터 송수신 조작을 용이하게 할 수 있다.
도 43은 일 실시예에 따른 전자기기를 차량의 좌석에 응용하는 예들을 나타낸다.
도 43을 참조하면, 항공기, 기차 또는 고속버스의 좌석의 뒷부분에 전자기기 100를 설치하여 투사 영상 20을 보여줄 수 있다.
특히 항공기의 경우에 항공기의 좌석 뒷부분에 설치된 LCD 모니터를 이용한 디스플레이는 좌석 뒷부분에 설치된 접이식 테이블보다 작은 크기로 설치되어야 하는 한계 때문에 LCD 모니터의 크기에 한정이 있었지만, 일 실시예에 따른 전자기기 100를 설치하여 영상을 투사하는 경우에는 접이식 테이블이 크기를 넘어서 영상을 투사할 수 있기 때문에 사용자는 좀 더 큰 화면을 감상할 수 있다.
또한 투사면 확보를 위해 앞서 설명한 바와 같이 연장가능한 전자기기를 설치함으로써 영상을 투사하는데 필요한 투사면을 확보할 수 있다.
도 44a 내지 도 44d는 일 실시예에 따른 전자기기를 자동차 실내에 응용하는 예들을 나타낸다.
도 44a는 일 실시예에 따른 전자기기를 자동차 앞 유리창에 응용하는 예를 나타낸다.
도 44a를 참조하면, 일 실시예에 따라 전자기기 100를 이용하여 자동차 앞 유리창에 HUD(Head Up Display) 형태로 영상 32를 투사하여 운전 정보를 제공할 수 있다. 기존 HUD의 경우 광 투사 거리 확보를 위해서 자동차 대시보드 구조물 안쪽을 깊게 파서 프로젝터를 삽입해야 했다. 또한 투사되는 영상이 크지 않아서 충분히 많은 운전 정보를 보여주는데는 한계가 있었다. 그러나 본 명세서에 개시된 일 실시예에 따르면 자동차의 대시 보드 상단에 전자기기 100를 손쉽게 설치할 수 있으며 큰 화면을 보여줄 수 있기 때문에 종래의 HUD 보다 더 많은 운전 정보를 제공할 수 있게 된다. 또한 영상 투사를 위해 윈드쉴드 부분에 광을 반사할 수 있는 필름을 부착하여 사용할 수 있다.
도 44b는 일 실시예에 따른 전자기기를 자동차 앞 유리창에 복수개 응용하는 예를 나타낸다.
도 44b를 참조하면, 일 실시예에 따라 전자기기 100-1과 100-2 두개를 이용하여 자동차 앞 유리창에 영상 32 및 영상 33을 투사함으로써 더 많은 운전 정보를 제공할 수 있다. 자동차 앞 유리창에 두개의 영상이 투사되도록 두개의 전자기기 100-1과 100-2를 설치하고 전자기기 100-1로부터는 네비게이션 정보를 투사하고 전자기기 100-2로부터는 자동차의 현재 상태와 관련된 정보를 투사하도록 함으로써 더 많은 운전 정보를 용이하게 제공할 수 있다.
또한 이와 같이 전자기기를 복수개 설치하여 투사면을 확장함으로써, 윈드실드 전체를 하나의 디스플레이로 활용하여 안개길과 같이 차량을 운전하기 힘든 길에서 주변 차들에 대한 정보를 디스플레이상에 표시해서 안전하게 운전하도록 도와줄 수 있다. 또한 차량 정지중에는 확장된 투사면을 이용하여 큰 화면으로 영화를 볼 수도 있다.
도 44c는 일 실시예에 따른 전자기기를 자동차 뒷자리에 응용하는 예를 나타낸다.
도 44c를 참조하면, 일 실시예에 따라 전자기기 100-1을 자동차의 뒷부분에 스크린 부를 구비하고 뒷좌석에 앉은 사람을 위해서 전자기기 100-1의 투사면을 통해 영화나 뉴스와 같은 영상을 보여줄 수 있다.
도 44d는 일 실시예에 따른 전자기기를 자동차의 옆 유리창에 응용하는 예를 나타낸다. 도 44d를 참조하면, 일 실시예에 따라 전자기기 100을 자동차의 옆쪽 윈도우에 설치하고, 차량 바깥의 풍경과 연관해서 컨텐츠를 보여줄 수도 있다. 또한 앞서 설명한 바와 같은 사용자 입력처리에 의해, 투사 영상에 표시된 컨텐츠 440에 대한 사용자 입력에 따라 컨텐츠가 반응하게 할 수도 있다.
일 실시예에 따른 전자기기들을 자동차의 천장에 부착하여 차량 탑승자는 의자를 뒤로 눕힌 채 영화를 감상할 수도 있다.
본 발명의 다양한 실시예에 사용된 용어 모듈은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. 모듈은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. 모듈은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. 모듈은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. 모듈은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 발명의 다양한 실시예에 따른 모듈은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따르면, 본 발명의 다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 하나 이상의 프로세서 (예: 상기 프로세서 110)에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 메모리 130가 될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는, 예를 들면, 상기 프로세서210에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그래밍 모듈 의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 다양한 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
본 발명의 다양한 실시예에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시예에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
다양한 실시예에 따르면, 명령들을 저장하고 있는 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 상기 전자기기가 투사면에 포지션되었는지를 판단하는 동작, 상기 판단에 따라 상기 전자기기가 상기 투사면에 포지션되도록 가이드를 제공하는 동작, 상기 투사 모듈이 상기 컨텐츠를 상기 투사면에 투사하는 동작을 포함한다. 그리고 본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 실시예에 따른 의 기술 내용을 쉽게 설명하고 본 발명의 실시예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 실시예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 다양한 실시예의 범위는 여기에 개시된 실시예들 이외에도 본 발명의 다양한 실시예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 다양한 실시예의 범위에 포함되는 것으로 해석되어야 한다

Claims (35)

  1. 전자기기에 있어서,
    투사면에 컨텐츠를 투사하는 프로젝터,
    하나 이상의 인스트럭션을 저장하는 메모리; 및
    상기 메모리에 저장된 하나 이상의 인스트럭션을 실행하는 프로세서를 포함하고,
    상기 프로세서는 상기 하나 이상의 인스트럭션을 실행함으로써,
    상기 전자기기와 투사된 컨텐츠가 디스플레이되는 상기 투사면 사이의 거리를 결정함으로써 상기 투사면에 상기 전자기기가 접촉하는지를 결정하고,
    상기 전자기기와 상기 투사면 사이의 거리가 0보다 커서 상기 전자기기가 상기 투사면에 접촉하지 않는다고 결정되면, 상기 프로젝터가 상기 컨텐츠를 투사하지 않도록 제어하고,
    상기 전자기기와 상기 투사면 사이의 거리가 0이 되어 상기 전자기기가 상기 투사면에 접촉한 것으로 결정되면, 상기 투사면에 출력될 투사 영상의 위치를 사용자에게 알려주는 인디케이터를 출력하도록 상기 프로젝터를 제어하는, 전자기기.
  2. 제1항에 있어서,
    상기 프로세서는,
    상기 전자기기가 벽에 접촉하는지를 결정하고,
    상기 전자기기가 상기 벽에 접촉하면, 상기 프로젝터로부터 출력될 투사 영상이 지표면에 평행한지를 결정하고,
    상기 투사 영상이 상기 지표면에 평행하지 않다고 결정하면, 상기 투사 영상이 상기 지표면에 평행하도록 상기 전자기기를 포지션하기 위한가이드를 제공하는 인디케이터를 출력하는, 전자기기.
  3. 제2항에 있어서,
    상기 인디케이터는,
    지정된 포지션으로 위치시키도록 지시하는 사운드;
    상기 지정된 포지션으로 위치시키도록 지시하는 메시지를 담고 있는 투사 영상;
    LED 램프의 색상 또는 깜빡임 횟수;
    레이저 의 광 가이드; 및
    상기 전자기기에 마련된 진동 소자의 진동 중 적어도 하나 이상을 포함하는, 전자기기.
  4. 제1항에 있어서,
    상기 프로세서는,
    상기 전자기기에 인접한 다른 전자기기를 인식하고,
    상기 전자기기의 센서 모듈에 구비된 자이로 센서 및 가속도 센서 중 적어도 하나를 이용하여 상기 전자기기가 상기 인접한 다른 전자기기와 같은 높이에 위치하는지 여부를 판단하고,
    상기 전자기기가 상기 인접한 다른 전자기기와 같은 높이에 위치하지 않은 것으로 판단되면, 상기 다른 전자 기기와 같은 높이에 위치하도록 지시하는 인디케이터를 출력하는, 전자 기기.
  5. 제4항에 있어서,
    상기 인디케이터는, 사운드, 광, 진동 및 영상 중 적어도 하나 이상을 포함하는, 전자기기.
  6. 제1항에 있어서, 상기 전자기기는
    상기 전자기기의 회전을 가능하게 하는 힌지 구조를 더 포함하고,
    상기 프로세서는,
    상기 전자기기의 회전 정보에 기초해서 상기 전자기기가 상기 투사면에 포지션되도록 상기 힌지 구조를 제어하는, 전자기기.
  7. 제1항에 있어서,
    상기 프로세서는,
    감지된 상기 전자기기의 방향 정보에 기초하여 영상의 기하 정보 및 색상 정보 중 적어도 하나를 보정하는, 전자기기.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 투사면이 지표면과 이루는 각도가 미리 정해진 값 이상이면 상기 투사 영상을 보정하는, 전자기기.
  9. 제1항에 있어서,
    상기 프로세서는,
    상기 투사면이 지표면과 이루는 각도가 미리 정해진 값보다 작으면 투사 영상에 대한 보정을 수행하는, 전자기기.
  10. 제1항에 있어서,
    상기 프로세서는,
    상기 전자 기기의 투사면이 지표면에 수직인지 수평인지에 따라 투사 영상에 대한 보정 여부를 결정하는, 전자기기
  11. 제1항에 있어서,
    상기 프로세서는,
    상기 투사면의 크기보다 상기 전자기기로부터 영상이 투사될 공간의 크기가 작을 때 투사 영상의 크기를 보정하는, 전자기기.
  12. 제1항에 있어서,
    상기 프로세서는,
    상기 전자기기의 주변에 적어도 하나의 다른 전자기기가 존재하는지 판단하고,
    상기 전자기기의 주변에 상기 적어도 하나의 다른 전자기기가 존재하는지 여부에 따라 상기 투사 영상의 확장가능성을 결정하는, 전자기기.
  13. 제12항에 있어서,
    상기 프로세서는,
    상기 전자기기와 상기 적어도 하나의 다른 전자기기 간의 무선통신의 신호 세기 또는 센서를 통하여 측정된 상기 전자기기와 상기 적어도 하나의 다른 전자기기 간의 상대적인 거리 중 적어도 하나를 이용하여, 상기 적어도 하나의 다른 전자기기의 존재를 판단하는, 전자기기.
  14. 제12항에 있어서,
    상기 프로세서는,
    상기 투사 영상의 확장 가능성을 결정한 경우에, 상기 투사 영상을 적어도 하나 이상의 영상으로 분할하고, 상기 분할된 적어도 하나 이상의 영상을 상기 적어도 하나의 다른 전자기기로 전송하는, 전자기기.
  15. 제1항에 있어서,
    상기 프로세서는,
    상기 투사 영상 상의 오브젝트의 이동을 지시하는 사용자 입력을 감지하고, 상기 사용자 입력에 기반해서 상기 오브젝트가 이동되는 투사 영상을 출력하는, 전자기기.
  16. 제1항에 있어서,
    상기 프로세서는,
    상기 투사 영상 상의 오브젝트를 다른 전자기기에 대응하는 투사 영상으로 이동시키는 사용자 입력을 감지하고,
    상기 사용자 입력에 기반해서 상기 오브젝트를 상기 다른 전자기기로 이동하기 위한 정보를 전송하는, 전자기기.
  17. 전자기기가 접촉하는 투사면에 컨텐츠를 투사하는 프로젝터를 구비한 전자기기의 동작 방법에 있어서,
    상기 전자기기와 상기 투사면 사이의 거리를 결정함으로써 상기 투사면에 상기 전자기기가 접촉하는지를 결정하는 단계;
    상기 전자기기와 상기 투사면 사이의 거리가 0보다 커서 상기 전자기기가 상기 투사면에 접촉하지 않는다고 결정되면, 상기 프로젝터가 상기 컨텐츠를 투사하지 않도록 제어하는 단계; 및
    상기 전자기기와 상기 투사면 사이의 거리가 0이 되어 상기 전자기기가 상기 투사면에 접촉한 것으로 결정되면, 상기 투사면에 출력될 투사 영상의 위치를 사용자에게 알려주는 인디케이터를 출력하도록 상기 프로젝터를 제어하는 단계를 포함하는, 전자기기의 동작 방법.
  18. 제17항에 기재된 전자기기의 동작 방법을 수행하는 프로그램이 기록된 컴퓨터 판독가능 기록 매체.
  19. 삭제
  20. 삭제
  21. 삭제
  22. 삭제
  23. 삭제
  24. 삭제
  25. 삭제
  26. 삭제
  27. 삭제
  28. 삭제
  29. 삭제
  30. 삭제
  31. 삭제
  32. 삭제
  33. 삭제
  34. 삭제
  35. 삭제
KR1020150056896A 2015-04-22 2015-04-22 전자기기 및 방법 KR102393297B1 (ko)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020150056896A KR102393297B1 (ko) 2015-04-22 2015-04-22 전자기기 및 방법
CN201680030964.8A CN107667526B (zh) 2015-04-22 2016-03-25 电子设备及方法
PCT/KR2016/003069 WO2016171403A1 (en) 2015-04-22 2016-03-25 Electronic device and method
EP16164524.7A EP3094089B1 (en) 2015-04-22 2016-04-08 Electronic device, method, and computer-readable recording medium
US15/099,840 US10250857B2 (en) 2015-04-22 2016-04-15 Electronic device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020150056896A KR102393297B1 (ko) 2015-04-22 2015-04-22 전자기기 및 방법

Publications (2)

Publication Number Publication Date
KR20160125853A KR20160125853A (ko) 2016-11-01
KR102393297B1 true KR102393297B1 (ko) 2022-05-02

Family

ID=55755348

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020150056896A KR102393297B1 (ko) 2015-04-22 2015-04-22 전자기기 및 방법

Country Status (5)

Country Link
US (1) US10250857B2 (ko)
EP (1) EP3094089B1 (ko)
KR (1) KR102393297B1 (ko)
CN (1) CN107667526B (ko)
WO (1) WO2016171403A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023219270A1 (ko) * 2022-05-09 2023-11-16 삼성전자주식회사 승강이 가능한 이동형 프로젝터
WO2023219246A1 (ko) * 2022-05-09 2023-11-16 삼성전자주식회사 슬라이딩 가능한 프로젝터를 포함하는 전자 장치 및 그 제어 방법

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019117647A1 (ko) * 2017-12-15 2019-06-20 삼성전자 주식회사 도킹 장치와 상호 작용하는 모바일 장치 및 그 제어 방법
EP3525456A1 (en) * 2018-02-12 2019-08-14 Rabin Esrail Self-adjusting portable modular 360-degree projection and recording computer system
US11677915B2 (en) * 2018-03-27 2023-06-13 Sony Corporation Image display device
CN109150298B (zh) * 2018-08-27 2021-08-06 青岛海信宽带多媒体技术有限公司 光模块通道状态指示方法和装置
CN110673778B (zh) * 2019-09-23 2021-11-16 联想(北京)有限公司 一种输出控制方法、装置、电子设备、终端及服务器
US11869213B2 (en) * 2020-01-17 2024-01-09 Samsung Electronics Co., Ltd. Electronic device for analyzing skin image and method for controlling the same
KR20210123059A (ko) * 2020-04-02 2021-10-13 삼성전자주식회사 영상 투사 장치 및 영상 투사 장치의 제어 방법
JP7354080B2 (ja) * 2020-09-30 2023-10-02 富士フイルム株式会社 制御装置、制御方法、及び制御プログラム
CN112363607B (zh) * 2020-10-27 2023-03-03 青岛海信移动通信技术股份有限公司 投影设备及其控制方法
US11605320B1 (en) * 2021-10-19 2023-03-14 Disney Enterprises, Inc. Relative surface travelling map projection process
CN115086626A (zh) * 2022-05-23 2022-09-20 广州达蒙安防科技有限公司 投影笔、投影方法及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014032402A (ja) * 2012-08-01 2014-02-20 Ricoh Co Ltd プロジェクタの位置決め

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05188477A (ja) 1992-01-10 1993-07-30 Sony Corp 背面投射型プロジェクター
JP3620537B2 (ja) 2003-05-02 2005-02-16 セイコーエプソン株式会社 画像処理システム、プロジェクタ、プログラム、情報記憶媒体および画像処理方法
KR20060098968A (ko) * 2005-03-09 2006-09-19 엘지전자 주식회사 멀티비젼 프로젝션 티비
JP4114683B2 (ja) 2005-08-01 2008-07-09 セイコーエプソン株式会社 投写画像の位置調整方法
US20090251622A1 (en) * 2005-10-07 2009-10-08 Nikon Corporation Electronic Device
JP4696979B2 (ja) 2006-03-09 2011-06-08 ソニー株式会社 画像提示装置および画像提示方法
CN101479659B (zh) * 2006-07-03 2011-02-16 松下电器产业株式会社 投影系统及影像投射方法
US8100541B2 (en) * 2007-03-01 2012-01-24 Taylor Alexander S Displaying and navigating digital media
KR101265950B1 (ko) * 2007-09-18 2013-05-23 삼성전자주식회사 프로젝터 및 상기 프로젝터의 프로젝션 제어 방법
JP2009086048A (ja) 2007-09-27 2009-04-23 Brother Ind Ltd プロジェクタシステム及びその駆動方法
US20090147272A1 (en) * 2007-12-05 2009-06-11 Microvision, Inc. Proximity detection for control of an imaging device
US8267524B2 (en) * 2008-01-18 2012-09-18 Seiko Epson Corporation Projection system and projector with widened projection of light for projection onto a close object
US8508671B2 (en) 2008-09-08 2013-08-13 Apple Inc. Projection systems and methods
US20100079653A1 (en) 2008-09-26 2010-04-01 Apple Inc. Portable computing system with a secondary image output
US8136167B1 (en) 2008-10-20 2012-03-13 Google Inc. Systems and methods for providing image feedback
JP2010243921A (ja) * 2009-04-08 2010-10-28 Sanyo Electric Co Ltd 投写型映像表示装置
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
JP5334218B2 (ja) * 2009-06-30 2013-11-06 Necディスプレイソリューションズ株式会社 プロジェクタ装置およびリモート制御方法
JP2011141411A (ja) * 2010-01-07 2011-07-21 Seiko Epson Corp プロジェクターおよびその制御方法
US9110495B2 (en) * 2010-02-03 2015-08-18 Microsoft Technology Licensing, Llc Combined surface user interface
US8490002B2 (en) 2010-02-11 2013-07-16 Apple Inc. Projected display shared workspaces
JP5601083B2 (ja) * 2010-08-16 2014-10-08 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2014060549A (ja) 2012-09-14 2014-04-03 Ricoh Co Ltd 照度出力装置、輝度出力装置及び画像投影装置
US8992050B1 (en) * 2013-02-05 2015-03-31 Rawles Llc Directional projection display
JP6098386B2 (ja) * 2013-06-18 2017-03-22 船井電機株式会社 プロジェクタ
WO2016047043A1 (ja) * 2014-09-25 2016-03-31 パナソニックIpマネジメント株式会社 投影装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014032402A (ja) * 2012-08-01 2014-02-20 Ricoh Co Ltd プロジェクタの位置決め

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023219270A1 (ko) * 2022-05-09 2023-11-16 삼성전자주식회사 승강이 가능한 이동형 프로젝터
WO2023219246A1 (ko) * 2022-05-09 2023-11-16 삼성전자주식회사 슬라이딩 가능한 프로젝터를 포함하는 전자 장치 및 그 제어 방법

Also Published As

Publication number Publication date
KR20160125853A (ko) 2016-11-01
US20160316184A1 (en) 2016-10-27
EP3094089B1 (en) 2021-09-01
US10250857B2 (en) 2019-04-02
CN107667526A (zh) 2018-02-06
EP3094089A3 (en) 2017-03-15
CN107667526B (zh) 2022-04-26
WO2016171403A1 (en) 2016-10-27
EP3094089A2 (en) 2016-11-16

Similar Documents

Publication Publication Date Title
KR102393297B1 (ko) 전자기기 및 방법
US20150062164A1 (en) Head mounted display, method of controlling head mounted display, computer program, image display system, and information processing apparatus
US10949055B2 (en) Display system, display apparatus, control method for display apparatus
KR102180479B1 (ko) 전자기기 및 전자기기의 동작 방법
KR102431712B1 (ko) 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품
US10768884B2 (en) Communication apparatus, display apparatus, control method thereof, storage medium, and display system for configuring multi-display settings
TWI504931B (zh) 投影系統及其投影方法
KR102187848B1 (ko) 프로젝터를 이용한 영상 표시 방법 및 이를 구현하는 착용형 전자장치
KR102127863B1 (ko) 원통형 스크린장치에서 영상을 조정하는 방법
US10506290B2 (en) Image information projection device and projection device control method
US11698578B2 (en) Information processing apparatus, information processing method, and recording medium
KR20170044399A (ko) 영상 투사 장치, 그의 투사 영역 확장 방법 및 비일시적 컴퓨터 판독가능 기록매체
KR20140100105A (ko) 프로젝터 장치 및 그 제어 방법
KR20220126194A (ko) 전자 장치 및 이의 제어 방법
US20230048968A1 (en) Electronic apparatus and controlling method thereof
KR20170044383A (ko) 영상 투사 장치, 그의 영상 투사 방법 및 비일시적 컴퓨터 판독가능 기록매체
US11991484B2 (en) Electronic apparatus and controlling method thereof
US20240040094A1 (en) Electronic apparatus for projecting image and controlling method thereof
EP4391528A1 (en) Electronic device and control method therefor
US20240073387A1 (en) Electronic apparatus and controlling method thereof
JP7287156B2 (ja) 表示装置、表示方法、プログラム
US20240080422A1 (en) Electronic apparatus and controlling method thereof
KR20240000328A (ko) 전자 장치 및 그 제어 방법
KR20240000327A (ko) 영상을 투사하는 프로젝션부를 포함하며 영상 통화 기능을 제공하는 전자 장치 및 이의 제어 방법
KR20230157217A (ko) 슬라이딩 가능한 프로젝터를 포함하는 전자 장치 및 그 제어 방법

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant