KR101185592B1 - Mobile device including a projector and method for controlling images projected by a projector included in a mobile device - Google Patents

Mobile device including a projector and method for controlling images projected by a projector included in a mobile device Download PDF

Info

Publication number
KR101185592B1
KR101185592B1 KR1020100061987A KR20100061987A KR101185592B1 KR 101185592 B1 KR101185592 B1 KR 101185592B1 KR 1020100061987 A KR1020100061987 A KR 1020100061987A KR 20100061987 A KR20100061987 A KR 20100061987A KR 101185592 B1 KR101185592 B1 KR 101185592B1
Authority
KR
South Korea
Prior art keywords
mobile device
image
projector
unit
motion
Prior art date
Application number
KR1020100061987A
Other languages
Korean (ko)
Other versions
KR20120001276A (en
Inventor
정학영
Original Assignee
(주)마이크로인피니티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)마이크로인피니티 filed Critical (주)마이크로인피니티
Priority to KR1020100061987A priority Critical patent/KR101185592B1/en
Publication of KR20120001276A publication Critical patent/KR20120001276A/en
Application granted granted Critical
Publication of KR101185592B1 publication Critical patent/KR101185592B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0272Details of the structure or mounting of specific components for a projector or beamer module assembly

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Projection Apparatus (AREA)

Abstract

본 발명은 공간 상에서 자유롭게 움직일 수 있는 프로젝터를 구비한 모바일 기기에서 상기 프로젝터가 조사하는 영상을 제어하는 방법 및 장치에 관한 것이다.
본 발명에 따른 프로젝터를 구비한 모바일 기기는, 상기 모바일 기기의 움직임을 감지하는 센서부와, 상기 감지된 움직임에 기초하여 상기 움직임을 상쇄하는 움직임 보상 데이터를 생성하는 회로부와, 상기 움직임 보상 데이터에 기초하여 상기 프로젝터의 투사 방향을 변경할 수 있도록 구성되는 구동부와, 소정의 소스 영상으로부터 투사할 영상을 생성하는 영상 처리부와, 상기 구동부에 의하여 변경된 투사 방향으로 상기 생성된 영상을 빔의 형태로 투사하는 투사부로 이루어진다.
The present invention relates to a method and apparatus for controlling an image irradiated by a projector in a mobile device having a projector that can move freely in a space.
A mobile device having a projector according to the present invention includes a sensor unit for detecting movement of the mobile device, a circuit unit for generating motion compensation data canceling the movement based on the detected movement, and the motion compensation data. A driving unit configured to change the projection direction of the projector based on the image, an image processing unit generating an image to be projected from a predetermined source image, and projecting the generated image in the form of a beam in the projection direction changed by the driving unit. It consists of a projection unit.

Description

프로젝터를 구비한 모바일 기기 및 모바일 기기에 구비된 프로젝터가 투사하는 영상을 제어하는 방법{Mobile device including a projector and method for controlling images projected by a projector included in a mobile device}A mobile device including a projector and method for controlling images projected by a projector included in a mobile device}

본 발명은 프로젝터 기능을 갖는 모바일 기기에 관한 것으로, 보다 상세하게는, 공간 상에서 자유롭게 움직일 수 있는 프로젝터를 구비한 모바일 기기에서 상기 프로젝터가 조사하는 영상을 제어하는 방법 및 장치에 관한 것이다.The present invention relates to a mobile device having a projector function, and more particularly, to a method and apparatus for controlling an image irradiated by the projector in a mobile device having a projector that can move freely in space.

최근 전자산업 및 정보통신기술의 급속한 발달로 거의 모든 산업부분에서 데스크톱 PC(desk top personal computer)나 노트북 PC과 같은 단말기(unit)를 통하여 각종 문자 및 화상정보를 처리하고 있으며, 특히 인터넷에 의한 정보 활용이 높아지면서 종전의 데스크톱 PC나 노트북 PC에 의해서 인터넷과 연결하여 정보처리작업을 하는 추세이다. 그러나 데스크톱 PC나 노트북 PC 등과 같은 기기의 디스플레이장치들은 일정 규격의 모니터가 단말기 본체와 일체로 부착되어 있어서 화면의 시각범위와 판독성이 한정되는 문제점이 있다.Recently, due to the rapid development of the electronic industry and information and communication technology, almost all industrial parts process various text and image information through a unit such as a desktop top personal computer or a notebook PC. As utilization increases, the current desktop PC or notebook PC is connected to the Internet for information processing. However, display devices of devices such as desktop PCs and notebook PCs have a problem in that a monitor of a certain standard is integrally attached to the terminal body, thereby limiting the visual range and readability of the screen.

예를 들어, 데스크톱 PC의 디스플레이장치인 CRT(Cathode ray tube)모니터는, 화면의 크기가 한정되어 있으면서도 부피가 크고 무거우며, 비교적 높은 구동전압을 필요로 하기 때문에 설치조건이 불리하고, 휴대용으로 부적합하며, 화면방향이 주로 사용자의 정면으로 배치되어 있어서 시각범위가 모니터 화면의 전면으로 한정되는 문제점이 있다. 또한, 노트북 PC의 디스플레이장치인 액정표시장치(Liquid crystal display)는, 화면의 크기가 상기 CRT에 비하여 더욱 한정되어 있고, 화면방향도 노트북 본체와 일체로 부착되어 있어서 주로 사용자의 전면으로만 시각범위가 한정되는 단점이 있다. For example, a CRT (Cathode ray tube) monitor, which is a display device of a desktop PC, has a limited screen size and is bulky and heavy, and requires a relatively high driving voltage. In addition, since the screen direction is mainly disposed in front of the user, the viewing range is limited to the front of the monitor screen. In addition, the liquid crystal display (Liquid Crystal Display) is a display device of the notebook PC, the size of the screen is more limited than the CRT, and the screen orientation is also integrally attached to the notebook body, so that the viewing range is mainly limited to the front of the user. There is a disadvantage that is limited.

상기와 같이 데스크톱 PC나 노트북 PC는 상술한 문제점들에 의하여, 회의 상황과 같이 여러 명이 동시에 디스플레이 화면을 볼 필요가 있을 때에 매우 불편하고, 모니터의 양 측면이나 후면 측에서는 전혀 화면을 볼 수 없는 문제점들이 있는 것이다. 상기한 문제점들을 해결할 수 있는 디스플레이장치로서, 데스크톱 PC, 노트북 PC에 외부 커넥터를 연결하고 데이터 메모리의 데이터를 인터페이스하여 스크린 상에 투사하는 프로젝터가 많이 사용되고 있다. 이러한 프로젝터로는 TFT 액정표시장치와 렌즈를 통해 스크린에 투사하는 액정 프로젝터, 매우 많은 수의 미세 거울들 제어하여 구현된 화소를 스크린에 투사하는 DLP 프로젝터, 기존의 CRT를 광원으로 사용하는 CRT 프로젝터 등이 사용되고 있다. 이와 같이, PC 등과 같은 메인 기기와 별도로 구비된 프로젝터를 사용함으로써 여러 사람이 화면의 크기에 구애받지 않고 표시되는 내용을 공유할 수 있게 되었다.As described above, the desktop PC or the notebook PC is very inconvenient when several people need to see the display screen at the same time, such as in a meeting situation. It is. As a display device capable of solving the above problems, a projector which connects an external connector to a desktop PC and a notebook PC and interfaces data in a data memory to project on a screen is widely used. Such projectors include TFT LCDs and liquid crystal projectors that project onto the screen through the lens, DLP projectors that project pixels implemented by controlling a large number of fine mirrors, and CRT projectors that use existing CRTs as light sources. Is being used. As such, by using a projector provided separately from a main device such as a PC, various people can share the displayed content regardless of the size of the screen.

그러나, 근래에는 휴대폰, 휴대용 게임기, PDA 등과 같은 모바일 기기가 급속도로 확산되고 있으며, 기기의 성능뿐만 아니라고 휴대의 편리성도 보다 더 중요시되고 있는 추세에 있다. 따라서, 과거에는 PC만에 의하여 수행되던 작업들(예: 웹 서핑, 전자 메일 송수신, 컴퓨터 게임, 문서 열람 등)이 이러한 모바일 기기에 의하여 수행되도록 하는 요구가 증대되고 있다. 이러한 현상은 필연적으로 모바일 기기의 성능 향상, 기능의 확장 등을 필요로 한다. However, in recent years, mobile devices such as mobile phones, portable game consoles, PDAs, and the like, are rapidly spreading, and portable convenience is becoming more important than the performance of devices. Thus, there is an increasing demand for tasks such as surfing the web, sending and receiving e-mails, computer games, viewing documents, etc., which were performed only by the PC in the past. This phenomenon inevitably requires improvement of the performance of the mobile device and expansion of functions.

최근에는 이 중에서도, 모바일 기기 자체에 프로젝터 기능을 탑재함으로써 공간적이 제약을 전혀 받지 않고서 현장에서 즉시적으로 대형 화면을 구현할 수 있는 기술이 상용화되어 있다. 따라서 미리 별도의 준비 없이도 다수의 사람들이 공통된 화면을 시청할 수 있도록 언제, 어디에서나 대형 화면을 구현할 수 있게 되었다. 그렇지만, 이와 같은 기술은 어디까지나 모바일 기기를 특정 위치(예: 테이블)에 고정한 상태로 프로젝터로 영상을 조사하는 기술일 뿐이고, 공간상에서 임의의 움직임을 갖는 모바일 기기의 사용 중에는 조사된 영상도 같이 움직이게 되므로 이와 같은 프로젝터의 사용이 불가능하다.Recently, among the mobile devices themselves, a projector function has been commercialized so that a large screen can be realized immediately in the field without any space limitation. Therefore, it is possible to implement a large screen anytime, anywhere so that multiple people can watch a common screen without any preparation. However, such a technique is only a technique of irradiating an image with a projector while a mobile device is fixed at a specific position (for example, a table), and the irradiated image is also moved while using a mobile device having arbitrary movement in space. Therefore, the use of such a projector is impossible.

즉, 상기 모바일 기기에 광 발생 모듈(예: 레이저 다이오드)이 구비되어 표시된 영상에 대한 지시점 역할을 하는 경우나, 모션 센서를 구비한 모바일 게임기를 조작하여 게임에서의 사용자 명령을 입력하는 경우나, 표시된 영상에 포인터 객체(예: 마우스 포인터)를 표시하고 이동 및 선택 등의 명령을 수행하게 해 주는 프리젠터(presenter) 기능이 모바일 기기에 포함된 경우 등에는 모바일 기기에 내장된 종래의 프로젝터는 사용될 수가 없다.That is, when the mobile device is provided with a light generating module (for example, a laser diode) to serve as an indication point for the displayed image, or when a user command in a game is input by operating a mobile game machine having a motion sensor; For example, when a mobile device includes a presenter function for displaying a pointer object (eg, a mouse pointer) on a displayed image and performing a command such as moving and selecting, a conventional projector built in the mobile device may be used. I can't.

본 발명은 상기한 필요성을 감안하여 창안된 것으로, 프로젝터를 구비한 모바일 기기에 있어서, 모바일 기기가 공간상에서 자유롭게 움직이더라도 상기 프로젝터가 고정된 영상을 제공할 수 있는 방법 및 장치를 제공하는 것을 목적으로 한다.The present invention has been made in view of the above-described needs, and a mobile device having a projector is provided for providing a method and an apparatus in which the projector can provide a fixed image even if the mobile device moves freely in a space. do.

본 발명의 기술적 과제들은 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Technical problems of the present invention are not limited to the technical problems mentioned above, and other technical problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른 프로젝터를 구비한 모바일 기기에 있어서, 상기 모바일 기기의 움직임을 감지하는 센서부; 상기 감지된 움직임에 기초하여 상기 움직임을 상쇄하는 움직임 보상 데이터를 생성하는 회로부; 상기 움직임 보상 데이터에 기초하여 상기 프로젝터의 투사 방향을 변경할 수 있도록 구성되는 구동부; 소정의 소스 영상으로부터 투사할 영상을 생성하는 영상 처리부; 및 상기 구동부에 의하여 변경된 투사 방향으로 상기 생성된 영상을 빔의 형태로 투사하는 투사부를 포함를 포함한다.According to an aspect of the present invention, there is provided a mobile device including a projector, comprising: a sensor unit detecting a movement of the mobile device; A circuit unit generating motion compensation data canceling the motion based on the sensed motion; A driver configured to change a projection direction of the projector based on the motion compensation data; An image processor which generates an image to project from a predetermined source image; And a projection unit for projecting the generated image in the form of a beam in the projection direction changed by the driving unit.

상기 기술적 과제를 달성하기 위한 본 발명의 일 실시예에 따른 모바일 기기에 구비된 프로젝터가 투사하는 영상을 제어하는 방법에 있어서, 상기 모바일 기기의 움직임을 감지하는 단계; 상기 감지된 움직임에 기초하여 상기 움직임을 상쇄하는 움직임 보상 데이터를 생성하는 단계; 상기 움직임 보상 데이터에 기초하여 상기 프로젝터의 투사 방향을 변경하는 단계; 소정의 소스 영상으로부터 투사할 영상을 생성하는 단계; 및 상기 구동부에 의하여 변경된 투사 방향으로 상기 생성된 영상을 빔의 형태로 투사하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method for controlling an image projected by a projector provided in a mobile device, the method comprising: detecting a movement of the mobile device; Generating motion compensation data that cancels the motion based on the sensed motion; Changing the projection direction of the projector based on the motion compensation data; Generating an image to project from a predetermined source image; And projecting the generated image in the form of a beam in the projection direction changed by the driving unit.

본 발명에 따르면, 모바일 기기를 움직임에 의하여, 광 지시점을 이동시키거나 사용자 명령을 입력하는 경우(포인터 객체 이동, 특정 명령 실행)에도 사용자에게 고정된 프로젝션 영상을 제공할 수 있는 효과가 있다. 따라서, 사용자는 프로젝터를 구비한 모바일 기기를 공간상에서 자유롭게 조작하고 있는 상황에서도 프로젝터 기능을 사용할 수 있게 된다.According to the present invention, there is an effect that a fixed projection image can be provided to a user even when the optical point is moved or a user command is input by moving a mobile device (moving a pointer object or executing a specific command). Therefore, the user can use the projector function even in a situation in which the mobile device including the projector is freely operated in the space.

도 1은 본 발명의 일 실시예에 따른, 프로젝터를 구비한 모바일 기기의 외형을 도시한 도면이다.
도 2 및 도 3은 광 지시부를 구비하는 본 발명의 제1 실시예를 도식적으로 설명하기 위한 도면들이다.
도 4 및 도 5는 광 지시부 없이 프로젝터의 투사부가 직접 포인터 객체를 투사면 상에 표시하는 본 발명의 제2 실시예를 도식적으로 설명하기 위한 도면들이다.
도 6은 본 발명의 제1 실시예에 따른 모바일 기기의 구성을 도시하는 블록도이다.
도 7은 상기 모바일 기기에 포함되는 회로부의 상세 구성을 도시하는 블록도이다.
도 8은 본 발명의 제2 실시예에 따른 모바일 기기의 구성을 도시하는 블록도이다.
1 is a diagram illustrating an appearance of a mobile device having a projector according to an embodiment of the present invention.
2 and 3 are diagrams for schematically illustrating a first embodiment of the present invention having a light indicator.
4 and 5 are diagrams for schematically illustrating a second embodiment of the present invention in which a projection unit of a projector directly displays a pointer object on a projection surface without a light indicating unit.
6 is a block diagram showing a configuration of a mobile device according to the first embodiment of the present invention.
7 is a block diagram showing a detailed configuration of a circuit unit included in the mobile device.
8 is a block diagram showing a configuration of a mobile device according to a second embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention and methods for achieving them will be apparent with reference to the embodiments described below in detail with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but will be implemented in various forms, and only the present embodiments are intended to complete the disclosure of the present invention, and the general knowledge in the art to which the present invention pertains. It is provided to fully convey the scope of the invention to those skilled in the art, and the present invention is defined only by the scope of the claims. Like reference numerals refer to like elements throughout.

도 1은 본 발명의 일 실시예에 따른, 프로젝터를 구비한 모바일 기기(100)의 외형을 도시한 도면이다. 모바일 기기(100)의 외부에는 프로젝터의 투사부(10)와, 투사부(10)가 상하좌우로 가동할 수 있도록 구비된 가동 공간(12)과, 사용자의 명령을 입력받을 수 있도록 상부면 또는 다른 면에 구비되는 적어도 하나의 키 입력부(14)가 구비될 수 있다. 또한, 모바일 기기(100)는 레이저 다이오드 등과 같은 광 발생 모듈에 의하여 상기 모바일 기기가 향하는 방향으로 광 지시점을 투사면(스크린 등) 상에 표시하는 광 지시부(16)를 더 구비할 수도 있다. 또는, 모바일 기기(100)는 별도의 광 지시부(16) 없이, 프로젝터에 의하여 투사되는 영상 위에 포인터 객체가 표시되도록 할 수도 있다. 이 경우에는 프로젝터가 투사하는 영상 자체에 포인터 객체의 이미지가 함께 표시될 것이다. 1 is a diagram illustrating an appearance of a mobile device 100 having a projector according to an embodiment of the present invention. Outside the mobile device 100, the projection unit 10 of the projector, the movable space 12 is provided so that the projection unit 10 can move up, down, left and right, and the top surface or the like to receive a user's command At least one key input unit 14 provided on the other side may be provided. In addition, the mobile device 100 may further include a light indicating unit 16 for displaying a light indicating point on a projection surface (screen, etc.) in a direction that the mobile device faces by a light generating module such as a laser diode. Alternatively, the mobile device 100 may display the pointer object on the image projected by the projector without a separate light indicator 16. In this case, the image of the pointer object will be displayed together with the image projected by the projector.

다음의 도 2 및 도 3은 광 지시부(16)를 구비하는 본 발명의 제1 실시예를 도식적으로 설명하기 위한 도면들이다.2 and 3 are diagrams for schematically illustrating a first embodiment of the present invention having the light indicating section 16. As shown in FIG.

도 2에서, 모바일 기기(100a)의 전면에는 프로젝터의 투사부(10) 뿐만 아니라 광 지시부(16)도 아울러 구비되어 있다. 사용자가 최초에 모바일 기기(100a)를 전방으로 향하게 하고 프로젝터를 구동하면 소정의 투사면(20)(스크린, 벽 등)에 소정 크기(R)를 갖는 영상이 투사된다. 물론, 이러한 영상의 크기(R)는 모바일 기기(100a)와 투사면(20) 간의 거리나, 프로젝터의 렌즈 곡률 등에 의하여 달라질 수 있다. 이 때, 광 지시부(16)는 자체의 광(바람직하게는 직진성을 갖는 레이저 등)을 전방으로 조사하여 투사면(20) 상에 광 지시점(22)을 형성한다.In FIG. 2, not only the projector 10 but also the light indicator 16 is provided on the front of the mobile device 100a. When the user initially faces the mobile device 100a forward and drives the projector, an image having a predetermined size R is projected on a predetermined projection surface 20 (screen, wall, etc.). Of course, the size R of the image may vary depending on the distance between the mobile device 100a and the projection surface 20 or the lens curvature of the projector. At this time, the light indicator 16 irradiates its own light (preferably a laser having a straightness, etc.) forward to form a light indicator 22 on the projection surface 20.

그 후, 도 3에 도시된 바와 같이, 사용자가 모바일 기기(100a)를 반시계 방향으로 소정의 각도(θ)만큼 회전하면, 그 회전 각도(θ)의 크기에 따라 광 지시부(16)가 조사하는 광 지시점은 원래의 위치(22)에서 현재 위치(32)로 이동된다. 반면에, 이와 같이 모바일 기기(100a)가 회전하더라도, 본 발명에 따르면 투사부(10)는 상기 회전 각도(θ)를 상쇄하는 방향(-θ)으로 제어되기 때문에, 모바일 기기(100a)의 회전에도 불구하고 투사면(20)에 투사된 영상의 크기(R)와 위치는 변하지 않게 된다. 따라서, 사용자는 마치 공간상에서 고정된 프로젝터에서 영상이 투사되는 것과 같은 느낌을 가지게 되는 것이다.Thereafter, as shown in FIG. 3, when the user rotates the mobile device 100a by a predetermined angle θ in the counterclockwise direction, the light indicating unit 16 emits light according to the size of the rotation angle θ. The light indication point is moved from the original position 22 to the current position 32. On the other hand, even if the mobile device 100a rotates as described above, since the projection unit 10 is controlled in a direction (-θ) that cancels the rotation angle θ according to the present invention, the mobile device 100a rotates. Nevertheless, the size R and the position of the image projected on the projection surface 20 do not change. Thus, the user may feel as if the image is projected from a fixed projector in space.

한편, 도 4 및 도 5는 광 지시부(16) 없이 프로젝터의 투사부(10)가 투사면(20) 상에 직접 포인터 객체를 표시하는 본 발명의 제2 실시예를 도식적으로 설명하기 위한 도면들이다.4 and 5 are diagrams for schematically illustrating a second embodiment of the present invention in which the projection unit 10 of the projector directly displays a pointer object on the projection surface 20 without the light indicating unit 16. .

도 4에서, 모바일 기기(100b)의 전면에는 프로젝터의 투사부(10) 외에 광 지시부(16)는 구비되어 있지 않다. 사용자가 최초에 모바일 기기(100b)를 전방으로 향하게 하고 프로젝터를 구동하면 소정의 투사면(20)(스크린, 벽 등)에 소정 크기(R)를 갖는 영상이 투사된다. 이 때, 프로젝터의 투사부(10)는 포인터 객체(42)를 상기 투사되는 영상 위치에 직접 표시한다. 포인터 객체(42)란 사용자의 이동 명령에 따라 투사된 영상 위에서 이동되고, 사용자의 선택 명령에 따라 그 위치에 대응되는 항목을 선택(실행)하기 위한 지시자로서, 통상적인 화살표, 십자, 원형 등으로 표시될 수 있다. 예를 들어, 포인터 객체(42)가 특정 컨텐츠 항목 위에 위치할 때 선택 명령이 입력되면 상기 컨텐츠가 실행 내지 재생(play)될 수 있다. 모바일 기기(100b)가 전방을 향하면, 포인터 객체(42)는 투사된 영상 위에서 초기 위치(예: 투사된 영상의 중심)에 위치하게 된다.In FIG. 4, the light indicating unit 16 is not provided on the front of the mobile device 100b in addition to the projection unit 10 of the projector. When the user initially faces the mobile device 100b and drives the projector, an image having a predetermined size R is projected on a predetermined projection surface 20 (screen, wall, etc.). At this time, the projector 10 of the projector directly displays the pointer object 42 at the projected image position. The pointer object 42 moves on a projected image according to a user's moving command, and is an indicator for selecting (executing) an item corresponding to the position according to a user's selection command. Can be displayed. For example, if a selection command is input when the pointer object 42 is positioned on a specific content item, the content may be executed or played. When the mobile device 100b faces forward, the pointer object 42 is positioned at an initial position (eg, the center of the projected image) on the projected image.

그 후, 도 5에 도시된 바와 같이, 사용자가 모바일 기기(100b)를 반시계 방향으로 소정의 각도(θ)만큼 회전하면, 그 회전 각도(θ)의 크기에 따라 투사부(10)가 조사하는 포인터 객체는 원래의 위치(42)에서 현재 위치(52)로 이동된다. 반면에, 이와 같이 모바일 기기(100b)가 회전하더라도, 본 발명에 따르면 투사부(10)는 상기 회전 각도(θ)를 상쇄하는 방향(-θ)으로 제어되기 때문에, 모바일 기기(100b)의 회전에도 불구하고 투사면(20)에 투사된 영상의 크기(R)와 위치는 변하지 않게 된다.Thereafter, as shown in FIG. 5, when the user rotates the mobile device 100b counterclockwise by a predetermined angle θ, the projection unit 10 irradiates according to the size of the rotation angle θ. The pointer object is moved from the original position 42 to the current position 52. On the other hand, even if the mobile device 100b rotates as described above, since the projection unit 10 is controlled in a direction (−θ) that cancels the rotation angle θ according to the present invention, the mobile device 100b rotates. Nevertheless, the size R and the position of the image projected on the projection surface 20 do not change.

이상의 도 2 내지 도 5에 관한 설명에서는 모바일 기기를 수평 방향으로 이동시키는 경우를 예시하였으나, 모바일 기기를 수직 방향으로 이동시키거나 수평 및 수직 방향이 복합된 방향으로 이동시키는 경우에 대해서도 마찬가지의 원리가 적용될 수 있음은 당업자라면 충분히 이해할 수 있을 것이다.2 to 5 illustrate the case in which the mobile device is moved in the horizontal direction, but the same principle also applies to the case in which the mobile device is moved in the vertical direction or in the horizontal and vertical directions. Applicability to those skilled in the art will fully appreciate.

도 6은 본 발명의 제1 실시예에 따른 모바일 기기(100a)의 구성을 도시하는 블록도이다. 모바일 기기(100a)는 센서부(110), 회로부(120), 구동부(130), 영상 처리부(140) 및 투사부(10)를 포함하여 구성될 수 있으며, 모바일 기기(100a)의 일 표면에 구비되어 상기 모바일 기기(100a)가 향하는 방향으로 광 지시점을 표시하는 광 지시부(16)를 더 포함할 수 있다. 본 발명의 일 실시예에 있어서, 광 지시부(16)는 구비되지 않고 단순히 투사부(10)의 보상 제어만이 이루어질 수도 있다. 예를 들어, 사용자가 임의로 모바일 기기(100a)를 들고 있는 상태, 즉 의도적 움직임 또는 비의도적 움직임(손떨림 등)이 가미될 수 밖에 없는 상황에서도 투사면(20) 상에 고정된 영상을 얻고자 하는 경우라면 광 지시부(16)는 반드시 구비될 필요는 없을 것이다.6 is a block diagram showing the configuration of the mobile device 100a according to the first embodiment of the present invention. The mobile device 100a may include a sensor unit 110, a circuit unit 120, a driver 130, an image processor 140, and a projection unit 10, and may be disposed on one surface of the mobile device 100a. The display apparatus may further include a light indicator 16 configured to display a light indicator in a direction that the mobile device 100a faces. In one embodiment of the present invention, the light indicating unit 16 may not be provided, and only the compensation control of the projection unit 10 may be performed. For example, even if the user is holding the mobile device 100a arbitrarily, that is, intentional or unintentional movements (such as shaking) are to be added, the user wants to obtain a fixed image on the projection surface 20. In this case, the light indicator 16 may not necessarily be provided.

센서부(110)는 상기 모바일 기기(100a)의 움직임을 감지한다. 센서부(110)는 모바일 기기(100a)의 움직임을 검출하기 위한 관성 센서로서 가속도계, 자이로스코프, 또는 이 둘의 조합을 포함할 수 있다. 상기 가속도계로는 압전형(piezoelectric type), 동전형(moving coil type)을 불문하고 사용될 수 있으며, 상기 자이로스코프로는 기계식, 유체식, 광학식, 압전식 등 다양한 유형이 사용될 수 있다. 센서부(110)는 모바일 기기(100a)의 움직임(가속도 또는 각속도)에 따른 아날로그 전기 신호(Am)를 회로부(120)에 출력한다. 예를 들어, 센서부(110)는 2개의 관성 센서를 구비하여, x축 방향의 움직임과 y축 방향의 움직임에 대해 전기 신호(Vm)를 얻는다.The sensor unit 110 detects the movement of the mobile device 100a. The sensor unit 110 may include an accelerometer, a gyroscope, or a combination of both as an inertial sensor for detecting the movement of the mobile device 100a. The accelerometer may be used regardless of a piezoelectric type or a moving coil type, and the gyroscope may be various types such as mechanical, fluid, optical, and piezoelectric. The sensor unit 110 and outputs an analog electrical signal (A m) of the movement (acceleration or angular velocity) of the mobile device (100a) to the circuit 120. The For example, the sensor unit 110 includes two inertial sensors to obtain an electrical signal V m for the movement in the x-axis direction and the movement in the y-axis direction.

한편, 센서부(110)는 투사부(10)의 현재 위치(방향)을 검출하기 위하여 홀 센서를 더 구비할 수 있다. 홀 센서는 투사부에 고정된 자석의 자장에 기초하여, 투사부의 변위에 따른 전압 신호(Ap)를 발생시켜 이를 회로부(120)로 출력한다. 광축에 수직인 평면(x-y 평면) 내에서의 투사부(10)의 2차원적인 위치(PX, PY)를 검출하기 위해, 홀 센서는 x방향, y방향 각각에 대응하여 설치되어, x방향, y방향 각각에 대해 신호를 얻는다.The sensor unit 110 may further include a hall sensor to detect the current position (direction) of the projection unit 10. The hall sensor generates a voltage signal A p according to the displacement of the projection unit based on the magnetic field of the magnet fixed to the projection unit, and outputs it to the circuit unit 120. In order to detect the two-dimensional positions P X and P Y of the projection unit 10 in the plane (xy plane) perpendicular to the optical axis, the Hall sensor is provided corresponding to each of the x direction and the y direction, Signals are obtained for each of the direction and y direction.

회로부(120)는 센서부(110)에 의하여 감지된 움직임에 기초하여 상기 움직임을 상쇄하는 움직임 보상 데이터를 생성하고, 이를 구동부(130)를 구동하기 위한 아날로그 신호(구동 신호)로서 제공한다. 회로부(120)에 대한 보다 자세한 구성은 도 7에 도시된다.The circuit unit 120 generates motion compensation data that cancels the motion based on the motion detected by the sensor unit 110 and provides it as an analog signal (driving signal) for driving the driver 130. A more detailed configuration of the circuit unit 120 is shown in FIG.

회로부(120)는 도 7에 도시된 바와 같이, ADC(121), 센서 필터(122), 차분기(123), 서보 회로(124) 및 DAC(125)를 포함하여 구성될 수 있다.As illustrated in FIG. 7, the circuit unit 120 may include an ADC 121, a sensor filter 122, a difference unit 123, a servo circuit 124, and a DAC 125.

ADC(121)에는 홀 센서, 관성 센서의 출력 신호가 각각 입력된다. ADC(121)는 2개의 홀 센서가 각 각 출력하는 전압 신호(Ap)와, 2개의 관성 센서가 각각 출력하는 전압 신호(Am)를 시분할로 고정 소수점 형식의 디지털 데이터로 변환한다. 각 신호의 A/D 변환은 서보 제어 주기마다 주기적으로 행해질 수 있다.The ADC 121 inputs output signals of the Hall sensor and the inertial sensor, respectively. The ADC 121 converts the voltage signals A p outputted by the two Hall sensors and the voltage signals A m outputted by the two inertial sensors, respectively, into digital data in fixed-point format by time division. A / D conversion of each signal may be performed periodically at each servo control cycle.

홀 센서의 출력에 기초하여 생성된 위치 데이터(DP)는 차분기(123)에 입력된다. 한편, 관성 센서의 출력에 기초하여 생성된 각속도 데이터(Dm)는 센서 필터(122)에 입력된다.The position data D P generated based on the output of the hall sensor is input to the difference 123. On the other hand, the angular velocity data D m generated based on the output of the inertial sensor is input to the sensor filter 122.

센서 필터(122)는 모비일 기기(100a)의 움직임에 따라, 서보 제어 주기마다 소정의 샘플링 기간에 걸쳐 입력되는 가속도 또는 각속도(Dm)을 적분 처리하여 x축, y축 각각의 둘레에서의 모비일 기기(100a)의 움직임 데이터(Ds)를 생성한다. 상기 움직임 데이터(Ds)는 x축 및 y축을 기준으로 한 변위 증분(x축 및 y축을 기준으로 한(Δx, Δy)으로 나타낼 수도 있고, x축 및 y축을 기준으로 한 각도 증분(Δθx, Δθy)으로 나타낼 수도 있다. 결국, 센서 필터(122)는, 모바일 기기(100a)의 움직임에 따른 움직임 데이터(DS)를 생성하여 차분기(123)로 출력한다.The sensor filter 122 integrates the acceleration or the angular velocity D m input over a predetermined sampling period for each servo control cycle in accordance with the movement of the mobile device 100a, and thus, the sensor filter 122 is integrated around the x and y axes. The motion data D s of the mobile device 100a is generated. The motion data D s may be represented by displacement increments based on the x and y axes (Δx and Δy based on the x and y axes, and angle increments Δθ x based on the x and y axes). , Δθ y ) Finally, the sensor filter 122 generates the motion data DS corresponding to the movement of the mobile device 100a and outputs the motion data D S to the difference unit 123.

차분기(123)는 ADC(121)로부터 입력되는 위치 데이터(DP)에서, 센서 필터(122)로부터의 움직임 데이터(DS)를 x, y 각 방향별로 차분한다. 서보 회로(124)는, 차분기(123)의 출력 데이터로부터 x축 방향, y축 방향 각각에 관한 투사부(10)의 변위량(움직임의 크기)에 상당하는 서보 데이터(DSV)를 산출한다.The difference unit 123 differentiates the motion data D S from the sensor filter 122 by the x and y directions from the position data D P input from the ADC 121. The servo circuit 124 calculates servo data D SV corresponding to the displacement amount (movement size) of the projection unit 10 in the x-axis direction and the y-axis direction, respectively, from the output data of the difference unit 123. .

DAC(125)는 서보 회로(124)로부터 출력되는 서보 데이터(DSV)를 아날로그 전압 신호(ASV)로 변환한다. DAC(125)가 출력하는 전압 신호는 소정의 증폭 처리가 가해져서 구동부(130)에 인가될 수 있다. The DAC 125 converts the servo data D SV output from the servo circuit 124 into an analog voltage signal A SV . The voltage signal output from the DAC 125 may be applied to the driver 130 by applying a predetermined amplification process.

구동부(130)는 회로부(120)에 의하여 생성된 움직임 보상 데이터(보다 구체적인 예로는, 서보 데이터(DSV)의 아날로그 전압 신호(ASV))에 기초하여 상기 프로젝터의 투사 방향을 변경할 수 있도록 투사부(10)를 이동시킬 수 있다. 구동부(130)는 움직임 보상 기구를 구성하는데, 구동부(130)의 구동원은, 예를 들어, 보이스 코일 모터(Voice Coil Motor: VCM)로 구성될 수 있다. 상기 VCM은 회로부(120)가 생성하는 구동 신호의 전압에 따라, 당해 VCM을 구성하는 가동 코일의 위치를 직선 변위시켜 투사부(10)의 위치를 제어할 수 있다. x-y 평면 내에서의 2차원 변위를 실현하기 위해서는 상기 VCM은 한 개의 쌍이 설치되어, x방향, y방향 각각의 변위를 가능하게 한다.The driver 130 projects the projector to change the projection direction of the projector based on the motion compensation data generated by the circuit unit 120 (more specifically, the analog voltage signal A SV of the servo data D SV ). The unit 10 may be moved. The driver 130 constitutes a motion compensation mechanism, and the driving source of the driver 130 may be, for example, a voice coil motor (VCM). The VCM may control the position of the projection unit 10 by linearly displacing the position of the movable coil constituting the VCM according to the voltage of the driving signal generated by the circuit unit 120. In order to realize two-dimensional displacement in the xy plane, the pair of VCMs is provided to enable displacement in each of the x and y directions.

영상 처리부(140)는 소정의 소스 영상으로부터 투사할 영상을 생성한다. 상기 소스 영상은 모바일 기기(100a)에 내장되어 있는 것뿐만 아니라 외부로부터 통신에 의하여 제공된 것일 수 있다. 영상 처리부(140)는 상기 소스 영상으로부터 투사부(10)에서 직접 출력될 수 있는 영상 신호, 예를 들어, RGB 신호를 생성한다.The image processor 140 generates an image to project from a predetermined source image. The source image may be provided not only in the mobile device 100a but also by communication from the outside. The image processor 140 generates an image signal, for example, an RGB signal, which can be directly output from the projector 10 from the source image.

투사부(10)는 구동부(130)의 구동에 따라 변경된 투사 방향으로 상기 생성된 영상 신호를 빔의 형태로 투사한다. 투사부(10)는 예를 들어, 투사할 빔을 발생하는 백라이트 및 액정 패널과, 상기 발생된 빔을 투과하는 렌즈를 포함하여 구성될 수 있다.The projection unit 10 projects the generated image signal in the form of a beam in a changed projection direction according to the driving of the driving unit 130. The projection unit 10 may include, for example, a backlight and a liquid crystal panel that generate a beam to be projected, and a lens that transmits the generated beam.

이상의 도 6 및 도 7의 실시예에서는, 센서부(110)의 움직임 감지, 위치 감지 및 투사부(10)의 구동을 각각, 관성 센서, 홀 센서 및 VCM에 의해 행하는 것으로 설명하였으나, 본원은 그것에 한정되는 것은 아니다. 예를 들어, 투사부(10)를 구동하는 소자로는, 스텝핑 모터나 피에조 소자가 사용될 수 있다. 예를 들어, 스텝핑 모터 등의 구동 제어를 위하여는 PWM 신호를 사용할 수 있다. 스텝핑 모터를 사용하는 경우, 홀 센서에 기초한 위치 데이터(DP)를 사용하지 않고, 움직임 데이터(DS)의 반전 값(반대 방향의 움직임)을 직접 움직임 보상 데이터로 직접 사용하여 서보 데이터(DSV)를 산출할 수도 있다. 다만, 홀 센서를 사용하지 않고 변위 값만에 의해 연속적으로 움직임을 보상하는 경우 누적 에러가 발생할 수가 있으므로, 홀 센서를 사용하여 현재의 위치에서 변화된 값만을 보상하는 방식이 보다 바람직하다.6 and 7 described above, the motion detection, the position detection, and the driving of the projection unit 10 of the sensor unit 110 have been described as being performed by the inertial sensor, the hall sensor, and the VCM, respectively, but the present application is described therein. It is not limited. For example, a stepping motor or a piezo element may be used as the element for driving the projection unit 10. For example, a PWM signal may be used for driving control of a stepping motor. In the case of using a stepping motor, the servo data (D) can be directly used as the motion compensation data by directly using the inversion value (movement in the opposite direction) of the motion data D S without using the position data D P based on the hall sensor. SV ) can also be calculated. However, since a cumulative error may occur when the movement is continuously compensated by only the displacement value without using the hall sensor, a method of compensating only the value changed at the current position using the hall sensor is more preferable.

또한, 본 발명의 실시 형태에서는, 투사부(10)자체를 시프트시키는 것으로 하여 설명하였지만, 본 발명은 이것에 한정되는 것은 아니다. 예를 들어, 본 발명은 투사부(10) 자체가 아니라 렌즈 만을 시프트시키는 방식에도 적용할 수 있다.In addition, in embodiment of this invention, it demonstrated as shifting the projection part 10 itself, However, this invention is not limited to this. For example, the present invention can be applied to a method of shifting only the lens, not the projection unit 10 itself.

도 8은 본 발명의 제2 실시예에 따른 모바일 기기(100b)의 구성을 도시하는 블록도이다. 모바일 기기(100b)는 제1 실시예와 마찬가지로 센서부(110), 회로부(120), 구동부(130), 영상 처리부(140), 투사부(10)를 포함하며, 이외에 명령 처리부(150)를 더 포함한다. 이하에서는 제1 실시예에서와 중복된 설명은 생략하고 차이나는 부분을 위주로 설명하기로 한다.8 is a block diagram showing the configuration of the mobile device 100b according to the second embodiment of the present invention. The mobile device 100b includes the sensor unit 110, the circuit unit 120, the driving unit 130, the image processing unit 140, and the projection unit 10, like the first embodiment, and the command processing unit 150. It includes more. Hereinafter, descriptions overlapping with those of the first embodiment will be omitted and description will be given based on differences.

명령 처리부(150)는 센서부(110)에 의하여 감지된 모바일 기기의 움직임에 기초하여 포인터 객체의 현재 위치를 계산한다. 보다 구체적으로는, 센서부(110)에 의하여 감지된 움직임에 따른 전기 신호(Am)는 회로부(120)에 제공되고, 회로부(120)의 센서 필터(도 7의 122)에 의하여 얻어진 움직임 데이터(Ds)가 명령 처리부(150)에 제공된다. 명령 처리부(150)는 상기 움직임 데이터(Ds)를 기초로 포인터 객체의 현재 위치를 계산한다. 구체적으로, 명령 처리부(150)는 움직임 데이터(Ds)에 포함되는 x축, y축 각각에 대한 증분 데이터(변위 또는 각도)에 대응되는 포인터 객체의 이동량을 계산하고, 포인터 객체의 이전의 위치에 상기 이동량을 가산하여 포인터 객체의 현재 위치를 계산한다. 또한, 명령 처리부(150)는 키 입력부(14)를 통한 사용자의 키 입력에 따라 상기 포인터 객체의 현재 위치에 있는 항목에 대응되는 명령을 실행할 수도 있다.The command processor 150 calculates a current position of the pointer object based on the movement of the mobile device detected by the sensor 110. More specifically, the electrical signal (A m) in accordance with the detected movement by the sensor unit 110 is provided to circuit portion 120, the movement data obtained by the sensor filter (122 in FIG. 7) of the circuit 120, (D s ) is provided to the instruction processing unit 150. The command processor 150 calculates a current position of the pointer object based on the motion data D s . Specifically, the command processor 150 calculates a movement amount of the pointer object corresponding to incremental data (displacement or angle) with respect to each of the x and y axes included in the motion data D s , and the previous position of the pointer object. The current position of the pointer object is calculated by adding the movement amount to. In addition, the command processor 150 may execute a command corresponding to the item at the current position of the pointer object according to a user's key input through the key input unit 14.

영상 처리부(140)는 명령 처리부(150)에서 처리된 결과 및 상기 포인터 객체의 현재 위치를 전달받아 투사부(10)에 의하여 투사할 영상을 생성한다. 상기 투사되는 영상에는 도 5에 도시된 바와 같이, 상기 현재 위치에서 표시된 포인터 객체도 포함된다.The image processor 140 receives the result processed by the command processor 150 and the current position of the pointer object to generate an image to be projected by the projection unit 10. The projected image also includes a pointer object displayed at the current location, as shown in FIG. 5.

지금까지 도 6 내지 도 8의 각 구성요소는 소프트웨어(software) 또는, FPGA(field-programmable gate array)나 ASIC(application-specific integrated circuit)과 같은 하드웨어(hardware)를 의미할 수 있다. 그렇지만 상기 구성요소들은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 어드레싱(addressing)할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 실행시키도록 구성될 수도 있다. 상기 구성요소들 안에서 제공되는 기능은 더 세분화된 구성요소에 의하여 구현될 수 있으며, 복수의 구성요소들을 합하여 특정한 기능을 수행하는 하나의 구성요소로 구현할 수도 있다.6 to 8 may refer to software or hardware such as a field-programmable gate array (FPGA) or an application-specific integrated circuit (ASIC). However, the components are not limited to software or hardware, and may be configured to be in an addressable storage medium and configured to execute one or more processors. The functions provided in the above components may be implemented by more detailed components, or may be implemented as one component that performs a specific function by combining a plurality of components.

이상 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야 한다.While the present invention has been described in connection with what is presently considered to be practical exemplary embodiments, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, You will understand. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive.

10: 투사부 12: 가동 공간
14: 키 입력부 16: 광 지시부
100, 100a, 100b: 모바일 기기 110: 센서부
120: 회로부 121: ADC
122: 센서 필터 123: 차분기
124: 서보 회로 125: DAC
130: 구동부 140: 영상 처리부
150: 명령 처리부
10: projection unit 12: movable space
14: key input 16: light indicator
100, 100a, and 100b: mobile device 110: sensor unit
120: circuit portion 121: ADC
122: sensor filter 123: difference
124: servo circuit 125: DAC
130: driver 140: image processor
150: command processing unit

Claims (9)

프로젝터를 구비한 모바일 기기에 있어서,
상기 모바일 기기의 움직임을 감지하는 센서부;
상기 감지된 움직임에 기초하여 상기 움직임을 상쇄하는 움직임 보상 데이터를 생성하는 회로부;
상기 움직임 보상 데이터에 기초하여 상기 프로젝터의 투사 방향을 변경할 수 있도록 구성되는 구동부;
소정의 소스 영상으로부터 투사할 영상을 생성하는 영상 처리부;
상기 구동부에 의하여 변경된 투사 방향으로 상기 생성된 영상을 빔의 형태로 투사하는 투사부; 및
상기 감지된 모바일 기기의 움직임에 기초하여 포인터 객체의 현재 위치를 계산하는 명령 처리부를 포함하는 모바일 기기.
In a mobile device having a projector,
A sensor unit detecting a movement of the mobile device;
A circuit unit generating motion compensation data canceling the motion based on the sensed motion;
A driver configured to change a projection direction of the projector based on the motion compensation data;
An image processor which generates an image to project from a predetermined source image;
A projection unit for projecting the generated image in the form of a beam in the projection direction changed by the driving unit; And
And a command processor configured to calculate a current position of a pointer object based on the detected movement of the mobile device.
제1항에 있어서, 상기 움직임 보상 데이터는
상기 감지된 움직임의 반대 방향의 움직임을 나타내는 데이터인 모바일 기기.
The method of claim 1, wherein the motion compensation data is
The mobile device is data representing movement in a direction opposite to the sensed movement.
제1항에 있어서, 상기 센서부는
가속도계 및 자이로스코프 중 적어도 하나를 포함하는 모바일 기기.
The method of claim 1, wherein the sensor unit
A mobile device comprising at least one of an accelerometer and a gyroscope.
제3항에 있어서,
상기 센서부는 상기 투사부의 투사 방향을 감지하는 홀 센서를 더 포함하고,
상기 움직임 보상 데이터는 상기 홀 센서에 의하여 감지된 상기 현재 위치와, 상기 감지된 움직임의 반대 방향의 움직임을 가산한 값인 모바일 기기.
The method of claim 3,
The sensor unit further includes a Hall sensor for sensing the projection direction of the projection unit,
The motion compensation data is a value obtained by adding the current position detected by the hall sensor and a motion in a direction opposite to the detected motion.
제1항에 있어서,
상기 모바일 기기의 일 표면에 구비되어 상기 표면이 향하는 방향으로 광 지시점을 표시하는 광 지시부를 더 포함하는 모바일 기기.
The method of claim 1,
And a light indicator provided on one surface of the mobile device to display a light indicator in a direction that the surface faces.
삭제delete 제1항에 있어서, 상기 투사되는 영상은
상기 현재 위치에서 표시된 포인터 객체를 포함하는 모바일 기기.
The image of claim 1, wherein the projected image is
A mobile device comprising a pointer object displayed at the current location.
제7항에 있어서, 상기 명령 처리부는
사용자의 키 입력에 따라, 상기 포인터 객체의 현재 위치에 있는 항목에 대응되는 명령을 실행하는 모바일 기기.
The method of claim 7, wherein the command processing unit
And executing a command corresponding to an item at a current position of the pointer object according to a key input of a user.
모바일 기기에 구비된 프로젝터가 투사하는 영상을 제어하는 방법에 있어서,
상기 모바일 기기의 움직임을 감지하는 단계;
상기 감지된 움직임에 기초하여 상기 움직임을 상쇄하는 움직임 보상 데이터를 생성하는 단계;
상기 움직임 보상 데이터에 기초하여 상기 프로젝터의 투사 방향을 변경하는 단계;
소정의 소스 영상으로부터 투사할 영상을 생성하는 단계;
상기 변경된 투사 방향으로 상기 생성된 영상을 빔의 형태로 투사하는 단계; 및
상기 감지된 모바일 기기의 움직임에 기초하여 포인터 객체의 현재 위치를 계산하는 단계를 포함하는 방법.
In the method for controlling the image projected by the projector provided in the mobile device,
Detecting movement of the mobile device;
Generating motion compensation data that cancels the motion based on the sensed motion;
Changing the projection direction of the projector based on the motion compensation data;
Generating an image to project from a predetermined source image;
Projecting the generated image in the form of a beam in the changed projection direction; And
Calculating a current position of a pointer object based on the detected movement of the mobile device.
KR1020100061987A 2010-06-29 2010-06-29 Mobile device including a projector and method for controlling images projected by a projector included in a mobile device KR101185592B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100061987A KR101185592B1 (en) 2010-06-29 2010-06-29 Mobile device including a projector and method for controlling images projected by a projector included in a mobile device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100061987A KR101185592B1 (en) 2010-06-29 2010-06-29 Mobile device including a projector and method for controlling images projected by a projector included in a mobile device

Publications (2)

Publication Number Publication Date
KR20120001276A KR20120001276A (en) 2012-01-04
KR101185592B1 true KR101185592B1 (en) 2012-09-24

Family

ID=45609000

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100061987A KR101185592B1 (en) 2010-06-29 2010-06-29 Mobile device including a projector and method for controlling images projected by a projector included in a mobile device

Country Status (1)

Country Link
KR (1) KR101185592B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9874636B2 (en) 2012-06-08 2018-01-23 Intel Corporation Device, system and method of orientation estimation of a mobile device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009081616A (en) * 2007-09-26 2009-04-16 Funai Electric Co Ltd Projection type video display device and mobile electronic device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009081616A (en) * 2007-09-26 2009-04-16 Funai Electric Co Ltd Projection type video display device and mobile electronic device

Also Published As

Publication number Publication date
KR20120001276A (en) 2012-01-04

Similar Documents

Publication Publication Date Title
US10318017B2 (en) Viewing images with tilt control on a hand-held device
US10095316B2 (en) Scrolling and zooming of a portable device display with device motion
KR101366813B1 (en) Method for controlling information input apparatus, information input apparatus, program, and information storage medium
FI125441B (en) Apparatus and method for forming an image
KR20170033462A (en) Electronic device and method for displaying image of a head mounted display device
JP2011043986A (en) Optical information input device, electronic equipment with optical input function, and optical information input method
KR20040007571A (en) Method and device for browsing information on a display
CN102915220B (en) A kind of handheld projection device and projecting method thereof
WO2018196695A1 (en) Shooting method and mobile terminal
KR20000071308A (en) Method and apparatus for image stabilization in display device
US9213425B1 (en) Method and apparatus for interacting with electronic display board
US10564420B2 (en) Midair interaction with electronic pen projection computing system
CN107754310B (en) Handheld device and positioning method thereof
JP2015535378A (en) Motion compensation in interactive display systems.
EP2887184A1 (en) Air pointer with improved user experience
JP2006145616A (en) Image display device, electronic equipment, and image display method
KR101185592B1 (en) Mobile device including a projector and method for controlling images projected by a projector included in a mobile device
JP2009238004A (en) Pointing device
US20170310939A1 (en) Keyboard device with projecting function and anti-shaking method for projection
US20130002549A1 (en) Remote-control device and control system and method for controlling operation of screen
JP5007732B2 (en) POSITION DETECTION METHOD, OPTICAL POSITION DETECTION DEVICE, DISPLAY DEVICE WITH POSITION DETECTION FUNCTION, AND ELECTRONIC DEVICE
CN118318219A (en) Augmented reality display with eye image stabilization
KR20090031205A (en) Cursor positioning method by a handheld camera
Bharath et al. Tracking method for human computer interaction using Wii remote
CN100351760C (en) Hand-held device

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150615

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160630

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170629

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20180625

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190625

Year of fee payment: 8