KR100755187B1 - Digital apparatus capable of displaying imaginary object on real image and method thereof - Google Patents

Digital apparatus capable of displaying imaginary object on real image and method thereof Download PDF

Info

Publication number
KR100755187B1
KR100755187B1 KR1020060017600A KR20060017600A KR100755187B1 KR 100755187 B1 KR100755187 B1 KR 100755187B1 KR 1020060017600 A KR1020060017600 A KR 1020060017600A KR 20060017600 A KR20060017600 A KR 20060017600A KR 100755187 B1 KR100755187 B1 KR 100755187B1
Authority
KR
South Korea
Prior art keywords
image data
camera
information
virtual
unit
Prior art date
Application number
KR1020060017600A
Other languages
Korean (ko)
Other versions
KR20070087317A (en
Inventor
조중현
Original Assignee
주식회사 엔씨소프트
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=38613359&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=KR100755187(B1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by 주식회사 엔씨소프트 filed Critical 주식회사 엔씨소프트
Priority to KR1020060017600A priority Critical patent/KR100755187B1/en
Publication of KR20070087317A publication Critical patent/KR20070087317A/en
Application granted granted Critical
Publication of KR100755187B1 publication Critical patent/KR100755187B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability

Abstract

실제영상에 가상매체를 표시할 수 있는 디지털 기기가 개시된다. 본 발명에 따른 디지털 기기는, 연결된 카메라의 시야 범위내에 존재하는 실제 피사체와 함께 해당 범위내의 실제 공간상에 맵핑된 가상매체를 동시에 하나의 영상으로 표시할 수 있다. 이를 위해, 디지털 기기는 자신의 위치정보와 자세정보를 생성하여 소정의 서버(server)에 제공하고, 서버는 디지털 기기로부터 수신한 위치정보 및 자세정보를 기초로, 해당 카메라의 시야 범위내에 맵핑된 가상매체에 대한 정보를 디지털 기기로 전송한다. A digital device capable of displaying a virtual medium on an actual image is disclosed. The digital device according to the present invention can simultaneously display a virtual subject mapped within a visual range of a connected camera and a virtual medium mapped on an actual space within the corresponding range as a single image. To this end, the digital device generates its own position information and attitude information and provides it to a predetermined server. The server, based on the position information and attitude information received from the digital device, And transmits information about the virtual medium to the digital device.

가상영상, 실제영상, 영상합성, 위치정보, 자세정보 Virtual image, real image, image synthesis, position information, attitude information

Description

실제영상에 가상매체를 표시할 수 있는 디지털 기기 및 그 표시방법{Digital apparatus capable of displaying imaginary object on real image and method thereof}TECHNICAL FIELD [0001] The present invention relates to a digital device capable of displaying a virtual medium on a real image,

도 1은 본 발명의 일 실시 예에 따른 디지털 기기를 포함하는 시스템의 구성도,1 is a configuration diagram of a system including a digital device according to an embodiment of the present invention;

도 2는 본 발명의 일 실시 예에 따른 디지털 기기의 동작 설명에 제공되는 도면,2 is a block diagram illustrating an operation of a digital device according to an exemplary embodiment of the present invention.

도 3은 도 2에 대응하여 가상매체가 함께 표시된 영상을 도시한 도면,FIG. 3 is a view showing an image in which a virtual medium is displayed together with FIG. 2,

도 4는 본 발명의 일 실시 예에 따른 디지털 기기의 블록도,4 is a block diagram of a digital device according to an embodiment of the present invention.

도 5는 본 발명의 일 실시 예에 따른 디지털 기기의 동작 설명에 제공되는 도면,FIG. 5 is a diagram illustrating an operation of a digital device according to an exemplary embodiment of the present invention,

도 6a 내지 도 6e는 가상영상데이터의 생성과정의 설명에 제공되는 도면, 그리고6A to 6E are diagrams provided for explanation of a process of generating virtual image data, and FIGS.

도 7은 본 발명의 일 실시 예에 따른 디지털 기기의 동작 설명에 제공되는 흐름도이다.7 is a flowchart illustrating an operation of a digital device according to an exemplary embodiment of the present invention.

본 발명은 지구상의 실제 공간상에 소정의 가상매체를 맵핑하고, 카메라의 시야 범위내에 존재하는 실제 피사체와 함께 해당 범위에 맵핑된 가상매체를 동시에 하나의 영상으로 표시함으로써, 실제영상에 가상매체를 표시할 수 있는 디지털 기기에 관한 것이다. A virtual medium is mapped onto an actual space on the earth, and a virtual medium mapped to a corresponding range together with an actual object existing within a view range of the camera is displayed as one image at the same time, To a digital device capable of being displayed.

3차원 가상 영상을 실현하는 기술은 다양하게 응용되고 있으며, 특히 게임분야에서 현장감과 사실감을 높이기 위하여 많이 이용되고 있다. 이에 따라, 개인용 컴퓨터나 네트워크로 연결된 컴퓨터뿐 아니라, 휴대용 기기에 이르기까지 다양한 3차원 가상영상 기술이 실현되고 있다. Techniques for realizing 3D virtual images have been applied in various ways, and they have been widely used to enhance realism and realism in the game field. Accordingly, a variety of three-dimensional virtual imaging technologies ranging from personal computers and networked computers to portable devices have been realized.

본 발명의 목적은, 지구상의 실제 공간상에 소정의 가상매체를 맵핑하고, 카메라의 시야 범위내에 존재하는 실제 피사체와 함께 해당 범위에 맵핑된 가상매체를 동시에 하나의 영상으로 표시함으로써, 실제영상에 가상매체를 표시할 수 있는 디지털 기기를 제공함에 있다. It is an object of the present invention to provide a method and apparatus for mapping a virtual medium on an actual space on the earth and simultaneously displaying a virtual medium mapped in the corresponding range together with an actual object existing in the field of view of the camera, And a digital device capable of displaying a virtual medium.

본 발명의 다른 목적은, 실제 공간상에 맵핑된 가상매체를 표시함에 있어, 카메라 시야 각의 변화에 대응하여 가상매체의 표시를 변화시키면서, 실제영상에 가상매체를 표시할 수 있는 디지털 기기를 제공함에 있다. It is another object of the present invention to provide a digital device capable of displaying a virtual medium on an actual image while changing a display of a virtual medium in response to a change in camera viewing angle in displaying a virtual medium mapped in an actual space .

상기 목적을 달성하기 위해 본 발명에 따라, 피사체에 대한 실제영상데이터를 생성하는 소정의 카메라에 연결된 디지털 기기가 실제영상에 가상매체를 표시하는 방법은, 상기 카메라의 절대좌표인 위치정보 및 상기 절대좌표에서 상기 카메라가 향하는 방향에 대한 정보인 자세정보를 생성하는 단계, 상기 위치정보 및 자세정보를 기초로, 상기 카메라의 절대좌표상 시야범위 내에 존재하는 것으로 기 설정된 적어도 한 개 가상 객체를 포함하는 가상영상데이터를 생성하는 단계 및 상기 실제영상데이터에 상기 가상영상데이터를 합성한 최종영상데이터에 대응하는 영상을 표시하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of displaying a virtual medium on a real image, the method comprising: And generating the attitude information, which is information on a direction in which the camera is facing in the coordinate, based on the position information and the attitude information, the at least one virtual object preset to exist within the visual range on the absolute coordinates of the camera Generating virtual image data; and displaying an image corresponding to the final image data obtained by synthesizing the virtual image data with the actual image data.

여기서, 상기 카메라의 절대좌표상 시야범위는, 상기 카메라의 줌인 또는 줌아웃에 따른 상기 카메라의 시야범위를 상기 위치정보 및 자세정보에 기초하여 맵핑한 것이 바람직하다.Here, it is preferable that the field-of-view on the absolute coordinates of the camera is mapped based on the position information and the attitude information of the camera in accordance with zooming in or zooming out of the camera.

본 발명 상기 실시 예에 따라, 실제영상에 가상매체를 표시하는 방법은 상기 가상객체의 절대좌표가 변경되는 경우 소정의 서버로부터 상기 변경된 가상객체의 절대좌표를 수신하는 단계를 더 포함할 수 있다.According to the embodiment of the present invention, a method of displaying a virtual medium on an actual image may further include receiving absolute coordinates of the changed virtual object from a predetermined server when the absolute coordinates of the virtual object are changed.

또한, 상기 가상영상데이터를 생성하는 단계는, 상기 가상객체에 할당된 소정의 자세정보를 기초로, 상기 가상객체가 소정의 방향을 향하도록 상기 가상영상데이터를 생성할 수 있다. 이에 따라, 상기 가상객체의 자세정보가 변경되는 경우 소정의 서버로부터 상기 변경된 가상객체의 자세정보를 수신하는 단계를 더 포함할 수 있다.The generating of the virtual image data may generate the virtual image data such that the virtual object is oriented in a predetermined direction based on predetermined attitude information assigned to the virtual object. The method may further include receiving posture information of the changed virtual object from a predetermined server when the posture information of the virtual object is changed.

상기 카메라의 절대좌표는, 소정의 위성항법장치(GPS :Global Positioning System) 수신기에 의해 생성된 좌표인 것이 바람직하다.The absolute coordinates of the camera are preferably coordinates generated by a predetermined GPS (Global Positioning System) receiver.

상기 자세정보는, 중력방향 및 자북방향 중 적어도 한 개 방향의 축을 포함하는 3개 축으로서 서로 직교하는 축 각각을 회전축으로 상기 카메라가 회전한 각도인 것이 바람직하다.It is preferable that the attitude information is an angle formed by three axes including axes in at least one of a gravity direction and a magnetic north direction, and the camera is rotated with the axes orthogonal to each other.

본 발명의 다른 실시 예에 따른 실제영상에 가상매체를 표시할 수 있는 디지털 기기는, 피사체에 대한 실제영상데이터를 생성하는 카메라, 상기 카메라의 절대좌표인 위치정보 및 상기 절대좌표에서 상기 카메라가 향하는 방향에 대한 정보인 자세정보를 생성하는 센서부, 소정의 영상신호를 수신하여 시각적으로 인식할 수 있도록 표시하는 표시부, 소정의 영상 데이터를 수신하여 상기 표시부에 표시하기 위한 상기 영상신호로 변환하여 출력하는 영상처리부, 상기 위치정보 및 자세정보를 기초로, 상기 카메라의 절대좌표상 시야범위 내에 존재하는 것으로 기 설정된 적어도 한 개 가상 객체를 추출하는 계산부, 상기 계산부가 추출한 적어도 한 개 가상객체를 포함하는 가상영상데이터를 생성하는 가상객체생성부 및 상기 실제영상데이터에 상기 가상영상데이터를 합성한 최종영상데이터를 생성하여 상기 영상처리부로 출력하는 영상합성부를 포함한다.According to another aspect of the present invention, there is provided a digital device capable of displaying a virtual medium on an actual image, comprising: a camera for generating actual image data of a subject; position information that is an absolute coordinate of the camera; A display unit which receives a predetermined video signal and displays it so as to be visually recognizable; a display unit which receives predetermined video data and converts the video signal into the video signal for display on the display unit, A calculation unit for extracting at least one virtual object preset to exist within the visual range on the absolute coordinate of the camera based on the positional information and the attitude information; A virtual object generation unit for generating virtual image data based on the virtual image data, To generate the final image data obtained by synthesizing the image data includes the image combination unit to output to the image processor.

본 발명의 디지털 기기는 네트워크를 통해 소정의 서버에 접속할 수 있는 네트워크 처리부를 더 포함하고, 이 때 상기 계산부는, 상기 서버가 상기 가상객체의 절대좌표가 변경됨에 따라 전송하는 상기 변경된 가상객체의 절대좌표를, 상기 네 트워크처리부를 통해 수신할 수 있다.The digital device of the present invention may further include a network processing unit capable of connecting to a predetermined server via a network, wherein the calculating unit calculates the absolute value of the changed virtual object to be transmitted as the absolute coordinates of the virtual object are changed Coordinates can be received through the network processing unit.

상기 가상객체생성부는, 상기 가상객체에 할당된 소정의 자세정보를 기초로, 상기 가상객체가 소정의 방향을 향하도록 상기 가상영상데이터를 생성하는 것이 바람직하며, 상기 계산부는 상기 서버가 상기 가상객체의 자세정보가 변경됨에 따라 전송하는 상기 변경된 가상객체의 자세정보를 상기 네트워크처리부를 통해 수신할 수 있다.Preferably, the virtual object generation unit generates the virtual image data such that the virtual object is oriented in a predetermined direction based on predetermined attitude information assigned to the virtual object, The attitude information of the changed virtual object to be transmitted may be received through the network processing unit.

상기 센서부는, 상기 카메라의 절대좌표를 생성하는 소정의 위성항법장치(GPS :Global Positioning System) 수신기를 포함할 수 있다.The sensor unit may include a GPS (Global Positioning System) receiver for generating absolute coordinates of the camera.

상기 센서부는, 소정의 중력센서 및 자계센서 중 하나와 함께 적어도 하나의 회전센서를 포함하여, 중력방향 및 자북방향 중 적어도 한 개 방향의 축을 포함하는 3개 축으로서 서로 직교하는 축 각각을 회전축으로 상기 카메라가 회전한 각도를 계산함으로써, 상기 자세정보를 생성할 수 있다.The sensor unit includes at least one rotation sensor together with one of a predetermined gravity sensor and a magnetic field sensor, and includes three axes including axes in at least one of a gravity direction and a magnetic north direction, By calculating the angle at which the camera rotates, the posture information can be generated.

상기 센서부는, 소정의 중력센서 및 자계센서 중 하나와 함께 적어도 하나의 회전센서를 포함하여 그 센싱값을 상기 계산부로 출력하며, 상기 계산부는 상기 센싱값을 기초로, 중력방향 및 자북방향 중 적어도 한 개 방향의 축을 포함하는 3개 축으로서 서로 직교하는 축 각각을 회전축으로 상기 카메라가 회전한 각도를 계산함으로써, 상기 자세정보를 생성할 수 있다.Wherein the sensor unit includes at least one rotation sensor together with one of a predetermined gravity sensor and a magnetic field sensor and outputs the sensing value to the calculation unit, and the calculation unit calculates, based on the sensing value, at least one of gravity direction and magnetic north direction The attitude information can be generated by calculating the angle at which the camera rotates with respect to each of the three axes including axes in one direction and the axes orthogonal to each other.

또한, 상기 카메라는 소정의 유선 또는 무선 인터페이스에 의해 본체와 연결될 수 있다.In addition, the camera may be connected to the main body by a predetermined wired or wireless interface.

이하에서는, 도면을 참조하여 본 발명을 상세히 설명한다.Hereinafter, the present invention will be described in detail with reference to the drawings.

도 1은 본 발명의 일 실시 예에 따른 디지털 기기를 포함하는 시스템의 구성도이며, 도 2는 본 발명의 일 실시 예에 따른 디지털 기기의 동작 설명에 제공되는 도면이다.FIG. 1 is a configuration diagram of a system including a digital device according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating an operation of a digital device according to an exemplary embodiment of the present invention.

도 1 및 도 2를 참조하면, 본 발명의 디지털 기기(101)는 소정의 네트워크(103)를 통해 서버(105)에 연결된다. 본 발명의 디지털 기기(101)는 소정의 카메라를 포함하여 카메라를 통해 입력되는 피사체(r1)에 대한 실제영상을 생성하며, 네트워크(103)를 통해 연결된 서버(105)로부터 3차원 가상영상을 위한 정보를 수신하여 3차원 가상영상을 생성할 수 있다. 디지털 기기(101)는 생성된 실제영상과 3차원 가상영상을 합성하여 표시함으로써, 가상 객체(i1, i2)가 실제 공간상에 존재하는 것처럼 인식될 수 있는 영상을 표시할 수 있다. 1 and 2, a digital device 101 of the present invention is connected to a server 105 through a predetermined network 103. [ The digital device 101 of the present invention includes a predetermined camera and generates an actual image of the subject r1 input through the camera and receives the 3D image from the server 105 connected via the network 103 Information can be received and a three-dimensional virtual image can be generated. The digital device 101 can display an image that can be recognized as if the virtual objects i1 and i2 exist in the actual space by synthesizing and displaying the generated real image and the 3D virtual image.

본 발명의 '가상 객체'는, 화면을 통해 실제 존재하는 것으로 표현될 수 있는 이미지로서, 2차원 이미지 또는 3차원 이미지를 포함한다. 가상 객체는, 경도 및 위도에 의해 표시될 수 있는 실제 공간상의 특정 위치에 대응되는 가상공간에 존재한다. 따라서, 가상 객체의 위치를 위도 및 경도로 표시할 수 있다. 예를 들어, 가상객체 i1은 절대좌표 (a2,b2)에 위치하며, 가상객체 i2는 절대좌표 (a3,b3)에 위치한다.The 'virtual object' of the present invention is an image that can be expressed as being actually present through a screen, and includes a two-dimensional image or a three-dimensional image. A virtual object exists in a virtual space corresponding to a specific location on the real space that can be displayed by longitude and latitude. Therefore, the position of the virtual object can be displayed in latitude and longitude. For example, the virtual object i1 is located at the absolute coordinates (a2, b2), and the virtual object i2 is located at the absolute coordinates (a3, b3).

따라서, 이동 또는 회전 등에 의해 디지털 기기(101)의 자세나 실제 위치(경도 및 위도에 의해 표시될 수 있는 위치. 이하 '절대 위치'라 함)가 변경되면, 디지털 기기(101)와 '가상 객체' 사이의 상대적인 위치가 변하게 된다. 이에 따라, 디지털 기기(101)는 변경된 영상을 표시한다. Accordingly, when the posture or the actual position (a position that can be displayed by the longitude and latitude, hereinafter referred to as an 'absolute position') of the digital device 101 is changed by movement, rotation, or the like, The relative position between the two. Accordingly, the digital device 101 displays the changed image.

여기서, '자세'라는 것은, 가상 객체나 디지털 기기(101) 또는 디지털 기기(101)의 카메라의 특정 면이 향하고 있는 방향 벡터로써, 자북(磁北)방향이 기준이 된다. 또한, 이하에서 말하는 '자세정보'는, 가상객체나 디지털 기기(101)의 자세에 대한 정보이다. 도 2에서 디지털 기기(101)의 자세정보는 벡터 V에 대한 정보이다. Here, the 'posture' is a direction vector of a virtual object or a specific face of the camera of the digital device 101 or the digital device 101, and a magnetic north direction is used as a reference. The 'attitude information' described below is information on the posture of the virtual object or the digital device 101. In FIG. 2, the attitude information of the digital device 101 is information on the vector V. FIG.

예를 들어, 디지털 기기(101)가 현재의 절대 위치(a1,b1)에서 시계반대 방향으로 회전한다고 가정하면, 벡터 V에 대응되는 자세가 변경된다. 이러한 회전에 따라, 디지털 기기(101)에 표시되는 영상에서 가상객체 i2가 점점 사라지게 된다. For example, assuming that the digital device 101 rotates counterclockwise at the current absolute position a1, b1, the posture corresponding to the vector V is changed. With this rotation, the virtual object i2 gradually disappears from the image displayed on the digital device 101. [

서버(105)는 디지털 기기(101)로부터 소정의 위치정보, 자세정보 및 카메라 정보를 수신하고, 수신한 정보들에 대응하여 소정의 객체(Object)정보를 디지털 기기(101)로 전송한다.The server 105 receives predetermined position information, attitude information and camera information from the digital device 101 and transmits predetermined object information to the digital device 101 in accordance with the received information.

여기서, 카메라 정보는 카메라의 줌인 또는 줌아웃 등에 따른 카메라의 시야범위에 대한 정보이다. 카메라의 시야범위는 줌인 또는 줌아웃에 따라 기 설정된 시야각 및 시야거리를 통해 구해진다.Here, the camera information is information on the camera's field of view due to zooming in or zooming out of the camera. The field of view of the camera is obtained through a predetermined viewing angle and viewing distance according to zoom in or zoom out.

객체정보는, 가상객체에 대한 위치정보, 자세정보 및 가상객체 식별자(ID: Identification)를 포함한다. 가상객체 식별자는 가상객체에 대한 영상자원인 2차원 또는 3차원 폴리곤(polygon)에 대응된다. The object information includes positional information on the virtual object, attitude information, and a virtual object identifier (ID). The virtual object identifier corresponds to a two-dimensional or three-dimensional polygon, which is an image resource for a virtual object.

객체정보에 가상객체에 대한 식별자가 포함된 경우, 디지털 기기(101)는, 가상객체에 대한 2차원 또는 3차원 폴리곤(polygon)을 이미 저장하고 있을 수 있다. 이 경우, 서버(105)는 주기적 또는 비주기적으로 디지털 기기(101)에 저장될 2차원 또는 3차원 폴리곤을 추가하거나 업데이트할 수 있다.If the object information includes an identifier for the virtual object, the digital device 101 may already store a two-dimensional or three-dimensional polygon for the virtual object. In this case, the server 105 may add or update the two-dimensional or three-dimensional polygon to be stored in the digital device 101 periodically or aperiodically.

또한, 서버(105)는 가상객체가 이동하거나 움직이는 경우를 가정하여, 가상객체의 변경된 위치정보 및 자세정보를 주기적 또는 비주기적으로 디지털 기기(101)로 전송할 수 있다.In addition, the server 105 may transmit the changed position information and attitude information of the virtual object to the digital device 101 periodically or non-periodically, on the assumption that the virtual object moves or moves.

또한, 실시 예에 따라, 서버(105)가 제공하는 객체정보는, 가상객체의 위치정보 및 자세정보와 함께, 가상객체 식별자를 대신하여 해당 가상객체의 폴리곤을 포함할 수도 있다. In addition, according to the embodiment, the object information provided by the server 105 may include the polygon of the virtual object in place of the virtual object identifier, together with the position information and attitude information of the virtual object.

위치정보란, 디지털 기기(101) 또는 가상객체의 절대 좌표에 대한 정보로서, 지구상의 경도, 위도 및 고도에 관한 정보를 포함한다. 위치정보와 자세정보가 있으면, 해당 디지털 기기(101)나 가상객체가 지구상의 어느 위치에서 어디를 향하고 있는지를 알 수 있다. The location information is information on the absolute coordinates of the digital device 101 or the virtual object, and includes information on longitude, latitude and altitude on the earth. If there is the positional information and the attitude information, it is possible to know from which position on the earth the digital device 101 or the virtual object is pointing to.

여기서, 디지털 기기(101)에 대한 위치정보 및 자세정보가, 디지털 기기(101)의 카메라에 대한 것이라면, 카메라가 디지털 기기(101)에 합체되거나 일체로 포함된 것이 아니라, 디지털 기기(101)와 분리되어 존재하는 경우일 수 있다. Here, if the positional information and the attitude information for the digital device 101 are for the camera of the digital device 101, the camera may be incorporated into the digital device 101 or may be integrated with the digital device 101, And may exist separately.

가상객체에 대한 객체정보를 디지털 기기(101)로 제공함에 있어, 서버(105)는 디지털 기기(101)의 위치로부터 소정 반경 내의 모든 가상객체에 관한 객체정보를 제공하거나, 디지털 기기(101)로부터 수신한 카메라 정보 및 자세정보를 이용하여 현재 카메라의 절대좌표상의 시야범위 내에 존재하는 가상객체에 대한 객체정보만을 제공할 수 있다. In providing the object information on the virtual object to the digital device 101, the server 105 may provide object information on all virtual objects within a predetermined radius from the position of the digital device 101, Only the object information about the virtual objects existing within the field of view on the absolute coordinates of the current camera can be provided using the received camera information and attitude information.

네트워크(103)는 유선 또는 무선 네트워크가 해당하며, 무선 네트워크가 바람직하다.The network 103 corresponds to a wired or wireless network, and a wireless network is preferred.

도 3은 도 2에 대응하여 가상매체가 함께 표시된 영상을 도시한 도면으로서, 벡터 V 의 자세를 가지는 디지털 기기(101)가 실제 피사체(r1)과 함께 가상객체(i1, i2)를 표시하고 있음을 보인다. Fig. 3 is a view showing an image in which a virtual medium is displayed together in correspondence with Fig. 2, in which a digital device 101 having an attitude of a vector V displays virtual objects i1 and i2 together with an actual object r1 .

이하에서는 도 4 및 도 5를 참조하여, 본 발명의 일 실시 예에 따른 디지털 기기(101)를 설명한다.Hereinafter, a digital device 101 according to an embodiment of the present invention will be described with reference to FIGS. 4 and 5. FIG.

도 4은 본 발명의 일 실시 예에 따른 디지털 기기의 블록도이고, 도 5는 본 발명의 일 실시 예에 따른 디지털 기기의 동작 설명에 제공되는 도면이다. 도 4의 디지털 기기(101)는 도 1의 디지털 기기(101)에 대응되고 동일하게 동작한다.FIG. 4 is a block diagram of a digital device according to an embodiment of the present invention, and FIG. 5 is a diagram illustrating an operation of a digital device according to an embodiment of the present invention. The digital device 101 of FIG. 4 corresponds to and operates in the same manner as the digital device 101 of FIG.

본 발명의 일 실시 예에 따른 디지털 기기(101)는 다양한 형태를 가질 수 있으며, 그 일 예로 통상의 디지털 카메라나, 휴대용 게임기의 형태 뿐만 아니라, 인간의 신체에 장착 가능한 형태로 형성될 수 있다.The digital device 101 according to an embodiment of the present invention may have various forms. For example, the digital device 101 may be formed not only in the form of a general digital camera or a portable game machine, but also in a form that can be mounted on a human body.

본 발명의 일 실시 예에 따른 디지털 기기(101)는 카메라(401), 센서부(403), 네트워크처리부(405), 메모리(407), 저장매체(409), 영상처리부(411), 표시부(413) 및 제어부(430)를 포함하며, 서버(105)로부터 소정의 객체정보를 수신하여, 가상영상과 실제영상을 합성한다.The digital device 101 according to an embodiment of the present invention includes a camera 401, a sensor unit 403, a network processing unit 405, a memory 407, a storage medium 409, an image processing unit 411, 413, and a control unit 430, and receives predetermined object information from the server 105 to synthesize a virtual image and an actual image.

카메라(401)는 피사체로부터 반사되어 렌즈(lenz)(미도시)로 입사되는 광을 이용하여 소정의 영상데이터를 생성하여 제어부(430)로 출력한다. 카메라(401)가 생성하는 영상 데이터는 스틸 이미지 또는 동영상 데이터 중 적어도 하나를 포함한다. 이하에서는, 실제영상을 위해 카메라(401)가 생성하는 영상 데이터를 '실제영상데이터'라 한다. 그리고, 실제영상데이터와 달리 객체정보에 대응되는 가상객체에 대한 영상 데이터를 '가상영상데이터'라 한다.The camera 401 generates predetermined image data by using light that is reflected from a subject and is incident on a lens lenz (not shown), and outputs the image data to the controller 430. The image data generated by the camera 401 includes at least one of still image or moving image data. Hereinafter, image data generated by the camera 401 for an actual image is referred to as 'actual image data'. Unlike the actual image data, the image data of the virtual object corresponding to the object information is referred to as 'virtual image data'.

또한, 카메라(401)는 제어부(430)의 제어에 따라 렌즈(미도시)를 움직임으로써, 줌인(zoom-in) 영상이나 줌 아웃(zoom-out)된 영상을 생성하여 제어부(430)로 전달한다.In addition, the camera 401 generates a zoomed-in image or a zoomed-out image by moving a lens (not shown) under the control of the controller 430, and transmits the zoomed-in image or the zoomed-out image to the controller 430 do.

도 4에는 카메라(401)가 디지털 기기(101)내에 포함된 것으로 도시되고 있으나, 반드시 이에 한정될 필요없으며, 실시 예에 따라서는 센서부(403)와 함께 외부에 위치하여 유무선 인터페이스(미도시)를 통해 디지털 기기(101)와 연결될 수도 있다.4, the camera 401 is shown as being included in the digital device 101, but it is not necessarily limited to this. In some embodiments, the camera 401 may be located outside the sensor unit 403 and may be a wired / wireless interface (not shown) And may be connected to the digital device 101 via a network.

센서부(403)는 위치부(417) 및 자세부(415)를 포함하며, 소정의 위치정보 및 회전정보를 제어부(430)로 출력한다. 회전정보는 자세정보를 생성하기 위해 자세부(415)가 센싱한 디지털 기기의 회전각도이다. The sensor unit 403 includes a position unit 417 and a character detail 415 and outputs predetermined position information and rotation information to the control unit 430. [ The rotation information is the rotation angle of the digital device in which the ruler details 415 are sensed to generate attitude information.

여기서, 도 5를 참조하여, 위치정보 및 자세정보를 보다 자세히 설명한다.Here, the position information and attitude information will be described in more detail with reference to Fig.

도 5를 참조하면, 동일한 수평면 상에 위치하고 서로 수직인 X 축 및 Z축이 있다. Z축을 자북(N) 방향으로 하는 경우 Z축과 X 축이 형성하는 평면은, 디지털 기기(101)가 위치하는 지구상 위치인 절대좌표에 대응된다. Referring to Fig. 5, there are X and Z axes which are located on the same horizontal plane and perpendicular to each other. When the Z axis is in the magnetic north direction, the plane formed by the Z axis and the X axis corresponds to the absolute coordinates, which is a global position on which the digital device 101 is located.

디지털 기기(101)의 카메라(401)는 경도 a1 및 위도 b1의 위치에서 벡터 V의 자세를 가지고 있다. 따라서 디지털 기기(101)의 위치정보는 디지털 기기(101)가 위치하는 절대좌표 상 위치인 (a1,b1)이 된다.The camera 401 of the digital device 101 has the posture of the vector V at the position of the longitude a1 and the latitude b1. Therefore, the positional information of the digital device 101 becomes (a1, b1) on the absolute coordinate position where the digital device 101 is located.

자세정보는, 자북(磁北)방향인 Z축을 기준으로 하는, 벡터 V에 대한 정보로서, 피치(Pitch)값, 롤(Roll)값 및 요(Yaw)값을 포함한다. 피치값은 X축을 기준으로 디지털 기기(101)가 회전한 각을 XZ 평면을 기준으로 읽은 값이며, 요값은 Z축을 기준으로 디지털 기기(101)가 회전한 각을 XZ 평면을 기준으로 읽은 값이다. 또한, 롤값은 Y축을 기준으로 디지털 기기(101)가 회전한 각을 XY 평면을 기준으로 읽은 값이다. 이하에서는 디지털 기기(101)의 자세정보를 (Pd, Rd, Yd)라 한다. 여기서, Pd는 피치값, Rd은 롤값, 그리고 Yd은 요값이 된다.The attitude information includes information on a vector V, which is based on a Z axis which is a magnetic north direction, and includes a pitch value, a roll value, and a yaw value. The pitch value is a value obtained by reading the angle of rotation of the digital device 101 with respect to the X axis on the basis of the XZ plane and the yaw value is a value obtained by reading the angle of rotation of the digital device 101 with reference to the Z axis with reference to the XZ plane . The roll value is a value obtained by reading the angle of rotation of the digital device 101 with respect to the Y-axis with reference to the XY plane. Hereinafter, the attitude information of the digital device 101 is referred to as (P d , R d , Y d ). Where P d is the pitch value, R d is the roll value, and Y d is the yaw value.

도 5를 참조하면, 자세정보는 절대좌표와 소정의 상관관계를 가진다. 예를 들어, 자북방향, 중력방향, 경도방향 또는 위도방향 등 절대좌표와 관련된 소정의 기준을 중심으로 측정되어야 한다. 예를 들어, 롤값은 자북을 기준으로 그 회전 각도를 구하고, 피치값은 중력방향을 기준으로 정해져야 한다. Referring to FIG. 5, the attitude information has a predetermined correlation with the absolute coordinates. For example, a predetermined reference relating to an absolute coordinate, such as magnetic north direction, gravity direction, longitudinal direction, or latitudinal direction. For example, the roll value should be determined based on the magnetic north, and the pitch value should be determined based on the gravity direction.

이하에서는 다시 도 4를 참조하여 각 구성요소를 설명한다. Hereinafter, each component will be described with reference to FIG.

위치부(417)는 지구상에 디지털 기기(101)가 존재하는 경도 및 위도의 좌표인 위치정보를 구하여 제어부(430)로 출력한다. 위치부(417)는 위성항법장치(GPS: Global Positioning System, 이하 'GPS'라 함) 위성이나 지상의 송신기로부터 위치정보에 대응되는 소정의 신호를 수신하여 처리함으로써 위치정보를 생성한다. The position unit 417 obtains positional information, which is the coordinate of the longitude and latitude in which the digital device 101 exists on the earth, and outputs the positional information to the control unit 430. The position unit 417 receives the predetermined signal corresponding to the position information from a GPS (Global Positioning System) satellite or a transmitter on the ground, and generates position information by processing the position signal.

바람직하게는, 위치부(417)는 GPS 위성으로부터 소정의 데이터를 수신하여 WGS-84 좌표계상의 좌표값을 출력하는 GPS 수신기가 해당하며, 이 경우 위치정보는 디지털 기기(101)의 WGS-84 좌표계상의 좌표값이 될 수 있다.Preferably, the position unit 417 corresponds to a GPS receiver that receives predetermined data from a GPS satellite and outputs coordinate values on the WGS-84 coordinate system. In this case, the position information corresponds to the WGS-84 coordinate system Lt; / RTI >

자세부(415)는 소정의 센서를 기초로, 디지털 기기(101)의 회전정보를 구하여 제어부(430)로 출력한다. The controller 415 obtains rotation information of the digital device 101 based on a predetermined sensor and outputs the rotation information to the controller 430. [

실시 예에 따라, 자세부(415)는 회전센서와 함께 자계센서(magneto sensor) 및 중력센서 중 하나를 사용하여 회전정보를 구할 수 있다. 이 경우, 자계센서 또는 중력센서는 절대좌표와의 상관관계에서, 회전센서에 의해 구해진 각도를 보상하는데 사용한다. 여기서, 회전정보는 회전센서의 출력과 함께 자계센서 및 중력센서 중 하나의 출력값을 포함한다. In accordance with an embodiment, the ruler details 415 may use rotation sensors to determine rotation information using either a magneto sensor or a gravity sensor. In this case, the magnetic field sensor or the gravity sensor is used to compensate the angle obtained by the rotation sensor in correlation with the absolute coordinates. Here, the rotation information includes an output value of one of the magnetic sensor and the gravity sensor together with the output of the rotation sensor.

또한, 복수 개의 자계센서(magneto sensor)와 복수 개의 중력센서를 사용하여 회전정보를 구할 수 있다.  In addition, rotation information can be obtained by using a plurality of magnetic field sensors (magneto sensors) and a plurality of gravity sensors.

회전센서는 3 개를 포함하는 것이 바람직하다. 3개의 회전센서 각각의 출력은 피치값, 롤값 및 요값에 대응된다. 따라서, 각 회전센서는 서로 직교하는 3 개 축을 기준으로 한 디지털 기기(101)의 회전 변위(각도)를 출력하도록 디지털 기기(101)내에 설치되며, 자이로스코프(gyroscope)가 바람직하다.The rotation sensor preferably includes three. The output of each of the three rotation sensors corresponds to a pitch value, a roll value and a yaw value. Therefore, each rotation sensor is installed in the digital device 101 to output the rotational displacement (angle) of the digital device 101 with respect to three axes orthogonal to each other, and a gyroscope is preferable.

자이로스코프는 광학식 자이로스코프, 기계식 자이로스코프, 압전형 진동자이로스코프, 미소기전시스템(MEMS: Micro Electro Mechanical System) 기술을 이용한 초소형 마이크로 자이로스코프 등을 사용할 수 있다. The gyroscope can be an optical gyroscope, a mechanical gyroscope, a piezoelectric vibration gyroscope, or a micro-micro gyroscope using micro electro mechanical system (MEMS) technology.

자계센서는, 자북(N)방향을 감지함으로써, 소정 설치방향과 자북방향 사이의 각도 정보를 출력한다. 중력센서는 중력방향을 감지함으로써, 소정 설치방향과 중 력방향 사이의 각도 정보를 출력한다. 회전센서의 출력은 디지털 기기(101)의 현재 상태에서 서로 직교하는 3개 축(개체 좌표계를 형성)을 기준으로 회전한 각도이므로, 이러한 회전각도를 절대좌표 상의 자북방향이나 중력방향을 기준으로 한 값으로 보상하기 위해서는 회전센서의 3개 축을 도 5와 같이 자북방향이나 중력방향과 일치시키는 과정이 필요하다. 따라서, 자계센서나 중력센서의 출력값이 필요하다. 다시 말해, 디지털 기기(101)의 개체 좌표계와 절대좌표계의 일치시키기 위한 보상이 필요하다.The magnetic field sensor senses the direction of the magnetic north (N), thereby outputting the angle information between the predetermined installation direction and the magnetic north direction. The gravity sensor senses the gravity direction and outputs angle information between the predetermined installation direction and the gravity direction. Since the output of the rotation sensor is an angle rotated with respect to three axes orthogonal to each other (forming an individual coordinate system) in the current state of the digital device 101, the rotation angle is determined based on the magnetic north direction or gravity direction It is necessary to match the three axes of the rotation sensor to the magnetic north direction or the gravity direction as shown in FIG. Therefore, an output value of a magnetic field sensor or a gravity sensor is required. In other words, it is necessary to compensate for matching the individual coordinate system of the digital device 101 with the absolute coordinate system.

자세부(415)는 회전센서의 출력과 함께, 자계센서 및 중력센서 중 하나에서 출력되는 아날로그 신호를 디지털 신호로 변환한 소정의 회전정보를 제어부(430)로 출력한다. 자세부(101)는 회전정보에 포함될 수 있는 노이즈를 제거하여 출력할 수 있다. 이에 따라, 제어부(430)가 자계센서 및 중력센서 중 하나의 출력을 기초로, 회전센서의 출력에 대해 절대좌표와의 상관관계를 보상한다. The character detail 415 outputs predetermined rotation information obtained by converting an analog signal output from one of the magnetic sensor and the gravity sensor into a digital signal, together with the output of the rotation sensor, to the controller 430. The character detail 101 can remove noise that may be included in the rotation information and output it. Accordingly, the control unit 430 compensates the correlation with the absolute coordinates of the output of the rotation sensor based on the output of one of the magnetic field sensor and the gravity sensor.

또한, 실시 예에 따라, 자세부(415)는 회전정보를 기초로, 피치값, 롤값 및 요값을 구하여 제어부(430)로 출력할 수 있다. 다시 말해, 자세부(415)가 절대좌표와의 상관관계가 보상된 자세정보를 제어부(430)로 출력할 수 있다.Also, according to the embodiment, the character details 415 may obtain the pitch value, the roll value, and the yaw value based on the rotation information, and output the obtained pitch value, roll value, and yaw value to the controller 430. In other words, the controller 430 can output the posture information in which the correlation between the character detail 415 and the absolute coordinates is compensated.

또 다른 실시 예에 따르면, 자세부(415)는 복수 개의 자계센서 및 중력센서를 이용하여 회전센서를 대신하면서, 절대좌표와의 상관관계가 보상된 자세정보를 직접 생성할 수 있다. According to another embodiment, the character detail 415 can directly generate the posture information in which the correlation with the absolute coordinates is compensated, instead of the rotation sensor using a plurality of magnetic sensors and gravity sensors.

네트워크처리부(405)는 네트워크(103)를 통해 서버(105)와 연결할 수 있으며, 유선 또는 무선 통신방법에 의해 제어부(430)가 출력하는 데이터를 서버(105) 로 전송하고, 서버(105)로부터 전송되는 데이터를 제어부(430)로 전달한다.The network processing unit 405 can connect to the server 105 through the network 103 and transmits the data output by the control unit 430 to the server 105 by a wired or wireless communication method and transmits the data output from the server 105 And transmits the transmitted data to the control unit 430.

메모리(407)는 각종 활성 및 비활성 메모리를 포함하며, 디지털 기기(101)의 각종 프로그램이나 데이터들이 저장될 수 있다. The memory 407 includes various active and inactive memories, and various programs and data of the digital device 101 can be stored.

저장매체(409)에는 플래시 메모리, 하드 디스크 등이 해당하며, 디지털 기기(101)가 처리하는 각종 전자문서, 지도 정보 등의 멀티미디어 콘텐츠 등이 저장된다.The storage medium 409 corresponds to a flash memory, a hard disk, and the like, and stores various electronic documents such as various electronic documents processed by the digital device 101, and multimedia contents such as map information.

또한, 메모리(407)나 저장매체(409)에는 가상객체 식별자에 대응되는 폴리곤 데이터가 저장된다.The polygon data corresponding to the virtual object identifier is stored in the memory 407 or the storage medium 409. [

영상처리부(411)는 제어부(430)로부터 출력되는 영상 데이터를 수신하여 표시부(413)를 위한 영상신호로 변환하여 표시부(413)로 출력한다.The image processing unit 411 receives the image data output from the control unit 430, converts the image data into a video signal for the display unit 413, and outputs the video signal to the display unit 413.

표시부(413)는 영상처리부(411)로부터 전달되는 영상신호를 사용자가 시각적으로 인식 가능하게 표시한다. 표시부(413)는 엘시디(LCD), 유기발광다이오드(Organic Light Emitting Diode), PDP(Plasma Display Panel) 또는 CRT(Cathod Ray Tube) 등이 해당할 수 있다. The display unit 413 displays a video signal transmitted from the video processing unit 411 so that the user can visually recognize the video signal. The display unit 413 may be an LCD, an organic light emitting diode, a plasma display panel (PDP), or a cathode ray tube (CRT).

제어부(430)는 본 발명의 디지털 기기(101)의 전반적인 동작을 제어한다. The control unit 430 controls the overall operation of the digital device 101 of the present invention.

제어부(430)는 카메라제어부(431), 계산부(433), 가상객체생성부(435) 및 영상합성부(437)를 포함하여, 카메라(401)로부터 입력되는 실제 영상과 서버(105)로부터 수신한 가상 객체를 합성하여 표시부(413)로 출력한다. The control unit 430 includes a camera control unit 431, a calculation unit 433, a virtual object generation unit 435 and an image synthesis unit 437. The control unit 430 receives the actual image input from the camera 401, Synthesizes the received virtual objects, and outputs the combined virtual objects to the display unit 413.

카메라제어부(431)는, 사용자인터페이스(미도시)를 통한 사용자의 제어에 의해, 카메라(401)의 각종 동작을 제어한다.The camera control unit 431 controls various operations of the camera 401 under the control of the user through a user interface (not shown).

카메라(401)의 동작은, 줌 인(zoom in) 및 줌 아웃(zoom out)을 포함한다.The operation of the camera 401 includes zoom in and zoom out.

카메라제어부(431)는 계산부(433)의 요청에 따라 소정의 카메라 정보를 계산부(433)로 제공한다. 카메라 정보는 카메라(401)의 줌인 또는 줌아웃 등에 따른 카메라(401)의 시야각에 대한 정보이다. The camera control unit 431 provides predetermined camera information to the calculation unit 433 at the request of the calculation unit 433. [ The camera information is information on the viewing angle of the camera 401 due to zooming in or zooming out of the camera 401 or the like.

계산부(433)는 센서부(403)로부터 위치정보 및 회전정보를 수신하고, 카메라제어부(431)로부터 카메라정보를 수신한다. The calculation unit 433 receives position information and rotation information from the sensor unit 403 and receives camera information from the camera control unit 431. [

계산부(433)는 센서부(403)로부터 수신한 위치정보를 기초로, 소정 지역을 위한 좌표계상의 좌표로 최종 변환함으로써 디지털 기기(101)의 위치정보를 계산한다. The calculation unit 433 calculates the positional information of the digital device 101 by finally converting the coordinates into the coordinates on the coordinate system for the predetermined region based on the positional information received from the sensor unit 403. [

예를 들어, 계산부(433)는 위치부(417)로부터 WGS-84 좌표를 수신하면, 수신한 WGS-84 좌표를 해당 지역에 적용되는 좌표계상의 좌표로 변환함으로써 최종 위치정보를 계산한다. 예를 들어, 대한민국의 경우 동경좌표계를 사용하기 때문에, WGS-84 좌표를 동경좌표로 변환한다. 또한, WGS-84 좌표를 그대로 사용하는 지역의 경우, 별다른 변환과정 없이 그대로 위치부(417)의 출력을 그대로 위치정보로 사용할 수 있다.For example, when the calculation unit 433 receives the WGS-84 coordinates from the position unit 417, the calculation unit 433 calculates the final position information by converting the received WGS-84 coordinates into coordinates on the coordinate system applied to the corresponding region. For example, in Korea, because we use the longitude coordinate system, we convert WGS-84 coordinates to longitude coordinates. Also, in the case of using the WGS-84 coordinates as it is, the output of the position unit 417 can be directly used as the position information without any conversion process.

또한, 계산부(433)는 회전정보를 이용하여, 디지털 기기(101)의 자세정보를 계산한다. 계산부(433)는 자계센서나 중력센서의 출력을 기초로, 회전센서의 각도를 소정의 변환식에 따라 변환하는 방법으로 절대좌표와의 상관관계를 보상한 자세정보를 계산한다. The calculation unit 433 calculates the posture information of the digital device 101 using the rotation information. The calculation unit 433 calculates the attitude information that compensates the correlation with the absolute coordinates by a method of converting the angle of the rotation sensor according to a predetermined conversion formula based on the output of the magnetic field sensor or the gravity sensor.

계산부(433)는 카메라 정보, 위치정보 및 자세정보를 네트워크처리부(405)를 통해 서버(105)로 전달한다. The calculation unit 433 transmits the camera information, the position information, and the attitude information to the server 105 through the network processing unit 405.

계산부(433)는 서버(105)로부터 전송되는 적어도 하나의 가상 객체에 대한 객체정보를 수신하여 가상객체생성부(435)로 전달한다. The calculation unit 433 receives the object information of at least one virtual object transmitted from the server 105 and transmits the object information to the virtual object generation unit 435.

도 4의 실시 예에서, 서버(105)가 전송하는 객체정보가 카메라(401)의 절대좌표상 시야범위내의 가상객체에 대한 것이므로, 계산부(433)가 별다른 계산을 할 필요없이 바로 가상객체생성부(435)로 해당 객체정보를 전달할 수 있다.4, because the object information transmitted by the server 105 is for a virtual object within the visual range on the absolute coordinate of the camera 401, the calculation unit 433 can directly generate the virtual object And the corresponding object information can be transmitted to the unit 435.

그러나, 실시 예에 따라 서버(105)가 전송하는 객체정보가 카메라(401)의 절대좌표상 시야범위가 아닌, 디지털 기기(101)의 절대좌표로부터 소정 범위내의 가상객체 모두에 대한 것이면, 계산부(433)가 카메라의 시야범위 내의 객체정보만을 추출하여 가상객체생성부(435)로 전달할 수 있다. 이 경우, 계산부(433)는 카메라 정보와 위치정보를 서버(105)로 전송할 필요가 없게 된다.However, if the object information transmitted by the server 105 according to the embodiment is not for the absolute coordinate range of the camera 401 but for all virtual objects within a predetermined range from the absolute coordinates of the digital device 101, The object extraction unit 433 extracts only the object information within the camera's field of view and transmits the extracted object information to the virtual object generation unit 435. [ In this case, the calculation unit 433 does not need to transmit the camera information and the position information to the server 105. [

가상객체생성부(435)는 계산부(433)로부터 적어도 하나의 가상 객체에 대한 객체정보를 수신한다. 가상객체생성부(435)는, 객체정보에 포함된 가상객체의 자세정보 및 위치정보를 기초로, 카메라(401)의 시야범위 내에 존재하는 가상객체를 포함하는 가상영상데이터를 생성한다. The virtual object generation unit 435 receives object information about at least one virtual object from the calculation unit 433. [ The virtual object generation unit 435 generates virtual image data including a virtual object existing within the field of view of the camera 401 based on the posture information and the position information of the virtual object included in the object information.

가상영상데이터의 생성을 도 6a 내지 도 6b를 이용하여 간단히 설명한다. 도 6a 내지 도 6b는 가상영상데이터의 생성과정의 설명에 제공되는 도면이다. The generation of virtual image data will be briefly described with reference to Figs. 6A to 6B. 6A and 6B are diagrams for explaining a process of generating virtual image data.

도 6a는 시야공간전개처리된 폴리곤(polygon)을 보인다. 가상영상데이터는 서버(105)로부터 수신한 가상객체의 식별자에 대응되는 폴리건(plolygon)을 하나의 좌표계에 배치하는 시야공간전개처리부터 시작한다. 6A shows a polygon that has undergone the view space expansion process. The virtual image data starts from a view space expansion process in which a polygon corresponding to an identifier of a virtual object received from the server 105 is arranged in one coordinate system.

시야공간전개처리를 위하여, 가상객체생성부(435)는 가상객체의 위치정보 및 자세정보를 기초로, 카메라(401)가 생성하는 실제영상데이터에 대응되는 공간상에 가상객체를 배치한다. The virtual object creation unit 435 arranges the virtual objects on the space corresponding to the actual image data generated by the camera 401 based on the position information and the attitude information of the virtual object.

가상객체생성부(435)는 시야공간처리된 3차원 영상 데이터를 현실감있게 표현하기 위해, 도 6b와 같이 광원 처리를 한다. The virtual object generation unit 435 performs a light source process as shown in FIG. 6B in order to realistically represent the three-dimensional image data subjected to the view space processing.

광원 처리가 끝나게 되면 투영변환처리와 매핑으로써, 2차원 화면을 위한 영상데이터를 생성한다. 투영변환처리는, 평면으로 정의된 일정한 공간밖의 부분을 잘라내는 클리핑(clipping)(도 6c), 자세정보에 따른 시야를 기초로 보이지 않고 가려진 폴리곤을 제거하는 은면처리(Hidden Surface Removal)(도 6d)를 포함한다. 클리핑을 함으로써, 가상객체에 대한 폴리곤 중에서 카메라(401)의 시야각 밖에 존재하는 부분이 제거되고 화면 매핑(도 6e)을 통해 화면상에서의 좌표를 찾아내어 2차원 화면으로 바뀐다. When the light source process ends, the image data for the two-dimensional screen is generated by mapping and mapping with the projection conversion process. The projection conversion process includes clipping (FIG. 6C) for cutting out a portion outside a predetermined space defined by a plane, Hidden Surface Removal for removing a hidden polygon based on the view according to attitude information (FIG. 6D ). By clipping, the part of the polygons for the virtual object that is outside the viewing angle of the camera 401 is removed, and the coordinates on the screen are found through the screen mapping (FIG. 6E) and converted into a two-dimensional screen.

가상객체생성부(435)는 투영변환처리된 영상데이터를 소정의 래스터화(rasterization)와 랜더링(rendering) 처리를 함으로써, 가상영상데이터를 생성한다.The virtual object generation unit 435 performs predetermined rasterization and rendering processing on the image data subjected to the projection conversion processing to generate virtual image data.

가상객체생성부(435)에서 생성된 가상영상데이터는 배경없이 가상객체만을 포함할 수 있다. The virtual image data generated by the virtual object creation unit 435 may include only virtual objects without a background.

영상합성부(437)는 가상객체생성부(435)로부터 가상영상데이터를 수신하고, 카메라(401)로부터 실제영상데이터를 수신하고, 가상영상데이터와 실제영상데이터를 합성하여 최종 영상데이터를 생성한다. 영상합성부(437)는 생성된 최종 영상데 이터를 영상처리부(411)로 출력한다.The image synthesis unit 437 receives the virtual image data from the virtual object generation unit 435, receives the actual image data from the camera 401, and synthesizes the virtual image data and the actual image data to generate final image data . The image synthesis unit 437 outputs the generated final image data to the image processing unit 411. FIG.

이상의 실시 예에서는 실제 영상에 가상객체를 삽입하는 것을 전제로 설명하였으나, 본 발명이 반드시 이에 한정되지 아니한다. 다시 말해, 가상객체를 중심으로 하는 가상현실에 실제영상을 합성하여 표시할 수 있다. In the above embodiments, it is assumed that a virtual object is inserted into an actual image, but the present invention is not necessarily limited to this. In other words, an actual image can be synthesized and displayed on a virtual reality centered on a virtual object.

예를 들어, 가상객체 및 가상 배경화면에 의해 이루어지는 게임 속에 카메라를 통해 입수되는 실제 영상의 피사체가 합성되어 표시되는 것이다. 카메라(401)를 통해 입력되는 실제영상데이터에서 특정 피사체의 영상만을 크로마키(Chroma Key) 기술 등을 이용하여 추출하여 합성한다. For example, objects of actual images obtained through a camera in a game made up of a virtual object and a virtual background screen are synthesized and displayed. Only an image of a specific subject is extracted and synthesized from the actual image data input through the camera 401 using a chroma key technique or the like.

도 7은 본 발명의 일 실시 예에 따른 디지털 기기의 동작 설명에 제공되는 흐름도이다. 이하에서는 도 1 내지 도 7을 참조하여, 본 발명의 일 실시 예에 따른 디지털 기기(101)의 동작을 설명한다.7 is a flowchart illustrating an operation of a digital device according to an exemplary embodiment of the present invention. Hereinafter, the operation of the digital device 101 according to an embodiment of the present invention will be described with reference to FIGS. 1 to 7. FIG.

네트워크(103)를 통해 서버(105)에 연결된 디지털 기기(101)는 계산부(433)를 이용하여 자신의 위치정보 및 자세정보를 계산한다. 여기서 위치정보는 (a1,b1)라 하고, 자세정보는 (Pd, Rd, Yd)라 한다(S701).The digital device 101 connected to the server 105 via the network 103 calculates the position information and attitude information of the digital device 101 using the calculation unit 433. [ The location information is referred to, and the position information is referred to (P d, R d, Y d) (a1, b1) (S701).

디지털 기기(101)의 계산부(433)는 계산된 자신의 위치정보 및 자세정보와 함께 카메라 정보를 네트워크처리부(405)를 통해 서버(105)로 전송한다. 카메라 정보는 카메라제어부(431)가 생성한다(S703). The calculation unit 433 of the digital device 101 transmits the camera information together with the calculated position information and attitude information thereof to the server 105 through the network processing unit 405. [ The camera control unit 431 generates camera information (S703).

서버(105)는 디지털 기기(101)로부터 위치정보, 자세정보 및 카메라 정보를 수신하면, 디지털 기기(101)의 위치를 기준으로 벡터 V 방향의 일정 범위 즉, 카메라(401)의 절대좌표상 시야범위 내에 존재하는 가상객체의 객체정보를 추출하고(S705), 추출한 객체정보를 디지털 기기(101)로 전송한다(S707). When the server 105 receives the positional information, the attitude information, and the camera information from the digital device 101, the server 105 determines a certain range of the vector V direction, that is, the absolute coordinate position of the camera 401 Object information of the virtual object existing in the range is extracted (S705), and the extracted object information is transmitted to the digital device 101 (S707).

디지털 기기(101)의 계산부(433)는 서버(105)로부터 객체정보를 수신하여 가상객체생성부(435)로 전달하고, 가상객체생성부(435)는 객체정보에 포함된 가상객체의 위치정보 및 자세정보를 기초로, 현재 디지털 기기(101)의 시야각 내에 포함되는 가상객체의 영상인 가상영상데이터를 생성한다(S709).The calculation unit 433 of the digital device 101 receives the object information from the server 105 and transmits the object information to the virtual object generation unit 435. The virtual object generation unit 435 calculates the position of the virtual object Virtual image data that is the image of the virtual object included in the viewing angle of the digital device 101 is generated based on the information and attitude information (S709).

디지털 기기(101)의 가상객체생성부(435)는 생성한 가상영상데이터를 영상합성부(437)로 전달하고, 영상합성부(437)는 가상영상데이터와 카메라(401)로부터 수신한 실제영상데이터를 합성하여 최종영상데이터를 생성한다(S711).The virtual object generating unit 435 of the digital device 101 transmits the generated virtual image data to the image combining unit 437. The image combining unit 437 combines the virtual image data and the actual image The data is synthesized to generate final image data (S711).

디지털 기기(101)는 합성한 최종영상데이터를 표시부(413)를 통해 사용자에게 표시한다(S713). 이를 통해, 본 발명의 일 실시 예에 따른 디지털 기기(101)는 카메라(401)의 시야각 범위내에 존재하는 실제 현실속에 가상객체를 포함시켜 표시할 수 있다.The digital device 101 displays the synthesized final image data to the user through the display unit 413 (S713). Accordingly, the digital device 101 according to an embodiment of the present invention can display a virtual object in a real world existing within a range of a viewing angle of the camera 401.

도 7에는 도시되지 않았으나, 서버(105)는 가상객체의 위치정보 및 자세정보가 변경될 경우 해당 변경된 자세정보 및 위치정보를 디지털 기기(101)로 전송할 수 있다. 이에 따라, 디지털 기기(101)에 표시되는 가상객체는 변경된 자세정보에 따라 자세를 변경하거나, 변경된 위치정보에 따라 위치를 변경할 수 있다.Although not shown in FIG. 7, the server 105 may transmit the changed attitude information and the position information to the digital device 101 when the position information and the attitude information of the virtual object are changed. Accordingly, the virtual object displayed on the digital device 101 can change the attitude according to the changed attitude information or change the position according to the changed position information.

본 발명은 다양하게 응용될 수 있다. 예를 들어, 실제 공간상에 가상매체를 다수 등장시킴으로해서, 가상현실을 체험토록 할 수 있다. 이것은 통상의 가상체험과 달리, 실제공간을 기초로, 가상매체를 맵핑시킨다. The present invention can be applied in various ways. For example, it is possible to experience a virtual reality by introducing a plurality of virtual media on the actual space. This maps the virtual medium based on the actual space, unlike the normal virtual experience.

본 발명은 방법, 디바이스 및 시스템으로 구현될 수 있다. 또한 본 발명이 컴퓨터 소프트웨어로 구현될 때는, 본 발명의 구성요소는 필요한 동작의 수행에 필요한 코드 세그먼트(code segment)로 대치될 수 있다. 프로그램이나 코드 세그먼트는 마이크로프로세서에 의해 처리될 수 있는 매체에 저장될 수 있으며, 전송매체나 통신 네트워크를 통하여 운반 파형(carrier waves)와 결합된 컴퓨터 데이터로서 전송될 수 있다.The present invention may be implemented in methods, devices, and systems. Also, when the present invention is implemented in computer software, the elements of the present invention may be replaced with code segments necessary for performing the necessary operations. The program or code segment may be stored on a medium that can be processed by the microprocessor and transmitted as computer data combined with carrier waves via a transmission medium or a communication network.

마이크로프로세서에 의해 처리될 수 있는 매체는 전자회로, 반도체 메모리 소자, 롬(ROM), 플래시 메모리, EEPROM, 플로피 디스크, 광학적 디스크, 하드 디스크, 광섬유, 무선 네트워크 등과 같이 정보를 전달하고 저장할 수 있는 것을 포함한다. 또한, 컴퓨터 데이터는 전기적 네트워크 채널, 광섬유, 전자기장, 무선 네트워크 등을 통해 전송될 수 있는 데이터를 포함한다. The medium that can be processed by the microprocessor may be any electronic device capable of transferring and storing information such as electronic circuitry, semiconductor memory devices, ROMs, flash memories, EEPROMs, floppy disks, optical disks, hard disks, optical fibers, . Computer data also includes data that can be transmitted over an electrical network channel, an optical fiber, an electromagnetic field, a wireless network, or the like.

또한, 이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes and modifications may be made without departing from the spirit and scope of the present invention.

이상 설명한 바와 같이, 본 발명에 따른 디지털 기기는, 연결된 카메라의 시야 범위내에 존재하는 실제 피사체와 함께 해당 범위내의 실제 공간상에 맵핑된 가상매체를 동시에 하나의 영상으로 표시할 수 있다. As described above, the digital device according to the present invention can simultaneously display a virtual subject mapped within a visual range of a connected camera and a virtual medium mapped on an actual space within the corresponding range, as one image.

가상매체는 실제 공간상의 절대좌표에 맵핑되어 있음에 따라, 디지털 기기는 자신의 위치변경에 대응하여 가상매체의 종류와 자세를 변경하여 표시할 수 있다. Since the virtual medium is mapped to the absolute coordinates on the actual space, the digital device can display and change the type and attitude of the virtual medium in response to the change of its position.

또한, 디지털 기기는 위치의 변경이 없더라도 자신의 자세정보를 기초로, 표시되는 가상매체의 자세를 변경하면서 표시할 수 있어, 실제 공간상에 가상매체가 실현된 것처럼 표시할 수 있다.In addition, the digital device can display the virtual medium while changing the posture of the virtual medium to be displayed based on its own posture information without changing the position, and can display the virtual medium as if the virtual medium were realized in the actual space.

Claims (16)

삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 피사체에 대한 실제영상데이터를 생성하는 소정의 카메라에 연결된 디지털 기기가 실제영상에 가상매체를 표시하는 방법에 있어서,A method of displaying a virtual medium on a real image by a digital device connected to a predetermined camera for generating actual image data on a subject, 상기 카메라의 절대좌표인 위치정보 및 상기 절대좌표에서 상기 카메라가 향하는 방향에 대한 정보인 자세정보를 생성하는 단계;Generating position information, which is absolute coordinates of the camera, and attitude information, which is information on a direction of the camera in the absolute coordinates; 상기 위치정보 및 자세정보를 기초로, 상기 카메라의 절대좌표상 시야범위 내에 존재하는 것으로 기 설정된 적어도 하나의 가상 객체를 포함하는 가상영상데이터를 생성하는 단계; 및Generating virtual image data based on the positional information and the attitude information, the virtual image data including at least one virtual object preset to exist within a visual range on an absolute coordinate of the camera; And 상기 실제영상데이터에 상기 가상영상데이터를 합성한 최종영상데이터에 대응하는 영상을 표시하는 단계를 포함하고,And displaying an image corresponding to the final image data obtained by synthesizing the virtual image data with the actual image data, 상기 자세정보는 중력방향 및 자북방향 중 적어도 한 개 방향의 축을 포함하는 3개 축으로서 서로 직교하는 축 각각을 회전축으로 상기 카메라가 회전한 각도를 포함하여 구성되는 것을 특징으로 하는 실제영상에 가상매체를 표시하는 방법. Wherein the attitude information includes three axes including axes in at least one of a gravitational direction and a magnetic north direction, and an angle at which the camera rotates with axes orthogonal to each other, Lt; / RTI > 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 피사체에 대한 실제영상데이터를 생성하는 카메라;A camera for generating actual image data for a subject; 상기 카메라의 절대좌표인 위치정보 및 상기 절대좌표에서 상기 카메라가 향하는 방향에 대한 정보인 자세정보를 생성하는 센서부;A sensor unit for generating position information which is an absolute coordinate of the camera and attitude information which is information on a direction of the camera in the absolute coordinate; 소정의 영상신호를 수신하여 시각적으로 인식할 수 있도록 표시하는 표시부;A display unit for receiving a predetermined video signal and displaying the received video signal so as to be visually recognizable; 소정의 영상 데이터를 수신하여 상기 표시부에 표시하기 위한 상기 영상신호로 변환하여 출력하는 영상처리부; A video processor receiving predetermined video data and converting the video signal into a video signal for display on the display unit and outputting the video signal; 상기 위치정보 및 자세정보를 기초로, 상기 카메라의 절대좌표상 시야범위 내에 존재하는 것으로 기 설정된 적어도 하나의 가상 객체를 추출하는 계산부;A calculation unit for extracting at least one virtual object preset to exist within the visual range on the absolute coordinates of the camera based on the positional information and the attitude information; 상기 계산부가 추출한 적어도 하나의 가상객체를 포함하는 가상영상데이터를 생성하는 가상객체생성부; 및A virtual object generation unit for generating virtual image data including at least one virtual object extracted by the calculation unit; And 상기 실제영상데이터에 상기 가상영상데이터를 합성한 최종영상데이터를 생성하여 상기 영상처리부로 출력하는 영상합성부를 포함하고,And an image synthesis unit for generating final image data obtained by synthesizing the virtual image data with the actual image data and outputting the generated final image data to the image processing unit, 상기 센서부는 소정의 중력센서 및 자계센서 중 하나와 함께 적어도 하나의 회전센서를 포함하여, 중력방향 및 자북방향 중 적어도 한 개 방향의 축을 포함하는 3개 축으로서 서로 직교하는 축 각각을 회전축으로 상기 카메라가 회전한 각도를 계산함으로써 상기 자세정보를 생성하는 것을 특징으로 하는 실제영상에 가상매체를 표시할 수 있는 디지털 기기.Wherein the sensor unit includes at least one rotation sensor together with one of a predetermined gravity sensor and a magnetic field sensor, and is characterized in that each of three axes including axes in at least one of a gravity direction and a magnetic north direction, And generating the attitude information by calculating an angle of rotation of the camera. 피사체에 대한 실제영상데이터를 생성하는 카메라;A camera for generating actual image data for a subject; 상기 카메라의 절대좌표인 위치정보를 생성하고, 소정의 중력센서 및 자계센서 중 하나와 함께 적어도 하나의 회전센서를 포함하여 그 센싱값을 출력하는 센서부;A sensor unit for generating position information which is an absolute coordinate of the camera and including at least one rotation sensor together with one of a predetermined gravity sensor and a magnetic field sensor and outputting the sensed value; 소정의 영상신호를 수신하여 시각적으로 인식할 수 있도록 표시하는 표시부;A display unit for receiving a predetermined video signal and displaying the received video signal so as to be visually recognizable; 소정의 영상 데이터를 수신하여 상기 표시부에 표시하기 위한 상기 영상신호로 변환하여 출력하는 영상처리부; A video processor receiving predetermined video data and converting the video signal into a video signal for display on the display unit and outputting the video signal; 상기 위치정보 및 상기 센서부에서 센싱된 값을 이용하여 생성한 자세정보를 기초로 상기 카메라의 절대좌표상 시야범위 내에 존재하는 것으로 기 설정된 적어도 하나의 가상 객체를 추출하는 계산부;A calculation unit for extracting at least one virtual object set to be within the visual range on the absolute coordinate of the camera based on the positional information and the attitude information generated using the sensed value of the sensor unit; 상기 계산부가 추출한 적어도 하나의 가상객체를 포함하는 가상영상데이터를 생성하는 가상객체생성부; 및A virtual object generation unit for generating virtual image data including at least one virtual object extracted by the calculation unit; And 상기 실제영상데이터에 상기 가상영상데이터를 합성한 최종영상데이터를 생성하여 상기 영상처리부로 출력하는 영상합성부를 포함하고,And an image synthesis unit for generating final image data obtained by synthesizing the virtual image data with the actual image data and outputting the generated final image data to the image processing unit, 상기 계산부는 상기 센싱값을 기초로 중력방향 및 자북방향 중 적어도 한 개 방향의 축을 포함하는 3개 축으로서 서로 직교하는 축 각각을 회전축으로 상기 카메라가 회전한 각도를 계산함으로써 상기 자세정보를 생성하도록 구성되는 것을 특징으로 하는 실제영상에 가상매체를 표시할 수 있는 디지털 기기.The calculation unit calculates the angle of rotation of the camera with respect to each of the three axes including axes in at least one of the gravity direction and the north direction on the basis of the sensing value, And displaying the virtual image on the virtual image. 삭제delete
KR1020060017600A 2006-02-23 2006-02-23 Digital apparatus capable of displaying imaginary object on real image and method thereof KR100755187B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060017600A KR100755187B1 (en) 2006-02-23 2006-02-23 Digital apparatus capable of displaying imaginary object on real image and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060017600A KR100755187B1 (en) 2006-02-23 2006-02-23 Digital apparatus capable of displaying imaginary object on real image and method thereof

Publications (2)

Publication Number Publication Date
KR20070087317A KR20070087317A (en) 2007-08-28
KR100755187B1 true KR100755187B1 (en) 2007-09-03

Family

ID=38613359

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060017600A KR100755187B1 (en) 2006-02-23 2006-02-23 Digital apparatus capable of displaying imaginary object on real image and method thereof

Country Status (1)

Country Link
KR (1) KR100755187B1 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100945288B1 (en) * 2008-06-16 2010-03-03 경희대학교 산학협력단 Applying Extended ARG to Augmented Reality Based Single Media Multi-Services Method and the system
KR101363317B1 (en) * 2009-07-21 2014-02-14 에스케이플래닛 주식회사 Method for Providing Location Based Services by Using Information Of Direction, Server And Portable Terminal Therefor
KR101675160B1 (en) * 2009-12-23 2016-11-11 엘지이노텍 주식회사 Method and system providing information based on position
KR101652311B1 (en) * 2010-01-26 2016-08-30 광주과학기술원 System and method for storing information of vision image, and the recording media storing the program performing the said method
KR101132512B1 (en) * 2010-06-28 2012-04-02 삼성에스디에스 주식회사 System for generating 3D mobile augmented reality based on the user
KR101350033B1 (en) 2010-12-13 2014-01-14 주식회사 팬택 Terminal and method for providing augmented reality
KR101845231B1 (en) 2011-06-14 2018-04-04 삼성전자주식회사 Image processing apparatus and method
KR101932007B1 (en) * 2017-12-15 2019-03-15 네이버랩스 주식회사 Method and system for spatial messaging and content sharing

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980014722A (en) * 1996-08-16 1998-05-25 이명관 Position detecting device using GPS and control method thereof
KR200243789Y1 (en) 2001-01-27 2001-09-25 임승수 Millor formed displayer of the sight of one's back
JP2002095008A (en) * 2000-09-14 2002-03-29 Mixed Reality Systems Laboratory Inc Video processing equipment, its method and storage medium
JP2004227332A (en) * 2003-01-23 2004-08-12 Hitachi Ltd Information display method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980014722A (en) * 1996-08-16 1998-05-25 이명관 Position detecting device using GPS and control method thereof
JP2002095008A (en) * 2000-09-14 2002-03-29 Mixed Reality Systems Laboratory Inc Video processing equipment, its method and storage medium
KR200243789Y1 (en) 2001-01-27 2001-09-25 임승수 Millor formed displayer of the sight of one's back
JP2004227332A (en) * 2003-01-23 2004-08-12 Hitachi Ltd Information display method

Also Published As

Publication number Publication date
KR20070087317A (en) 2007-08-28

Similar Documents

Publication Publication Date Title
KR100755187B1 (en) Digital apparatus capable of displaying imaginary object on real image and method thereof
US11163997B2 (en) Methods and apparatus for venue based augmented reality
KR101285360B1 (en) Point of interest displaying apparatus and method for using augmented reality
EP3246660B1 (en) System and method for referencing a displaying device relative to a surveying instrument
KR101260576B1 (en) User Equipment and Method for providing AR service
US20140267234A1 (en) Generation and Sharing Coordinate System Between Users on Mobile
KR100941749B1 (en) Augmented reality apparatus and virtual image composition method
US20090245681A1 (en) Information processing method and information processing apparatus
JP2004062756A (en) Information-presenting device and information-processing method
JP2006105640A (en) Navigation system
JP2002259992A (en) Image processor and its method as well as program code and storage medium
JP2012068481A (en) Augmented reality expression system and method
WO2018113759A1 (en) Detection system and detection method based on positioning system and ar/mr
JP2005038321A (en) Head mount display device
JP5981371B2 (en) Information terminal, system, program, and method for controlling display of augmented reality by posture
JP2006252468A (en) Image processing method and image processing system
JP2016122277A (en) Content providing server, content display terminal, content providing system, content providing method, and content display program
JP2010231741A (en) Electronic tag generating and displaying system, electronic tag generating and displaying device, and method thereof
JP2007226580A (en) Image output device and image output method
KR101265554B1 (en) 3D advertising method and system
WO2022034638A1 (en) Mapping device, tracker, mapping method, and program
KR20120014976A (en) Augmented reality apparatus using position information
JP2005157610A (en) Image processor and image processing method
CN109032330B (en) AR system, AR device and method for establishing and seamlessly bridging reference states thereof
JP2011113127A (en) Object positioning device and object positioning method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
G170 Re-publication after modification of scope of protection [patent]
FPAY Annual fee payment

Payment date: 20120725

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20130719

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20150804

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160812

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170803

Year of fee payment: 11

J204 Request for invalidation trial [patent]