KR101665399B1 - Object generation apparatus and method of based augmented reality using actual measured - Google Patents

Object generation apparatus and method of based augmented reality using actual measured Download PDF

Info

Publication number
KR101665399B1
KR101665399B1 KR1020140181292A KR20140181292A KR101665399B1 KR 101665399 B1 KR101665399 B1 KR 101665399B1 KR 1020140181292 A KR1020140181292 A KR 1020140181292A KR 20140181292 A KR20140181292 A KR 20140181292A KR 101665399 B1 KR101665399 B1 KR 101665399B1
Authority
KR
South Korea
Prior art keywords
user
camera
unit
augmented reality
angle
Prior art date
Application number
KR1020140181292A
Other languages
Korean (ko)
Other versions
KR20160073025A (en
Inventor
이주성
홍종선
Original Assignee
이주성
홍종선
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이주성, 홍종선 filed Critical 이주성
Priority to KR1020140181292A priority Critical patent/KR101665399B1/en
Publication of KR20160073025A publication Critical patent/KR20160073025A/en
Application granted granted Critical
Publication of KR101665399B1 publication Critical patent/KR101665399B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Abstract

실측정보를 기반으로 실내 3D 도면 및 객체 정보를 증강현실로 구현할 수 있도록 한 실측을 통한 증강현실기반의 객체 생성장치 및 그 방법에 관한 것으로서, 실제 실내의 영상을 도면 프로그램을 이용하여 도면화하는 3D 변환부; 측정 대상물과의 거리를 측정하는 거리 측정부; 상기 측정 대상물의 촬영시 카메라의 각도를 측정하는 각도 측정부; 상기 3D 변환부에서 변환한 도면과 상기 거리 측정부에서 측정한 거리 값 및 상기 각도 측정부에서 측정한 각도 값을 매핑하여 저장부에 저장하고, 사용자가 특정 객체를 선택하면 상기 실측을 기본으로 설계된 3D도면상에 상기 선택한 특정 객체를 증강현실로 구현하는 제어부; 및 상기 제어부의 제어에 따라 카메라 뷰에 디스플레이되는 실내 도면의 해당 위치에 상기 특정 객체를 중첩하여 증강현실로 디스플레이해주는 표시부로 실측을 통한 증강현실기반의 객체 생성장치를 구현한다.The present invention relates to an apparatus and method for generating an augmented reality based on an actual measurement so that an indoor 3D drawing and object information can be implemented as an augmented reality based on actual information, A conversion unit; A distance measuring unit for measuring a distance to the object to be measured; An angle measurement unit for measuring an angle of the camera at the time of shooting the measurement object; A distance value measured by the distance measuring unit and an angle value measured by the angle measuring unit are mapped and stored in the storage unit. When the user selects a specific object, A controller for implementing the selected specific object as an augmented reality on a 3D drawing; And a display unit for superimposing the specific object at a corresponding position of the indoor drawing displayed in the camera view according to the control of the controller and displaying the object as an augmented reality.

Figure R1020140181292
Figure R1020140181292

Description

실측을 통한 증강현실기반의 객체 생성장치 및 그 방법{Object generation apparatus and method of based augmented reality using actual measured}[0001] The present invention relates to an apparatus and method for generating an augmented reality based on real-

본 발명은 실측을 통한 증강현실기반의 객체 생성장치 및 그 방법에 관한 것으로, 특히 실측정보를 기반으로 실내 3D 도면 및 객체 정보를 증강현실로 구현할 수 있도록 한 실측을 통한 증강현실기반의 객체 생성장치 및 그 방법에 관한 것이다.
The present invention relates to an apparatus and method for generating an augmented reality based on actual measurement, and more particularly, to an apparatus and method for generating an augmented reality based object through an actual measurement so that an indoor 3D drawing and object information can be implemented as an augmented reality And a method thereof.

증강현실(augmented reality)은 현실 세계에 컴퓨터 기술로 만든 가상물체 및 정보를 융합, 보완해 주는 기술을 의미한다. 현실 세계에 실시간으로 부가정보를 갖는 가상 세계를 더해 하나의 영상으로 보여주므로 혼합현실(MR: mixed reality)이라고도 한다. 1990년 보잉사의 항공기 전선 조립과정을 설명하는 데 처음 사용된 이후 미국과 일본을 중심으로 이에 대한 기술 연구개발이 진행되었다. 최근 2000년대 중반 이후 스마트폰의 등장 및 활성화됨에 따라 이 기술을 적용하면서 주목받기 시작했다.Augmented reality is a technology that fuses and replaces virtual objects and information made with computer technology in the real world. It is also referred to as mixed reality (MR) because a virtual world with additional information in real time is added to the real world and displayed as a single image. Since its first use in Boeing's assembly of aircraft wires in 1990, technology research and development has been conducted mainly in the United States and Japan. Since the introduction of smart phones in the mid-2000s, and the introduction of this technology, attention has begun to be drawn.

가상현실(VR: virtual reality) 기술은 컴퓨터 그래픽이 만든 가상환경에 사용자를 몰입하도록 함으로써 실제 환경을 볼 수 없는 데 비해, 증강현실 기술은 실제 환경에 가상의 객체를 혼합하여 사용자가 실제 환경에서 보다 실감나는 부가정보를 제공받을 수 있다. 예컨대, 길을 가다 스마트폰 카메라로 주변을 비추면 근처에 있는 상점의 위치 및 전화번호, 지도 등의 정보가 입체영상으로 표시되고, 하늘을 비추면 날씨정보가 나타나는 등 다양한 분야에 적용되고 있다.Virtual reality (VR) technology allows users to be immersed in a virtual environment created by computer graphics, so that a real environment can not be seen. In contrast, augmented reality technology mixes virtual objects in a real environment, Additional realistic information can be provided. For example, if you turn the street around with a smartphone camera, information such as the location of a nearby shop, phone number, and map is displayed as a stereoscopic image, and weather information is displayed when the sky is illuminated.

증강현실 기반으로 데이터를 제공해주는 종래기술이 하기의 <특허문헌 1> 대한민국 등록특허 등록번호 10-1360999호(2014.02.04. 등록), <특허문헌 2> 대한민국 공개특허 공개번호 10-2013-0137077호(2013.12. 16. 공개), <특허문헌 3> 대한민국 공개특허 공개번호 10-2014-0122302호(2014.10.20. 공개), <특허문헌 4> 대한민국 등록특허 등록번호 10-1380854호(2014.03.27. 등록),<특허문헌 5> 대한민국 공개특허 공개번호 10-2013-0025200호(2013.03.11. 공개) 및 <특허문헌 6> 대한민국 공개특허 공개번호 10-2013-0007142호(2013.01.18. 공개)에 개시된다.A conventional technique for providing data based on an augmented reality is disclosed in the following Patent Document 1: Korean Patent Registration No. 10-1360999 (Registered on April 4, 2014); Patent Document 2: Korean Patent Application Publication No. 10-2013-0137077 Patent Document 3: Korean Patent Laid-open Publication No. 10-2014-0122302 (published on Apr. 20, 2014); Patent Document 4: Korean Patent Registration No. 10-1380854 (Apr. 27. Registration), Patent Document 5, Korean Patent Laid-Open Publication No. 10-2013-0025200 (Published on March 31, 2013), and Patent Document 6 (Korean Patent Publication No. 10-2013-0007142) (2013.01.18. Lt; / RTI &gt;

<특허문헌 1>에 개시된 종래기술은 과학실험 등의 실험상황을 촬영한 영상에, 실험용 센서로부터 측정된 데이터를 증강현실로 오버래핑하여 실시간으로 제공한다.The prior art disclosed in Patent Document 1 provides data obtained by photographing an experimental situation such as a scientific experiment or the like, by overlapping data measured from an experimental sensor with an augmented reality and real time.

<특허문헌 2>에 개시된 종래기술은 아웃 도어 증강현실 서비스와 인도어 증강 현실 서비스가 서로 전환되는 시점에서 서비스 전환에 걸리는 시간 동안 전활 될 아웃 도어 또는 인도어의 정보를 표시함으로써, 보다 자연스러운 서비스 전환을 제공받을 수 있다.The prior art disclosed in Patent Document 2 displays information of an outdoor or indoor language to be operated for a period of time required for service switching at the time of switching between the outdoor augmented reality service and the indoor augmented reality service, thereby providing a more natural service transition Can receive.

<특허문헌 3>에 개시된 종래기술은 교량정보에 대한 가시적인 정보와 비가시적인 정보를 용이하게 획득할 수 있는 이동단말기를 이용한 증강현실 기반 교량 정보제공 및 사용성능 평가 시스템을 제공한다.The prior art disclosed in Patent Document 3 provides an augmented reality-based bridge information providing and utilization performance evaluation system using a mobile terminal that can easily acquire visible information and invisible information about bridge information.

<특허문헌 4>에 개시된 종래기술은 3차원 POI 및 가상객체를 표현하기 위한 프로그램 코드를 포함하는 HTML문서 및 3차원 브라우저 엔진을 이용한 웹 정보구조에 기반한 증가 현실 콘텐츠를 제공한다.The prior art disclosed in Patent Document 4 provides an HTML document including program code for representing a 3D POI and a virtual object, and an increased reality content based on a web information structure using a 3D browser engine.

<특허문헌 5>에 개시된 종래기술은 3차원 좌표값을 이용한 벡터 연산을 통해 실내 환경에서 흩어져 있는 각각의 사물별로 고도 정보를 부여한 증강 현실 정보를 제공한다.The conventional art disclosed in Patent Document 5 provides augmented reality information giving altitude information for each object scattered in an indoor environment through vector calculation using three-dimensional coordinate values.

<특허문헌 6>에 개시된 종래기술은 이동 단말의 카메라를 통한 실사 뷰(Live View)와 그 실사 뷰에 대응하는 3차원 가상 뷰(Virtual View)간의 정합을 이용하여 지상은 물론 지하 시설물에 대한 각종 정보를 증강현실 정보로 이동 단말의 사용자에게 제공해준다.
The prior art disclosed in Patent Document 6 utilizes matching between a live view through a camera of a mobile terminal and a three-dimensional virtual view corresponding to the live view, And provides the information to the user of the mobile terminal as the augmented reality information.

대한민국 등록특허 등록번호 10-1360999호(2014.02.04. 등록)Korea Registered Patent Registration No. 10-1360999 (Registered on April 4, 2014) 대한민국 공개특허 공개번호 10-2013-0137077호(2013.12. 16. 공개)Korean Patent Publication No. 10-2013-0137077 (Dec. 16, 2013) 대한민국 공개특허 공개번호 10-2014-0122302호(2014.10.20. 공개)Korean Patent Laid-Open Publication No. 10-2014-0122302 (published on October 20, 2014) 대한민국 등록특허 등록번호 10-1380854호(2014.03.27. 등록)Korea Registered Patent Registration No. 10-1380854 (Registered on March 27, 2014) 대한민국 공개특허 공개번호 10-2013-0025200호(2013.03.11. 공개)Korean Patent Publication No. 10-2013-0025200 (published on March 11, 2013) 대한민국 공개특허 공개번호 10-2013-0007142호(2013.01.18. 공개)Korean Patent Publication No. 10-2013-0007142 (published on January 18, 2013)

그러나 상기와 같은 종래기술들은 마커 기반의 증간현실 구현 기법으로서, 증강현실 구현의 성능은 뛰어나지만 해당 마커가 존재하는 특정 경우만 사용할 수 있는 단점이 있다.However, the conventional arts as described above have a disadvantage in that they can be used only in a specific case in which the marker is present although the performance of the augmented reality implementation is excellent as a marker based incremental reality realization technique.

따라서 본 발명은 상기와 같은 종래의 증강현실 기법에서 발생하는 제반 문제점을 해결하기 위해서 제안된 것으로서, 실측정보를 기반으로 실내 3D 도면 및 객체 정보를 증강현실로 구현할 수 있도록 한 실측을 통한 증강현실기반의 객체 생성장치 및 그 방법을 제공하는 데 그 목적이 있다.
Accordingly, the present invention has been proposed in order to solve all the problems occurring in the conventional augmented reality technique, and it is an object of the present invention to provide an augmented reality based on real 3D images and object information, And an object generating method and apparatus therefor.

상기한 바와 같은 목적을 달성하기 위하여, 본 발명에 따른 실측을 통한 증강현실기반의 객체 생성장치는 실내 영상을 도면 프로그램을 이용하여 도면화하는 3D 변환부; 측정 대상물과의 거리를 측정하는 거리 측정부; 상기 측정 대상물의 영상 획득시 각도를 측정하는 각도 측정부; 상기 3D 변환부에서 변환한 도면과 상기 거리 측정부에서 측정한 거리 값 및 상기 각도 측정부에서 측정한 각도 값을 매핑하여 저장부에 저장하고, 사용자가 특정 객체를 선택하면 상기 실측을 기본으로 설계된 3D도면상에 상기 선택한 특정 객체를 증강현실로 구현하는 제어부; 상기 제어부의 제어에 따라 카메라 뷰에 디스플레이되는 실내 도면의 해당 위치에 상기 특정 객체를 중첩하여 증강현실로 디스플레이해주는 표시부를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided an apparatus for generating an augmented reality based on a real world, comprising: a 3D converter for rendering an indoor image using a drawing program; A distance measuring unit for measuring a distance to the object to be measured; An angle measurement unit for measuring an angle when the image of the measurement object is acquired; A distance value measured by the distance measuring unit and an angle value measured by the angle measuring unit are mapped and stored in the storage unit. When the user selects a specific object, A controller for implementing the selected specific object as an augmented reality on a 3D drawing; And a display unit for superimposing the specific object at a corresponding position of the indoor drawing displayed in the camera view according to the control of the control unit and displaying the superimposed reality as an augmented reality.

상기에서 제어부는 저장부에 저장된 3D도면을 추출하는 3D도면 추출부; 상기 3D도면 상에서 사용자가 지정한 위치의 좌표값을 추출하는 지정위치 좌표값 추출부; 상기 지정된 위치에 대응하는 실제 위치의 거리와 각도를 검출하는 거리 및 각도 정보 검출부; 사용자의 위치를 검출하는 사용자 위치 산출부; 상기 산출한 사용자 위치를 기반으로 카메라의 해당 위치에 객체를 생성하는 객체 생성부를 포함하는 것을 특징으로 한다.The control unit may include a 3D drawing extracting unit for extracting a 3D drawing stored in the storage unit; A designated position coordinate value extracting unit for extracting a coordinate value of a position designated by the user on the 3D drawing; A distance and angle information detector for detecting a distance and an angle of an actual position corresponding to the designated position; A user position calculation unit for detecting a position of the user; And an object generating unit for generating an object at a corresponding position of the camera based on the calculated user position.

상기에서 제어부는 상기 사용자 위치 산출부에서 산출한 사용자 위치에 대응하여 3D 도면의 좌표를 재조정하여 카메라 뷰의 이동에 반응하는 3D도면 좌표 조정부; 사용자의 조작 정보를 입력받는 정보 입력모듈을 더 포함하는 것을 특징으로 한다.The control unit may include a 3D drawing coordinate adjusting unit for re-adjusting the coordinates of the 3D drawing corresponding to the user position calculated by the user position calculating unit and responding to movement of the camera view; And an information input module for receiving operation information of the user.

상기에서 사용자 위치 산출부는 사용자가 지정한 3D 도면의 좌표값과 사용자가 지정한 3D 도면에 대응하는 실제 위치의 좌표값을 삼각함수로 처리하여 3D 도면의 제작시 원점좌표 기준으로 현재 사용자 위치를 산출하는 것을 특징으로 한다.
The user position calculation unit calculates the current user position on the basis of the origin coordinates when the 3D drawing is produced by processing the coordinate values of the 3D drawing designated by the user and the coordinate values of the actual positions corresponding to the 3D drawing specified by the user with a trigonometric function .

또한, 상기한 바와 같은 목적을 달성하기 위하여, 본 발명에 따른 실측을 통한 증강현실기반의 객체 생성방법은 (a) 실내 영상을 도면 프로그램을 이용하여 3D 도면화하여 저장하는 단계; (b) 상기 저장한 3D 도면에서 사용자가 지정한 위치의 좌표값을 추출하는 단계; (c) 상기 지정한 위치에 대응하는 실제 실내 위치의 거리와 각도를 산출하는 단계; (d) 현재 사용자의 위치를 산출하는 단계; (e) 카메라 뷰에 3D 뷰를 출력하고, 카메라의 해당 위치에 객체를 생성하여 증강현실을 구현하는 단계를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a method of creating an augmented reality-based object through actual measurement, the method comprising: (a) rendering a 3D image of a room image using a drawing program; (b) extracting a coordinate value of a position designated by the user in the 3D drawing; (c) calculating a distance and an angle of an actual indoor position corresponding to the designated position; (d) calculating a position of the current user; (e) outputting a 3D view to the camera view, and creating an object at a corresponding position of the camera, thereby realizing an augmented reality.

상기에서 (d)단계는 사용자가 지정한 3D 도면의 좌표값과 사용자가 지정한 3D 도면에 대응하는 실제 위치의 좌표값을 삼각함수로 처리하여 3D 도면의 제작시 원점 좌표 기준으로 현재 사용자 위치를 산출하는 것을 특징으로 한다.In the step (d), the coordinate values of the 3D drawing designated by the user and the coordinate values of the actual positions corresponding to the 3D drawings designated by the user are processed by trigonometric functions to calculate the current user position on the basis of the origin coordinates upon production of the 3D drawing .

또한, 본 발명에 따른 실측을 통한 증강현실 기반의 객체 생성방법은 (f) 상기 (d)단계와 상기 (e)단계의 사이에 개재되고, 상기 (d)단계에서 산출한 사용자 위치에 따른 이동 벡터를 산출하고, 산출한 이동 벡터를 이용하여 3D 도면의 좌표를 조정하여 카메라 뷰의 이동에 반응하는 단계를 더 포함하는 것을 특징으로 한다.The method of generating an augmented reality-based object through actual measurement according to the present invention further comprises the steps of: (f) intervening between the step (d) and the step (e) Calculating a vector and adjusting the coordinates of the 3D drawing using the calculated motion vector to respond to movement of the camera view.

상기에서 (e)단계는 (e1)사용자가 선택한 객체를 배치할 실제 실내의 지점까지의 거리와 각도를 계산하는 단계;(e2)현재 위치를 기준으로 객체 배치 좌표를 산출하는 단계; (e3)객체 배치 좌표를 기초로 카메라의 해당 위치를 산출하고, 산출한 카메라의 해당 위치에 증강현실로 객체를 생성하는 단계를 포함하는 것을 특징으로 한다.
(E1) calculating a distance and an angle to a point in the actual room where the user selects the object, (e2) calculating an object placement coordinate based on the current position, (e3) calculating a corresponding position of the camera on the basis of the object arrangement coordinates, and creating an object as an augmented reality at the calculated position of the camera.

본 발명에 따르면 실측정보를 기반으로 실내 3D 도면 및 객체 정보를 증강현실로 구현함으로써, 더욱 현실감 있는 증강현실 구현이 가능하며, 증강현실의 객체 생성 위치도 지정해줄 수 있으며, 객체의 배치시 실측 3D 도면 정보가 없어도 객체 배치를 배치할 수 있는 장점이 있다.
According to the present invention, it is possible to realize more realistic augmented reality by designating indoor 3D drawings and object information as augmented reality on the basis of actual information, designate an object creation position of augmented reality, There is an advantage in that object arrangement can be arranged without drawing information.

도 1은 본 발명의 바람직한 실시 예에 따른 실측을 통한 증강현실기반의 객체 생성장치의 블록 구성도,
도 2는 도 1의 제어부의 실시 예 구성도,
도 3은 본 발명에서 사용자 위치를 검출하는 방법을 설명하기 위한 설명도,
도 4는 본 발명의 바람직한 실시 예에 따른 실측을 통한 증강현실기반의 객체 생성방법을 보인 흐름도.
FIG. 1 is a block diagram of an augmented reality-based object generation apparatus through actual measurement according to a preferred embodiment of the present invention;
FIG. 2 is a block diagram of an embodiment of the control unit of FIG. 1;
3 is an explanatory diagram for explaining a method of detecting a user position in the present invention,
4 is a flowchart illustrating a method of creating an augmented reality-based object through actual measurement according to a preferred embodiment of the present invention.

이하 본 발명의 바람직한 실시 예에 따른 실측을 통한 증강현실기반의 객체 생성장치 및 그 방법을 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, an apparatus and method for generating an augmented reality based on actual measurement according to a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 바람직한 실시 예에 따른 실측을 통한 증강현실기반의 객체 생성장치의 구성도이다.FIG. 1 is a configuration diagram of an augmented reality-based object generating apparatus through actual measurement according to a preferred embodiment of the present invention.

본 발명에 따른 실측을 통한 증강현실기반의 객체 생성장치는 카메라(101), 영상 처리부(102), 3D 변환부(103), 거리 측정부(104), 각도 측정부(105), 제어부(106), 저장부(107), 표시부(108), 입력부(109), 레이저 포인터(110), 프레임 형성부(111)를 포함한다.An augmented reality-based object generation apparatus according to the present invention includes a camera 101, an image processing unit 102, a 3D conversion unit 103, a distance measurement unit 104, an angle measurement unit 105, a control unit 106 A storage unit 107, a display unit 108, an input unit 109, a laser pointer 110, and a frame forming unit 111.

상기 카메라(101)는 객체를 생성하여 증강현실을 구현하기 위한 실제 실내 또는 조선, 플랜트, 자동차, 미디어, 게임 등의 영상을 획득하는 역할을 하며, 영상 처리부(102)는 상기 카메라(101)에서 획득된 영상을 통상의 영상 처리 기법을 이용하여 처리하는 역할을 한다. 여기서 증강현실을 구현하기 위한 대상은 상기와 같이 실내, 조선, 플랜트, 자동차, 미디어, 게임 등 다양하며, 증강현실을 구현하는 방식은 모두 동일하므로, 이하 설명의 편의를 실내에 대해서만 설명하기로 한다.The camera 101 plays a role of acquiring an image of a room or a ship, a plant, an automobile, a media, a game, etc. for realizing an augmented reality, and the image processing unit 102 And processes the acquired image using a normal image processing technique. Here, the objects for realizing the augmented reality are various such as indoor, shipbuilding, plant, automobile, media, game and the like, and the methods for implementing the augmented reality are all the same as described above. .

여기서 카메라(101)는 3D 영상을 획득할 수 있도록 복수의 카메라를 이용하거나 파노라마 카메라를 이용할 수 있다.Here, the camera 101 may use a plurality of cameras or a panoramic camera so as to acquire 3D images.

상기 거리 측정부(104)는 측정 대상물과의 거리를 측정하는 역할을 하는 것으로서, 적외선센서 또는 초음파센서 등을 이용할 수 있다. 거리 측정을 위해 측정 대상물에 적외선 또는 초음파를 발사하고 반사되는 신호를 처리하여 거리를 측정한다.The distance measuring unit 104 measures the distance to the object to be measured, and an infrared sensor, an ultrasonic sensor, or the like can be used. To measure the distance, infrared or ultrasonic waves are emitted to the measurement object and the reflected signal is processed to measure the distance.

상기 프레임 형성부(111)는 상기 거리 측정부(104)에 의해 측정되는 거리를 위치 정보로 이용하여, 다수의 위치 정보를 연결하여 면을 형성하고 형성한 면 정보를 기반으로 실제 실내와 동일한 실내 프레임을 형성하는 역할을 한다.The frame forming unit 111 forms a surface by connecting a plurality of pieces of positional information using the distance measured by the distance measuring unit 104 as positional information, and based on the formed surface information, And forms a frame.

상기 3D 변환부(103)는 상기 영상 처리부(102)에 의해 처리된 실제 실내 영상 또는 상기 프레임 형성부(110)에서 형성된 실내 프레임 영상을 도면 프로그램을 이용하여 도면화하는 역할을 한다.The 3D conversion unit 103 serves to render an actual indoor image processed by the image processing unit 102 or an indoor frame image formed by the frame forming unit 110 using a drawing program.

상기 각도 측정부(105)는 상기 측정 대상물의 촬영시 카메라(101)(예를 들어, 스마트폰의 촬영 각도)의 각도를 측정하는 역할을 하는 것으로서, 통상의 스마트폰에 장착된 지자기 센서, 자이로센서, 가속도 센서 등을 이용하여 구현할 수 있다.The angle measuring unit 105 measures the angle of the camera 101 (for example, a photographing angle of a smartphone) at the time of photographing the measurement object. The angle measuring unit 105 may be a geomagnetic sensor, a gyro sensor Sensor, an acceleration sensor, or the like.

상기 저장부(107)는 실내를 측정하여 생성한 3D 도면과 실내 위치의 거리 및 각도 정보를 저장하는 역할을 하며, 상기 표시부(108)는 상기 제어부(106)의 제어에 따라 카메라 뷰에 디스플레이되는 실내 도면의 해당 위치에 상기 특정 객체를 중첩하여 증강현실로 디스플레이해주는 역할을 하며, 입력부(109)는 사용자가 조작하는 조작 정보를 입력받아 상기 제어부(106)에 전달해주는 역할을 한다.The storage unit 107 stores the distance and angle information between the 3D drawing and the indoor position generated by measuring the room, and the display unit 108 is displayed on the camera view under the control of the controller 106 The input unit 109 plays the role of receiving the operation information operated by the user and delivering it to the control unit 106. The control unit 106 receives the operation information,

상기 제어부(106)는 상기 3D 변환부(103)에서 변환한 도면과 상기 거리 측정부(104)에서 측정한 거리 값 및 상기 각도 측정부(105)에서 측정한 각도 값을 매핑하여 저장부(107)에 저장하고, 사용자가 특정 객체를 선택하면 상기 실측을 기본으로 설계된 3D도면상에 상기 선택한 특정 객체를 증강현실로 구현해주는 역할을 한다.The control unit 106 maps the distance value measured by the distance measurement unit 104 and the angle value measured by the angle measurement unit 105 with the drawing converted by the 3D conversion unit 103 and outputs the distance value to the storage unit 107 And when the user selects a specific object, the selected specific object is implemented as an augmented reality on a 3D drawing designed based on the actual measurement.

이러한 제어부(106)는 도 2에 도시한 바와 같이, 저장부에 저장된 3D도면을 추출하는 3D도면 추출부(111); 상기 3D도면상에서 사용자가 지정한 위치의 좌표값을 추출하는 지정위치 좌표값 추출부(112); 상기 지정된 위치에 대응하는 실제 위치의 거리와 각도를 검출하는 거리 및 각도 정보 검출부(113); 사용자의 위치를 검출하는 사용자 위치 산출부(114); 상기 검출한 사용자 위치를 기반으로 카메라의 해당 위치에 객체를 생성하는 객체 생성부(116); 상기 사용자 위치 산출부(114)에서 산출한 사용자 위치에 대응하여 3D 도면의 좌표를 재조정하여 카메라 뷰의 이동에 반응하는 3D도면 좌표 조정부(115); 및 사용자의 조작 정보를 입력받는 정보 입력모듈(117)을 포함한다.2, the control unit 106 includes a 3D drawing extraction unit 111 for extracting a 3D drawing stored in a storage unit; A designated position coordinate value extraction unit (112) for extracting a coordinate value of a position designated by the user on the 3D drawing; A distance and angle information detecting unit (113) for detecting a distance and an angle of an actual position corresponding to the designated position; A user position calculation unit 114 for detecting the position of the user; An object creating unit (116) for creating an object at a corresponding position of the camera based on the detected user position; A 3D drawing coordinate adjusting unit 115 for re-adjusting the coordinates of the 3D drawing corresponding to the user position calculated by the user position calculating unit 114 and responding to the movement of the camera view; And an information input module 117 for inputting operation information of the user.

상기 사용자 위치 산출부(114)는 사용자가 지정한 3D 도면의 좌표값과 사용자가 지정한 3D 도면에 대응하는 실제 위치의 좌표값을 삼각함수로 처리하여 3D 도면의 제작시 원점 좌표기준으로 현재 사용자 위치를 산출하는 것이 바람직하다.The user position calculation unit 114 processes the coordinate values of the 3D drawing designated by the user and the coordinate values of the actual positions corresponding to the 3D drawing designated by the user with the trigonometric function to determine the current user position .

이와 같이 구성된 본 발명의 바람직한 실시 예에 따른 실측을 통한 증강현실기반의 객체 생성장치를 구체적으로 설명하면 다음과 같다.The augmented reality-based object generation apparatus through actual measurement according to the preferred embodiment of the present invention will be described in detail as follows.

먼저, 증강현실 기반으로 객체를 생성하기 위해서, 카메라(101)를 통해 증강현실을 구현하기 위한 실제 실내를 촬영하여 실내 영상을 획득하거나 프레임 형성부(110)를 통해 실제 실내에 대응하여 실내 프레임 영상을 형성한다. 카메라(101)를 이용할 경우 복수의 카메라를 이용하거나 파노라마 카메라를 이용하는 것이 바람직하다. 프레임 형성부(110)는 거리 측정부(104)와 연동하여 측정되는 측정 대상물(실내 벽면)에 대하여 다수의 거리 값(위치 좌표)을 획득하고, 획득되는 다수의 위치 좌표를 선으로 연결하여 면을 형성한다. 이후 각각의 면들을 프레임으로 조합하여 실제 실내와 동일한 실내의 프레임을 형성한다. 여기서 프레임이란 실제 실내의 벽면 구조를 위치 좌표를 통해 형성한 벽면 구조를 의미한다.First, in order to create an object based on an augmented reality, an actual room for implementing an augmented reality is photographed through a camera 101 to acquire an indoor image, or an indoor frame image corresponding to an actual room is acquired through a frame forming unit 110 . When the camera 101 is used, it is preferable to use a plurality of cameras or a panoramic camera. The frame forming unit 110 obtains a plurality of distance values (position coordinates) with respect to the measurement object (indoor wall surface) measured in conjunction with the distance measuring unit 104, . Then, each of the surfaces is combined into a frame to form a room in the same room as the actual room. Here, the frame means a wall surface structure formed by the position coordinate of the wall structure of the actual room.

영상 처리부(102)는 상기 카메라(101)에서 획득한 실내 영상을 통상의 영상 처리 기법을 이용하여 영상 처리한다.The image processing unit 102 processes the indoor image acquired by the camera 101 using a normal image processing technique.

다음으로, 3D 변환부(103)는 상기 영상 처리부(102)에 의해 처리된 실제 실내 영상 또는 상기 프레임 형성부(110)에서 형성한 프레임을 도면 프로그램(캐드 프로그램)을 이용하여 3D로 도면화한다. 여기서 촬영된 실내 영상을 2D로 도면화하여 사용할 수도 있다.Next, the 3D conversion unit 103 shapes the actual indoor image processed by the image processing unit 102 or the frame formed by the frame formation unit 110 in 3D using a drawing program (CAD program) . The indoor image photographed here may be used as 2D drawings.

여기서 거리 측정부(104)는 적외선센서 또는 초음파센서 또는 레이저 포인터를 이용한 거리 측정방식 등을 이용하여 측정 대상물(실내의 특정 위치)의 거리를 측정한다. 아울러 각도 측정부(105)는 통상의 스마트폰에 장착된 지자기 센서, 자이로센서, 가속도 센서 등을 이용하여 상기 측정 대상물의 영상 획득시 카메라(101)(예를 들어, 스마트폰의 촬영 각도)의 각도를 측정한다.Here, the distance measuring unit 104 measures a distance of a measurement object (a specific position in a room) using an infrared sensor, a distance measuring method using an ultrasonic sensor or a laser pointer, or the like. In addition, the angle measuring unit 105 may measure the angle of the camera 101 (e.g., a photographing angle of the smartphone) at the time of capturing the image of the measurement object by using a geomagnetism sensor, a gyro sensor, Measure the angle.

상기 제어부(103)는 상기 3D변환부(103)를 통해 생성되는 3D 도면 정보에 상기 거리 측정 정보 및 각도 측정 정보를 매핑하여, 저장부(107)에 저장한다.The control unit 103 maps the distance measurement information and the angle measurement information to the 3D drawing information generated through the 3D conversion unit 103 and stores the distance measurement information and the angle measurement information in the storage unit 107.

이후, 사용자가 스마트폰의 카메라를 통해 특정 객체를 선택하면, 즉, 스마트폰으로 특정 객체(예를 들어, 실내에 배치할 가구, 조선, 플랜트, 자동차, 미디어, 게임, 기타)를 촬영하면, 특정 객체와 카메라의 거리 정보, 카메라의 촬영 각도 정보 등을 산출하여 저장한다.Then, when a user selects a specific object through the camera of the smartphone, that is, a specific object (for example, furniture, shipbuilding, plant, automobile, media, game, The distance information of the specific object and the camera, and the photographing angle information of the camera are calculated and stored.

다음으로, 사용자가 저장부(1070에 저장된 실제 실내에 대한 3D 도면을 선택하면 3D 도면 추출부(111)에서 저장부(107)에 저장된 3D 도면을 추출하여 화면에 디스플레이해준다, 화면상에 실제 실내에 대한 3D 도면이 디스플레이된 상태에서 사용자가 특정 위치를 지정하면, 지정위치 좌표값 추출부(112)에서 지정위치에 대한 좌표값을 추출한다. 여기서 좌표값 추출은 실내 촬영 영상을 3D 도면으로 제작할 때 각 위치에 대한 좌표값이 함께 생성되어 저장되므로, 사용자가 위치를 지정하는 순간 신속하게 해당 지정 위치에 대한 좌표값을 추출할 수 있다.Next, when the user selects a 3D drawing for the actual room stored in the storage unit 1070, the 3D drawing extraction unit 111 extracts the 3D drawing stored in the storage unit 107 and displays it on the screen. When the user designates a specific position in the state that the 3D drawing is displayed, the coordinate value for the designated position is extracted by the designated position coordinate value extraction unit 112. Here, Coordinate values for each position are generated together and stored. Therefore, the coordinate value for the designated position can be quickly extracted as soon as the user designates the position.

이후, 거리 및 각도 정보 검출부(113)에서 지정된 3D면에 대응하는 실제 위치의 거리와 각도를 산출한다. 예컨대, 실제 실내에서 카메라를 통해 촬영할 때 카메라와 실제 실내의 특정 위치 간의 거리 정보 및 카메라의 촬영 각도 등을 산출하게 된다.Then, the distance and the angle of the actual position corresponding to the 3D plane specified by the distance and angle information detecting unit 113 are calculated. For example, when photographing through a camera in a room, distance information between a camera and a specific position in a room and a photographing angle of the camera are calculated.

다음으로, 사용자 위치 산출부(114)는 상기 산출한 각각의 정보를 기초로 사용자의 위치를 검출한다. 예컨대, 상기 사용자 위치 산출부(114)는 사용자가 지정한 3D 도면의 좌표값과 사용자가 지정한 3D 도면에 대응하는 실제 위치의 좌표값을 도 3과 같은 삼각함수로 처리하여 3D 도면의 제작시 원점 좌표기준으로 현재 사용자 위치를 산출한다.Next, the user position calculation unit 114 detects the position of the user based on the calculated information. For example, the user position calculation unit 114 processes the coordinate values of the 3D drawing designated by the user and the coordinate values of the actual positions corresponding to the 3D drawing specified by the user with the trigonometric function as shown in FIG. 3, The current user position is calculated based on the reference.

이후, 3D도면 좌표 조정부(115)에서 상기 사용자 위치 산출부(114)에서 산출한 사용자 위치에 대응하여 3D 도면의 좌표를 재조정하여 카메라 뷰의 이동에 반응하도록 한다. 예컨대, 스마트폰의 지자기 센서, 자이로센서, 가속도 센서 등을 이용하여 사용자의 각도와 움직임에 반응하여 이동 벡터를 구하고, 이렇게 산출한 이동 벡터를 기준으로 3D 도면의 각 좌표값을 재조정하여 객체를 배치할 좌표를 산출한다. 즉, 증강현실로 생성할 객체의 생성 위치를 지정하게 된다.Then, the 3D drawing coordinates adjusting unit 115 adjusts the coordinates of the 3D drawing according to the user position calculated by the user position calculating unit 114 so as to respond to the movement of the camera view. For example, motion vectors are obtained in response to the angle and motion of a user using a geomagnetic sensor, a gyro sensor, and an acceleration sensor of a smartphone, and the coordinate values of the 3D drawing are readjusted based on the motion vector thus calculated, The coordinates to be calculated are calculated. That is, the generation position of the object to be generated as the augmented reality is designated.

다음으로, 객체 생성부(116)에서 상기 검출한 사용자 위치를 기반으로 카메라의 해당 위치에 객체를 생성시켜, 증강현실로 객체를 구현하게 된다.Next, the object generating unit 116 generates an object at a corresponding position of the camera based on the detected user position, and implements the object as an augmented reality.

도 4는 본 발명의 바람직한 실시 예에 따른 실측을 통한 증강현실기반의 객체 생성방법을 보인 흐름도로서, S는 단계(step)를 나타낸다.FIG. 4 is a flowchart illustrating a method of generating an augmented reality-based object through actual measurement according to a preferred embodiment of the present invention, wherein S represents a step.

본 발명에 따른 실측을 통한 증강현실기반의 객체 생성방법은 (a) 증강현실을 구현하기 위해 획득된 영상을 도면 프로그램을 이용하여 3D 도면화하여 저장하는 단계(S101 ~ S103); (b) 상기 저장한 3D 도면에서 사용자가 지정한 위치의 좌표값을 추출하는 단계(S104 ~ S105); (c) 상기 지정한 위치에 대응하는 실제 실내 위치의 거리와 각도를 산출하는 단계(S106); (d) 현재 사용자의 위치를 산출하는 단계(S107); (e) 상기 (d)단계에서 산출한 사용자 위치에 따른 이동 벡터를 산출하고, 산출한 이동 벡터를 이용하여 3D 도면의 좌표를 조정하여 카메라 뷰의 이동에 반응하는 단계(S108 ~ S109); (f) 카메라 뷰에 3D 뷰를 출력하고, 카메라의 해당 위치에 객체를 생성하여 증강현실을 구현하는 단계(S110 ~ S113)를 포함한다.The method for creating an augmented reality-based object through actual measurement according to the present invention includes the steps of: (a) creating 3D views of an image obtained for implementing an augmented reality using a drawing program (S101 to S103); (b) extracting a coordinate value of a position designated by the user in the stored 3D drawing (S104 to S105); (c) calculating a distance and an angle of an actual indoor position corresponding to the designated position (S106); (d) calculating the position of the current user (S107); (e) calculating a motion vector according to the user position calculated in the step (d), and adjusting the coordinates of the 3D drawing using the calculated motion vector to react to movement of the camera view (steps S108 to S109); (f) outputting a 3D view to the camera view and creating an object at a corresponding position of the camera to implement an augmented reality (S110 to S113).

상기 (d)단계(S107)는 사용자가 지정한 3D 도면의 좌표값과 사용자가 지정한 3D 도면에 대응하는 실제 위치의 좌표값을 삼각함수로 처리하여 3D 도면의 제작시 원점 좌표 기준으로 현재 사용자 위치를 산출하는 것이 바람직하다.The step (d) S107 processes the coordinate value of the 3D drawing designated by the user and the coordinate value of the actual position corresponding to the 3D drawing designated by the user using the trigonometric function to generate the current user position .

상기 (e)단계는 (e1)사용자가 선택한 객체를 배치할 실제 실내의 지점까지의 거리와 각도를 계산하는 단계(S111); (e2)현재 위치를 기준으로 객체 배치 좌표를 산출하는 단계(S112); (e3)객체 배치 좌표를 기초로 카메라의 해당 위치를 산출하고, 산출한 카메라의 해당 위치에 증강현실로 객체를 생성하는 단계(S113)를 포함한다.The step (e) includes the steps of: (e1) calculating a distance and an angle to a point in the actual room in which the object selected by the user is to be arranged (S111); (e2) calculating object placement coordinates based on the current position (S112); (e3) calculating a corresponding position of the camera based on the object arrangement coordinates, and creating an object as an augmented reality at the corresponding position of the camera (S113).

이와 같이 구성된 본 발명의 바람직한 실시 예에 따른 실측을 통한 증강현실기반의 객체 생성방법을 구체적으로 설명하면 다음과 같다.A method for generating an augmented reality based object through actual measurement according to a preferred embodiment of the present invention will be described in detail as follows.

먼저, 단계 S101에서 증강현실 기반으로 객체를 생성하기 위해서, 카메라(101)를 통해 증강현실을 구현하기 위한 실제 실내를 촬영하여 실내 영상을 획득하거나 프레임 형성부(110)를 통해 실제 실내에 대응하여 실내 프레임 영상을 형성한다. 카메라(101)를 이용할 경우 복수의 카메라를 이용하거나 파노라마 카메라를 이용하는 것이 바람직하다. 프레임 형성부(110)는 거리 측정부(104)와 연동하여 측정되는 측정 대상물(실내 벽면)에 대하여 다수의 거리 값(위치 좌표)을 획득하고, 획득되는 다수의 위치 좌표를 선으로 연결하여 면을 형성한다. 이후 각각의 면들을 프레임으로 조합하여 실제 실내와 동일한 실내의 프레임을 형성한다. 여기서 프레임이란 실제 실내의 벽면 구조를 위치 좌표를 통해 형성한 벽면 구조를 의미한다.First, in step S101, in order to create an object based on an augmented reality, an actual room for implementing an augmented reality is photographed through a camera 101 to acquire an indoor image or correspond to an actual room through a frame forming unit 110 Thereby forming an indoor frame image. When the camera 101 is used, it is preferable to use a plurality of cameras or a panoramic camera. The frame forming unit 110 obtains a plurality of distance values (position coordinates) with respect to the measurement object (indoor wall surface) measured in conjunction with the distance measuring unit 104, . Then, each of the surfaces is combined into a frame to form a room in the same room as the actual room. Here, the frame means a wall surface structure formed by the position coordinate of the wall structure of the actual room.

단계 S102에서 영상 처리부(102)는 획득된 영상을 통상의 영상 처리 기법을 이용하여 영상 처리한다. 이후, 3D 변환부(103)는 상기 영상 처리부(102)에 의해 처리된 실제 실내 영상을 도면 프로그램(캐드 프로그램)을 이용하여 3D로 도면화한다. 여기서 촬영된 실내 영상을 2D로 도면화하여 사용할 수도 있다. 이때, 거리 측정부(104)는 적외선센서 또는 초음파센서 또는 레이저 포인터를 이용한 거리 측정방식 등을 이용하여 측정 대상물(실내의 특정 위치)의 거리를 측정하여 제어부(106)에 전달한다. 아울러 각도 측정부(105)는 통상의 스마트폰에 장착된 지자기 센서, 자이로센서, 가속도 센서 등을 이용하여 상기 측정 대상물의 촬영시 카메라(101)(예를 들어, 스마트폰의 촬영 각도)의 각도를 측정한다. In step S102, the image processing unit 102 performs image processing on the obtained image using a normal image processing technique. Then, the 3D conversion unit 103 shapes the actual indoor image processed by the image processing unit 102 in 3D using a drawing program (CAD program). The indoor image photographed here may be used as 2D drawings. At this time, the distance measuring unit 104 measures the distance of a measurement object (a specific position in the room) using an infrared sensor, an ultrasonic sensor, or a distance measuring method using a laser pointer, and transmits the distance to the controller 106. In addition, the angle measuring unit 105 measures the angle of the camera 101 (for example, a photographing angle of the smartphone) at the time of photographing the measurement object by using a geomagnetism sensor, a gyro sensor, an acceleration sensor, .

상기 제어부(103)는 단계 S103에서 상기 3D변환부(103)를 통해 생성되는 3D 도면 정보에 상기 거리 측정 정보 및 각도 측정 정보를 매핑하여, 저장부(107)에 저장한다.In step S103, the control unit 103 maps the distance measurement information and the angle measurement information to the 3D drawing information generated through the 3D conversion unit 103, and stores the mapping information in the storage unit 107. [

이후, 사용자가 스마트폰의 카메라를 통해 특정 객체를 선택하면, 즉, 스마트폰으로 특정 객체(예를 들어, 실내에 배치할 가구)를 촬영하면, 특정 객체와 카메라의 거리 정보, 카메라의 촬영 각도 정보 등을 산출하여 저장한다.Thereafter, when a user selects a specific object through the camera of the smartphone, that is, when a specific object (e.g. furniture to be placed in the room) is photographed with the smartphone, the distance information of the specific object and the camera, Information and the like are calculated and stored.

다음으로, 사용자가 저장부(107)에 저장된 실제 실내에 대한 3D 도면을 선택하면, 단계 S104에서 3D 도면 추출부(111)에서 저장부(107)에 저장된 3D 도면을 추출하여 화면에 디스플레이해준다, Next, when the user selects a 3D drawing for the actual room stored in the storage unit 107, the 3D drawing stored in the storage unit 107 is extracted from the 3D drawing drawing unit 111 and displayed on the screen in step S104.

그리고 화면상에 실제 실내에 대한 3D 도면이 디스플레이된 상태에서 사용자가 특정 위치를 지정하면, 단계 S105에서 지정위치 좌표값 추출부(112)에서 지정위치에 대한 좌표값을 추출한다. 여기서 좌표값 추출은 실내 촬영 영상을 3D 도면으로 제작할 때 각 위치에 대한 좌표값이 함께 생성되어 저장되므로, 사용자가 위치를 지정하는 순간 신속하게 해당 지정 위치에 대한 좌표값을 추출할 수 있다.When the user designates a specific position in a state where the 3D drawing of the room is displayed on the screen, the coordinate value for the designated position is extracted from the designated position coordinate value extraction unit 112 in step S105. In this case, coordinate values for respective positions are generated and stored together when the indoor photographed image is produced as a 3D drawing, so that coordinate values for the designated position can be extracted quickly as soon as the user designates the position.

이후, 단계 S106에서 거리 및 각도 정보 검출부(113)에서 지정된 3D면에 대응하는 실제 위치의 거리와 각도를 산출한다. 예컨대, 실제 실내에서 카메라를 통해 촬영할 때 카메라와 실제 실내의 특정 위치 간의 거리 정보 및 카메라의 촬영 각도 등을 산출하게 된다.Then, in step S106, the distance and the angle of the actual position corresponding to the 3D plane designated by the distance and angle information detecting unit 113 are calculated. For example, when photographing through a camera in a room, distance information between a camera and a specific position in a room and a photographing angle of the camera are calculated.

다음으로, 단계 S107에서 사용자 위치 산출부(114)는 상기 산출한 각각의 정보를 기초로 사용자의 위치를 검출한다. 예컨대, 상기 사용자 위치 산출부(114)는 사용자가 지정한 3D 도면의 좌표값과 사용자가 지정한 3D 도면에 대응하는 실제 위치의 좌표값을 도 3과 같은 삼각함수로 처리하여 3D 도면의 제작시 원점 좌표기준으로 현재 사용자 위치를 산출한다.Next, in step S107, the user position calculation unit 114 detects the position of the user on the basis of each of the calculated information. For example, the user position calculation unit 114 processes the coordinate values of the 3D drawing designated by the user and the coordinate values of the actual positions corresponding to the 3D drawing specified by the user with the trigonometric function as shown in FIG. 3, The current user position is calculated based on the reference.

이후, 단계 S108 및 단계 S109에서 3D도면 좌표 조정부(115)에서 상기 사용자 위치 산출부(114)에서 산출한 사용자 위치에 대응하여 3D 도면의 좌표를 재조정하여 카메라 뷰의 이동에 반응하도록 한다. 예컨대, 스마트폰의 지자기 센서, 자이로센서, 가속도 센서 등을 이용하여 사용자의 각도와 움직임에 반응하여 이동 벡터를 구하고, 이렇게 산출한 이동 벡터를 기준으로 3D 도면의 각 좌표값을 재조정하여 객체를 배치할 좌표를 산출한다. 즉, 증강현실로 생성할 객체의 생성 위치를 지정하게 된다.Then, in steps S108 and S109, the 3D drawing coordinate adjusting unit 115 adjusts the coordinates of the 3D drawing corresponding to the user position calculated by the user position calculating unit 114 to react to the movement of the camera view. For example, motion vectors are obtained in response to the angle and motion of a user using a geomagnetic sensor, a gyro sensor, and an acceleration sensor of a smartphone, and the coordinate values of the 3D drawing are readjusted based on the motion vector thus calculated, The coordinates to be calculated are calculated. That is, the generation position of the object to be generated as the augmented reality is designated.

다음으로, 단계 S110 내지 단계 S113에서 객체 생성부(116)는 상기 검출한 사용자 위치를 기반으로 카메라의 해당 위치에 객체를 생성시켜, 증강현실로 객체를 구현하게 된다.Next, in steps S110 to S113, the object creating unit 116 creates an object at a corresponding position of the camera based on the detected user position, and implements the object as an augmented reality.

예컨대, 단계 S110에서 카메라 뷰에 3D 뷰를 출력하고, 단계 S111에서 객체(가구)를 배치할 지점까지의 거리와 각도를 계산한다. 이후 단계 S112에서 현재 위치를 기준으로 객체 배치 좌표를 산출한다. 이후 단계 S113에서 카메라의 해당 위치에 객체(예를 들어, 가구)를 생성하여 증강현실을 통해 객체를 표시하게 된다.For example, a 3D view is output to the camera view in step S110, and a distance and an angle to the point where the object (furniture) is placed are calculated in step S111. Thereafter, in step S112, the object placement coordinates are calculated based on the current position. In step S113, an object (e.g., furniture) is generated at a corresponding position of the camera and the object is displayed through the augmented reality.

이상 본 발명자에 의해서 이루어진 발명을 상기 실시 예에 따라 구체적으로 설명하였지만, 본 발명은 상기 실시 예에 한정되는 것은 아니고 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 물론이다.
Although the present invention has been described in detail with reference to the above embodiments, it is needless to say that the present invention is not limited to the above-described embodiments, and various modifications may be made without departing from the spirit of the present invention.

본 발명은 증간현실 기술을 통해 가구, 선박, 플랜트, 미디어, 자동차, 게임 등과 같은 객체를 생성하는 기술에 적용된다.
The present invention is applied to a technique for creating objects such as furniture, ships, plants, media, automobiles, games, and the like through EV technology.

101: 카메라
102: 영상 처리부
103: 3D 변환부
104: 거리 측정부
105: 각도 측정부
106: 제어부
107: 저장부
108: 표시부
109: 입력부
110: 프레임 형성부
111: 3D 도면 추출부
112: 지정위치 좌표값 추출부
113: 거리 및 각도 정보 검출부
114: 사용자 위치 산출부
115: 3D 도면 좌표 조정부
116: 객체 생성부
117: 정보 입력 모듈
101: Camera
102:
103: 3D conversion section
104: distance measuring unit
105:
106:
107:
108:
109:
110:
111: 3D drawing extracting unit
112: designated position coordinate value extracting unit
113: Distance and angle information detection unit
114: User position calculation unit
115: 3D drawing coordinate adjustment unit
116:
117: Information input module

Claims (8)

실내의 영상 및 특정 객체의 영상을 촬영하는 카메라;
상기 카메라가 촬영한 상기 실내의 영상을 도면 프로그램을 이용하여 3D 도면으로 변환하는 3D 변환부;
상기 실내의 특정 위치와의 거리를 측정하고, 상기 카메라와 상기 객체와의 거리를 측정하는 거리 측정부;
상기 실내의 특정 위치의 촬영시 상기 카메라의 각도를 측정하고, 상기 객체의 촬영시 상기 카메라의 촬영각도를 측정하는 각도 측정부;
상기 3D 변환부에서 변환한 상기 3D 도면과 상기 거리 측정부에서 측정한 거리값 및 상기 각도 측정부에서 측정한 각도 값을 매핑하여 저장부에 저장하고, 상기 카메라가 상기 객체를 촬영하면 상기 3D도면상에 촬영한 상기 객체를 증강현실로 구현하는 제어부; 및
상기 제어부의 제어에 따라 카메라 뷰에 디스플레이되는 실내 도면의 해당 위치에 상기 객체를 중첩하여 증강현실로 디스플레이해주는 표시부를 포함하고,
상기 제어부는 저장부에 저장된 3D도면을 추출하는 3D도면 추출부; 상기 3D도면상에서 사용자가 지정한 위치의 좌표값을 추출하는 지정위치 좌표값 추출부; 상기 지정된 위치에 대응하는 실제 위치의 거리와 각도를 검출하는 거리 및 각도 정보 검출부; 사용자의 위치를 검출하는 사용자 위치 산출부; 상기 산출한 사용자 위치를 기반으로 카메라의 해당 위치에 객체를 생성하는 객체 생성부를 포함하는 것을 특징으로 하는 실측을 통한 증강현실기반의 객체 생성장치.
A camera for photographing indoor images and images of specific objects;
A 3D conversion unit for converting an image of the room taken by the camera into a 3D drawing using a drawing program;
A distance measuring unit measuring a distance between the camera and a specific position of the room and measuring a distance between the camera and the object;
An angle measurement unit for measuring an angle of the camera when capturing a specific position of the room and measuring an angle of the camera when the object is captured;
A distance value measured by the distance measuring unit and an angle value measured by the angle measuring unit are mapped to the 3D drawing transformed by the 3D transforming unit and stored in the storage unit. When the camera photographs the object, A controller configured to implement the object photographed on the object as an augmented reality; And
And a display unit for superimposing the object at a corresponding position of the indoor drawing displayed in the camera view according to the control of the control unit and displaying the object as an augmented reality,
Wherein the control unit comprises: a 3D drawing extracting unit for extracting a 3D drawing stored in a storage unit; A designated position coordinate value extracting unit for extracting a coordinate value of a position designated by the user on the 3D drawing; A distance and angle information detector for detecting a distance and an angle of an actual position corresponding to the designated position; A user position calculation unit for detecting a position of the user; And an object generator for generating an object at a corresponding position of the camera based on the calculated user position.
삭제delete 청구항 1에 있어서, 상기 제어부는 상기 사용자 위치 산출부에서 산출한 사용자 위치에 대응하여 3D 도면의 좌표를 재조정하여 카메라 뷰의 이동에 반응하는 3D도면 좌표 조정부; 사용자의 조작 정보를 입력받는 정보 입력모듈을 더 포함하는 것을 특징으로 하는 실측을 통한 증강현실기반의 객체 생성장치.
[2] The apparatus of claim 1, wherein the control unit comprises: a 3D drawing coordinate adjusting unit for re-adjusting the coordinates of the 3D drawing corresponding to the user position calculated by the user position calculating unit and responding to movement of the camera view; And an information input module for receiving user operation information. The apparatus for generating an object based on augmented reality through actual measurement.
청구항 1에 있어서, 상기 사용자 위치 산출부는 사용자가 지정한 3D 도면의 좌표값과 사용자가 지정한 3D 도면에 대응하는 실제 위치의 좌표값을 삼각함수로 처리하여 3D 도면의 제작시 원점좌표 기준으로 현재 사용자 위치를 산출하는 것을 특징으로 하는 실측을 통한 증강현실기반의 객체 생성장치.
[2] The apparatus of claim 1, wherein the user location calculator processes the coordinate value of the 3D drawing designated by the user and the coordinate value of the actual location corresponding to the 3D drawing designated by the user with a trigonometric function, Based on an actual state of the object.
(a) 카메라로 촬영한 실내의 영상 및 특정 객체의 영상을 도면 프로그램을 이용하여 3D 도면으로 변환하여 저장하는 단계;
(b) 상기 저장한 3D 도면에서 사용자가 지정한 위치의 좌표값을 추출하는 단계;
(c) 상기 지정한 위치에 대응하는 실내 위치의 거리와 각도를 산출하는 단계;
(d) 현재 사용자의 위치를 산출하는 단계; 및
(e) 카메라 뷰에 3D 뷰를 출력하고, 카메라의 해당 위치에 객체를 생성하여 증강현실을 구현하는 단계를 포함하고,
상기 (d)단계는 사용자가 지정한 3D 도면의 좌표값과 사용자가 지정한 3D 도면에 대응하는 실제 위치의 좌표값을 삼각함수로 처리하여 3D 도면의 제작시 원점 좌표 기준으로 현재 사용자 위치를 산출하는 것을 특징으로 하는 실측을 통한 증강현실기반의 객체 생성방법.
(a) converting an image of a room photographed by a camera and an image of a specific object into a 3D drawing using a drawing program and storing the 3D drawing;
(b) extracting a coordinate value of a position designated by the user in the 3D drawing;
(c) calculating a distance and an angle of the indoor position corresponding to the designated position;
(d) calculating a position of the current user; And
(e) outputting a 3D view to a camera view and creating an object at a corresponding position of the camera to implement an augmented reality,
In the step (d), the coordinate value of the 3D drawing designated by the user and the coordinate value of the actual position corresponding to the 3D drawing designated by the user are processed by the trigonometric function to calculate the current user position on the basis of the origin coordinate upon production of the 3D drawing A method for object creation based on augmented reality based on actual measurement.
삭제delete 청구항 5에 있어서, (f) 상기 (d)단계와 상기 (e)단계의 사이에 개재되고, 상기 (d)단계에서 산출한 사용자 위치에 따른 이동 벡터를 산출하고, 산출한 이동 벡터를 이용하여 3D 도면의 좌표를 조정하여 카메라 뷰의 이동에 반응하는 단계를 더 포함하는 것을 특징으로 하는 실측을 통한 증강현실기반의 객체 생성방법.
The method of claim 5, further comprising the steps of: (f) calculating a motion vector according to the user position calculated in step (d) intervening between step (d) and step (e) Further comprising the step of adjusting coordinates of the 3D drawing to respond to the movement of the camera view.
청구항 5에 있어서, 상기 (e)단계는 (e1)사용자가 선택한 객체를 배치할 실제 실내의 지점까지의 거리와 각도를 계산하는 단계; (e2)현재 위치를 기준으로 객체 배치 좌표를 산출하는 단계; (e3)객체 배치 좌표를 기초로 카메라의 해당 위치를 산출하고, 산출한 카메라의 해당 위치에 증강현실로 객체를 생성하는 단계를 포함하는 것을 특징으로 하는 실측을 통한 증강현실기반의 객체 생성방법.


[6] The method of claim 5, wherein the step (e) includes: (e1) calculating a distance and an angle to a point in the actual room where the user selects the object; (e2) calculating object placement coordinates based on the current position; (e3) calculating a corresponding position of the camera on the basis of the object arrangement coordinates, and creating an object as an augmented reality at a corresponding position of the calculated camera.


KR1020140181292A 2014-12-16 2014-12-16 Object generation apparatus and method of based augmented reality using actual measured KR101665399B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140181292A KR101665399B1 (en) 2014-12-16 2014-12-16 Object generation apparatus and method of based augmented reality using actual measured

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140181292A KR101665399B1 (en) 2014-12-16 2014-12-16 Object generation apparatus and method of based augmented reality using actual measured

Publications (2)

Publication Number Publication Date
KR20160073025A KR20160073025A (en) 2016-06-24
KR101665399B1 true KR101665399B1 (en) 2016-10-13

Family

ID=56343217

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140181292A KR101665399B1 (en) 2014-12-16 2014-12-16 Object generation apparatus and method of based augmented reality using actual measured

Country Status (1)

Country Link
KR (1) KR101665399B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230047667A (en) * 2021-10-01 2023-04-10 이백산 method and system for outputs design drawings as 3D images using IoT image processing devices at the construction site

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102006883B1 (en) * 2017-12-04 2019-08-02 삼성중공업 주식회사 Position compensation system and method using mobile device
KR102193974B1 (en) * 2018-12-26 2020-12-22 (주)신한항업 Method And System For Making 3D Indoor Space
KR102193976B1 (en) * 2018-12-27 2020-12-22 (주)신한항업 Method And System For Providing 3D Indoor Space
KR102193975B1 (en) * 2018-12-27 2020-12-22 (주)신한항업 Method And System For Providing 3D Indoor Space
KR102264219B1 (en) * 2019-08-20 2021-06-11 주식회사 버넥트 Method and system for providing mixed reality contents related to underground facilities
US11164383B2 (en) 2019-08-30 2021-11-02 Lg Electronics Inc. AR device and method for controlling the same
KR102234217B1 (en) * 2019-11-08 2021-03-30 에스케이 주식회사 Method and system for evaluation of scaffold based on augmented reality
WO2021101213A1 (en) * 2019-11-19 2021-05-27 주식회사 쓰리아이 Method for measuring real distance in 3d tour
KR102124860B1 (en) * 2019-11-28 2020-07-03 주식회사 메인소프트 Method, apparatus, and computer program for seat placement simulation using augmented reality
WO2021132909A1 (en) * 2019-12-27 2021-07-01 (주)아키드로우 Portable terminal for performing virtual object mapping and redesign processing according to generation of indoor structure information on basis of wall surface pointing, and operation method thereof
KR102632234B1 (en) * 2023-11-10 2024-02-01 (주)다함아이비씨 Construction drawing provision system using construction drawing on-site visualization technology

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013149042A (en) * 2012-01-18 2013-08-01 Hitachi Plant Technologies Ltd Facility maintenance management system
WO2014192316A1 (en) * 2013-05-31 2014-12-04 パナソニックIpマネジメント株式会社 Modeling device, three-dimensional model generation device, modeling method, program, and layout simulator

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110091200A (en) * 2010-02-05 2011-08-11 엘지전자 주식회사 An image processing apparatus for simulation and a method thereof
KR101280210B1 (en) 2011-06-29 2013-06-28 김현아 Method for providing Information based on Augmented Reality in Mobile Terminal
KR101837107B1 (en) 2011-09-01 2018-03-09 에스케이 텔레콤주식회사 Terminal And Computer-Readable Recording Medium with Program for Providing Indoor Location Based Services by Using Augmented Reality
KR20130137077A (en) 2012-06-06 2013-12-16 삼성전자주식회사 Apparatus and method for providing service of augmented reality
KR101380854B1 (en) 2013-03-21 2014-04-04 한국과학기술연구원 Apparatus and method providing augmented reality contents based on web information structure
KR101516285B1 (en) 2013-04-08 2015-05-07 순천향대학교 산학협력단 Bridges information system of augmented reality using mobile
KR101360999B1 (en) 2013-08-09 2014-02-10 코리아디지탈 주식회사 Real time data providing method and system based on augmented reality and portable terminal using the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013149042A (en) * 2012-01-18 2013-08-01 Hitachi Plant Technologies Ltd Facility maintenance management system
WO2014192316A1 (en) * 2013-05-31 2014-12-04 パナソニックIpマネジメント株式会社 Modeling device, three-dimensional model generation device, modeling method, program, and layout simulator

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230047667A (en) * 2021-10-01 2023-04-10 이백산 method and system for outputs design drawings as 3D images using IoT image processing devices at the construction site
KR102588818B1 (en) * 2021-10-01 2023-10-16 이백산 method and system for outputs design drawings as 3D images using IoT image processing devices at the construction site

Also Published As

Publication number Publication date
KR20160073025A (en) 2016-06-24

Similar Documents

Publication Publication Date Title
KR101665399B1 (en) Object generation apparatus and method of based augmented reality using actual measured
JP6687204B2 (en) Projection image generation method and apparatus, and mapping method between image pixels and depth values
US10037627B2 (en) Augmented visualization system for hidden structures
EP2769181B1 (en) Reimaging based on depthmap information
KR101330805B1 (en) Apparatus and Method for Providing Augmented Reality
EP2769363B1 (en) Depth cursor and depth measurement in images
KR101295714B1 (en) Apparatus and Method for providing 3D Augmented Reality
KR101285360B1 (en) Point of interest displaying apparatus and method for using augmented reality
US10482659B2 (en) System and method for superimposing spatially correlated data over live real-world images
KR101841668B1 (en) Apparatus and method for producing 3D model
KR101506610B1 (en) Apparatus for providing augmented reality and method thereof
CN107402000A (en) For the system and method relative to measuring instrument with reference to display device
EP2769183A2 (en) Three dimensional routing
JP2012133471A (en) Image composer, image composition program and image composition system
JP2013171523A (en) Ar image processing device and method
KR102097416B1 (en) An augmented reality representation method for managing underground pipeline data with vertical drop and the recording medium thereof
KR20140090022A (en) Method and Apparatus for displaying the video on 3D map
JP4588369B2 (en) Imaging apparatus and imaging method
JP6640294B1 (en) Mixed reality system, program, portable terminal device, and method
JP5862865B2 (en) Composite image display device and composite image display program
KR20140031129A (en) Virtual face generating method of omni-directional image using user interaction
KR101902131B1 (en) System for producing simulation panoramic indoor images
JP4491293B2 (en) Model forming apparatus and model forming method
JP2008203991A (en) Image processor
Miyake et al. Outdoor markerless augmented reality

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190927

Year of fee payment: 4