KR20220014513A - 3D Model Control System and Method Based on multi-screen Projection - Google Patents

3D Model Control System and Method Based on multi-screen Projection Download PDF

Info

Publication number
KR20220014513A
KR20220014513A KR1020200094183A KR20200094183A KR20220014513A KR 20220014513 A KR20220014513 A KR 20220014513A KR 1020200094183 A KR1020200094183 A KR 1020200094183A KR 20200094183 A KR20200094183 A KR 20200094183A KR 20220014513 A KR20220014513 A KR 20220014513A
Authority
KR
South Korea
Prior art keywords
model
image
control command
marker
user
Prior art date
Application number
KR1020200094183A
Other languages
Korean (ko)
Inventor
허창윤
Original Assignee
주식회사 포엔지
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 포엔지 filed Critical 주식회사 포엔지
Priority to KR1020200094183A priority Critical patent/KR20220014513A/en
Publication of KR20220014513A publication Critical patent/KR20220014513A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/388Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume
    • H04N13/393Volumetric displays, i.e. systems where the image is built up from picture elements distributed through a volume the volume being generated by a moving, e.g. vibrating or rotating, surface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability

Abstract

The present invention relates to a portable 3D model control system based on multi-screen projection. According to the present invention, a normalized 3D model is projected using a projection device so that a user can watch on a multi-screen projection basis, the user can check, control, and correct the projected 3D model with an intuitive user interface, and thus even an ordinary person without professional knowledge as to professional design programs can easily check and correct with the intuitive user interface. In addition, projection and watching on any surface are possible based on work site portability and multiple work-related persons can perform simultaneous and real-time design check, correction and collaboration from various viewpoints and perspectives.

Description

다면 스크린 프로젝션 기반 3차원 제어 시스템 및 그 방법{3D Model Control System and Method Based on multi-screen Projection}3D Model Control System and Method Based on multi-screen Projection

본 발명은 증강현실을 이용한 3차원 모델 제어 시스템에 관한 것이다.The present invention relates to a three-dimensional model control system using augmented reality.

증강현실은 신호처리를 통하여 생성된 정보를 현실에 표시하고 이를 사용자가 컨트롤할 수 있게 함으로써 사용자가 원하는 정보를 취득할 수 있도록 하는 기술이다. 이러한 증강현실 기술은 방송, 제조공정처리, 건 축설계, 게임 및 모바일 솔루션 분야에서 다양한 형태로 개발되어 활용되고 있다.Augmented reality is a technology that enables a user to acquire desired information by displaying information generated through signal processing in reality and allowing the user to control it. These augmented reality technologies are being developed and utilized in various forms in the fields of broadcasting, manufacturing process processing, architectural design, games, and mobile solutions.

예를 들면 증강현실 기술은 실제의 2차원 또는 3차원 지도에 현재 교통 정보나 사용자가 위치하고 있는 장소 주변의 생활 정보들을 표시하는 방식으로 상용화되고 있다. For example, augmented reality technology is being commercialized by displaying current traffic information or living information around a place where a user is located on an actual 2D or 3D map.

건설이나 제품 제조 공정에서 많이 사용되고 있는 3차원 모델 기술은, 현실에서 건축하려고 하는 구조물이나 제조하려고 하는 제품의 설계를 컴퓨터를 이용하여 3차원으로 진행하고, 설계에 따른 구조물 또는 제품 을 3차원으로 다양한 계층과 관점에서 확인하고, 설계를 수정할 수 있도록 하는 기술이다. 이와 같은 3차원 모 델 기술을 통해 사용자는 2차원의 설계도면 만을 이용하여 설계 작업을 하는 것과 비교하였을 때, 보다 효율적 이고 편리한 방식으로 설계 작업을 할 수 있다. 3D model technology, which is widely used in construction and product manufacturing processes, uses a computer to design a structure to be built or a product to be manufactured in 3D in reality, and the structure or product according to the design can be transformed into various 3D models. It is a technology that allows you to check from a hierarchical and perspective, and to revise a design. Through such 3D model technology, users can design work in a more efficient and convenient way compared to design work using only two-dimensional design drawings.

기존의 3차원 모델 기술은 주로 사용자가 컴퓨터에서 동작하는 전문 설계 프로그램을 통하여 키보드나 마우스 또는 펜을 사용하여 3차원 모델을 설계하고, 모니터 화면을 통하여 설계 결과물인 3차원 모델을 확인하 는 방식으로 이루어졌다. 그 결과 기존의 3차원 모델 기술에는, 전문 설계 프로그램에 대한 지식을 가지지 못하 고 있는 일반인이 설계물을 확인하고 및 수정하는 작업을 하기 어렵고, 또한 작업 현장에서 실시간으로 설계물 을 확인하여 작업하거나, 다수의 작업 관련자들이 동시에 설계물을 확인하면서 작업을 진행하기 어렵다는 문제점이 있다.Existing 3D model technology is mainly a method in which the user designs a 3D model using a keyboard, mouse, or pen through a professional design program running on a computer, and checks the 3D model, the design result, through the monitor screen. was done As a result, in the existing 3D model technology, it is difficult for the general public who does not have the knowledge of the professional design program to check and correct the design, and also check the design in real time at the job site and work, There is a problem in that it is difficult for a large number of work related parties to proceed with the work while simultaneously checking the design.

본 발명이 이루고자 하는 과제는, 사용자가 임의의 다면 스크린에 투영하여 볼 수 있도록 정규화 작업을 거친 3차원 모델을 프로젝션 장치를 이용하여 투영하고, 사용자가 직관적인 사용자 인터페이스를 통하여 투 영된 3차원 모델을 확인하고 제어하고 수정할 수 있도록 함으로써, 전문 설계 프로그램에 대한 전문적인 지식이 없는 일반인이 직관적인 사용자 인터페이스를 통하여 손쉽게 확인 및 수정할 수 있고, 작업 현장에서 휴대하면 서 임의의 면에 투영하여 볼 수 있고, 또한 다수의 작업 관련자들이 다양한 시각과 관점에서 동시에 실시간으로 설계를 확인하고 수정하여 협업할 수 있는, 다면 스크린 프로젝션 기반 3차원 모델 제어 시스템 및 그 방법을 제공하는데 있다.An object of the present invention is to project a 3D model that has undergone normalization so that the user can project it onto an arbitrary multi-sided screen and see it using a projection device, and a 3D model projected by the user through an intuitive user interface By making it possible to check, control, and modify, ordinary people who do not have professional knowledge about professional design programs can easily check and modify through an intuitive user interface, and can project and view it on any surface while carrying it at the job site, In addition, it is to provide a multi-faceted screen projection-based 3D model control system and method that allows multiple work related parties to simultaneously check and revise designs in real time from various viewpoints and viewpoints, and to collaborate.

상기 해결하고자 하는 과제를 달성하기 위해, 본 발명의 일 실시예에 따른 휴대용 프로젝션 기반 모델제어 시스템은 특정 패턴을 가지는 인식표인 마커; 영상을 투영하고자 하는 영상투영면에 위치된 상기 마커를 촬영하는 카메라부; 사용자가 처리하려는 특정 모델에 대한 사용자의 제어 명령을 입력받아 모델제어명령을 생 성하는 제어명령처리부; 및 상기 카메라부에서 촬영된 상기 마커를 인식하고, 상기 제어명령처리부에서 생성된 모델제어명령에 따라 상기 모델을 제어하고 상기 모델에 대한 정보를 처리하고, 상기 인식된 마커의 정보를 이 용하여 상기 영상투영면에 투영할 상기 모델에 대한 영상을 생성하는 영상처리부를 포함할 수 있다. In order to achieve the above object, a portable projection-based model control system according to an embodiment of the present invention is a marker that is an identification tag having a specific pattern; a camera unit for photographing the marker located on the image projection plane on which the image is to be projected; a control command processing unit that receives a user's control command for a specific model to be processed by the user and generates a model control command; and recognizing the marker photographed by the camera unit, controlling the model according to a model control command generated by the control command processing unit, processing information about the model, and using the recognized marker information to obtain the image It may include an image processing unit that generates an image of the model to be projected on the projection surface.

여기서 휴대용 프로젝션 기반 모델 제어 시스템은 상기 영상처리부에서 생성된 영상을 상기 영상투영면에 투영하는 영상투영부를 더 포함하는 것을 특징으로 할 수 있다. Here, the portable projection-based model control system may further include an image projection unit that projects the image generated by the image processing unit on the image projection surface.

일 실시예에 있어서, 상기 카메라부는 사용자가 상기 영상투영면을 터치 하는 동작이나 손 또는 손가락의 동작을 촬영하는 것을 특징으로 할 수 있다. In one embodiment, the camera unit may be characterized in that the user touches the image projection surface or the motion of the hand or finger to photograph.

일 실시예에 있어서, 상기 모델제어명령은 상기 모델을 2차원 또는 3차원으로 회전하는 명령 또는 상기모델의 크기를 스케일링하는 명령 또는 상기 모델의 구성 요소 중 일부를 선택하는 명령 또는 상기 모델을 수정 하는 명령을 포함하는 것을 특징으로 할 수 있다. In one embodiment, the model control command is a command to rotate the model in two or three dimensions, a command to scale the size of the model, a command to select some of the components of the model, or a command to modify the model It may be characterized in that it includes a command.

일 실시예에 있어서, 휴대용 프로젝션 기반 모델 제어 시스템은 사용자의 손 또는 손가락의 동작을 인식하는 센서부를 더 포함하고, 여기서 상기 제어명령처리부는 상기 센서부로부터 사용자의 제어 명령을 입력받 아 상기 모델제어명령을 생성하는 것을 특징으로 할 수 있다. In one embodiment, the portable projection-based model control system further comprises a sensor unit for recognizing a motion of a user's hand or finger, wherein the control command processing unit receives a user's control command from the sensor unit to control the model It may be characterized in that the command is generated.

일 실시예에 있어서, 휴대용 프로젝션 기반 모델 제어 시스템은 사용자가 상기 모델을 제어하기 위한명령을 입력하는 입력단말기부를 더 포함하고, 여기서 상기 제어명령처리부는 상기 입력단말기부로부터 사용자 의 제어 명령을 입력받아 상기 모델제어명령을 생성하는 것을 특징으로 할 수 있다. In one embodiment, the portable projection-based model control system further comprises an input terminal unit for a user to input a command for controlling the model, wherein the control command processing unit receives the user's control command from the input terminal unit It may be characterized in that the model control command is generated.

일 실시예에 있어서, 상기 제어명령처리부는 상기 카메라부에서 촬영된 사용자의 동작을 인식하여 상기모델제어명령을 생성하는 것을 특징으로 할 수 있다. In one embodiment, the control command processing unit may be characterized in that the recognition of the user's motion photographed by the camera unit to generate the model control command.

일 실시예에 있어서, 상기 영상처리부는, 상기 영상투영면에 위치된 상기 마커를 검출하여 인식하는 마커인식부; 상기 제어명령처리부에서 생성한 상기 모델제어명령에 따라 상기 모델을 제어하고 상기 모델에 대한 정보를 처리하는 모델처리부; 및 상기 모델처리부에서 제어된 상기 모델과 처리된 상기 모델에 대한 정보를 포 함하는 모델 영상 컨텐츠를 생성하고, 상기 모델 영상 컨텐츠와 상기 마커인식부에서 인식된 상기 마커의 정보 를 이용하여 상기 영상투영면에 투영할 상기 모델의 투영영상을 생성하는 투영영상생성부를 포함할 수 있다. In an embodiment, the image processing unit comprises: a marker recognition unit for detecting and recognizing the marker located on the image projection surface; a model processing unit for controlling the model according to the model control command generated by the control command processing unit and processing information about the model; and generating model image content including information on the model controlled by the model processing unit and the processed model, and using the model image content and information on the marker recognized by the marker recognition unit, the image projection surface It may include a projection image generator for generating a projection image of the model to be projected on the.

일 실시예에 있어서, 상기 모델처리부는 상기 모델제어명령에 따라, 상기 모델을 2차원 또는 3차원으로 회전하거나, 상기 모델의 크기를 스케일링하거나, 상기 모델의 구성 요소 중 일부를 선택하거나, 상기 모델을 수정하는 제어 동작을 수행하는 것을 특징으로 할 수 있다. In an embodiment, the model processing unit rotates the model in two or three dimensions, scales the size of the model, selects some of the model components, or selects the model according to the model control command. It may be characterized in that it performs a control operation to correct the.

일 실시예에 있어서, 상기 모델처리부는 상기 모델제어명령에 따라, 상기 모델의 구조 정보 및 구성 개체 정보를 처리하는 것을 특징으로 할 수 있다. In one embodiment, the model processing unit may be characterized in that according to the model control command, the structure information and the constituent entity information of the model are processed.

일 실시예에 있어서, 상기 투영영상생성부는 상기 마커인식부에서 인식된 상기 마커의 모양과 크기 정보를 이용하여, 상기 마커가 위치된 상기 영상투영면의 좌표를 산출하고, 상기 영상투영부의 좌표를 산출하고, 상기 영상투영면의 좌표와 상기 영상투영부의 좌표 간의 공간변환행렬을 생성하고, 상기 모델 영상 컨텐츠를 상 기 생성된 공간변환행렬을 이용하여 변환하여, 상기 영상투영면에 투영할 상기 모델의 투영영상을 생성하는 것 을 특징으로 할 수 있다. In one embodiment, the projection image generating unit calculates the coordinates of the image projection surface on which the marker is located, using the shape and size information of the marker recognized by the marker recognition unit, and calculates the coordinates of the image projection unit and generating a spatial transformation matrix between the coordinates of the image projection surface and the coordinates of the image projection unit, transforming the model image content using the generated spatial transformation matrix, and projecting the image projection image of the model to the image projection surface It may be characterized by generating

일 실시예에 있어서, 상기 영상투영부는 일정한 패턴의 켈리브레이션 영상을 상기 영상투영면에 투영하고, 상기 카메라부는 상기 영상투영면에 투영된 상기 켈리브레이션 영상을 촬영하고, 상기 투영영상생성부는 상 기 촬영된 켈리브레이션 영상의 정보를 이용하여 상기 영상투영부와 상기 카메라부 간의 사전 좌표 보정 작업을 하는 것을 특징으로 할 수 있다. In an embodiment, the image projection unit projects a calibration image of a certain pattern on the image projection surface, the camera unit captures the calibration image projected on the image projection surface, and the projection image generation unit is the captured calibration image It may be characterized in that a pre-coordinate correction operation between the image projection unit and the camera unit is performed using the information of .

일 실시예에 있어서, 상기 투영영상생성부는 상기 사전 좌표 보정 작업의 정보를 이용하여 상기 영상투영부의 좌표를 산출하는 것을 특징으로 할 수 있다. In an embodiment, the projection image generating unit may be characterized in that the coordinates of the image projection unit are calculated by using the information of the pre-coordinate correction operation.

일 실시예에 있어서, 상기 마커는, 상기 모델을 특정하고, 영상을 투영하고자 하는 제1영상투영면에 표시될 제1영상을 생성하기 위하여 상기 제1영상투영면에 위치되어 사용되는 제1마커; 및 영상을 투영하고자 하는 제2영상투영면에 표시될 제2영상을 생성하기 위하여 상기 제2영상투영면에 위치되어 사용되는 제2마커를 포함하 는 것을 특징으로 할 수 있다. In an embodiment, the marker may include: a first marker positioned and used on the first image projection surface to specify the model and to generate a first image to be displayed on a first image projection surface on which an image is to be projected; and a second marker positioned and used on the second image projection surface to generate a second image to be displayed on the second image projection surface on which the image is to be projected.

일 실시예에 있어서, 상기 마커인식부는, 상기 제1마커를 일정한 주기로 반복하여 인식하고, 상기 제2마커를 적어도 한번 인식하는 것을 특징으로 하고, 상기 투영영상생성부는, 상기 제1영상투영면에 대하여는 일 정한 주기로 반복하여 제1공간변환행렬을 새롭게 생성하여 상기 제1영상투영면에 투영할 상기 모델의 제1투영영 상을 생성하고, 상기 제2영상투영면에 대하여는 적어도 한번 제2공간변환행렬을 생성하여, 상기 생성된 제2공간 변환행렬을 이용하여 상기 제2영상투영면에 투영할 상기 모델의 제2투영영상을 생성하는 것을 특징으로 할 수 있다. In an embodiment, the marker recognition unit recognizes the first marker repeatedly at a certain period, and recognizes the second marker at least once, and the projection image generator includes: A first spatial transformation matrix is newly generated by repeating at a predetermined period to generate a first projection image of the model to be projected on the first image projection surface, and a second spatial transformation matrix is generated at least once for the second image projection surface Thus, it may be characterized in that the second projection image of the model to be projected on the second image projection surface is generated by using the generated second spatial transformation matrix.

일 실시예에 있어서, 상기 제어명령처리부는 상기 카메라부에서 촬영된 상기 제1마커가 상기 제1영상투영면에서 회전하는 경우 상기 모델을 상기 제1마커의 회전에 따라 회전시키는 상기 모델제어명령을 생성하는 것 을 특징으로 할 수 있다. In an embodiment, the control command processing unit generates the model control command for rotating the model according to the rotation of the first marker when the first marker photographed by the camera unit rotates on the first image projection surface. It can be characterized as

상기 해결하고자 하는 과제를 달성하기 위해, 본 발명의 또 다른 실시예에 따른 휴대용 프로젝션 기반모델 제어 방법은 영상을 투영하고자 하는 영상투영면에 위치된 특정한 패턴을 가지는 인식표인 마커를 카메라 를 이용하여 촬영하고 상기 마커를 인식하는 마커인식 단계; 사용자가 처리하려는 특정 모델에 대한 사용자의 제어 명령을 입력하는 제어명령입력 단계; 상기 제어명령입력 단계에서 입력된 명령에 따라 미리 정해진 모델제 어명령을 생성하는 제어명령처리 단계; 상기 모델제어명령에 따라 상기 모델을 제어하고 상기 모델에 대한 정보 를 처리하는 모델처리 단계; 상기 영상투영면에 투영할 상기 모델의 투영영상을 생성하는 투영영상생성 단계; 및 프로젝터를 이용하여 상기 모델의 투영영상을 상기 영상투영면에 투영하는 영상투영 단계를 포함할 수 있다. In order to achieve the above object, a portable projection-based model control method according to another embodiment of the present invention is to photograph a marker, which is an identification tag having a specific pattern, located on an image projection surface on which an image is to be projected using a camera, and a marker recognition step of recognizing the marker; a control command input step of inputting a user's control command for a specific model to be processed by the user; a control command processing step of generating a predetermined model control command according to the command input in the control command input step; a model processing step of controlling the model according to the model control command and processing information about the model; a projection image generating step of generating a projection image of the model to be projected on the image projection surface; and an image projection step of projecting the projection image of the model onto the image projection surface using a projector.

일 실시예에 있어서, 상기 모델처리 단계는 상기 모델제어명령에 따라, 상기 모델을 2차원 또는 3차원으로 회전하거나, 상기 모델의 크기를 스케일링하거나, 상기 모델의 구성 요소 중 일부를 선택하거나, 상기 모 델을 수정하는 동작을 수행하고, 상기 모델의 구조 정보 및 구성 개체 정보를 처리하는 것을 특징으로 할 수 있 다. In one embodiment, the model processing step rotates the model in two or three dimensions, scales the size of the model, selects some of the model components, or It may be characterized in that the operation of modifying the model is performed, and the structure information and constituent entity information of the model are processed.

일 실시예에 있어서, 상기 투영영상생성 단계는 상기 모델처리 단계에서 제어된 상기 모델과 처리된 상기 모델에 대한 정보를 포함하는 모델 영상 컨텐츠를 생성하고, 상기 모델 영상 컨텐트와 상기 마커인식 단계에 서 인식된 상기 마커의 정보를 이용하여 상기 영상투영면에 투영할 상기 모델의 투영영상을 생성하는 것을 특징 으로 할 수 있다. In one embodiment, the projection image generating step creates model image content including information about the model controlled in the model processing step and the processed model, and in the model image content and the marker recognition step It may be characterized in that a projection image of the model to be projected on the image projection surface is generated using the recognized information of the marker.

일 실시예에 있어서, 상기 투영영상생성 단계는 상기 마커인식 단계에서 인식된 상기 마커의 모양과 크기 정보를 이용하여, 상기 마커가 위치된 상기 영상투영면의 좌표를 산출하고, 상기 프로젝터 공간의 좌표를 산 출하고, 상기 영상투영면의 좌표와 상기 프로젝터 공간의 좌표 간의 공간변환행렬을 생성하고, 상기 모델 영상 컨텐츠를 상기 생성된 공간변환행렬을 이용하여 변환하여, 상기 영상투영면에 투영할 상기 모델의 투영영상을 생성하는 것을 특징으로 할 수 있다. In an embodiment, the generating of the projection image uses information on the shape and size of the marker recognized in the step of recognizing the marker, calculating the coordinates of the image projection surface on which the marker is located, and calculating the coordinates of the projector space. Calculating, generating a spatial transformation matrix between the coordinates of the image projection surface and the coordinates of the projector space, transforming the model image content using the generated spatial transformation matrix, and projecting the model to be projected on the image projection surface It may be characterized in that it generates an image.

일 실시예에 있어서, 상기 투영영상생성 단계는 상기 프로젝터로 상기 영상투영면에 일정한 패턴의 켈리브레이션 영상을 투영하고, 상기 카메라로 상기 투영된 켈리브레이션 영상을 촬영하고, 상기 촬영된 켈리브레 이션 영상의 정보를 이용하여 상기 프로젝터와 상기 카메라 간의 사전 좌표 보정 작업을 하고, 상기 사전 좌표보정 작업의 정보를 이용하여 상기 프로젝터 공간의 좌표를 산출하는 것을 특징으로 할 수 있다.In one embodiment, the projection image generating step projects a calibration image of a certain pattern on the image projection surface with the projector, photographing the projected calibration image with the camera, and information of the photographed calibration image It may be characterized in that a prior coordinate correction operation between the projector and the camera is performed using the information, and the coordinates of the projector space are calculated using the information of the prior coordinate correction operation.

본 발명에 의하면, 다면 스크린 프로젝션 기반 휴대용 3차원 모델 제어 시스템에 있어서, 사용자가 임의의 다면 스크린에 투영하여 볼 수 있도록 정규화 작업을 거친 3차원 모델을 프로젝션 장치를 이용하여 투영하 고, 사용자가 직관적인 사용자 인터페이스를 통하여 투영된 3차원 모델을 확인하고 제어하고 수정할 수 있도록 함으로써, 전문 설계 프로그램에 대한 전문적인 지식이 없는 일반인이 직관적인 사용자 인터페이스를 통하여 손 쉽게 확인 및 수정할 수 있고, 작업 현장에서 휴대하면서 임의의 면에 투영하여 볼 수 있고, 또한 다수의 작업 관련자들이 다양한 시각과 관점에서 동시에 실시간으로 설계를 확인하고 수정하여 협업할 수 있는 효과가 있다.According to the present invention, in the multi-faceted screen projection-based portable 3D model control system, the 3D model that has undergone normalization is projected using a projection device so that the user can project and view it on any multi-sided screen, and the user intuitively By making it possible to check, control, and modify the projected 3D model through the user interface, ordinary people who do not have professional knowledge in professional design programs can easily check and modify it through the intuitive user interface, and carry it at the job site. It has the effect of being able to project and view the design on an arbitrary surface while simultaneously confirming and modifying the design in real time from a variety of perspectives and perspectives by multiple work related parties.

이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 우선 각 도면의 구성요소들에 참조 부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능 한 동일한 부호를 가지도록 하고 있음에 유의해야 한다. 또한, 본 발명을 설명함에 있어, 관련된 공지 구성 또 는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한 다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제 한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다. Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. First, in adding reference numerals to the components of each drawing, it should be noted that the same components are given the same reference numerals as possible even if they are indicated on different drawings. In addition, in describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, preferred embodiments of the present invention will be described below, but the technical spirit of the present invention is not limited thereto and may be variously implemented by those skilled in the art without being limited thereto.

도1은 본 발명의 일 실시예에 따른 휴대용 프로젝션 기반 모델 제어 시스템의 블록도이다.본 발명의 일 실시예에 따른 휴대용 프로젝션 기반 모델 제어 시스템은 마커(100), 카메라부(200), 제어명령처리부(300), 영상처리부(400), 영상투영부(500), 센서부(600), 입력단말기부(700)를 포함할 수 있다. 이 상의 실시예는 최적의 실시예이고, 센서부(600)와 입력단말기부(700)는 필요에 따라 생략될 수 있고, 본 발명의 또 다른 실시예에 따른 휴대용 프로젝션 기반 모델 제어 시스템은 마커(100), 카메라부(200), 제어명령처리부 (300), 영상처리부(400), 영상투영부(500)를 포함할 수 있다. 이하에서는 상기 최적의 실시예에 대하여 상술한 다. 1 is a block diagram of a portable projection-based model control system according to an embodiment of the present invention. A portable projection-based model control system according to an embodiment of the present invention includes a marker 100, a camera unit 200, and a control command. It may include a processing unit 300 , an image processing unit 400 , an image projection unit 500 , a sensor unit 600 , and an input terminal unit 700 . The above embodiment is an optimal embodiment, the sensor unit 600 and the input terminal unit 700 may be omitted if necessary, and the portable projection-based model control system according to another embodiment of the present invention is a marker ( 100 ), a camera unit 200 , a control command processing unit 300 , an image processing unit 400 , and an image projection unit 500 . Hereinafter, the optimal embodiment will be described in detail.

마커(100)는 특정 패턴을 가지는 인식표이다.여기서 마커(100)는 사각형의 격자무늬에 일부는 검정색으로 나머지는 흰색으로 채워진 패턴을 가지는 마커가 될 수 있다. 여기서 마커(100)는 서로 다른 두 가지 이상의 색 또는 서로 구별되는 밝기를 가지는 격자 무늬 패턴을 가질 수 있다. 여기서 마커(100)는 격자무늬 이외에도 일정한 면을 가지고, 면 상에서 상호 구별이 가능한 색 또는 밝기를 가지는 특정한 패턴을 가지는 다양한 종류의 마커가 사용될 수 있다. The marker 100 is an identification tag having a specific pattern. Here, the marker 100 may be a marker having a rectangular grid pattern, partially filled with black and the rest with white. Here, the marker 100 may have two or more different colors or a grid pattern having different brightnesses. Here, the marker 100 has a certain surface in addition to the grid pattern, and various types of markers having a specific pattern having a mutually distinguishable color or brightness on the surface may be used.

여기서 마커(100)는 영상을 투영하고자 하는 영상투영면에 위치되는 것이 바람직하고, 필요에 따라 지속적으로 상기 영상투영면에 위치하거나, 또는 일정 시간 동안 위치한 이후 제거될 수 있다. Here, the marker 100 is preferably located on the image projection surface on which the image is to be projected, and may be continuously located on the image projection surface as needed, or may be removed after being located for a predetermined time.

카메라부(200)는 영상을 투영하고자 하는 상기 영상투영면에 위치된 마커(100)를 촬영한다.여기서 상기 영상투영면은 사용자가 영상투영부(500)를 통하여 영상을 투영할 면을 의미하며, 이는 준비된 프로젝터 용 스크린이 될 수도 있고, 수직으로 되어 있는 임의의 벽면이나 종이면, 수평으로 되어 있는 바 닥면이나 종이 면이나 책상 면 등, 영상을 투영하여 볼 수 있는 임의의 모든 면이 될 수 있다. 그리고 상기 영 상투영면은 평면이 될 수 있고 곡면이 될 수도 있다. The camera unit 200 photographs the marker 100 positioned on the image projection surface on which the image is to be projected. Here, the image projection surface means the surface on which the user projects the image through the image projection unit 500, which It can be the prepared screen for the projector, or it can be any surface on which the image can be projected, such as any vertical wall or paper surface, or a horizontal floor, paper or desk surface. In addition, the image projection surface may be a flat surface or a curved surface.

여기서 영상투영면은 2개 이상의 분리되어 있거나 각이 져서 구분이 가능한 다수의 면 또는 구부러진 형태의 하나의 면이 될 수 있다. 이와 같이 영상투영면이 다수의 면이 되는 경우, 다수의 마커(100)를 각 면에 위치시키고, 영상처리부(400)에서 마커(100)들의 정보를 이용하여 각 면에 투영될 영상을 각각 변환작업을 통하 여 생성하도록 할 수 있다. 이에 대하여는 이하 영상처리부(400)를 설명하는 부분에서 상세히 설명한다. Here, the image projection surface may be a plurality of surfaces that can be separated by two or more separated or angled, or a curved surface. In this way, when the image projection surface becomes a plurality of surfaces, a plurality of markers 100 are positioned on each surface, and the image processing unit 400 converts the image to be projected on each surface by using the information of the markers 100 , respectively. It can be created through This will be described in detail below in the section describing the image processing unit 400 .

여기서 카메라부(200)는 사용자가 상기 영상투영면을 터치하는 동작이나 손 또는 손가락의 동작을 촬영할 수 있다. 여기서 사용자는 본 발명에 따른 휴대용 프로젝션 기반 모델 제어 시스템을 이용함에 있어서, 상기 영상투영면을 터치하거나 손 또는 손가락의 동작으로 모델을 제어할 수 있는데, 사용자가 상기 영상투영면을 터 치하는 동작을 카메라부(200)가 촬영하여 그 동작을 시스템에 입력할 수 있다. 이에 관하여는 아래에서 제어명 령처리부(300)를 설명하면서 보다 상세히 설명한다. Here, the camera unit 200 may photograph a motion of a user touching the image projection surface or a motion of a hand or a finger. Here, in using the portable projection-based model control system according to the present invention, the user can control the model by touching the image projection surface or by using a hand or finger operation. 200 may take a picture and input the motion to the system. This will be described in more detail while explaining the control command processing unit 300 below.

본 발명에 따른 휴대용 프로젝션 기반 모델 제어 시스템은 이상과 같이 미리 고정되어 있는 면이 아닌 임의의 모든 면을 상기 영상투영면으로 사용함으로써, 사용자가 휴대하면서 원하는 작업환경에서 이용할 수 있 는 모델 제어 시스템을 제공할 수 있다. 또한 예를 들어 사용자는 작업현장에 위치하는 임의의 두 면을 상기 영 상투영면으로 선택하고 상기 영상투영면을 통하여 모델을 제어하는 동작을 수행하고 그 결과를 실시간으로 확인 할 수 있다. 바람직하게는 사용자가 상기 영상투영면으로 선택하는 두 면은 벽면과 벽면에 수직으로 위치하는 바닥면 또는 책상면이 될 수 있다. The portable projection-based model control system according to the present invention provides a model control system that a user can carry and use in a desired working environment by using any surface other than the previously fixed surface as the image projection surface as described above. can do. Also, for example, the user can select two arbitrary surfaces located at the work site as the image projection surface, perform an operation to control the model through the image projection surface, and check the result in real time. Preferably, the two surfaces selected as the image projection surface by the user may be a wall surface and a floor surface or a desk surface positioned perpendicular to the wall surface.

또한 여기서 카메라부(200)는 영상투영부(500)와 결착이 되어 영상투영부(500)가 이동함에 따라 같은방향을 바라보고 영상투영부(500)가 투영하는 영상을 촬영할 수 있도록 하는 것이 바람직하다. 그리고 이와 같 은 결착을 통하여 이하에서 상술할 바와 같이 카메라부(200)와 영상투영부(500) 간의 사전 좌표 보정(켈리브레 이션) 작업을 보다 효율적으로 진행할 수 있다. In addition, here, it is preferable that the camera unit 200 is bound to the image projection unit 500 so that the image projection unit 500 can take an image projected by the image projection unit 500 while looking in the same direction as the image projection unit 500 moves. do. And, through this binding, the pre-coordinate correction (calibration) operation between the camera unit 200 and the image projection unit 500 can be performed more efficiently, as will be described in detail below.

제어명령처리부(300)는 사용자가 처리하려는 특정 모델에 대한 사용자의 제어 명령을 입력받아 모델제어명령을 생성한다. The control command processing unit 300 generates a model control command by receiving a user's control command for a specific model to be processed by the user.

여기서 상기 모델은 3차원의 모델이 될 수도 있고 2차원의 모델이 될 수도 있다. 그리고 여기서 모델은 건축 설계 모델이 될 수도 있고, 제품 설계 모델이 될 수도 있고, 일정한 구조와 형태를 가지는 다양한 종류의 모델이 될 수 있다. 예를 들어 건축 설계 모델인 경우 상기 모델은, 3차원의 건축물 정보와, 건축물을 구성하는 벽, 기둥, 층계 등 각 구성요소에 관한 정보 즉 예를 들면 벽면의 넓이나 기둥의 높이 등의 정보와, 평면도 등 을 포함하는 건축물의 도면 정보와, 건축물 내에 위치된 각종 가구와 소품에 관한 정보 즉 예를 들면 가구의 위 치와 가구의 부피 정보 등을 포함하는 건축 설계 모델이 될 수 있다. Here, the model may be a three-dimensional model or a two-dimensional model. And here, the model may be an architectural design model, a product design model, or various types of models having a certain structure and form. For example, in the case of an architectural design model, the model includes three-dimensional building information, information on each component such as walls, columns, and stairs constituting the building, that is, information such as the width of the wall or the height of the column, and It can be an architectural design model including information on drawings of a building including , floor plans, etc., and information on various furniture and accessories located in the building, that is, for example, information on the location and volume of furniture.

여기서 상기 모델제어명령은 상기 모델을 제어하기 위하여 미리 약속하는 제어명령으로 사용자가 원하는 바에 따라 다양한 종류의 명령을 정의할 수 있다. 예를 들어 상기 모델제어명령은 모델을 2차원 또는 3차원 으로 회전하는 명령, 모델의 크기를 스케일링하는 명령이 될 수 있다. 또한 예를 들어 상기 모델제어명령은 모 델의 구성 요소 또는 구성 개체를 선택하거나 모델의 특정 레이어를 선택하는 명령, 모델의 도면을 선택하고 그 에 관한 정보를 표시하는 명령이 될 수 있다. 또한 예를 들어 상기 모델제어명령은 상기 선택된 모델의 구성 개 체, 레이어, 도면에 관한 정보를 수정하는 명령 또는 상기 모델의 구조 정보를 수정하고 처리하는 명령이 될 수 있다. Here, the model control command is a control command promised in advance to control the model, and various types of commands can be defined according to a user's desire. For example, the model control command may be a command to rotate the model in two or three dimensions, or a command to scale the size of the model. Also, for example, the model control command may be a command for selecting a component or component of a model, a command for selecting a specific layer of a model, or a command for selecting a drawing of a model and displaying information about it. Also, for example, the model control command may be a command for modifying information about constituent objects, layers, and drawings of the selected model, or a command for modifying and processing structural information of the model.

예를 들어 상기 모델제어명령은 건축물에 관한 3차원 모델을 사용자가 여러 방향에서 볼 수 있도록 3차원으로 회전하는 명령이 될 수 있다. For example, the model control command may be a command to rotate the 3D model of the building in 3D so that the user can see it from various directions.

또한 예를 들어 건축물 설계 모델을 다루는 사용자는 3차원의 설계 모델을 필요에 따라 확대하거나 축소하여 볼 필요가 있으므로, 이와 같은 경우 상기 모델제어명령은 상기 모델을 사용자가 원하는 비율로 확대하 거나 축소하는 명령이 될 수 있다. In addition, for example, a user dealing with a building design model needs to enlarge or reduce the three-dimensional design model as needed. can be a command.

또한 예를 들어 건축물 설계 모델을 다루는 사용자는 건축 공정 중 설계 모델의 특정 도면 정보에 접근할 필요가 있으므로, 이와 같은 경우 상기 모델제어명령은 상기 모델의 특정 도면을 선택하여 해당 도면을 표시 하고 또한 해당 도면의 구성에 대한 정보를 표시하는 명령이 될 수 있다. Also, for example, a user handling a building design model needs to access specific drawing information of the design model during the building process, so in this case, the model control command selects a specific drawing of the model to display the drawing and also It may be a command to display information about the configuration of the drawing.

또한 예를 들어 사용자는 설계 모델을 수정할 필요가 있으므로, 이와 같은 경우 상기 모델제어명령은 상기 모델의 구성 요소 중 일부를 선택하여 이동시키거나 그 내용을 수정하거나 또는 상기 모델에 구성 요소를 추가하거나 삭제하는 등의 수정 명령이 될 수 있다. Also, for example, since the user needs to modify the design model, in this case, the model control command selects and moves some of the components of the model, corrects the contents, or adds or deletes components to the model. It can be a correction order, such as

여기서 제어명령처리부(300)는 카메라부(200)에서 촬영된 사용자의 동작을 인식하여 상기 모델제어명령을 생성할 수 있다. 여기서 카메라부(200)는 사용자가 상기 영상투영면을 터치하는 동작을 촬영하고, 제어명령 처리부(300)는 위와 같이 촬영된 사용자의 움직임 정보를 해석하여 상기 모델에 대하여 미리 약속된 모델제어명 령을 생성할 수 있다. 예를 들어 사용자가 상기 영상투영면에 표시된 상기 모델의 영상에서 상기 모델의 일부분 을 손가락이나 펜으로 터치하는 경우, 카메라부(200)는 그러한 사용자의 움직임을 촬영하고, 제어명령처리부 (300)는 위와 같이 촬영된 사용자의 터치 동작을 해석하여, 터치된 상기 모델의 일부분을 선택하는 동작을 수행 하는 모델제어명령을 생성할 수 있다. 그리고 이어서 사용자가 펜이나 손가락을 이용하여 상기 선택된 일부분을 수정하는 동작을 행하는 경우, 제어명령처리부(300)는 그에 따라 상기 선택된 모델의 일부분을 수정하는 동작을 수행하는 모델제어명령을 생성할 수 있다. Here, the control command processing unit 300 may generate the model control command by recognizing the user's motion photographed by the camera unit 200 . Here, the camera unit 200 captures an operation in which the user touches the image projection surface, and the control command processing unit 300 interprets the user's motion information photographed as described above to obtain a previously promised model control command for the model. can create For example, when a user touches a part of the model with a finger or a pen in the image of the model displayed on the image projection surface, the camera unit 200 captures the user's movement, and the control command processing unit 300 performs the above It is possible to generate a model control command for performing an operation of selecting a part of the touched model by analyzing the user's touch operation photographed together. Then, when the user performs an operation to correct the selected part using a pen or a finger, the control command processing unit 300 may generate a model control command for performing an operation to correct the selected part of the model accordingly. .

영상처리부(400)는 카메라부(200)에서 촬영된 마커(100)를 인식하고, 제어명령처리부(300)에서 생성된상기 모델제어명령에 따라 상기 모델을 제어하고 상기 모델에 대한 정보를 처리하고, 상기 인식된 마커(100)의 정보를 이용하여 영상투영부(500)가 상기 영상투영면에 투영할 상기 모델에 대한 영상을 생성한다. 영상처리부 (400)는 이하에서 영상처리부(400)에 대한 도면과 함께 보다 상세히 설명한다. The image processing unit 400 recognizes the marker 100 photographed by the camera unit 200, controls the model according to the model control command generated by the control command processing unit 300, and processes information about the model, , the image projection unit 500 generates an image for the model to be projected on the image projection surface by using the recognized information of the marker 100 . The image processing unit 400 will be described in more detail below with drawings of the image processing unit 400 .

영상투영부(500)는 영상처리부(400)에서 생성된 영상을 상기 영상투영면에 투영한다. 여기서 영상투영부(500)는 면에 빛을 이용하여 영상을 투영하는 빔 프로젝터가 될 수 있다. The image projection unit 500 projects the image generated by the image processing unit 400 on the image projection surface. Here, the image projector 500 may be a beam projector that projects an image using light on a surface.

여기서 본 발명에 따른 휴대용 프로젝션 기반 모델 제어 시스템은 영상처리부(400)에서 마커(100)를 이용한 공간 좌표 변환 연산을 수행하여 상기 모델에 대한 영상을 생성하고, 하나의 프로젝터만을 구비한 영상투 영부(500)를 이용하여 위 영상을 적어도 두개의 상기 영상투영면에 한 번에 투영함으로써, 서로 구별되고 각자 표시 내용을 조절할 수 있는 모델에 관한 적어도 두개의 영상을 상기 영상투영면에 각각 표시할 수 있다. Here, the portable projection-based model control system according to the present invention generates an image for the model by performing a spatial coordinate transformation operation using the marker 100 in the image processing unit 400, and an image projection unit having only one projector ( 500), by projecting the above image onto at least two of the image projection surfaces at a time, at least two images of models that are distinguished from each other and whose display content can be adjusted respectively can be displayed on the image projection surfaces, respectively.

센서부(600)는 사용자의 손 또는 손가락의 동작 등 사용자의 다양한 움직임을 인식할 수 있다.여기서 센서부(600)가 동작할 경우, 제어명령처리부(300)는 센서부(600)로부터 사용자의 제어 명령을 입력받아 상기 모델제어명령을 생성할 수 있다. The sensor unit 600 may recognize various movements of the user, such as a motion of the user's hand or fingers. Here, when the sensor unit 600 operates, the control command processing unit 300 receives the user's movement from the sensor unit 600 . The control command may be input and the model control command may be generated.

여기서 사용자가 양 손이나 한 손 또는 손가락을 이용하여 미리 약속된 움직임을 하는 경우, 센서부(600)는 이와 같은 사용자의 움직임을 인식하고 그 움직임을 해석하여 사용자의 움직임 정보를 제어명령처리부 (300)에 전달하고, 제어명령처리부(300)는 센서부(600)로부터 입력받은 사용자의 움직임 정보를 다시 해석하여 미리 약속된 움직임에 해당하는 상기 모델에 대한 모델제어명령을 생성할 수 있다. Here, when the user performs a predetermined movement using both hands, one hand, or a finger, the sensor unit 600 recognizes the user's movement, interprets the movement, and transmits the user's movement information to the control command processing unit 300 . ), and the control command processing unit 300 interprets the user's motion information input from the sensor unit 600 again to generate a model control command for the model corresponding to the predetermined motion.

예를 들어 사용자가 양 손을 들어 공중에서 회전시키는 동작을 하는 경우 모델을 회전시키기로 미리 약속하였다면, 센서부(600)는 사용자의 양 손이 회전하는 움직임을 인식하여 이를 제어명령처리부(300)에 전달하 고, 제어명령처리부(300)는 이러한 사용자의 움직임에 따라 상기 모델을 회전시키는 내용에 해당하는 상기 모델 제어명령을 생성하여 영상처리부(400)에 보낼 수 있다. For example, if the user has promised in advance to rotate the model when the user raises both hands and rotates them in the air, the sensor unit 600 recognizes the rotation of both hands of the user and sends it to the control command processing unit 300 . In response to the user's movement, the control command processing unit 300 may generate the model control command corresponding to the content of rotating the model and send it to the image processing unit 400 .

입력단말기부(700)는 사용자가 상기 모델을 제어하기 위한 명령을 입력하는 장치이다.여기서 입력단말기부(700)가 사용되는 경우, 제어명령처리부(300)는 입력단말기부(700)로부터 사용자의 제어 명령을 입력받아 상기 모델제어명령을 생성할 수 있다. The input terminal unit 700 is a device for the user to input a command for controlling the model. Here, when the input terminal unit 700 is used, the control command processing unit 300 receives the user's input from the input terminal unit 700 . The control command may be input and the model control command may be generated.

여기서 입력단말기부(700)는 센서를 이용하여 위치를 인식하고 디지털로 문서화가 가능한 펜이나, 화면디스플레이와 화면 터치가 가능한 휴대폰이나 테블릿이 될 수 있다. 예를 들어 사용자가 휴대폰이나 테블릿에 표시된 상기 모델에 대한 영상을 손가락이나 터치펜을 이용하여 회전시키는 화면 터치 동작을 수행하는 경우, 제어명령처리부(300)는 휴대폰이나 테블릿으로부터 위와 같은 사용자의 입력 정보를 전달받아, 이를 해석하여 모델 회전에 해당하는 상기 모델제어명령을 생성할 수 있다. 또한 예를 들어 사용자가 위치 인식 가능한 디지털 펜을 이용하여, 상기 영상투영면에 표시된 모델의 구성 객체를 이동시키는 동작을 수행하는 경우, 제어명령처리 부(300)는 상기 디지털 펜으로부터 정보를 전달받아 이를 해석하여 모델 이동에 해당하는 상기 모델제어명령을 생성할 수 있다. Here, the input terminal unit 700 may be a pen capable of recognizing a location and digitally documenting it using a sensor, or a mobile phone or tablet capable of screen display and screen touch. For example, when the user performs a screen touch operation to rotate the image for the model displayed on the mobile phone or tablet using a finger or a touch pen, the control command processing unit 300 receives the user's It is possible to generate the model control command corresponding to the model rotation by receiving the input information and analyzing it. Also, for example, when a user performs an operation of moving a component object of a model displayed on the image projection surface using a position-recognizable digital pen, the control command processing unit 300 receives information from the digital pen and uses it It is possible to generate the model control command corresponding to the model movement by analysis.

이하에서는 영상처리부(400)의 동작에 대하여 보다 상세히 설명한다.Hereinafter, the operation of the image processing unit 400 will be described in more detail.

도1에서와 같이 영상처리부(400)는 마커인식부(410), 모델처리부(420), 투영영상생성부(430)을 포함할 수 있다.1 , the image processing unit 400 may include a marker recognition unit 410 , a model processing unit 420 , and a projection image generation unit 430 .

마커인식부(410)는 상기 영상투영면에 위치된 마커(100)를 검출하여 인식한다. 여기서 마커인식부(410)는 카메라부(200)가 촬영한 상기 영상투영면에 위치된 마커(100)의 영상을 입력받아, 상기 마커(100)의 영상 으로부터 마커(100)를 검출할 수 있다. The marker recognition unit 410 detects and recognizes the marker 100 located on the image projection surface. Here, the marker recognition unit 410 may receive an image of the marker 100 located on the image projection surface photographed by the camera unit 200 and detect the marker 100 from the image of the marker 100 .

모델처리부(420)는 제어명령처리부(300)에서 생성한 상기 모델제어명령에 따라 상기 모델을 제어하고 상기 모델에 대한 정보를 처리한다. The model processing unit 420 controls the model according to the model control command generated by the control command processing unit 300 and processes information about the model.

여기서 모델처리부(420)는 상술한 바와 같은 상기 모델제어명령의 내용에 따라 상기 모델을 제어할 수있다. 예를 들면 모델처리부(420)는 상기 모델제어명령의 내용에 따라 상기 모델을 2차원 또는 3차원으로 회전 하거나, 상기 모델의 크기를 스케일링하거나, 상기 모델의 구성 요소 중 일부를 선택하거나, 상기 모델을 수정 하는 제어 동작을 수행할 수 있다. Here, the model processing unit 420 may control the model according to the content of the model control command as described above. For example, the model processing unit 420 rotates the model in two or three dimensions, scales the size of the model, selects some of the model components, or the model according to the content of the model control command. You can perform a control operation to modify

예를 들어 사용자는 상기 모델의 특정 평면 도면을 확인하고자 할 때에, 입력단말기부(700)를 통하여 상기 모델의 특정 층의 평면 도면을 선택할 수 있고, 제어명령처리부(300)는 그와 같은 내용의 상기 모델제어명 령을 생성하고, 모델처리부(420)는 상기 모델제어명령에 따라 상기 모델의 특정 평면 도면을 선택할 수 있다. 또한 사용자가 상기 모델의 특정 평면 도면을 수정하고자 할 때에, 입력단말기부(700)를 통하여 상기 모델의 특 정 평면 도면을 수정할 수 있고, 제어명령처리부(300)는 그와 같은 내용의 상기 모델제어명령을 생성하고, 모델 처리부(420)는 상기 모델제어명령에 따라 상기 모델의 특정 평면 도면을 수정할 수 있다. For example, when the user wants to check a specific plan view of the model, the user may select a plan view of a specific floor of the model through the input terminal unit 700, and the control command processing unit 300 provides The model control command is generated, and the model processing unit 420 may select a specific plan view of the model according to the model control command. Also, when the user wants to modify a specific plan view of the model, the user can modify a specific plan view of the model through the input terminal unit 700, and the control command processing unit 300 controls the model with such contents. A command is generated, and the model processing unit 420 may modify a specific plan view of the model according to the model control command.

여기서 모델처리부(420)는 상술한 바와 같은 상기 모델제어명령에 따라, 상기 모델의 구조 정보 및 구성 개체 정보를 처리할 수 있다. Here, the model processing unit 420 may process structure information and constituent entity information of the model according to the model control command as described above.

예를 들어 모델처리부(420)에서 처리하는 상기 모델에 관한 정보는 상기 모델이 3차원 건축 설계 모델인 경우, 설계 모델의 특정 층의 평면도 정보가 될 수 있고, 설계 모델의 벽면, 바닥면의 형태나 넓이나 길이와 같은 구조 정보가 될 수 있고, 설계 모델에 배치되어 있는 가구의 위치, 모양, 부피 등 구성 개체에 관한 정보 가 될 수 있다. 여기서 모델처리부(420)는 이상과 같은 상기 모델에 관한 정보를 저장하고 선택하고 수정하고 획득하고 표시하는 등의 처리 작업을 할 수 있다. For example, the information about the model processed by the model processing unit 420 may be floor plan information of a specific floor of the design model when the model is a three-dimensional architectural design model, and the shape of the wall surface and the floor surface of the design model It can be structural information such as width or length, or it can be information about constituent objects such as the location, shape, and volume of furniture arranged in the design model. Here, the model processing unit 420 may perform processing tasks such as storing, selecting, modifying, acquiring, and displaying information about the model as described above.

투영영상생성부(430)는 모델처리부(420)에서 제어된 상기 모델과 처리된 상기 모델에 대한 정보를 포함하는 모델 영상 컨텐츠를 생성하고, 상기 모델 영상 컨텐츠와 마커인식부(410)에서 인식된 마커(100)의 정보를 이용하여 상기 영상투영면에 투영할 상기 모델의 투영영상을 생성할 수 있다. The projection image generating unit 430 generates model image content including the model controlled by the model processing unit 420 and information on the processed model, and recognized by the model image content and the marker recognition unit 410 . A projection image of the model to be projected on the image projection surface may be generated using the information of the marker 100 .

여기서 투영영상생성부(430)는 마커인식부(410)에서 인식된 마커(100)의 모양과 크기 정보를 이용하여,마커(100)가 위치된 상기 영상투영면의 좌표를 산출하고, 영상투영부(500)의 좌표를 산출하고, 상기 영상투영면 의 좌표와 영상투영부(500)의 좌표 간의 공간변환행렬을 생성하고, 상기 모델 영상 컨텐츠를 상기 생성된 공간 변환행렬을 이용하여 변환하여, 상기 영상투영면에 투영할 상기 모델의 투영영상을 생성하는 것이 바람직하다. Here, the projection image generation unit 430 calculates the coordinates of the image projection surface on which the marker 100 is located, using the shape and size information of the marker 100 recognized by the marker recognition unit 410, and the image projection unit Calculate the coordinates of (500), generate a spatial transformation matrix between the coordinates of the image projection surface and the coordinates of the image projection unit 500, and transform the model image content using the generated spatial transformation matrix, and the image It is preferable to generate a projection image of the model to be projected onto a projection plane.

여기서 상기 공간변환행렬은 바람직하게는 Affine 변환을 수행하는 변환 행렬일 수 있다. 여기서 Affine 변환은 한 좌표공간을 다른 좌표공간으로 변환시키는 변환으로, 선형 변환과 평행 이동 변환의 합으로 이루어진다. Here, the spatial transformation matrix may be a transformation matrix that preferably performs an Affine transformation. Here, the Affine transformation is a transformation that transforms one coordinate space into another coordinate space, and consists of a linear transformation and a translation transformation.

예를 들어 이와 같은 Affine 변환은 하기 수학식 1과 같은 각 좌표 공간 간의 변환 연산을 통해 수행될 수 있다.For example, such an Affine transformation may be performed through a transformation operation between each coordinate space as shown in Equation 1 below.

Claims (4)

휴대용 프로젝션 기반 모델 제어 시스템에 있어서,
사용자가 지정하는 임의의 영상투영면에 위치하고 이동이 가능하고, 특정 패턴을 가지는 인식표인 마커;
상기 영상투영면에 위치된 상기 마커를 촬영하는 카메라부;
사용자가 처리하려는 특정 모델에 대한 사용자의 제어 명령을 입력받아 모델제어명령을 생성하는 제어 명령처리부; 및
상기 카메라부에서 촬영된 상기 마커를 인식하고, 상기 제어명령처리부에서 생성된 모델제어명령에 따 라 상기 모델을 제어하고 상기 모델에 대한 정보를 처리하고, 상기 인식된 마커의 정보를 이용하여 상기 영상투 영면에 투영할 상기 모델에 대한 영상을 생성하는 영상처리부를 포함하고,
상기 영상처리부는 상기 마커를 이용하여 상기 모델을 특정하고, 상기 인식된 마커의 모양과 크기를 이용하여, 상기 마커가 위치한 상기 영상투영면의 위치를 산출하고, 상기 산출된 상기 영상투영면의 위치 정보를 이용하여, 상기 영상투영면에 투영할 상기 모델에 대한 영상을 생성하는 것을 특징으로 하는 휴대용 프로젝션 기반 모델 제어 시스템.
In the portable projection-based model control system,
a marker that is located on an arbitrary image projection surface designated by a user, is movable, and is an identification tag having a specific pattern;
a camera unit for photographing the marker located on the image projection surface;
a control command processing unit that receives a user's control command for a specific model to be processed by the user and generates a model control command; and
Recognizes the marker photographed by the camera unit, controls the model according to a model control command generated by the control command processing unit, processes information about the model, and uses the recognized marker information to obtain the image An image processing unit for generating an image for the model to be projected on a projection plane,
The image processing unit specifies the model using the marker, calculates the position of the image projection surface on which the marker is located, using the shape and size of the recognized marker, and obtains the calculated position information of the image projection surface. A portable projection-based model control system, characterized in that it generates an image for the model to be projected on the image projection surface by using it.
제1항에 있어서,
상기 영상처리부에서 생성된 영상을 상기 영상투영면에 투영하는 영상투영부를 더 포함하는 것을 특징 으로 하는 휴대용 프로젝션 기반 모델 제어 시스템.
According to claim 1,
Portable projection-based model control system, characterized in that it further comprises an image projection unit for projecting the image generated by the image processing unit on the image projection surface.
제1항 또는 제2항 중 어느 하나의 항에 있어서,
상기 카메라부는 사용자가 상기 영상투영면을 터치하는 동작이나 손 또는 손가락의 동작을 촬영하는 것 을 특징으로 하는 휴대용 프로젝션 기반 모델 제어 시스템.
3. The method according to any one of claims 1 to 2,
The camera unit is a portable projection-based model control system, characterized in that the user touches the image projection surface or captures a motion of a hand or a finger.
제1항 또는 제2항 중 어느 하나의 항에 있어서,
상기 모델제어명령은 상기 모델을 2차원 또는 3차원으로 회전하는 명령 또는 상기 모델의 크기를 스케 일링하는 명령 또는 상기 모델의 구성 요소 중 일부를 선택하는 명령 또는 상기 모델을 수정하는 명령을 포함하 는 것을 특징으로 하는 휴대용 프로젝션 기반 모델 제어 시스템.
3. The method according to any one of claims 1 to 2,
The model control command includes a command to rotate the model in two or three dimensions, a command to scale the size of the model, a command to select some of the components of the model, or a command to modify the model A portable projection-based model control system, characterized in that.
KR1020200094183A 2020-07-29 2020-07-29 3D Model Control System and Method Based on multi-screen Projection KR20220014513A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200094183A KR20220014513A (en) 2020-07-29 2020-07-29 3D Model Control System and Method Based on multi-screen Projection

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200094183A KR20220014513A (en) 2020-07-29 2020-07-29 3D Model Control System and Method Based on multi-screen Projection

Publications (1)

Publication Number Publication Date
KR20220014513A true KR20220014513A (en) 2022-02-07

Family

ID=80253244

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200094183A KR20220014513A (en) 2020-07-29 2020-07-29 3D Model Control System and Method Based on multi-screen Projection

Country Status (1)

Country Link
KR (1) KR20220014513A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116594532A (en) * 2023-07-12 2023-08-15 江西格如灵科技股份有限公司 3D model auditing method, system, computer and readable storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116594532A (en) * 2023-07-12 2023-08-15 江西格如灵科技股份有限公司 3D model auditing method, system, computer and readable storage medium
CN116594532B (en) * 2023-07-12 2023-09-08 江西格如灵科技股份有限公司 3D model auditing method, system, computer and readable storage medium

Similar Documents

Publication Publication Date Title
KR100953606B1 (en) Image displaying apparatus, image displaying method, and command inputting method
EP1292877B1 (en) Apparatus and method for indicating a target by image processing without three-dimensional modeling
CN110162236B (en) Display method and device between virtual sample boards and computer equipment
US6594616B2 (en) System and method for providing a mobile input device
US7139685B2 (en) Video-supported planning of equipment installation and/or room design
US9513716B2 (en) Bimanual interactions on digital paper using a pen and a spatially-aware mobile projector
JP5201096B2 (en) Interactive operation device
Chan et al. Enabling beyond-surface interactions for interactive surface with an invisible projection
US20070216642A1 (en) System For 3D Rendering Applications Using Hands
CN105637559A (en) Structural modeling using depth sensors
KR20140112064A (en) Virtual ruler
JP6379880B2 (en) System, method, and program enabling fine user interaction with projector-camera system or display-camera system
CN111527468A (en) Air-to-air interaction method, device and equipment
KR100971667B1 (en) Apparatus and method for providing realistic contents through augmented book
Nishino et al. 3d object modeling using spatial and pictographic gestures
KR101496761B1 (en) 3D Model Control System and Method Based on multi-screen Projection
KR20220014513A (en) 3D Model Control System and Method Based on multi-screen Projection
CN107015650B (en) Interactive projection method, device and system
KR101426378B1 (en) System and Method for Processing Presentation Event Using Depth Information
JPH07160412A (en) Pointed position detecting method
Agrawal et al. HoloLabel: Augmented reality user-in-the-loop online annotation tool for as-is building information
CN116055708B (en) Perception visual interactive spherical screen three-dimensional imaging method and system
Kim et al. Design of Authoring Tool for Static and Dynamic Projection Mapping.
WO2001046941A1 (en) Method and apparatus for vision-based coupling between pointer actions and projected images
WO2021166751A1 (en) Information-processing device, information-processing method, and computer program