KR20100029725A - System and method for managing image information using object extracted from image - Google Patents

System and method for managing image information using object extracted from image Download PDF

Info

Publication number
KR20100029725A
KR20100029725A KR1020090084652A KR20090084652A KR20100029725A KR 20100029725 A KR20100029725 A KR 20100029725A KR 1020090084652 A KR1020090084652 A KR 1020090084652A KR 20090084652 A KR20090084652 A KR 20090084652A KR 20100029725 A KR20100029725 A KR 20100029725A
Authority
KR
South Korea
Prior art keywords
photographing
information
image
event
photographed
Prior art date
Application number
KR1020090084652A
Other languages
Korean (ko)
Other versions
KR101038940B1 (en
Inventor
임명구
김성림
권정민
연희정
전재열
Original Assignee
주식회사 지티에스이엔씨건축사사무소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 지티에스이엔씨건축사사무소 filed Critical 주식회사 지티에스이엔씨건축사사무소
Publication of KR20100029725A publication Critical patent/KR20100029725A/en
Application granted granted Critical
Publication of KR101038940B1 publication Critical patent/KR101038940B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

PURPOSE: An image information managing system using a photographed object extracted from a photographed image and a method thereof are provided to efficiently manage and search a photographed image using photographing object information and attributes of photographed objects. CONSTITUTION: An information input unit(130) inputs a photographing image and input information. A 3D model unit(140) generates a virtual image in a virtual space realized by objects. An object extracting unit(121) compares the virtual image with the photographing image. The object extracting unit extracts each object constituting the photographing image as photographing objects. The object extracting unit generates photographing object information.

Description

촬영영상에서 추출된 촬영객체를 이용한 영상정보 관리 시스템 및 그 방법{System and method for managing image information using object extracted from image}System and method for managing image information using object extracted from photographed image

본 발명은 영상정보 관리 시스템 및 그 방법에 관한 것으로서, 더욱 상세하게는 촬영영상과 관련된 벡터정보를 이용하여 촬영영상 내에 포함된 촬영객체들을 추출하고, 추출된 촬영객체를 이용하여 영상정보를 관리 및 검색할 수 있는 촬영영상에서 추출된 촬영객체를 이용한 영상정보 관리 시스템 및 그 방법에 관한 것이다.The present invention relates to an image information management system and a method thereof, and more particularly, extracting photographing objects included in a photographing image using vector information related to the photographing image, and managing image information using the extracted photographing object. The present invention relates to an image information management system using a photographing object extracted from retrievable photographed images, and a method thereof.

일반적으로 건설사업을 포함한 다양한 사업분야에서 카메라와 캠코더 등과 같은 영상 촬영기에서 생성한 영상은 다량의 집적된 정보를 담게 되어 기록용으로 많이 사용된다.In general, images generated by video cameras such as cameras and camcorders in a variety of business fields, including construction projects are used for recording because they contain a large amount of integrated information.

특히 최근 디지털 카메라와 디지털 캠코더의 보급으로 건설 현장 및 공장을 포함한 다양한 장소에서 수천, 수만 건의 사진과 동영상이 생성되고 있다. 그러나 영상 중심의 정보전달매체인 사진과 동영상에는 누가, 언제, 어디서, 무엇을, 어떻게, 왜 촬영했는지에 해당하는 정보를 포함하고 있지 않다.In particular, with the recent spread of digital cameras and digital camcorders, thousands and tens of thousands of photos and videos are generated in various places including construction sites and factories. However, pictures and videos, which are image-oriented information delivery media, do not contain information on who, when, where, what, how, and why.

도 1은 일반적인 촬영영상을 예시한 도면이다. 예를 들어 도 1(a)는 빌딩을 촬영한 촬영영상으로서, 과연 어디에서 어떤 빌딩을 왜 촬영한 것인지 알기가 힘들다. 한편 도 1(b)는 빌딩의 실내를 촬영한 촬영영상으로서 이 또한 도 1(a)와 마찬가지로 어떤 빌딩의 어떤 층을 촬영한 것인지 왜 촬영한 것인지 알기가 힘들다. 때문에 촬영영상의 촬영대상 및 촬영목적을 일일이 기록해야 하는 문제점이 있으며, 유사하게 생긴 건물이 많은 경우 건물이 과연 어느 빌딩인지 알기가 힘들다. 1 is a diagram illustrating a general photographed image. For example, FIG. 1 (a) is a photographed image of a building, and it is difficult to know where and why a certain building was photographed. On the other hand, Figure 1 (b) is a photographed image of the interior of the building, as in Figure 1 (a) it is also difficult to know what floor of which building and what was taken. Therefore, there is a problem of recording the shooting object and the shooting purpose of the shooting image one by one, and if there are a lot of similar buildings, it is difficult to know which building is the building.

따라서 사진 및 동영상 촬영자는 일일이 사진과 동영상에 촬영장소, 촬영대상, 촬영목적 등을 별도로 기록해야만 했다. 한편 위와 같은 번잡한 기록 과정이 없다면, 예를 들어 건설 현장에서 반복되는 층마다 비슷한 사진들이 발생하는 경우 각각의 사진이 어디를 촬영한 것인지 판단하기 힘들어 중요한 시공 정보를 담고 있는 수많은 사진들이 분실되거나 무용지물이 되는 문제점이 있다. Therefore, the photographer and videographer had to separately record the shooting location, the subject of the shooting, and the purpose of the shooting in the photo and video. On the other hand, if there is no such complicated recording process, for example, if similar pictures occur in repeated floors at the construction site, it is difficult to determine where each picture was taken, so that many pictures containing important construction information are lost or obsolete. There is a problem.

한편 수많은 사진 및 동영상에 일일이 촬영대상과 촬영장소를 기록하는 데에는 엄청난 비용 및 시간이 투입되며, 설령 이를 기록한다 해도 사진 및 동영상을 관리하고 검색하는 데에도 엄청난 시간 및 비용이 소요되는 문제점이 있다.On the other hand, a lot of money and time is required to record a subject and a place to shoot a lot of photos and videos, and even if recorded, there is a problem that it takes a great time and money to manage and search photos and videos.

이에 촬영한 촬영영상의 촬영대상 및 촬영목적을 자동으로 추출하여 이를 저장하고, 추출된 촬영대상 및 촬영목적을 이용하여 효과적으로 촬영영상을 관리할 수 있는 관리 시스템의 필요성이 점점 높아지고 있다.There is a growing need for a management system that automatically extracts and saves the shooting object and the shooting object of the taken shooting image, and effectively manages the shooting image by using the extracted shooting object and shooting purpose.

본 발명이 해결하고자 하는 과제는, 촬영영상과 벡터정보와 3D 모델을 이용하여 무엇을 촬영한 것인지에 대한 촬영객체정보와 왜 촬영한 것인지에 대한 촬영목적을 용이하게 획득할 수 있는, 촬영영상에서 추출된 촬영객체를 이용한 영상정보 관리 시스템 및 그 방법을 제공하는 것이다.The problem to be solved by the present invention is extracted from the photographed image, which can easily obtain the shooting object information about what was photographed using the photographed image, vector information and the 3D model and the purpose of photographing why. The present invention provides an image information management system using a photographing object and a method thereof.

상기한 과제를 해결하기 위해 본 발명은, 촬영 당시의 시간에 대한 촬영시간정보와 촬영 당시의 화각에 대한 촬영화각정보를 포함하는 촬영영상 및 상기 촬영영상의 벡터정보를 포함하는 입력정보를 입력받는 정보 입력부; 실세계 좌표정보를 가지는 객체들과 그 객체의 명칭을 포함하는 객체속성을 저장하고 있으며, 객체들로 구현된 가상공간 내에서 촬영화각정보와 상기 벡터정보에 기초하여 가상영상을 생성하는 3D 모델부; 가상영상과 촬영영상을 비교하여 촬영영상을 구성하는 각 객체를 촬영객체로서 추출하고, 추출된 촬영객체의 명칭을 포함하는 촬영객체정보를 생성하는 객체추출부; 및 촬영객체정보를 각각의 촬영영상 및 촬영객체별로 저장하는 영상정보 데이터베이스를 포함하며, 촬영영상의 벡터정보는 촬영 당시의 촬영기의 위치와 촬영방향에 대한 정보로서, 촬영기의 3차원 위치에 대한 촬영위치정보, 촬영기의 렌즈 축이 향하는 방위각에 대한 촬영방위정보, 촬영기의 렌즈 축이 중력 방향에 대하여 기울어진 수직기울기정보, 및 촬영영상의 수평축이 지평선에 대하여 기울어진 수평기울기정보를 포함하는, 영상정보 관리 시스템을 제공하는 데 있다.In order to solve the above problems, the present invention receives a recording image including the shooting time information on the time of shooting and the shooting angle of view information on the angle of view at the time of shooting and input information including the vector information of the shooting image. An information input unit; A 3D model unit which stores objects having real world coordinate information and an object property including a name of the object, and generates a virtual image based on photographing angle information and the vector information in a virtual space formed of the objects; An object extracting unit for extracting each object constituting the captured image by comparing the virtual image with the captured image as a photographing object, and generating photographing object information including the name of the extracted photographing object; And an image information database for storing photographing object information for each photographing object and photographing object, wherein the vector information of the photographing image is information about the position and the photographing direction of the photographing apparatus at the time of photographing. Image including position information, shooting orientation information on the azimuth angle of the lens axis of the camera, vertical tilt information of which the lens axis of the camera is tilted with respect to the gravity direction, and horizontal tilt information of which the horizontal axis of the photographed image is tilted with respect to the horizon To provide an information management system.

바람직하게는, 상기 3D 모델부는 각각의 객체별로 객체와 관련된 이벤트 명칭 및 그 이벤트 기간을 포함하는 이벤트정보를 더 저장하고 있으며, 상기 관리 시스템은 촬영시간정보와 촬영객체의 이벤트정보를 비교하고, 촬영시간정보가 촬영객체의 이벤트 기간 내에 존재하는 촬영객체를 추출하여 그 이벤트 명칭을 상기 영상정보 데이터베이스에 촬영목적으로서 저장하는 목적추출부를 더 포함할 수 있다.Preferably, the 3D model unit further stores the event information, including the event name and the event duration associated with the object for each object, the management system compares the shooting time information and the event information of the shooting object, and shooting The apparatus may further include an object extracting unit for extracting a photographing object whose time information exists within an event period of the photographing object and storing the event name in the image information database as a photographing purpose.

본 발명에 의하면, 촬영영상과 벡터정보와 3D 모델을 이용하여 촬영영상이 무엇을 촬영한 것인지에 대한 촬영객체정보와 왜 촬영한 것인지에 대한 촬영목적을 용이하게 획득할 수 있으며, 그 촬영객체정보 및 촬영객체 들의 속성을 이용하여 촬영영상을 효율적으로 관리 및 검색할 수 있다.According to the present invention, by using the captured image, the vector information and the 3D model, it is possible to easily obtain the shooting object information on what the captured image is taken and the shooting purpose of why the captured image, and the shooting object information and shooting The attributes of objects can be used to efficiently manage and search captured images.

우선 본 발명에서 사용되는 용어에 대하여 먼저 정리하도록 한다.First, the terms used in the present invention will be summarized first.

촬영영상이란 카메라 및 캠코더를 포함하는 촬영기로 촬영된 영상을 의미하며, 촬영 당시의 시간에 대한 정보인 촬영시간정보와 촬영 당시의 화각에 대한 촬영화각정보를 포함한다. The photographed image refers to an image photographed by a photographing apparatus including a camera and a camcorder, and includes photographing time information which is information on a time at the time of photographing and photographing angle of view information on an angle of view at the time of photographing.

최근의 촬영기는 촬영영상이 포함되는 영상파일에 촬영영상 외에 촬영기의 장치제어정보와 관련된 메타정보(exif), 예를 들어 촬영기의 제조사와 모델, 촬영 시각, 영상 저장 시각, 셔터 속도, 렌즈초점거리(화각), 조리개 값, 노출 보정값, 촬영 프로그램, 측광 모드, 화이트 밸런스 설정, B/W 기준점, 픽셀 컴프레션/샘플링/포지셔닝(Y:Cb:Cr), 컴포넌트 설정 및 압축률(Y to C), 컬러 스페이스, x 해상 도, y 해상도, x 사이즈, y 사이즈, 단위, 오리엔테이션, 파일 압축 방식, 이미지 이름 등을 추가적으로 기록할 수 있다. 본 발명에서 촬영영상은 촬영된 이미지정보와 촬영 당시의 시간에 대한 촬영시간정보 외에 상기 장치제어정보의 전부 또는 일부를 더 포함할 수 있다.In recent years, in addition to the photographed image in the image file containing the photographed image, meta information (exif) related to the device control information of the photographing device, for example, the manufacturer and model of the photographing device, photographing time, image recording time, shutter speed, lens focal length (View angle), aperture value, exposure compensation value, shooting program, metering mode, white balance setting, B / W reference point, pixel compression / sampling / positioning (Y: Cb: Cr), component setting and compression ratio (Y to C), Color space, x resolution, y resolution, x size, y size, unit, orientation, file compression method, image name, etc. can be additionally recorded. In the present invention, the photographed image may further include all or part of the device control information in addition to the photographed image information and the photographing time information of the time at the photographing time.

촬영영상의 벡터정보란 촬영기가 촬영한 촬영대상, 즉 피사체를 특정할 수 있는 정보로서, 촬영기의 3차원 위치에 대한 촬영위치정보, 촬영기의 렌즈 축이 향하는 방위각에 대한 촬영방위정보, 촬영기의 렌즈 축이 중력 방향에 대하여 기울어진 수직기울기정보, 및 촬영영상의 수평축이 지평선에 대하여 기울어진 수평기울기정보를 포함하며, 추가로 촬영기에서 촬영대상까지의 거리인 촬영거리정보를 더 포함할 수 있다. 이러한 벡터정보는 촬영기에서 셔터가 눌려진 시점, 즉 촬영영상이 생성된 시점에 촬영기의 위치와 촬영방향에 대한 정보이다. The vector information of the photographed image is information for identifying a photographing subject, that is, a subject photographed by the photographing apparatus, photographing position information about the three-dimensional position of the photographing apparatus, photographing azimuth information about the azimuth angle toward the photographic lens axis, photographing lens The vertical tilt information in which the axis is inclined with respect to the gravity direction and the horizontal tilt information in which the horizontal axis of the captured image is inclined with respect to the horizon may further include shooting distance information that is a distance from the camera to the shooting object. The vector information is information about the position and the direction of photographing the camera when the shutter is pressed, that is, when the photographed image is generated.

촬영기의 3차원 위치에 대한 촬영위치정보는 촬영 위치를 3차원 좌표로 나타내거나, GPS 시스템에 의한 GPS 위치정보(위도, 경도, 고도)로 나타내거나 또는 여타 유사한 기술을 활용하여 좌표 개념으로 나타낸 정보이다.The recording position information of the three-dimensional position of the camera indicates the shooting position in three-dimensional coordinates, the GPS position information (latitude, longitude, altitude) by the GPS system, or the coordinate concept using other similar techniques. to be.

도 2a 내지 도 2c는 촬영영상의 벡터정보를 예시한 도면으로서, 점선은 촬영부(110)의 렌즈 축(촬영방향)을, 일점 쇄선은 지평선을, 이점 쇄선은 중력 방향을, 실선은 영상의 수평축을 각각 의미한다. 2A to 2C are diagrams illustrating vector information of a photographed image, wherein a dotted line indicates a lens axis (shooting direction) of the photographing unit 110, a dashed dotted line indicates a horizon line, a dashed dotted line indicates a gravity direction, and a solid line indicates an image Each means a horizontal axis.

도 2a를 참조하면, 방위각(α)이란 촬영부(110)의 피사체(7)를 향한 렌즈 축이 진북(north)과 이루는 수평각, 즉 촬영부(110)에서 촬영대상을 향한 방향이 진북과 이루는 수평각을 의미하며, 진북을 기준으로 시계방향으로 표현된다. 따라서 방위각은 0~360˚의 범위를 가질 수 있다. Referring to FIG. 2A, the azimuth angle α denotes a horizontal angle formed by the lens axis toward the subject 7 of the photographing unit 110 with the north, that is, a direction toward the photographing subject from the photographing unit 110 as the north. It means the horizontal angle and is expressed clockwise with respect to true north. Therefore, the azimuth angle may have a range of 0 to 360 degrees.

도 2b를 참조하면, 수직 기울기란 벡터정보 생성 장치(100)에서 촬영부(110)의 피사체(7)를 향한 렌즈 축이 중력 방향과 이루는 각도(β)를 의미한다. 예를 들어, 상공에서 지면에 수직한 방향으로 피사체를 촬영하는 경우 수직 기울기는 O˚이고, 지면에서 수직한 방향으로 상공을 촬영하는 경우 수직 기울기는 180˚이다. 한편, 촬영거리정보는 촬영기의 렌즈로부터 피사체까지의 거리(l)를 의미한다.Referring to FIG. 2B, the vertical tilt refers to an angle β of the lens axis toward the subject 7 of the photographing unit 110 in the direction of gravity in the vector information generating apparatus 100. For example, when photographing a subject in a direction perpendicular to the ground in the air, the vertical tilt is 0 degrees, and when photographing the air in a direction perpendicular to the ground, the vertical tilt is 180 degrees. On the other hand, the photographing distance information means the distance l from the lens of the camera to the subject.

도 2c를 참조하면, 수평기울기란 촬영 영상의 수평축이 지평선 방향과 이루는 각도(γ)를 의미한다. 예를 들어, 도 2c에서 피사체(7)를 촬영 중인 벡터정보 생성 장치(100)는 시계 반대 방향으로 γ˚ 만큼 기울어져 있다. Referring to FIG. 2C, the horizontal tilt means an angle γ formed between the horizontal axis of the captured image and the horizon direction. For example, the vector information generating apparatus 100 that is photographing the subject 7 in FIG. 2C is inclined by γ ° in the counterclockwise direction.

촬영영상의 벡터정보를 분석하면 촬영대상의 3차원 위치가 추정될 수 있는데, 정확히 말하자면, 촬영한 영상에서 영상의 중심에 위치한 물체의 3차원 위치가 추정될 수 있다. 따라서 만일 촬영대상이 지구상에서 위치가 고정된 물체라면, 촬영대상의 벡터정보를 알면 촬영대상이 지구상에서의 위치하는 3차원 위치를 알 수 있으므로, 촬영대상이 정확히 무엇인지 추정할 수 있다.Analyzing the vector information of the photographed image can be estimated the three-dimensional position of the object to be photographed, to be precise, the three-dimensional position of the object located in the center of the image in the photographed image can be estimated. Therefore, if the object to be photographed is a fixed position on the earth, knowing the vector information of the subject to know the three-dimensional position of the object to be photographed on the earth, it is possible to estimate exactly what the subject.

한편, 상기에서 설명한 것처럼 영상정보는 영상촬영기의 장치제어정보를 포함할 수 있다. 영상촬영기의 장치제어정보는 초점거리에 대한 정보를 포함하는데, 이러한 초점거리정보는 촬영기의 화각과 밀접하게 관련되어 있다. 따라서 초점거리를 알면 촬영기의 화각에 대한 촬영화각정보도 또한 알 수 있으며, 상기에서 설명한 벡터정보에 영상촬영기의 촬영화각정보까지 추가되면 영상촬영기가 촬영한 영상을 더욱 정확히 추정할 수 있다.Meanwhile, as described above, the image information may include device control information of the image photographing apparatus. Device control information of the imager includes information on the focal length, which is closely related to the angle of view of the imager. Therefore, when the focal length is known, photographing angle information of the angle of view of the camera can also be known. When the angle of view information of the image camera is added to the above-described vector information, the imager can more accurately estimate the captured image.

이하에서 첨부된 도면을 참조하여, 본 발명의 바람직한 실시예를 상세히 설명한다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. Like reference numerals in the drawings denote like elements.

도 3은 본 발명에 따른 영상정보 관리 시스템을 나타낸 블록도이다.3 is a block diagram showing a video information management system according to the present invention.

도 3을 참조하면, 영상정보 관리 시스템(100)은 정보입력부(130), 정보관리부(130), 3D(3 dimensional) 모델부(140), 및 영상정보 데이터베이스(database, DB, 150)를 포함하며, 추가로 정보검색부(110)를 더 포함할 수 있다.Referring to FIG. 3, the image information management system 100 includes an information input unit 130, an information management unit 130, a 3D model unit 140, and an image information database (DB, 150). In addition, the information retrieval unit 110 may be further included.

정보입력부(120)는 유무선 통신이나 외부 장치와의 인터페이스를 통하여 각종 입력정보를 입력받는 역할을 수행하며, 입력정보는 촬영영상 및 촬영영상의 벡터정보를 포함한다. The information input unit 120 serves to receive various input information through wired / wireless communication or an interface with an external device, and the input information includes a captured image and vector information of the captured image.

촬영영상은 카메라 및 캠코더를 포함하는 촬영기로 촬영된 영상을 의미하며, 촬영 당시의 시간에 대한 정보인 촬영시간정보와 촬영 당시의 화각에 대한 촬영화각정보를 포함한다. 또한, 촬영영상은 장치제어정보(메타정보)를 포함하는 영상파일을 생성하는 촬영기에 의해 생성된 촬영영상인 경우 상기의 장치제어정보를 더 포함할 수 있다.The photographed image refers to an image photographed by a photographing apparatus including a camera and a camcorder, and includes photographing time information, which is information on time at the time of photographing, and photographing angle of view information on an angle of view at the time of photographing. The photographed image may further include the device control information when the photographed image is a photographed image generated by a photographing apparatus that generates an image file including device control information (meta information).

촬영영상의 벡터정보는 촬영기가 촬영한 촬영대상, 즉 피사체를 특정할 수 있는 정보로서, 촬영기의 3차원 위치에 대한 촬영위치정보, 촬영기의 렌즈 축이 향하는 방위각에 대한 촬영방위정보, 촬영기의 렌즈 축이 중력 방향에 대하여 기울어진 수직기울기정보, 및 촬영영상의 수평축이 지평선에 대하여 기울어진 수평기울기정보를 포함하며, 추가로 촬영기에서 촬영대상까지의 거리인 촬영거리정보를 더 포함할 수 있다. 이러한 벡터정보는 촬영기에서 셔터가 눌려진 시점, 즉 촬영영상이 생성된 시점에 촬영기의 위치와 촬영방향에 대한 정보이다. The vector information of the photographed image is information for identifying a photographing subject, that is, a subject photographed by the photographing apparatus, photographing position information on the three-dimensional position of the photographing apparatus, photographing azimuth information about the azimuth angle toward the photographic lens axis, photographing lens The vertical tilt information in which the axis is inclined with respect to the gravity direction and the horizontal tilt information in which the horizontal axis of the captured image is inclined with respect to the horizon may further include shooting distance information that is a distance from the camera to the shooting object. The vector information is information about the position and the direction of photographing the camera when the shutter is pressed, that is, when the photographed image is generated.

상기 벡터정보는 실세계에 대입될 수 있으므로, 촬영자가 지구상에서 고정되어 있는 촬영대상을 촬영한 경우 촬영자가 과연 어떤 촬영대상을 촬영했는지가 판단될 수 있다.Since the vector information may be substituted into the real world, when the photographer photographs a photographing target fixed on the earth, it may be determined which photographic subject the photographer photographed.

정보입력부(120)를 통해 입력된 입력정보는 정보관리부(120)의 객체추출부(121) 및 3D 모델부(140)로 제공된다.The input information input through the information input unit 120 is provided to the object extractor 121 and the 3D model unit 140 of the information manager 120.

3D 모델부(140)는 실세계 좌표정보를 가지는 객체들과 그 객체의 명칭을 포함하는 객체속성을 저장하고 있는 3D 모델 데이터베이스(database, DB,142) 및 상기 객체들로 구현된 가상공간(141)을 포함하며, 이러한 가상의 3D 모델은 가상공간을 구성하고 있는 각 객체(object,점, 선, 면, 입체)별 고유명칭과 속성을 가진다. The 3D model unit 140 stores an object having real world coordinate information and an object attribute including the name of the object, and a virtual space 141 implemented with the objects. The virtual 3D model has unique names and properties for each object (object, point, line, face, and solid) constituting the virtual space.

3D 모델부(140)를 구성하는 객체들은 실세계와 대응되는 좌표정보를 가지며, 이러한 객체들의 (고유)명칭 및 속성은 3D 모델 DB(142) 내의 객체 DB(142)에 저장된다. 객체들은 다양한 속성, 예를 들어 그 위치, 제조회사, 가격, 이벤트 명칭, 이벤트 기간을 포함하는 다양한 특성을 가진다.The objects constituting the 3D model unit 140 have coordinate information corresponding to the real world, and the (unique) names and attributes of these objects are stored in the object DB 142 in the 3D model DB 142. Objects have various properties, including various properties, for example their location, manufacturer, price, event name, event duration.

건설사업 분야를 비롯한 많은 산업분야에서는 컴퓨터를 이용한 설계 방법이 이용될 수 있으며, 3D 모델부(140)는 각 산업분야에서 이용될 수 있도록 가상공간에 각 객체로 구성되는 가상의 모형을 가진다.In many industries, including the construction business field, a computer-based design method can be used, and the 3D model unit 140 has a virtual model composed of each object in a virtual space to be used in each industrial field.

건설사업 분야를 예로 들어 설명하면, 3D 모델부(140)는 점, 선, 면, 입체의 객체들을 조합하여 건축물이 모델링된 가상공간을 가지고 있으며, 상기 객체는 속성(위치정보, 자재정보, 가격정보 등을 포함) 및 이벤트정보(시공정보, 공정정보, 공정 스케쥴 정보)가 통합되어 있다.For example, in the construction business field, the 3D model unit 140 has a virtual space in which a building is modeled by combining points, lines, faces, and three-dimensional objects, and the objects have attributes (location information, material information, price). Information) and event information (construction information, process information, process schedule information) are integrated.

이러한 3D 모델부(140)는 실세계를 모방할 수 있도록 객체들은 각각 실세계 좌표정보를 가질 수 있고, 또한 가상공간 내에 가상의 촬영기를 통하여 실세계의 영상 촬영기와 같은 다양한 관측시점으로 화면을 변경해서 볼 수 있어 가상의 세계가 곧바로 현실의 세계와 유사하게 표현할 수 있다. 따라서 실세계에서 촬영된 촬영영상은 3D 모델부(140)의 가상 촬영기를 통해서 생성된 가상영상과 동일한 정보를 포함하게 된다.The 3D model unit 140 may have real world coordinate information so that the 3D model unit 140 may mimic the real world, and change the screen to various viewpoints such as an image camera of the real world through a virtual camera in a virtual space. Therefore, the virtual world can be expressed immediately similar to the real world. Therefore, the captured image taken in the real world includes the same information as the virtual image generated through the virtual camera of the 3D model unit 140.

상술한 것처럼, 3D 모델부(140)는 가상공간 내에서 촬영화각정보와 벡터정보에 기초하여 가상영상을 생성하며, 이렇게 생성된 가상영상을 객체추출부(121)로 제공한다.As described above, the 3D model unit 140 generates a virtual image based on the photographing angle information and the vector information in the virtual space, and provides the generated virtual image to the object extractor 121.

정보관리부(120)는 객체추출부(121), 대표추출부(122), 및 목적추출부(123)를 포함한다.The information manager 120 includes an object extractor 121, a representative extractor 122, and an object extractor 123.

객체추출부(121)는 가상영상과 촬영영상을 비교하여 촬영영상을 구성하는 각 객체를 촬영객체로서 추출하고, 그 추출된 촬영객체의 명칭을 포함하는 촬영객체정보를 생성한다.The object extracting unit 121 compares the virtual image with the captured image, extracts each object constituting the captured image as a photographing object, and generates photographing object information including the name of the extracted photographing object.

벡터정보와 활영화각정보가 있으면, 3D 모델부(140)의 가상공간에서 실제 촬영영상과 거의 유사한 가상영상을 생성할 수 있다. 한편 가상영상은 가상공간 내에서 각각의 객체로 구성된 영상이므로, 가상영상과 촬영영상을 비교하면 촬영영상에 포함된 객체들의 명칭 및 속성등을 추려낼 수 있다. 본 발명에서 촬영영상에 포함된 객체는 촬영객체이며, 촬영객체의 명칭을 포함하는 정보를 촬영객체정보를 셍하 기로 한다.If the vector information and the moving picture angle information are present, a virtual image almost similar to the actual photographed image may be generated in the virtual space of the 3D model unit 140. On the other hand, since the virtual image is an image composed of each object in the virtual space, when comparing the virtual image and the captured image, it is possible to extract the names and properties of the objects included in the captured image. In the present invention, the object included in the photographed image is a photographing object, and information including the name of the photographing object is determined as photographing object information.

영상정보 데이터베이스(150)는 촬영객체정보 및 각 촬영객체의 속성 정보를 각각의 촬영영상 및 촬영객체별로 저장하는 데이터베이스(database, DB)이며, 후술할 촬영목적, 대표목적, 대표객체 여부 등 다양한 정보가 저장될 수 있다.The image information database 150 is a database (database, DB) for storing photographing object information and attribute information of each photographing object for each photographing image and photographing object, and various information such as photographing purpose, representative object, and representative object to be described later will be described. Can be stored.

한편, 3D 모델 DB(142)는 각각의 객체별로 객체와 관련된 이벤트 명칭 및 그 이벤트 기간을 포함하는 이벤트정보를 더 저장할 수 있다. 이벤트란 각각의 객체와 관련된 사건을 의미하는 것으로 각각의 이벤트는 그 고유명칭 및 그 이벤트가 행해지는 기간(schedule)이 정해져 있다. 예를 들어, 건축물 공사의 경우 이벤트는 건축 공사에서 개개의 공정이 될 수도 있으며, 이벤트 기간은 그 개개의 공정이 이루어지는 기간이 될 수 있다.Meanwhile, the 3D model DB 142 may further store event information including the event name and the event duration associated with the object for each object. An event refers to an event associated with each object. Each event has a unique name and a schedule in which the event is performed. For example, in the case of building construction, an event may be an individual process in a building construction, and an event period may be a period in which the individual process is performed.

목적추출부(123)는 촬영시간정보와 촬영객체의 이벤트 기간을 비교하고, 촬영시간정보가 촬영객체의 이벤트 기간 내에 존재하는 촬영객체를 추출하여 그 이벤트 명칭을 영상정보 데이터베이스에 촬영목적으로서 저장한다. The object extracting unit 123 compares the shooting time information with the event period of the shooting object, extracts the shooting object in which the shooting time information exists within the event period of the shooting object, and stores the event name in the image information database as the shooting purpose. .

즉, 촬영목적이란 촬영영상을 생성한 목적(사진을 찍은 목적으로서..."왜 찍었는가?"에 대한 해답이 됨)에 해당하는 것으로서, 이벤트 기간 내의 사건 및 사건의 진척도를 확인하기 위해서도 이용된다. 한편, 하나의 촬영영상에 다수의 촬영객체가 존재할 수 있으므로, 그 이벤트의 특성에 따라 하나의 촬영영상에 다수의 촬영객체가 촬영목적을 가질 수 있다.That is, the purpose of shooting corresponds to the purpose of generating the photographed image (the answer is to the purpose of taking the picture ... "Why did you take it?") . Meanwhile, since a plurality of photographing objects may exist in one photographed image, a plurality of photographing objects may have a photographing purpose in one photographed image according to the characteristics of the event.

한편 목적추출부(123)는 촬영시간정보와 촬영객체의 이벤트정보를 비교하고, 촬영시간정보가 촬영객체의 이벤트 기간 전후로 소정기간 내에 존재하는 촬영객체 를 추출하여 그 이벤트 명칭을 영상정보 데이터베이스에 촬영목적으로서 저장할 수도 있다. 소정기간은 자유롭게 설정될 수 있다. 예를 들어 이벤트 기간이 2009년 2월 15일 ~ 2009년 2월 25일이고 소정기간이 2일이라고 하면, 촬영영상의 촬영시간정보가 2009년 2월 13일~2009년 2월 27일 내인 촬영객체의 이벤트 명칭이 촬영목적으로서 추출될 수 있다.Meanwhile, the object extraction unit 123 compares the shooting time information with the event information of the shooting object, extracts the shooting object whose shooting time information exists within a predetermined period before and after the event period of the shooting object, and captures the event name in the image information database. It can also be stored as a purpose. The predetermined period can be freely set. For example, if the event period is February 15, 2009 to February 25, 2009, and the predetermined period is 2 days, the shooting time information of the captured image is between February 13, 2009 and February 27, 2009. The event name of the object can be extracted for shooting purposes.

대표추출부(122)는 촬영객체 중에서 촬영영상의 중심에 가장 근접한 촬영객체를 추출하여 영상정보 데이터베이스에서 대표객체로서 저장한다. 촬영영상에는 다수의 촬영객체가 포함될 수 있으므로, 촬영영상을 대표하는 대표객체를 선정하는 것이 중요하다. 일반적으로 가장 주가 되는 대상을 영상의 중심인 정 가운데에 놓고 영상을 촬영하므로, 대표객체로서 촬영영상의 중심에 가장 근접한 촬영객체를 선정하는 것이 바람직하다. The representative extracting unit 122 extracts a photographing object that is closest to the center of the photographing image among the photographing objects, and stores the photographing object as a representative object in the image information database. Since the photographed image may include a plurality of photographing objects, it is important to select a representative object representing the photographed image. In general, since the most important object is taken in the center of the image and the image is taken, it is preferable to select the photographing object closest to the center of the photographed image as the representative object.

한편 대표객체를 선정하는 조건은 자유롭게 설정 변경될 수 있으며, 예를 들어 촬영영상에서 가장 큰 비율의 면적을 차지하는 촬영객체가 대표객체로서 선정될 수 있으며, 또는 촬영시간정보로 판단되는 촬영영상의 촬영시각이 상기 촬영객체의 이벤트 기간 내에 존재하거나, 또는 촬영영상 내에 객체의 전체 모습이 포함되어 는 있거나, 또는 촬영거리가 일정한 거리 내인 촬영객체가 대표객체로서 선정될 수 있다.On the other hand, the conditions for selecting the representative object can be freely changed and set, for example, the shooting object occupying the largest area in the captured image can be selected as the representative object, or the shooting of the captured image determined by the shooting time information A photographing object whose time exists within the event period of the photographing object, the entire image of the object is included in the photographing image, or the photographing distance is within a certain distance may be selected as the representative object.

한편, 앞서 설명한 것처럼 이벤트의 특성에 따라 하나의 촬영영상에 포함된 다수의 촬영객체는 각각 촬영목적을 가질 수 있다. 따라서, 대표추출부(122)는 촬영목적이 존재하는 촬영객체 중에서 촬영영상의 중심에 가장 근접한 촬영객체를 추 출하여 상기 영상정보 데이터베이스에 대표목적으로서 저장할 수 있다. 만일 어떤 대표객체가 촬영목적을 가지지 않는다면, 그 대표객체는 객체로서는 대표성을 가지지만 촬영목적으로서는 객체를 대표하지는 않는다. 대표목적으로서 선택 저장되는 객체는 촬영목적을 가지는 객체 중에서 촬영영상의 중심에 가장 근접한 촬영객체가 선택된다. Meanwhile, as described above, the plurality of photographing objects included in one photographed image may have a photographing purpose according to the characteristics of the event. Therefore, the representative extracting unit 122 may extract the photographing object closest to the center of the photographing object among the photographing objects in which the photographing purpose exists and store the representative object in the image information database. If a representative object does not have a shooting purpose, the representative object has representation as an object but does not represent an object for shooting purpose. The object to be selected and stored as the representative object is selected as the object closest to the center of the captured image among the objects having the object of photographing.

한편, 정보관리부(130)는 다른 외부장치와의 커뮤니케이션 및 생성된 정보를 타 시스템과 공유하기 위해 촬영객체에 대한 정보를 포함하는 새로운 유형의 객체영상정보를 생성할 수 있다. 여기서, 객체영상정보는 촬영영상, 촬영영상의 벡터정보, 촬영영상을 구성하는 촬영객체, 촬영영상을 구성하는 촬영객체 중의 대표객체, 및 촬영영상의 대표목적을 포함하며, 추가로 각 촬영객체의 촬영목적 및 각 촬영객체의 속성의 전부 또는 일부를 포함할 수도 있다. 한편 상기 촬영영상은 촬영된 영상 이미지 외에 촬영 당시의 시간에 대한 촬영시간정보와 촬영 당시의 화각에 대한 촬영화각정보를 포함하며, 추가로 장치제어정보(메타정보)의 전부나 일부를 더 포함할 수도 있다.Meanwhile, the information manager 130 may generate a new type of object image information including information on a photographing object in order to communicate with other external devices and share the generated information with other systems. Here, the object image information includes the photographed image, the vector information of the photographed image, the photographed object constituting the photographed image, the representative object among the photographed objects constituting the photographed image, and the representative purpose of the photographed image. It may also include all or part of the shooting purpose and the attributes of each shooting object. On the other hand, the photographed image includes photographing time information of the time at the time of photographing and photographing angle of view of the angle of view at the time of photographing in addition to the photographed image image, and may further include all or part of the device control information (meta information). It may be.

한편, 정보입력부(130)는 검색조건을 입력받을 수 있는데, 입력된 검색조건은 후술할 정보검색부(110)에 제공된다.Meanwhile, the information input unit 130 may receive a search condition, which is provided to the information search unit 110 to be described later.

검색조건은 촬영영상의 명칭, 촬영객체의 명칭, 이벤트 명칭 및 이벤트 기간, 촬영시간, 촬영기의 고유명칭, 촬영위치, 및 촬영거리에 대한 정보 중의 적어도 하나를 이용하여 조합된다. The search conditions are combined using at least one of a name of a photographed image, a name of a photographing object, an event name and an event period, a photographing time, a unique name of a photographing device, a photographing position, and a photographing distance.

한편 검색조건은 영상정보 데이터베이스(150)에 대한 다양한 방식의 검색을 수행하기 위해 상기 검색조건 외에도 그 밖의 다양한 검색조건으로도 조합이 가능하며, 대표객체(대표객체의 이벤트 명칭, 대표객체의 이벤트 기간), 촬영목적, 및 대표목적에 대한 정보 등을 이용하여 선택적으로 조합될 수 있다.On the other hand, the search conditions can be combined with various other search conditions in addition to the above search conditions in order to perform various methods of searching the image information database 150, and representative objects (event name of the representative object, event period of the representative object) ), The purpose of the photographing, and the information about the representative object can be optionally combined.

정보검색부(110)는 검색조건부(111), 검색부(112), 결과제공부(113)를 포함한다.The information search unit 110 includes a search condition unit 111, a search unit 112, and a result provider 113.

검색조건부(111)는 정보입력부(130)로부터 제공된 검색조건을 후술할 검색부(112)로 제공하는 역할을 한다. 검색조건은 후술할 검색부로 제공되는데, 검색조건은 정보입력부(130)를 통해 입력받거나 혹은 검색조건부(111)에 자체적으로 저장된 검색조건이 검색부(112)로 제공될 수 있다.The search conditioner 111 serves to provide a search condition provided by the information inputter 130 to the searcher 112 to be described later. The search condition may be provided to the search unit to be described later. The search condition may be input through the information input unit 130 or the search condition stored in the search condition unit 111 may be provided to the search unit 112.

검색부(112)는 검색조건을 이용하여 영상정보 데이터베이스를 검색 정렬하는 역할을 수행한다. 즉, 검색부(112)는 검색조건을 이용하여 영상정보 데이터베이스(150)를 검색하여 영상정보 데이터베이스 내에 포함된 촬영영상을 주어진 정렬 방법에 따라 출력되거나 또는 해당 촬영영상이 하이퍼링크로 연결되게 하는 검색 결과를 제공한다.The search unit 112 serves to search and sort the image information database using the search conditions. That is, the search unit 112 searches the image information database 150 by using the search condition, and outputs the captured image included in the image information database according to a given sorting method or makes the corresponding captured image hyperlinked. Give results.

결과제공부(113)는 검색부(112)에 의한 검색 결과를 사용자에게 제공하는 역할을 한다.The result provider 113 serves to provide the user with the search results by the searcher 112.

도 4는 3D 모델부의 가상공간에 존재하는 객체를 설명하는 도면이며, 도 5는 3D 모델부의 각 객체에 대한 속성을 예시한 도면이다.4 is a diagram illustrating an object existing in the virtual space of the 3D model unit, and FIG. 5 is a diagram illustrating an attribute of each object of the 3D model unit.

도 4(a)는 BIM(building information modeling)과 같이 가상공간 내에서 모델링된 건축물을 예시하고 있으며, 도 4(b) 내지 도 4(d)는 그 건축물을 구성하는 각 객체들을 예시하는 도면이다.FIG. 4 (a) illustrates a building modeled in a virtual space such as BIM (building information modeling), and FIGS. 4 (b) to 4 (d) illustrate each object constituting the building. .

도 4(a) 내지 도 4(d)에서 볼 수 있는 것처럼, 3D 모델부(140)의 가상공간내에 모델링된 건축물은 3층으로 이루어지며, 각 층은 바닥(slab)과 천장(roof)과 벽(wall)으로 구성되며, 각 벽은 동벽, 서벽, 남벽, 및 북벽으로 구성된다.As can be seen in Figures 4 (a) to 4 (d), the building modeled in the virtual space of the 3D model unit 140 is composed of three floors, and each floor has a floor and a roof and It consists of a wall, and each wall consists of a copper wall, a west wall, a south wall, and a north wall.

이처럼 3D 모델부는 가상공간 내에서 도 4의 각 그림에서처럼 각 객체들이 통합된 모습뿐만 아니라 개별적으로 분리된 모습 또한 가질 수 있다. 따라서, 3D 모델부는 각각의 객체를 서로 구분할 수 있으며, 이로 인하여 촬영영상에 많은 객체들이 포함된 경우에도 각 객체를 추출할 수 있다. 이러한 각 객체에 대한 속성 및 이벤트정보들은 DB 형태로 저장되어, 각 객체가 추출되면 객체에 대한 속성 및 이벤트정보 또한 획득될 수 있다.As described above, the 3D model unit may have not only an integrated view but also an individually separated view in the virtual space as shown in each figure of FIG. 4. Accordingly, the 3D model unit may distinguish each object from each other, and thus, even when many objects are included in the captured image, the 3D model unit may extract each object. Attribute and event information for each such object is stored in a DB form, and when each object is extracted, the attribute and event information for the object may also be obtained.

도 5는 각 객체에 대한 정보를 저장하고 있는 객체 데이터베이스를 예시한 도면으로서, 도 4의 건축물에 대한 객체 DB를 예시하고 있다.FIG. 5 is a diagram illustrating an object database that stores information about each object, and illustrates an object DB of the building of FIG. 4.

도 5의 객체 데이터베이스에는 객체의 명칭(고유명칭으로서 object ID(객체 아이디)가 될 수 있음), 및 속성이 각 객체의 명칭별로 저장되어 있으며, 그 속성으로는 객체인 건축물의 각 부분의 위치, 제조사, 담당자, 가격, 이벤트(건축의 경우 공정명칭), 이벤트기간(공정기간) 등이 저장되어 있다. In the object database of FIG. 5, names of objects (which may be object IDs as unique names) and attributes are stored for each object name, and the attributes include the positions of the parts of the building, which are objects. The manufacturer, person in charge, price, event (process name in construction) and event period (process period) are stored.

도 6은 본 발명에 따라 촬영객체, 촬영목적, 및 대표객체를 추출하는 것을 예시한 도면이다.6 is a diagram illustrating extracting a photographing object, a photographing purpose, and a representative object according to the present invention.

도 6(a)는 정보입력부를 통해 입력되는 입력정보를 예시한 것으로서, 상단의 이미지는 촬영영상을 의미하며, 하단은 촬영영상과 함께 입력되는 정보를 의미한 다. 그리고, 도 6(b)는 3D 모델부가 가상공간내에서 생성한 가상영상을 예시한 도면이며, 도 6(c) 및 도 6(d)는 추출된 촬영객체들의 목록, 각 촬영객체의 촬영목적, 및 대표성 여부를 예시한 도면이다.6 (a) illustrates input information input through the information input unit, and an upper image means a captured image, and a lower portion indicates information input together with the captured image. 6 (b) is a diagram illustrating a virtual image generated in a virtual space by the 3D model unit, and FIGS. 6 (c) and 6 (d) show a list of extracted photographing objects and a photographing purpose of each photographing object. , And is a diagram illustrating the representativeness.

정보입력부를 통해 입력되는 입력정보는 촬영영상 및 촬영영상의 벡터정보를 포함하며, 촬영영상은 촬영 당시의 시간에 대한 촬영시간정보와 촬영 당시의 화각에 대한 촬영화각정보를 포함한다. 촬영화각정보는 도 6(a) 하단의 촬영기의 장치제어정보 형태로 입력될 수 있다.The input information input through the information input unit includes the photographed image and the vector information of the photographed image, and the photographed image includes photographing time information regarding the time at the photographing time and photographing angle of view information about the angle of view at the photographing time. The photographing angle information may be input in the form of device control information of the camera at the bottom of FIG.

가상영상이 생성되면, 객체추출부(121)는 도 6(a)의 촬영영상과 도 6(b)의 가상영상을 비교하여 촬영영상을 구성하는 각 객체를 촬영객체로서 추출한다. 도 6(a)와 도 6(b)를 비교하면, 촬영영상 내의 객체인 1,2,3,4,5,6,7은 각각 가상영상 내의 a,b,c,d,e,f,g와 대응되므로, 가상영상의 객체와 매치되는 객체인 1,2,3,4,5,6,7이 촬영객체로서 추출된다. 상기 촬영객체로서 추출된 1,2,3,4,5,6,7은 가상영상 내의 a,b,c,d,e,f,g와 동일한 객체이므로, a,b,c,d,e,f,g의 명칭 및 속성이 촬영객체의 명칭 및 속성으로 이용된다. 한편, 촬영영상 내의 8 객체는 가상영상 내에 존재하지 않는 객체이므로 촬영객체로서 추출되지 않는다.When the virtual image is generated, the object extractor 121 extracts each object constituting the photographed image as a photographing object by comparing the photographed image of FIG. 6 (a) with the virtual image of FIG. 6 (b). 6 (a) and 6 (b), the objects 1,2,3,4,5,6,7 in the captured image are respectively a, b, c, d, e, f, Corresponding to g, 1,2,3,4,5,6,7, which are objects matching the object of the virtual image, are extracted as the photographing object. 1,2,3,4,5,6,7 extracted as the photographing objects are the same objects as a, b, c, d, e, f, g in the virtual image, and thus, a, b, c, d, e The names and attributes of, f, g are used as the names and attributes of the photographing object. Meanwhile, 8 objects in the captured image are not extracted as the photographing object because they are objects that do not exist in the virtual image.

한편 각 촬영객체는 촬영목적이 있는 경우 그 촬영목적이 추출될 수 있으며, 도 6(d)는 도 6(c)의 각 촬영객체에 대하여 추출저장된 촬영목적을 예시한 것이다.On the other hand, if each shooting object has a shooting purpose, the shooting purpose can be extracted, Figure 6 (d) is an example of the shooting purpose extracted and stored for each shooting object of Figure 6 (c).

목적추출부는 촬영영상을 촬영한 시간을 나타내는 촬영시간정보가 촬영객체의 이벤트 기간 전후의 소정 기간 내에 존재하는 경우 그 이벤트 명칭을 영상정보 데이터베이스에 촬영목적으로서 저장한다. The object extracting unit stores the event name in the image information database when the photographing time information indicating the time at which the photographed image is taken exists within a predetermined period before and after the event period of the photographing object.

도 6(d)는 도 6(c)의 각 촬영객체의 대표성 여부를 예시한 것으로서, 대표추출부는 촬영영상의 중심에 가장 근접한 촬영객체를 추출하여 영상정보 데이터베이스에 대표객체로서 저장한다. 한편 상술한 것처럼 대표객체는 촬영객체 중에서 다양한 조건에 의해 결정될 수 있다.FIG. 6 (d) illustrates whether each photographing object of FIG. 6 (c) is representative or not, and the representative extracting unit extracts a photographing object closest to the center of the photographing image and stores the photographing object as a representative object in the image information database. Meanwhile, as described above, the representative object may be determined by various conditions among the photographing objects.

도 7 및 도 8은 본 발명에 따른 영상정보 관리 시스템의 활용예를 설명한 도면이다.7 and 8 are diagrams illustrating an application example of the image information management system according to the present invention.

도 7은 건물 건축시의 공정스케쥴표를 예시한 도면이며, 도 8은 각 공정기간 에 촬영된 촬영영상을 예시한 도면이다.FIG. 7 is a diagram illustrating a process schedule table during building construction, and FIG. 8 is a diagram illustrating photographed images photographed at each process period.

전체 건물에 대한 공정스케쥴표가 존재하겠지만, 설명의 편의를 위해서 건축 공사 시 건물의 3층에 해당하는 부분의 공정만을 설명하도록 한다.There will be a process schedule for the entire building, but for the sake of convenience, only the process for the 3rd floor of the building will be described.

공정스케쥴표 상 건물의 3층은 7주 동안의 공사로 완공되도록 계획되어 있으며, 건물의 3층을 이루는 각 객체들에 대해서는 공정기간이 결정되어 있다. 각 공정은 사건을 의미하는 이벤트로서, '1주차' ~ '7주차'는 각 이벤트 명칭(공정의 명칭)을 의미한다. 이러한 각 이벤트 및 이벤트기간은 3D 모델부의 객체 데이터베이스 및 이벤트 데이터베이스에 저장되어 있다.According to the process schedule, the 3rd floor of the building is planned to be completed in 7 weeks, and the process period is determined for each object of the 3rd floor of the building. Each process is an event meaning an event, and 'Week 1' to 'Week 7' mean each event name (name of the process). Each of these events and event periods are stored in the object database and the event database of the 3D model unit.

도 8은 공사중인 건물의 3층에서 각 이벤트기간에 공사가 진행되는 모습을 촬영한 촬영영상을 의미한다. 도 8의 각 촬영영상은 이미 목적추출부를 통해 촬영목적이 추출된 촬영영상들이다. 공사의 진행중에는 수많은 영상이 촬영되며, 이렇게 해서 촬영된 촬영영상들은 다양한 시각, 다양한 위치, 및 다양한 객체들을 촬영한 것들이다. FIG. 8 refers to a photographing image of a construction in progress during each event on the third floor of a building under construction. Each photographed image of FIG. 8 is a photographed image from which a photographing purpose has already been extracted through the object extracting unit. During the construction, a lot of images are taken, and the captured images are shots of various views, various locations, and various objects.

본 발명에 따르면 촬영영상으로부터 촬영객체를 추출하고 그 추출된 촬영객체의 촬영목적도 또한 추출될 수 있는데, 도 8의 각 촬영영상은 촬영목적이 추출된 촬영객체를 포함하는 촬영영상들을 검색부를 이용하여 검색한 결과이다.According to the present invention, a photographing object is extracted from a photographed image, and a photographing purpose of the extracted photographing object may also be extracted. Each photographed image of FIG. 8 uses a search unit for photographed images including a photographing object from which photographing objects are extracted. Search results.

도 8(a)는 이벤트 기간인 1주차에 바닥을 찍은 촬영영상을 의미하고, 8(c)는 3주차에 서측벽을 찍은 촬영영상을 의미하며, 각 도면에서 빗금친 부분은 각 이벤트기간 내에 건축 공사중인 객체를 의미한다. 도 8에서처럼, 본 발명에 따르면 각 이벤트기간 내에 촬영된 촬영영상을 검색하여 출력할 수 있다. FIG. 8 (a) means a photographed image of a floor taken at Week 1, which is an event period, and 8 (c) means a photographed image taken of a western wall at Week 3, with shaded portions within each event period. Means the object under construction. As shown in FIG. 8, according to the present invention, the captured image photographed within each event period may be searched for and output.

본 발명에 따르면, 촬영영상과 벡터정보와 3D 모델을 이용하여 촬영영상 내에 포함된 각 촬영객체에 대한 촬영객체정보 및 촬영목적을 추출함으로써 촬영영상이 무엇을 촬영한 것인지에 대한 촬영객체정보와 왜 촬영한 것인지에 대한 촬영목적을 용이하게 획득할 수 있으며, 그 촬영객체정보 및 촬영목적을 이용하여 촬영영상을 효율적으로 관리 및 검색할 수 있다.According to the present invention, by using the captured image, the vector information and the 3D model to extract the shooting object information and the shooting object for each shooting object included in the shooting image, the shooting object information and why shooting of what the shooting image is taken It is possible to easily obtain the shooting purpose for the one, and to manage and retrieve the captured image efficiently by using the shooting object information and the shooting purpose.

이하에서는 본 발명에 따른 영상정보 관리 방법을 설명하도록 한다. 본 발명의 실시예에 따른 영상정보 관리 방법은 영상정보 관리 시스템의 기능과 본질적으로 같으므로, 중복되는 설명은 생략하도록 한다.Hereinafter will be described the image information management method according to the present invention. Since the image information management method according to the embodiment of the present invention is essentially the same as the function of the image information management system, redundant description thereof will be omitted.

도 9는 본 발명에 따른 영상정보 관리 방법을 설명하는 흐름도이다.9 is a flowchart illustrating a method of managing image information according to the present invention.

본 발명에 따른 영상정보 관리 방법은 촬영객체를 추출하여 촬영객체정보를 생성하는 단계(S10)를 포함하며, 추가로 대표객체를 추출하는 단계(S20), 촬영목적을 추출하는 단계(S30), 대표목적을 추출하는 단계(S40), 및 검색조건을 이용한 검색 단계(S50) 중의 적어도 하나를 선택적으로 포함할 수 있다.The image information management method according to the present invention includes a step (S10) of extracting a photographing object to generate photographing object information, further extracting a representative object (S20), extracting a photographing purpose (S30), At least one of the step S40 of extracting the representative object and the search step S50 using the search condition may be selectively included.

도 10은 촬영객체정보를 생성하는 단계를 설명하는 흐름도이다.10 is a flowchart for explaining a step of generating photographing object information.

우선 정보입력부는 촬영 당시의 시간에 대한 촬영시간정보와 촬영 당시의 화각에 대한 촬영화각정보를 포함하는 촬영영상 및 상기 촬영영상의 벡터정보를 포함하는 입력정보를 입력받는다(S11). First, the information input unit receives a photographing image including photographing time information about a time at the time of photographing and photographing angle of view information about an angle of view at the time of photographing, and input information including vector information of the photographed image (S11).

3D 모델부는 실세계 좌표정보를 가지는 객체로 가상공간을 구현하고, 가상공간 내에서 촬영화각정보와 벡터정보를 이용하여 가상영상을 생성한다.The 3D model unit implements a virtual space with an object having real world coordinate information, and generates a virtual image using photographing angle information and vector information in the virtual space.

객체추출부는 생성된 가상영상을 이용하여 촬영객체를 추출하고, 그 촬영객체에 대한 촬영객체정보를 생성하고 저장한다(S12, S13). The object extracting unit extracts a photographing object using the generated virtual image, and generates and stores photographing object information on the photographing object (S12 and S13).

즉, 객체추출부는 가상영상과 촬영영상을 비교하여 촬영영상을 구성하는 각 객체를 촬영객체로서 추출하고(S12), 그 추출된 촬영객체의 명칭을 포함하는 촬영객체정보를 생성하여 그 생성된 촬영객체정보를 각각의 촬영영상 및 촬영객체별로 영상정보 데이터베이스에 저장한다(S13).That is, the object extracting unit compares the virtual image and the captured image, extracts each object constituting the captured image as a photographing object (S12), generates photographing object information including the name of the extracted photographing object, and generates the photographed image. The object information is stored in the image information database for each of the captured image and the captured object (S13).

도 11은 대표객체를 추출하는 단계를 설명하는 흐름도이다.11 is a flowchart for explaining a step of extracting a representative object.

대표객체 추출 단계에서 대표추출부는 촬영객체 중에서 촬영영상의 중심에 가장 근접한 촬영객체를 추출하여 영상정보 데이터베이스에서 대표객체로서 저장하고, 대표객체의 이벤트정보를 영상정보 데이터베이스에 저장한다.In the representative object extraction step, the representative extracting unit extracts a photographing object that is closest to the center of the photographed image from among the photographing objects, and stores the photographing object as a representative object in the image information database, and stores the event information of the representative object in the image information database.

대표객체 추출 단계를 상세히 설명하면, 우선 대표추출부는 각 촬영객체에 대하여 촬영객체가 촬영영상의 중심에 가장 근접한 촬영객체인지를 판단한다(S21).Referring to the representative object extraction step in detail, first, the representative extracting unit determines, for each photographing object, whether the photographing object is the photographing object closest to the center of the photographing image (S21).

대표추출부는 만일 조사하는 촬영객체가 촬영영상의 중심에 가장 근접한 촬영객체인 경우, 그 조사하는 촬영객체를 대표객체로서 영상정보 데이터베이스에 저 장하고(S22), 그 대표객체의 이벤트정보를 추출하여 영상정보 데이터베이스에 저장한다. The representative extracting unit stores the irradiated photographing object as a representative object in the image information database if the photographing object to be investigated is the closest to the center of the photographed image (S22), and extracts event information of the representative object. Store in video information database.

한편 조사하는 촬영객체가 촬영영상의 중심에 가장 근접한 촬영객체가 아닌 경우, 대표객체부는 촬영영상의 다음 촬영객체를 조사하여(S22), 다음 촬영객체의 대표성 여부를 판단한다(S21).Meanwhile, when the photographing object to be examined is not the photographing object closest to the center of the photographed image, the representative object unit determines the representativeness of the next photographing object by examining the next photographing object of the photographed image (S22).

한편, 대표객체를 추출하는 방식은 촬영영상의 중심에 가장 근접한 객체를 추출하는 방식 외에도 다양할 수 있다. 예를 들어, 촬영객체 중에서 촬영영상 내에서 가장 큰 면적을 차지하거나, 또는 촬영시간정보가 촬영객체의 이벤트 기간 내에 존재하거나, 또는 촬영영상 내에 객체의 전체 모습이 포함되어 있거나, 또는 촬영 위치로부터의 거리(=촬영기로부터 촬영객체까지의 거리)가 일정거리 안에 있는 촬영객체가 대표객체로서 추출될 수 있다. 상기 일정거리는 다양하게 설정될 수 있다.Meanwhile, the method of extracting the representative object may be various in addition to the method of extracting the object closest to the center of the captured image. For example, it occupies the largest area in the photographed image among the photographed objects, or the photographing time information is present within the event period of the photographing object, or the photographed image includes the whole view of the object, or from the photographed position. A photographing object having a distance (= distance from the photographing device to the photographing object) within a certain distance can be extracted as the representative object. The predetermined distance may be set in various ways.

도 12는 촬영목적을 추출하는 단계를 설명하는 흐름도이다.12 is a flowchart for explaining a step of extracting a photographing object.

목적추출부는 촬영시간정보와 촬영객체의 이벤트정보를 비교하고, 촬영시간정보가 촬영객체의 이벤트 기간 내에 존재하는지 여부를 판단한다(S31). The object extracting unit compares the shooting time information with the event information of the shooting object and determines whether the shooting time information exists within the event period of the shooting object (S31).

목적추출부는 촬영시간정보가 촬영객체의 이벤트 기간 내에 존재하는 경우 그 촬영객체의 이벤트 명칭을 촬영객체의 촬영목적으로서 영상정보 데이터베이스에 저장한다(S32).When the shooting time information exists within the event period of the shooting object, the object extracting unit stores the event name of the shooting object in the image information database as the shooting object (S32).

목적추출부는, 촬영시간정보가 촬영객체의 이벤트 기간 내에 존재하지 않거나 S32 단계를 수행한 후에는, 모든 촬영객체에 대하여 판단했는지를 체크한 다(S33).After extracting the shooting time information does not exist within the event period of the shooting object or after performing step S32, the object extracting unit checks whether all the shooting objects have been determined (S33).

목적 추출부는 모든 촬영객체에 대해 판단하지 않은 경우 조사한 촬영객체의 다음 촬영객체를 선택하여(S32) 촬영목적 추출 단계를 수행하도록 하고(S31), 모든 촬영객체에 대해 판단한 경우 촬영목적 추출 단계를 종료한다.If the object extraction unit does not judge all the photographing objects, it selects the next photographing object of the surveyed object (S32) to perform the extraction object extraction step (S31). do.

도 13은 대표목적을 추출하는 단계를 설명하는 흐름도이다.13 is a flowchart for explaining a step of extracting a representative object.

목적추출부는 촬영시간정보와 촬영객체의 이벤트정보를 비교하고, 촬영시간정보가 촬영객체의 이벤트 기간 내에 존재하는지 여부를 판단한다(S41). The object extracting unit compares the shooting time information with the event information of the shooting object and determines whether the shooting time information exists within the event period of the shooting object (S41).

대표추출부는 촬영시간정보가 이벤트 기간 내에 존재하는 촬영객체에 대하여 촬영영상의 중심에 가장 근접한 촬영객체인지를 판단한다(S42).The representative extracting unit determines whether the photographing time information is the photographing object that is closest to the center of the photographing image with respect to the photographing object existing within the event period (S42).

만일 촬영영상의 중심에 가장 근접한 촬영객체인 경우, 대표추출부는 그 촬영객체의 이벤트 명칭을 대표목적으로서 영상정보 데이터베이스에 저장한다(S43).If the photographing object is closest to the center of the photographed image, the representative extracting unit stores the event name of the photographing object in the image information database (S43).

한편, S41 단계에서 목적추출부는 촬영시간정보가 이벤트 기간 내에 존재하지 않는 촬영객체인 경우 다음 조사를 위해 다음의 촬영객체를 선택하며, S42 단계에서 대표추출부는 촬영영상의 중심에 가장 근접한 촬영객체가 아닌 경우 다음 조사를 위해 다음의 촬영객체를 선택한다(S44). 선택된 다음의 촬영객체는 S41 및 S43 단계를 수행한다.On the other hand, in the step S41, the target extractor selects the next photographing object for the next investigation when the photographing time information does not exist within the event period, and in step S42, the representative extracting unit selects the photographing object closest to the center of the photographed image. If not, the next photographing object is selected for the next survey (S44). The next photographing object selected performs steps S41 and S43.

도 14는 검색조건을 이용한 검색 단계를 나타내는 흐름도이다.14 is a flowchart showing a search step using a search condition.

우선 정보입력부는 촬영영상, 촬영객체정보, 이벤트정보, 및 촬영시간정보로 조합된 검색조건을 입력받는다. 한편 상술한 것처럼 다양한 방식의 검색을 위해 다양한 검색조건이 입력될 수 있으며, 촬영영상의 명칭, 촬영객체의 명칭, 이벤트 명 칭 및 이벤트 기간, 촬영시간, 촬영기의 고유명칭, 촬영위치, 및 촬영거리에 대한 정보 중의 적어도 하나를 이용하여 조합된 검색조건이 입력될 수 있다.First, the information input unit receives a search condition combined with a captured image, photographed object information, event information, and photographed time information. Meanwhile, as described above, various search conditions may be input for various types of search, name of the photographed image, name of the photographing object, event name and event duration, photographing time, unique name of the photographing apparatus, photographing position, and photographing distance. The combined search condition may be input using at least one of the information about.

검색부는 입력된 검색조건에 따라 영상정보 데이터베이스를 검색하고(S52), 결과제공부는 검색부에 의한 검색결과를 사용자에게 제공한다.The search unit searches the image information database according to the input search condition (S52), and the result provider provides the user with the search result by the search unit.

본 발명의 상기 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.The method of the present invention can also be embodied as computer readable code on a computer readable recording medium. The computer-readable recording medium includes all kinds of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and may also be implemented in the form of a carrier wave (for example, transmission over the Internet). Include. The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

이상에서는 도면에 도시된 구체적인 실시예를 참고하여 본 발명을 설명하였으나 이는 예시적인 것에 불과하므로, 본 발명이 속하는 기술 분야에서 통상의 기술을 가진 자라면 이로부터 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 보호 범위는 후술하는 특허청구범위에 의하여 해석되어야 하고, 그와 동등 및 균등한 범위 내에 있는 모든 기술적 사상은 본 발명의 보호 범위에 포함되는 것으로 해석되어야 할 것이다.In the above described the present invention with reference to the specific embodiment shown in the drawings, but this is only an example, those of ordinary skill in the art to which the present invention pertains various modifications and variations therefrom. Therefore, the protection scope of the present invention should be interpreted by the claims to be described later, and all the technical ideas within the equivalent and equivalent ranges should be construed as being included in the protection scope of the present invention.

도 1은 일반적인 촬영영상을 예시한 도면.1 is a diagram illustrating a general photographed image.

도 2a 내지 도 2c는 촬영영상의 벡터정보를 예시한 도면.2A to 2C are diagrams illustrating vector information of a captured image.

도 3은 본 발명에 따른 영상정보 관리 시스템을 나타낸 블록도.3 is a block diagram showing a video information management system according to the present invention.

도 4는 3D 모델부의 가상공간에 존재하는 객체를 설명하는 도면.4 is a view for explaining an object existing in the virtual space of the 3D model unit.

도 5는 3D 모델부의 각 객체에 대한 속성을 예시한 도면.5 is a diagram illustrating an attribute of each object of the 3D model unit.

도 6은 본 발명에 따라 촬영객체, 촬영목적, 및 대표객체를 추출하는 것을 예시한 도면.6 is a diagram illustrating extracting a photographing object, a photographing purpose, and a representative object according to the present invention;

도 7 및 도 8은 각각 본 발명에 따른 영상정보 관리 시스템의 활용예를 설명한 도면.7 and 8 are each a view for explaining an example of the use of the image information management system according to the present invention.

도 9는 본 발명에 따른 영상정보 관리 방법을 설명하는 흐름도.9 is a flowchart illustrating a method of managing image information according to the present invention.

도 10은 촬영객체정보를 생성하는 단계를 설명하는 흐름도.10 is a flowchart for explaining a step of generating photographing object information.

도 11은 대표객체를 추출하는 단계를 설명하는 흐름도.11 is a flowchart for explaining a step of extracting a representative object.

도 12는 촬영목적을 추출하는 단계를 설명하는 흐름도.12 is a flowchart for explaining a step of extracting a photographing purpose;

도 13은 대표목적을 추출하는 단계를 설명하는 흐름도.Fig. 13 is a flowchart for explaining a step of extracting a representative object.

도 14는 검색조건을 이용한 검색 단계를 나타내는 흐름도.14 is a flowchart showing a search step using a search condition;

Claims (14)

촬영 당시의 시간에 대한 촬영시간정보와 촬영 당시의 화각에 대한 촬영화각정보를 포함하는 촬영영상 및 상기 촬영영상의 벡터정보를 포함하는 입력정보를 입력받는 정보 입력부;An information input unit for receiving a photographing image including photographing time information on a photographing time and photographing angle of view information on an angle of view at the time of photographing, and input information including vector information of the photographing image; 실세계 좌표정보를 가지는 객체들과 그 객체의 명칭을 포함하는 객체속성을 저장하고 있으며, 상기 객체들로 구현된 가상공간 내에서 상기 촬영화각정보와 상기 벡터정보에 기초하여 가상영상을 생성하는 3D 모델부;3D model that stores objects having real world coordinate information and object properties including names of the objects, and generates virtual images based on the photographing angle information and the vector information in a virtual space implemented with the objects. part; 상기 가상영상과 상기 촬영영상을 비교하여 상기 촬영영상을 구성하는 각 객체를 촬영객체로서 추출하고, 상기 추출된 촬영객체의 명칭을 포함하는 촬영객체정보를 생성하는 객체추출부; 및An object extracting unit which compares the virtual image with the photographed image, extracts each object constituting the photographed image as a photographing object, and generates photographing object information including a name of the extracted photographing object; And 상기 촬영객체정보를 각각의 촬영영상 및 촬영객체별로 저장하는 영상정보 데이터베이스를 포함하며, And a video information database for storing the photographing object information for each photographed image and photographing object. 상기 촬영영상의 벡터정보는 촬영 당시의 촬영기의 위치와 촬영방향에 대한 정보로서, 촬영기의 3차원 위치에 대한 촬영위치정보, 촬영기의 렌즈 축이 향하는 방위각에 대한 촬영방위정보, 촬영기의 렌즈 축이 중력 방향에 대하여 기울어진 수직기울기정보, 및 촬영영상의 수평축이 지평선에 대하여 기울어진 수평기울기정보를 포함하는, 영상정보 관리 시스템.The vector information of the photographed image is information on the position and the direction of the camera at the time of shooting, the shooting position information on the three-dimensional position of the camera, the shooting azimuth information on the azimuth angle to the lens axis of the camera, the lens axis of the camera And a vertical tilt information inclined with respect to the gravity direction, and a horizontal tilt information in which the horizontal axis of the captured image is inclined with respect to the horizon. 제1항에 있어서, 상기 3D 모델부는The method of claim 1, wherein the 3D model unit 각각의 객체별로 객체와 관련된 이벤트 명칭 및 그 이벤트 기간을 포함하는 이벤트정보를 더 저장하고 있으며,For each object, it further stores event information including the event name and its duration. 상기 관리 시스템은 The management system 상기 촬영시간정보와 상기 촬영객체의 이벤트정보를 비교하고, 상기 촬영시간정보가 상기 촬영객체의 이벤트 기간 전후의 소정 기간 내에 존재하는 촬영객체를 추출하여 그 이벤트 명칭을 상기 영상정보 데이터베이스에 촬영목적으로서 저장하는 목적추출부를 더 포함하는, 영상정보 관리 시스템. Compare the shooting time information with the event information of the shooting object, extract the shooting object in which the shooting time information exists within a predetermined period before and after the event period of the shooting object, and record the event name in the image information database. The image information management system further comprises an object extraction unit for storing. 제1항에 있어서, 상기 3D 모델부는The method of claim 1, wherein the 3D model unit 각각의 객체별로 객체와 관련된 이벤트 명칭 및 그 이벤트 기간을 포함하는 이벤트정보를 더 저장하고 있으며,For each object, it further stores event information including the event name and its duration. 상기 관리 시스템은 The management system 상기 촬영객체 중에서 상기 촬영영상의 중심에 가장 근접한 촬영객체를 추출하여 상기 영상정보 데이터베이스에 대표객체로서 저장하고, 상기 대표객체의 이벤트정보를 상기 영상정보 데이터베이스에 저장하는 대표추출부를 더 포함하는, 영상정보 관리 시스템.And a representative extracting unit extracting a photographing object closest to the center of the photographing object from the photographing object and storing the photographing object as a representative object in the image information database, and storing event information of the representative object in the image information database. Information management system. 제1항에 있어서, 상기 3D 모델부는The method of claim 1, wherein the 3D model unit 각각의 객체별로 객체와 관련된 이벤트 명칭 및 그 이벤트 기간을 포함하는 이벤트정보를 더 저장하고 있으며,For each object, it further stores event information including the event name and its duration. 상기 관리 시스템은 The management system 상기 촬영객체 중에서 상기 촬영영상 내에서 가장 큰 면적을 차지하거나, 또는 상기 촬영시간정보가 상기 촬영객체의 이벤트 기간 내에 존재하거나, 또는 촬영영상 내에 객체의 전체 모습이 포함되어 있거나, 또는 촬영 위치로부터의 거리가 일정거리 안에 있는 촬영객체를 추출하여 상기 영상정보 데이터베이스에 대표객체로서 저장하고, 상기 대표객체의 이벤트정보를 상기 영상정보 데이터베이스에 저장하는 대표추출부를 더 포함하는, 영상정보 관리 시스템.Among the photographing objects, occupies the largest area in the photographed image, or the photographing time information exists within the event period of the photographing object, or the entire image of the object is included in the photographing object, or from the photographing position. And a representative extracting unit for extracting a photographing object having a distance within a predetermined distance, and storing the photographing object as the representative object in the image information database, and storing the event information of the representative object in the image information database. 제2항에 있어서, 상기 관리 시스템은 The system of claim 2, wherein the management system is 상기 촬영목적이 존재하는 촬영객체 중에서 상기 촬영영상의 중심에 가장 근접한 촬영객체를 추출하여 상기 영상정보 데이터베이스에 대표목적으로서 저장하는 대표추출부를 더 포함하는, 영상정보 관리 시스템.And a representative extracting unit extracting a photographing object closest to the center of the photographing image from among photographing objects having the photographing purpose and storing the photographing object as a representative object in the image information database. 제2항에 있어서, 상기 정보 입력부는 The method of claim 2, wherein the information input unit 촬영영상의 명칭, 촬영객체의 명칭, 이벤트 명칭 및 이벤트 기간, 촬영시간, 촬영기의 고유명칭, 촬영위치, 및 촬영거리에 대한 정보 중의 적어도 하나를 이용하여 조합된 검색조건을 더 입력받고,Further receiving a combined search condition using at least one of information on a photographed image, a name of a photographing object, an event name and an event period, a photographing time, a photographic name, a photographing location, and a photographing distance; 상기 관리 시스템은 The management system 상기 검색조건에 따라 상기 촬영영상 데이터베이스의 촬영영상을 검색 정렬하여, 검색 정렬된 검색결과를 제공하는 검색부를 더 포함하는 것을 특징으로 하 는, 영상정보 관리 시스템.And a search unit which searches and sorts photographed images of the photographed image database according to the search condition, and provides searched sorted search results. 제2항에 있어서, 상기 정보 입력부는 The method of claim 2, wherein the information input unit 상기 촬영영상, 상기 촬영객체정보, 상기 이벤트정보, 및 상기 촬영시간정보로 조합된 검색조건을 더 입력받고,Receiving a search condition combined with the photographed image, the photographed object information, the event information, and the photographing time information; 상기 관리 시스템은 The management system 상기 검색조건에 따라 상기 촬영영상 데이터베이스의 대표객체를 검색 정렬하여, 검색 정렬된 검색결과를 제공하는 검색부를 더 포함하는 것을 특징으로 하는, 영상정보 관리 시스템.And a search unit which searches and sorts representative objects of the photographed image database according to the search condition, and provides searched sorted search results. (a) 촬영 당시의 시간에 대한 촬영시간정보와 촬영 당시의 화각에 대한 촬영화각정보를 포함하는 촬영영상 및 상기 촬영영상의 벡터정보를 포함하는 입력정보를 입력받는 단계;(a) receiving a photographing image including photographing time information on a photographing time and photographing angle of view information on an angle of view at the time of photographing, and input information including vector information of the photographing image; (b) 실세계 좌표정보를 가지는 객체로 가상공간을 구현하고, 상기 가상공간 내에서 상기 촬영화각정보와 상기 벡터정보를 이용하여 가상영상을 생성하는 단계;(b) realizing a virtual space with an object having real world coordinate information, and generating a virtual image using the photographing angle information and the vector information in the virtual space; (c) 상기 가상영상과 상기 촬영영상을 비교하여 상기 촬영영상을 구성하는 각 객체를 촬영객체로서 추출하고, 상기 추출된 촬영객체의 명칭을 포함하는 촬영객체정보를 생성하는 단계; 및(c) extracting each object constituting the captured image as a photographing object by comparing the virtual image with the photographed image, and generating photographing object information including a name of the extracted photographing object; And (d) 상기 촬영객체정보를 각각의 촬영영상 및 촬영객체별로 영상정보 데이터베이스에 저장하는 단계를 포함하며,(d) storing the photographing object information in an image information database for each photographed image and photographing object; 상기 촬영영상의 벡터정보는 촬영 당시의 촬영기의 위치와 촬영방향에 대한 정보로서, 촬영기의 3차원 위치에 대한 촬영위치정보, 촬영기의 렌즈 축이 향하는 방위각에 대한 촬영방위정보, 촬영기의 렌즈 축이 중력 방향에 대하여 기울어진 수직기울기정보, 및 촬영영상의 수평축이 지평선에 대하여 기울어진 수평기울기정보를 포함하는, 영상정보 관리 방법.The vector information of the photographing image is information about the position and the direction of the photographing device at the time of photographing. And vertical tilt information inclined with respect to the gravity direction, and horizontal tilt information in which the horizontal axis of the captured image is inclined with respect to the horizon. 제8항에 있어서, 상기 방법은 The method of claim 8, wherein the method is (e) 각각의 객체별로 객체와 관련된 이벤트 명칭 및 그 이벤트 기간을 포함하는 이벤트정보를 제공하는 단계; 및(e) providing event information including an event name and an event duration associated with the object for each object; And (f) 상기 촬영객체 중에서 상기 촬영영상의 중심에 가장 근접한 촬영객체를 추출하여 상기 영상정보 데이터베이스에서 대표객체로서 저장하고, 상기 대표객체의 이벤트정보를 상기 영상정보 데이터베이스에 저장하는 단계를 포함하는, 영상정보 관리 방법.(f) extracting a photographing object closest to the center of the photographing image from the photographing object, storing the photographing object as a representative object in the image information database, and storing event information of the representative object in the image information database; How to manage video information. 제8항에 있어서, 상기 방법은 The method of claim 8, wherein the method is (e) 각각의 객체별로 객체와 관련된 이벤트 명칭 및 그 이벤트 기간을 포함하는 이벤트정보를 제공하는 단계; 및(e) providing event information including an event name and an event duration associated with the object for each object; And (f) 상기 촬영객체 중에서 상기 촬영영상 내에서 가장 큰 면적을 차지하거나, 또는 상기 촬영시간정보가 상기 촬영객체의 이벤트 기간 내에 존재하거나, 또는 촬영영상 내에 객체의 전체 모습이 포함되어 있거나, 또는 촬영 위치로부터의 거리가 일정거리 안에 있는 촬영객체를 추출하여 상기 영상정보 데이터베이스에서 대표객체로서 저장하고, 상기 대표객체의 이벤트정보를 상기 영상정보 데이터베이스에 저장하는 단계를 포함하는, 영상정보 관리 방법.(f) occupies the largest area in the photographed image among the photographed objects, or the photographing time information is present in the event period of the photographing object, or the photographed image includes the whole view of the object, or photographed And extracting a photographing object having a distance from a location within a predetermined distance and storing the photographing object as a representative object in the image information database, and storing event information of the representative object in the image information database. 제8항에 있어서, 상기 방법은 The method of claim 8, wherein the method is (e) 각각의 객체별로 객체와 관련된 이벤트 명칭 및 그 이벤트 기간을 포함하는 이벤트정보를 제공하는 단계; 및(e) providing event information including an event name and an event duration associated with the object for each object; And (f) 상기 촬영시간정보가 상기 촬영객체의 이벤트 기간의 전후 소정 기간 내에 존재하는 촬영객체를 추출하여 그 이벤트 명칭을 상기 영상정보 데이터베이스에 촬영목적으로서 저장하는 단계를 더 포함하는, 영상정보 관리 방법.(f) extracting a photographing object in which the photographing time information exists within a predetermined period before and after the event period of the photographing object, and storing the event name in the image information database as a photographing purpose. . 제11항에 있어서, 상기 방법은 The method of claim 11, wherein the method is (g) 상기 촬영목적이 존재하는 촬영객체 중에서 상기 촬영영상의 중심에 가장 근접한 촬영객체를 추출하여 상기 영상정보 데이터베이스에 대표목적으로서 저장하는 단계를 더 포함하는, 영상정보 관리 방법.(g) extracting a photographing object closest to the center of the photographing image from among photographing objects in which the photographing purpose exists and storing the representative object in the image information database as a representative object. 제10항에 있어서, 상기 방법은The method of claim 10, wherein the method is (h) 촬영영상의 명칭, 촬영객체의 명칭, 이벤트 명칭 및 이벤트 기간, 촬영시간, 촬영기의 고유명칭, 촬영위치, 및 촬영거리에 대한 정보 중의 적어도 하나를 이용하여 조합된 검색조건을 입력받는 단계; 및(h) receiving a combination of search conditions using at least one of information about a photographed image, a name of a photographing object, an event name and event duration, a photographing time, a photographic name, a photographing location, and a photographing distance; ; And (i) 상기 검색조건에 따라 상기 촬영영상 데이터베이스의 촬영영상을 검색 정렬한 검색결과를 제공하는 단계를 더 포함하는, 영상정보 관리 방법.(i) providing search results of searching and sorting the photographed images of the photographed image database according to the search condition. 제3항 또는 제5항에 있어서, 상기 시스템은The system of claim 3 or 5, wherein the system is 상기 촬영영상, 상기 촬영영상의 벡터정보, 상기 촬영영상을 구성하는 촬영객체, 상치 촬영영상을 구성하는 촬영객체 중의 대표객체, 및 상기 촬영영상의 대표목적을 포함하는 객체영상정보를 생성하는, 영상정보 관리 시스템.An image for generating object image information including the photographed image, the vector information of the photographed image, a photographed object constituting the photographed image, a representative object among photographed objects constituting a photographed image, and a representative purpose of the photographed image. Information management system.
KR1020090084652A 2008-09-08 2009-09-08 System and method for managing image information using object extracted from image KR101038940B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020080088019 2008-09-08
KR20080088019 2008-09-08

Publications (2)

Publication Number Publication Date
KR20100029725A true KR20100029725A (en) 2010-03-17
KR101038940B1 KR101038940B1 (en) 2011-06-03

Family

ID=42179885

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020090084213A KR101038918B1 (en) 2008-09-08 2009-09-07 Apparatus, system and method for generating vector information of image
KR1020090084652A KR101038940B1 (en) 2008-09-08 2009-09-08 System and method for managing image information using object extracted from image

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020090084213A KR101038918B1 (en) 2008-09-08 2009-09-07 Apparatus, system and method for generating vector information of image

Country Status (1)

Country Link
KR (2) KR101038918B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101272572B1 (en) * 2011-11-11 2013-06-10 재단법인대구경북과학기술원 Apparatus and Method for Estimating Depth Using 3D Image-Based Feature
KR101362851B1 (en) * 2013-03-19 2014-02-17 엘아이지넥스원 주식회사 Apparatus for updating video database
KR101362847B1 (en) * 2013-03-19 2014-02-17 엘아이지넥스원 주식회사 Method for updating video database

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101711156B1 (en) 2016-08-02 2017-03-03 주식회사 베스트디지탈 Image security system and method using mobile identification
KR101709701B1 (en) 2016-08-02 2017-02-24 주식회사 베스트디지탈 Integrated security service system and method based on tracking object
KR101850134B1 (en) * 2016-11-25 2018-04-20 경북대학교 산학협력단 Method and apparatus for generating 3d motion model

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0888823A (en) * 1994-09-19 1996-04-02 Ohbayashi Corp Method for managing construction video image
KR19990048751A (en) * 1997-12-10 1999-07-05 윤종용 Automatic location recording device of digital camera
JP2001128052A (en) 1999-10-28 2001-05-11 Casio Comput Co Ltd Camera apparatus, picture reproducing device and subject position calculating method in camera apparatus
KR100679575B1 (en) * 2001-05-31 2007-02-07 캐논 가부시끼가이샤 Moving image management apparatus and method
KR100831355B1 (en) * 2002-04-16 2008-05-21 삼성전자주식회사 Image Recording Apparatus capable of recording position and direction information of location that an object is shotted
KR100484941B1 (en) * 2002-09-12 2005-04-25 한국전자통신연구원 System for constructing and browsing geographic information using video data and method thereof
KR100775123B1 (en) 2006-09-15 2007-11-08 삼성전자주식회사 Method of indexing image object and image object indexing system using the same
KR100845892B1 (en) * 2006-09-27 2008-07-14 삼성전자주식회사 Method and system for mapping image objects in photo to geographic objects

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101272572B1 (en) * 2011-11-11 2013-06-10 재단법인대구경북과학기술원 Apparatus and Method for Estimating Depth Using 3D Image-Based Feature
KR101362851B1 (en) * 2013-03-19 2014-02-17 엘아이지넥스원 주식회사 Apparatus for updating video database
KR101362847B1 (en) * 2013-03-19 2014-02-17 엘아이지넥스원 주식회사 Method for updating video database

Also Published As

Publication number Publication date
KR101038918B1 (en) 2011-06-03
KR101038940B1 (en) 2011-06-03
KR20100029715A (en) 2010-03-17

Similar Documents

Publication Publication Date Title
CN101910936B (en) Guided photography based on image capturing device rendered user recommendations
US9471986B2 (en) Image-based georeferencing
CN102884400B (en) Messaging device, information processing system and program
US9497581B2 (en) Incident reporting
US8897541B2 (en) Accurate digitization of a georeferenced image
KR101038940B1 (en) System and method for managing image information using object extracted from image
JP6180647B2 (en) Indoor map construction apparatus and method using cloud points
KR20090019184A (en) Image reproducing apparatus which uses the image files comprised in the electronic map, image reproducing method for the same, and recording medium which records the program for carrying the same method
CN106101610A (en) Image display system, messaging device and method for displaying image
CN111680238B (en) Information sharing method, device and storage medium
JP2008027336A (en) Location information delivery apparatus, camera, location information delivery method and program
JP2008513852A (en) Method and system for identifying object in photograph, and program, recording medium, terminal and server for realizing the system
CN112907740B (en) Real estate visualization display method and system based on GIS
CN112383745A (en) Panoramic image-based digital presentation method for large-scale clustered construction project
CN107291801A (en) A kind of Mono temporal all standing remotely-sensed data search method compensated based on grid
Somogyi et al. Crowdsourcing based 3D modeling
US20140247342A1 (en) Photographer's Tour Guidance Systems
Schaffland et al. An interactive web application for the creation, organization, and visualization of repeat photographs
KR100924008B1 (en) Digital drawing based Aerial Photograph Enhancement Method
Pezzica et al. Photogrammetry as a participatory recovery tool after disasters: A grounded framework for future guidelines
Hong et al. The use of CCTV in the emergency response: A 3D GIS perspective
US20190333540A1 (en) Fast image sequencing method
KR101714174B1 (en) Structure image management method, image processing apparatus, and image inquiry apparatus
TWI655552B (en) Fast image sorting method
CN113050698B (en) Method and device for searching target object, unmanned aerial vehicle equipment and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140530

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150529

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180530

Year of fee payment: 8