KR102462934B1 - Video analysis system for digital twin technology - Google Patents
Video analysis system for digital twin technology Download PDFInfo
- Publication number
- KR102462934B1 KR102462934B1 KR1020200022743A KR20200022743A KR102462934B1 KR 102462934 B1 KR102462934 B1 KR 102462934B1 KR 1020200022743 A KR1020200022743 A KR 1020200022743A KR 20200022743 A KR20200022743 A KR 20200022743A KR 102462934 B1 KR102462934 B1 KR 102462934B1
- Authority
- KR
- South Korea
- Prior art keywords
- virtual
- posture
- objects
- classification
- image analysis
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/75—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2111/00—Details relating to CAD techniques
- G06F2111/18—Details relating to CAD techniques using virtual or augmented reality
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Geometry (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
Abstract
본 발명은 실제 대상을 가상의 공간에 구성하여 시뮬레이션을 수행하는 디지털 트윈 기술에 적용할 수 있는 가상의 인간 객체를 구현하기 위하여, 영상 분석을 기반으로 인간의 움직임을 추적하면서 그 자세에 대한 정보까지 수집하고, 이를 토대로 디지털 트윈 기술에 적용할 수 있는 가상의 인간 객체의 움직임과 자세를 생성하도록 한 디지털 트윈 기술을 위한 영상 분석 시스템에 관한 것으로서, 실제 영상을 분석하여 영상 내 객체들의 이동 경로와 스켈레톤 정보 수준의 자세 정보를 함께 저장한 후 이러한 저장 객체 정보의 상황별 분포를 기준으로 이동 경로와 자세 정보를 가지는 가상 객체들을 생성할 수 있도록 함으로써 디지털 트윈 기반 시뮬레이션에 현실에 근접한 가상적 인간 객체들의 움직임을 제공할 수 있어 디지털 트윈 기반 시뮬레이션의 품질을 높일 수 있는 효과가 있다.In order to implement a virtual human object that can be applied to a digital twin technology that performs simulation by composing a real object in a virtual space, the present invention tracks human movement based on image analysis and provides information on its posture. It relates to an image analysis system for digital twin technology that collects and generates movements and postures of virtual human objects that can be applied to digital twin technology based on this, and analyzes real images to determine movement paths and skeletons of objects in images After storing information-level posture information together, it is possible to create virtual objects with movement paths and posture information based on the situational distribution of the stored object information. This has the effect of improving the quality of digital twin-based simulations.
Description
본 발명은 디지털 트윈 기술을 위한 영상 분석 시스템에 관한 것으로서, 더욱 상세히는 실제 대상을 가상의 공간에 구성하여 시뮬레이션을 수행하는 디지털 트윈 기술에 적용할 수 있는 가상의 인간 객체를 구현하기 위하여, 영상 분석을 기반으로 인간의 움직임을 추적하면서 그 자세에 대한 정보까지 수집하고, 이를 토대로 디지털 트윈 기술에 적용할 수 있는 가상의 인간 객체의 움직임과 자세를 생성하도록 한 디지털 트윈 기술을 위한 영상 분석 시스템에 관한 것이다.The present invention relates to an image analysis system for digital twin technology, and more particularly, image analysis to implement a virtual human object that can be applied to digital twin technology that performs simulation by configuring a real object in a virtual space. About an image analysis system for digital twin technology that tracks human movements based on will be.
디지털 트윈 기술은 물리적 사물을 컴퓨터의 가상 공간에 실제와 동일하게 가상 모델로 형성한 후 이를 시뮬레이션하여 그 결과를 예측하는 기술로서, 항공 산업에서 도입되기 시작한 이후 교통, 물류, 도시 등으로 확장되고 있다.Digital twin technology is a technology that predicts the result by forming a physical object into a virtual model identical to the real one in the virtual space of a computer. .
이와 같이 가상공간상에 실제와 동일한 가상의 시설물을 구축하고 해당 시설물을 이용하는 각종 상황을 가상 환경에서 시뮬레이션함으로써 최적의 활용을 위한 운용 방식과 개선 내용을 파악하는 등의 효과를 얻을 수 있으며, 이러한 기술은 4차 산업혁명의 핵심으로 간주되고 있는 실정이다.In this way, by constructing virtual facilities identical to the real ones in the virtual space and simulating various situations using the facilities in the virtual environment, effects such as understanding the operation method for optimal utilization and improvement contents can be obtained. is regarded as the core of the 4th industrial revolution.
특히 다양한 3D 모델링 기술과 각종 가상환경에 대한 가상현실과 물리 엔진 등의 기술이 비약적으로 발전하고 있으며, 도시 규모의 가상현실 환경까지도 구축되어 다양한 서비스에 활용되고 있는 실정이므로 이러한 디지털 트윈에 대한 기술 개선에 많은 관심이 집중되고 있다.In particular, various 3D modeling technologies and technologies such as virtual reality and physics engines for various virtual environments are developing rapidly, and even urban-scale virtual reality environments are being built and utilized for various services. Much attention is focused on
하지만, 이러한 디지털 트윈 기술을 통한 시뮬레이션이 효과적으로 진행되기 위해서는 그 대상이 되는 각종 환경에 대한 정보가 정확하게 적용되어야 하는데, 건축물이나 사회 기반 시설, 도시 등에 대한 시뮬레이션에서 반드시 필요한 것이 인간 객체들의 가상적 움직임이라 할 수 있다.However, in order for the simulation through this digital twin technology to proceed effectively, information on various target environments must be accurately applied. can
현재에는 가상의 인간 객체들에 대한 통계적 이동량이나 객체의 이동 궤적 정도의 정보만 활용되었으나, 디지털 트윈 기술의 고도화를 위해서는 좀 더 정밀한 가상 객체에 대한 정보가 요구되고 있는 실정이다. Currently, only information about the amount of statistical movement or movement trajectory of virtual human objects has been utilized, but more precise information on virtual objects is required for the advancement of digital twin technology.
전술한 문제점을 해결하기 위한 본 발명의 목적은 실제 영상을 분석하여 영상 내 객체들의 이동 경로를 추적함과 아울러 해당 객체들의 자세를 관절 구분에 따른 스켈레톤 정보로 추출함으로써 실제 객체의 이동 경로와 자세를 포함하는 구체적인 정보를 수집하되, 이를 학습하도록 하여 영상 내 객체의 자세 정보 구분에 대한 성능을 높이고, 객체의 자세를 기반으로 영상 내 객체들이 군집, 소실, 폐색되는 경우에도 동일 객체를 유지할 수 있도록 함으로써, 현실 세계의 인간 객체에 대한 정보를 효과적으로 수집할 수 있도록 하는 것이다. An object of the present invention to solve the above problems is to analyze the actual image to track the movement path of the objects in the image, and to extract the posture of the object as skeleton information according to the joint classification to determine the movement path and posture of the real object. By collecting specific information including, but learning it, the performance of classifying the posture information of an object in the image is improved, and based on the posture of the object, the same object can be maintained even when objects in the image are clustered, lost, or occluded. , to effectively collect information about human objects in the real world.
나아가, 본 발명의 다른 목적은 이러한 실제 인간 객체의 이동 및 자세에 대한 정보가 수집되는 상황에 대한 분류 정보를 함께 저장한 후 디지털 트윈에 적용할 가상 인간 객체를 저장된 분류별 객체 정보를 기반으로 생성함으로써 통계적 객체의 움직임과 실제 인간 객체의 구체적 움직임에 따른 돌발적 객체의 움직임까지도 포함된 현실적인 환경을 반영할 수 있도록 하여 디지털 트윈 기술의 성능을 개선할 수 있도록 한 것이다.Furthermore, another object of the present invention is to create a virtual human object to be applied to a digital twin based on the stored object information for each classification after storing classification information about a situation in which information on the movement and posture of the real human object is collected. The performance of the digital twin technology can be improved by reflecting the realistic environment that includes the movement of statistical objects and even the sudden movement of objects according to the specific movement of real human objects.
본 발명의 실시예에 따른 디지털 트윈 기술을 위한 영상 분석 시스템은 카메라나 영상 데이터베이스를 통해 수집한 영상에서 객체를 선별하고 선별된 객체에 대한 자세를 신경망 모델을 통해 학습하며, 학습 후 얻어진 신경망 모델을 이용하여 객체에 대한 자세를 분류하여 객체의 자세를 스켈레톤 정보를 포함하는 자세 정보로 산출한 후 해당 객체의 식별자와 이동경로 및 자세 정보를 포함하는 객체 정보를 영상분석 데이터베이스에 저장하고, 해당 객체가 등장한 일자, 시간, 날씨 및 객체 등장에 영향을 줄 수 있는 것으로 미리 선별된 환경 조건 중 적어도 하나 이상의 분류 기준에 따라 상기 저장된 객체 정보 분류 정보를 상기 영상분석 데이터베이스에 저장하며, 영상 분석 데이터베이스에 저장된 객체 정보를 기반으로 분류 기준별 가상 객체를 생성하여 가상 객체 데이터베이스에 저장하는 영상 분석 기반 객체 생성 장치와, 시뮬레이션 대상에 대한 가상현실 모델 데이터를 가상현실 환경에 구성하고, 영상 분석 기반 객체 생성 장치에 시뮬레이션 조건에 따른 가상 객체들을 요청하며, 그에 따라 가변성을 가지는 분류별 가상 객체 정보를 수신하여 가상현실 환경에 적용하는 디지털 트윈 기반 시뮬레이션 장치를 포함한다.The image analysis system for digital twin technology according to an embodiment of the present invention selects an object from images collected through a camera or an image database, learns the posture of the selected object through a neural network model, and uses the neural network model obtained after learning. After classifying the posture of the object using the method to calculate the posture information including the skeleton information, the object information including the identifier of the object, the movement path and the posture information is stored in the image analysis database, and the object Storing the stored object information classification information in the image analysis database according to at least one classification criterion among the date, time, weather, and environmental conditions previously selected as being capable of affecting the appearance of the object, and the object stored in the image analysis database An image analysis-based object creation device that creates virtual objects for each classification criterion based on information and stores them in a virtual object database, configures virtual reality model data for a simulation target in a virtual reality environment, and performs simulation in an image analysis-based object creation device It includes a digital twin-based simulation device that requests virtual objects according to conditions, receives virtual object information for each classification having variability accordingly, and applies it to a virtual reality environment.
일례로서, 영상 분석 기반 객체 생성 장치는 카메라나 영상 데이터베이스를 통해 영상을 수집하는 영상 수집부와, 영상 수집부에서 수집된 영상으로부터 관심 영역을 선별하여 해당 관심 영역에 존재하는 객체를 선별하는 객체 선별부와, 객체 선별부에서 선별된 객체에 대한 자세를 신경망 모델을 통해 학습시키는 자세 학습부와, 자세 학습부를 통해 학습된 가중치가 적용된 신경망 모델을 통해서 객체 선별부에서 선별된 객체의 자세를 분류하는 자세 분류부와, 객체 선별부에서 선별된 복수의 객체들에 각각 식별자를 부여하여 지속적으로 복수 객체들을 동시에 추적하며, 자세 분류부에서 분류된 각 객체별 자세를 추적 객체들에 연동시키며 군집, 소실 또는 폐색된 객체의 재등장 시 분류된 자세를 토대로 이전 객체 식별자를 유지시키거나 신규 생성하며 추적된 객체들에 대한 객체별 식별자와 이동경로 및 자세 정보를 포함하는 객체 정보를 영상분석 데이터베이스에 저장하는 객체 식별 및 추적부를 포함할 수 있다. As an example, the apparatus for generating an object based on image analysis includes an image collection unit that collects images through a camera or an image database, and an object selection unit that selects a region of interest from the images collected by the image collection unit and selects objects existing in the region of interest A posture learning unit that learns the posture of the object selected by the object selector through a neural network model, and a neural network model to which the weights learned through the posture learning unit are applied to classify the posture of the object selected by the object selector By assigning an identifier to each of the plurality of objects selected by the posture classification unit and the object selection unit, the plurality of objects are continuously tracked at the same time, and the posture of each object classified in the posture classification unit is linked to the tracking objects to cluster and disappear. Alternatively, when an occluded object reappears, the previous object identifier is maintained or newly created based on the classified posture, and object information including the object identifier and movement path and posture information for the tracked objects is stored in the image analysis database. It may include an object identification and tracking unit.
한편, 객체 식별 및 추적부는 추적 객체가 등장한 일자, 시간, 날씨 및 객체 등장에 영향을 줄 수 있는 것으로 미리 선별된 환경 조건 중 적어도 하나 이상의 분류 기준에 따라 상기 저장된 객체 정보에 분류 정보를 더 포함시켜 영상분석 데이터베이스에 저장할 수 있다.On the other hand, the object identification and tracking unit further includes classification information in the stored object information according to at least one classification criterion among the date, time, weather, and environmental conditions previously selected as being capable of affecting the appearance of the object to be tracked. It can be stored in the image analysis database.
더불어, 영상 분석 데이터베이스에 저장된 객체 정보를 기반으로 분류 기준별 가상 객체를 생성하되 해당 분류 기준별 가상 객체의 경로와 자세의 분류 범위 내에서 자세와 경로에 대한 실제 객체들의 분포 비율에 따라 유사한 경로와 자세를 가지는 가상 객체를 생성한 후 가상 객체 데이터베이스에 저장하는 가상 객체 생성부를 포함할 수 있다.In addition, a virtual object for each classification criterion is created based on the object information stored in the image analysis database, but a path and a similar path and and a virtual object generator that generates a virtual object having a posture and stores the virtual object in a virtual object database.
나아가, 가상 객체 생성부는 디지털 트윈 기반 시뮬레이션 장치로부터 시뮬레이션 조건에 따른 가상 객체들이 요구되면, 저장된 가상 객체들 중 시뮬레이션 조건에 따른 분류별 가상 객체들을 분류별 분포에 맞추어 선별하여 제공할 수 있다.Furthermore, when virtual objects according to simulation conditions are requested from the digital twin-based simulation device, the virtual object generator may select and provide virtual objects for each classification according to the simulation condition from among the stored virtual objects according to the distribution by classification.
본 발명의 실시예에 따른 디지털 트윈 기술을 위한 영상 분석 시스템은 실제 영상을 분석하여 영상 내 객체들의 이동 경로와 스켈레톤 정보 수준의 자세 정보를 함께 저장한 후 이러한 저장 객체 정보의 상황별 분포를 기준으로 이동 경로와 자세 정보를 가지는 가상 객체들을 생성할 수 있도록 함으로써 디지털 트윈 기반 시뮬레이션에 현실에 근접한 가상적 인간 객체들의 움직임을 제공할 수 있어 디지털 트윈 기반 시뮬레이션의 품질을 높일 수 있는 효과가 있다.The image analysis system for digital twin technology according to an embodiment of the present invention analyzes an actual image, stores movement paths of objects in the image and posture information of the skeleton information level together, and then based on the situational distribution of the stored object information By making it possible to create virtual objects with movement path and posture information, the motion of virtual human objects close to reality can be provided to the digital twin-based simulation, thereby increasing the quality of the digital twin-based simulation.
특히, 실제 인간 객체의 경로와 움직임, 자세 정보를 세부 분류별로 구분한 후 이를 기반으로 가상 객체에 대한 정보를 생성하므로 통계적 의미를 가진 인간 객체들의 움직임은 물론이고 돌출행동이나 일반적으로 예상하지 못한 인간 객체들의 특이 행동에 대한 정보까지도 반영할 수 있어 디지털 트윈 기반 시뮬레이션의 완성도를 극히 높일 수 있는 효과가 있다.In particular, after classifying the path, movement, and posture information of real human objects into sub-categories, information on virtual objects is generated based on this information. Even information on the specific behavior of objects can be reflected, which has the effect of greatly improving the completeness of the digital twin-based simulation.
도 1은 본 발명의 실시예에 따른 디지털 트윈 기술을 위한 영상 분석 시스템의 구성을 보인 개념도이다.
도 2는 본 발명의 실시예에 따른 영상 분석 기반 객체 생성 장치의 구성을 보인 구성도이다.
도 3은 본 발명의 실시예에 따른 이미지 분석 신경망에 대한 개념도이다.
도 4는 본 발명의 실시예에 따른 영상 내 관심 객체 선별을 위한 신경망의 개념도이다.
도 5는 본 발명의 실시예에 따른 영상 내 객체의 자세 판정을 위한 신경망의 개념도이다.
도 6은 본 발명의 실시예에 따른 영상 내 객체의 자세 판정 결과를 예시한 예시도이다.
도 7은 본 발명의 실시예에 따른 동작 과정을 보인 순서도이다.1 is a conceptual diagram showing the configuration of an image analysis system for digital twin technology according to an embodiment of the present invention.
2 is a block diagram showing the configuration of an apparatus for generating an object based on image analysis according to an embodiment of the present invention.
3 is a conceptual diagram of an image analysis neural network according to an embodiment of the present invention.
4 is a conceptual diagram of a neural network for selecting an object of interest in an image according to an embodiment of the present invention.
5 is a conceptual diagram of a neural network for determining the posture of an object in an image according to an embodiment of the present invention.
6 is an exemplary diagram illustrating a posture determination result of an object in an image according to an embodiment of the present invention.
7 is a flowchart illustrating an operation process according to an embodiment of the present invention.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It should be noted that the technical terms used in the present invention are only used to describe specific embodiments, and are not intended to limit the present invention. In addition, the technical terms used in the present invention should be interpreted as meanings generally understood by those of ordinary skill in the art to which the present invention belongs, unless otherwise specifically defined in the present invention. It should not be construed as meaning or in an excessively reduced meaning. In addition, when the technical term used in the present invention is an incorrect technical term that does not accurately express the spirit of the present invention, it should be understood by being replaced with a technical term that can be correctly understood by those skilled in the art. In addition, the general terms used in the present invention should be interpreted as defined in the dictionary or according to the context before and after, and should not be interpreted in an excessively reduced meaning.
또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.Also, the singular expression used in the present invention includes the plural expression unless the context clearly dictates otherwise. In the present invention, terms such as "consisting of" or "comprising" should not be construed as necessarily including all of the various components or various steps described in the invention, and some components or some steps may not be included. It should be construed that it may further include additional components or steps.
또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.Also, terms including ordinal numbers such as first, second, etc. used in the present invention may be used to describe the components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings, but the same or similar components are given the same reference numerals regardless of the reference numerals, and the redundant description thereof will be omitted.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.In addition, in the description of the present invention, if it is determined that a detailed description of a related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, it should be noted that the accompanying drawings are only for easy understanding of the spirit of the present invention, and should not be construed as limiting the spirit of the present invention by the accompanying drawings.
본 발명의 실시예의 영상 분석 기반 객체 생성 장치 및 디지털 트윈 기반 시뮬레이션 장치는 연산이 가능한 다양한 단말 장치나 네트워크 기능을 구비한 서버의 형태일 수 있다. 이러한 장치들이 서버로 구성될 경우 해당 서버는 일반적으로 인터넷과 같은 개방형 컴퓨터 네트워크를 통하여 불특정 다수 클라이언트 및/또는 다른 서버와 연결되어 있고, 클라이언트 또는 다른 서버의 작업수행 요청을 접수하고 그에 대한 작업 결과를 도출하여 제공하는 컴퓨터 시스템 및 그를 위하여 설치되어 있는 컴퓨터 소프트웨어(웹서버 프로그램)를 뜻하는 것이다. 그러나, 전술한 서버 프로그램 이외에도, 서버상에서 동작하는 일련의 응용 프로그램(Application Program)과 경우에 따라서는 내부에 구축되어 있는 각종 데이터베이스를 포함하는 넓은 개념으로 이해되어야 할 것이다. 이러한 서버는 일반적인 서버용 하드웨어에 도스(DOS), 윈도우(Windows), 리눅스(Linux), 유닉스(UNIX), 매킨토시(Macintosh) 등의 운영체제에 따라 다양하게 제공되고 있는 서버 프로그램을 이용하여 구현될 수 있으며, 클라우드 방식으로 동작하는 하나 이상의 서버로 구현될 수 있다. The image analysis-based object generating apparatus and digital twin-based simulation apparatus according to an embodiment of the present invention may be in the form of various terminal devices capable of calculation or a server having network functions. When these devices are configured as a server, the server is generally connected to an unspecified number of clients and/or other servers through an open computer network such as the Internet, receives a request to perform a task from a client or other server, and transmits the work result. It refers to a computer system derived and provided and computer software (web server program) installed therefor. However, in addition to the above-described server program, it should be understood as a broad concept including a series of application programs operating on the server and, in some cases, various databases built therein. These servers can be implemented using server programs that are provided in various ways depending on operating systems such as DOS, Windows, Linux, UNIX, and Macintosh on general server hardware. , it may be implemented with one or more servers operating in a cloud manner.
나아가, 기술의 발전에 따라 이러한 영상 분석 기반 객체 생성 장치나 디지털 트윈 기반 시뮬레이션 장치는 서버가 아닌 단말로 구성될 수 있는데, 스마트 폰, 타블렛 PC, 노트북, 울트라북, 미니 PC, 마이크로 콘트롤러 기반 단말 장치, 가상 단말 장치, 디스플레이 일체형 컴퓨터, POS 단말 기반 장치, PDA(Personal Digital Assistants), MID(Mobile Internet Device), PMP(Portable Multimedia Player)등을 기본으로 하여 구성되는 디지털 기기로서 사용자의 입력을 받아들이고 사용자에게 정보를 표시하며, 연산과 저장 기능 및 통신 기능을 구비한 다양한 단말일 수 있다. Furthermore, with the development of technology, such an image analysis-based object creation device or digital twin-based simulation device may be configured as a terminal rather than a server. , virtual terminal device, display-integrated computer, POS terminal-based device, PDA (Personal Digital Assistants), MID (Mobile Internet Device), PMP (Portable Multimedia Player), etc. It may display information to the user, and may be various terminals having calculation and storage functions and communication functions.
이하, 도면을 참고하여 본 발명의 상세 실시예를 설명한다.Hereinafter, detailed embodiments of the present invention will be described with reference to the drawings.
도 1은 본 발명의 실시예에 따른 디지털 트윈 기술을 위한 영상 분석 시스템의 구성을 보인 개념도이다.1 is a conceptual diagram showing the configuration of an image analysis system for digital twin technology according to an embodiment of the present invention.
도시된 바와 같이, 디지털 트윈 기술을 위한 영상 분석 시스템(10)은 영상 분석 기반 객체 생성 장치(100)와 디지털 트윈 기반 시뮬레이션 장치(200)로 구성된다. As shown, the
영상 분석 기반 객체 생성 장치(100)는 기본적으로 객체와 각 객체에 대한 자세 정보가 확보된 영상(즉 태깅된 학습 데이터)을 통해서 객체 선별, 객체의 자세 분류에 대한 학습을 수행할 수 있는데, 다양한 신경망 모델이 활용될 수 있다.The image analysis-based
한편, 이와 같은 학습을 통해서 신경망 모델이 확립되면 해당 신경망 모델을 분류기로 활용하여 영상에서 객체를 구분하고, 해당 객체에 대한 자세 정보를 분류할 수 있는데, 자세 정보는 관절에 대한 정보를 포함하는 스켈레톤 정보와 해당 자세에 대한 분류 결과일 수 있다.On the other hand, when a neural network model is established through such learning, an object can be classified in an image by using the neural network model as a classifier, and posture information about the object can be classified. The posture information is a skeleton including information about joints. It may be a classification result for information and a corresponding posture.
이와 같은 영상 분석 기반 객체 생성 장치(100)는 영상으로부터 수집한 영상에서 객체를 선별하고 선별된 객체에 대한 자세를 신경망 모델을 통해 학습하며, 학습 후 얻어진 신경망 모델을 이용하여 객체에 대한 자세를 분류하여 객체의 자세를 스켈레톤 정보를 포함하는 자세 정보로 산출한 다음 해당 객체의 식별자와 이동경로 및 자세 정보를 포함하는 객체 정보를 영상분석 데이터베이스(101)에 저장한다.Such an image analysis-based
한편, 이렇게 영상 분석 데이터베이스(101)에 저장되는 객체에 대한 정보는 향후 디지털 트윈 기반 시뮬레이션 장치(200)에 제공할 가상적인 인간 객체 생성을 위한 기본 정보가 된다.Meanwhile, the information about the object stored in the
따라서, 수집된 객체 정보를 좀 더 각 상황에 맞추어 분류해 둘 필요가 있으므로, 영상 분석 기반 객체 생성 장치(100)는 추적 객체가 등장한 일자, 시간, 날씨 및 객체 등장에 영향을 줄 수 있는 것으로 미리 선별된 환경 조건(국경일, 세일 기간, 방학, 개학, 기념일, 행사 등) 중 적어도 하나 이상의 분류 기준에 따라 상기 저장된 객체 정보에 분류 정보를 더 포함시켜 상기 영상분석 데이터베이스(101)에 객체 정보로서 저장한다. Therefore, since it is necessary to classify the collected object information according to each situation, the image analysis-based
나아가, 영상 분석 기반 객체 생성 장치(100)는 영상 분석 데이터베이스(101)에 저장된 객체 정보를 기반으로 분류 기준별 가상 객체를 생성하여 가상 객체 데이터베이스(102)에 저장하고, 디지털 트윈 기반 시뮬레이션 장치(200)의 요청에 따라 적절한 가장 객체들을 선별하여 제공해 줄 수 있다. 이렇게 제공되는 가상 객체는 디지털 트윈 기반 시뮬레이션 장치(200)에서 객체로 활용할 수 있는 시뮬레이션 객체관련 포맷 정보로 전달될 수 있다.Furthermore, the image analysis-based
디지털 트윈 기반 시뮬레이션 장치(200)는 시뮬레이션 대상에 대한 가상현실 모델 데이터를 구비한 시뮬레이션 대상 데이터베이스(201)와 연동하여 해당 가상현실 모델 데이터를 가상현실 환경에 구성하고, 영상 분석 기반 객체 생성 장치(100)에 시뮬레이션 조건(객체 분류 기준으로서 일자, 시간, 날씨 및 객체 등장에 영향을 줄 수 있는 것으로 미리 선별된 환경 조건)에 따른 가상 객체들을 요청하고, 그에 따라 가변성을 가지는 분류별 가상 객체 정보를 수신하여 가상현실 환경에 적용한다. 여기서, 가변성을 가지는 분류별 가상 객체 정보는, 영상 분석 기반 객체 생성 장치(100)로부터 전달받는 가상 객체들이 완전히 동일한 자세와 경로를 가지는 객체들이 아닌 실제 객체와 유사하게 각각 약간의 가변성을 가지는 객체라는 의미로서, 영상 분석 기반 객체 생성 장치(100)는 통계적 분석에 따른 분포에 맞추어 가상 객체들을 생성하거나 실제 객체 정보를 유사하게 모사하여 생성하되, 분포에 맞추어 평균적인 객체 정보는 물론이고 일반적이지 않은 객체 정보까지도 적절히 생성하여 제공한다. 예컨대 공항에 대한 가상 객체의 경우 알려져 있는 동선에 따라 이동하는 객체보다는 알려진 동선을 기반으로 대기 장소, 다양한 주변 상점, 안내 데스크, 화장실 등을 배회하는 객체들이 더 많으므로 이를 반영하거나, 특이하게 특정 장소를 배회하거나 직원과 같은 객체의 특이 움직임 등도 반영할 수 있게 된다.The digital twin-based
이러한 구성을 도 2를 통해서 좀 더 상세히 살펴본다.This configuration will be described in more detail with reference to FIG. 2 .
도 2는 본 발명의 실시예에 따른 영상 분석 기반 객체 생성 장치(100)의 구성을 보인 구성도이다. 2 is a block diagram showing the configuration of an image analysis-based
상기 영상 분석 기반 객체 생성 장치(100)는 카메라나 영상 데이터베이스와 같은 영상 소스(105)를 통해 영상을 수집하는 영상 수집부(110)와, 영상 수집부(110)에서 수집된 영상으로부터 관심 영역을 선별하여 해당 관심 영역에 존재하는 객체를 선별하는 객체 선별부(120)와, 객체 선별부(120)에서 선별된 객체에 대한 자세를 신경망 모델을 통해 학습시키는 자세 학습부(130)와, 자세 학습부(130)를 통해 학습된 가중치가 적용된 신경망 모델을 통해서 객체 선별부(120)에서 선별된 객체의 자세를 분류하는 자세 분류부(140)와, 객체 선별부(120)에서 선별된 복수의 객체들에 각각 식별자를 부여하여 지속적으로 복수 객체들을 동시에 추적하며, 자세 분류부(140)에서 분류된 각 객체별 자세를 추적 객체들에 연동시키며 군집, 소실 또는 폐색된 객체의 재등장 시 분류된 자세를 토대로 이전 객체 식별자를 유지시키거나 신규 생성하며 추적된 객체들에 대한 객체별 식별자와 이동경로 및 자세 정보를 포함하는 객체 정보를 영상분석 데이터베이스에 저장하는 객체 식별 및 추적부(150)를 포함한다.The image analysis-based
여기서, 객체 선별부(120)와 자세 학습부(130)는 다양한 신경망 모델이 적용될 수 있으며, 객체 선별부(120)는 이미 알려져 가중치가 확립된 분류 모델을 이용할 수 있고, 필요한 경우 이에 대해서도 별도의 학습 과정을 거칠 수 있다. 자세 학습부(130)는 영상 소스(105)를 통한 실시간 혹은 비실시간 영상 정보(태깅된 학습 정보일 수 있음)를 이용하여 자세를 학습하며, 학습이 완료된 경우 자세 분류부(140)에서 학습된 분류 모델을 적용할 수 있고, 이 경우 영상 소스(105)를 통해서 실시간 혹은 비실시간 영상을 분석하며 그 결과를 객체 식별 및 추적부(150)에 제공한다. 이러한 구체적인 신경망 모델에 대한 내용은 이후 도 3 내지 도 5를 통해서 설명한다. Here, various neural network models may be applied to the
한편, 도시된 영상 분석 기반 객체 생성 장치(100)의 객체 식별 및 추적부(150)는 추적 객체가 등장한 일자, 시간, 날씨 및 객체 등장에 영향을 줄 수 있는 것으로 미리 선별된 환경 조건 중 적어도 하나 이상의 분류 기준에 따라 상기 영상분석 데이터베이스(101)에 저장된 객체 정보에 분류 정보를 더 추가하여 저장한다.On the other hand, the object identification and
또한, 영상 분석 기반 객체 생성 장치(100)는 영상 분석 데이터베이스(101)에 저장된 객체 정보를 기반으로 분류 기준별 가상 객체를 생성하되 해당 분류 기준별 가상 객체의 경로와 자세의 분류 범위 내에서 자세와 경로에 대한 실제 객체들의 분포 비율에 따라 유사한 경로와 자세를 가지는 가상 객체를 생성한 후 가상 객체 데이터베이스(102)에 저장하는 가상 객체 생성부(160)를 포함한다. In addition, the image analysis-based
이러한 상기 가상 객체 생성부(160)는 디지털 트윈 기반 시뮬레이션 장치(200)로부터 시뮬레이션 조건에 따른 가상 객체들이 요구되면, 저장된 가상 객체들 중 시뮬레이션 조건에 따른 분류별 가상 객체들을 분류별 분포에 맞추어 선별하여 제공한다.When virtual objects according to simulation conditions are requested from the digital twin-based
도 3 내지 도 5는 본 발명의 실시예에 따른 객체 선별부(120), 자세 학습부(130) 및 자세 분류부(140)에 적용되는 신경망에 대한 것이다.3 to 5 are neural networks applied to the
도 3은 본 발명의 실시예에 따른 이미지 분석 신경망에 대한 개념도이다.3 is a conceptual diagram of an image analysis neural network according to an embodiment of the present invention.
도시된 구성은 신경망 모델 중 이미지 분석에 특화된 합성곱 신경망((Convolutional Neural Networks: CNN))에 대한 것으로, 알려져 있는 VGG16 CNN의 구성을 보인 것이다.The illustrated configuration is for a convolutional neural network (CNN) specialized in image analysis among neural network models, and shows the configuration of a known VGG16 CNN.
도시된 바와 같이 CNN의 각 계층의 산출결과를 영상으로 나타낸 것을 특징맵(feature map)이라고 한다. 입력 계층의 경우 특징맵은 입력 영상인 RGB 세 채널의 행렬이 된다. 은닉 계층의 특징맵은 합성곱 및 활성화 함수 등으로 산출된 영상들로서, 각 영상 내의 픽셀들은 특징맵의 특징으로 간주될 수 있다. 각 특징맵은 다음과 같은 과정을 거쳐 산출된다. 특징맵 내의 신경세포(뉴런: neuron) 또는 픽셀들은 주변 인접한 이웃 신경세포들의 일부분들(수용장: receptive field)과, 오차역전파법으로 얻어진 가중치 행렬과의 합성곱(convolution) 연산을 거친 후, 최대/평균/L2 풀링 등 다양한 변환 및 비선형 함수(예 : 시그모이드, ReLU) 연산 과정 후에 새로운 특징맵이 생성하게 된다. 참고로 풀링 과정은 수용장의 응답을 하나로 요약함으로써 보다 강인한 특징(특징맵 내의 픽셀)을 생성할 수 있게 된다.As shown in the figure, an image representing the calculation result of each layer of CNN is called a feature map. In the case of the input layer, the feature map becomes a matrix of three RGB channels, which are input images. The feature map of the hidden layer is images calculated by convolution and activation functions, and the pixels in each image may be regarded as features of the feature map. Each feature map is calculated through the following process. Neurons (neurons) or pixels in the feature map undergo a convolution operation with parts of neighboring neurons (receptive field) and a weight matrix obtained by the error backpropagation method. A new feature map is created after various transformations such as /average/L2 pooling and other nonlinear functions (eg, sigmoid, ReLU) calculation processes. For reference, the pooling process can generate more robust features (pixels in the feature map) by summarizing the responses of the receptive field.
연속된 합성곱과 풀링 과정을 거치면, 초기 특징 계층 구조가 구성되며, 이는 여러 지도학습 방식에 의한 완전연결계층들(Fully Connected Layers: FCN)을 통해 미세조정되어 여러 컴퓨터비전 목적에 따라 결과를 도출한게 된다. 따라서 최종 계층은 여러 다른 활성화 함수를 통해 각 출력 뉴런에 조건부 확률값 결과를 산출하게 된다. 전체적인 신경망은 평균자승오차(Mean Squared Error: MSE), 교차 엔트로피(cross-entropy) 등 목적함수를 최적화는 과정 및 오차역전파법에서의 확률적 경사하강법(Stochastic Gradient Descent: SGD)을 통하여 학습된다. 예를 들어 위 그림 2의 VGG16의 경우 총 13개의 합성곱 계층과, 3개의 완전연결계층, 그리고 최종적으로 소프트맥스(softmax) 분류 계층으로 이루어진다. 구체적으로 합성곱 특징맵은 3x3 합성곱 필터를 통하여, 그리고 특징맵의 해상도는 2-폭(stride) 최대풀링 계층을 통해 낮아져 산출된다. 물론 입력영상의 크기가 다를 경우 크기변환 또는 영상 자르기 등의 전처리 과정이 필요하다.Through the continuous convolution and pooling process, the initial feature hierarchy is constructed, which is fine-tuned through Fully Connected Layers (FCN) by various supervised learning methods to derive results according to various computer vision purposes. will do Therefore, the final layer produces conditional probability values for each output neuron through different activation functions. The overall neural network is trained through the process of optimizing objective functions such as mean squared error (MSE) and cross-entropy, and stochastic gradient descent (SGD) in the error backpropagation method. . For example, in the case of VGG16 in Figure 2 above, it consists of a total of 13 convolutional layers, 3 fully connected layers, and finally a softmax classification layer. Specifically, the convolutional feature map is calculated through a 3x3 convolution filter, and the resolution of the feature map is lowered through a 2-stride max pooling layer. Of course, if the size of the input image is different, preprocessing such as size conversion or image cropping is required.
이러한 CNN은 다른 종류의 인공 지능 기법들에 대비하여 영상 분석에 효율적이므로 객체 식별이나 장면 컨텍스트 분석에 주로 활용되고 있다.This CNN is effective for image analysis compared to other types of artificial intelligence techniques, so it is mainly used for object identification or scene context analysis.
본 발명의 객체 선별부(120)는 이러한 CNN을 기반으로 하되, 도 4와 같이 관심영역에 대한 객체 검출 알고리즘을 활용한다.The
도 4는 본 발명의 실시예에 따른 영상 내 관심 객체 선별을 위한 신경망의 개념도이다.4 is a conceptual diagram of a neural network for selecting an object of interest in an image according to an embodiment of the present invention.
일반적인 객체 검출에서는 영상 내에 존재하는 객체들의 위치를 찾고, 분류하여, 그 분류 신뢰도(확률)와 함께 사각형의 바운딩 박스로 레이블링하는 것을 목표로 한다. 이러한 객체 검출 프레임워크는 (1) 객체 영역을 제안한 후 각 제안 영역에 대하여 객체 카테고리를 분류하는 전통적인 방법과, (2) 객체 검출을 회귀분석 및 분류 문제로 간주하여, 카테고리 분류 및 위치 등 최종 결과를 하나의 통일된 프레임워크 관점에서 도출하는 방법으로 구분할 수 있다. In general object detection, the goal is to find the location of objects existing in an image, classify them, and label them with a rectangular bounding box together with the classification reliability (probability). This object detection framework considers (1) the traditional method of classifying object categories for each proposed area after proposing an object area, and (2) considering object detection as a regression analysis and classification problem, and final results such as category classification and location can be classified by a method of deriving them from a single unified framework point of view.
영역 제안 기반의 대표적인 방법들로는 R-CNN, SPP-net, 고속 R-CNN, 초고속 R-CNN , R-FCN, FPN 및 마스크 R-CNN 등이 있다. 회귀분석/분류 기반 방법으로는 MultiBox, AttentionNet, G-CNN, YOLO, SSD, YOLOv2, DSSD 및 DSOD 등이 있다. 본 발명의 객체 선별부(120)는 딥러닝 기반 객체 검출의 큰 도약을 이루게 한 영역 제안 기반 접근방법 중 하나인 R-CNN (Regions with CNN features) 방법을 이용한다.Representative methods based on region proposals include R-CNN, SPP-net, high-speed R-CNN, high-speed R-CNN, R-FCN, FPN, and mask R-CNN. Regression/classification-based methods include MultiBox, AttentionNet, G-CNN, YOLO, SSD, YOLOv2, DSSD, and DSOD. The
바운딩 박스 후보들의 품질을 향상시키고 높은 수준의 특징을 추출하기 위해 딥러닝의 구조를 더 심층화하는 것이 필요하다. 이에 도달하기 위한 R-CNN은 2014년 Ross Girshick에 의해 제안되었으며, PASCAL VOC 2012에서 이전 최고 결과 (DPM HSC)보다 30% 이상 개선된 53.3 %의 평균 정밀도(mAP)를 얻었다. 도시된 도 4는 R-CNN의 흐름도를 보여준다. It is necessary to further deepen the structure of deep learning to improve the quality of bounding box candidates and extract high-level features. R-CNN to reach this was proposed by Ross Girshick in 2014, and obtained an average precision (mAP) of 53.3%, which is more than 30% improvement over the previous best result (DPM HSC) in PASCAL VOC 2012. 4 shows a flowchart of R-CNN.
먼저, R-CNN은 각 이미지에 대해 약 2천 개의 영역 제안을 생성하기 위한 선택적 검색을 채택한다. 선택적 검색 방법은 보다 정확한 후보를 제공하기 위해 간단한 상향식 그룹화 및 돌극성(saliency) 신호에 의존한다. 선택적 검색을 통하여 임의 크기의 박스들이 빠르게 검출되고 물체 검출에서 탐색 공간이 감소된다.First, R-CNN adopts a selective search to generate about 2,000 region proposals for each image. Selective search methods rely on simple bottom-up grouping and saliency signals to provide more accurate candidates. Through selective search, boxes of any size are quickly detected and the search space is reduced in object detection.
이후 CNN 기반 특징 추출을 진행한다. 이 단계에서 각 제안 영역은 와핑 또는 잘림을 통하여 고정 크기로 전환되고, CNN 모듈을 통하여 최종 표현으로서 4096 차원의 특징이 추출된다. CNN의 고수준 학습능력, 표현력, 계층적 구조 때문에 각 제안 영역에 대하여 추상적, 의미론적, 강인한 특징 기반 표현이 가능해진다. After that, we proceed with CNN-based feature extraction. In this step, each proposed region is converted to a fixed size through warping or truncation, and 4096-dimensional features are extracted as a final representation through the CNN module. Because of CNN's high-level learning ability, expressive power, and hierarchical structure, abstract, semantic, and robust feature-based representations for each proposed area are possible.
그 다음, 분류 및 위치 발견이 진행된다. 여러 클래스에 대해 사전훈련된 특정 카테고리용 선형 SVM(Support Vector Machine)을 사용하여 여러 제안 영역들(+: 객체, -: 배경)에 대한 점수가 결정된다. 이 점수화된 영역들은 바운딩 박스 회귀분석으로 조정되어 탐욕적 NMS(greedy Non-Maximum Suppression) 적용 후 최종 바운딩 박스를 산출한다.Then, classification and localization proceed. Scores are determined for several proposed domains (+: object, -: background) using a linear support vector machine (SVM) for a specific category, pre-trained for several classes. These scored regions are adjusted by bounding box regression analysis to calculate the final bounding box after greedy non-maximum suppression (NMS) is applied.
이를 통해서 효과적으로 영상 내에서 원하는 객체들을 선별할 수 있다.Through this, it is possible to effectively select desired objects in the image.
도 5는 본 발명의 실시예에 따른 영상 내 객체의 자세 판정을 위한 신경망의 개념도이다.5 is a conceptual diagram of a neural network for determining the posture of an object in an image according to an embodiment of the present invention.
본 발명의 실시예에서는 영상 내 여러 인간 객체들의 자세(pose)를 추적하고, 영상 프레임에 걸쳐 각 키포인트에 대하여 유일한 인스턴스 아이디를 배정하는 자세 추적 프레임워크를 이용한다. 기존 대부분의 자세 추적 연구방법들은 오프라인 방법으로서 실시간 영상처리보다는 객체 추적의 정확성에 보다 초점이 맞추어져 있다. 따라서 기존 방법들은 인간 객체 검출, 후보 자세 추정, 식별성 연관 과정을 순차적으로 진행한다. 자세 추정 결과에 따라 자세 추적 결과는 최적화 문제를 풂으로써 계산된다. 이 경우 차후 프레임 내의 자세들을 사전 계산해야한다. An embodiment of the present invention uses a posture tracking framework that tracks the poses of several human objects in an image and assigns a unique instance ID to each keypoint across an image frame. Most of the existing posture tracking research methods are offline methods and focus on the accuracy of object tracking rather than real-time image processing. Therefore, existing methods sequentially perform human object detection, candidate posture estimation, and identification association processes. According to the posture estimation result, the posture tracking result is calculated by solving the optimization problem. In this case, the postures in the next frame must be pre-calculated.
하지만, 본 발명의 경우 라이트트랙(LightTrack) 방법을 적용하는데, 이는 일반적이고 하향적인 접근 방식으로서, 자세 추정의 후보들이 검출된 후 자세 추정이 이루어지며, 실시간으로 영상 처리가 가능하다는 장점이 있다. However, in the case of the present invention, the LightTrack method is applied, which is a general and top-down approach, and has the advantage that the posture estimation is performed after candidates for posture estimation are detected, and image processing is possible in real time.
본 발명은 영상으로부터 인간 객체를 효과적으로 선별하고 이를 추적하며, 그 자세를 파악하는 것으로서, 인간의 자세는 인간의 위치를 더 잘 추론하기 위해 사용될 수 있다는 점을 활용한다. The present invention effectively selects a human object from an image, tracks it, and recognizes the posture, utilizing the fact that the human posture can be used to better infer the human position.
따라서 자세 추정 후보 검출 후 자세 추정을 하는 하향식 접근 방식에서는, 정확한 인간 객체 위치를 통해 인간 객체의 자세를 쉽게 추정할 수 있다. 따라서 (1) 대략적인 인간 객체 위치는 단일 인간 객체의 자세 추정에 접목될 수 있으며, (2) 인간 관절의 위치는 인간 객체의 위치 식별에 대략적으로 사용될 수 있으며, (3) 따라서 반복적으로 추정과정으로써 단일 인간 객체 자세 추적(Single-person Pose Tracking: SPT)이 가능해진다.Therefore, in a top-down approach for posture estimation after detecting a posture estimation candidate, the posture of a human object can be easily estimated through an accurate human object position. Therefore, (1) the approximate human object position can be grafted to the postural estimation of a single human object, (2) the human joint position can be roughly used to identify the position of the human object, and (3) iteratively, the estimation process This enables single-person pose tracking (SPT).
여러 인간 객체 자세 추적(Multi-target Pose Tracking: MPT)는 단순히 여러 인간 객체들에 대하여 SPT를 반복하는 방법보다는, 여러 객체들을 동시에 추적하고, 추가 재식별(Re-ID)을 통해 그 객체들을 식별하는 것이 유리하다. Multi-target Pose Tracking (MPT) tracks multiple objects simultaneously and identifies the objects through additional re-identification (Re-ID), rather than simply repeating SPT for several human objects. it is advantageous to do
따라서, 본 발명의 실시예에 따른 객체 식별 및 추적부(150)는 복수 객체들을 동시에 추적하는 방식을 이용한다.Accordingly, the object identification and
객체 추적의 경우 다음과 같은 상황들에 주의하여야 한다: (1) 인간 객체 중 카메라 뷰에서 사라지거나 폐색되는 경우, (2) 새 후보들이 카메라 뷰에 등장하거나, 기존 사라졌던 후보들이 다시 뷰에 등장하는 경우, (3) 서로를 향해 인간 객체들이 움직여서 마치 한 객체처럼 보이는 경우, (4) 카메라의 빠른 이동 또는 주밍 때문에 추적이 실패하는 경우 등이다.In the case of object tracking, attention should be paid to the following situations: (1) when a human object disappears or is occluded from the camera view, (2) new candidates appear in the camera view, or when candidates that previously disappeared reappear in the view case, (3) when human objects move toward each other and look like one object, (4) when tracking fails due to fast movement or zooming of the camera.
따라서, 이러한 상황에서 객체를 소실한 경우 새로운 객체를 다시 추적한다면 인간 객체에 대한 연속적인 이동 경로 확보가 어렵게 되므로, 본 발명의 실시예에서는 이러한 상황들에 대해서 인간의 자세를 기반으로 추적 객체의 일관성을 가급적 유지하도록 한다.Therefore, if the object is lost in such a situation, if a new object is traced again, it is difficult to secure a continuous movement path for the human object. to be maintained as much as possible.
즉, 폐색 또는 카메라 이동으로 인하여 객체 후보들을 놓치는 경우에만 객체 후보들을 다시 도입하기 위한 검출 모듈을 실행하고, 자세 매칭 방법을 통하여 이전 프레임의 추적된 타겟들에 대하여 객체 후보들을 연관시킨다.That is, the detection module for re-introducing object candidates is executed only when object candidates are missed due to occlusion or camera movement, and the object candidates are associated with the tracked targets of the previous frame through the posture matching method.
그리고 식별 연관 과정에서는, 공간 정보의 일관성과 자세의 일관성 정보를 활용한다. 재식별 과정에서 새롭게 관측된 객체와 추적된 객체 후보 간의 매칭이 요구되는데, 이는 시각 특징 분류기를 이용하게 된다. 본 발명의 실시예에서는 그래프 컨볼루션 네트워크(Graph Convolution Network: GCN)를 이용하여 인간 객체 관절의 그래프 표현을 가능하게 하였다. 이러한 인간 객체 스켈레톤의 그래프 표현성은 차후 자세 매칭을 위한 후보 매칭 과정에 사용된다.And in the identification and association process, spatial information consistency and posture consistency information are used. In the re-identification process, matching between a newly observed object and a tracked object candidate is required, which uses a visual feature classifier. In an embodiment of the present invention, graph representation of human object joints is made possible by using a graph convolution network (GCN). The graph expressiveness of this human object skeleton is used in the candidate matching process for posture matching.
이러한 GCN을 이용하는 자세 분류 방식은 자세 분류부(140)에 적용될 수 있다.Such a posture classification method using the GCN may be applied to the
도 4에 도시된 구성은 샤미즈(Siamese) GCN에 대한 네트워크 구조를 나타낸 것이다.The configuration shown in FIG. 4 shows the network structure for the Siamese GCN.
인간 객체 관절의 2D 좌표가 주어졌을 때, 관절을 노드로, 인간 몸 구조의 연결성을 에지로 하는 공간 그래프를 생성할 수 있다. 본 발명의 실시예에서는 GCN의 입력으로 그래프 노드의 관절 좌표 벡터를 사용하며, 다중 그래프 합성곱 연산을 통하여 인간 자세에 대한 개념적 요약으로서의 특징 표현을 생성한다. Given the 2D coordinates of the joints of a human object, a spatial graph can be created with the joints as nodes and the connectivity of human body structures as edges. In an embodiment of the present invention, a joint coordinate vector of a graph node is used as an input of the GCN, and a feature expression as a conceptual summary of a human posture is generated through a multi-graph convolution operation.
네트워크 출력 특징들 간의 거리를 통하여 얼마나 두 자세가 유사한지, 즉 두 자세가 서로 매칭이 되는지 결정하는데, 도시된 구성은 2개의 GCN과 대조 손실을 이용한 1개의 합성곱 계층으로 구성된, 자세 매칭을 위한 샤미즈 GCN 구조로서 두 특징 벡터를 동일한 가중치 벡터를 가진 네트워크의 입력 그래프 쌍으로부터 추출하므로 특징 벡터는 인간 객체 관절의 공간적 관계성 정보를 함축하게 된다.Through the distance between the network output features, it is determined how similar two postures are, that is, whether the two postures match each other. As the Chamise GCN structure, two feature vectors are extracted from a pair of input graphs of the network with the same weight vectors, so the feature vectors imply the spatial relationship information of human object joints.
이러한 스켈레톤 기반 표현은 인간 객체 자세의 유사성을 효과적으로 표현할 뿐만 아니라, 계산량에서 효율적이며, 동시에 카메라 이동에 강인하다는 특징을 갖는다. This skeleton-based representation not only effectively expresses the similarity of the human object posture, but also has the characteristics of being efficient in the amount of computation and robust to camera movement.
도 6은 본 발명의 실시예에 따른 영상 내 객체의 자세 판정 결과를 예시한 예시도이다. 6 is an exemplary diagram illustrating a posture determination result of an object in an image according to an embodiment of the present invention.
도시된 바와 같이 영상 내 관심 객체인 인간을 선별하고 각 인간 객체에 대한 식별자를 할당하여 추적하면서 동시에 해당 객체의 스켈레톤 기반 자세 정보를 산출하고, 이를 기반으로 객체의 일관성을 지속적으로 유지하도록 한다.As shown, a human being an object of interest in the image is selected and an identifier for each human object is assigned and tracked while simultaneously calculating the skeleton-based posture information of the corresponding object, and based on this, the object's consistency is continuously maintained.
도 7은 본 발명의 실시예에 따른 동작 과정을 보인 순서도이다.7 is a flowchart illustrating an operation process according to an embodiment of the present invention.
도시된 바와 같이 본 발명은 R-CNN을 기반으로 객체를 선별하고, 선별 객체 위치에 대한 자세를 추정하고, 이를 학습하는 과정을 수행한다.As shown, the present invention selects an object based on R-CNN, estimates a posture for the position of the selected object, and performs a learning process.
이후, 학습이 완료되면, 영상소스로부터 R-CNN을 통해 객체를 선별하고 영상 내 객체들을 동시에 추적하면서 추적 객체의 자세를 분류한다. 각 객체의 군집, 소실, 폐색 등이 발생하고 신규 객체 후보들이 발견되면 자세를 기반으로 추적 객체의 일관성을 유지하면서 관리한다.After that, when the learning is completed, the object is selected from the image source through R-CNN and the posture of the tracking object is classified while simultaneously tracking the objects in the image. When clustering, disappearance, or occlusion of each object occurs and new object candidates are found, the tracking object is managed while maintaining consistency based on the posture.
이러한 객체별 추적 경로와 자세 정보를 추적 객체가 등장한 일자, 시간, 날씨 및 객체 등장에 영향을 줄 수 있는 것으로 미리 선별된 환경 조건 등의 분류 정보와 함께 저장한다.The tracking path and posture information for each object are stored together with classification information such as the date, time, weather, and environmental conditions previously selected as those that may affect the appearance of the tracking object.
이후, 이렇게 수집 누적된 객체 정보를 분류하여 분류별 가상 객체를 생성한다. 이러한 가상 객체는 해당 분류 기준별 가상 객체의 경로와 자세의 분류 범위 내에서 자세와 경로에 대한 실제 객체들의 분포 비율에 따라 유사한 경로와 자세를 가지는 가상 객체들을 포함한다.Thereafter, the collected and accumulated object information is classified to generate virtual objects for each classification. These virtual objects include virtual objects having similar paths and postures according to a distribution ratio of postures and real objects to postures within a classification range of virtual object paths and postures for each classification criterion.
도시되지는 않았으나, 이후 디지털 트윈 기반 시뮬레이션 장치로부터 시뮬레이션 조건에 따른 가상 객체들이 요구되면, 저장된 가상 객체들 중 시뮬레이션 조건에 따른 분류별 가상 객체들을 분류별 분포에 맞추어 선별하여 제공할 수 있게 된다.Although not shown, when virtual objects according to the simulation conditions are requested from the digital twin-based simulation device, virtual objects for each classification according to the simulation conditions among the stored virtual objects can be selected and provided according to the distribution for each classification.
이와 같은 본 발명의 실시예를 통해서 디지털 트윈 기반 시뮬레이션에 현실에 근접한 가상적 인간 객체들의 움직임을 제공할 수 있어 디지털 트윈 기반 시뮬레이션의 품질을 높일 수 있게 된다.Through this embodiment of the present invention, it is possible to provide the motion of virtual human objects close to reality to the digital twin-based simulation, thereby increasing the quality of the digital twin-based simulation.
본 명세서에 기술된 다양한 장치 및 구성부는 하드웨어 회로(예를 들어, CMOS 기반 로직 회로), 펌웨어, 소프트웨어 또는 이들의 조합에 의해 구현될 수 있다. 예를 들어, 다양한 전기적 구조의 형태로 트랜지스터, 로직게이트 및 전자회로를 활용하여 구현될 수 있다.The various devices and components described herein may be implemented by hardware circuitry (eg, CMOS-based logic circuitry), firmware, software, or a combination thereof. For example, it may be implemented using transistors, logic gates, and electronic circuits in the form of various electrical structures.
전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Those of ordinary skill in the art to which the present invention pertains may modify and modify the above-described contents without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
100: 영상 분석 기반 객체 생성 장치 110: 영상 수집부
120: 객체 선별부 130: 자세 학습부
140: 자세 분류부 150: 객체 식별 및 추적부
160: 가상 객체 생성부
200: 디지털 트윈 기반 시뮬레이션 장치100: image analysis-based object generating device 110: image collecting unit
120: object selection unit 130: posture learning unit
140: posture classification unit 150: object identification and tracking unit
160: virtual object generator
200: digital twin-based simulation device
Claims (5)
시뮬레이션 대상에 대한 가상현실 모델 데이터를 가상현실 환경에 구성하고, 상기 영상 분석 기반 객체 생성 장치에 시뮬레이션 조건에 따른 가상 객체들을 요청하며, 그에 따라 분류별 가상 객체 정보를 수신하여 가상현실 환경에 적용하는 디지털 트윈 기반 시뮬레이션 장치를 포함하며,
상기 영상 분석 기반 객체 생성 장치는, 상기 영상 분석 데이터베이스에 누적 저장된 객체 정보를 기반으로 분류 기준별 가상 객체를 생성하되 해당 분류 기준별 가상 객체의 경로와 자세의 분류 범위 내에서 자세와 경로에 대한 실제 객체들의 분포 비율에 따라 유사한 경로와 자세를 가지는 가상 객체들을 생성한 후 가상 객체 데이터베이스에 저장하며, 상기 디지털 트윈 기반 시뮬레이션 장치로부터 일자, 시간, 날씨 및 객체 등장에 영향을 줄 수 있는 것으로 미리 선별된 환경 조건 중 적어도 하나를 포함하는 시뮬레이션 조건에 따른 가상 객체들이 요구되면, 저장된 가상 객체들 중 상기 시뮬레이션 조건에 따른 분류별 가상 객체들을 분류별 분포에 맞추어 선별하여 제공하는 것을 특징으로 하는 디지털 트윈 기술을 위한 영상 분석 시스템.
Objects are selected from images collected through a camera or image database, and the posture of the selected object is learned through a neural network model. Calculating with posture information including: tracking while assigning an identifier to the selected object to obtain an identifier and a movement path of the corresponding object, and object information including the identifier and movement path and posture information for the selected object The data is stored in the image analysis database, but classification information is added to the stored object information according to at least one classification criterion among the date, time, weather, and environmental conditions previously selected as being capable of affecting the appearance of the selected object. In a manner of including and storing, object information including the classification information for each of a plurality of objects selected from images collected through the camera or image database is stored in the image analysis database, and based on the object information stored in the image analysis database an image analysis-based object generating device for generating virtual objects according to classification criteria and storing them in a virtual object database;
A digital application that configures virtual reality model data for a simulation target in a virtual reality environment, requests virtual objects according to simulation conditions from the image analysis-based object generating device, and receives virtual object information by classification accordingly and applies it to the virtual reality environment Includes a twin-based simulation unit;
The image analysis-based object generating apparatus generates a virtual object for each classification criterion based on the object information accumulated and stored in the image analysis database, but the virtual object path for each classification criterion and the actual position for the path within a classification range of the virtual object are generated. After creating virtual objects with similar paths and postures according to the distribution ratio of the objects, they are stored in the virtual object database, and the date, time, weather, and objects that are selected in advance as those that can affect the appearance of objects are selected from the digital twin-based simulation device. Image for digital twin technology, characterized in that when virtual objects according to a simulation condition including at least one of environmental conditions are requested, virtual objects by classification according to the simulation condition from among the stored virtual objects are selected and provided according to distribution by classification analysis system.
카메라나 영상 데이터베이스를 통해 영상을 수집하는 영상 수집부와;
영상 수집부에서 수집된 영상으로부터 관심 영역을 선별하여 해당 관심 영역에 존재하는 객체를 선별하는 객체 선별부와;
객체 선별부에서 선별된 객체에 대한 자세를 신경망 모델을 통해 학습시키는 자세 학습부와;
자세 학습부를 통해 학습된 가중치가 적용된 신경망 모델을 통해서 객체 선별부에서 선별된 객체의 자세를 분류하는 자세 분류부와;
객체 선별부에서 선별된 복수의 객체들에 각각 식별자를 부여하여 지속적으로 복수 객체들을 동시에 추적하며, 자세 분류부에서 분류된 각 객체별 자세를 추적 객체들에 연동시키며 군집, 소실 또는 폐색된 객체의 재 등장 시 분류된 자세를 토대로 이전 객체 식별자를 유지시키거나 신규 생성하며 추적된 객체들에 대한 객체별 식별자와 이동경로 및 자세 정보를 포함하는 객체 정보를 영상분석 데이터베이스에 저장하는 객체 식별 및 추적부를 포함하는 것을 특징으로 하는 디지털 트윈 기술을 위한 영상 분석 시스템.
The method according to claim 1, The image analysis-based object generating device
an image collecting unit for collecting images through a camera or an image database;
an object selection unit that selects a region of interest from the images collected by the image collection unit and selects objects existing in the region of interest;
a posture learning unit for learning the posture of the object selected by the object selecting unit through a neural network model;
a posture classification unit for classifying the posture of the object selected by the object selector through the neural network model to which the weight learned through the posture learning unit is applied;
By assigning an identifier to each of the plurality of objects selected by the object sorting unit, the plurality of objects are continuously tracked simultaneously, the posture of each object classified in the posture classification unit is linked to the tracking objects, and When re-appearing, an object identification and tracking unit that maintains or creates new object identifiers based on the classified postures and stores object information including object identifiers for tracked objects and movement paths and posture information in the image analysis database Image analysis system for digital twin technology, characterized in that it comprises.
The method according to claim 2, wherein the object identification and tracking unit classification information in the stored object information according to at least one classification criterion among the date, time, weather, and environmental conditions pre-selected as being capable of affecting the appearance of the tracking object An image analysis system for digital twin technology, characterized in that it is further included and stored in the image analysis database.
The method according to claim 3, wherein the virtual object for each classification criterion is created based on the object information stored in the image analysis database, and the path of the virtual object for each classification criterion and the distribution ratio of the real objects to the posture and the path within the classification range of the classification criterion. An image analysis system for digital twin technology, comprising a virtual object generating unit that generates a virtual object having a similar path and posture according to the user and stores the virtual object in a virtual object database.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200022743A KR102462934B1 (en) | 2020-02-25 | 2020-02-25 | Video analysis system for digital twin technology |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200022743A KR102462934B1 (en) | 2020-02-25 | 2020-02-25 | Video analysis system for digital twin technology |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20210108044A KR20210108044A (en) | 2021-09-02 |
KR102462934B1 true KR102462934B1 (en) | 2022-11-03 |
Family
ID=77794248
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200022743A KR102462934B1 (en) | 2020-02-25 | 2020-02-25 | Video analysis system for digital twin technology |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102462934B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102602589B1 (en) * | 2023-08-23 | 2023-11-17 | 주식회사 심시스글로벌 | Method and device for managing metaverse pop-up store based on information related to offline pop-up store using neural network |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102421776B1 (en) * | 2021-09-27 | 2022-07-19 | 주식회사 넥스트도어 | Apparatus for generating 3-dimensional object model and method thereof |
KR102420462B1 (en) * | 2021-12-13 | 2022-07-13 | 세종대학교산학협력단 | Collaborative learning method using digital twin |
CN114396944B (en) * | 2022-01-18 | 2024-03-22 | 西安塔力科技有限公司 | Autonomous positioning error correction method based on digital twinning |
CN114973109A (en) * | 2022-07-11 | 2022-08-30 | 卡奥斯工业智能研究院(青岛)有限公司 | Working efficiency display method, device and equipment based on digital twins |
KR20240043354A (en) | 2022-09-27 | 2024-04-03 | 한국전자기술연구원 | Hybrid modeling and software framework method and system for implementing digital twin service |
KR102633177B1 (en) * | 2023-01-20 | 2024-02-02 | 주식회사 핀텔 | The Method and System for Labeled Machine-Learning Data By Digital Twin |
CN116630495B (en) * | 2023-07-04 | 2024-04-12 | 深圳微品致远信息科技有限公司 | Virtual digital human model planning system based on AIGC algorithm |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010238134A (en) * | 2009-03-31 | 2010-10-21 | Saxa Inc | Image processor and program |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101325401B1 (en) | 2011-12-02 | 2013-11-04 | 건국대학교 산학협력단 | Apparatus and method for generating moving information of virtual object |
KR102582349B1 (en) * | 2016-02-19 | 2023-09-26 | 주식회사 케이쓰리아이 | The apparatus and method for correcting error be caused by overlap of object in spatial augmented reality |
KR20170143476A (en) * | 2017-12-15 | 2017-12-29 | 주식회사 비즈모델라인 | Method for Displaying Selectable Virtual-Object Data of Augmented Reality by using User's Order |
KR101989982B1 (en) | 2019-03-08 | 2019-06-17 | 이봉규 | Modeling system and method by analyzing indoor environment based on digital-twin |
-
2020
- 2020-02-25 KR KR1020200022743A patent/KR102462934B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010238134A (en) * | 2009-03-31 | 2010-10-21 | Saxa Inc | Image processor and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102602589B1 (en) * | 2023-08-23 | 2023-11-17 | 주식회사 심시스글로벌 | Method and device for managing metaverse pop-up store based on information related to offline pop-up store using neural network |
Also Published As
Publication number | Publication date |
---|---|
KR20210108044A (en) | 2021-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102462934B1 (en) | Video analysis system for digital twin technology | |
Chen et al. | An edge traffic flow detection scheme based on deep learning in an intelligent transportation system | |
Kim et al. | Vision-based human activity recognition system using depth silhouettes: A smart home system for monitoring the residents | |
CN106897670B (en) | Express violence sorting identification method based on computer vision | |
CN114241282A (en) | Knowledge distillation-based edge equipment scene identification method and device | |
CN112884742B (en) | Multi-target real-time detection, identification and tracking method based on multi-algorithm fusion | |
CN113807399A (en) | Neural network training method, neural network detection method and neural network detection device | |
CN109886356A (en) | A kind of target tracking method based on three branch's neural networks | |
Pavel et al. | Object class segmentation of RGB-D video using recurrent convolutional neural networks | |
Li et al. | Gesture recognition algorithm based on image information fusion in virtual reality | |
CN118115927B (en) | Target tracking method, apparatus, computer device, storage medium and program product | |
Tao et al. | Indoor 3D semantic robot VSLAM based on mask regional convolutional neural network | |
Stefanidis et al. | Summarizing video datasets in the spatiotemporal domain | |
Alcantarilla et al. | Visibility learning in large-scale urban environment | |
Abdullah et al. | Vehicle counting using deep learning models: a comparative study | |
Zhao et al. | Dpit: Dual-pipeline integrated transformer for human pose estimation | |
Wu et al. | Attention Mechanism Based on Improved Spatial-Temporal Convolutional Neural Networks for Traffic Police Gesture Recognition | |
Wu et al. | Self-learning and explainable deep learning network toward the security of artificial intelligence of things | |
Ganga et al. | Object detection and crowd analysis using deep learning techniques: Comprehensive review and future directions | |
CN113762041A (en) | Video classification method and device, computer equipment and storage medium | |
CN117115911A (en) | Hypergraph learning action recognition system based on attention mechanism | |
Wang et al. | A category-contrastive guided-graph convolutional network approach for the semantic segmentation of point clouds | |
Li et al. | Few-shot meta-learning on point cloud for semantic segmentation | |
Lu | Empirical approaches for human behavior analytics | |
Kumar et al. | Real-time detection of abnormal human activity using deep learning and temporal attention mechanism in video surveillance |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |