KR102582349B1 - The apparatus and method for correcting error be caused by overlap of object in spatial augmented reality - Google Patents

The apparatus and method for correcting error be caused by overlap of object in spatial augmented reality Download PDF

Info

Publication number
KR102582349B1
KR102582349B1 KR1020160020013A KR20160020013A KR102582349B1 KR 102582349 B1 KR102582349 B1 KR 102582349B1 KR 1020160020013 A KR1020160020013 A KR 1020160020013A KR 20160020013 A KR20160020013 A KR 20160020013A KR 102582349 B1 KR102582349 B1 KR 102582349B1
Authority
KR
South Korea
Prior art keywords
overlap
unit
information
augmented reality
image
Prior art date
Application number
KR1020160020013A
Other languages
Korean (ko)
Other versions
KR20170098388A (en
Inventor
이재영
Original Assignee
주식회사 케이쓰리아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이쓰리아이 filed Critical 주식회사 케이쓰리아이
Priority to KR1020160020013A priority Critical patent/KR102582349B1/en
Publication of KR20170098388A publication Critical patent/KR20170098388A/en
Application granted granted Critical
Publication of KR102582349B1 publication Critical patent/KR102582349B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training

Abstract

본 발명의 일 실시예에 따른 공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치는 객체가 포함된 영상을 획득하기 위한 영상 획득부, 획득된 영상에서 객체를 식별하기 위한 객체 식별부, 식별된 객체에 대하여 생성된 아이디를 할당하는 아이디 할당부, 식별된 객체에 대한 골격 정보를 추출하기 위한 골격정보 추출부, 추출된 골격 정보에 기초하여 객체에 대한 움직임을 실시간으로 추적하기 위한 객체 추적부, 획득된 영상에 포함된 복수개의 객체들 간의 중첩도를 추정하기 위한 중첩도 추정부, 추정된 중첩도에 기초하여 객체의 중첩 부위에 대한 골격 정보의 오차를 보정하기 위한 보정부 및 보정부를 통하여 보정된 골격 정보를 이용하여 객체를 복원하기 위한 객체 복원부를 포함할 수 있다. 또한, 복원된 객체에 대하여는 할당된 아이디가 유지될 수 있다. An error correction device due to object overlap in spatial augmented reality according to an embodiment of the present invention includes an image acquisition unit for acquiring an image containing an object, an object identification unit for identifying an object in the acquired image, and an identified object. An ID allocation unit that allocates the generated ID, a skeletal information extraction unit to extract skeletal information about the identified object, an object tracking unit to track the movement of the object in real time based on the extracted skeletal information, and acquisition. An overlap estimation unit for estimating the degree of overlap between a plurality of objects included in an image, a correction unit for correcting errors in skeletal information about overlapping parts of objects based on the estimated overlap, and a correction unit for correcting errors through the correction unit. It may include an object restoration unit for restoring the object using skeleton information. Additionally, the ID assigned to the restored object may be maintained.

Description

공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치 및 방법{THE APPARATUS AND METHOD FOR CORRECTING ERROR BE CAUSED BY OVERLAP OF OBJECT IN SPATIAL AUGMENTED REALITY}Error correction device and method according to object overlap in spatial augmented reality {THE APPARATUS AND METHOD FOR CORRECTING ERROR BE CAUSED BY OVERLAP OF OBJECT IN SPATIAL AUGMENTED REALITY}

본 발명은 인식된 객체의 추적 처리 기술에 관한 것으로, 더욱 상세하게는 공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치 및 방법에 관한 것이다.The present invention relates to technology for tracking and processing recognized objects, and more specifically, to an apparatus and method for correcting errors due to object overlap in spatial augmented reality.

근래 들어, 공간 증강 현실 분야에서 사람을 인식 및 추적하는데 발생되는 중첩처리 기술에 대해 많은 연구가 진행되고 있다. 사람을 인식 및 추적하는데 발생되는 중첩처리 기술은 사람-기계 상호 작용 및 교육 보조 등 많은 영역에 적용할 수 있다.Recently, much research has been conducted on overlapping processing technology used to recognize and track people in the field of spatial augmented reality. The overlapping processing technology generated to recognize and track people can be applied to many areas, including human-machine interaction and educational assistance.

현재 사용된 사람 인식 및 추적하는데 발생되는 중첩현상 처리 기술은 중첩되었을 때 오류로 처리하는 방법, 입력데이터를 초기화 하는 방법, 중첩된 사람을 새로 생성하는 방법으로 구분되어있다.Currently used technology for processing overlap phenomenon that occurs in recognizing and tracking people is divided into a method of handling overlap when it occurs as an error, a method of initializing input data, and a method of creating a new overlapped person.

오류로 처리하는 방법은 사람은 한 명만이 나와야 하고 2명 이상이 인지되었을 때는 오류를 발생시켜 사용자에게 한 명만 앞에 있도록 하여 2인 이상의 참여가 불가능하다.The way to handle it as an error is that only one person must appear, and if more than two people are recognized, an error is generated and the user is asked to have only one person in front, making it impossible for more than two people to participate.

입력데이터를 초기화하는 방법은 입력되는 데이터의 초기화를 하여 안정적인 사람 골격의 정보를 제공할 수 있으나, 어떤 상황에서 초기화를 해야되는지 여부를 판단해야 한다는 점에서 번거롭다.The method of initializing input data can provide stable human skeleton information by initializing the input data, but it is cumbersome in that it must be determined under what circumstances initialization is necessary.

중첩된 사람을 새로 생성하는 방법은 사람 추적에는 유효하나 고유 식별번호가 새로 부여되어 객체의 연속적인 추적이 어렵다는 단점이 있다.The method of creating new overlapping people is effective for tracking people, but has the disadvantage of making continuous tracking of objects difficult because new unique identification numbers are assigned.

본 발명은 전술한 문제점에 대한 대응 방안으로써, 복수개의 객체를 정확하게 인식하고 객체들 간에 중첩이 이루어지더라도 연속적이고 안정적으로 객체를 추적하기 위한 중첩되는 부분에 대한 효과적인 처리 기술을 제공하고자 한다. As a response to the above-described problem, the present invention seeks to provide an effective processing technology for overlapping parts to accurately recognize a plurality of objects and continuously and stably track the objects even when objects overlap.

본 발명의 일 실시예로써, 공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치 및 그 방법이 제공될 수 있다. As an embodiment of the present invention, an error correction apparatus and method according to object overlap in spatial augmented reality may be provided.

본 발명의 일 실시예에 따른 공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치는 객체가 포함된 영상을 획득하기 위한 영상 획득부, 획득된 영상에서 객체를 식별하기 위한 객체 식별부, 식별된 객체에 대하여 생성된 아이디를 할당하는 아이디 할당부, 식별된 객체에 대한 골격 정보를 추출하기 위한 골격정보 추출부, 추출된 골격 정보에 기초하여 객체에 대한 움직임을 실시간으로 추적하기 위한 객체 추적부, 획득된 영상에 포함된 복수개의 객체들 간의 중첩도를 추정하기 위한 중첩도 추정부, 추정된 중첩도에 기초하여 객체의 중첩 부위에 대한 골격 정보의 오차를 보정하기 위한 보정부 및 보정부를 통하여 보정된 골격 정보를 이용하여 객체를 복원하기 위한 객체 복원부를 포함할 수 있다. 또한, 복원된 객체에 대하여는 할당된 아이디가 유지될 수 있다. An error correction device due to object overlap in spatial augmented reality according to an embodiment of the present invention includes an image acquisition unit for acquiring an image containing an object, an object identification unit for identifying an object in the acquired image, and an identified object. An ID allocation unit that allocates the generated ID, a skeletal information extraction unit to extract skeletal information about the identified object, an object tracking unit to track the movement of the object in real time based on the extracted skeletal information, and acquisition. An overlap estimation unit for estimating the degree of overlap between a plurality of objects included in an image, a correction unit for correcting errors in skeletal information about overlapping parts of objects based on the estimated overlap, and a correction unit for correcting errors through the correction unit. It may include an object restoration unit for restoring the object using skeleton information. Additionally, the ID assigned to the restored object may be maintained.

본 발명의 일 실시예에 따른 영상에는 적어도 하나의 객체가 포함될 수 있고, 객체 식별부에서는 객체의 심도(depth) 정보에 기초하여 영상으로부터 객체를 식별할 수 있다. An image according to an embodiment of the present invention may include at least one object, and the object identification unit may identify the object from the image based on depth information of the object.

본 발명의 일 실시예에 따른 객체는 사람이고, 골격 정보는 객체의 골격의 시작점과 끝점의 좌표를 쌍으로 하여 추출될 수 있다. The object according to an embodiment of the present invention is a person, and skeleton information can be extracted by pairing the coordinates of the start and end points of the object's skeleton.

본 발명의 일 실시예에 따른 중첩도는 객체가 타 객체와 중첩되기 이전의 골격 정보와 중첩된 이후의 골격 정보간이 차이값에 기초하여 추정될 수 있다. The degree of overlap according to an embodiment of the present invention may be estimated based on the difference between the skeleton information before an object overlaps with another object and the skeleton information after the object overlaps.

본 발명의 일 실시예에 따른 중첩도는 객체의 전체의 골격 정보 대비 중첩 시 추출된 골격 정보 비율에 기초하여 추정될 수 있다. The degree of overlap according to an embodiment of the present invention may be estimated based on the ratio of the skeleton information extracted during overlap to the entire skeleton information of the object.

또한, 보정부에서는 추정된 중첩도에 기초하여 보정의 대상이 될 객체의 골격 정보를 결정하고 결정된 골격 정보의 오차를 보정하며, 골격 정보의 오차는 중첩으로 인한 객체의 위치 값 오차일 수 있다. Additionally, the correction unit determines the skeletal information of the object to be corrected based on the estimated degree of overlap and corrects errors in the determined skeletal information. The error in the skeletal information may be an error in the position value of the object due to the overlap.

본 발명의 일 실시예에 따른 공간 증강 현실에서의 객체 중첩에 따른 오류를 보정하기 위한 방법은, 객체가 포함된 영상을 획득하는 단계, 획득된 영상에서 객체를 식별하는 단계, 식별된 객체에 대하여 생성된 아이디를 할당하는 단계, 식별된 객체에 대한 골격 정보를 추출하는 단계, 추출된 골격 정보에 기초하여 객체에 대한 움직임을 실시간으로 추적하는 단계, 획득된 영상에 포함된 복수개의 객체들 간의 중첩도를 추정하는 단계, 추정된 중첩도에 기초하여 객체의 중첩 부위에 대한 골격 정보의 오차를 보정하는 단계 및 보정된 골격 정보를 이용하여 객체를 복원하는 단계를 포함하고, 복원된 객체에 대하여는 할당된 아이디가 유지될 수 있다. A method for correcting errors due to object overlap in spatial augmented reality according to an embodiment of the present invention includes the steps of acquiring an image containing an object, identifying the object in the acquired image, and Allocating the generated ID, extracting skeletal information about the identified object, tracking the movement of the object in real time based on the extracted skeletal information, overlapping between a plurality of objects included in the acquired image It includes a step of estimating a degree, a step of correcting an error in skeletal information about an overlapping part of an object based on the estimated degree of overlap, and a step of restoring an object using the corrected skeletal information, and assigning The ID can be maintained.

한편, 본 발명의 일 실시예로써, 전술한 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체가 제공될 수 있다.Meanwhile, as an embodiment of the present invention, a computer-readable recording medium recording a program for executing the above-described method on a computer may be provided.

본 발명의 일 실시예에 따른 공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치 및 그 방법을 이용하면, 다수의 사람들이 참여한 공간 증강 현실 환경에도 멀티미디어 컨텐츠의 안정적인 제공을 실현할 수 있으며 객체에 대한 데이터 처리 시 높은 정확도를 달성할 수 있다. By using an error correction apparatus and method for object overlap in spatial augmented reality according to an embodiment of the present invention, stable provision of multimedia content can be realized even in a spatial augmented reality environment in which a large number of people participate, and data about objects can be realized. High accuracy can be achieved during processing.

또한, 객체의 중첩 등에 따른 오류 메시지 처리나 멀티미디어 컨텐츠의 왜곡, 손실 등을 효과적으로 방지할 수 있다. In addition, it is possible to effectively prevent error message processing due to overlapping objects or distortion or loss of multimedia content.

본 발명의 일 실시예에 따른 공간 증강 현실 기반에서 인식된 객체의 중첩 현상에 대한 오류 보정 방법은 객체(예컨대, 사람)과 중첩되는 영상 정보를 분석하여 멀티미디어 컨텐츠(예컨대, 캐릭터 등)와 매핑하여 처리되는 영상 처리 기법에서 캐릭터의 부자연스러운 동작 등과 같은 오류 현상의 발생을 방지할 수 있다. An error correction method for the overlapping phenomenon of objects recognized based on spatial augmented reality according to an embodiment of the present invention analyzes image information overlapping with an object (e.g., a person) and maps it with multimedia content (e.g., a character, etc.). Error phenomena such as unnatural movements of characters can be prevented from occurring in image processing techniques.

도 1은 본 발명의 일 실시예에 따른 공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치의 블록도이다.
도 2는 본 발명의 일 실시예에 따른 아이디 할당부를 나타낸다.
도 3은 본 발명의 일 실시예에 따른 중첩도 추정부를 나타낸다.
도 4는 본 발명의 일 실시예에 따른 객체 복원부를 나타낸다.
도 5는 제 1 객체와 제 2 객체가 중첩되지 않은 경우를 나타낸다.
도 6은 제 1 객체와 제 2 객체의 팔과 허리 부분이 중첩된 경우를 나타낸다.
도 7은 제 1 객체와 제 2 객체의 팔과 다리 부분이 중첩된 경우를 나타낸다.
도 8은 제 1 객체와 제 2 객체가 90 퍼센트(%)이상 중첩된 경우를 나타낸다.
도 9는 제 2 객체의 일부가 제 1 객체와 중첩되는 경우를 나타낸다.
도 10은 본 발명의 일 실시예에 따른 공간 증강 현실에서의 객체 중첩에 따른 오류를 보정하기 위한 방법을 나타낸 순서도이다.
Figure 1 is a block diagram of an error correction device based on object overlap in spatial augmented reality according to an embodiment of the present invention.
Figure 2 shows an ID allocation unit according to an embodiment of the present invention.
Figure 3 shows an overlap estimation unit according to an embodiment of the present invention.
Figure 4 shows an object restoration unit according to an embodiment of the present invention.
Figure 5 shows a case where the first object and the second object do not overlap.
Figure 6 shows a case where the arms and waist portions of the first object and the second object overlap.
Figure 7 shows a case where the arms and legs of the first object and the second object overlap.
Figure 8 shows a case where the first object and the second object overlap more than 90 percent (%).
Figure 9 shows a case where part of the second object overlaps the first object.
Figure 10 is a flowchart showing a method for correcting errors due to object overlap in spatial augmented reality according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Below, with reference to the attached drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily implement the present invention. However, the present invention may be implemented in many different forms and is not limited to the embodiments described herein. In order to clearly explain the present invention in the drawings, parts that are not related to the description are omitted, and similar parts are given similar reference numerals throughout the specification.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다. The terms used in this specification will be briefly explained, and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the present invention are general terms that are currently widely used as much as possible while considering the function in the present invention, but this may vary depending on the intention or precedent of a person working in the art, the emergence of new technology, etc. In addition, in certain cases, there are terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the relevant invention. Therefore, the terms used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 명세서 전체에서 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, "그 중간에 다른 소자를 사이에 두고" 연결되어 있는 경우도 포함한다. When it is said that a part "includes" a certain element throughout the specification, this means that, unless specifically stated to the contrary, it does not exclude other elements but may further include other elements. In addition, terms such as "... unit" and "module" used in the specification refer to a unit that processes at least one function or operation, which may be implemented as hardware or software, or as a combination of hardware and software. . In addition, when a part is said to be "connected" to another part throughout the specification, this includes not only the case where it is "directly connected," but also the case where it is connected "with another element in between."

본 명세서에서의 "객체"는 영상에 포함된 사람, 동물, 물건 등으로써 영상 처리 시의 일 기준 요소가 될 수 있는 대상을 의미할 수 있다. 영상에 포함된 객체는 유사한 색이나 질감으로 구성된 경우도 있지만, 상이한 색과 질감으로 구성되는 경우도 많다. 또한, 복잡한 배경에 객체가 포함되는 경우도 있다. 이와 같이 영상에서는 배경과 객체가 혼재할 수 있고, 배경과 구분지어 객체를 명확히 추출해내고, 추적하는 기법은 영상 처리에 있어서 대단히 중요할 수 있다. In this specification, “object” may refer to a person, animal, object, etc. included in an image that can serve as a standard element during image processing. Objects included in an image sometimes have similar colors or textures, but often have different colors and textures. Additionally, there are cases where objects are included in a complex background. In this way, backgrounds and objects can coexist in images, and techniques to clearly extract and track objects by distinguishing them from the background can be very important in image processing.

이하 첨부된 도면을 참고하여 본 발명을 상세히 설명하기로 한다.Hereinafter, the present invention will be described in detail with reference to the attached drawings.

도 1은 본 발명의 일 실시예에 따른 공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치의 블록도이고, 도 2는 본 발명의 일 실시예에 따른 아이디 할당부를 나타낸다. Figure 1 is a block diagram of an error correction device according to object overlap in spatial augmented reality according to an embodiment of the present invention, and Figure 2 shows an ID allocation unit according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치(1000)는 객체가 포함된 영상을 획득하기 위한 영상 획득부(1100), 획득된 영상에서 객체를 식별하기 위한 객체 식별부(1200), 식별된 객체에 대하여 생성된 아이디를 할당하는 아이디 할당부(1300), 식별된 객체에 대한 골격 정보를 추출하기 위한 골격정보 추출부(1400), 추출된 골격 정보에 기초하여 객체에 대한 움직임을 실시간으로 추적하기 위한 객체 추적부(1500), 획득된 영상에 포함된 복수개의 객체들 간의 중첩도를 추정하기 위한 중첩도 추정부(1600), 추정된 중첩도에 기초하여 객체의 중첩 부위에 대한 골격 정보의 오차를 보정하기 위한 보정부(1700) 및 보정부를 통하여 보정된 골격 정보를 이용하여 객체를 복원하기 위한 객체 복원부(1800)를 포함할 수 있다. 또한, 복원된 객체에 대하여는 할당된 아이디가 유지될 수 있다. An error correction apparatus 1000 according to object overlap in spatial augmented reality according to an embodiment of the present invention includes an image acquisition unit 1100 for acquiring an image containing an object, and an object for identifying the object in the acquired image. An identification unit 1200, an ID allocation unit 1300 for assigning an ID generated to an identified object, a skeletal information extraction unit 1400 for extracting skeletal information about an identified object, based on the extracted skeletal information An object tracking unit 1500 for tracking the movement of an object in real time, an overlap estimation unit 1600 for estimating the degree of overlap between a plurality of objects included in the acquired image, and an object tracking unit 1600 for estimating the degree of overlap between a plurality of objects included in the acquired image. It may include a correction unit 1700 for correcting errors in skeletal information about overlapping parts, and an object restoration unit 1800 for restoring the object using the skeletal information corrected through the correction unit. Additionally, the ID assigned to the restored object may be maintained.

본 발명의 일 실시에에 따른 영상 획득부(1100)에서는 RGB-D 카메라 등과 같은 촬영 장치를 이용하여 객체에 대한 영상을 획득할 수 있다. 획득된 영상은 실(real)영상으로 지칭될 수 있다. The image acquisition unit 1100 according to an embodiment of the present invention can acquire an image of an object using a photographing device such as an RGB-D camera. The acquired image may be referred to as a real image.

본 발명의 일 실시예에 따른 영상에는 적어도 하나의 객체가 포함될 수 있고, 객체 식별부(1200)에서는 객체의 심도(depth) 정보에 기초하여 영상으로부터 객체를 식별할 수 있다. 다시 말해서, 실영상에 대한 심도 정보는 영상 획득부(1100)에서 이미 획득되어 있을 수 있고, 객체 식별부(1200)에서는 획득된 심도 정보에 기초하여 객체와 배경 또는 객체와 타 객체를 식별할 수 있다. 예를 들어, 객체 식별부(1200)에서는 배경 또는 사물과 사람을 나타내는 객체를 각각 식별하여 사람을 나타내는 객체만을 인식할 수 있다. An image according to an embodiment of the present invention may include at least one object, and the object identification unit 1200 may identify the object from the image based on depth information of the object. In other words, the depth information for the real image may have already been acquired by the image acquisition unit 1100, and the object identification unit 1200 may identify the object and the background or the object and other objects based on the acquired depth information. there is. For example, the object identification unit 1200 can identify objects representing backgrounds or objects and people, respectively, and recognize only objects representing people.

본 발명의 일 실시예에 따른 아이디 할당부(1300)는 객체구조 식별부(1310), 객체 계수부(1320) 및 아이디 분배부(1330)를 포함할 수 있다. 객체구조 식별부(1310)에서는 식별된 객체 각각에 대하여 객체의 구조를 나타내기 위한 기본값을 생성할 수 있고, 생성된 기본값에 기초하여 객체의 구조를 식별할 수 있다. 예를 들어, 사람을 나타내는 객체에서 하복부 부근 또는 경추의 일 골격 지점을 기준으로 나타낸 객체의 전체 골격에 대한 정보에 기초하여 객체 구조를 식별할 수 있다. 객체 구조는 객체의 심도 정보 등을 이용하여 객체의 골격(skeleton)을 추출함으로써 파악될 수 있다. The ID allocation unit 1300 according to an embodiment of the present invention may include an object structure identification unit 1310, an object counting unit 1320, and an ID distribution unit 1330. The object structure identification unit 1310 can generate a default value to indicate the structure of the object for each identified object, and identify the structure of the object based on the generated default value. For example, in an object representing a person, the object structure may be identified based on information about the entire skeleton of the object represented around a skeletal point near the lower abdomen or cervical spine. The object structure can be identified by extracting the object's skeleton using the object's depth information.

객체 계수부(1320)에서는 영상에서 객체구조가 식별된 객체의 개수를 계수할 수 있다. 계수된 객체에 따라 중첩 여부의 판단 및 중첩도 등이 추정될 수 있다. 아이디 분배부(1330)에서는 식별된 객체 각각에 대하여 부여될 아이디를 생성하고, 생성된 아이디를 각각의 객체에 부여함으로써 부여된 아이디로 하여금 객체의 움직임 추적, 중첩여부 판단 등에 사용되게 할 수 있다. 객체에 부여된 아이디는 해당 영상에서 객체마다 고유값을 갖도록 설정될 수 있다. 따라서, 영상에 복수개의 객체들이 포함되어 있더라도, 객체마다 부여된 아이디를 통하여 각각 식별될 수 있다. The object counting unit 1320 can count the number of objects with identified object structures in the image. Depending on the counted objects, whether or not they overlap can be determined and the degree of overlap can be estimated. The ID distribution unit 1330 generates an ID to be assigned to each identified object, and assigns the generated ID to each object, so that the assigned ID can be used to track the movement of the object, determine whether or not it overlaps, etc. The ID given to an object can be set to have a unique value for each object in the video. Therefore, even if the image includes a plurality of objects, each object can be identified through an ID assigned to each object.

도 3은 본 발명의 일 실시예에 따른 중첩도 추정부를 나타낸다.Figure 3 shows an overlap estimation unit according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 중첩도 추정부(1600)는 골격정보 수집부(1610), 중첩여부 판단기준 생성부(1620), 중첩골격 계수부(1630) 및 중첩비율 추정부(1640)를 포함할 수 있다. The overlap degree estimation unit 1600 according to an embodiment of the present invention includes a skeleton information collection unit 1610, an overlap judgment criteria generation unit 1620, an overlap skeleton counting unit 1630, and an overlap ratio estimation unit 1640. It can be included.

본 발명의 일 실시예에 따른 객체는 사람이고, 골격 정보는 객체의 골격의 시작점과 끝점의 좌표를 쌍으로 하여 25개의 좌표쌍으로 추출될 수 있다. 예를 들어, 객체의 골격 정보는 전술한 하복부 부근 또는 경추의 일 골격 지점을 기준으로 뻗어나간 골격의 좌표 정보 쌍으로써 표현될 수 있다. 영상 또는 공간 증강 현실에서 객체의 움직임에 의하여 복수개의 객체들은 상호 중첩될 수 있다. 본 발명의 일 실시예에 따르면 중첩 여부를 판단하기 위한 일 기준으로써 중첩여부 판단기준 생성부(1620)에서는 객체의 수집된 전체 골격 개수에서 타 객체 등과 중첩됨으로써 계수에서 제외된 나머지 골격 개수를 전술한 기준으로 설정(생성)할 수 있다. 다시 말해서, 객체의 중첩 여부는 중첩에 따른 골격 정보의 손실에 기초하여 판단될 수 있다. 예를 들면, 전체 골격 개수 중 중첩이 되지 않은 잔여 골격의 개수가 24개 이하라면 객체는 중첩된 것으로 판단될 수 있다. 다시 말해서, 중첩되지 않은 골격의 개수가 24개 이상인지 이하인지 여부에 따라 객체의 전부 또는 일부 중첩 여부가 결정될 수 있다. The object according to an embodiment of the present invention is a person, and skeletal information can be extracted as 25 coordinate pairs by pairing the coordinates of the start and end points of the object's skeleton. For example, the skeletal information of an object may be expressed as a pair of coordinate information of a skeleton extending from a skeletal point in the vicinity of the lower abdomen or the cervical spine as described above. In video or spatial augmented reality, a plurality of objects may overlap each other due to the movement of the objects. According to an embodiment of the present invention, as a criterion for determining overlap, the overlap determination criterion generator 1620 calculates the number of remaining bones excluded from the count due to overlapping with other objects from the total number of collected bones of the object as described above. It can be set (created) as a standard. In other words, whether objects overlap can be determined based on the loss of skeletal information due to overlap. For example, if the number of remaining non-overlapping bones out of the total number of bones is 24 or less, the object may be determined to be overlapped. In other words, whether all or part of the object overlaps can be determined depending on whether the number of non-overlapping skeletons is 24 or more or less.

중첩골격 계수부(1630)는 중첩된 골격의 개수를 파악하기 위하여 전체 골격 개수와 현재 식별된 골격의 개수(예컨대, 중첩이 되지 않은 잔여 골격 개수)의 차를 이용하여 중첩된 골격의 개수를 파악할 수 있다. In order to determine the number of overlapping skeletons, the overlapping skeleton counter 1630 uses the difference between the total number of skeletons and the number of currently identified skeletons (e.g., the number of remaining non-overlapping skeletons) to determine the number of overlapping skeletons. You can.

중첩비율 추정부(1640)에서는 전체 골격 개수에 대한 중첩된 골격의 개수의 비율을 추정할 수 있다. 추정된 비율은 중첩에 따른 위치 값 보정 등을 위하여 사용될 수 있다. The overlap ratio estimation unit 1640 can estimate the ratio of the number of overlapping skeletons to the total number of skeletons. The estimated ratio can be used to correct position values due to overlap.

본 발명의 일 실시예에 따른 중첩도는 객체가 타 객체와 중첩되기 이전의 골격 정보와 중첩된 이후의 골격 정보간이 차이값에 기초하여 추정될 수 있다. 또한, 본 발명의 일 실시예에 따른 중첩도는 객체의 전체의 골격 정보 대비 중첩 시 추출된 골격 정보 비율에 기초하여 추정될 수 있다. The degree of overlap according to an embodiment of the present invention may be estimated based on the difference between the skeleton information before an object overlaps with another object and the skeleton information after the object overlaps. Additionally, the degree of overlap according to an embodiment of the present invention may be estimated based on the ratio of the skeleton information extracted during overlap to the entire skeleton information of the object.

또한, 본 발명의 일 실시예에 따르면, 보정부(1700)에서는 추정된 중첩도에 기초하여 보정의 대상이 될 객체의 골격 정보를 결정하고 결정된 골격 정보의 오차를 보정하며, 골격 정보의 오차는 중첩으로 인한 객체의 위치 값 오차일 수 있다. 골격 정보는 중첩되는 골격 부위, 개수, 위치 값 등일 수 있다. In addition, according to an embodiment of the present invention, the correction unit 1700 determines the skeletal information of the object to be corrected based on the estimated degree of overlap and corrects the error in the determined skeletal information, and the error in the skeletal information is This may be an error in the position value of the object due to overlap. Skeleton information may be overlapping bone parts, number, position values, etc.

본 발명의 일 실시예에 따르면 중첩에 따라 손실되는 골격의 위치를 파악해두고, 이미 획득되어 있는 객체의 골격 정보(예컨대, 골격 기본 정보)를 이용하여 전술한 손실된 골격의 위치가 추정될 수 있다. 객체의 골격 정보는 골격정보 수집부(1610)에 의하여 수집되어 있으므로, 객체의 이동 등에 따라 타 객체와 중첩되더라도 객체의 골격 정보가 임의로 변경되는 것을 방지할 수 있다. 다시 말해서, 복수개의 객체들이 상호 중첩되어 심도 정보를 이용하더라도 객체의 골격 정보를 정확하게 추출해내기 어려운 경우라도 객체에 대하여 이미 획득된 골격 기본 정보를 이용하여 위치 값 등을 추정할 수 있다. According to an embodiment of the present invention, the location of the skeleton lost due to overlap is determined, and the location of the lost skeleton described above can be estimated using already obtained skeleton information (e.g., basic skeleton information) of the object. . Since the skeletal information of the object is collected by the skeletal information collection unit 1610, the skeletal information of the object can be prevented from being arbitrarily changed even if it overlaps with other objects due to movement of the object. In other words, even if a plurality of objects overlap each other and it is difficult to accurately extract the skeletal information of the object even using depth information, the position value, etc. can be estimated using the basic skeletal information already obtained for the object.

도 4는 본 발명의 일 실시예에 따른 객체 복원부를 나타낸다.Figure 4 shows an object restoration unit according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 객체 복원부(1800)에는 보정값 수신부(1810), 보정대상 결정부(1820) 및 연산부(1830)를 포함할 수 있다. 보정값 수신부(1810)는 중첩도에 기초하여 보정부(1700)에 의하여 생성된 위치 값 등의 보정을 위한 데이터를 수집(수신)할 수 있다. 또한, 보정값 수신부(1810)에서는 객체구조 식별부(1310), 골격정보 수집부(1610) 등으로부터 객체구조 파악을 위한 기준 정보, 골격 정보 등을 수신할 수도 있다. The object restoration unit 1800 according to an embodiment of the present invention may include a correction value reception unit 1810, a correction target determination unit 1820, and a calculation unit 1830. The correction value receiver 1810 may collect (receive) data for correction of the position value generated by the correction unit 1700 based on the degree of overlap. Additionally, the correction value receiving unit 1810 may receive reference information for identifying the object structure, skeletal information, etc. from the object structure identification unit 1310, the skeletal information collection unit 1610, etc.

보정대상 결정부(1820)에서는 중첩되는 골격 부위, 개수, 위치 값에 기초하여 보정의 대상이 될 영역(예컨대, 중첩 골격 위치)을 결정할 수 있다. 연산부(1830)에서는 보정값 수신부(1810)를 통하여 수신된 보정값을 이용하여 중첩 골격 위치 값을 보정하고, 보정된 위치 값에 기초하여 객체를 복원하기 위한 연산을 수행할 수 있다. 다시 말해서, 보정된 위치 값을 이용하여 객체에 대한 복원을 수행할 수 있고, 본 발명의 일 실시예에 따르면 공간 증강 현실에서 종래 대비 객체의 왜곡(예컨대, 일그러짐 등)을 최소화할 수 있다. The correction target determination unit 1820 may determine an area to be corrected (eg, overlapping skeleton position) based on the overlapping skeleton portion, number, and position value. The calculation unit 1830 may correct the position value of the overlapping skeleton using the correction value received through the correction value receiver 1810 and perform an operation to restore the object based on the corrected position value. In other words, restoration of the object can be performed using the corrected position value, and according to an embodiment of the present invention, distortion (eg, distortion, etc.) of the object can be minimized in spatial augmented reality compared to the prior art.

도 5는 제 1 객체와 제 2 객체가 중첩되지 않은 경우를 나타내고, 도 6은 제 1 객체와 제 2 객체의 팔과 허리 부분이 중첩(예컨대, 녹색 점선 부분)된 경우를 나타낸다. 또한, 도 7은 제 1 객체와 제 2 객체의 팔과 다리 부분이 중첩(예컨대, 녹색 점선 부분)된 경우를 나타내며, 도 8은 제 1 객체와 제 2 객체가 90 퍼센트(%)이상 중첩(예컨대, 녹색 점선 부분)된 경우를 나타낸다. 도 9는 제 2 객체의 일부가 제 1 객체와 중첩(예컨대, 녹색 점선 부분)되는 경우를 나타낸다. FIG. 5 shows a case where the first object and the second object do not overlap, and FIG. 6 shows a case where the arms and waist portions of the first object and the second object overlap (eg, green dotted line portion). In addition, Figure 7 shows a case where the arms and legs of the first object and the second object overlap (e.g., green dotted line portion), and Figure 8 shows a case where the first object and the second object overlap more than 90 percent (%). For example, the green dotted line indicates the case). Figure 9 shows a case where a portion of the second object overlaps the first object (eg, green dotted line portion).

도 5에서와 같이 객체들이 상호 중첩되지 않는 경우에는 공간 증강 현실에서 객체에 대한 영상 처리 과정에서 오류가 거의 발생되지 않는다. 이에 비하여 도 6 내지 도 9와 같이 객체가 중첩(예컨대, 녹색 점선 부분)되는 경우에는 객체에 대한 영상 처리 시 객체 식별, 변환 매핑 등에서 오차가 발생될 수 있다. 본 발명의 일 실시예에 따르면, 객체가 중첩되는 정도, 중첩되는 부위(예컨대, 위치 값) 등을 파악하고, 이러한 중첩에 의하여 발생될 수 있는 위치 값 등의 오차를 보정하여 객체를 복원해냄으로써 종래 대비 자연스럽고 정확하게 객체를 표현해낼 수 있다. As shown in FIG. 5, when objects do not overlap each other, errors rarely occur during image processing for objects in spatial augmented reality. In contrast, when objects overlap (e.g., green dotted line portion) as shown in FIGS. 6 to 9, errors may occur in object identification, transformation mapping, etc. when processing images of the objects. According to an embodiment of the present invention, the degree to which objects overlap, the overlapping parts (e.g., position values), etc. are identified, and errors in position values that may occur due to such overlap are corrected to restore the object. Objects can be expressed more naturally and accurately than before.

도 10은 본 발명의 일 실시예에 따른 공간 증강 현실에서의 객체 중첩에 따른 오류를 보정하기 위한 방법을 나타낸 순서도이다.Figure 10 is a flowchart showing a method for correcting errors due to object overlap in spatial augmented reality according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 공간 증강 현실에서의 객체 중첩에 따른 오류를 보정하기 위한 방법은, 객체가 포함된 영상을 획득하는 단계(S100), 획득된 영상에서 객체를 식별하는 단계(S200), 식별된 객체에 대하여 생성된 아이디를 할당하는 단계(S300), 식별된 객체에 대한 골격 정보를 추출하는 단계(S400), 추출된 골격 정보에 기초하여 객체에 대한 움직임을 실시간으로 추적하는 단계(S500), 획득된 영상에 포함된 복수개의 객체들 간의 중첩도를 추정하는 단계(S600), 추정된 중첩도에 기초하여 객체의 중첩 부위에 대한 골격 정보의 오차를 보정하는 단계(S700) 및 보정된 골격 정보를 이용하여 객체를 복원하는 단계(S800)를 포함하고, 복원된 객체에 대하여는 할당된 아이디가 유지될 수 있다.A method for correcting errors due to object overlap in spatial augmented reality according to an embodiment of the present invention includes the steps of acquiring an image containing an object (S100) and identifying the object in the acquired image (S200). , assigning the generated ID to the identified object (S300), extracting skeletal information about the identified object (S400), tracking the movement of the object in real time based on the extracted skeletal information ( S500), estimating the degree of overlap between a plurality of objects included in the acquired image (S600), correcting errors in skeletal information about overlapping parts of objects based on the estimated degree of overlap (S700), and correction It includes a step (S800) of restoring the object using the skeleton information, and the ID assigned to the restored object may be maintained.

본 발명의 일 실시예에 따른 방법과 관련하여서는 전술한 장치에 대한 내용이 적용될 수 있다. 따라서, 방법과 관련하여, 전술한 장치에 대한 내용과 동일한 내용에 대하여는 설명을 생략하였다.Regarding the method according to an embodiment of the present invention, the information regarding the above-described device may be applied. Therefore, in relation to the method, description of content that is the same as that of the device described above has been omitted.

본 발명의 일 실시예는 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다.
한편, 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다.
여기서, 컴퓨터 판독 가능 매체는 컴퓨터 기록 매체 및 통신 매체를 포함할 수 있다.
상기 기록 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.
상기 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다.
One embodiment of the present invention may also be implemented in the form of a recording medium containing instructions executable by a computer, such as program modules executed by a computer.
Meanwhile, computer-readable media may be any available media that can be accessed by a computer, and includes both volatile and non-volatile media, removable and non-removable media.
Here, computer-readable media may include computer recording media and communication media.
The recording media includes both volatile and non-volatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
The communication media typically includes computer-readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery medium.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present invention described above is for illustrative purposes, and those skilled in the art will understand that the present invention can be easily modified into other specific forms without changing the technical idea or essential features of the present invention. will be. Therefore, the embodiments described above should be understood in all respects as illustrative and not restrictive. For example, each component described as unitary may be implemented in a distributed manner, and similarly, components described as distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the claims described below rather than the detailed description above, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

10: 제 1 객체 20: 제 2 객체
1000: 공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치
1100: 영상 획득부 1200: 객체 식별부
1300: 아이디 할당부
1310: 객체구조 식별부 1320: 객체 계수부
1330: 아이디 분배부
1400: 골격정보 추출부 1500: 객체 추적부
1600: 중첩도 추정부
1610: 골격정보 수집부 1620: 중첩여부 판단기준 생성부
1630: 중첩골격 계수부 1640: 중첩비율 추정부
1700: 보정부
1800: 객체 복원부
1810: 보정값 수신부 1820: 보정대상 결정부
1830: 연산부
10: first object 20: second object
1000: Error correction device for object overlap in spatial augmented reality
1100: Image acquisition unit 1200: Object identification unit
1300: ID allocation unit
1310: Object structure identification unit 1320: Object counting unit
1330: ID distribution unit
1400: Skeleton information extraction unit 1500: Object tracking unit
1600: Overlap degree estimation unit
1610: Skeleton information collection unit 1620: Overlapping judgment criteria generation unit
1630: Overlapping skeleton counting unit 1640: Overlapping ratio estimation unit
1700: Compensation unit
1800: Object restoration unit
1810: Correction value receiving unit 1820: Correction target determination unit
1830: Arithmetic unit

Claims (8)

공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치에 있어서,
객체가 포함된 영상을 획득하기 위한 영상 획득부;
상기 획득된 영상에서 상기 객체를 식별하기 위한 객체 식별부;
상기 식별된 객체에 대하여 생성된 아이디를 할당하는 아이디 할당부;
상기 식별된 객체에 대한 골격 정보를 추출하기 위한 골격정보 추출부;
상기 추출된 골격 정보에 기초하여 상기 객체에 대한 움직임을 실시간으로 추적하기 위한 객체 추적부;
상기 획득된 영상에 포함된 복수개의 객체들 간의 중첩도를 추정하기 위한 중첩도 추정부;
상기 추정된 중첩도에 기초하여 상기 객체의 중첩 부위에 대한 골격 정보의 오차를 보정하기 위한 보정부; 및
상기 보정부를 통하여 보정된 골격 정보를 이용하여 상기 객체를 복원하기 위한 객체 복원부를 포함하고,
상기 복원된 객체에 대하여는 상기 할당된 아이디가 유지되는 것을 특징으로 하는 공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치.
In an error correction device due to object overlap in spatial augmented reality,
An image acquisition unit for acquiring an image containing an object;
an object identification unit for identifying the object in the acquired image;
an ID allocation unit that allocates a generated ID to the identified object;
a skeletal information extraction unit for extracting skeletal information about the identified object;
an object tracking unit for tracking the movement of the object in real time based on the extracted skeleton information;
an overlap estimation unit for estimating a degree of overlap between a plurality of objects included in the acquired image;
a correction unit for correcting an error in skeletal information about an overlapping portion of the object based on the estimated degree of overlap; and
An object restoration unit for restoring the object using skeleton information corrected through the correction unit,
An error correction device due to object overlap in spatial augmented reality, wherein the assigned ID is maintained for the restored object.
제 1 항에 있어서,
상기 영상에는 적어도 하나의 객체가 포함될 수 있고,
상기 객체 식별부에서는 상기 객체의 심도(depth) 정보에 기초하여 상기 영상으로부터 객체를 식별하는 것을 특징으로 하는 공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치.
According to claim 1,
The image may include at least one object,
An error correction device according to object overlap in spatial augmented reality, wherein the object identification unit identifies an object from the image based on depth information of the object.
제 1 항에 있어서,
상기 객체는 사람이고,
상기 골격 정보는 상기 객체의 골격의 시작점과 끝점의 좌표를 쌍으로 하여 추출되는 것을 특징으로 하는 공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치.
According to claim 1,
The object is a person,
An error correction device according to object overlap in spatial augmented reality, characterized in that the skeleton information is extracted by pairing the coordinates of the starting point and the end point of the skeleton of the object.
제 1 항에 있어서,
상기 중첩도는 상기 객체가 타 객체와 중첩되기 이전의 골격 정보와 중첩된 이후의 골격 정보간이 차이값에 기초하여 추정되는 것을 특징으로 하는 공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치.
According to claim 1,
The degree of overlap is estimated based on a difference value between skeletal information before the object overlaps with another object and skeletal information after the object is overlapped. Error correction device according to object overlap in spatial augmented reality.
제 4 항에 있어서,
상기 중첩도는 상기 객체의 전체의 골격 정보 대비 중첩 시 추출된 골격 정보 비율에 기초하여 추정되는 것을 특징으로 하는 공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치.
According to claim 4,
The degree of overlap is estimated based on the ratio of the skeleton information extracted during overlap to the entire skeleton information of the object. Error correction device according to object overlap in spatial augmented reality.
제 4 항에 있어서,
상기 보정부에서는 상기 추정된 중첩도에 기초하여 보정의 대상이 될 상기 객체의 골격 정보를 결정하고 상기 결정된 골격 정보의 오차를 보정하며, 상기 골격 정보의 오차는 상기 중첩으로 인한 상기 객체의 위치 값 오차인 공간 증강 현실에서의 객체 중첩에 따른 오류 보정 장치.
According to claim 4,
The correction unit determines the skeletal information of the object to be corrected based on the estimated degree of overlap and corrects an error in the determined skeletal information, and the error in the skeletal information is the position value of the object due to the overlap. An error correction device based on object overlap in error-in space augmented reality.
공간 증강 현실에서의 객체 중첩에 따른 오류를 보정하기 위한 방법에 있어서,
객체가 포함된 영상을 획득하는 단계;
상기 획득된 영상에서 상기 객체를 식별하는 단계;
상기 식별된 객체에 대하여 생성된 아이디를 할당하는 단계;
상기 식별된 객체에 대한 골격 정보를 추출하는 단계;
상기 추출된 골격 정보에 기초하여 상기 객체에 대한 움직임을 실시간으로 추적하는 단계;
상기 획득된 영상에 포함된 복수개의 객체들 간의 중첩도를 추정하는 단계;
상기 추정된 중첩도에 기초하여 상기 객체의 중첩 부위에 대한 골격 정보의 오차를 보정하는 단계; 및
상기 보정된 골격 정보를 이용하여 상기 객체를 복원하는 단계를 포함하고,
상기 복원된 객체에 대하여는 상기 할당된 아이디가 유지되는 것을 특징으로 하는 공간 증강 현실에서의 객체 중첩에 따른 오류를 보정하는 방법.
In a method for correcting errors due to object overlap in spatial augmented reality,
Obtaining an image containing an object;
Identifying the object in the acquired image;
Assigning a generated ID to the identified object;
extracting skeletal information about the identified object;
Tracking the movement of the object in real time based on the extracted skeleton information;
estimating a degree of overlap between a plurality of objects included in the acquired image;
Correcting an error in skeletal information about an overlapping portion of the object based on the estimated degree of overlap; and
Comprising: restoring the object using the corrected skeleton information,
A method for correcting errors due to object overlap in spatial augmented reality, wherein the assigned ID is maintained for the restored object.
제 7 항의 방법을 구현하기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.



A computer-readable recording medium on which a program for implementing the method of claim 7 is recorded.



KR1020160020013A 2016-02-19 2016-02-19 The apparatus and method for correcting error be caused by overlap of object in spatial augmented reality KR102582349B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160020013A KR102582349B1 (en) 2016-02-19 2016-02-19 The apparatus and method for correcting error be caused by overlap of object in spatial augmented reality

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160020013A KR102582349B1 (en) 2016-02-19 2016-02-19 The apparatus and method for correcting error be caused by overlap of object in spatial augmented reality

Publications (2)

Publication Number Publication Date
KR20170098388A KR20170098388A (en) 2017-08-30
KR102582349B1 true KR102582349B1 (en) 2023-09-26

Family

ID=59760843

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160020013A KR102582349B1 (en) 2016-02-19 2016-02-19 The apparatus and method for correcting error be caused by overlap of object in spatial augmented reality

Country Status (1)

Country Link
KR (1) KR102582349B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109949341B (en) * 2019-03-08 2020-12-22 广东省智能制造研究所 Pedestrian target tracking method based on human skeleton structural features
KR102462934B1 (en) * 2020-02-25 2022-11-03 제주한라대학교산학협력단 Video analysis system for digital twin technology

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007164641A (en) 2005-12-15 2007-06-28 Nippon Hoso Kyokai <Nhk> Personal object determination device and personal object determination program
KR101355974B1 (en) 2010-08-24 2014-01-29 한국전자통신연구원 Method and devices for tracking multiple object
KR101448391B1 (en) 2013-06-21 2014-10-13 호서대학교 산학협력단 People counting system
KR101446422B1 (en) 2013-04-05 2014-10-30 고려대학교 산학협력단 Video security system and method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140134505A (en) * 2013-05-14 2014-11-24 경성대학교 산학협력단 Method for tracking image object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007164641A (en) 2005-12-15 2007-06-28 Nippon Hoso Kyokai <Nhk> Personal object determination device and personal object determination program
KR101355974B1 (en) 2010-08-24 2014-01-29 한국전자통신연구원 Method and devices for tracking multiple object
KR101446422B1 (en) 2013-04-05 2014-10-30 고려대학교 산학협력단 Video security system and method
KR101448391B1 (en) 2013-06-21 2014-10-13 호서대학교 산학협력단 People counting system

Also Published As

Publication number Publication date
KR20170098388A (en) 2017-08-30

Similar Documents

Publication Publication Date Title
CN108028871B (en) Label-free multi-user multi-object augmented reality on mobile devices
CN110914873B (en) Augmented reality method, device, mixed reality glasses and storage medium
JP6503906B2 (en) Image processing apparatus, image processing method and image processing program
CN107633526A (en) A kind of image trace point acquisition methods and equipment, storage medium
KR102169309B1 (en) Information processing apparatus and method of controlling the same
US9183634B2 (en) Image processing apparatus and image processing method
CN110866977A (en) Augmented reality processing method, device and system, storage medium and electronic equipment
JP2017011328A (en) Apparatus, method and program for image processing
CN112434715B (en) Target identification method and device based on artificial intelligence and storage medium
JP6196562B2 (en) Subject information superimposing apparatus, subject information superimposing method, and program
KR102582349B1 (en) The apparatus and method for correcting error be caused by overlap of object in spatial augmented reality
CN109981989B (en) Method and device for rendering image, electronic equipment and computer readable storage medium
JP6950644B2 (en) Attention target estimation device and attention target estimation method
CN109255295B (en) Vision-based dance score generation method, device, equipment and storage medium
KR101586071B1 (en) Apparatus for providing marker-less augmented reality service and photographing postion estimating method therefor
CN112073640B (en) Panoramic information acquisition pose acquisition method, device and system
US11423561B2 (en) Learning apparatus, estimation apparatus, learning method, estimation method, and computer programs
US10068339B2 (en) Image processing device, image processing system, image processing method and image processing program
CN111192308A (en) Image processing method and device, electronic equipment and computer storage medium
CN115862124A (en) Sight estimation method and device, readable storage medium and electronic equipment
JP2005141655A (en) Three-dimensional modeling apparatus and three-dimensional modeling method
CN110880187B (en) Camera position information determining method and device, electronic equipment and storage medium
KR20220083552A (en) Method for estimating and correcting 6 DoF of multiple objects of wearable AR device and AR service method using the same
CN111368675A (en) Method, device and equipment for processing gesture depth information and storage medium
CN114820799B (en) Automatic data labeling method, device and system for pedestrian position estimation

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant