KR102439922B1 - Simultaneous real-time acquisition system of RGB image/joint position label data pairs using heterogeneous cameras - Google Patents

Simultaneous real-time acquisition system of RGB image/joint position label data pairs using heterogeneous cameras Download PDF

Info

Publication number
KR102439922B1
KR102439922B1 KR1020200153981A KR20200153981A KR102439922B1 KR 102439922 B1 KR102439922 B1 KR 102439922B1 KR 1020200153981 A KR1020200153981 A KR 1020200153981A KR 20200153981 A KR20200153981 A KR 20200153981A KR 102439922 B1 KR102439922 B1 KR 102439922B1
Authority
KR
South Korea
Prior art keywords
rgb
camera
marker
joint
image
Prior art date
Application number
KR1020200153981A
Other languages
Korean (ko)
Other versions
KR20220067362A (en
Inventor
이석호
양영준
Original Assignee
동서대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동서대학교 산학협력단 filed Critical 동서대학교 산학협력단
Priority to KR1020200153981A priority Critical patent/KR102439922B1/en
Publication of KR20220067362A publication Critical patent/KR20220067362A/en
Application granted granted Critical
Publication of KR102439922B1 publication Critical patent/KR102439922B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • H04N5/2258
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Abstract

본발명은 이종 카메라를 이용한 RGB영상/관절위치라벨 데이터쌍의 동시적 실시간 취득 시스템에 관한 것으로,
IR마커와; 이종카메라인 IR카메라, RGB카메라;를 이용하여 RGB동영상을 취득할 때 관절의 위치도 동시에 실시간으로 취득이 되는 것으로,
본발명은 이종 카메라 한 개만으로도 RGB영상 기반의 2차원 관절부위 추출의 인공신경망용 학습데이터의 추출이 되는 현저한 효과가 있다.
The present invention relates to a system for simultaneous real-time acquisition of RGB image/joint position label data pairs using heterogeneous cameras,
IR marker; When acquiring RGB video using heterogeneous IR camera and RGB camera; joint position is also acquired in real time at the same time.
The present invention has a remarkable effect of extracting learning data for artificial neural networks of two-dimensional joint extraction based on RGB images with only one heterogeneous camera.

Description

이종 카메라를 이용한 RGB영상/관절위치라벨 데이터쌍의 동시적 실시간 취득 시스템{Simultaneous real-time acquisition system of RGB image/joint position label data pairs using heterogeneous cameras}Simultaneous real-time acquisition system of RGB image/joint position label data pairs using heterogeneous cameras

본발명은 이종 카메라를 이용한 RGB영상/관절위치라벨 데이터쌍의 동시적 실시간 취득 시스템에 관한 것으로, 보다 상세하게는 이종 카메라 한 개만으로도 RGB영상 기반의 2차원 관절부위 추출의 인공신경망용 학습데이터의 추출이 되는 이종 카메라를 이용한 RGB영상/관절위치라벨 데이터쌍의 동시적 실시간 취득 시스템에 관한 것이다.The present invention relates to a system for simultaneous real-time acquisition of RGB image/joint position label data pairs using heterogeneous cameras, and more specifically, with only one heterogeneous camera It relates to a system for simultaneous real-time acquisition of RGB image/joint position label data pairs using heterogeneous cameras that can be extracted.

일반적으로 고가의 모션캡쳐(motion capture)장비와 IR카메라를 이용한 모션캡쳐가 아닌 일반적인 RGB카메라를 사용하여 사람의 모션과 자세를 캡쳐하려고 하는 연구가 최근에 활발히 진행되고 있다. 특히, 딥러닝 기술을 이용하여 일반 RGB영상을 인공신경망에 입력으로 넣으면 사람의 관절의 부위가 표시된 영상이 출력으로 나오는 모델들이 많이 제안되고 있다. 그러나 이러한 인공신경망을 학습하려고 할 때 학습데이터로 사용하려고 하는 일반적인 RGB영상에는 사람의 관절부위가 표시되어 있지 않기 때문에 수동으로 관절부위를 표시하는 수작업이 필요하다.In general, research to capture the motion and posture of a person using a general RGB camera rather than motion capture using an expensive motion capture device and IR camera is being actively conducted in recent years. In particular, many models have been proposed in which when a general RGB image is input to an artificial neural network using deep learning technology, an image showing human joint parts is output as output. However, when trying to learn such an artificial neural network, since human joints are not displayed in general RGB images that are intended to be used as training data, manual work is required to manually mark joint parts.

그리고 종래특허기술로서, 공개특허공보 공개번호 10-2016-0040230호에는 방법으로서, 사람의 핸드의 RGB 이미지를 캡처하는 단계,And as a prior patent technology, there is disclosed a method in Korean Patent Application Laid-Open No. 10-2016-0040230, comprising: capturing an RGB image of a person's hand;

상기 핸드의 NIR(near infrared) 이미지를 캡처하는 단계, 및 캡처된 RGB 및 NIR 이미지들에 기초하여 상기 핸드의 기하학적 특징들을 결정하는 단계를 포함하는, 방법이 공개되어 있고, 그 요약서에는 사람의 핸드의 RGB 이미지를 캡처하는 단계, 핸드의 NIR(near infrared) 이미지를 캡처하는 단계, 및 캡처된 RGB 및 NIR 이미지들에 기초하여 핸드의 기하학적 특징들을 결정하는 단계를 포함하는 방법을 비롯하여, 시스템들, 장치, 디바이스들, 방법들, 컴퓨터 프로그램 매체들 및 물건들 및 다른 구현들이 개시된다. 일부 실시예들에서, 기하학적 특징들을 결정하는 것은, 예를 들면, 핸드에 대한 추출된 이미지 데이터에서 제 1 쌍의 2 개의 핑거들 사이의 각도 및/또는 핸드에 대한 추출된 이미지 데이터에서 제 2 쌍의 핑거들에 대한 상대적인 거리 또는 길이중 하나 이상과 같이, 핸드에 대한 상대적인 공간적 특징들을 나타내는 하나 이상의 값들을 핸드에 대한 추출된 이미지 데이터로부터 결정하는 것을 포함할 수 있다. 일부 실시예들에서, 상기 방법은 핸드의 결정된 기하학적특징들에 기초하여 사람의 아이덴티티를 결정하는 것을 더 포함할 수 있다는 기재가 있다.A method is disclosed, comprising capturing a near infrared (NIR) image of the hand, and determining geometric characteristics of the hand based on the captured RGB and NIR images, the summary of which includes a human hand systems, including a method comprising capturing an RGB image of a hand, capturing a near infrared (NIR) image of a hand, and determining geometric characteristics of the hand based on the captured RGB and NIR images; Apparatus, devices, methods, computer program media and articles, and other implementations are disclosed. In some embodiments, determining the geometric features may include, for example, an angle between two fingers of a first pair in the extracted image data for the hand and/or a second pair in the extracted image data for the hand determining from the extracted image data for the hand one or more values indicative of spatial characteristics relative to the hand, such as one or more of a length or distance relative to the fingers of In some embodiments, it is stated that the method may further comprise determining the identity of the person based on the determined geometric characteristics of the hand.

또한 등록특허공보 등록번호 10-1031848호에는 광원의 특성을 이용한 RGB 보정 기능을 구비하는 디지털 카메라 시스템이 공개되어 있다.In addition, Korean Patent Publication No. 10-1031848 discloses a digital camera system having an RGB correction function using the characteristics of a light source.

그러나 상기 종래기술들은 이러한 인공신경망을 학습하려고 할 때 학습데이터로 사용하려고 하는 일반적인 RGB영상에는 사람의 관절부위가 표시되어 있지 않기 때문에 수동으로 관절부위를 표시하는 수작업이 필요한 단점이 여전히 있었다.However, the conventional techniques still have the disadvantage that, when trying to learn such an artificial neural network, a manual operation of manually displaying the joint parts is required because the human joint parts are not displayed in a general RGB image that is intended to be used as learning data.

따라서 본발명은 상기와 같은 문제점을 해결하고자 안출된 것으로, 본발명은 이종 카메라 한 개만으로도 RGB영상 기반의 2차원 관절부위 추출의 인공신경망용 학습데이터의 추출이 되는 이종 카메라를 이용한 RGB영상/관절위치라벨 데이터쌍의 동시적 실시간 취득 시스템을 제공하고자 하는 것이다.Therefore, the present invention has been devised to solve the above problems, and the present invention is an RGB image/joint using a heterogeneous camera that extracts learning data for artificial neural networks based on RGB image-based two-dimensional joint region extraction with only one heterogeneous camera. It is intended to provide a system for simultaneous real-time acquisition of location label data pairs.

본발명은 이종 카메라를 이용한 RGB영상/관절위치라벨 데이터쌍의 동시적 실시간 취득 시스템에 관한 것으로, IR마커와; 이종카메라인 IR카메라, RGB카메라;를 이용하여 RGB동영상을 취득할 때 관절의 위치도 동시에 실시간으로 취득이 되는 것을 특징으로 한다.The present invention relates to a system for simultaneous real-time acquisition of an RGB image/joint position label data pair using a heterogeneous camera, comprising: an IR marker; It is characterized in that the joint position is simultaneously acquired in real time when the RGB video is acquired using heterogeneous IR camera and RGB camera.

따라서 본발명은 이종 카메라 한 개만으로도 RGB영상 기반의 2차원 관절부위 추출의 인공신경망용 학습데이터의 추출이 되는 현저한 효과가 있다.Therefore, the present invention has a remarkable effect of extracting learning data for artificial neural networks based on RGB image-based two-dimensional joint region extraction with only one heterogeneous camera.

도 1은 본발명의 이종카메라를 이용한 IR, RGB영상 스튜디오 구성도
도 2는 본발명의 인공신경망 학습용 RGB영상/관절의위치라벨의 동시적 취득 방법 구성도
1 is an IR, RGB image studio configuration diagram using a heterogeneous camera of the present invention;
2 is a block diagram of a method for simultaneous acquisition of RGB images/joint position labels for artificial neural network learning of the present invention

본발명은 이종 카메라를 이용한 RGB영상/관절위치라벨 데이터쌍의 동시적 실시간 취득 시스템에 관한 것으로,The present invention relates to a system for simultaneous real-time acquisition of RGB image/joint position label data pairs using heterogeneous cameras,

IR마커와; 이종카메라인 IR카메라, RGB카메라;를 이용하여 RGB동영상을 취득할 때 관절의 위치도 동시에 실시간으로 취득이 되는 것을 특징으로 한다.IR marker; It is characterized in that the joint position is simultaneously acquired in real time when the RGB video is acquired using heterogeneous IR camera and RGB camera.

또한 상기 이종카메라인 RGB카메라와 IR카메라가 동일 scene을 바라볼 수 있도록 이종 카메라 박스를 구성하는 것을 특징으로 한다.In addition, it is characterized in that the heterogeneous camera box is configured so that the RGB camera and the IR camera, which are the heterogeneous cameras, can view the same scene.

또한, 상기 이종 카메라인 RGB카메라와 IR카메라가 동일 scene에 대하여 실시간으로 같은 프레임을 취득하는 것을 특징으로 한다.In addition, it is characterized in that the RGB camera and the IR camera, which are the heterogeneous cameras, acquire the same frame in real time for the same scene.

본발명을 첨부도면에 의해 상세히 설명하면 다음과 같다.도 1은 본발명의 이종카메라를 이용한 IR, RGB영상 스튜디오 구성도, 도 2는 본발명의 인공신경망 학습용 RGB영상/관절의위치라벨의 동시적 취득 방법 구성도이다.The present invention will be described in detail with reference to the accompanying drawings. Fig. 1 is an IR, RGB image studio configuration diagram using a heterogeneous camera of the present invention, and Fig. 2 is a simultaneous RGB image/joint position label for artificial neural network learning of the present invention. This is the configuration diagram of the enemy acquisition method.

본 발명에서는 이러한 수작업을 피하기 위해 IR마커와 IR카메라, RGB카메라를 이용하여 RGB동영상을 취득할 때 관절의 위치도 동시에 실시간으로 취득이 되는 방법에 대해 제안한다. In order to avoid such manual work, the present invention proposes a method in which joint positions are simultaneously acquired in real time when acquiring RGB video using an IR marker, an IR camera, and an RGB camera.

본발명의 시스템 구성은 도 1에 도시된 바와 같이 다음과 같다.As shown in FIG. 1, the system configuration of the present invention is as follows.

- RGB카메라와 IR카메라가 동일 scene을 바라볼 수 있도록 이종 카메라 박스를 구성한다.- Configure heterogeneous camera boxes so that RGB and IR cameras can see the same scene.

이종 카메라인 RGB카메라와 IR카메라가 동일 scene에 대하여 실시간으로 같은 프레임을 취득하고 같은 프레임에 대하여 같은 프레임번호가 붙도록 넘버링(numbering)이 되도록 취득과정을 동기화(synchronize)하는 하드웨어 시스템을 구성한다.It composes a hardware system that synchronizes the acquisition process so that the RGB camera and IR camera, which are heterogeneous cameras, acquire the same frame in real time for the same scene and numbering is performed so that the same frame number is assigned to the same frame.

다종의 이종 카메라들로부터 취득되는 프레임들을 실시간으로 데이터베이스에 저장할 수 있는 데이터베이스 시스템을 구축. 실시간으로 취득이 되기 때문에 정형식, 비정형식 혼합 데이터베이스를 구축한다.Build a database system that can store frames acquired from multiple types of heterogeneous cameras in a database in real time. Since it is acquired in real time, a mixed database of formal and non-formal forms is constructed.

IR 프레임 영상들로부터는 IR 조명(light)에 의해 측정되는 관절의 위치를 참(true)라벨로 인식하도록 시스템 구성. 이를 위해 IR조명만을 인식하는 IR마커 전용 소프트웨어를 사용한다.From the IR frame images, the system is configured to recognize the position of the joint measured by the IR light as a true label. For this purpose, software dedicated to IR marker that recognizes only IR light is used.

이종 카메라를 여러 개 사용하는 다중의 이종 카메라 기반의 스튜디오를 구성하면, 이는 차후에 3차원 정보를 취득하기 위해 사용이 될 수 있다.If a studio based on multiple heterogeneous cameras using multiple heterogeneous cameras is configured, this can be used to acquire 3D information in the future.

대상에 대한 촬영 및 RGB영상 및 관절라벨 추출방법은 도 2와 같다.The method of photographing the subject and extracting the RGB image and joint label is shown in FIG. 2 .

대상을 촬영할 때 대상은 IR조명을 내는 마커를 각 관절에 부착한 상태임. 따라서 IR, RGB카메라 모두에 IR조명이 같이 촬영된다(①). When shooting the subject, the subject has a marker that emits IR light attached to each joint. Therefore, both IR and RGB cameras are photographed with IR light (①).

취득된 IR영상에서 IR마커를 추출하여 관절의 true위치를 측정(②)하고 RGB카메라에서도 색상기반으로 IR마커를 추출한 후에(③,④) IR카메라를 통해 취득한 IR마커와 정렬하여(⑤,⑥,⑦) IR와 RGB카메라의 관절의 위치를 다중 포인트 기반의 정렬 알고리즘에 의해 정렬시킨다. Extract the IR marker from the acquired IR image and measure the true position of the joint (②). After extracting the IR marker based on color from the RGB camera (③,④), align it with the IR marker acquired through the IR camera (⑤,⑥) ,⑦) The joint positions of IR and RGB cameras are aligned by a multi-point based alignment algorithm.

다중 포인트 기반의 정렬 알고리즘에 의해 정렬시킬 때 RGB영상에서 추출한 관절의 위치가 IR영상에서 추출한 관절의 위치와 많이 다른 경우, RGB영상에서의 관절의 위치추출이 잘못되었다고 가정하고 본 관절의 위치를 IR영상과 RGB영상의 정렬에 사용하지 않음. 이는 RGB영상에서 관절을 추출할 때 light의 RGB색상을 가지고 추출하는데 이는 에러가 많기 때문이다.If the position of the joint extracted from the RGB image is very different from the position of the joint extracted from the IR image when aligning by the multi-point-based alignment algorithm, it is assumed that the joint position extraction from the RGB image is wrong and the position of this joint is set to the IR Not used for alignment of images and RGB images. This is because there are many errors when extracting joints from RGB images with RGB color of light.

RGB카메라를 통해 취득된 IR마커는 딥러닝 학습에 영향을 줄 수 있기 때문에 IR조명을 검출하고, Inpaining알고리즘을 통해 RGB영상에서 IR마커를 제거함(⑧,⑨). 이때 RGB영상과 정렬된 IR영상의 마커 위치에 대한 정보를 사용하여(⑨) 마커 위치를 중심으로 Inpainting할 영역을 만드는데 이때는 마커를 중심으로 반지름이 일정 이상이 되는 원영역을 Inpaining영역으로 정한다.Since the IR marker acquired through the RGB camera can affect deep learning learning, the IR light is detected and the IR marker is removed from the RGB image through the Inpaining algorithm (⑧,⑨). At this time, using the information on the marker position of the IR image aligned with the RGB image (⑨), the area to be inpainted is made centered on the marker position.

RGB영상과 정렬이 된 IR영상에서 추출된 IR마커의 위치를 true label(참라벨)로 저장하고, Inpainting된 RGB영상은 영상데이터로 저장함. 각 프레임마다 IR마커와 RGB영상을 같이 저장하여, IR마커와 RGB영상이 하나의 데이터쌍이 되도록 함. 이러한 데이터쌍을 실시간으로 프레임마다 저장하여 대용량의 데이터셋을 구축한다.The location of the extracted IR marker from the IR image aligned with the RGB image is saved as a true label (true label), and the inpainted RGB image is saved as image data. IR marker and RGB image are saved together for each frame, so that IR marker and RGB image become one data pair. A large-capacity data set is constructed by storing these data pairs in real time for each frame.

따라서 본발명은 이종 카메라 한 개만으로도 RGB영상 기반의 2차원 관절부위 추출의 인공신경망용 학습데이터의 추출이 되는 현저한 효과가 있다.Therefore, the present invention has a remarkable effect of extracting learning data for artificial neural networks based on RGB image-based two-dimensional joint extraction with only one heterogeneous camera.

Claims (3)

IR마커와; 이종카메라인 IR카메라, RGB카메라;를 이용하여 RGB동영상을 취득할 때 관절의 위치도 동시에 실시간으로 취득이 되는 것으로,
상기 이종카메라인 RGB카메라와 IR카메라는 동일 신(scene)을 바라볼 수 있도록 이종 카메라 박스를 구성하는 것이며, 상기 이종 카메라인 RGB카메라와 IR카메라가 동일 scene에 대하여 실시간으로 같은 프레임을 취득하는 이종 카메라를 이용한 RGB영상/관절위치라벨 데이터쌍의 동시적 실시간 취득 시스템에 있어서,
상기 이종 카메라인 RGB카메라와 IR카메라는 동일 scene에 대하여 실시간으로 같은 프레임을 취득하되, 같은 프레임에 대하여 같은 프레임번호가 붙도록 넘버링(numbering)이 되도록 취득과정을 동기화(synchronize)하는 하드웨어 시스템을 구성하고,
다종의 이종 카메라들로부터 취득되는 프레임들을 실시간으로 데이터베이스에 저장할 수 있는 데이터베이스 시스템을 구축하되, 실시간으로 취득이 되기 때문에 정형식, 비정형식 혼합 데이터베이스를 구축하며
IR 프레임 영상들로부터는 IR 조명에 의해 측정되는 관절의 위치를 참(true)라벨로 인식하도록 시스템 구성하되, IR조명만을 인식하는 IR마커 전용 소프트웨어를 사용하며,
상기 대상을 촬영할 때 대상은 IR조명을 내는 마커를 각 관절에 부착한 상태이므로, IR, RGB카메라 모두에 IR조명이 같이 촬영되고(①), 취득된 IR영상에서 IR마커를 추출하여 관절의 true위치를 측정(②)하고 RGB카메라에서도 색상기반으로 IR마커를 추출한 후에(③,④) IR카메라를 통해 취득한 IR마커와 정렬하여(⑤,⑥,⑦) IR와 RGB카메라의 관절의 위치를 다중 포인트 기반의 정렬 알고리즘에 의해 정렬시키되,
상기 다중 포인트 기반의 정렬 알고리즘에 의해 정렬시킬 때 RGB영상에서 추출한 관절의 위치가 IR영상에서 추출한 관절의 위치와 많이 다른 경우, RGB영상에서의 관절의 위치추출이 잘못되었다고 가정하고 본 관절의 위치를 IR영상과 RGB영상의 정렬에 사용하지 않으며
RGB카메라를 통해 취득된 IR마커는 딥러닝 학습에 영향을 줄 수 있기 때문에 IR조명을 검출하고, 인페인팅(Inpaining)알고리즘을 통해 RGB영상에서 IR마커를 제거하며(⑧,⑨), 이때 RGB영상과 정렬된 IR영상의 마커 위치에 대한 정보를 사용하여(⑨) 마커 위치를 중심으로 인페인팅(Inpaining)할 영역을 만드는데 이때는 마커를 중심으로 반지름이 일정 이상이 되는 원영역을 인페인팅(Inpaining)영역으로 정하며,
RGB영상과 정렬이 된 IR영상에서 추출된 IR마커의 위치를 true label(참라벨)로 저장하고, 인페인팅(Inpaining)된 RGB영상은 영상데이터로 저장하는 것을 특징으로 하는 이종 카메라를 이용한 RGB영상/관절위치라벨 데이터쌍의 동시적 실시간 취득 시스템
IR marker; When acquiring RGB video using heterogeneous IR camera and RGB camera; joint position is also acquired in real time at the same time.
The heterogeneous RGB camera and the IR camera constitute a heterogeneous camera box to view the same scene, and the heterogeneous RGB camera and the IR camera acquire the same frame in real time for the same scene. In the simultaneous real-time acquisition system of RGB image/joint position label data pair using a camera,
The heterogeneous RGB camera and IR camera acquire the same frame in real time for the same scene, but configure a hardware system that synchronizes the acquisition process so that the same frame number is numbered so that the same frame number is assigned to the same frame. do,
We build a database system that can store frames acquired from multiple types of heterogeneous cameras in a database in real time.
From the IR frame images, the system is configured to recognize the position of the joint measured by the IR light as a true label, but using the IR marker software that recognizes only the IR light,
When shooting the target, since the target has a marker that emits IR light attached to each joint, the IR light is captured on both the IR and RGB cameras (①), and the IR marker is extracted from the obtained IR image to determine the true condition of the joint. After measuring the position (②) and extracting the IR marker based on the color from the RGB camera (③,④), align it with the IR marker acquired through the IR camera (⑤,⑥,⑦) to multiply the position of the joints of the IR and RGB camera. Sort by a point-based sorting algorithm,
If the position of the joint extracted from the RGB image is much different from the position of the joint extracted from the IR image when aligning by the multi-point-based alignment algorithm, it is assumed that the position of the joint in the RGB image is wrong and the position of this joint is It is not used to align IR and RGB images.
Since the IR marker acquired through the RGB camera can affect deep learning learning, it detects the IR light and removes the IR marker from the RGB image through the inpaining algorithm (⑧,⑨), at this time the RGB image. Using the information about the marker position of the IR image aligned with (⑨), the area to be inpainted is made centered on the marker position. defined as an area,
RGB image using a heterogeneous camera, characterized in that the position of the IR marker extracted from the IR image aligned with the RGB image is stored as a true label, and the inpained RGB image is saved as image data. /Simultaneous real-time acquisition system of joint position label data pairs
삭제delete 삭제delete
KR1020200153981A 2020-11-17 2020-11-17 Simultaneous real-time acquisition system of RGB image/joint position label data pairs using heterogeneous cameras KR102439922B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200153981A KR102439922B1 (en) 2020-11-17 2020-11-17 Simultaneous real-time acquisition system of RGB image/joint position label data pairs using heterogeneous cameras

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200153981A KR102439922B1 (en) 2020-11-17 2020-11-17 Simultaneous real-time acquisition system of RGB image/joint position label data pairs using heterogeneous cameras

Publications (2)

Publication Number Publication Date
KR20220067362A KR20220067362A (en) 2022-05-24
KR102439922B1 true KR102439922B1 (en) 2022-09-02

Family

ID=81807342

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200153981A KR102439922B1 (en) 2020-11-17 2020-11-17 Simultaneous real-time acquisition system of RGB image/joint position label data pairs using heterogeneous cameras

Country Status (1)

Country Link
KR (1) KR102439922B1 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100702898B1 (en) * 2006-05-29 2007-04-03 경북대학교 산학협력단 Gait training system using motion analysis

Also Published As

Publication number Publication date
KR20220067362A (en) 2022-05-24

Similar Documents

Publication Publication Date Title
CN103337094B (en) A kind of method of applying binocular camera and realizing motion three-dimensional reconstruction
EP2426642B1 (en) Method, device and system for motion detection
CN101621634B (en) Method for splicing large-scale video with separated dynamic foreground
CN108921907B (en) Exercise test scoring method, device, equipment and storage medium
CN108288294A (en) A kind of outer ginseng scaling method of a 3D phases group of planes
CN107357286A (en) Vision positioning guider and its method
CN110142785A (en) A kind of crusing robot visual servo method based on target detection
CN105469389B (en) A kind of grid ball target for vision sensor calibration and corresponding scaling method
US20120275667A1 (en) Calibration for stereoscopic capture system
US8179448B2 (en) Auto depth field capturing system and method thereof
Takahashi et al. Human pose as calibration pattern; 3D human pose estimation with multiple unsynchronized and uncalibrated cameras
CN112509125A (en) Three-dimensional reconstruction method based on artificial markers and stereoscopic vision
Gondal et al. On dynamic scene geometry for view-invariant action matching
CN114119739A (en) Binocular vision-based hand key point space coordinate acquisition method
Jeges et al. Measuring human height using calibrated cameras
CN108830861A (en) A kind of hybrid optical motion capture method and system
CN109714530A (en) A kind of aerial camera image focus adjustment method
CN106846385B (en) Multi-sensing remote sensing image matching method, device and system based on unmanned aerial vehicle
KR101715781B1 (en) Object recognition system and method the same
KR101801100B1 (en) Video providing apparatus and method for supporting production of immersive contents
CN103186233B (en) Panoramic interaction control method for eye location
KR102341839B1 (en) Data collection device for augmented reality
KR102439922B1 (en) Simultaneous real-time acquisition system of RGB image/joint position label data pairs using heterogeneous cameras
CN115035546B (en) Three-dimensional human body posture detection method and device and electronic equipment
CN110705487B (en) Palm print acquisition equipment and method and image acquisition device thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant