KR101869507B1 - Method of Real-time Virtual Touch Recognition system for Embedded Environment and system For Real-time Virtual Touch Recognition Using This Method - Google Patents

Method of Real-time Virtual Touch Recognition system for Embedded Environment and system For Real-time Virtual Touch Recognition Using This Method Download PDF

Info

Publication number
KR101869507B1
KR101869507B1 KR1020160177206A KR20160177206A KR101869507B1 KR 101869507 B1 KR101869507 B1 KR 101869507B1 KR 1020160177206 A KR1020160177206 A KR 1020160177206A KR 20160177206 A KR20160177206 A KR 20160177206A KR 101869507 B1 KR101869507 B1 KR 101869507B1
Authority
KR
South Korea
Prior art keywords
touch
unit
depth image
virtual touch
real
Prior art date
Application number
KR1020160177206A
Other languages
Korean (ko)
Inventor
권순각
이동석
Original Assignee
동의대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동의대학교 산학협력단 filed Critical 동의대학교 산학협력단
Priority to KR1020160177206A priority Critical patent/KR101869507B1/en
Application granted granted Critical
Publication of KR101869507B1 publication Critical patent/KR101869507B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • G06K9/48
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

The present invention relates to a real-time virtual touch recognition method of an embedded environment and a real-time virtual touch recognition system using the same. In an embedded environment, a virtual touch area is photographed through a depth measurement sensor (10) to obtain a depth image, and the depth image is analyzed to recognize a virtual touch in real time. Then, virtual touch information is transmitted to a control device. The system comprises: a depth image photographing unit (S10) for photographing a depth image having a distance from the depth measurement sensor (10) within a photographing area as a pixel value; a background storage unit (S20) for storing a background depth image of a photographing area; a binarization unit (S30); a labeling unit (S40); a touch sensing unit (S50); a calibration unit (S70); a touch position correction unit (S60); and a touch transmission unit (S80).

Description

임베디드 환경의 실시간 가상 터치 인식 방법 및 이를 이용한 실시간 가상 터치 인식 시스템{Method of Real-time Virtual Touch Recognition system for Embedded Environment and system For Real-time Virtual Touch Recognition Using This Method}TECHNICAL FIELD The present invention relates to a real-time virtual touch recognition method and a real-time virtual touch recognition method using the same.

본 발명은 가상 터치 방식에서 다중 터치를 인식하는 임베디드 환경의 실시간 가상 터치 인식 시스템 및 이를 이용한 실시간 가상 터치 인식 방법에 관한 것으로 가상 터치는 물리적 터치 방법에 비교하여 간단한 깊이 카메라만을 설치하고, 객체 깊이값과 배경의 깊이값의 차이만으로 정확하게 터치를 인식하는 방법으로 다중 터치인식을 위한 이진화, 라벨링, 객체 추적의 알고리즘 개선을 통하여 다중 터치의 정확도를 높이는 임베디드 환경의 실시간 가상 터치 인식 시스템 및 이를 이용한 실시간 가상 터치 인식 방법에 관한 것이다.
The present invention relates to a real-time virtual touch recognition system in an embedded environment for recognizing multi-touch in a virtual touch method and a real-time virtual touch recognition method using the same. In the virtual touch, only a simple depth camera is installed, Real-time virtual touch recognition system of embedded environment which improves accuracy of multi-touch by improving algorithm of binarization, labeling and object tracking for multi-touch recognition by recognizing touch only by difference of depth value of background and background. To a touch recognition method.

본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the contents set forth in this section are not prior art to the claims of this application and are not to be construed as prior art to be included in this section.

최근 아이폰 등의 성공으로 인해 다양한 분야의 기기에 터치 인터페이스를 접목해 나가고 있는 추세인데 터치 인식 기술은 스크린 크기에 비례하여 가격이 증가하는 단점이 있다.Recently, due to the success of iPhone, touch interface has been applied to various devices. Touch recognition technology has a disadvantage in that the price increases in proportion to the screen size.

이러한 단점을 극복하기 위해 깊이 영상을 촬영하여 터치 여부를 확인하는 가상 터치 방법을 적용할 수 있으며, 가상 터치 방법에서 기존 터치 방법과 제일 차별화 되는 요소는 이동성이다.In order to overcome this disadvantage, the virtual touch method of detecting the depth of the image and confirming the touch can be applied. In the virtual touch method, the most different element from the conventional touch method is the mobility.

즉, 기존에 제일 많이 쓰이는 정전식 터치 인식 방법은 스크린과 터치 인식 장치가 결합되어 있어 중대형 스크린 환경에서는 이동성이 저하되는 문제가 있지만, 가상 터치 방법은 스크린의 크기에 상관없이 가상 터치 인식 기기의 이동성이 높으면 어디에서든지 손쉽게 설치가 가능하다.In other words, although the electrostatic touch recognition method most commonly used is a combination of a screen and a touch recognition device, there is a problem that the mobility is degraded in a medium to large screen environment. However, the virtual touch method has a problem in that, Can be easily installed anywhere.

따라서, 임베디드 환경에서 가상 터치 인식 시스템을 구현하는 것이 바람직한데, 가상 터치 인식에서 제일 중요한 요소 중 하나는 실시간으로 가상 터치를 처리하는 것이다.Therefore, it is desirable to implement a virtual touch recognition system in an embedded environment. One of the most important factors in virtual touch recognition is to process a virtual touch in real time.

여기서, 실시간의 정의는 입력 값에 대해 정해진 시간 내에 정확한 반응을 하는 정보처리 행위 또는 시스템을 뜻하는 것으로, 가상 터치 시스템에서 실시간성을 만족시키기 위해서는 깊이 영상을 촬영함에 있어서 각 프레임 촬영 간격 시간 내에 터치에 대해 반응을 해야 한다.Here, real-time definition means an information processing action or system that responds accurately within a predetermined time to an input value. In order to satisfy the real-time property in the virtual touch system, in order to capture a depth image, Should react to.

특히, 임베디드 환경에서는 프로세서의 성능에 제약이 있기 때문에 실시간성이 더 중요한 요소가 된다.In particular, real-time performance becomes more important because there is a limit to the performance of the processor in the embedded environment.

한편, 실시간 시스템을 구현하는 방법은 크게 시스템의 작업들을 분배하는 스케쥴링 정책을 실시간 시스템에 알맞게 변경하는 방법과 시스템의 반응 속도를 개선시키는 방법으로 나눌 수 있다.On the other hand, the method of real-time system implementation can be roughly classified into a method of modifying the scheduling policy that distributes the tasks of the system to a real-time system and a method of improving the response speed of the system.

실시간 시스템의 스케쥴링은 시스템 내의 여러 작업들에 대해 프로세서 점유 등의 시스템 자원을 입력에 대해 정해진 시간 내에 반응을 얻기 위해 작업들을 시스템에 정해진 방식에 따라 우선순위를 두어 분배를 하는 것이며, 응답시간이 치명적인 요소가 되는 임베디드 시스템에 주로 쓰이고 있다.The scheduling of real-time systems is to prioritize tasks according to a system-determined manner in order to get responses within a certain time to input system resources such as processor occupation for various tasks in the system, It is mainly used in embedded systems which are elements.

이러한, 실시간 스케쥴링 방법을 적용하는 방법은 여러 작업을 병렬적으로 수행하거나 입력을 받기 위해 대기 중인 상태에서 다양한 입력에 대해 각각의 반응을 해야 하는 시스템에 대해서는 효율적으로 실시간성을 만족시킬 수 있지만, 단일 작업 내의 알고리즘이 복잡할 경우에는 실시간 스케쥴링 방법을 적용하여도 실시간성을 만족시킬 수 없는 한계점이 있다.The method of applying the real-time scheduling method can satisfy the real-time efficiency efficiently in a system in which a plurality of tasks are performed in parallel or a system in which each reaction is performed on various inputs in a waiting state in order to receive input, If the algorithm in the task is complicated, there is a limitation that the real - time property can not be satisfied even if the real - time scheduling method is applied.

반면에, 실시간 시스템을 구현하기 위해 시스템의 반응 속도를 개선시키는 방법은 다수의 프로세서들 또는 프로세스 코어들 및 GPU를 이용한 병렬처리 방법과 시스템 내의 알고리즘을 개선하여 반응 속도를 증가시키는 방법으로 나눌 수 있다.On the other hand, a method for improving the response speed of a system in order to realize a real-time system can be divided into a parallel processing method using a plurality of processors or process cores and a GPU, and a method of improving a reaction speed by improving an algorithm in the system .

병렬 처리는 다중 프로세서 환경이나 멀티 코어 프로세서에 대해 시스템 또는 모듈 내 분할 가능한 작업들에 대해 각각의 프로세서 또는 코어에 할당시켜 처리하는 것을 뜻한다.Parallel processing refers to processing in a multiprocessor environment or in a multi-core processor by allocating to each processor or core each partitionable task within a system or module.

상기의 효율적인 병렬 처리를 적용한 시스템은, 시스템 자원을 효율적으로 이용하기 때문에 처리 속도가 빨라진다. 하지만 병렬 처리를 적용하기 위해서는 임계 구역에 대한 상호 배제를 만족시키기 위해 신중하게 접근해야 하는데, 임계구역에 대해 주의를 기울이지 않는다면 예상하지 못한 결과가 나오는 문제가 발생한다. 알고리즘을 개선하는 방법은 범용적인 알고리즘을 적용한 부분에 대해 시스템의 특성을 이용하여 알고리즘 내 필요 없는 요소를 제거하거나 최적화하여 알고리즘의 복잡도를 낮추어 알고리즘의 수행 시간을 줄이는 방법이며, 시스템에 적용된 알고리즘을 최적화함으로써 수행 시간을 효율적으로 줄일 수 있다.
A system to which the above-described efficient parallel processing is applied has a high processing speed because it efficiently utilizes system resources. However, in order to apply parallel processing, care must be taken to satisfy the mutual exclusion of the critical zone. If attention is not paid to the critical zone, unexpected results arise. The method of improving the algorithm is to reduce the execution time of the algorithm by reducing the complexity of the algorithm by eliminating or optimizing the unnecessary elements in the algorithm by using the characteristics of the system for the part where the generalized algorithm is applied. The execution time can be efficiently reduced.

한편, 영상 처리 분야에서 실시간 시스템에 대한 연구는 작업을 분할하여 스케줄링을 통해 실시간 시스템을 구현하는 연구가 이루어진다.On the other hand, research on real - time system in image processing field is divided into tasks, and real - time systems are implemented through scheduling.

또한, 임베디드 기술의 발달로 인해 임베디드 기기에 GPU가 장착되는 경우도 있는데, 이를 이용하여 임베디드 기기에 장착된 GPU를 이용하여 병렬 처리를 통해 실시간 영상처리를 하거나, H.264 형식의 영상을 병렬 처리를 통한 실시간 스트리밍 방법, UHD 영상의 HEVC 방식 부호화를 다중의 CPU 및 GPU를 통해 병렬 처리 하는 방법, GPU를 이용한 병렬처리를 통해 로봇에서 촬영한 영상을 통해 사람의 상대위치를 추정하는 연구 등 GPU를 이용한 병렬 영상처리 방법에 대한 연구가 활발하게 진행중이다.In addition, due to the development of embedded technology, the GPU may be mounted on an embedded device. By using the GPU mounted on the embedded device, it is possible to perform real-time image processing through parallel processing or parallel processing of H.264 format image , Parallel processing of HEVC coding of UHD images through multiple CPUs and GPUs, and research on estimating the relative position of human beings with images taken by robots through GPU-based parallel processing. We are actively studying the parallel image processing method.

전술된 바와 같이 병렬 처리를 통해서는 영상을 실시간으로 처리하는 분야의 연구가 대다수이고, 그밖에 실시간 스케줄링과 병렬 처리를 같이 적용하여 실시간 시스템을 구현하는 연구도 이루어지고 있다.As described above, most of the researches on processing images in real time through parallel processing, and real-time systems are implemented by applying real-time scheduling and parallel processing.

하지만, 실시간 영상 처리시스템에 대한 연구가 많이 이루어지고 있음에도 임베디드 환경에서의 실시간 깊이 영상 처리에 대한 연구는 부족한 실정이다.
However, there is a lack of research on real - time depth image processing in embedded environment.

1. 한국 특허등록 제10-1386655호(2014.04.17)1. Korean Patent Registration No. 10-1386655 (Apr. 17, 2014)

2. 한국 특허등록 제10-1536673호(2013.11.22)2. Korean Patent Registration No. 10-1536673 (November 21, 2013)

3. 권순각, 이동석 2016. “임베디드 환경에서 실시간 가상 터치 인식 시스템의 구현", 멀티미디어확회논문지 제19권 제10호3. Kwon, K. and Lee, DS 1986. "Implementation of Real-time Virtual Touch Recognition System in Embedded Environment", Multimedia Journals Vol. 19, No. 10

따라서, 본 발명은 전술한 문제점을 해결하고자 하는 것으로, 임베디드 환경의 실시간 가상 터치 인식 시스템 및 이를 이용한 실시간 가상 터치 인식 방법을 제공하는 것을 목적으로 한다.
SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a real-time virtual touch recognition system in an embedded environment and a real-time virtual touch recognition method using the same.

또한, 가상 터치 인식에서 제일 중요한 요소 중 하나인 실시간으로 가상 터치를 효율적으로 처리하고, 터치 인식 기술의 단점인 스크린의 크기에 비례한 가격증가를 해결하며, 크기에 상관없이 이동성이 높은 가상 터치 인식 기기를 구현하고자 하는 것을 목적으로 한다.
In addition, one of the most important factors in virtual touch recognition is to efficiently process virtual touches in real time, solve a price increase proportional to the size of a screen, which is a disadvantage of touch recognition technology, It is intended to implement the device.

보다 구체적으로, 이진화와 라벨링 단계에서 처리 시간의 대부분을 차지하는 기존의 가상 터치 시스템의 단점에서 벗어나 이진화와 라벨링 단계에서 가상 터치 시스템에 맞도록 개선하는 시스템을 제안하고, 이러한 개선을 통해 임베디드 환경에서 매우 중요한 실시간 시스템을 구현하는 방법에 대해 제시하고자 한다.
More specifically, we propose a system that improves the virtual touch system in the binarization and labeling stage, which is deviated from the disadvantages of the existing virtual touch system, which occupies most of the processing time in the binarization and labeling stages. We will present how to implement important real-time systems.

또한, 가상 터치 방법에서 기존 터치 방법과 제일 차별화되는 요소는 이동성이다. 기존의 정전식 터치 인식 방법은 스크린과 터치 인식 장치가 결합되어 있어 중대형 스크린 환경에서는 이동성이 저하되는 문제가 있다. 스크린의 크기에 상관 없고, 기기의 이동성 저하 문제를 극복하는 임베디드 환경에서 가상 터치 인식 시스템을 구현하는 방법을 제시하고자 한다.Also, the most differentiating element from the existing touch method in the virtual touch method is mobility. Conventional electrostatic touch recognition methods have a drawback that the mobility is degraded in a medium to large screen environment because the screen and the touch recognition device are combined. We propose a method of implementing a virtual touch recognition system in an embedded environment that overcomes the problem of device mobility degradation regardless of screen size.

또한, 기존의 터치 방법에서 차별화되는 요소인 이동성을 갖도록 함과 동시에 스크린의 크기에 상관없이 접목이 가능한 임베디드 환경에서 가상 터치 인식 시스템을 구현하는 방법을 제시하고자 한다.
In addition, we propose a method for realizing a virtual touch recognition system in an embedded environment that can be applied to any size regardless of the size of the screen, while providing mobility that is a differentiating factor in the conventional touch method.

본 발명의 바람직한 일실시예에 의하면,According to a preferred embodiment of the present invention,

임베디드 환경의 실시간 가상 터치 인식 시스템에서는, In the real-time virtual touch recognition system of the embedded environment,

임베디드 기기의 터치 센서 영역에 대한 배경 깊이 영상을 촬영하는 깊이 영상 촬영부(S10); 상기 터치 센서 영역의 배경 깊이 영상을 저장하는 배경 저장부(S20); 상기 배경 저장부(S20)에 저장된 배경 깊이 영상과 상기 깊이 영상 촬영부(S10)로 촬영된 촬영 깊이 영상을 비교하여 각 객체에 대한 이진 영상을 생성하는 이진화부(S30); 상기 이진화부(S30)에서 생성된 이진 영상의 각각의 객체에 대해 깊이 영상을 구분하여 그룹화하며 라벨링을 수행하는 라벨링부(S40); 상기 라벨링부(S40)로부터 생성된 각각의 객체에 대해 터치 여부를 탐지하는 터치 감지부(S50); 상기 터치 감지부(S50)에서 인식된 각각의 객체에 대한 깊이 영상을 깊이 영상과 터치 영역간의 위치적 관계에 따라 터치 위치를 보정하는 터치 위치 보정부(S60); 상기 터치 위치 보정부로부터 검출된 상기 깊이 영상과 터치 영역간의 위치적 관계를 설정하는 캘리브레이션부(S70); 및 상기 터치 위치 보정부(S60)로부터 검출된 가상 터치 정보를 제어 장치로 전송하는 터치 전송부(S80); 를 포함하는 것을 특징으로 하는 임베디드 환경의 실시간 가상 터치 인식 시스템이다. 상기 이진화부(S30)는, 드래그를 위한 처음 터치점으로부터 다음 터치점으로의 최대 이동 거리로 허용된 실제 터치 영역에 대한 부분 영역을 이진화하는 것을 특징으로 하고, 상기 라벨링부(S40)는, 상기 이진화부(S30)에서 생성된 상기 객체 중 첫 객체가 출연한 위치 정보에 대해 라벨링을 수행하여 상기 객체가 터치된 시작점이 판단되도록 하는 것을 특징으로 하며, 또한 상기 라벨링부(S40)는, 상기 객체의 터치 영역 크기가 검색 영역보다 큰 경우 잡음이 아니라 판단하고 라벨링을 중단함으로써 터치점 검출을 위한 단계가 이행되도록 하는 것을 특징으로 하는 임베디드 환경의 실시간 가상 터치 인식 시스템이다. 임베디드 환경의 실시간 가상 터치 인식 임베디드 시스템을 구현하기 위한 실시간 가상 터치 인식 방법에 있어서, 깊이 카메라를 통해 임베디드 기기의 터치 센서 영역에 대한 배경 깊이 영상을 촬영하는 촬영단계; 상기 촬영단계로부터 획득된 촬영 영역의 배경 깊이 영상을 저장하는 배경 저장단계; 상기 배경 저장단계의 배경 깊이 영상과 상기 촬영단계의 촬영 깊이 영상을 비교하여 각 객체에 대한 이진 영상을 생성하는 이진화단계; 상기 이진화단계에서 생성된 상기 이진 영상의 각각의 객체에 대해 깊이 영상을 구분하여 그룹화하며 라벨링을 수행하는 라벨링단계; 상기 라벨링단계로부터 생성된 각각의 객체에 대해 터치 여부를 탐지하는 터치 감지단계; 상기 터치 감지단계에서 인식된 각각의 객체에 대한 깊이 영상을 깊이 영상과 터치 영역간의 위치적 관계에 따라 터치 위치를 보정하는 터치 위치 보정단계; 및 상기 터치 위치 보정단계로부터 검출된 가상 터치 정보를 제어 장치로 전송하는 터치 전송단계;를 포함하는 것을 특징으로 하는 임베디드 환경의 실시간 가상 터치 인식방법이다. 또한, 상기 터치 위치 보정단계에는, 상기 터치 위치 보정단계로부터 검출된 상기 깊이 영상과 터치 영역간의 위치적 관계를 설정하는 캘리브레이션단계;를 포함하는 것을 특징으로 하는 임베디드 환경의 실시간 가상 터치 인식방법이다.A depth image capturing unit (S10) for capturing a background depth image of a touch sensor area of the embedded device; A background storage unit (S20) for storing a background depth image of the touch sensor area; A binarization unit (S30) for generating a binary image for each object by comparing a background depth image stored in the background storage unit (S20) with a depth image taken by the depth image capturing unit (S10); A labeling unit (S40) for labeling and grouping depth images for each object of the binary image generated in the binarization unit (S30) and performing labeling; A touch sensing unit S50 for detecting whether or not each object generated from the labeling unit S40 is touched; A touch position correcting unit (S60) for correcting the touch position according to a positional relationship between the depth image and the touch region, the depth image for each object recognized by the touch sensing unit (S50); A calibration unit (S70) for setting a positional relationship between the depth image detected from the touch position correcting unit and the touch region; And a touch transmission unit (S80) for transmitting the virtual touch information detected from the touch position correcting unit (S60) to the control device. The virtual touch recognition system of the present invention is a real-time virtual touch recognition system of an embedded environment. Wherein the binarizing unit S30 is configured to binarize the partial region for the actual touch region allowed by the maximum movement distance from the first touch point to the next touch point for dragging, The labeling unit S40 may label the position information of the first object among the objects generated in the binarization unit S30 to determine a starting point at which the object is touched. If the size of the touch area of the touch screen is larger than the search area, it is judged that the touch area is not noise, and the labeling is stopped so that the step for touch point detection is performed. A real-time virtual touch recognition method for implementing a real-time virtual touch recognition embedded system in an embedded environment, the method comprising: capturing a background depth image of a touch sensor area of an embedded device through a depth camera; A background storing step of storing a background depth image of the photographing area obtained from the photographing step; A binarization step of generating a binary image for each object by comparing a background depth image of the background storing step and a photographing depth image of the photographing step; A labeling step of classifying and grouping depth images for each object of the binary image generated in the binarization step and performing labeling; A touch sensing step of sensing whether or not each object generated from the labeling step is touched; A touch position correction step of correcting a touch position according to a positional relationship between a depth image and a touch area, the depth image for each object recognized in the touch sensing step; And a touch transmission step of transmitting the virtual touch information detected in the touch position correction step to the control device. The touch position correcting step may include a calibration step of setting a positional relationship between the depth image detected from the touch position correcting step and the touch area, in the real time virtual touch recognition method of the embedded environment.

본 발명의 일실시예에 따른 임베디드 환경의 실시간 가상 터치 인식 시스템 및 이를 이용한 실시간 가상 터치 인식 방법에 의하면, 기존의 임베디드 환경에서 해상도가 증가함에 따라 가상 터치 처리 시간이 프레임 간 간격보다 크게 되어 실시간으로 가상 터치 인식이 불가능하였던 문제점이 개선되어 임베디드 환경에서 실시간으로 가상 터치가 가능한 효과가 있다.According to the real-time virtual touch recognition system in the embedded environment and the real-time virtual touch recognition method using the embedded real-time environment according to the embodiment of the present invention, as the resolution increases in the existing embedded environment, the virtual touch processing time becomes larger than the inter- The problem that the virtual touch recognition is not possible is improved, and the virtual touch can be performed in real time in the embedded environment.

또한, 본 발명은 실제 터치가 가능한 지점만 이진화하여 기존 방법에 비해 터치 범위가 좁아 처리 속도가 현저하게 빨라지는 효과가 있다.In addition, the present invention has an effect of binarizing only a point at which actual touch is possible, so that the processing range is narrowed and the processing speed is remarkably increased as compared with the conventional method.

또한, 본 발명은 객체가 처음 나타났을 때를 시작점으로 하여 라벨링을 시작하는 방법을 적용하여 처리 속도가 현저하게 빨라지는 효과가 있다.In addition, the present invention has the effect of significantly increasing the processing speed by applying a method of starting labeling with the start point of the object when it first appears.

아울러, 본 발명은 임베디드 환경에서 실시간으로 가상 터치를 구현함으로서 저렴한 경비로 다양한 분야에 접목이 가능함과 동시에 이동성이 용이한 효과가 있다.
In addition, since the present invention realizes a virtual touch in an embedded environment in real time, it can be applied to a variety of fields at low cost and easy mobility.

도 1은 가상 터치 인식 프로세스의 구성도이다.
도 2는 실시간 가상 터치 인식 시스템의 흐름도이다.
도 3은 이진화 영역을 나타내는 도면이다.
도 4는 라벨링 과정을 설명하기 위한 도면이다.
도 5는 깊이 정보의 오차를 고려한 식을 설명하기 위한 터치 정보 도면이다.
도 6은 본 발명을 설명하기 위해 제작된 시뮬레이션 장치이다.
도 7은 터치 중일 때, 기기의 처리시간이 빨라지는 것을 표현한 표이다.
1 is a configuration diagram of a virtual touch recognition process.
2 is a flowchart of a real-time virtual touch recognition system.
3 is a diagram showing a binarization area.
4 is a diagram for explaining the labeling process.
FIG. 5 is a diagram of a touch information for explaining an equation for taking an error of depth information into account.
Figure 6 is a simulation device produced to illustrate the present invention.
FIG. 7 is a table showing that the processing time of the device is accelerated when touching.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 도면 부호는 동일 구성 요소를 지칭한다.
BRIEF DESCRIPTION OF THE DRAWINGS The advantages and features of the present invention and the manner of achieving them will become apparent with reference to the embodiments described in detail below with reference to the accompanying drawings. The present invention may, however, be embodied in many different forms and should not be construed as being limited to the embodiments set forth herein. Rather, these embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the concept of the invention to those skilled in the art. Is provided to fully convey the scope of the invention to those skilled in the art, and the invention is only defined by the scope of the claims. Like numbers refer to like elements throughout.

본 발명의 실시 예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. The following terms are defined in consideration of the functions in the embodiments of the present invention, which may vary depending on the intention of the user, the intention or the custom of the operator. Therefore, the definition should be based on the contents throughout this specification.

본 발명은 가상 터치 방식에서 다중 터치를 인식하는 방법에 관한 것으로 가상 터치는 물리적 터치 방법에 비교하여 간단한 깊이 카메라만을 설치하고, 객체 깊이값과 배경의 깊이값의 차이만으로 정확하게 터치를 인식하는 방법으로 다중 객체 인식을 위한 이진화, 라벨링, 객체 추적의 알고리즘 개선을 통하여 다중 터치의 정확도를 높이는 시스템에 관한 것이다.
The present invention relates to a method for recognizing multiple touches in a virtual touch method, wherein a virtual touch includes only a simple depth camera as compared with a physical touch method, and accurately recognizes a touch only by a difference between an object depth value and a background depth value The present invention relates to a system for improving accuracy of multi-touch by improving algorithms of binarization, labeling, and object tracking for multi-object recognition.

본 발명의 구현을 위해 가상 터치 인식 시스템 내에서 처리 시간에 많은 영향을 끼치는 단계를 설명하고, 알고리즘을 분석하고, 가상 터치에서 나타나는 깊이 영상의 특성에 맞게 알고리즘을 개선한다.
In order to realize the present invention, the steps that have a great effect on the processing time in the virtual touch recognition system are explained, the algorithm is analyzed, and the algorithm is improved according to the characteristics of the depth image appearing in the virtual touch.

이러한 가상 터치 방식의 방법을 '가상 터치 인식 시스템'으로 정의 한다.This virtual touch method is defined as a 'virtual touch recognition system'.

상기의 가상 터치 인식 시스템은 기존에 힘들었던 임베디드 환경에서 실시간성으로 구현하여 기기로 상용화 되었을 때, 저비용으로 생산 가능하게 하고, 이동성을 높이는 방법이다.
The virtual touch recognition system realizes real-time performance in a hard-to-find embedded environment and can be manufactured at low cost when the device is commercialized as a device, thereby increasing mobility.

본 발명인 실시간 가상 터치 인식 임베디드 시스템은 가상 터치 인식 알고리즘이 적용된 임베디드 기기와, 임베디드 기기에 연결된 깊이 측정 센서(10);A real-time virtual touch recognition embedded system according to the present invention includes an embedded device to which a virtual touch recognition algorithm is applied, a depth measurement sensor (10) connected to an embedded device,

상기 깊이 측정 센서(10)로부터 정보를 제공받는 가상 터치 인식 프로세스(20); 및A virtual touch recognition process 20 for receiving information from the depth measurement sensor 10; And

상기 가상 터치 인식 프로세스(20)와 유선 또는 무선으로 연결되어 통신을 통해 가상 터치 정보를 전송받는 제어 장치(30); 로 구성된다.
A control device (30) connected to the virtual touch recognition process (20) by wire or wireless and receiving virtual touch information through communication; .

상기 가상 터치 인식 프로세스(20)는, 깊이 터치가 인식되고, 터치가 된 점의 위치를 파악하였다면, 상기 캘리브레이션부(S70)에 저장된 깊이 영상과 터치 영역간의 위치적 관계를 이용하여 터치 위치를 보정하고, 가상 터치 정보를 유선 또는 무선 통신을 통해 상기 제어 장치(30)로 터치 정보를 전송하고, 이때 터치가 되고 있을 때 뿐만 아니라 터치가 되는 중에 터치 점이 인식 되지 않았을 때도 터치가 중단되었다는 정보를 전송하는 속도가 빠른 실시간성을 구현한 실시간 가상 터치 인식 방법이다. 실시간으로 처리하는 가상 터치 인식을 구현하기 위한 방법으로 가상 터치 인식 알고리즘의 개선을 통해 기존에 불가능 했던 임베디드 환경에서의 실시간 가상 터치를 구현하는 실시간 가상 터치 인식 방법이다.
If the depth touch is recognized and the position of the touch point is grasped, the virtual touch recognition process 20 corrects the touch position using the positional relationship between the depth image stored in the calibration unit S70 and the touch region The touch information is transmitted to the control device 30 through wired or wireless communication with the virtual touch information. At this time, not only when the touch is made but also when the touch point is not recognized during the touch, Speed real-time real-time virtual touch recognition method. This is a real - time virtual touch recognition method that implements real - time virtual touch in an embedded environment which is impossible by the improvement of virtual touch recognition algorithm as a method for implementing virtual touch recognition that processes in real time.

상기 임베디드 환경의 실시간 가상 터치 인식 시스템의 흐름도는 다음과 같다.The flowchart of the real-time virtual touch recognition system in the embedded environment is as follows.

촬영 영역 내 깊이 측정 센서(10)와의 거리를 화소 값으로 가지는 깊이 영상을 촬영하는 깊이 영상 촬영부(S10); 촬영 영역의 배경 깊이 영상을 저장하는 배경 저장부(S20); A depth image capturing unit (S10) for capturing a depth image having a pixel value as a distance from the depth measuring sensor (10) in the photographing area; A background storage unit (S20) for storing a background depth image of a shooting region;

배경 저장부(S20)에 저장된 배경 깊이 영상과 깊이 영상 촬영부(S10)로 촬영된 촬영 깊이 영상을 비교하여 객체를 구분하여 이진 영상을 생성하는 이진화부(S30); A binarization unit (S30) for generating a binary image by comparing the background depth image stored in the background storage unit (S20) with the depth image taken by the depth image capturing unit (S10) to separate the objects;

이진화부(S30)에서 생성된 이진 영상에서 잡음을 제거하고 각각의 객체를 구분하는 라벨링부(S40); 각각의 객체에 대해 터치 여부를 탐지하는 터치 감지부(S50);A labeling unit (S40) for removing noise from the binary image generated in the binarization unit (S30) and distinguishing each object; A touch sensing unit S50 for detecting whether or not each object is touched;

깊이 영상과 터치 영역간의 위치적 관계를 설정하는 캘리브레이션부(S70); 터치 감지부(S50)에서 인식된 깊이 영상을 깊이 영상과 터치 영역간의 위치적 관계에 따라 터치 위치를 보정하는 터치 위치 보정부(S60); 및 가상 터치 정보를 제어 장치로 전송하는 터치 전송부(S80); 를 포함하는 것을 특징으로 한다.
A calibration unit (S70) for setting a positional relationship between the depth image and the touch region; A touch position correcting unit (S60) for correcting the touch position according to the positional relationship between the depth image and the touch region, the depth image recognized by the touch sensing unit (S50); And a touch transmission unit (S80) for transmitting the virtual touch information to the control device. And a control unit.

상기 이진화부(S30)에서는, 이진화 과정에서 이전 터치점을 중심으로 다음 터치를 하기 위해 최대로 갈 수 있는 거리의 범위 내의 영상만을 이진화한다는 특징과 직전 프레임의 가상 터치 정보가 없을 때는 전 영역에 대해 이진화를 수행하고, 직전 프레임의 가상 터치 정보가 존재할 때는 최대 허용 픽셀 거리 영역만큼만 이진화를 수행한다는 일반적인 이진화 알고리즘을 개선한 실시간 가상 터치 인식 임베디드 시스템이다.
In the binarization unit S30, in the binarization process, only the image within the range of the maximum distance to touch the next touch point is binarized, and when there is no virtual touch information of the previous frame, And performs a binarization only for the maximum allowable pixel distance area when the virtual touch information of the previous frame exists, thereby realizing a virtual touch recognition embedded system.

상기 라벨링부(S40)에서는, 이진화 과정 중 얻은 객체의 화소 시작점을 라벨링 시작점으로 잡고, 라벨링을 통해 객체를 추출하는 과정 중 객체 크기가 지정된 문턱값 S보다 크면, 잡음이 아니라고 판단하고 라벨링 중단한 후 이 객체 정보를 터치점 검출 단계로 전달하는 것을 특징으로 하여 기존의 라벨링 알고리즘을 개선한 실시간 가상 터치 인식 임베디드 시스템이다.In the labeling unit S40, when the object size is larger than the threshold S, which is the process of extracting the object by labeling as the starting point of the pixel of the object obtained during the binarization process, it is determined that the object is not noise and the labeling is stopped And transmits the object information to the touch point detection step. The real-time virtual touch recognition embedded system improves the existing labeling algorithm.

도 1는 본 발명의 가상 터치 인식 시스템의 운영 방법을 표현한 도면이고, 도 2는 본 발명에 따른 가상 터치 인식 시스템의 작동 흐름도이다. 또한, 가상 터치 인식을 하는 순서는 깊이 영상을 획득하는 단계, 이진화 단계, 라벨링 단계, 터치점 추출 단계로 요약할 수 있다.FIG. 1 is a diagram illustrating an operation method of a virtual touch recognition system of the present invention, and FIG. 2 is an operation flowchart of a virtual touch recognition system according to the present invention. In addition, the order of performing the virtual touch recognition can be summarized as a step of obtaining a depth image, a binarization step, a labeling step, and a touch point extraction step.

도 3은 가상 터치 정보가 존재할 때, 영상 내에서 터치점 간 최대 허용 픽셀 거리가 수평 방향으로 Tx, 수직방향으로 Ty로 지정되어 있다면, 이전 터치점 Pt-1을 중심으로 최대 허용 픽셀 거리 영역만큼만 이진화를 수행한다는 것을 표현한 도면이다.3, when the maximum allowable pixel distance between the touch points in the image is designated as Tx in the horizontal direction and Ty in the vertical direction in the image, only the maximum allowable pixel distance area around the previous touch point Pt-1 And performs binarization.

도 4는 처음 출연하는 화소의 위치 정보 bst를 라벨링 단계에 전달하여 효율적인 라벨링을 수행하는 것을 표현한 도면이다. 라벨링에서 객체를 검사하는 중에 객체 크기가 S보다 크면, 잡음이 아니라고 판단하고 라벨링 수행을 중단 후에 터치 여부를 탐지하는 단계로 넘어간다.FIG. 4 is a diagram showing that efficient labeling is performed by transmitting the position information bst of the first appearing pixel to the labeling step. If the size of the object is larger than S during the inspection of the object in labeling, it is determined that the object is not noise, and the process goes to the step of detecting whether or not to touch the labeling.

도 5는 객체가 스크린과 M 이내로 접근했을 때 터치를 했다고 간주했을 때,

Figure 112016126461944-pat00001
식과 같이 객체 내 한 화소 (x,y)에서의 현재 깊이 값 Dxy과 배경 영상의 깊이 값 Bxy를 비교하는 도면이다. Dxy과 Bxy의 차가 M이내일 때 그 위치에서 터치가 되었다고 판단한다. 이 때 M의 값은 깊이 카메라로 촬영한 깊이 정보의 오차를 고려한 값이다. Figure 5 shows that when an object is considered to have touched when approaching within the screen and M,
Figure 112016126461944-pat00001
(X, y) in the object and the depth value Bxy of the background image. When the difference between Dxy and Bxy is within M, it is judged that the touch is made at the position. In this case, the value of M is a value considering the error of the depth information photographed by the depth camera.

도 6은 실시간 가상 터치를 구현하기 위한 모의 실험을 위해 제작된 시뮬레이션 장치이다.FIG. 6 is a simulation apparatus designed for simulating real-time virtual touches.

도 7은 터치 중일 때, 가상 터치 인식의 처리시간이 비약적으로 빨라지는 것을 표현한 표이다.
FIG. 7 is a table showing that the processing time of the virtual touch recognition is drastically accelerated when touching.

표 1을 보면, 가상 터치 인식을 처리하는 과정 중에 라벨링과 이진화 단계가 제일 큰 비중을 차지하고, 터치 점 인식 단계는 앞 두 단계에 비해 비중이 낮다는 것을 알수 있게 하는 표이다.Table 1 shows that labeling and binarization take the largest portion in the processing of virtual touch recognition, and that the touch point recognition step has a smaller weight than the previous two steps.

Figure 112016126461944-pat00002
Figure 112016126461944-pat00002

따라서 임베디드 기기에서 실시간으로 가상 터치를 인식하는 시스템을 구현하기 위해서는 이진화와 라벨링 알고리즘을 가상 터치 인식에서 나타나는 깊이 영상의 특성에 맞게 알고리즘을 개선하는 것이 필수적이다.
Therefore, it is essential to improve the algorithm to match the characteristics of the depth image that appears in virtual touch recognition in order to realize a system that recognizes virtual touch in real time in embedded device.

표 2에서 보면, 이진화와 라벨링 단계에서 가상 터치 처리 시간에서 이진화와 라벨링 단계가 대부분을 차지한다는 것을 알 수 있다. 이진화와 라벨링 단계 처리 시간은 깊이 영상의 해상도와 비례 관계에 있어 적절한 깊이 영상 해상도에서 구동하는 것이 중요하다. 이때, 임베디드 환경에서 실시간 가상 터치를 구현하기 위해서는 알고리즘을 개선하여 처리 시간을 줄임으로써 더 높은 해상도에서도 실시간 가상 터치를 지원할 수 있다. 이는 원활한 터치 인터페이스를 제공해 줄 뿐만 아니라 가상 터치 정확도를 더 높일 수 있다. In Table 2, it can be seen that the binarization and labeling steps occupy most of the virtual touch processing time in the binarization and labeling step. The processing time of the binarization and labeling step is proportional to the resolution of the depth image, so it is important to operate at the appropriate depth resolution. In order to realize the real-time virtual touch in the embedded environment, the algorithm can be improved to reduce the processing time, so that the real-time virtual touch can be supported even at a higher resolution. This not only provides a smooth touch interface, but also can increase the virtual touch accuracy.

Figure 112016126461944-pat00003
Figure 112016126461944-pat00003

여기서, 기존의 전영역 이진화 방법과 차이가 있는 본 발명의 이진화 알고리즘을 표로 보여주고자 한다.    Here, the table of the binarization algorithm of the present invention, which differs from the existing full-area binarization method, is shown in the table.

기존의 이진화 단계에서는 전 영역을 이진화하는 과정을 거쳤다. 하지만 드래그를 하기 위해서 터치를 계속 유지하고 있을 때는 기존 터치점에서 다음 터치점까지의 이동 거리가 제한된다. 이를 이용하여 이전 터치점을 중심으로 다음 터치를 하기 위해 최대로 갈 수 있는 거리의 범위 내의 영상만을 이진화 한다. 이 때 영상 내에서 터치점 간 최대 허용 픽셀 거리가 수평 방향으로 Tx, 수직방향으로 Ty이고, 현재 t 프레임에서 촬영된 영상을 It, 이진화 후 영상을 Bt, 이전 터치 지점을 Pt-1라 할 때, 제안하는 알고리즘은 표 3과 같이 나타낼 수 있다.In the existing binarization step, the whole region is binarized. However, when the touch is continuously maintained for dragging, the movement distance from the existing touch point to the next touch point is limited. Using this, only the image within the range of the maximum distance to touch the next touch point is binarized. In this case, when the maximum allowable pixel distance between the touch points in the image is Tx in the horizontal direction and Ty in the vertical direction, the image photographed at the current t frame is It, the image after the binarization is Bt, and the previous touch point is Pt-1 , And the proposed algorithm can be expressed as shown in Table 3.

Figure 112016126461944-pat00004
Figure 112016126461944-pat00004

또한, 기존의 라벨링 단계에서는 전체 영역에 대하여 라벨링을 수행한다. 하지만 가상 터치를 수행할 때, 터치를 수행하기 위해 영상을 촬영하는 과정에서 영상의 중앙부에 터치 대상 스크린이 있기 때문에 객체도 영상의 중앙에 가까운 부분에서 촬영될 확률이 높다. 따라서 라벨링을 수행하기 위해 화소를 탐색할 때, 객체가 시작하는 점을 알 수 있다면 라벨링을 수행하기 위해 검색해야할 화소의 수를 반 이상 줄일 수 있다. 이를 위해 라벨링 수행 전단계인 이진화 단계에서 첫 객체가 출연하는 위치 정보 bst를 라벨링 단계에 전달하여 효율적인 라벨링을 수행하도록 한다. 이를 위해 이진화 알고리즘을 표 4처럼 변경한다.In the conventional labeling step, labeling is performed on the entire area. However, when the virtual touch is performed, since there is a touch target screen at the center of the image in the process of shooting the image for performing the touch, the probability that the object is also photographed near the center of the image is high. Therefore, when searching for a pixel to perform labeling, if the starting point of the object is known, the number of pixels to be searched for labeling can be reduced by half or more. For this, the binarization step, which is the previous step of labeling, transmits the position information bst where the first object appears to the labeling step to perform efficient labeling. To do this, we modify the binarization algorithm as shown in Table 4.

Figure 112016126461944-pat00005
Figure 112016126461944-pat00005

또한, 라벨링에서 객체를 검사하는 중에 객체 크기가 S보다 크면, 잡음이 아니라고 판단하고 라벨링 수행을 중단 후에 터치점 검출 단계로 넘어간다.If the size of the object is larger than S during inspection of the object in the labeling, it is determined that the noise is not noise, and after the labeling is stopped, the process proceeds to the touch point detection step.

이러한 라벨링 알고리즘은 다음의 표 5과 같이 나타낼 수 있다.Such a labeling algorithm can be represented as shown in Table 5 below.

Figure 112016126461944-pat00006
Figure 112016126461944-pat00006

제안된 알고리즘을 적용한 결과, 도 4처럼 터치 확인에 필요한 부분에 대해서만 라벨링이 이루어진다.
As a result of applying the proposed algorithm, labeling is performed only on the portion required for touch confirmation as shown in FIG.

상기의 내용은 가상 터치 인식 시스템 내에서 처리 시간에 많은 영향을 끼치는 단계에 대해서 알아보고, 알고리즘을 분석하고, 가상 터치에서 나타나는 깊이 영상의 특성에 맞게 알고리즘을 개선한 방법을 알아본다.
In this paper, we study the steps that have a great effect on the processing time in the virtual touch recognition system, analyze the algorithm, and improve the algorithm according to the characteristics of the depth image in virtual touch.

본 발명에 따른 가상 터치 인식 알고리즘의 개선을 통해 임베디드 환경에서의 실시간 가상터치 인식 시스템의 바람직한 실시 예에 관하여 상세히 설명하면 다음과 같다.
A preferred embodiment of a real-time virtual touch recognition system in an embedded environment by improving the virtual touch recognition algorithm according to the present invention will be described in detail as follows.

본 발명은 임베디드 시스템을 위한 가상 터치 알고리즘의 실시간 처리 가능 여부를 확인하기 위해 알고리즘 내의 라벨링 과정과 이진화 과정, 가상 터치 인식 과정으로 나누어 수행시간을 측정한다. 이 때 모의실험에 사용할 임베디드 시스템 기기는 Raspberry pi 3을 사용한다. Raspberry pi 3은 1.2Ghz의 쿼드 프로세서와 1Gb의 RAM을 장착한 임베디드 기기이다. 또한 깊이 카메라로는 ASUS사의 Xtion Pro Live를 사용하였다. 이 깊이 카메라를 통해 초당 30프레임으로 영상을 촬영한다. 이 때 총 100프레임을 측정하여 속도를 측정한다. 이 때 각 프레임 간 간격은 약 34ms이므로, 실시간 가상 터치를 구현하기 위해서는 처리 시간이 33ms 이하여야 한다. 본 실험 장치는 도 6과 같이 구성된다.In the present invention, the execution time is divided into a labeling process, a binarization process, and a virtual touch recognition process in order to check whether a virtual touch algorithm for an embedded system can be processed in real time. In this case, Raspberry pi 3 is used for the embedded system device to be used for the simulation. The Raspberry pi 3 is an embedded device with a 1.2Ghz quad processor and 1Gb of RAM. In addition, ASUS's Xtion Pro Live was used as a depth camera. This depth camera shoots images at 30 frames per second. In this case, the speed is measured by measuring a total of 100 frames. In this case, since the interval between each frame is about 34 ms, the processing time must be 33 ms or less in order to realize real-time virtual touch. The experimental apparatus is constructed as shown in FIG.

표 6에서는, 기존 이진화 방법과 라벨링 방법을 이용하였을 때의 처리시간을 PC와 비교하여 측정한 것이다. 이 때 PC에서는 해상도에 상관없이 매우 빠르게 가상 터치 알고리즘이 처리되지만, 임베디드 기기에서는 해상도가 640x480인 경우에 처리 속도가 78ms로, 실시간으로 가상 터치를 인식할 수 없음을 알 수 있다.Table 6 compares the processing time when using the existing binarization method and labeling method compared with PC. In this case, the virtual touch algorithm is processed very quickly regardless of the resolution of the PC, but in the case of the embedded device, the processing speed is 78 ms in the case of the resolution of 640 × 480, and the virtual touch can not be recognized in real time.

Figure 112016126461944-pat00007
Figure 112016126461944-pat00007

표 7에서는, 주어진 임베디드 환경에서 640x480의 깊이 영상을 획득하여 가상 터치를 수행할 때, 기존 이진화, 라벨링 방법을 적용하였을 때의 각 단계별 처리 속도를 나타낸 것이다. 이 때 가상 터치 인식 내에서 이진화 단계와 라벨링에서 대부분의 시간이 소요됨을 알 수 있다.Table 7 shows the processing speed of each stage when applying the conventional binarization and labeling method when performing a virtual touch by acquiring a depth image of 640x480 in a given embedded environment. At this time, it can be seen that most of the time is consumed in the binarization step and the labeling in the virtual touch recognition.

Figure 112016126461944-pat00008
Figure 112016126461944-pat00008

표 8에서는, 가상 터치 인식 내에서 깊이 영상을 이진화 하는 방법을 기존의 방법인 전체 영상을 이진화 하는 방법과 비교하여 본 발명의 제안된 방법인 이전 터치 지점을 중심으로 일부 영역만을 이진화하는 방법을 적용하였을 때의 처리 속도를 비교한다. Table 8 compares the method of binarizing the depth image in the virtual touch recognition with the method of binarizing the entire image, which is a conventional method, and applies a method of binarizing only a partial region around the previous touch point, which is a proposed method of the present invention Is compared with the processing speed at the time.

터치를 하지 않는 상태일 경우에는 이전 터치 지점이 없기 때문에 기존의 방법과 제안된 방법의 처리 시간이 차이가 나지 않는다. 하지만 터치 중인 상태에서는 기존 방법에서 26ms이던 이진화 과정 시간이, 제안된 방법에서는 0.8ms로 확연히 줄어드는 것을 확인할 수 있다In the non-touch state, since there is no previous touch point, there is no difference in the processing time between the conventional method and the proposed method. However, in the state of being touched, it can be seen that the time of the binarization process which was 26 ms in the conventional method is remarkably reduced to 0.8 ms in the proposed method

Figure 112016126461944-pat00009
Figure 112016126461944-pat00009

표 9에서는, 이진화된 영상을 라벨링하는 방법을 기존 방법인 전체 영상을 라벨링 하는 방법과, 본 발명에서 제안된 방법인 객체가 처음 나타났을 때를 시작점으로 하여 라벨링을 시작하는 방법을 적용하였을 때의 처리 속도를 비교한다. 기존 라벨링 방법을 적용하였을 때는 라벨링 과정 시간이 26ms로 나타났으나, 제안된 방법인 라벨링 방법을 적용하였을 때는 6ms로 줄어든다. 이는 터치를 수행할 객체가 영상 외곽에 나타날 확률보다 영상 중앙에 나타날 확률이 높기 때문에, 라벨링 개선 효과가 높게 나타난 것으로 분석된다.Table 9 shows a method of labeling a binarized image by a method of labeling an entire image, which is an existing method, and a method of starting labeling with a starting point of an object, which is a method proposed in the present invention, Compare the processing speed. When the existing labeling method is applied, the labeling process time is shown to be 26ms. However, when the labeling method is applied, the labeling process time is reduced to 6ms. It is analyzed that the labeling improvement effect is high because the probability that the object to be touched will appear in the center of the image is higher than the probability that the object to be touched will appear on the outer edge of the image.

Figure 112016126461944-pat00010
Figure 112016126461944-pat00010

표 10에서는, 가상 터치 인식 시스템에서 제안된 방법들을 적용하여 총 처리 시간을 비교하였다. 이 때, 본 발명의 제안된 이진화, 라벨링 방법을 적용하였을 때, 총 처리시간이 31ms로써, 실시간으로 가상 터치를 수행할 수 있다. 이 때 도 7과 같이 터치 중일 때 가상 터치 인식 속도가 비약적으로 빨라지는 것을 확인할 수 있다.Table 10 compares the total processing time by applying the methods proposed in the virtual touch recognition system. At this time, when the proposed binarization and labeling method of the present invention is applied, the virtual touch can be performed in real time with a total processing time of 31 ms. In this case, as shown in FIG. 7, it can be seen that the speed of recognition of the virtual touch is drastically increased during the touch.

Figure 112016126461944-pat00011
Figure 112016126461944-pat00011

상기의 내용에서 확인한 바와 같이 임베디드 기기를 이용하여 가상 터치 인식 시스템을 임베디드 환경에서 구현한다. 이를 통해 깊이 인식 기기를 소형화하여 범용적으로 가상 터치 인식을 수행할 수 있도록 한다. 임베디드 환경에서 해상도가 높아짐에 따라 실시간 가상 터치 인식 처리를 할 수 없는 문제를 발견하였다. 이러한 문제를 해결하기 위해, 가상 터치 인식 처리 과정에서 이진화와 라벨링 과정에서 대부분의 시간이 소요된다는 것을 확인하여, 가상 터치에 알맞게 이진화와 라벨링 과정을 개선한다. 그 결과 기존 640x480 깊이 영상에서 프레임 당 처리시간이 기존 78ms 걸리던 것에서 제안된 방법을 적용한 결과 31ms로 측정되어 처리속도가 60.3%만큼 단축된 것을 확인할 수 있다. 또한 제안된 방법을 적용함으로써 실시간 가상 터치 인식 시스템을 구현할 수 있다.As described above, the virtual touch recognition system is implemented in an embedded environment using an embedded device. This makes it possible to miniaturize the depth recognition device and perform virtual touch recognition in general. As the resolution increases in the embedded environment, we found a problem that real - time virtual touch recognition processing can not be performed. In order to solve this problem, it is confirmed that most of the time is consumed in the binarization and labeling process in the virtual touch recognition process, and the binarization and the labeling process are improved in accordance with the virtual touch. As a result, in the conventional 640x480 depth image, the processing time per frame was 78ms, and the proposed method was measured as 31ms, which shows that the processing speed is reduced by 60.3%. Also, real - time virtual touch recognition system can be realized by applying the proposed method.

실시간 가상 터치 인식 기기를 임베디드 환경에서 구현함에 따라 기존 값비싼 물리적 터치스크린을 충분히 대체할 수 있다는 것을 보인다. 이에 따라 대형 스크린 환경에서도 터치 인터페이스를 값싸게 도입할 수 있게 되어 터치 응용 분야에 널리 이용될 것으로 기대된다.
Real-time virtual touch recognition devices are implemented in an embedded environment, which can sufficiently replace existing physical touch screens. Accordingly, the touch interface can be introduced at a low cost even in a large screen environment, and it is expected to be widely used in a touch application field.

따라서, 본 발명에 의한 임베디드 환경의 실시간 가상 터치 인식 시스템 및 이를 이용한 실시간 가상 터치 인식 방법에 의하면, 기존의 임베디드 환경에서 해상도가 증가함에 따라 가상 터치 처리 시간이 프레임 간 간격보다 크게 되어 실시간으로 가상 터치 인식이 불가능하였던 문제점이 개선되어 임베디드 환경에서 실시간으로 가상 터치가 가능한 효과가 있고, 실제 터치가 가능한 지점만 이진화하여 기존 방법에 비해 터치 범위가 좁아 처리 속도가 현저하게 빨라지는 효과가 있으며, 객체가 처음 나타났을 때를 시작점으로 하여 라벨링을 시작하는 방법을 적용하여 처리 속도가 현저하게 빨라지는 효과가 있다. 아울러, 임베디드 환경에서 실시간으로 가상 터치를 구현함으로서 저렴한 경비로 다양한 분야에 접목이 가능함과 동시에 이동성이 용이한 효과가 있다.Accordingly, according to the real-time virtual touch recognition system of the embedded environment and the real-time virtual touch recognition method using the embedded environment according to the present invention, as the resolution increases in the existing embedded environment, the virtual touch processing time becomes larger than the inter- There is an effect that the virtual touch can be performed in real time in the embedded environment and only the point where the actual touch is possible is binarized so that the touch range is narrower than the existing method and the processing speed is remarkably accelerated, The processing speed is remarkably increased by applying the method of starting the labeling with the starting point as the starting point. In addition, realization of virtual touch in real time in an embedded environment can be applied to various fields at low cost and easy mobility.

개시된 내용은 예시에 불과하며, 특허청구범위에서 청구하는 청구의 요지를 벗어나지 않고 당해 기술분야에서 통상의 지식을 가진 자에 의하여 다양하게 변경 실시 될 수 있으므로, 개시된 내용의 보호범위는 상술한 특정의 실시예에 한정되지 않는다.
It is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the appended claims. It is not limited to the embodiment.

10: 깊이 측정 센서
20: 가상 터치 인식 프로세스
30: 제어 장치
S10: 깊이 영상 촬영부
S20: 배경 저장부
S30: 이진화부
S40: 라벨링부
S50: 터치 감지부
S60: 캘리브레이션 부
S70: 터치 위치 보정부
S80: 터치 전송부
10: Depth measuring sensor
20: Virtual Touch Recognition Process
30: Control device
S10: Depth image shooting section
S20: background storage unit
S30: binarization unit
S40: Labeling unit
S50:
S60:
S70: Touch position correcting section
S80:

Claims (6)

임베디드 기기의 터치 센서 영역에 대한 배경 깊이 영상을 촬영하는 깊이 영상 촬영부(S10);
상기 터치 센서 영역의 배경 깊이 영상을 저장하는 배경 저장부(S20);
상기 배경 저장부(S20)에 저장된 배경 깊이 영상과 상기 깊이 영상 촬영부(S10)로 촬영된 촬영 깊이 영상을 비교하여 각 객체에 대한 이진 영상을 생성하는 이진화부(S30);
상기 이진화부(S30)에서 생성된 이진 영상의 각각의 객체에 대해 깊이 영상을 구분하여 그룹화하며 라벨링을 수행하는 라벨링부(S40);
상기 라벨링부(S40)로부터 생성된 각각의 객체에 대해 터치 여부를 탐지하는 터치 감지부(S50);
상기 터치 감지부(S50)에서 인식된 각각의 객체에 대한 깊이 영상을 깊이 영상과 터치 영역간의 위치적 관계에 따라 터치 위치를 보정하는 터치 위치 보정부(S60);
상기 터치 위치 보정부로부터 검출된 상기 깊이 영상과 터치 영역간의 위치적 관계를 설정하는 캘리브레이션부(S70); 및
상기 터치 위치 보정부(S60)로부터 검출된 가상 터치 정보를 제어 장치로 전송하는 터치 전송부(S80);를 포함하며,
상기 이진화부(S30)는 드래그를 위한 처음 터치점으로부터 다음 터치점으로의 최대 이동 거리로 허용된 실제 터치 영역에 대한 부분 영역을 이진화하되,
상기 이진화 과정에서 이전 터치점을 중심으로 다음 터치를 하기 위해 최대로 갈 수 있는 거리의 범위 내의 영상만을 이진화 하고,
직전 프레임의 가상 터치 정보가 없을 때는, 전 영역에 대해 이진화를 수행하고,
직전 프레임의 가상 터치 정보가 존재할 때는, 최대 허용 픽셀 거리 영역만큼만 이진화를 수행하며,
상기 라벨링부(S40)는, 상기 이진화부(S30)에서 생성된 상기 객체 중 첫 객체가 출연한 위치 정보에 대해 라벨링을 수행하여 상기 객체가 터치된 시작점이 판단되도록 하며, 상기 객체의 터치 영역 크기가 검색 영역보다 큰 경우 잡음이 아니라 판단하고 라벨링을 중단함으로써 터치점 검출을 위한 단계가 이행되도록 하는 것을 특징으로 하는 임베디드 환경의 실시간 가상 터치 인식 시스템.
A depth image capturing unit (S10) for capturing a background depth image of a touch sensor area of the embedded device;
A background storage unit (S20) for storing a background depth image of the touch sensor area;
A binarization unit (S30) for generating a binary image for each object by comparing a background depth image stored in the background storage unit (S20) with a depth image taken by the depth image capturing unit (S10);
A labeling unit (S40) for labeling and grouping depth images for each object of the binary image generated in the binarization unit (S30) and performing labeling;
A touch sensing unit S50 for detecting whether or not each object generated from the labeling unit S40 is touched;
A touch position correcting unit (S60) for correcting the touch position according to a positional relationship between the depth image and the touch region, the depth image for each object recognized by the touch sensing unit (S50);
A calibration unit (S70) for setting a positional relationship between the depth image detected from the touch position correcting unit and the touch region; And
And a touch transmission unit (S80) for transmitting the virtual touch information detected by the touch position correcting unit (S60) to the control device,
The binarization unit S30 binarizes the partial region for the actual touch region allowed by the maximum movement distance from the first touch point to the next touch point for dragging,
In the binarization process, only an image within a range of the maximum distance to touch the next touch point is binarized,
When there is no virtual touch information of the immediately preceding frame, the entire area is binarized,
When the virtual touch information of the immediately preceding frame exists, binarization is performed only by the maximum allowable pixel distance region,
The labeling unit S40 labels the position information of the first object among the objects generated in the binarization unit S30 to determine a starting point where the object is touched, Is judged to be noise and the labeling is stopped, the step for detecting the touch point is executed.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020160177206A 2016-12-22 2016-12-22 Method of Real-time Virtual Touch Recognition system for Embedded Environment and system For Real-time Virtual Touch Recognition Using This Method KR101869507B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160177206A KR101869507B1 (en) 2016-12-22 2016-12-22 Method of Real-time Virtual Touch Recognition system for Embedded Environment and system For Real-time Virtual Touch Recognition Using This Method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160177206A KR101869507B1 (en) 2016-12-22 2016-12-22 Method of Real-time Virtual Touch Recognition system for Embedded Environment and system For Real-time Virtual Touch Recognition Using This Method

Publications (1)

Publication Number Publication Date
KR101869507B1 true KR101869507B1 (en) 2018-06-20

Family

ID=62769620

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160177206A KR101869507B1 (en) 2016-12-22 2016-12-22 Method of Real-time Virtual Touch Recognition system for Embedded Environment and system For Real-time Virtual Touch Recognition Using This Method

Country Status (1)

Country Link
KR (1) KR101869507B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101386655B1 (en) 2013-01-30 2014-04-17 전자부품연구원 3d space touch system and method
KR20150059423A (en) * 2013-11-22 2015-06-01 동의대학교 산학협력단 Virtual Touch Sensor Using Depth Information and Method for controlling the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101386655B1 (en) 2013-01-30 2014-04-17 전자부품연구원 3d space touch system and method
KR20150059423A (en) * 2013-11-22 2015-06-01 동의대학교 산학협력단 Virtual Touch Sensor Using Depth Information and Method for controlling the same
KR101536673B1 (en) 2013-11-22 2015-07-15 동의대학교 산학협력단 Virtual Touch Sensor Using Depth Information and Method for controlling the same

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
3. 권순각, 이동석 2016. "임베디드 환경에서 실시간 가상 터치 인식 시스템의 구현", 멀티미디어확회논문지 제19권 제10호

Similar Documents

Publication Publication Date Title
US10534957B2 (en) Eyeball movement analysis method and device, and storage medium
EP2843510B1 (en) Method and computer-readable recording medium for recognizing an object using captured images
US9076056B2 (en) Text detection in natural images
Patruno et al. People re-identification using skeleton standard posture and color descriptors from RGB-D data
US9183431B2 (en) Apparatus and method for providing activity recognition based application service
CN106648078B (en) Multi-mode interaction method and system applied to intelligent robot
CN108875517B (en) Video processing method, device and system and storage medium
US8965051B2 (en) Method and apparatus for providing hand detection
CN109727275B (en) Object detection method, device, system and computer readable storage medium
CN106803083B (en) Pedestrian detection method and device
JP2014206930A (en) Gesture recognition device, gesture recognition method, electronic apparatus, control program, and recording medium
JPWO2011007390A1 (en) Image processing apparatus and interface apparatus
US10650234B2 (en) Eyeball movement capturing method and device, and storage medium
JP5936561B2 (en) Object classification based on appearance and context in images
WO2019033570A1 (en) Lip movement analysis method, apparatus and storage medium
JP2017123163A (en) Image recognition apparatus
JP2019164842A (en) Human body action analysis method, human body action analysis device, equipment, and computer-readable storage medium
WO2019033568A1 (en) Lip movement capturing method, apparatus and storage medium
JP2015219879A (en) Image recognition system, image recognition method, and program
CN111382637A (en) Pedestrian detection tracking method, device, terminal equipment and medium
JP2013037539A (en) Image feature amount extraction device and program thereof
CN109711287B (en) Face acquisition method and related product
CN114937285A (en) Dynamic gesture recognition method, device, equipment and storage medium
US11948088B2 (en) Method and apparatus for image recognition
CN104598289B (en) A kind of recognition methods and a kind of electronic equipment

Legal Events

Date Code Title Description
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant