KR102450977B1 - 깊이 영상 기반의 안전 시스템 및 그 제어방법 - Google Patents

깊이 영상 기반의 안전 시스템 및 그 제어방법 Download PDF

Info

Publication number
KR102450977B1
KR102450977B1 KR1020220063818A KR20220063818A KR102450977B1 KR 102450977 B1 KR102450977 B1 KR 102450977B1 KR 1020220063818 A KR1020220063818 A KR 1020220063818A KR 20220063818 A KR20220063818 A KR 20220063818A KR 102450977 B1 KR102450977 B1 KR 102450977B1
Authority
KR
South Korea
Prior art keywords
disparity map
depth image
target area
camera
operating device
Prior art date
Application number
KR1020220063818A
Other languages
English (en)
Inventor
이상준
김재천
Original Assignee
(주)잉클
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)잉클 filed Critical (주)잉클
Priority to KR1020220063818A priority Critical patent/KR102450977B1/ko
Application granted granted Critical
Publication of KR102450977B1 publication Critical patent/KR102450977B1/ko

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B30PRESSES
    • B30BPRESSES IN GENERAL
    • B30B15/00Details of, or accessories for, presses; Auxiliary measures in connection with pressing
    • B30B15/26Programme control arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 깊이 영상 기반의 안전 시스템 및 그 제어방법에 관한 것이다. 본 발명의 일 실시예에 따른 시스템은 프레스 장비에서의 프레스 작업의 안전을 위한 시스템으로서, 메모리; 및 상기 메모리에 저장된 정보를 이용하여 제어를 수행하는 제어부;를 포함하며, 상기 제어부는 프레스 장비의 대상 영역에 대해 촬영한 카메라의 영상 정보를 기반으로 깊이 영상을 획득하며, 획득된 깊이 영상을 이용하여 상기 대상 영역에서의 사물 또는 사람 신체 적어도 일부에 해당하는 대상물의 존재 유무에 대한 분석을 수행하도록 제어한다.

Description

깊이 영상 기반의 안전 시스템 및 그 제어방법{DEPTH IMAGE BASED SAFETY SYSTEM AND METHOD FOR CONTROLLING THE SAME}
본 발명은 깊이 영상 기반의 안전 시스템 및 그 제어방법에 관한 것으로서, 더욱 상세하게는 깊이 영상(depth image)을 이용하여 프레스 장비(press equipment) 내 사람 등의 존재여부를 감지하여 통보함으로써 프레스 작업 중에 발생할 수 있는 안전 사고를 예방하기 위한 시스템 및 그 제어방법에 관한 것이다.
통상적으로, 프레스 작업 중의 안전 사고는 상금형이 하강하여 하금형과 만나는 그 순간 상금형과 하금형 사이의 지점에 사람의 손 등이 들어가면서 발생한다. 이러한 안전 사고를 방지하기 위해, 프레스 장비의 하행정 중 위험 부위에 사람의 손 등이 들어가면 이를 기계적으로 쳐내는 기계적 방식이나, 사람 등을 센서로 감지하여 하행정을 멈추게 하는 센서 방식의 프레스용 안전 시스템을 사용한다.
다만, 라이트 커튼 등과 같은 종래의 센서 방식의 프레스용 안전 시스템은 사람의 통과 유무만을 측정하는 센서 장비이므로, 작업자가 센서를 우회하거나 임의적인 센서 조작에 의해 센서 신호가 차단되는 상황 등이 발생할 수 있다. 특히, 대형 프레스 장비에서 이러한 상황이 발생할 경우, 내부에 사람의 존재여부가 미확인된 상태에서 해당 장비가 작동되면서 대형 사고로 이어질 수 있다.
또한, CCTV 등을 이용한 방식의 프레스용 안전 시스템도 있다. 하지만, 이러한 안전 시스템은 다수의 CCTV를 관리자가 실시간으로 감시해야 하는 방식이므로, 모든 화면에 대한 정밀한 감시가 불가능할 뿐 아니라, 관리자의 피로도가 증가되면서 관리자의 실수가 발생할 수 있는 등의 문제점이 있다.
이에 따라, 레이더 등의 전파를 이용한 방식의 프레스용 안전 시스템이 개발되고 있다. 하지만, 이러한 안전 시스템은 프레스 장비에서 발생하는 자기장에 의해 전파가 왜곡될 뿐 아니라, 고성능의 장치 구성이 필요하여 전체 시스템의 설치 및 유지 비용이 증가하게 되는 문제점이 있다.
다만, 상술한 내용은 단순히 본 발명에 대한 배경 정보를 제공할 뿐 기 공개된 기술에 해당하는 것은 아니다.
상기한 바와 같은 종래 기술의 문제점을 해결하기 위하여, 본 발명은 관리가 쉬울 뿐 아니라 프레스 작업 중의 위험 상황에 대한 감지가 빠르고 정확하여 프레스 작업 중의 안전 사고를 완벽에 가깝게 예방할 수 있는 기술을 제공하는데 그 목적이 있다.
즉, 본 발명은 깊이 영상(depth image)을 이용하여 프레스 장비(press equipment) 내 사람 등의 존재여부를 감지하여 통보함으로써 프레스 작업 중에 발생할 수 있는 안전 사고를 예방할 수 있는 기술을 제공하는데 그 목적이 있다.
다만, 본 발명이 해결하고자 하는 과제는 이상에서 언급한 과제에 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
상기와 같은 과제를 해결하기 위한 본 발명의 일 실시예에 따른 시스템은 프레스 장비에서의 프레스 작업의 안전을 위한 시스템으로서, 메모리; 및 상기 메모리에 저장된 정보를 이용하여 제어를 수행하는 제어부;를 포함하며, 상기 제어부는 프레스 장비의 대상 영역에 대해 촬영한 카메라의 영상 정보를 기반으로 깊이 영상을 획득하며, 획득된 깊이 영상을 이용하여 상기 대상 영역에서의 사물 또는 사람 신체 적어도 일부에 해당하는 대상물의 존재 유무에 대한 분석을 수행하도록 제어한다.
상기 카메라는 깊이 카메라일 수 있다.
상기 카메라는 다수의 광학 카메라로 구현되며, 상기 제어부는 상기 다수의 광학 카메라에서 촬영된 영상 정보를 이용하여 스테레오 비전 방식을 기반으로 상기 깊이 영상을 생성할 수 있다.
상기 제어부는 획득된 깊이 영상을 이용하여 V Disparity Map 또는 U Disparity Map를 포함하는 시차 맵을 생성하며, 생성된 시차 맵을 이용하여 상기 분석을 수행할 수 있다.
V Disparity Map은 깊이 영상에 대해 좌우 측면에서 바라본 형태의 Disparity Map 정보를 제공하며, U Disparity Map은 깊이 영상에 대해 상하에서 바라본 형태의 Disparity Map 정보를 제공한다.
상기 제어부는 상기 대상 영역에서 대상물이 상하/앞뒤로 이동하면 상하/좌우로 이동하는 V Disparity Map 내의 데이터 분포를 기반으로 대상물의 이동이나 그 존재 유무를 감지할 수 있다.
상기 제어부는 상기 대상 영역에서 좌우/앞뒤로 이동하면 상하/좌우 이동하는 U Disparity Map 내의 데이터 분포를 기반으로 대상물의 이동이나 그 존재 유무를 감지할 수 있다.
본 발명의 일 실시예에 따른 시스템은 다른 장치와 통신하여 상기 대상 영역에 대한 분석 결과를 전송하는 통신부를 더 포함할 수 있다.
상기 다른 장치는 관리자 단말이며, 상기 대상 영역에 대상물이 있는 것으로 분석된 경우에 상기 분석 결과를 수신하면 이에 대한 알람을 발생시킬 수 있다.
상기 다른 장치는 상기 프레스 장비이며, 상기 대상 영역에 대상물이 있는 것으로 분석된 경우에 상기 분석 결과를 수신하면 프레스 작업을 일시 중지할 수 있다.
본 발명의 다른 일 실시예에 따른 시스템은 프레스 장비에서의 프레스 작업의 안전을 위한 시스템으로서, 프레스 장비의 대상 영역에 대해 촬영하는 카메라; 및 상기 카메라에서 촬영된 영상 정보를 기반으로 깊이 영상을 획득하며, 획득된 깊이 영상을 이용하여 상기 대상 영역에서의 사물 또는 사람 신체 적어도 일부에 해당하는 대상물의 존재 유무에 대한 분석을 수행하는 운영 장치;를 포함한다.
본 발명의 일 실시예에 따른 제어방법은 프레스 장비에서의 프레스 작업의 안전을 위한 시스템의 제어방법으로서, 운영 장치가 프레스 장비의 대상 영역에 대해 촬영한 카메라의 영상 정보를 수신하는 단계; 상기 운영 장치가 상기 카메라의 영상 정보를 기반으로 깊이 영상을 획득하는 단계; 및 상기 운영 장치가 획득된 깊이 영상을 이용하여 상기 대상 영역에서의 사물 또는 사람 신체 적어도 일부에 해당하는 대상물의 존재 유무에 대한 분석을 수행하는 단계;를 포함한다.
상기 카메라는 깊이 카메라일 수 있다.
상기 카메라는 다수의 광학 카메라로 구현되며, 본 발명의 일 실시예에 따른 제어방법은 상기 운영 장치가 상기 다수의 광학 카메라에서 촬영된 영상 정보를 이용하여 스테레오 비전 방식을 기반으로 상기 깊이 영상을 생성하는 단계를 더 포함할 수 있다.
본 발명의 일 실시예에 따른 제어방법은 상기 운영 장치가 획득된 깊이 영상을 이용하여 V Disparity Map 또는 U Disparity Map를 포함하는 시차 맵을 생성하는 단계를 더 포함하며, 상기 분석을 수행하는 단계는 생성된 시차 맵을 이용하여 상기 분석을 수행하는 단계를 포함할 수 있다.
상기 분석을 수행하는 단계는 상기 대상 영역에서 대상물이 상하/앞뒤로 이동하면 상하/좌우로 이동하는 V Disparity Map 내의 데이터 분포를 기반으로 대상물의 이동이나 그 존재 유무를 감지하는 단계를 포함할 수 있다.
상기 분석을 수행하는 단계는 상기 대상 영역에서 대상물이 좌우/앞뒤 이동하면 상하/좌우로 이동하는 U Disparity Map 내의 데이터 분포를 기반으로 대상물의 이동이나 그 존재 유무를 감지하는 단계를 포함할 수 있다.
본 발명의 일 실시예에 따른 제어방법은 상기 운영 장치가 다른 장치와 통신하여 상기 대상 영역에 대한 분석 결과를 전송하는 단계를 더 포함할 수 있다.
상기와 같이 구성되는 본 발명은 관리가 쉬울 뿐 아니라 프레스 작업 중의 위험 상황에 대한 감지가 빠르고 정확하여 프레스 작업 중의 안전 사고를 완벽에 가깝게 예방할 수 있는 이점이 있다.
즉, 본 발명은 깊이 영상(depth image)을 이용하여 프레스 장비(press equipment) 내 사람 등의 존재여부를 감지하여 통보함으로써 프레스 작업 중에 발생할 수 있는 안전 사고를 예방할 수 있다.
이에 따라, 본 발명은 종래의 센서 방식의 안전 장치에서 발생하는 센서 오동작으로 인한 오인식 문제와, 작업자의 임의적인 센서 조작으로 인한 문제 등을 해결할 수 있을 뿐 아니라, 관리자의 피로도로 인한 실수 발생을 미연에 방지할 수 있는 이점이 있다.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.
도 1은 본 발명의 일 실시예에 따른 시스템(10)의 블록 구성도를 나타낸다.
도 2는 운영 장치(200)의 블록 구성도를 나타낸다.
도 3은 본 발명의 일 실시예에 따른 운영 장치(200)의 제어부(250)의 블록 구성도를 나타낸다.
도 4는 본 발명의 일 실시예에 따른 제어방법의 순서도를 나타낸다.
도 5는 물체가 없는 도로의 깊이 영상과 그에 대한 V Disparity Map의 일 예를 나타낸다.
도 6은 물체가 있는 도로의 깊이 영상과 그에 대한 V Disparity Map의 일 예를 나타낸다.
도 7은 물체가 없는 도로의 깊이 영상과 그에 대한 U Disparity Map의 일 예를 나타낸다.
도 8은 물체가 있는 도로의 깊이 영상과 그에 대한 U Disparity Map의 일 예를 나타낸다.
도 9는 깊이 영상과 V Disparity Map에 대한 일 예를 나타낸다.
도 10은 깊이 영상과 V Disparity Map에 대한 다른 일 예를 나타낸다.
본 발명의 상기 목적과 수단 및 그에 따른 효과는 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략하기로 한다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며, 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 경우에 따라 복수형도 포함한다. 본 명세서에서, "포함하다", "구비하다", "마련하다" 또는 "가지다" 등의 용어는 언급된 구성요소 외의 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.
본 명세서에서, "또는", "적어도 하나" 등의 용어는 함께 나열된 단어들 중 하나를 나타내거나, 또는 둘 이상의 조합을 나타낼 수 있다. 예를 들어, "A 또는 B", "A 및 B 중 적어도 하나"는 A 또는 B 중 하나만을 포함할 수 있고, A와 B를 모두 포함할 수도 있다.
본 명세서에서, "예를 들어" 등에 따르는 설명은 인용된 특성, 변수, 또는 값과 같이 제시한 정보들이 정확하게 일치하지 않을 수 있고, 허용 오차, 측정 오차, 측정 정확도의 한계와 통상적으로 알려진 기타 요인을 비롯한 변형과 같은 효과로 본 발명의 다양한 실시예에 따른 발명의 실시 형태를 한정하지 않아야 할 것이다.
본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 기재된 경우, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성 요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 명세서에서, 어떤 구성요소가 다른 구성요소의 '상에' 있다거나 '접하여' 있다고 기재된 경우, 다른 구성요소에 상에 직접 맞닿아 있거나 또는 연결되어 있을 수 있지만, 중간에 또 다른 구성요소가 존재할 수 있다고 이해되어야 할 것이다. 반면, 어떤 구성요소가 다른 구성요소의 '바로 위에' 있다거나 '직접 접하여' 있다고 기재된 경우에는, 중간에 또 다른 구성요소가 존재하지 않은 것으로 이해될 수 있다. 구성요소 간의 관계를 설명하는 다른 표현들, 예를 들면, '~사이에'와 '직접 ~사이에' 등도 마찬가지로 해석될 수 있다.
본 명세서에서, '제1', '제2' 등의 용어는 다양한 구성요소를 설명하는데 사용될 수 있지만, 해당 구성요소는 위 용어에 의해 한정되어서는 안 된다. 또한, 위 용어는 각 구성요소의 순서를 한정하기 위한 것으로 해석되어서는 안되며, 하나의 구성요소와 다른 구성요소를 구별하는 목적으로 사용될 수 있다. 예를 들어, '제1구성요소'는 '제2구성요소'로 명명될 수 있고, 유사하게 '제2구성요소'도 '제1구성요소'로 명명될 수 있다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일 실시예를 상세히 설명하도록 한다.
도 1은 본 발명의 일 실시예에 따른 시스템(10)의 블록 구성도를 나타낸다.
본 발명의 일 실시예에 따른 시스템(10)(이하, "본 시스템"이라 지칭함)은 프레스 장비(press equipment, PE)에서의 프레스 작업 중에 발생할 수 있는 안전 사고를 방지하기 위한 안전 시스템이다. 즉, 본 시스템(10)은 깊이 영상(depth image)을 이용하여 프레스 장비(PE) 내부에 사람 등의 존재여부를 감지하여 통보함으로써 프레스 작업 중에 발생할 수 있는 안전 사고를 예방하기 위한 시스템이다. 이때, 프레스 장비(PE)의 내부는 상금형과 하금형 사이의 영역에 해당할 수 있다. 이러한 본 시스템(10)은, 도 1에 도시된 바와 같이, 다수의 카메라(100)와 운영 장치(200)를 포함할 수 있다.
카메라(100)는 프레스 장비(PE)의 내부 또는 주변의 지점에 설치된 카메라이다. 이러한 카메라(100)는 적어도 하나가 마련되며, 다수의 지점에 각각 설치된 다수 개(100-1, … 100-n)(단, n은 2이상의 자연수)가 구비될 수도 있다. 즉, 어느 하나의 지점에 적어도 하나의 카메라(100)가 설치될 수 있다. 이러한 카메라(100)는 유선 또는 무선 전송 통로를 통해 운영 장치(200)로 그 촬영된 영상 정보를 전송한다. 또한, 카메라(100)는 내부 네트워크나 인터넷 등의 외부 네트워크를 통해 그 촬영된 영상 정보를 운영 장치(200)로 전송할 수도 있다. 일례로, 카메라(100)는 프레스 장비(PE) 내부, 즉 상금형과 하금형 사이의 영역을 촬영하도록 배치될 수 있다.
카메라(100)는 깊이 영상(depth image)를 촬영하여 해당 깊이 영상 정보를 운영 장치(200)로 전달하는 깊이 카메라인 것이 바람직하나, 이에 한정되는 것은 아니며, 일반적인 광학 카메라일 수도 있다. 일례로, 깊이 카메라는 TOF(Time Of Flight) 방식을 사용하는 카메라이거나 Structured Pattern 방식을 사용하는 카메라일 수 있으나, 이에 한정되는 것은 아니다.
TOF 방식의 카메라는 장면의 모든 픽셀에 대한 변조 된 광 신호의 지연 또는 위상 시프트를 측정하여 이동 시간 정보를 획득한다. 일반적으로 이 광 신호는 인간의 시력을 방해하지 않도록 스펙트럼의 근적외선 부분에 위치하며, TOF 카메라의 센서는 각 픽셀이 장면까지의 거리를 결정할 수 있는 픽셀 배열로 구성된다. 각 픽셀은 전송 된 신호에 대해 수신 된 광 신호의 지연을 측정하며, 상관 함수는 각 픽셀에서 수행되고 평균 또는 적분이 수행된다. 결과 상관 값은 이동 시간 또는 지연을 나타낸다.
Structured Pattern 방식의 카메라는 구조화된 빛 기반 3D 센서 스캐닝 방식으로서, 자체 전자기 복사를 생성하고 물체에서 이 복사의 반사를 분석하는 방식이며, Microsoft의 Kinect 등이 대표적이다. 즉, 구조화된 빛의 패턴이 대상에 투사되고 이미지 센서로 결과 이미지를 캡처하는 광학 3D 스캐닝 방식이다.
한편, 카메라(100)가 광학 카메라로 구현된 경우, 운영 장치(200)에서 해당 광학 영상 정보에 대한 영상 처리를 통한 깊이 영상 정보를 획득할 수 있도록, 카메라(100)는 다수 지점에 각각 설치된 다수 개가 구비되는 것이 바람직할 수 있다. 일례로, 카메라(100)는 2개의 광학 카메라가 이격된 지점에 각각 배치된 스테레오 카메라 형태로 구현될 수도 있다.
운영 장치(200)는 카메라(100)에서 촬영된 영상 정보를 수신하여 처리하는 장치이다. 이러한 운영 장치(200)는 카메라(100)를 제어할 수도 있다. 일례로, 운영 장치(200)는 수신된 영상 정보를 그 디스플레이를 통해 표시할 수 있으며, 후술할 영상 처리를 수행하되 해당 영상 처리 및 분석의 과정과 그 결과 등을 그 디스플레이를 통해 표시할 수 있다. 즉, 운영 장치(200)는 카메라(100)에 대한 제어 처리 또는 카메라(100)에서 촬영된 영상 정보에 대한 영상 처리 및 분석을 수행하는 장치로서, 컴퓨팅(computing)이 가능한 전자 장치일 수 있다.
예를 들어, 전자 장치는 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 태블릿 PC(tablet personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), PDA(personal digital assistant), 스마트폰(smartphone), 스마트패드(smartpad), 또는 휴대폰(mobile phone), 등의 범용의 컴퓨팅 장치일 수 있고, 임베디드 리눅스(Embeded Linux) 등을 기반으로 구현된 전용의 임베디드 시스템일 수도 있으나, 이에 한정되는 것은 아니다.
도 2는 운영 장치(200)의 블록 구성도를 나타낸다.
또한, 운영 장치(200)는, 도 2에 도시된 바와 같이, 입력부(210), 통신부(220), 디스플레이(230), 메모리(240) 및 제어부(250)를 포함할 수 있다.
입력부(210)는 다양한 사용자의 입력에 대응하여, 입력데이터를 발생시키며, 다양한 입력수단을 포함할 수 있다.
예를 들어, 입력부(110)는 키보드(key board), 키패드(key pad), 돔 스위치(dome switch), 터치 패널(touch panel), 터치 키(touch key), 터치 패드(touch pad), 마우스(mouse), 메뉴 버튼(menu button) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
통신부(220)는 단말 등 다른 장치와의 통신을 수행하는 구성이다. 일례로, 통신부(220)는 제어부(250)의 제어 동작을 위해 필요한 다양한 데이터를 다른 장치로부터 수신할 수 있다. 또한, 통신부(200)는 운영 장치(200)에서의 영상 처리 또는 분석 결과에 대한 데이터를 다른 장치로 전송할 수 있다.
예를 들어, 통신부(220)는 5G(5th generation communication), LTE-A(long term evolution-advanced), LTE(long term evolution), 블루투스, BLE(Bluetooth low energy), NFC(near field communication), 와이파이(WiFi) 통신 등의 무선 통신을 수행하거나, 케이블 통신 등의 유선 통신을 수행할 수 있으나, 이에 한정되는 것은 아니다.
디스플레이(230)는 다양한 영상 데이터를 화면으로 표시하는 것으로서, 비발광형 패널이나 발광형 패널로 구성될 수 있다. 즉, 디스플레이(230)는 제어부(250)에서의 영상 처리 또는 분석에 따른 영상 데이터를 표시할 수 있다.
예를 들어, 디스플레이(230)는 액정 디스플레이(LCD; liquid crystal display), 발광 다이오드(LED; light emitting diode) 디스플레이, 유기 발광 다이오드(OLED; organic LED) 디스플레이, 마이크로 전자기계 시스템(MEMS; micro electro mechanical systems) 디스플레이, 또는 전자 종이(electronic paper) 디스플레이 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 또한, 디스플레이(230)는 입력부(120, 220)와 결합되어 터치 스크린(touch screen) 등으로 구현될 수도 있다.
메모리(240)는 운영 장치(200)의 동작에 필요한 각종 정보를 저장한다. 메모리(240)의 저장 정보로는 카메라(100)로부터 수신되는 영상 정보, 통신부(220)를 통해 다른 장치와 송수신하는 정보, 제어부(250)의 제어 동작을 위한 정보, 제어부(250)에서 영상 처리 및 분석되는 정보, 후술할 제어방법에 관련된 프로그램 정보 등이 포함될 수 있으나, 이에 한정되는 것은 아니다.
예를 들어, 메모리(240)는 그 유형에 따라 하드디스크 타입(hard disk type), 마그네틱 매체 타입(magnetic media type), CD-ROM(compact disc read only memory), 광 기록 매체 타입(optical Media type), 자기-광 매체 타입(magneto-optical media type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 플래시 메모리 타입(flash memory type), 롬 타입(read only memory type), 또는 램 타입(random access memory type) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다. 또한, 메모리(240)는 그 용도/위치에 따라 캐시(cache), 버퍼, 주기억장치, 또는 보조기억장치이거나 별도로 마련된 저장 시스템일 수 있으나, 이에 한정되는 것은 아니다.
제어부(250)는 운영 장치(200)의 다양한 제어 동작을 수행할 수 있다. 즉, 제어부(250)는 제어부(250)는 카메라(100)에 대한 제어를 수행하거나, 카메라(100)에서 촬영된 영상 정보에 대한 영상 처리 및 분석을 제어할 수 있으며, 후술할 제어방법의 수행을 제어할 수 있다. 또한, 제어부(250)는 운영 장치(200)의 나머지 구성, 즉 입력부(210), 통신부(220), 디스플레이(230), 메모리(240) 등의 동작을 제어할 수 있다. 예를 들어, 제어부(250)는 하드웨어인 프로세서(processor) 또는 해당 프로세서에서 수행되는 소프트웨어인 프로세스(process) 등을 포함할 수 있으나, 이에 한정되는 것은 아니다.
도 3은 본 발명의 일 실시예에 따른 운영 장치(200)의 제어부(250)의 블록 구성도를 나타낸다.
후술할 다양한 제어 동작을 위해 제어부(250)는, 도 3에 도시된 바와 같이, 카메라 제어부(251), 영상 생성부(252), 맵 생성부(253), 물체 감지부(254) 및 통신 제어부(255)를 포함할 수 있다. 다만, 카메라(100)가 깊이 카메라인 경우에 제어부(250)는 영상 생성부(252)를 포함하지 않을 수 있다. 즉, 영상 생성부(252)는 카메라(200)가 광학 카메라로 구현된 경우에 제어부(250)에 포함될 수 있다.
예를 들어, 카메라 제어부(251), 영상 생성부(252), 맵 생성부(253), 물체 감지부(254) 및 통신 제어부(255)는 제어부(250)의 하드웨어 구성이거나, 제어부(250)에서 수행되는 소프트웨어인 프로세스일 수 있으나, 이에 한정되는 것은 아니다.
이하, 본 발명의 일 실시예에 따른 제어방법에 대해 설명하도록 한다.
도 4는 본 발명의 일 실시예에 따른 제어방법의 순서도를 나타낸다.
본 발명의 일 실시예에 따른 제어방법(이하, "본 제어방법"이라 지칭함)은 본 시스템(10)에서 수행되며, 특히 운영 장치(200)의 제어부(250)의 제어에 따라 수행되는 제어방법일 수 있다. 이러한 본 제어방법은, 도 4에 도시된 바와 같이, S410 내지 S450을 포함할 수 있다. 다만, 카메라(100)가 깊이 카메라인 경우에 S420은 생략되고, 카메라(100)가 다수의 광학 카메라로 구현된 경우에 S420이 수행될 수 있다.
먼저, S410에서, 카메라 제어부(251)는 카메라(100)의 촬영을 제어한다. 즉, 카메라 제어부(251)는 프레스 장비(PE)의 대상 영역(일례로, 내부)에 대해 카메라(100)에서 촬영된 영상 정보를 획득하도록 제어한다. 이때, 카메라(100)는 카메라 제어부(251)의 제어 신호에 따라 촬영을 수행하며, 촬영된 영상 정보를 운영 장치(200)로 전달한다. 이때, 카메라 제어부(251)는 카메라(100)의 촬영 위치 제어를 수행할 수도 있다. 일례로, 카메라 제어부(251)는 카메라(100)의 PTZ(Pan-Tilt-Zoom)에 대한 제어를 수행할 수 있다.
특히, 카메라(100)가 깊이 카메라인 경우, 카메라(100)에서 촬영된 깊이 영상 정보가 운영 장치(200)로 전달되므로, 운영 장치(200)에서는 대상 영역에 대한 깊이 영상을 바로 획득할 수 있다. 반면, 카메라(100)가 광학 카메라인 경우, 스테레오 방식으로 구현되어, S420가 추가 수행됨으로써 대상 영역에 대한 깊이 영상이 획득될 수 있다. 즉, S420에서, 영상 생성부(252)는 광학 카메라에서 촬영되어 전송된 영상 정보를 이용하여 스테레오 비전(stereo vision) 방식 기반의 깊이 영상 정보를 획득한다.
스테레오 비전 방식은 두 개의 2D 이미지 센서를 결합해서 입체 영상을 생성하는 방식으로서, 일반적인 3D 깊이 인식 센서 방식일 수 있다. 이때, 측정 대상과의 거리를 측정하기 위해 한 쌍의 거의 동일한 카메라(100)를 사용하여 카메라들(100) 사이의 시점 불일치를 이용한다. 두 카메라(100)의 시선 중심은 깊이 측정에 필요한 시차를 생성하기 위해 기준선 또는 IPD(inter-pupillary distance)로 구분하며, 일반적으로 카메라의 광학축은 서로 평행하고 원근감이 있는 평면과 직각을 이룬다.
S410 또는 S420에서 획득된 깊이 영상은 물체와 카메라 간의 거리 정보를 일정한 수치 값으로 나타낸다.
이후, S430에서, 맵 생성부(253)는 획득된 깊이 영상을 시차 맵(Disparity Map)으로 변환하는 영상 처리를 수행한다. 이때, 맵 생성부(253)는 깊이 영상을 V Disparity Map 또는 U Disparity Map으로 변환할 수 있다. 물론, 맵 생성부(253)는 V Disparity Map 및 U Disparity Map를 모두 생성할 수도 있다.
이때, V Disparity Map은 깊이 영상에 대한 세로 기준의 깊이 값 분포를 나타내며, 이는 깊이 영상을 측면에서 바라본 것과 유사한 효과를 나타낸다. 반면, U Disparity Map은 깊이 영상에 대한 가로 기준의 깊이 값 분포를 나타내며, 이는 깊이 영상을 상하에서 바라본 것과 유사한 효과를 나타낸다. 즉, V Disparity Map은 깊이 영상에 대해 좌우 측면에서 바라본 형태의 Disparity Map 정보를 제공하며, U Disparity Map은 깊이 영상에 대해 상하에서 바라본 형태의 Disparity Map 정보를 제공할 수 있다.
도 5는 물체가 없는 도로의 깊이 영상과 그에 대한 V Disparity Map의 일 예를 나타낸다. 즉, 도 5(a)는 물체가 없는 도로의 깊이 영상을 나타내고, 도 5(b)는 해당 깊이 영상의 V Disparity Map을 나타낸다.
도 5를 참조하면, V Disparity Map에서 세로 좌표는 깊이 영상의 세로 길이와 동일하다. 깊이 영상의 세로 좌표는 V Disparity Map의 Y축 좌표와 같으며, 깊이 영상의 픽셀 값(즉, 깊이 값)은 V Disparity Map의 X축 좌표가 된다.
이때, 각 세로 영역에서 깊이 영상의 가로 부분의 모든 픽셀 값을 하나씩 점검하게 된다. 만일, 0이 아닌 값이 있다면 V Disparity Map의 해당 세로 위치의 X좌표에 해당하는 Depth 위치에 1만큼의 픽셀 값이 증가(누적)된다.
일례로, 도 5(a)와 같이 도로만 있는 깊이 영상에서, 가까운 거리를 높은 값으로 설정하고 먼 거리를 낮은 값으로 설정하여 이를 V Disparity Map으로 변환한다면, 도 5(b)와 같이 해당 도로가 선형으로 나타난다. 즉, 깊이 영상 내에서 도로 영역이 먼 곳은 좁고 가까운 곳은 넓으므로, 1씩 증가하여 누적된 값에 의해 가까운 곳의 누적 값이 많아지면서 V Disparity Map에서 밝게 나타난다.
도 6은 물체가 있는 도로의 깊이 영상과 그에 대한 V Disparity Map의 일 예를 나타낸다. 즉, 도 6(a)는 물체가 있는 도로의 깊이 영상으로서, 도 5(a)에서 3개의 물체(OB1, OB2, OB3)가 더 포함된 영상을 나타내고, 도 6(b)는 해당 깊이 영상의 V Disparity Map을 나타낸다. 다만, OB1은 OB2 및 OB3와 다른 거리에 위치하며, OB2 및 OB3은 서로 동일한 거리에 위치하되 그 상하 위치만 다르다.
한편, 도 6(a)에 도시된 바와 같이, 도로에 3개의 물체(OB1, OB2, OB3)가 나타날 수 있다. 이 경우, 각 물체(OB1, OB2, OB3)는 해당 거리에서 거의 비슷한 깊이 값을 가지게 되며, 이는 누적된 값으로서 V Disparity Map에 나타나게 된다. 이때, 각 물체(OB1, OB2, OB3)에 해당하는 영역의 밝기는 각 물체(OB1, OB2, OB3)의 좌우 면적에 따라 변하게 된다.
도 7은 물체가 없는 도로의 깊이 영상과 그에 대한 U Disparity Map의 일 예를 나타낸다. 즉, 도 7(a)는 도 5(a)와 동일하게 물체가 없는 도로의 깊이 영상을 나타내고, 도 7(b)는 해당 깊이 영상의 U Disparity Map을 나타낸다.
또한, U Disparity Map은 V Disparity Map의 특징 및 생성 방법과 유사하며, 다만 그 기준 위치만 변경된다. 즉, 도 7을 참조하면, U Disparity Map에서 가로 좌표는 깊이 영상의 가로 길이와 동일하다. 깊이 영상의 가로 좌표는 U Disparity Map의 X축 좌표와 같으며, 깊이 영상의 픽셀 값(즉, 깊이 값)은 U Disparity Map의 Y축 좌표가 된다. 다만, 도 7(a)의 깊이 영상을 U Disparity Map으로 변환하면, 도 7(b)에 도시된 바와 같이, 깊이 영상에서 각 위치의 깊이 값에 대한 누적 값이 적어 눈으로 볼 수 있는 값이 만들어 지지 않는다.
도 8은 물체가 있는 도로의 깊이 영상과 그에 대한 U Disparity Map의 일 예를 나타낸다. 즉, 도 8(a)는 도 6(a)와 동일하게 물체가 있는 도로의 깊이 영상으로서, 도 7(a)에서 3개의 물체(OB1, OB2, OB3)가 더 포함된 영상을 나타내고, 도 8(b)는 해당 깊이 영상의 U Disparity Map을 나타낸다. 즉, OB1은 OB2 및 OB3와 다른 거리에 위치하며, OB2 및 OB3은 서로 동일한 거리에 위치하되 그 상하 위치만 다르다.
한편, 도 8(a)에 도시된 바와 같이, 도로에 3개의 물체(OB1, OB2, OB3)가 나타난 경우, U Disparity Map에서 각 물체(OB1, OB2, OB3)의 깊이 값 분포가 거리에 따라 바 형태로 나타난다. 이때, 밝기는 각 물체(OB1, OB2, OB3)의 세로 면적에 대비되게 나타낸다 즉, OB2 및 OB3처럼, 두 물체가 깊이 영상 내에서 동일 거리에 있을 경우, U Disparity Map에서 겹쳐지는 영역에 누적 값이 높아 해당 부분이 더 밝은 값을 가지도록 나타난다.
이후, S440에서, 물체 감지부(254)는 생성된 U/V Disparity Map 정보를 분석하여, 프레스 장비(PE)의 대상 영역에서의 물체의 유무를 감지한다. 이때, 물체는 사람의 적어도 신체 일부분 외에 다른 기타 사물도 포함할 수 있다. 일례로, 물체 감지부(254)는 U/V Disparity Map에서 기 저장된 다양한 물체 패턴과 일치하는 패턴이 있는지를 분석할 수 있다.
특히, 대상 영역에서, 물체가 상하/앞뒤로 이동하면 V Disparity Map 내의 데이터 분포는 상하/좌우로 이동하게 되며, 물체 감지부(254)는 V Disparity Map의 각 영역에서 누적된 값을 기반으로 물체의 상하/앞뒤 이동이나 존재 유무를 감지할 수 있다.
즉, 물체 감지부(254)는 V Disparity Map에서의 변화를 감지함으로써, 물체의 이동이나 존재 유무를 감지할 수 있다.
일례로, 물체 감지부(254)는 이전 V Disparity Map 영상 내 모든 유효 값 합과, 현재 V Disparity Map 영상 내 모든 유효 값 간의 차이를 이용하여 물체 존재의 유무를 판단할 수 있다. 즉, 해당 차이 값이 일정 이상(기준 값 초과)인 경우에 물체가 존재하는 것으로 판단할 수 있다.
또한, 물체 감지부(254)는 이전 V Disparity Map과 현재 V Disparity Map에서 X축마다 Y축의 누적 값을 생성하며, 해당 누적 값의 변화를 감지함으로써 물체의 이동이나 존재 유무를 감지할 수 있다.
특히, 깊이 영상 내에서 특정 영역만 한정하여 V Disparity Map으로 변환할 수도 있다. 이 경우, 거리 영역을 한정해 안정 영역과 위험 영역을 각각 설정할 수 있다. 이에 따라, 누적 값 생성 시, 각 좌표에서 일정 값 이하는 무시하여 오차 범위에 대한 조정이 가능하다.
한편, 카메라(100)의 위치는 고정될 수 있다. 이때, 깊이 영상 내 전체 영역을 감시할 경우, 정확도 향상을 위해 고정된 위치에서 설치 시 기준 영상에 해당하는 V Disparity Map의 생성이 가능하다. 다만, 기준 영상이 없을 경우, 변화가 없는 순간을 반복 확인하여 자동으로 기준 영상 정보 생성 및 갱신할 수 있다.
U Disparity Map를 이용하는 경우도 V Disparity Map를 이용하는 경우와 유사한 방식으로 변화를 감지할 수 있으며, 측정하는 물체의 방향만 다르게 나타나게 된다. 즉, 대상 영역에서, 물체가 좌우/앞뒤로 이동하면 U Disparity Map 내의 데이터 분포는 상하/좌우로 이동하게 되며, 물체 감지부(254)는 U Disparity Map의 각 영역에서 누적된 값을 기반으로 물체의 좌우/앞뒤 이동이나 존재 유무를 감지할 수 있다.
즉, 물체 감지부(254)는 U Disparity Map에서의 변화를 감지함으로써, 물체의 이동이나 존재 유무를 감지할 수 있다. 다만, 이러한 내용은 상술한 V Disparity Map에 대한 내용과 동일할 수 있다.
따라서, 본 시스템(10)이 적용되는 조건에 따라, S430 및 S440에서 U/V Disparity Map을 개별 생성 및 사용하거나, 모두 생성 및 조합하여 사용 가능하다.
특히, 물체 감지부(254)는 U/V Disparity Map에 대한 처리 결과를 조합함으로써, 물체 유무 등의 감지에 대한 정확도를 향상시킬 수 있다. 이 경우, 깊이 영상에서 순간적으로 나타날 수 있는 가로/세로 좁은 영역에서의 오류에 대한 제거가 가능하다.
물론, 물체 감지부(254)는 U/V Disparity Map 각각에 대해 임계 값(threshold)을 적용하여 임계 값 미만의 변화에 대해 무시하도록 처리할 수도 있다. 즉, 값이 미미하게 변화되는 부분은 깊이 영상에서 발생되는 미세한 측정값 변화에 의해 나타나며, 이는 모든 카메라 시스템이 가지는 공통적인 문제이다. 이에 따라, 이러한 부분은 무시하는 것이 정확도 향상에 도움이 될 수 있다. 즉, 물체 감지부(254)는 임계 값을 적용하여 임계 값을 초과하는 큰 값을 나타내는 영역만을 한정하여 감시함으로써, 물체 유무 등의 감지에 대한 정확도 향상을 제고할 수 있다.
이후, S450에서, 통신 제어부(255)는 S440에서 분석된 결과가 통신부(220)를 통해 다른 장치(가령, 관리자의 단말 등)로 전송되도록 제어한다.
일례로, 통신 제어부(255)는 대상 영역에서의 물체 유무에 대한 감지 결과를 전송할 수 있으며, 이와 함께 S210 또는 S220에서 획득된 깊이 영상이나 S230에서 생성된 U/V Disparity Map도 전송할 수 있다. 만일, S440에서 대상 영역에 물체가 있는 것으로 분석된 경우, S450에서 관리자의 단말 등으로 해당 분석 결과가 전송되면서, 해당 단말에 이를 알리는 알람 등이 발생할 수 있다.
물론, 통신 제어부(255)는 프레스 장비(PE)로 해당 분석 결과를 전송할 수 있다. 이 경우, S440에서 대상 영역에 물체가 있는 것으로 분석된 경우, S450에서 프레스 장비(PE)로 해당 분석 결과가 전송되면서, 해당 프레스 장치(PE)의 작동은 일시 중지될 수 있다.
도 9는 깊이 영상과 V Disparity Map에 대한 일 예를 나타낸다. 즉, 도 9(a)는 깊이 영상에 대한 일 예를 나타내며, 도 9(b)는 도 9(a)의 깊이 영상을 본 발명의 S430에 따라 V Disparity Map으로 변환한 것을 나타낸다.
또한, 도 10은 깊이 영상과 V Disparity Map에 대한 다른 일 예를 나타낸다. 즉, 도 10(a)는 깊이 영상에 대한 다른 일 예를 나타내며, 도 10(b)는 도 10(a)의 깊이 영상을 본 발명의 S430에 따라 V Disparity Map으로 변환한 것을 나타낸다.
다만, V Disparity Map으로 변환할 때의 차이가 보다 부각될 수 있도록, 도 10(a)에서는 도 9(a)에서 나무 부분을 삭제하였다. 즉, 도 10(b)는 도 9(b)와 비교했을 때 확실하게 차이가 나타나는 것을 알 수 있다.
본 시스템(10)은 상술한 제어방법을 기반으로 프레스 장비(PE)에 대해 촬영된 영상 정보를 기반으로 사람 또는 사물의 존재 유무를 판단하게 되며, 필요에 따라 관심 영역(ROI)를 지정하여 단일 또는 다중 영역을 필요한 부분만 선별하여 분석하는 것도 가능하다.
상술한 바와 같이 구성되는 본 발명은 관리가 쉬울 뿐 아니라 프레스 작업 중의 위험 상황에 대한 감지가 빠르고 정확하여 프레스 작업 중의 안전 사고를 완벽에 가깝게 예방할 수 있는 이점이 있다. 즉, 본 발명은 깊이 영상(depth image)을 이용하여 프레스 장비(press equipment) 내 사람 등의 존재여부를 감지하여 통보함으로써 프레스 작업 중에 발생할 수 있는 안전 사고를 예방할 수 있다. 이에 따라, 본 발명은 종래의 센서 방식의 안전 장치에서 발생하는 센서 오동작으로 인한 오인식 문제와, 작업자의 임의적인 센서 조작으로 인한 문제 등을 해결할 수 있을 뿐 아니라, 관리자의 피로도로 인한 실수 발생을 미연에 방지할 수 있는 이점이 있다.
본 발명의 상세한 설명에서는 구체적인 실시예에 관하여 설명하였으나 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시예에 국한되지 않으며, 후술되는 청구범위 및 이 청구범위와 균등한 것들에 의해 정해져야 한다.
10: 안전 시스템 100: 카메라
200: 운영 장치 210: 입력부
220: 통신부 230: 디스플레이
240: 메모리 250: 제어부
251: 카메라 제어부 252: 영상 생성부
253: 맵 생성부 254: 물체 감지부
255: 통신 제어부

Claims (19)

  1. 프레스 장비에서의 프레스 작업의 안전을 위한 시스템으로서,
    메모리; 및
    상기 메모리에 저장된 정보를 이용하여 제어를 수행하는 제어부;를 포함하며,
    상기 제어부는,
    프레스 장비의 대상 영역에 대해 촬영한 카메라의 영상 정보를 기반으로 깊이 영상을 획득하고 획득된 깊이 영상을 이용하여 상기 대상 영역에서의 사물 또는 사람 신체 적어도 일부에 해당하는 대상물의 존재 유무에 대한 분석을 수행하며,
    획득된 깊이 영상을 이용하여 V Disparity Map를 포함하는 시차 맵을 생성하고 생성된 시차 맵을 이용하여 상기 분석을 수행하며,
    상기 대상 영역에서 대상물이 상하/앞뒤로 이동하면 상하/좌우로 이동하는 V Disparity Map 내의 데이터 분포를 기반으로 대상물의 이동이나 그 존재 유무를 감지하는 시스템.
  2. 프레스 장비에서의 프레스 작업의 안전을 위한 시스템으로서,
    메모리; 및
    상기 메모리에 저장된 정보를 이용하여 제어를 수행하는 제어부;를 포함하며,
    상기 제어부는,
    프레스 장비의 대상 영역에 대해 촬영한 카메라의 영상 정보를 기반으로 깊이 영상을 획득하고 획득된 깊이 영상을 이용하여 상기 대상 영역에서의 사물 또는 사람 신체 적어도 일부에 해당하는 대상물의 존재 유무에 대한 분석을 수행하며,
    획득된 깊이 영상을 이용하여 U Disparity Map를 포함하는 시차 맵을 생성하고 생성된 시차 맵을 이용하여 상기 분석을 수행하며,
    상기 대상 영역에서 대상물이 좌우/앞뒤로 이동하면 상하/좌우로 이동하는 U Disparity Map 내의 데이터 분포를 기반으로 대상물의 이동이나 그 존재 유무를 감지하는 시스템.
  3. 제1항 또는 제2항에 있어서,
    상기 카메라는 다수의 광학 카메라로 구현되며,
    상기 제어부는 상기 다수의 광학 카메라에서 촬영된 영상 정보를 이용하여 스테레오 비전 방식을 기반으로 상기 깊이 영상을 생성하는 시스템.
  4. 제1항 또는 제2항에 있어서,
    상기 카메라는 깊이 카메라인 시스템.
  5. 제1항에 있어서,
    상기 V Disparity Map은 깊이 영상에 대해 좌우 측면에서 바라본 형태의 Disparity Map 정보를 제공하는 시스템.
  6. 제2항에 있어서,
    상기 U Disparity Map은 깊이 영상에 대해 상하에서 바라본 형태의 Disparity Map 정보를 제공하는 시스템.
  7. 삭제
  8. 제1항 또는 제2항에 있어서,
    다른 장치와 통신하여 상기 대상 영역에 대한 분석 결과를 전송하는 통신부를 더 포함하는 시스템.
  9. 제8항에 있어서,
    상기 다른 장치는 관리자 단말이며, 상기 대상 영역에 대상물이 있는 것으로 분석된 경우에 상기 분석 결과를 수신하면 이에 대한 알람을 발생시키는 시스템.
  10. 제8항에 있어서,
    상기 다른 장치는 상기 프레스 장비이며, 상기 대상 영역에 대상물이 있는 것으로 분석된 경우에 상기 분석 결과를 수신하면 프레스 작업을 일시 중지하는 시스템.
  11. 프레스 장비에서의 프레스 작업의 안전을 위한 시스템으로서,
    프레스 장비의 대상 영역에 대해 촬영하는 카메라; 및
    상기 카메라에서 촬영된 영상 정보를 기반으로 깊이 영상을 획득하며, 획득된 깊이 영상을 이용하여 상기 대상 영역에서의 사물 또는 사람 신체 적어도 일부에 해당하는 대상물의 존재 유무에 대한 분석을 수행하는 운영 장치;를 포함하며,
    상기 운영 장치는,
    프레스 장비의 대상 영역에 대해 촬영한 카메라의 영상 정보를 기반으로 깊이 영상을 획득하고 획득된 깊이 영상을 이용하여 상기 대상 영역에서의 사물 또는 사람 신체 적어도 일부에 해당하는 대상물의 존재 유무에 대한 분석을 수행하며,
    획득된 깊이 영상을 이용하여 V Disparity Map 또는 U Disparity Map를 포함하는 시차 맵을 생성하고 생성된 시차 맵을 이용하여 상기 분석을 수행하며,
    상기 대상 영역에서 대상물이 상하/앞뒤로 이동하면 상하/좌우로 이동하는 V Disparity Map 내의 데이터 분포를 기반으로 대상물의 이동이나 그 존재 유무를 감지하거나,
    상기 대상 영역에서 대상물이 좌우/앞뒤로 이동하면 상하/좌우로 이동하는 U Disparity Map 내의 데이터 분포를 기반으로 대상물의 이동이나 그 존재 유무를 감지하는 시스템.
  12. 프레스 장비에서의 프레스 작업의 안전을 위한 시스템의 제어방법으로서,
    운영 장치가 프레스 장비의 대상 영역에 대해 촬영한 카메라의 영상 정보를 수신하는 단계;
    상기 운영 장치가 상기 카메라의 영상 정보를 기반으로 깊이 영상을 획득하는 단계;
    상기 운영 장치가 획득된 깊이 영상을 이용하여 V Disparity Map을 포함하는 시차 맵을 생성하는 단계;
    상기 운영 장치가 획득된 깊이 영상을 이용하여 상기 대상 영역에서의 사물 또는 사람 신체 적어도 일부에 해당하는 대상물의 존재 유무에 대한 분석을 수행하되, 생성된 시차 맵을 이용하여 상기 분석을 수행하는 단계;를 포함하며,
    상기 분석을 수행하는 단계는 상기 대상 영역에서 대상물이 상하/앞뒤로 이동하면 상하/좌우로 이동하는 V Disparity Map 내의 데이터 분포를 기반으로 대상물의 이동이나 그 존재 유무를 감지하는 단계를 포함하는 제어방법.
  13. 프레스 장비에서의 프레스 작업의 안전을 위한 시스템의 제어방법으로서,
    운영 장치가 프레스 장비의 대상 영역에 대해 촬영한 카메라의 영상 정보를 수신하는 단계;
    상기 운영 장치가 상기 카메라의 영상 정보를 기반으로 깊이 영상을 획득하는 단계;
    상기 운영 장치가 획득된 깊이 영상을 이용하여 U Disparity Map을 포함하는 시차 맵을 생성하는 단계;
    상기 운영 장치가 획득된 깊이 영상을 이용하여 상기 대상 영역에서의 사물 또는 사람 신체 적어도 일부에 해당하는 대상물의 존재 유무에 대한 분석을 수행하되, 생성된 상기 시차 맵을 이용하여 상기 분석을 수행하는 단계;를 포함하며,
    상기 분석을 수행하는 단계는 상기 대상 영역에서 대상물이 좌우/앞뒤로 이동하면 상하/좌우로 이동하는 U Disparity Map 내의 데이터 분포를 기반으로 대상물의 이동이나 그 존재 유무를 감지하는 단계를 포함하는 제어방법.
  14. 제12항 또는 제13항에 있어서,
    상기 카메라는 다수의 광학 카메라로 구현되며,
    상기 운영 장치가 상기 다수의 광학 카메라에서 촬영된 영상 정보를 이용하여 스테레오 비전 방식을 기반으로 상기 깊이 영상을 생성하는 단계를 더 포함하는 제어방법.
  15. 제12항 또는 제13항에 있어서,
    상기 카메라는 깊이 카메라인 제어방법.
  16. 제12항에 있어서,
    상기 V Disparity Map은 깊이 영상에 대해 좌우 측면에서 바라본 형태의 Disparity Map 정보를 제공하는 제어방법.
  17. 제13항에 있어서,
    상기 U Disparity Map은 깊이 영상에 대해 상하에서 바라본 형태의 Disparity Map 정보를 제공하는 제어방법.
  18. 삭제
  19. 제12항 또는 제13항에 있어서,
    상기 운영 장치가 다른 장치와 통신하여 상기 대상 영역에 대한 분석 결과를 전송하는 단계를 더 포함하는 제어방법.
KR1020220063818A 2022-05-25 2022-05-25 깊이 영상 기반의 안전 시스템 및 그 제어방법 KR102450977B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220063818A KR102450977B1 (ko) 2022-05-25 2022-05-25 깊이 영상 기반의 안전 시스템 및 그 제어방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220063818A KR102450977B1 (ko) 2022-05-25 2022-05-25 깊이 영상 기반의 안전 시스템 및 그 제어방법

Publications (1)

Publication Number Publication Date
KR102450977B1 true KR102450977B1 (ko) 2022-10-06

Family

ID=83597344

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220063818A KR102450977B1 (ko) 2022-05-25 2022-05-25 깊이 영상 기반의 안전 시스템 및 그 제어방법

Country Status (1)

Country Link
KR (1) KR102450977B1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08224697A (ja) * 1995-02-23 1996-09-03 Komatsu Ltd 産業機械及び大型プレスの安全監視システム
JP2005153051A (ja) * 2003-11-25 2005-06-16 Matsushita Electric Works Ltd 加工機械の安全装置
KR20110034780A (ko) * 2009-09-29 2011-04-06 동명대학교산학협력단 단조 프레스기의 유압유 누유 영역 영상 감지 시스템
KR20110073917A (ko) * 2009-12-24 2011-06-30 중앙대학교 산학협력단 Gpu를 이용한 온라인 전기 자동차용 전방 장애물 검출 장치 및 방법
JP6968691B2 (ja) * 2017-12-27 2021-11-17 株式会社ミツバ 障害物検出装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08224697A (ja) * 1995-02-23 1996-09-03 Komatsu Ltd 産業機械及び大型プレスの安全監視システム
JP2005153051A (ja) * 2003-11-25 2005-06-16 Matsushita Electric Works Ltd 加工機械の安全装置
KR20110034780A (ko) * 2009-09-29 2011-04-06 동명대학교산학협력단 단조 프레스기의 유압유 누유 영역 영상 감지 시스템
KR20110073917A (ko) * 2009-12-24 2011-06-30 중앙대학교 산학협력단 Gpu를 이용한 온라인 전기 자동차용 전방 장애물 검출 장치 및 방법
JP6968691B2 (ja) * 2017-12-27 2021-11-17 株式会社ミツバ 障害物検出装置

Similar Documents

Publication Publication Date Title
US10005639B2 (en) Sensors for conveyance control
US10091489B2 (en) Image capturing device, image processing method, and recording medium
EP3505953B1 (en) Laser ranging and illumination
US10321106B2 (en) Position detection apparatus and contrast adjustment method used with the same
US10152119B2 (en) Head-mounted display apparatus and calibration method thereof
US9602806B1 (en) Stereo camera calibration using proximity data
KR101693951B1 (ko) 제스처 인식 방법 및 제스처 검출기
US20150317037A1 (en) Image processing device and image processing method
US20140075349A1 (en) Transparent display apparatus and object selection method using the same
US9886933B2 (en) Brightness adjustment system and method, and mobile terminal
US20140340498A1 (en) Using distance between objects in touchless gestural interfaces
JP2001236179A (ja) 指示位置検出システムおよび方法、プレゼンテーションシステム並びに情報記憶媒体
US11574415B2 (en) Method and apparatus for determining an icon position
US20220366871A1 (en) Fade-in user interface display based on finger distance or hand proximity
KR20210058931A (ko) 신호 표시등의 상태 검출 방법 및 장치, 운전 제어 방법 및 장치
KR20210014988A (ko) 원격 모니터링을 위한 영상 분석 시스템 및 방법
JP2021518020A (ja) 深度プロセッサ及び3次元画像機器
US9313376B1 (en) Dynamic depth power equalization
CN110880161B (zh) 一种多主机多深度摄像头的深度图像拼接融合方法及系统
US20220065976A1 (en) Mobile body detection device, mobile body detection method, and mobile body detection program
KR20170100892A (ko) 위치 추적 장치
US9727148B2 (en) Navigation device and image display system with inertial mode
KR101961266B1 (ko) 시선 추적 장치 및 이의 시선 추적 방법
KR102450977B1 (ko) 깊이 영상 기반의 안전 시스템 및 그 제어방법
US20220373683A1 (en) Image processing device, monitoring system, and image processing method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant