KR102492161B1 - Transfer Vehicle for Transfer System and Driving Method Thereof - Google Patents

Transfer Vehicle for Transfer System and Driving Method Thereof Download PDF

Info

Publication number
KR102492161B1
KR102492161B1 KR1020210077854A KR20210077854A KR102492161B1 KR 102492161 B1 KR102492161 B1 KR 102492161B1 KR 1020210077854 A KR1020210077854 A KR 1020210077854A KR 20210077854 A KR20210077854 A KR 20210077854A KR 102492161 B1 KR102492161 B1 KR 102492161B1
Authority
KR
South Korea
Prior art keywords
distance
points
transport vehicle
photographing
human object
Prior art date
Application number
KR1020210077854A
Other languages
Korean (ko)
Other versions
KR20220168299A (en
Inventor
김세은
신훈섭
김재훈
김영태
신현우
Original Assignee
주식회사 에스에프에이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에스에프에이 filed Critical 주식회사 에스에프에이
Priority to KR1020210077854A priority Critical patent/KR102492161B1/en
Publication of KR20220168299A publication Critical patent/KR20220168299A/en
Application granted granted Critical
Publication of KR102492161B1 publication Critical patent/KR102492161B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/677Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations
    • H01L21/67703Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations between different workstations
    • H01L21/67724Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations between different workstations by means of a cart or a vehicule
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G1/00Storing articles, individually or in orderly arrangement, in warehouses or magazines
    • B65G1/02Storage devices
    • B65G1/04Storage devices mechanical
    • B65G1/0457Storage devices mechanical with suspended load carriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C15/00Safety gear
    • B66C15/06Arrangements or use of warning devices
    • B66C15/065Arrangements or use of warning devices electrical
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B66HOISTING; LIFTING; HAULING
    • B66CCRANES; LOAD-ENGAGING ELEMENTS OR DEVICES FOR CRANES, CAPSTANS, WINCHES, OR TACKLES
    • B66C17/00Overhead travelling cranes comprising one or more substantially horizontal girders the ends of which are directly supported by wheels or rollers running on tracks carried by spaced supports
    • B66C17/06Overhead travelling cranes comprising one or more substantially horizontal girders the ends of which are directly supported by wheels or rollers running on tracks carried by spaced supports specially adapted for particular purposes, e.g. in foundries, forges; combined with auxiliary apparatus serving particular purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/67005Apparatus not specifically provided for elsewhere
    • H01L21/67242Apparatus for monitoring, sorting or marking
    • H01L21/67259Position monitoring, e.g. misposition detection or presence detection
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/67Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere
    • H01L21/677Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations
    • H01L21/67703Apparatus specially adapted for handling semiconductor or electric solid state devices during manufacture or treatment thereof; Apparatus specially adapted for handling wafers during manufacture or treatment of semiconductor or electric solid state devices or components ; Apparatus not specifically provided for elsewhere for conveying, e.g. between different workstations between different workstations
    • H01L21/67706Mechanical details, e.g. roller, belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/60Electric or hybrid propulsion means for production processes

Abstract

반송시스템을 위한 이송차량 및 그 이송차량의 구동방법이 개시된다. 본 발명에 따른 반송시스템의 이송차량은 반송 시스템의 레일을 운행할 때 전방 영역을 3차원 촬영하는 촬영부; 및 촬영한 촬영 이미지로부터 지정 객체를 인식하고, 인식 결과 지정 객체가 사람 객체일 때, 촬영시 획득되는 깊이 데이터를 근거로 사람 객체와의 거리를 측정해 측정값을 근거로 비상 신호를 발생시키는 제어부를 포함한다.A transport vehicle for a transport system and a driving method of the transport vehicle are disclosed. A transport vehicle of a transport system according to the present invention includes a photographing unit for three-dimensionally photographing a front area when operating on a rail of the transport system; and a control unit that recognizes a designated object from a photographed image, measures a distance to a human object based on depth data obtained during photographing, and generates an emergency signal based on the measured value when the designated object as a recognition result is a human object. includes

Description

반송시스템을 위한 이송차량 및 그 이송차량의 구동방법{Transfer Vehicle for Transfer System and Driving Method Thereof}Transfer vehicle for transfer system and driving method of the transfer vehicle {Transfer Vehicle for Transfer System and Driving Method Thereof}

본 발명은 반송시스템을 위한 이송차량 및 그 이송차량의 구동방법에 관한 것으로서, 보다 상세하게는, 가령 저가형 3차원(3D) 깊이 지각 및 컬러 카메라 센서를 사용하여 장애물 중 하나인 작업자를 딥러닝 학습 및 객체인식(Object Detection)을 수행하여 구별하고, 구별된 작업자와 이송체 간의 거리를 측정하여 일정 거리 이하로 가까워지면 경고 신호를 전송하여 이송차량을 멈춰 안전사고를 예방하는 반송시스템을 위한 이송차량 및 그 이송차량의 구동방법에 관한 것이다.The present invention relates to a transport vehicle for a conveyance system and a driving method of the transport vehicle, and more particularly, uses a low-cost three-dimensional (3D) depth perception and color camera sensor to deep-learn a worker as one of the obstacles And a transfer vehicle for a transport system that performs object detection to discriminate, measures the distance between the differentiated operator and the transport object, and transmits a warning signal when the distance is less than a certain distance to stop the transport vehicle to prevent safety accidents. And it relates to a driving method of the transport vehicle.

천장 반송 시스템(Overhead Hoist Transport System)은 이송할 대상물이 많은 대형병원, 반도체, LCD, OLED, 태양광 패널, 생산공장 등에 설치되며, 대상물을 운반하는 OHT(Overhead Hoist Transfer)(혹은 반송대차, 반송차, 이송차량, 천정 이송차량)와 OHT의 안내를 위한 레일 등을 포함한다. 반송대차 즉 OHT는 천장에 설치된 레일을 따라 주행한다. OHT는 반송명령을 지령하는 OCS(OHT Control System)에 의해서 통합 제어 관리된다. 천장 반송 시스템이 LCD나 OLED 생산 라인에 설치될 경우, 클린룸 내의 천장 공간을 이용해서 레일이 배치되는데, 레일 상에서 구동되는 OHT는 LCD나 OLED 기판 등의 반송 대상물을 처리장치나 검사장치의 반송 포트 사이에서 운반한다. 주행 레일은 지주 등에 의해 클린룸의 천장 등으로부터 지지되고, 주행 레일 본체와 급전 레일로 이루어진다. OHT는 주행 구동부가 있어 주행 레일 본체 내를 주행할 수 있고, 수전부에 의해 급전 레일로부터 신호를 수전(受電)하여 OCS와 통신한다. 천장 반송 시스템은 복수의 OHT가 궤도 위를 주행함으로써 대상물을 반송한다. 궤도는 OHT가 직선으로 주행 중 다른 궤도로 이동이 가능하도록 분기하는 분기 구간과 분기 구간에서 이동하여 오는 OHT를 다른 궤도에 진입을 허용하는 합류 구간을 가진다. OHT가 여러 장소로 분기되어 연결된 궤도 위를 주행함으로써 원하는 위치까지 대상물을 반송하게 된다.The overhead hoist transport system is installed in large hospitals, semiconductors, LCDs, OLEDs, solar panels, and manufacturing plants with many objects to be transported. car, transport vehicle, ceiling transport vehicle) and rails for guiding OHT. The transfer truck, or OHT, runs along the rails installed on the ceiling. OHT is integratedly controlled and managed by OCS (OHT Control System), which issues a return order. When a ceiling transfer system is installed in an LCD or OLED production line, rails are arranged using the ceiling space in the clean room. transport from The running rail is supported from the ceiling of the clean room by supports or the like, and is composed of a running rail main body and a power supply rail. The OHT has a travel driving unit so that it can travel within the main body of the traveling rail, and communicates with the OCS by receiving signals from the power supply rail through the power receiving unit. In the ceiling transport system, objects are transported by a plurality of OHTs traveling on tracks. The track has a branching section that diverges so that OHT can move to another track while traveling in a straight line, and a joining section that allows OHT moving from the branching section to enter another track. The OHT is branched to various places and transports the object to the desired location by traveling on the connected track.

종래에는 AGV(Automatied Guided vehicles), OHT, OHS(Over Head Shuttle System) 등 산업용 이송체의 경우 전방 장애물 감지를 위해 대부분 레이저 스캐너 형식의 센서를 사용한다. 이 센서는 평면으로 레이저를 조사하는 방식이어서 이송체가 지나다니는 공간 중 어느 한 평면만 검사할 수 있다. 그런데 이로 인해 장애물 감지 사각지역(혹은 감지 음영영역)이 감지영역보다 넓어 현장에서 사람이나 작업용 지그, 사다리와 종종 충돌하는 사고가 발생한다.Conventionally, in the case of industrial transport vehicles such as AGV (Automated Guided Vehicles), OHT, and OHS (Over Head Shuttle System), laser scanner type sensors are mostly used to detect forward obstacles. Since this sensor is a type of irradiating laser on a plane, it can inspect only one plane among the spaces where the moving object passes. However, due to this, the obstacle detection blind area (or detection shadow area) is wider than the detection area, and accidents often occur in the field where people collide with work jigs or ladders.

한국등록특허공보 제10-0729986호(2007.06.13)Korea Patent Registration No. 10-0729986 (2007.06.13) 한국등록특허공보 제10-0790817호(2007.12.26)Korea Patent Registration No. 10-0790817 (2007.12.26) 한국등록특허공보 제10-2010772호(2019.08.08)Korean Registered Patent Publication No. 10-2010772 (2019.08.08) 한국등록특허공보 제10-2153050호(2020.09.01)Korean Registered Patent Publication No. 10-2153050 (2020.09.01) 한국등록특허공보 제10-2062548호(2019.12.30)Korean Registered Patent Publication No. 10-2062548 (2019.12.30)

따라서 본 발명이 이루고자 하는 기술적 과제는, 가령 저가형 3차원(3D) 깊이 지각 및 컬러 카메라 센서를 사용하여 장애물 중 하나인 작업자를 딥러닝 학습 및 객체인식을 수행하여 구별하고, 구별된 작업자와 이송체 간의 거리를 측정하여 일정 거리 이하로 가까워지면 경고 신호를 전송하여 이송차량을 멈춰 안전사고를 예방하는 반송시스템을 위한 이송차량 및 그 이송차량의 구동방법을 제공하는 것이다.Therefore, the technical problem to be achieved by the present invention is to distinguish, for example, a worker, which is one of the obstacles, by performing deep learning learning and object recognition using a low-cost three-dimensional (3D) depth perception and color camera sensor, and distinguish the worker and the transport vehicle It is to provide a transport vehicle for a transport system for preventing safety accidents by measuring the distance between the transport vehicles and stopping the transport vehicle by transmitting a warning signal when the vehicle gets closer to a certain distance or less, and a driving method of the transport vehicle.

본 발명의 일 측면에 따르면, 반송 시스템의 레일을 운행할 때 전방 영역을 3차원 촬영하는 촬영부; 및 상기 촬영한 촬영 이미지로부터 지정 객체를 인식하고, 인식 결과 상기 지정 객체가 사람 객체일 때 상기 촬영시 획득되는 깊이(depth) 데이터를 근거로 상기 사람 객체와의 거리를 측정해 측정값을 근거로 비상 신호를 발생시키는 제어부를 포함하는 것을 특징으로 하는 반송시스템의 이송차량이 제공될 수 있다. According to one aspect of the present invention, the photographing unit for three-dimensionally photographing the front area when the rail of the transport system is operated; and recognizing a designated object from the photographed image, and when the designated object is a human object as a recognition result, by measuring a distance to the human object based on depth data obtained during the photographing, based on the measured value. A transfer vehicle of a transfer system comprising a control unit generating an emergency signal may be provided.

상기 제어부는, 상기 촬영 이미지로부터 지정 객체를 추출하며, 상기 추출한 지정 객체를 인공지능(AI)의 딥러닝 분석을 통해 상기 사람 객체의 여부를 판단할 수 있다.The control unit may extract a designated object from the captured image, and determine whether the extracted designated object is the human object through deep learning analysis of artificial intelligence (AI).

상기 제어부는, 상기 사람 객체에 기설정되는 복수의 포인트에 대하여 거리를 각각 계산하며, 상기 각각 계산한 거리값들을 평균하여 상기 거리의 측정값으로 이용할 수 있다.The control unit may calculate distances for each of a plurality of points preset in the human object, and may use an average of the calculated distance values as a measurement value of the distance.

상기 제어부는, 상기 계산한 복수의 포인트 중 다른 포인트와 비교하여 차이값이 기준값 이상인 포인트는 배제하여 상기 평균을 수행할 수 있다.The control unit may perform the average by excluding points having a difference value greater than or equal to a reference value compared to other points among the calculated plurality of points.

상기 제어부는, 상기 복수의 포인트에 대한 거리값을 히스토그램화한 후 히스토그램화한 상태에서 상기 포인트들의 차이값을 비교할 수 있다.The controller may histogram the distance values for the plurality of points and then compare difference values between the points in a histogram-ized state.

상기 제어부는, 상기 레일을 운행할 때의 속도나 선회 방향을 근거로 상기 촬영부의 촬영영역, 관심영역(ROI) 또는 촬영각도를 변경할 수 있다.The control unit may change a capturing area, a region of interest (ROI), or a capturing angle of the capturing unit based on a speed or a turning direction when the rail is operated.

상기 제어부는, 상기 촬영한 사람 객체가 촬영 영역에서 사라질 때 상기 사람 객체와 관련해 기저장한 녹화 영상을 서로 연동하는 외부장치로 자동 전송할 수 있다.The controller may automatically transmit a pre-stored recorded image related to the human object to an interlocking external device when the photographed human object disappears from the photographing area.

또한, 본 발명의 다른 측면에 따르면, 촬영부가, 반송 시스템의 레일을 운행할 때 전방 영역을 3차원 촬영하는 단계, 및 제어부가, 상기 촬영한 촬영 이미지로부터 지정 객체를 인식하고, 인식 결과 상기 지정 객체가 사람 객체일 때 상기 촬영시 획득되는 깊이 데이터를 근거로 상기 사람 객체와의 거리를 측정해 측정값을 근거로 비상 신호를 발생시키는 단계를 포함하는 것을 특징으로 하는 반송시스템의 이송차량의 구동방법이 제공될 수 있다. In addition, according to another aspect of the present invention, the photographing unit 3-dimensionally photographing the front area when the rail of the transport system is operated, and the controller recognizes a designated object from the photographed image, and as a result of the recognition, the designation When the object is a human object, measuring the distance to the human object based on the depth data obtained during the photographing and generating an emergency signal based on the measured value Driving the transport vehicle of the transport system A method may be provided.

상기 발생시키는 단계는, 상기 촬영 이미지로부터 지정 객체를 추출하며, 상기 추출한 지정 객체를 인공지능(AI)의 딥러닝 분석을 통해 상기 사람 객체의 여부를 판단할 수 있다.In the generating step, a specified object is extracted from the captured image, and whether the extracted specified object is a human object may be determined through deep learning analysis of artificial intelligence (AI).

상기 발생시키는 단계는, 상기 사람 객체에 기설정되는 복수의 포인트에 대하여 거리를 각각 계산하며, 상기 각각 계산한 거리값들을 평균하여 상기 거리의 측정값으로 이용할 수 있다.In the generating step, distances may be calculated for each of a plurality of points preset in the human object, and the average of the calculated distance values may be used as a measurement value of the distance.

상기 발생시키는 단계는, 상기 계산한 복수의 포인트 중 다른 포인트와 비교하여 차이값이 기준값 이상인 포인트는 배제하여 상기 평균을 수행할 수 있다.In the generating step, the average may be performed by excluding points having a difference value greater than or equal to a reference value compared to other points among the calculated plurality of points.

상기 발생시키는 단계는, 상기 복수의 포인트에 대한 거리값을 히스토그램화한 후 히스토그램화한 상태에서 상기 포인트들의 차이값을 비교할 수 있다.In the generating step, distance values for the plurality of points may be histogrammed and then difference values of the points may be compared in a histogrammed state.

상기 발생시키는 단계는, 상기 레일을 운행할 때의 속도나 선회 방향을 근거로 상기 촬영부의 촬영영역, 관심영역(ROI) 또는 촬영각도를 변경할 수 있다.In the generating step, a capturing area, a region of interest (ROI), or a capturing angle of the photographing unit may be changed based on a speed or a turning direction when the rail is operated.

상기 발생시키는 단계는, 상기 촬영한 사람 객체가 촬영 영역에서 사라질 때 상기 사람 객체와 관련해 기저장한 녹화 영상을 서로 연동하는 외부장치로 자동 전송할 수 있다.In the generating step, when the photographed human object disappears from the photographing area, a pre-stored recorded image related to the human object may be automatically transmitted to an interworking external device.

본 발명의 실시예에 따르면 종래 장애물 센서에서 감지하는 못하는 작업자를 사전에 인식할 수 있게 됨으로써 이송체 즉 이송차량에 의한 안전사고를 예방할 수 있을 것이다.According to an embodiment of the present invention, a worker who cannot be detected by a conventional obstacle sensor can be recognized in advance, thereby preventing a safety accident caused by a conveying vehicle, that is, a conveying vehicle.

도 1은 본 발명의 실시예에 따른 이송차량의 데이터 처리 시스템을 나타내는 도면이다.
도 2는 카메라가 설치된 이송차량의 다양한 유형을 보여주는 도면이다.
도 3은 인체감지 및 거리 측정 방법을 설명하기 위한 도면이다.
도 4는 영상 데이터와 거리 데이터를 정합하는 방법을 설명하기 위한 도면이다.
도 5는 인체 범위 사각형 내에서 인체와 이송체의 거리를 효율적으로 계산하는 방법을 설명하기 위한 도면이다.
도 6은 도 1의 이송차량의 세부구조를 예시한 블록다이어그램이다.
도 7은 도 1의 이송차량의 구동과정을 나타내는 흐름도이다.
도 8은 도 1의 이송차량의 다른 구동과정을 나타내는 흐름도이다.
1 is a diagram showing a data processing system of a transport vehicle according to an embodiment of the present invention.
2 is a view showing various types of transport vehicles in which cameras are installed.
3 is a diagram for explaining a method of detecting a human body and measuring a distance.
4 is a diagram for explaining a method of matching image data and distance data.
5 is a diagram for explaining a method of efficiently calculating a distance between a human body and a conveying body within a body range rectangle.
FIG. 6 is a block diagram illustrating a detailed structure of the transport vehicle of FIG. 1 .
7 is a flowchart illustrating a driving process of the transfer vehicle of FIG. 1;
8 is a flowchart illustrating another driving process of the transfer vehicle of FIG. 1;

본 명세서에 개시되어 있는 본 발명의 개념에 따른 실시 예들에 대해서 특정한 구조적 또는 기능적 설명들은 단지 본 발명의 개념에 따른 실시예들을 설명하기 위한 목적으로 예시된 것으로서, 본 발명의 개념에 따른 실시예들은 다양한 형태들로 실시될 수 있으며 본 명세서에 설명된 실시 예들에 한정되지 않는다.Specific structural or functional descriptions of the embodiments according to the concept of the present invention disclosed in this specification are only illustrated for the purpose of explaining the embodiments according to the concept of the present invention, and the embodiments according to the concept of the present invention It can be embodied in various forms and is not limited to the embodiments described herein.

본 발명의 개념에 따른 실시예들은 다양한 변경들을 가할 수 있고 여러 가지 형태들을 가질 수 있으므로 실시예들을 도면에 예시하고 본 명세서에 상세하게 설명하고자 한다. 그러나, 이는 본 발명의 개념에 따른 실시예들을 특정한 개시 형태들에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물, 또는 대체물을 포함한다.Embodiments according to the concept of the present invention can apply various changes and can have various forms, so the embodiments are illustrated in the drawings and described in detail herein. However, this is not intended to limit the embodiments according to the concept of the present invention to specific disclosed forms, and includes all modifications, equivalents, or substitutes included in the spirit and scope of the present invention.

제1 또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 발명의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소는 제1구성요소로도 명명될 수 있다.Terms such as first or second may be used to describe various components, but the components should not be limited by the terms. The above terms are only for the purpose of distinguishing one component from another component, e.g., without departing from the scope of rights according to the concept of the present invention, a first component may be termed a second component, and similarly The second component may also be referred to as the first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. 구성요소들 간의 관계를 설명하는 다른 표현들, 즉 "~사이에"와 "바로 ~사이에" 또는 "~에 이웃하는"과 "~에 직접 이웃하는" 등도 마찬가지로 해석되어야 한다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle. Other expressions describing the relationship between elements, such as "between" and "directly between" or "adjacent to" and "directly adjacent to", etc., should be interpreted similarly.

본 명세서에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 실시된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification are only used to describe specific embodiments, and are not intended to limit the present invention. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, terms such as "comprise" or "have" are intended to indicate that there is an embodied feature, number, step, operation, component, part, or combination thereof, but one or more other features or numbers However, it should be understood that it does not preclude the presence or addition of steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and unless explicitly defined in this specification, it should not be interpreted in an ideal or excessively formal meaning. don't

도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장된 것이다. 층이 다른 층 또는 기판 "상"에 있다고 언급되거나, 층이 다른 층 또는 기판과 결합 또는 접착된다고 언급되는 경우에, 그것은 다른 층 또는 기판상에 직접 형성될 수 있거나 또는 그들 사이에 제3의 층이 개재될 수도 있다. 명세서 전체에 걸쳐서 동일한 참조번호로 표시된 부분들은 동일한 구성요소들을 의미한다.In the drawings, the thickness of layers and regions is exaggerated for clarity. When a layer is referred to as being “on” another layer or substrate, or when a layer is referred to as being bonded or adhered to another layer or substrate, it may be formed directly on the other layer or substrate or as a third layer therebetween. may be intervened. Parts designated with like reference numerals throughout the specification mean like elements.

상단, 하단, 상면, 하면, 전면, 후면, 또는 상부, 하부 등의 용어는 구성요소에 있어 상대적인 위치를 구별하기 위해 사용되는 것이다. 예를 들어, 편의상 도면상의 위쪽을 상부, 도면상의 아래쪽을 하부로 명명하는 경우, 실제에 있어서는 본 발명의 권리 범위를 벗어나지 않으면서 상부는 하부로 명명될 수 있고, 하부는 상부로 명명될 수 있다. 또한, 도면의 구성요소는 반드시 축척에 따라 그려진 것은 아니고, 예컨대, 본 발명의 이해를 돕기 위해 도면의 일부 구성요소의 크기는 다른 구성요소에 비해 과장될 수 있다.Terms such as top, bottom, top, bottom, front, back, or top, bottom are used to distinguish the relative positions of components. For example, in the case of naming the upper part in the drawing as the upper part and the lower part in the drawing as the lower part for convenience, in practice, the upper part may be named as the lower part and the lower part may be named as the upper part without departing from the scope of the present invention. . In addition, components in the drawings are not necessarily drawn to scale, and for example, the size of some components in the drawings may be exaggerated compared to other components to help understanding of the present invention.

이하, 첨부한 도면을 참조하여 본 발명의 실시예에 대하여 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 이송차량의 데이터처리 시스템을 나타내는 도면이며, 도 2는 카메라가 설치되는 이송차량의 다양한 유형을 보여주는 도면이다.1 is a diagram showing a data processing system of a transport vehicle according to an embodiment of the present invention, and FIG. 2 is a diagram showing various types of transport vehicles in which cameras are installed.

도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 이송차량의 데이터처리 시스템(90)은 이송차량(100) 및 외부장치(110)를 포함한다.As shown in FIG. 1 , a data processing system 90 of a transport vehicle according to an embodiment of the present invention includes a transport vehicle 100 and an external device 110 .

본 발명의 실시예에 따른 반송 시스템을 구성하는 레일은 가령 반도체 생산 라인과 같은 곳의 천장에 설치될 수 있다. 물론 본 발명의 실시예에서는 레일에 특별히 한정하지는 않을 것이며, 레일이 천장에 설치되는 것에 대하여도 특별히 한정하지는 않을 것이다. 다시 말해 레일이 없는 곳에서 가령 생산 라인의 바닥에서 이송차량(100)이 자율 주행하는 것도 얼마든지 가능하므로, 본 발명의 실시예에서는 레일에 특별히 한정하지는 않을 것이다. 또는 본 발명의 실시예에서의 레일은 철도 레일 등과 같이 별도의 구조물을 설치하여 구성하는 것이 아니라, 바닥면에 라인이 그어져 있는 도로를 의미하거나, 그 도로의 표면 하부에 설치되어 보이지 않는 도로 등을 모두 포함할 수 있다. 이송차량(100)이 운행할 수 있으면 어떠한 형태이어도 무관하다.Rails constituting the conveying system according to an embodiment of the present invention may be installed on the ceiling of a place such as a semiconductor production line. Of course, in the embodiment of the present invention, the rail will not be particularly limited, and the rail will not be particularly limited to being installed on the ceiling. In other words, since it is possible for the transport vehicle 100 to autonomously drive in a place where there is no rail, for example, on the floor of a production line, the embodiment of the present invention will not be particularly limited to the rail. Alternatively, the rail in the embodiment of the present invention is not configured by installing a separate structure such as a railway rail, but means a road on which a line is drawn on the bottom surface, or a road that is installed below the surface of the road and is invisible. can include all As long as the transport vehicle 100 can run, it may be of any type.

다만, 설명의 편의를 위해 본 발명의 실시예에서는 생산라인의 천장에 설치되는 레일을 예시하며, 해당 레일은 천장에 다양한 형태로 설치될 수 있다. 대표적으로 직진 구간과 복수의 레일이 서로 교차하는 합류 구간으로 구분할 수 있다. 생산 라인의 특성에 따라 다양한 형태로 구성될 수 있다. 또한, 레일에는 반송 작업을 수행하지 않는 이송차량(100)들이 위치하는 홈 혹은 홈 포지션이 형성될 수 있다. 홈에 위치하는 이송차량(100)들은 레일 상에서 반송 작업 중인 이송차량(100)을 방해하지 않게 되며, 이를 통해 생산 라인 내 정체를 유발하지 않게 된다. 통상 차량이 진입하는 경우에는 합류라 명명할 수 있으며, 차량이 빠져나가는 경우에는 분기라 명명할 수 있다. 물론 이를 통합하는 개념으로서는 '교차로'라 명명될 수 있다. 가령, 반도체 생산 라인의 클린룸에는 반도체 제조를 위한 다양한 장비들이 설치되며, 해당 장비들은 각 공정을 진행하기 위한 다수의 챔버들을 포함하여 구성된다. 이와 같은 생산 라인에서 레일은 클린 룸 내에 설치되어 운영될 수 있다.However, for convenience of description, the embodiment of the present invention illustrates a rail installed on the ceiling of a production line, and the corresponding rail may be installed on the ceiling in various forms. Typically, it can be divided into a straight section and a merging section where a plurality of rails cross each other. Depending on the characteristics of the production line, it can be configured in various forms. In addition, a groove or home position in which transport vehicles 100 that do not carry out a transport operation are located may be formed on the rail. The transport vehicles 100 located in the groove do not interfere with the transport vehicle 100 during the transport operation on the rail, thereby preventing congestion in the production line. In general, when a vehicle enters, it can be called merging, and when a vehicle leaves, it can be called divergence. Of course, as a concept that integrates them, it can be named 'crossroads'. For example, various equipment for manufacturing semiconductors is installed in a clean room of a semiconductor production line, and the equipment includes a plurality of chambers for each process. In such a production line, rails can be installed and operated in a clean room.

이송차량(100)은 레일을 따라 운행 또는 주행하는 운송 수단에 해당한다. 도 2의 (a) 내지 (c)에서와 같이 AGV, OHT 및 OHS 등 다양한 유형의 차량에 카메라를 설치하여 사용할 수 있다. 이송차량(100)은 주행 동작 및 이적재 동작을 수행할 수 있으며, 합류 구간에 설치되는 합류 컨트롤러나 합류 구간에서도 특정 상황(예: 합류 컨트롤러의 비정상 동작시)에서는 이송차량 컨트롤러에 의해 제어될 수 있다. 예를 들어, 이송차량(100)은 레일을 따라 장비와 장비간에 반도체 공정의 공정 대상물을 운반할 수 있다. 이송차량(100)은 반송대차, 반송차, 이송체, OHT 등 다양하게 명명되므로, 본 발명의 실시예에서는 그러한 명칭에 특별히 한정하지는 않을 것이다. 다만, 이송차량(100)은 A 장비에서 제조된 공정 대상물을 다음 공정을 위해 B 장비로 이송할 수 있으며, B 장비에서 제조된 공정 대상물을 C 장비로 이송하는 등 공정 대상물 즉 운반물을 이송하기 위한 동작을 수행한다. 물론 각각의 장비로 제조를 위한 물질이나 재료를 공급하는 것도 얼마든지 가능할 수 있다.The transportation vehicle 100 corresponds to a means of transport that runs or travels along rails. As shown in (a) to (c) of FIG. 2 , cameras may be installed and used in various types of vehicles such as AGV, OHT, and OHS. The transport vehicle 100 can perform a driving operation and a loading and unloading operation, and can be controlled by a merging controller installed in a merging section or a transport vehicle controller even in a merging section in a specific situation (eg, when the merging controller is abnormally operated). there is. For example, the transport vehicle 100 may transport a process object of a semiconductor process between equipment along a rail. Since the transport vehicle 100 is variously named such as a transport vehicle, a transport vehicle, a transport vehicle, and an OHT, the embodiments of the present invention will not be particularly limited to such names. However, the transport vehicle 100 may transfer the process object manufactured in A equipment to B equipment for the next process, and transfer the process object manufactured in B equipment to C equipment. perform the action Of course, it may be possible to supply substances or materials for manufacturing with each equipment.

무엇보다, 본 발명의 실시예에 따른 도 1의 이송차량(100)은 도 1의 깊이 인식 카메라, 즉 3D 카메라(101) 등을 포함할 수 있으며, 3D 카메라(101)의 촬영 영상이나 깊이 데이터(혹은 거리 데이터, 메타 데이터)의 분석 결과를 근거로 이송차량(100)의 동작을 제어할 수 있다. 이를 위하여, 3D 카메라(101)의 영상 및 데이터를 분석하기 위한 컨트롤러(103) 가령 CPU, MPU나 GPU 등의 제어부를 포함할 수 있다. 컨트롤러(103)는 이미지에서 인체 형상을 인식할 수 있고, 인체까지의 거리에 따라 감지 신호를 발생시킬 수 있으며, 영상 녹화 동작을 수행할 수 있다. 컨트롤러(103)는 이송차량(100)의 동작을 제어하여 통신 확인 RESPONSE 신호 전송(예: 컨트롤러 ALIVE), 카메라 동작 확인 신호 전송(예: 카메라 ERR), 이송체 제어신호 전송(예: 주의/감속/정지 등) 등의 동작을 수행할 수 있다. Above all, the transport vehicle 100 of FIG. 1 according to an embodiment of the present invention may include a depth recognition camera, that is, a 3D camera 101 of FIG. The operation of the transport vehicle 100 may be controlled based on the analysis result of (or distance data or meta data). To this end, the controller 103 for analyzing the image and data of the 3D camera 101 may include a control unit such as a CPU, MPU or GPU. The controller 103 may recognize a human body shape in an image, generate a detection signal according to a distance to the human body, and perform an image recording operation. The controller 103 controls the operation of the transport vehicle 100 to transmit a communication confirmation RESPONSE signal (eg, controller ALIVE), transmission of a camera operation confirmation signal (eg, camera ERR), transmission of a conveyance control signal (eg, attention/deceleration) /stop, etc.) can be performed.

이송차량(100)의 컨트롤러(103)는 사용자 PC와 같은 외부장치(110)로 녹화된 영상을 전송할 수 있다. 본 발명의 실시예에서는 이송차량(100)을 감지한 후 지정 시간이 경과되면 근거리 무선통신 등을 통해 녹화된 영상을 전송할 수 있다. 도 1에서는 데이터 처리 과정을 설명하기 위하여 3D 카메라(101)나 컨트롤러(103)가 이송차량(100)으로부터 분리되어 있는 것처럼 도시하였지만, 실제로는 이송차량(100)의 내부에 구비되는 것이 바람직하며, 물론 3D 카메라(101)의 경우에는 분리되어 사용되는 것도 얼마든지 가능하므로 본 발명의 실시예에서는 어느 하나의 구성에 특별히 한정하지는 않을 것이다. 예를 들어, 카메라는 클린룸 내에서 지정된 곳에 설치되어 사용되는 등 다양한 형태로 설치되어 운영될 수 있고, 또 카메라는 이송차량(100)과 무선통신을 수행할 수 있다. 다만, 설명의 편의를 위해 본 발명의 실시예에서는 통합되어 사용되는 것으로 설명한다.The controller 103 of the transfer vehicle 100 may transmit recorded images to an external device 110 such as a user PC. In the embodiment of the present invention, after detecting the transport vehicle 100, a recorded image may be transmitted through short-range wireless communication or the like when a specified time elapses. In FIG. 1, the 3D camera 101 or the controller 103 is shown as being separated from the transport vehicle 100 to explain the data processing process, but in reality, it is preferable to be provided inside the transport vehicle 100, Of course, in the case of the 3D camera 101, it is possible to use it separately, so the embodiment of the present invention will not be particularly limited to any one configuration. For example, the camera may be installed and operated in various forms, such as being installed and used in a designated place in a clean room, and the camera may perform wireless communication with the transport vehicle 100. However, for convenience of description, it will be described that they are integrated and used in the embodiments of the present invention.

좀더 구체적으로, 본 발명의 실시예에 따른 이송차량(100)은 가령 이송차량(100)의 제조에 따르는 비용을 절약하기 위하여 저가형 3D 깊이 지각 및 컬러 카메라 센서를 사용하여 발견 즉시 멈춰야 하는 가령 장애물 중 하나인 작업자를 딥러닝 학습 및 객체인식을 수행하여 구별하고, 구별된 작업자와 이송체 간의 거리를 측정하여 일정 거리 이하로 가까워지면 경고 신호를 전송하여 이송체 즉 이송차량(100)을 멈춰 안전사고를 예방한다. 이를 위해 본 발명의 실시예에서는 RGB-D(Depth) 카메라와 딥러닝 기반 객체인식을 위한 GPU 컨트롤러가 탑재된 이송체이며, 작업자 객체인식 및 거리 측정 프로그램(예: SW 모듈, 펌웨어 등), 일정 거리 이하에 있는 작업자 발견시 비상 신호를 발생시키는 프로그램, 작업자 발견시 상황을 녹화하여 저장하는 프로그램 등을 포함할 수 있다. 특히 고속으로 이동하는 이송체에 신속하게 신호를 전달할 수 있도록 계산 부하를 줄이고 정확도를 상승시키는 방법 또한 포함한다.More specifically, the transfer vehicle 100 according to an embodiment of the present invention uses a low-cost 3D depth perception and color camera sensor to save costs associated with manufacturing the transfer vehicle 100, for example, among obstacles that must be stopped immediately upon discovery. A single worker is distinguished by deep learning learning and object recognition, and the distance between the distinguished worker and the conveying object is measured, and when the distance is less than a certain distance, a warning signal is sent to stop the conveying object, that is, the conveying vehicle 100, for safety accidents. prevent To this end, in an embodiment of the present invention, a transport vehicle equipped with an RGB-D (Depth) camera and a GPU controller for deep learning-based object recognition, a worker object recognition and distance measurement program (eg, SW module, firmware, etc.), a schedule It may include a program that generates an emergency signal when a worker is found at a distance or less, a program that records and stores a situation when a worker is found, and the like. In particular, it also includes a method of reducing computational load and increasing accuracy so that a signal can be quickly transmitted to a moving object moving at high speed.

이후에 다시 다루겠지만, 본 발명의 실시예에 따른 이송차량(100)은 3D 카메라(101)에 의해 촬영된 촬영 영상, 즉 촬영 영상의 비디오 프레임을 분석하여 지정 객체를 인식하며, 다시 말해 비디오 프레임에서 객체를 추출하고 추출한 객체를 딥러닝 등이 적용된 객체 검출기를 사용하여 찾고자 하는 사람 객체나 지게차 등의 사물 객체인지를 판단할 수 있다. 따라서, 작업자와 같은 사람 객체나 지게차와 같은 사물 객체로 판단될 때, 3D 카메라(101)의 촬영시 생성되는 깊이 데이터를 정합 즉 함께 이용하여 해당 객체를 추출한 위치의 깊이 또는 거리를 계산하게 된다. 예를 들어, 본 발명의 실시예에서는 촬영 영상의 비디오 프레임에서 특정 객체가 인식되면 해당 객체를 바운딩 박스 처리를 수행할 수 있으며, 해당 바운딩 박스 내의 지정 객체에서 복수의 포인트를 랜덤하게 혹은 지정된 방식대로 지정하여 해당 지점을 기준으로 거리값을 계산할 수 있다. 즉 포인트 샘플링을 수행하여 샘플링된 포인트에 대한 거리값을 각각 계산한다. 그리고, 각각 계산한 거리값의 평균 거리를 계산해 가령 사람 객체와의 거리를 최종적으로 판단할 수 있다. 판단 결과 기준값 이하가 될 때에는 비상신호를 발생시켜 경보음 등이 발생되도록 할 수 있다.As will be discussed later, the transfer vehicle 100 according to an embodiment of the present invention recognizes a designated object by analyzing a captured image captured by the 3D camera 101, that is, a video frame of the captured image, that is, the video frame It is possible to extract an object from and determine whether the extracted object is a human object or an object object such as a forklift to be found by using an object detector applied with deep learning or the like. Therefore, when it is determined as a human object such as a worker or an object object such as a forklift, the depth or distance of the location where the corresponding object is extracted is calculated by matching or using the depth data generated when the 3D camera 101 is photographed. For example, in an embodiment of the present invention, when a specific object is recognized in a video frame of a captured image, bounding box processing may be performed on the object, and a plurality of points of a designated object within the bounding box are selected randomly or in a designated manner. You can calculate the distance value based on the point by designating it. That is, point sampling is performed to calculate distance values for each sampled point. In addition, the distance to the human object may be finally determined by calculating an average distance of each calculated distance value. As a result of the determination, when the value is below the reference value, an emergency signal may be generated so that an alarm sound may be generated.

물론 본 발명의 실시예에 따른 이송차량(100)은 위의 동작을 수행하는 과정에서 다양한 동작을 더 수행할 수 있다. 대표적으로 샘플링된 포인트의 거리값을 계산한 후 히스토그램화하여 다른 포인트와 차이가 큰 가령 기준값 이상인 포인트들은 배제하여 거리를 계산하는 것이다. 예를 들어 샘플링된 포인트가 총 9개일 때 9개의 포인트에 대한 거리를 각각 계산하여 히스토그램화한다. 그리고, 총 9개의 포인트에 대한 거리값 중 차이가 너무 큰, 다시 말해 다른 포인트들의 거리값과 차이가 크거나, 해당 차이가 기준범위를 벗어날 때 해당 포인트의 거리값을 배제할 수 있다. 이후 배제된 포인트를 제외하여 거리 평균을 산출할 수 있다. 가령 9개에서 1개 포인트가 배제되었다면 총 8개의 거리값을 근거로 평균을 계산할 수 있다. 이를 통해 거리 계산시의 정확도를 높일 수 있다.Of course, the transport vehicle 100 according to the embodiment of the present invention may further perform various operations in the process of performing the above operations. Typically, distance values of sampled points are calculated and then histogrammed to calculate distances by excluding points having a large difference from other points, for example, a reference value or more. For example, when there are a total of 9 sampled points, the distances for each of the 9 points are calculated and converted into a histogram. In addition, when the difference between the distance values of the total nine points is too large, that is, when the difference between the distance values of other points is large, or when the difference is out of the reference range, the distance value of the corresponding point may be excluded. Afterwards, the distance average can be calculated by excluding the excluded points. For example, if 1 point is excluded from 9 points, the average can be calculated based on a total of 8 distance values. Through this, it is possible to increase the accuracy of distance calculation.

나아가, 이송차량(100)은 이동 속도나 선회 동작의 여부를 근거로 3D 카메라(101)의 촬영영역 등을 조절할 수 있다. 본 발명의 실시예에서는 3D 카메라(101)를 고정된 형태로 사용하는 것이지만, 고정된 경우에도 줌인(zoom in)이나 줌아웃(zoom out)과 같은 동작이 얼마든지 가능할 수 있다. 따라서, 속도가 기준값 이상이 될 때에는 전방에서 좀더 먼 영역까지 촬영될 수 있도록 하여 갑작스런 사고를 미연에 방지할 수 있다. 물론 속도에 비례하여 줌 동작이 이루어질 수 있다. 나아가, 3D 카메라(101)는 회전이 가능한 카메라를 사용하는 것도 얼마든지 가능할 수 있다. 직진 구간에서는 줌 동작을 수행하지만, 우선회나 좌선회 동작이 있는 경우에는 3D 카메라(101)를 지정 각도로 회전시켜 촬영이 이루어지도록 할 수 있다. 또한 데이터 연산 처리 부담을 줄이기 위하여 3D 카메라(101)의 렌즈에서 촬영되는 모든 촬영 영역을 분석하는 것이 아니라, 고정된 레일을 이동하는 이송차량(100)은 동일한 노선을 따라 이동하는 것이므로, 사고 발생이 잦은 관심영역(ROI)을 설정하고 이를 통해 촬영 영상의 분석이 이루어지도록 할 수 있다. 실제 촬영 영역보다 관심영역이 작으므로, 분석 영역을 줄임으로써 데이터의 연산 처리 부담을 줄일 수 있다. 이를 통해 사고를 빠르게 인식하는 것이 얼마든지 가능할 수 있다.Furthermore, the transport vehicle 100 may adjust the shooting area of the 3D camera 101 based on the moving speed or the turning motion. In the embodiment of the present invention, the 3D camera 101 is used in a fixed form, but even when the 3D camera 101 is fixed, operations such as zoom in or zoom out may be possible. Therefore, when the speed is higher than the reference value, it is possible to prevent a sudden accident in advance by allowing an area farther from the front to be photographed. Of course, the zoom operation may be performed in proportion to the speed. Furthermore, as the 3D camera 101, it may be possible to use a rotatable camera. A zoom operation is performed in the straight section, but when there is a right or left turn operation, the 3D camera 101 may be rotated at a specified angle so that a photograph is taken. In addition, in order to reduce the burden of data calculation processing, the transport vehicle 100 moving on a fixed rail moves along the same route, rather than analyzing all the shooting areas captured by the lens of the 3D camera 101, so that accidents do not occur. It is possible to set a frequent region of interest (ROI) and analyze the captured image through this. Since the region of interest is smaller than the actual photographing region, it is possible to reduce the processing load of data by reducing the analysis region. This makes it possible to quickly recognize accidents.

무엇보다 이송차량(100)이 이동하면서 작업자와 같은 사람 객체를 정확히 인식하는 것이 중요하므로, 객체의 정확한 탐지를 위하여 인공지능의 딥러닝을 적용할 수 있으며, 객체 인식시 딥러닝을 적용할 수 있다. 작업자의 다양한 유형과 관련되는 템플릿 기반의 이미지를 기설정하여 이를 근거로 학습이 이루어지도록 할 수 있으며, 해당 이미지에 없는 유형의 사람 객체의 경우에는 따로 분리하여 학습을 통해 오검출 여부를 판별할 수 있다. 예를 들어, (n-1)번째의 비디오 프레임에서 지정 객체의 사람 객체 여부의 판별이 어렵다 하더라도 (n-2)번째나 (n)번째 비디오 프레임에서의 해당 객체의 추적을 통해 동일 객체여부를 판별할 수 있고, 이를 통해 판별이 어려웠던 객체(혹은 그 모양이나 자세 등)를 추가함으로써 객체의 탐지 정확도를 증가시킬 수 있다. 다양한 방법이 가능할 수 있으므로 본 발명의 실시예에서는 어느 하나의 형태에 특별히 한정하지는 않을 것이다.Above all, since it is important to accurately recognize a human object such as a worker while the transport vehicle 100 is moving, artificial intelligence deep learning can be applied to accurately detect the object, and deep learning can be applied when recognizing the object. . Template-based images related to various types of workers can be set in advance, and learning can be performed based on them. there is. For example, even if it is difficult to determine whether or not a designated object is a human object in the (n-1)th video frame, whether or not the same object can be determined through tracking of the corresponding object in the (n-2)th or (n)th video frame. Through this, it is possible to increase the detection accuracy of an object by adding an object (or its shape or posture, etc.) that was difficult to discriminate. Since various methods may be possible, the embodiments of the present invention will not be particularly limited to any one form.

뿐만 아니라, 이송차량(100)은 전방 영역의 객체를 분석하여 사람 객체 여부를 판단하고 판단된 해당 사람 객체의 위치를 지나간 경우에는, 가령 촬영 영역에서 사람 객체가 사라진 경우에는 일정 시간 후에 또는 지나자마자 바로 녹화된 영상을 외부장치(110)로 전송할 수 있다. 예를 들어, 사람 객체와 맞닥뜨리기 전 지정 시간 동안 3D 카메라(101)를 통해 촬영되는 촬영 영상을 녹화하고, 녹화된 촬영 영상을 저장한 후, 해당 객체를 지나는 경우에는 녹화된 촬영 영상을 외부장치(110)로 전송할 수 있다. 물론 촬영 영상과 함께 깊이 데이터를 제공할 수 있다. 여기서, 깊이 데이터는 메타 데이터라 명명될 수 있으며, 메타 데이터는 단순히 깊이값만이 아니라, 화상에서의 지정 객체에 대한 컬러 속성 등의 데이터를 포함한다고 볼 수 있다. 이러한 점에서 3D 카메라(101)를 적용하는 것이 유용하며, 비용을 절약하기 위하여 저가의 3D 카메라(101)를 사용하는 것이 바람직하다. 물론 3D 카메라(101)가 아니라 하더라도 초점이 다른 2개의 2D 카메라를 사용하여 이를 통해 깊이 데이터를 생성하는 것도 얼마든지 가능하다. 이를 위해서는 깊이 데이터와 같은 3D 데이터를 생성하기 위한 별도의 과정이 추가될 수 있지만, 시중의 3D 카메라(101)를 활용하는 경우에는 별도의 프로그램이 불필요할 수 있다. 물론 본 발명의 실시예에서는 어느 하나의 형태에 특별히 한정하지는 않을 것이다.In addition, the transport vehicle 100 analyzes the object in the front area to determine whether it is a human object, and when it passes the location of the determined human object, for example, when the human object disappears from the shooting area, after a certain time or as soon as it passes The immediately recorded video can be transmitted to the external device 110 . For example, a captured image captured by the 3D camera 101 for a specified period of time before encountering a human object is recorded, the recorded captured image is stored, and the recorded captured image is transferred to an external device when passing the object. (110). Of course, depth data may be provided together with the captured image. Here, the depth data may be referred to as meta data, and the meta data may be regarded as including data such as a color attribute of a designated object in an image, as well as a simple depth value. In this regard, it is useful to apply a 3D camera 101, and it is preferable to use a low-cost 3D camera 101 to save cost. Of course, even if it is not the 3D camera 101, it is possible to generate depth data using two 2D cameras having different focal points. To this end, a separate process for generating 3D data such as depth data may be added, but a separate program may be unnecessary when a commercially available 3D camera 101 is used. Of course, in the embodiments of the present invention, it will not be particularly limited to any one form.

정리하면, 깊이 인식 카메라 가령 3D 카메라(101)에서 컨트롤러(103)로 영상 및 거리 데이터(혹은 깊이 데이터)를 제공한다. 컨트롤러(103)는 영상 및 거리 데이터를 이용하여 이송체 즉 이송차량(100), 혹은 이송차량(100)의 감속기나 가속기 등을 제어하기 위한 동작을 수행한다. 이를 위하여 컨트롤러(103)는 3가지 프로그램을 구성하여 실행할 수 있다. 물론 여기서의 프로그램은 소프트웨어(SW) 모듈이나 펌웨어를 포함할 수 있다. 하나의 프로그램은 깊이 인식 카메라로부터 전송받은 영상 데이터에서 작업자의 형상을 찾는다. 영상 분석을 통해 객체를 추출할 수 있다. 또한, 다른 하나의 프로그램은 깊이 인식 카메라로부터 전송받은 거리 데이터를 이용하여 위의 단계에서 찾은 작업자 형성과 이송차량(100) 간의 상대적인 거리를 계산하고 거리에 따라 주의, 경고, 에러 신호를 생성한다. 나아가, 컨트롤러(103)는 작업자의 형상이 발견되기 일정 시간 이전부터 작업자의 형상이 사라지고 난 일정 시간 이후까지의 상황을 녹화하여 영상 데이터로 저장한다. 이를 위해 나머지 프로그램을 실행할 수 있다. 이에 따라 이송차량(100)은 컨트롤러(103)에서 발생한 신호를 해석하여 이송차량(100)의 정상주행, 감속, 정지 등을 수행한다. 이송차량(100)의 컨트롤러 시스템 종류는 어느 하나의 형태에 특별히 한정하지는 않을 것이다. 한편 사용자 PC 등의 외부장치(110)는 컨트롤러(103)에서 녹화한 영상을 확인 및 저장할 수 있다. 확인용 PC의 OS나 PC 하드웨어 종류는 다양하게 가능하므로 어느 하나의 형태에 특별히 한정하지는 않을 것이다.In summary, an image and distance data (or depth data) are provided from a depth-recognizing camera, for example, the 3D camera 101 to the controller 103 . The controller 103 performs an operation for controlling a conveying object, that is, the conveying vehicle 100, or a decelerator or accelerator of the conveying vehicle 100, by using the image and the distance data. To this end, the controller 103 can configure and execute three programs. Of course, the program herein may include a software (SW) module or firmware. One program finds the shape of a worker in image data transmitted from a depth-recognizing camera. Objects can be extracted through image analysis. In addition, another program calculates the relative distance between the worker formation found in the above step and the transport vehicle 100 using the distance data transmitted from the depth-recognition camera, and generates warning, warning, and error signals according to the distance. Furthermore, the controller 103 records a situation from a predetermined time before the worker's shape was discovered to a predetermined time after the worker's shape disappeared and stores it as image data. You can run the rest of the program for this. Accordingly, the transfer vehicle 100 interprets the signal generated by the controller 103 and performs normal running, deceleration, and stop of the transfer vehicle 100 . The type of controller system of the transfer vehicle 100 will not be particularly limited to any one type. Meanwhile, the external device 110 such as a user PC can check and store the video recorded by the controller 103 . Since the OS or PC hardware types of the PC for confirmation can be varied, it will not be particularly limited to any one form.

도 3은 인체감지 및 거리 측정 방법을 설명하기 위한 도면이다.3 is a diagram for explaining a method of detecting a human body and measuring a distance.

설명의 편의상 도 3을 도 1과 함께 참조하면, 본 발명의 실시예에 따른 도 1의 이송차량(100)은 도 3의 (a)에서와 같이 깊이 지각 카메라에서 영상(도 3의 (a)의 좌측) 및 거리(혹은 깊이)(도 3의 (a)의 우측) 데이터를 수신한다. 도 3의 (a)에서 볼 때 좌측은 촬영 이미지를 나타내며, 우측은 거리 데이터를 근거로 하는 이미지를 각각 보여주고 있다. 물론 실제로는 우측의 경우에는 이미지의 형태로 형성되지 않을 수도 있다. 다만, 우측의 이미지에서 볼 때 색깔이 어두우면 가까운 것을 의미하지만, 그것에 특별히 한정하지는 않을 것이다.Referring to FIG. 3 together with FIG. 1 for convenience of explanation, the transport vehicle 100 of FIG. 1 according to an embodiment of the present invention is an image (FIG. 3(a)) from a depth perception camera as shown in FIG. Left side) and distance (or depth) (right side of FIG. 3 (a)) data are received. In (a) of FIG. 3, the left side shows a captured image, and the right side shows images based on distance data. Of course, in reality, in the case of the right side, it may not be formed in the form of an image. However, if the color is dark when viewed from the image on the right, it means that it is close, but it will not be particularly limited thereto.

이어 이송차량(100)은 딥러닝 알고리즘을 사용하여 영상에서 작업자 형상을 탐색한다. 예를 들어, 촬영 영상의 비디오 프레임에서 지정 객체를 추출하여 객체 검출기나 분류기 등을 통해 해당 객체가 작업자의 사람 객체인지를 판단할 수 있다. 이러한 객체 탐지는 앞서 이미 설명한 바 있다. 도 3의 (b)는 촬영 영상의 비디오 프레임에서 지정 객체를 검출하여 사람 객체인지를 인식하는 과정을 보여준다. 이의 과정에서 바운딩 박스를 설정할 수 있다.Subsequently, the transport vehicle 100 searches for a worker shape in the image using a deep learning algorithm. For example, it is possible to extract a designated object from a video frame of a photographed image and determine whether the corresponding object is a human object of a worker through an object detector or classifier. This object detection has already been described above. 3(b) shows a process of recognizing whether a designated object is a human object by detecting a designated object in a video frame of a photographed image. In this process, a bounding box can be set.

그리고 이송차량(100)은 탐색된 작업자가 있는 위치 및 영역을 거리 데이터 공간으로 변환하여 평균 거리를 계산할 수 있다. 그리고 결과를 종합하여 이송차량(100)의 이송체로 송신한다. 이송체는 구동륜이나 감속기 등을 의미할 수 있지만, 본 발명의 실시예에서는 이송차량(100) 자체를 의미할 수 있다. 이송차량(100)은 레일을 이동하므로, 감속장치나 가속장치가 이송체가 될 수도 있다. 도 3의 (c) 및 (d)는 깊이 데이터를 이용해 이송차량(100)과 영상 내의 작업자의 거리를 계산하는 것을 보여주고 있다.Also, the transport vehicle 100 may calculate an average distance by converting the searched location and area where the operator is located into a distance data space. Then, the results are synthesized and transmitted to the conveying body of the conveying vehicle 100 . The conveying body may mean a driving wheel or a reducer, but may mean the conveying vehicle 100 itself in the embodiment of the present invention. Since the transport vehicle 100 moves on rails, a deceleration device or an accelerator may be a transport vehicle. 3(c) and (d) show that the distance between the transport vehicle 100 and the operator in the image is calculated using depth data.

따라서, 이송차량(100)은 평균 거리를 계산해 지정 범위 내에 있을 때 외부로 경고음을 출력하여 작업자에 이송차량(100)과 충돌하는 사고를 방지할 수 있다. 또는 이송차량(100)의 이송체를 제어하여 감속하도록 할 수 있다.Therefore, the transport vehicle 100 calculates the average distance and outputs a warning sound to the outside when the average distance is within a designated range, thereby preventing a worker from colliding with the transport vehicle 100 . Alternatively, the conveying body of the conveying vehicle 100 may be controlled to decelerate.

도 4는 영상 데이터와 거리 데이터를 정합하는 방법을 설명하는 도면이다.4 is a diagram explaining a method of matching image data and distance data.

설명의 편의상 도 4를 도 1과 함께 참조하면, 인체감지 및 거리 측정 중에서, 깊이인식 카메라는 하나이지만 그 안에는 컬러 이미지 센서와 깊이를 이미지처럼 처리할 수 있는 센서 등 서로 다른 성질의 카메라가 여러 대(예: 2개의 카메라 모듈 등) 있는 것과 같다. 따라서 컬러 이미지와 거리 데이터를 정합(Align)해야 컬러 이미지로 찾은 인체의 위치를 정확히 알 수 있다. 여기서, 정합한다는 것은 얼라인 즉 2개의 영상을 서로 정렬 혹은 매칭시키는 것을 포함할 수 있다.Referring to FIG. 4 together with FIG. 1 for convenience of explanation, among human body detection and distance measurement, there is only one depth-recognizing camera, but there are several cameras with different characteristics, such as a color image sensor and a sensor capable of processing depth like an image. (e.g. 2 camera modules, etc.) Therefore, it is necessary to align the color image and the distance data to accurately know the position of the human body found in the color image. Here, matching may include aligning, that is, aligning or matching two images with each other.

단순하게는 전체 영상과 거리 데이터를 정합하고 인체의 위치에 해당하는 거리 데이터를 사용할 수 있으나 픽셀 전체에 대한 정합 계산을 수행해야 하므로 계산 부하가 크다. 실제로 이송체의 경우 종류에 따라 다르지만 1~4m/s 정도의 고속으로 이동하므로 빠른 계산 및 응답속도가 필수적이다. 따라서 본 발명의 실시예에서는 컬러 이미지와 거리 데이터 전체를 정합하는 대신 인체가 있는 범위에 해당하는 사각형의 네 꼭지점을 먼저 거리 데이터의 범위 사각형으로 변환하고, 그 범위 안에 있는 거리 데이터만 정합에 활용하여 계산 부하를 약 10배 줄여 응답속도를 향상시킨다.It is possible to simply match the entire image and distance data and use the distance data corresponding to the position of the human body, but the calculation load is high because the matching calculation for all pixels must be performed. In fact, in the case of conveying objects, it is different depending on the type, but since they move at a high speed of about 1 to 4 m/s, fast calculation and response speed are essential. Therefore, in the embodiment of the present invention, instead of matching the color image and the entire distance data, the four vertices of the rectangle corresponding to the range where the human body is located are first converted into the range rectangle of the distance data, and only the distance data within the range is used for matching. It reduces the calculation load by about 10 times and improves the response speed.

도 4에서 볼 때, (a)는 전체 이미지의 정합을 수행하는 경우 640ㅧ480, 총 307,200 픽셀의 정합 계산이 필요하다. 반면, (b)에서는 4개 포인트의 정합을 통해 원하는 영역만 크롭(Crop) 및 정합함으로써 300ㅧ100, 총 30,000픽셀의 정합 계산이 필요하다. 따라서, 도 4의 (b) 방법을 사용함으로써 도 4의 (a) 대비 계산 부하를 줄여 응답속도를 빠르게 할 수 있다.Referring to FIG. 4, (a) requires matching calculations of 640×480 pixels, a total of 307,200 pixels, when performing matching of the entire image. On the other hand, in (b), only the desired area is cropped and matched through the matching of 4 points, so that 300 × 100, a total of 30,000 pixels of matching calculation is required. Therefore, by using the method (b) of FIG. 4, the response speed can be increased by reducing the calculation load compared to (a) of FIG.

도 5는 인체 범위 사각형 내에서 인체와 이송체의 거리를 효율적으로 계산하는 방법을 설명하기 위한 도면이다.5 is a diagram for explaining a method of efficiently calculating a distance between a human body and a conveying body within a body range rectangle.

설명의 편의상 도 5를 도 1과 함께 참조하면, 본 발명의 실시예는 인체가 감지된 부분의 평균 거리 계산 중에서, 계산 효율성 향상을 위하여 거리 데이터를 전부 사용하여 평균 거리를 계산하는 것이 아니라, 일정 비율로 포인트를 샘플링하여 평균을 내어 이송체와 인체와의 거리를 계산한다. Referring to FIG. 5 together with FIG. 1 for convenience of description, the embodiment of the present invention does not calculate an average distance by using all distance data to improve calculation efficiency among calculating the average distance of the part where the human body is detected, but rather The distance between the moving object and the human body is calculated by sampling points at a rate and averaging them.

그러나 일정 비율로 포인트를 샘플링하는 경우 인체가 있는 범위 사각형 내에서 샘플링된 포인트가 실제로는 인체 내부에 있지 않고 바깥쪽에 있을 수 있기 때문에 포인트 각각의 거리값을 히스토그램화한 후 다른 포인트와 차이가 큰 포인트들은 배제하고 평균 거리를 계산한다.However, if the points are sampled at a constant rate, since the points sampled within the range rectangle where the human body is located may not actually be inside the human body but outside the body, the distance value of each point is histogrammed and points with a large difference from other points are excluded and the average distance is calculated.

도 5에서 볼 때, (a)는 인체 범위 사각형에서 샘플링되는 포인트를 보여주고 있다. 총 9개를 지정하고 있지만, 이러한 개수는 얼마든지 변경 가능하다. 도 5의 (b)는 히스토그램화하는 과정을 보여준다. 물론 이는 프로그램 내부적으로 이루어지는 동작이라 볼 수 있다. 가령 3번 포인트의 거리값이 배제된 것을 알 수 있다. 따라서, 총 9개의 포인트 중에서 3번 포인트를 제외한 나머지 8개의 포인트에 대한 거리값을 합산한 후 포인트의 총 개수 즉 8로 나누어 평균 거리를 계산한다.5, (a) shows points sampled in the body range rectangle. A total of 9 are specified, but this number can be changed at any time. Figure 5 (b) shows the process of histogramming. Of course, this can be seen as an operation performed internally by the program. For example, it can be seen that the distance value of point 3 is excluded. Therefore, the average distance is calculated by summing the distance values of the remaining 8 points excluding the third point among the total 9 points and then dividing by the total number of points, i.e., 8.

따라서, 평균 거리값이 지정 범위 내에 있을 때 도 1의 이송 차량(100)은 경고음을 발생하는 등의 후속 동작을 수행할 수 있다. 예를 들어, 지정 범위가 1m로 설정된 경우, 1m 거리에 진입하면서 경고음을 발생할 수 있다. 가령, 1m 거리에 진입했을 때 경고음을 발생시키면서 감속 동작을 수행하는 것도 얼마든지 가능할 수 있다. 다양한 동작이 가능하므로 본 발명의 실시예에서는 어느 하나의 형태에 특별히 한정하지는 않을 것이다.Accordingly, when the average distance value is within a designated range, the transport vehicle 100 of FIG. 1 may perform a subsequent operation such as generating a warning sound. For example, when the designated range is set to 1 m, a warning sound may be generated while entering the 1 m distance. For example, it may be possible to perform a deceleration operation while generating a warning sound when entering a distance of 1 m. Since various operations are possible, the embodiment of the present invention will not be particularly limited to any one form.

도 6은 도 1의 이송차량의 세부구조를 예시한 블록다이어그램이다.FIG. 6 is a block diagram illustrating a detailed structure of the transport vehicle of FIG. 1 .

도 6에 도시된 바와 같이, 본 발명의 실시예에 따른 도 1의 이송차량(100)은 통신 인터페이스부(600), 제어부(610), 안전관리부(620) 및 촬영부(630)의 일부 또는 전부를 포함하며, 저장부 등을 더 포함할 수 있다.As shown in FIG. 6, the transport vehicle 100 of FIG. 1 according to an embodiment of the present invention includes a communication interface unit 600, a control unit 610, a safety management unit 620, and a photographing unit 630, or It includes all, and may further include a storage unit and the like.

여기서, "일부 또는 전부를 포함한다"는 것은 통신 인터페이스부(600)나 저장부와 같은 일부 구성요소가 생략되어 구성되거나, 안전관리부(620)와 같은 일부 구성요소가 제어부(610)와 같은 다른 구성요소에 통합되어 구성될 수 있는 것 등을 의미하는 것으로서, 발명의 충분한 이해를 돕기 위하여 전부 포함하는 것으로 설명한다.Here, "including part or all" means that some components such as the communication interface unit 600 or the storage unit are omitted, or some components such as the safety management unit 620 are configured by other components such as the control unit 610. As meaning what can be integrated into the components and configured, it will be described as including all to help a sufficient understanding of the invention.

통신 인터페이스부(600)는 도 1의 사용자 PC와 같은 외부장치(110)와 통신을 수행하여 촬영부(630)를 통해 촬영된 영상의 녹화 영상을 전송할 수 있다. 이를 위하여 통신 인터페이스부(600)는 근거리 통신모듈을 포함할 수 있다. 통신 인터페이스부(600)는 블루투스, 지그비, 와이파이 등의 근거리 무선통신을 통해 녹화된 영상을 외부장치로 전송할 수 있으며, 이때 제어부(610)의 제어하에 동작할 수 있다.The communication interface unit 600 may communicate with an external device 110 such as a user PC of FIG. 1 to transmit a recorded image of an image captured through the photographing unit 630 . To this end, the communication interface unit 600 may include a short-distance communication module. The communication interface unit 600 may transmit recorded images to an external device through short-range wireless communication such as Bluetooth, ZigBee, and Wi-Fi, and may operate under the control of the controller 610 at this time.

물론 통신 인터페이스부(600)는 레일을 운행하는 다수의 이송차량(100)의 이동 경로 등을 제어하기 위한 컨트롤러와 통신을 더 수행하거나, 교차로에서 이송차량(100)들을 제어하는 합류 컨트롤러 등과 더 통신하기 위한 통신 모듈을 포함할 수 있지만, 본 발명의 실시예에서는 해당 컨트롤러들은 설명에서 논외로 한다.Of course, the communication interface unit 600 further communicates with a controller for controlling the movement path of the plurality of transport vehicles 100 operating on rails, or further communicates with a merging controller that controls the transport vehicles 100 at an intersection. However, in the embodiment of the present invention, corresponding controllers are excluded from the description.

통신 인터페이스부(600)는 유무선 통신이 가능할 수 있다. 다시 말해, 유선 포트(port) 등을 통해서는 도 1의 3D 카메라(101) 등을 연결할 수 있다. 도 1의 통신 인터페이스부(600)는 메인 PCB상에 칩의 형태로 구성될 수 있고, 도 1의 3D 카메라(101)는 이송차량(100)의 외부 프레임(혹은 본체)에 구성될 수 있으므로, 서로 회로적으로 연결하기 위하여 케이블 등을 통해 서로 전기적으로 연결할 수 있다.The communication interface unit 600 may be capable of wired or wireless communication. In other words, the 3D camera 101 of FIG. 1 may be connected through a wired port or the like. Since the communication interface unit 600 of FIG. 1 may be configured in the form of a chip on the main PCB, and the 3D camera 101 of FIG. 1 may be configured on the outer frame (or body) of the transport vehicle 100, In order to connect to each other in a circuit, it may be electrically connected to each other through a cable or the like.

제어부(610)는 도 6의 통신 인터페이스부(600), 안전관리부(620) 및 촬영부(630)의 전반적인 제어 동작을 담당한다. 예를 들어, 이송차량(100)의 운행이 시작될 때, 제어부(610)는 촬영부(630)를 동작시켜 촬영 동작을 수행할 수 있다. 또한, 제어부(610)는 촬영부(630)의 촬영 데이터 및 깊이 데이터를 내부 메모리에 저장하거나, 별도로 구성되는 메모리에 저장시킬 수 있다.The control unit 610 is in charge of overall control operations of the communication interface unit 600, the safety management unit 620, and the photographing unit 630 of FIG. For example, when the transportation vehicle 100 starts operating, the controller 610 may operate the photographing unit 630 to perform a photographing operation. In addition, the controller 610 may store the photographing data and depth data of the photographing unit 630 in an internal memory or in a separately configured memory.

또한, 제어부(610)는 촬영 영상을 분석하여, 물론 이러한 동작은 안전관리부(620)에서 이루어질 수도 있지만, 촬영 영상의 비디오 프레임에서 객체들을 추출하고 추출한 객체가 작업자 등의 사람 객체인지를 판단할 수 있다. 이를 위하여 비디오 프레임에서 지정 객체에 바운딩 박스를 설정하여 해당 부위를 추출하고 딥러닝 동작을 수행하는 객체 검출기나 분류기 등을 활용하여 사람 객체 여부를 판단할 수 있다. 딥러닝 기반의 객체 검출기를 이용하는 경우 사람 객체에 대한 보다 정확한 객체 인식이 가능할 수 있다. 물론 본 발명의 실시예에서는 사람 객체뿐 아니라, 지게차와 같은 사물 객체의 경우에는 시스템 설계자의 의도에 따라 탐지가 얼마든지 가능할 수 있다. 생산 라인에 설치되는 반송 시스템에서 지게차의 탐지도 필요한 경우에는 이에 대한 객체도 지정함으로써 탐지가 이루어지도록 할 수 있다.In addition, the control unit 610 analyzes the captured image, and although this operation may be performed in the safety management unit 620, it is possible to extract objects from the video frame of the captured image and determine whether the extracted object is a human object such as a worker. there is. To this end, it is possible to determine whether or not a human object exists by setting a bounding box for a designated object in a video frame, extracting the corresponding part, and utilizing an object detector or classifier that performs a deep learning operation. In the case of using a deep learning-based object detector, more accurate object recognition of a human object may be possible. Of course, in the embodiment of the present invention, not only human objects but also object objects such as forklifts may be detected according to the intention of the system designer. If detection of a forklift is also required in a transport system installed in a production line, detection can be performed by designating an object for this as well.

따라서, 제어부(610)는 비디오 프레임에서 검출한 객체가 가령 사람 객체로 판단될 때, 사람 객체의 복수의 포인트에 대한 거리값을 평균하여 평균 거리를 계산하거나, 안전관리부(620)에서 이루어지는 평균 거리값을 근거로 경고음을 출력하거나, 감속기를 제어하여 속도를 감속하도록 할 수 있다. 따라서 이송차량(100)은 스피커 등의 음향출력부나 감속기 등을 더 포함하고 이를 제어할 수 있다.Therefore, when the object detected in the video frame is determined to be, for example, a human object, the controller 610 calculates an average distance by averaging distance values for a plurality of points of the human object, or the average distance made by the safety management unit 620 Based on the value, a warning sound can be output or the speed can be reduced by controlling the speed reducer. Accordingly, the transport vehicle 100 may further include and control an audio output unit such as a speaker or a speed reducer.

이외에도 제어부(610)는 다양한 동작을 제어할 수 있다. 예를 들어, 촬영부(630)를 구성하는 3D 카메라의 줌인, 줌아웃, 그리고 회전동작을 제어하도록 설정된 경우에는 속도에 따라 줌인 및 줌아웃 동작을 수행할 수 있고, 회전동작시에는 3D 카메라의 촬영 각도를 지정 각도로 회전시킬 수 있다. 다양한 형태로 촬영부(630)의 카메라를 제어할 수 있으며, 이는 앞서 설명한 바 있으므로 더 이상의 설명은 생략하도록 한다. 예를 들어, 촬영영역 중에서 관심영역을 기반으로 분석이 이루어지도록 하는 것이 대표적이다.In addition, the controller 610 may control various operations. For example, if it is set to control the zoom-in, zoom-out, and rotation operations of the 3D camera constituting the photographing unit 630, the zoom-in and zoom-out operations may be performed according to the speed, and during the rotation operation, the shooting angle of the 3D camera can be rotated to a specified angle. The camera of the photographing unit 630 can be controlled in various forms, and since this has been described above, further description will be omitted. For example, it is representative to perform analysis based on a region of interest among photographed regions.

안전관리부(620)는 이송차량(100)이 레일을 운행할 때 촬영부(630)에서 촬영하는 촬영 영상 및 깊이 데이터를 근거로 이송차량(100)의 진행 방향에서 작업자 충돌과 같은 사고가 발생할지를 감시한다. 따라서, 안전관리부(620)는 촬영 영상의 비디오 프레임에서 객체를 추출하고, 추출한 객체를 인식하는 동작을 수행한다. 객체 인식을 위해 딥러닝 기반의 객체 검출기를 이용할 수 있으며, 이를 통해 시스템에서 원하는 다양한 유형의 사람 객체를 판단할 수 있다. 가령, 템플릿 기반으로 객체를 검출하는 것도 얼마든지 가능하지만, 객체의 좀더 정확한 검출을 위하여 인공지능의 딥러닝 동작을 수행하는 객체 검출기를 사용하는 것이 바람직하다. 특히 본 발명의 실시예에서는 비용 절감을 위해 저가의 3D 카메라를 사용하는 경우 해상도가 떨어질 수 있고, 따라서 이를 통해 객체의 오검출이 발생할 수 있으며, 이를 보완하기 위하여 딥러닝 기반의 객체 검출을 수행하는 것이 바람직할 수 있다.The safety management unit 620 determines whether an accident such as collision with a worker occurs in the traveling direction of the transport vehicle 100 based on the photographed image and depth data captured by the photographing unit 630 when the transport vehicle 100 operates on the rail. watch over Accordingly, the safety management unit 620 extracts an object from the video frame of the photographed image and performs an operation of recognizing the extracted object. For object recognition, a deep learning-based object detector can be used, and through this, various types of human objects desired by the system can be determined. For example, although it is possible to detect an object based on a template, it is preferable to use an object detector that performs an artificial intelligence deep learning operation for more accurate detection of an object. In particular, in the embodiment of the present invention, when a low-cost 3D camera is used for cost reduction, the resolution may be lowered, and thus erroneous object detection may occur through this, and to compensate for this, deep learning-based object detection that may be desirable.

또한, 안전관리부(620)는 검출 객체가 사람 객체로 판단될 때 해당 촬영 영상의 비디오 프레임과, 깊이 데이터를 정합하여 거리 계산 동작을 수행할 수 있다. 예를 들어, 깊이 데이터는 속성 정보, 깊이 정보, 또 비디오 프레임상에서의 위치 정보(혹은 좌표 정보)를 포함할 수도 있다. 따라서, 지정 객체 A가 어느 비디오 프레임의 어느 위치에 위치하고, 또 어떠한 속성을 갖는지를 알 수 있다. 이러한 점에서 깊이 데이터는 메타 데이터가 될 수도 있다. 따라서, 정합 동작을 통해 비디오 프레임에서 사람 객체에 대한 위치 정보를 근거로 거리를 계산할 수 있다.In addition, when the detection object is determined to be a human object, the safety management unit 620 may perform a distance calculation operation by matching a video frame of a corresponding captured image with depth data. For example, depth data may include attribute information, depth information, and location information (or coordinate information) on a video frame. Accordingly, it is possible to know where the designated object A is located in which video frame and what properties it has. In this respect, depth data may also be meta data. Accordingly, a distance may be calculated based on location information of a human object in a video frame through a matching operation.

예를 들어, 본 발명의 실시예에서는 추출한 객체에 바운딩 박스를 설정하고 있으므로, 바운딩 박스 내의 객체에서 기설정된 복수의 포인트를 설정할 수 있다. 또는 해당 객체의 화소 분석을 통해 경계부위나 특징점에 해당하는 부위에 포인트를 설정할 수 있다. 그리고, 해당 포인트들과 3D 카메라와의 거리를 계산한다. 예를 들어, 비디오 프레임에서 하단 부위를 카메라의 위치로 설정하고, 비디오 프레임상의 픽셀 좌표를 근거로 거리를 계산하는 것이 얼마든지 가능하다. 단위 픽셀당 실제 거리값을 상정(혹은 설정)한 경우 픽셀수와 실제 거리값을 곱하는 형태로 실제 환경에서의 거리를 알 수 있다.For example, since the bounding box is set for the extracted object in the embodiment of the present invention, a plurality of predetermined points may be set for the object within the bounding box. Alternatively, a point may be set at a boundary region or a region corresponding to a feature point through pixel analysis of the corresponding object. Then, the distance between the corresponding points and the 3D camera is calculated. For example, it is possible to set the lower part of the video frame as the position of the camera and calculate the distance based on pixel coordinates on the video frame. When an actual distance value per unit pixel is assumed (or set), the distance in the real environment can be obtained by multiplying the number of pixels by the actual distance value.

이와 같은 방식으로 안전관리부(620)는 복수의 포인트에 대한 각각의 거리값을 계산할 수 있으며, 계산이 완료되면 해당 거리값들을 히스토그램화한 후 다른 포인트의 거리값들과 차이가 많은 포인트의 거리값을 배제시켜 평균 거리를 계산할 수 있다. 이를 통해 거리 정밀 측정이 이루어질 수 있다. 이는 앞서 설명한 바 있으므로 더 이상의 설명은 생략하도록 한다. 따라서, 안전관리부(620)는 평균 거리가 시스템 설계자가 설정한 기준값에 도달할 때, 감속기를 제어하여 감속하거나 경고음을 발생시키도록 제어부(610)로 요청할 수 있다.In this way, the safety management unit 620 can calculate each distance value for a plurality of points, and when the calculation is completed, the distance values of the points that have a large difference from the distance values of other points are histogrammed. By excluding , the average distance can be calculated. Through this, precise distance measurement can be performed. Since this has been described above, further explanation will be omitted. Accordingly, the safety management unit 620 may request the control unit 610 to control the speed reducer to decelerate or generate a warning sound when the average distance reaches the reference value set by the system designer.

반송 시스템 내에서 거리를 계산하는 방식은 픽셀 좌표를 이용하는 방식 이이외에도 다양한 방식이 가능할 수 있다. 예를 들어, 레일을 운행하는 전방 영역에서 촬영 영상 내에 포함되는 특정 객체에 대한 고정 좌표를 알고 있는 경우이다. 앞서는 비디오 프레임의 하단 정중앙 부위를 3D 카메라(101)의 위치로 상정하여 거리를 계산하였다면 영상 내에서 좌표값을 알고 있는 객체와의 픽셀 거리를 계산한 후 픽셀당 실제 거리값을 연산함으로써 실환경에서 실제 거리를 알 수도 있다. 다양한 방식이 가능할 수 있으므로, 본 발명의 실시예에서는 어느 하나의 형태에 특별히 한정하지는 않을 것이다.A method of calculating the distance in the conveyance system may be possible in various ways other than a method using pixel coordinates. For example, this is a case where fixed coordinates for a specific object included in a captured image are known in the front area where the rail is operated. If the distance is calculated by assuming the bottom center of the preceding video frame as the position of the 3D camera 101, the pixel distance to an object whose coordinates are known in the image is calculated, and then the actual distance value per pixel is calculated to obtain a real distance in the real environment. You may also know the actual distance. Since various methods may be possible, the embodiments of the present invention will not be particularly limited to any one form.

촬영부(630)는 깊이 인식이 가능한 3D 카메라를 포함할 수 있다. 통상 깊이 인식을 위해서는 2개의 카메라가 사용되며, 따라서 이를 모듈화하여 3D 촬영이 가능할 수 있다. 물론 3D 카메라는 2D 카메라와 달리 깊이 데이터를 더 생성할 수 있다. 따라서, 2개의 2D 카메라를 이용하는 경우에는 깊이 데이터를 생성하기 위한 별도의 프로그램을 더 이용해야 하며, 따라서 촬영부(630)는 시중에 판매되는 제품이 활용될 수 있다. 다만, 이송차량(100)의 제조비용이나 구매비용을 절감하기 위하여 고(급)사양보다는 저사양의 제품이 활용될 수 있다. 물론 그러한 것에 특별히 한정하지는 않을 것이다.The photographing unit 630 may include a 3D camera capable of depth recognition. Normally, two cameras are used for depth recognition, and thus, 3D shooting may be possible by modularizing them. Of course, unlike 2D cameras, 3D cameras can generate more depth data. Accordingly, in the case of using two 2D cameras, a separate program for generating depth data must be further used, and therefore, a commercially available product can be used as the photographing unit 630 . However, in order to reduce the manufacturing cost or purchase cost of the transfer vehicle 100, a low-spec product may be used rather than a high-end (high-end) product. Of course, it will not be particularly limited to such things.

한편, 본 발명의 다른 실시예로서 제어부(610)는 CPU 및 메모리를 포함할 수 있으며, 원칩화하여 형성될 수 있다. CPU는 제어회로, 연산부(ALU), 명령어해석부 및 레지스트리 등을 포함하며, 메모리는 램을 포함할 수 있다. 제어회로는 제어동작을, 그리고 연산부는 2진비트 정보의 연산동작을, 그리고 명령어해석부는 인터프리터나 컴파일러 등을 포함하여 고급언어를 기계어로, 또 기계어를 고급언어로 변환하는 동작을 수행할 수 있으며, 레지스트리는 소프트웨어적인 데이터 저장에 관여할 수 있다. 상기의 구성에 따라, 가령 이송차량(100)의 동작 초기에 안전관리부(620)에 저장되어 있는 프로그램을 복사하여 메모리 즉 램(RAM)에 로딩한 후 이를 실행시킴으로써 데이터 연산 처리 속도를 빠르게 증가시킬 수 있다.Meanwhile, as another embodiment of the present invention, the control unit 610 may include a CPU and a memory, and may be formed as a single chip. The CPU includes a control circuit, an arithmetic unit (ALU), a command interpreter, and a registry, and the memory may include RAM. The control circuit performs control operations, the operation unit performs operation of binary bit information, and the instruction interpretation unit performs an operation of converting high-level language into machine language and machine language into high-level language, including an interpreter or compiler. , the registry may be involved in software data storage. According to the above configuration, for example, at the beginning of the operation of the transport vehicle 100, the program stored in the safety management unit 620 is copied, loaded into a memory, that is, RAM, and then executed, thereby rapidly increasing the data operation processing speed. can

도 7은 도 1의 이송차량의 구동과정을 나타내는 흐름도이다.7 is a flowchart illustrating a driving process of the transfer vehicle of FIG. 1;

설명의 편의상 도 7을 도 1과 함께 참조하면, 본 발명의 실시예에 따른 도 1의 이송차량(100)은 반송 시스템의 레일을 운행할 때 전방 영역을 3차원 촬영한다(S700). 여기서, 3차원 촬영이란 촬영된 객체에 대한 깊이 데이터 혹은 메타 데이터를 생성하는 것을 포함한다고 볼 수 있다. 예를 들어, 2D 카메라를 2대를 설치하는 경우에는 깊이 데이터를 생성하기 위해 별도의 프로그램을 추가로 설치할 필요가 있다. 따라서, 이의 경우에도 3차원 촬영으로 볼 수 있다.Referring to FIG. 7 together with FIG. 1 for convenience of description, when the transport vehicle 100 of FIG. 1 according to an embodiment of the present invention travels on a rail of a transport system, a front area is three-dimensionally photographed (S700). Here, it can be seen that 3D shooting includes generating depth data or meta data for a photographed object. For example, when two 2D cameras are installed, a separate program needs to be additionally installed to generate depth data. Therefore, even in this case, it can be viewed as a 3D photograph.

이어 이송차량(100)은 촬영한 촬영 이미지로부터 지정 객체를 인식하고 인식 결과 지정 객체가 가령 사람 객체일 때, 촬영시 획득한(혹은 획득했던) 깊이 데이터를 근거로 사람 객체와의 거리를 측정해 측정값을 근거로 비상 신호를 발생시킨다(S710). 여기서 비상 신호는 감속기를 제어하기 위한 감속 제어신호가 될 수 있으며, 경고음을 출력하기 위한 경고음 출력 제어신호가 될 수 있다. 다양한 신호를 포함할 수 있다.Subsequently, the transport vehicle 100 recognizes a designated object from the captured image and measures the distance to the human object based on depth data acquired (or acquired) when the designated object is a human object as a result of the recognition. An emergency signal is generated based on the measured value (S710). Here, the emergency signal may be a deceleration control signal for controlling the speed reducer, and may be a warning sound output control signal for outputting a warning sound. It can contain various signals.

상기한 내용 이외에도 본 발명의 실시예에 따른 이송차량(100)은 다양한 동작을 수행할 수 있으며, 기타 자세한 내용은 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.In addition to the above, the transfer vehicle 100 according to the embodiment of the present invention can perform various operations, and since other details have been sufficiently described above, they will be replaced with those contents.

도 8은 도 1의 이송차량의 다른 구동과정을 나타내는 흐름도이다.8 is a flowchart illustrating another driving process of the transfer vehicle of FIG. 1;

설명의 편의상 도 8을 도 1과 함께 참조하면, 이송차량(100)은 인체감지 컨트롤러를 동작시키면 깊이 인식 카메라가 정상적으로 연결되었는지 확인하고 주기적으로 응답(Ack)신호를 송신한다(S800, S810, S820). 이 신호는 이송차량(100)이 받아서 인체감지 컨트롤러가 정상 동작하고 있는지를 확인하는 용도로 사용한다.Referring to FIG. 8 together with FIG. 1 for convenience of description, when the human body sensor controller is operated, the transport vehicle 100 checks whether the depth camera is normally connected and periodically transmits an acknowledgment signal (S800, S810, S820). ). This signal is received by the transfer vehicle 100 and is used for the purpose of confirming whether the human body detection controller is operating normally.

또한, 이송차량(100)의 인체감지 컨트롤러는 깊이 인식 카메라에서 프레임 수신을 기다린다(S801). 만약 일정 시간 이상 프레임 수신이 되지 않거나 카메라 연결 끊어짐 등으로 프레임을 받을 수 없을 때는 카메라가 다시 연결될 때까지 재연결을 시도한다(S811, S812). 이때 카메라 에러 신호를 통해 이송차량(100)의 이상 유무를 알 수 있다.In addition, the human body sensor controller of the transportation vehicle 100 waits to receive a frame from the depth recognition camera (S801). If frames are not received for a certain period of time or frames cannot be received due to camera disconnection, etc., reconnection is attempted until the camera is reconnected (S811, S812). At this time, it is possible to know whether or not the transport vehicle 100 has an abnormality through the camera error signal.

이송차량(100)의 인체감지 컨트롤러는 깊이 인식 카메라에서 프레임(예: 영상, 거리)을 받은 후 영상 데이터를 딥러닝 알고리즘으로 인체를 찾아낸다(S802, S803). 인체를 발견하지 못하면 다시 프레임 수신을 기다리며, 인체를 발견하였다면 거리 데이터를 사용하여 인체와 이송체간의 상대적인 거리를 측정한다(S804). 앞서 설명한 방법 이외에도 예를 들어, 이송차량(100)이 자이로센서나 가속도센서 등을 포함하는 경우에도 해당 센서들의 센싱값과 영상 내의 픽셀 좌표값을 이용해 얼마든지 거리 측정이 가능할 수 있을 것이다.The human body detection controller of the transportation vehicle 100 receives a frame (eg, image, distance) from the depth camera and finds the human body using the image data through a deep learning algorithm (S802, S803). If the human body is not found, it waits for frame reception again, and if the human body is found, the relative distance between the human body and the conveying body is measured using the distance data (S804). In addition to the method described above, for example, even when the transport vehicle 100 includes a gyro sensor or an acceleration sensor, distance measurement may be possible using the sensing values of the corresponding sensors and the pixel coordinate values in the image.

또한, 이송차량(100)의 인체감지 컨트롤러는 인체 발견 즉시, 인체를 발견하기 일정시간 이전부터 인체가 (비디오) 프레임에서 사라지고 일정시간이 지난 이후까지의 인체 감지 프레임을 영상으로 저장한다(S813).In addition, the human body detection controller of the transport vehicle 100 stores the human body detection frames as images immediately after the human body is discovered, from a certain time before the human body is discovered until after the human body disappears from the (video) frame and a certain time passes (S813). .

그리고 이송차량(100)의 인체감지 컨트롤러로 측정한 상대적인 거리 기반으로 이송차량(100)은 정상주행, 감속 또는 정지 행동을 수행한다(S822). 감속이나 정지의 경우에는 감속기 즉 브레이크 시스템을 제어할 수 있다.Based on the relative distance measured by the human body sensor controller of the transport vehicle 100, the transport vehicle 100 performs a normal driving, deceleration or stop action (S822). In case of deceleration or stop, it can control the reducer, i.e. the brake system.

상기한 내용 이외에도 도 1의 이송 차량(100)은 다양한 동작을 수행할 수 있으며, 기타 자세한 내용은 앞서 충분히 설명하였으므로 그 내용들로 대신하고자 한다.In addition to the above, the transfer vehicle 100 of FIG. 1 can perform various operations, and since other details have been sufficiently described above, they will be replaced with those contents.

이상에서는 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.Although preferred embodiments have been shown and described above, the present invention is not limited to the specific embodiments described above, and ordinary knowledge in the art to which the present invention belongs without departing from the gist of the present invention claimed in the claims Of course, various modifications are possible by those who have it, and these modifications should not be individually understood from the technical spirit or prospect of the present invention.

한편, 본 발명의 실시 예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 설명되었다고 해서, 본 발명이 반드시 이러한 실시 예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 그 컴퓨터 프로그램을 구성하는 코드들 및 코드 세그먼트들은 본 발명의 기술 분야의 당업자에 의해 용이하게 추론될 수 있을 것이다. 이러한 컴퓨터 프로그램은 컴퓨터가 읽을 수 있는 비일시적 저장매체(non-transitory computer readable media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시 예를 구현할 수 있다.On the other hand, even if all the components constituting the embodiment of the present invention are described as being combined or operated as one, the present invention is not necessarily limited to these embodiments. That is, within the scope of the object of the present invention, all of the components may be selectively combined with one or more to operate. In addition, although all of the components may be implemented as a single independent piece of hardware, some or all of the components are selectively combined to perform some or all of the combined functions in one or a plurality of pieces of hardware. It may be implemented as a computer program having. Codes and code segments constituting the computer program may be easily inferred by a person skilled in the art. Such a computer program may implement an embodiment of the present invention by being stored in a computer-readable non-transitory computer readable media, read and executed by a computer.

여기서 비일시적 판독 가능 기록매체란, 레지스터, 캐시(cache), 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라, 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로, 상술한 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리 카드, ROM 등과 같은 비일시적 판독가능 기록매체에 저장되어 제공될 수 있다.Here, the non-transitory readable recording medium means a medium that stores data semi-permanently and can be read by a device, not a medium that stores data for a short moment, such as a register, cache, or memory. . Specifically, the above-described programs may be provided by being stored in a non-transitory readable recording medium such as a CD, DVD, hard disk, Blu-ray disk, USB, memory card, or ROM.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.Although the preferred embodiments of the present invention have been shown and described above, the present invention is not limited to the specific embodiments described above, and is common in the art to which the present invention pertains without departing from the gist of the present invention claimed in the claims. Of course, various modifications and implementations are possible by those with knowledge of, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

100: 이송차량 101: 3D 카메라
103: 컨트롤러 110: 외부장치
600: 통신 인터페이스부 610: 제어부
620: 안전관리부 630: 촬영부
100: transport vehicle 101: 3D camera
103: controller 110: external device
600: communication interface unit 610: control unit
620: safety management department 630: shooting department

Claims (14)

반송 시스템의 레일을 운행할 때 전방 영역을 3차원 촬영하는 촬영부; 및
상기 촬영한 촬영 이미지로부터 지정 객체를 인식하고, 인식 결과 상기 지정 객체가 사람 객체일 때 상기 촬영시 획득되는 깊이(depth) 데이터를 근거로 상기 사람 객체와의 거리를 측정해 측정값을 근거로 비상 신호를 발생시키는 제어부를 포함하되,
상기 제어부는, 상기 사람 객체에 기설정되는 복수의 포인트에 대하여 거리를 각각 계산하며, 상기 각각 계산한 거리값들을 평균하여 상기 거리의 측정값으로 이용하고,
상기 제어부는, 상기 계산한 복수의 포인트 중 다른 포인트와 거리값을 비교하여 차이값이 기준값 이상인 포인트의 거리값은 배제하여 상기 평균을 수행하며,
상기 제어부는, 상기 촬영한 사람 객체가 촬영 영역에서 사라질 때 상기 사람 객체와 관련해 기저장한 녹화 영상을 서로 연동하는 외부장치로 자동 전송하는 것을 특징으로 하는 반송시스템의 이송차량.
A photographing unit for three-dimensionally photographing the front area when the rail of the transport system is operated; and
A designated object is recognized from the photographed image, and when the designated object is a human object as a result of recognition, the distance to the human object is measured based on depth data obtained during the photographing, and the distance to the human object is measured. Including a control unit for generating a signal,
The control unit calculates distances for each of a plurality of points preset in the human object, and averages the calculated distance values and uses them as a measurement value of the distance;
The control unit performs the average by comparing distance values with other points among the calculated plurality of points, excluding distance values of points having a difference value greater than or equal to a reference value, and
The transport vehicle of the transport system of claim 1 , wherein the control unit automatically transmits a pre-stored recorded image related to the human object to an external device that interlocks with each other when the photographed human object disappears from the photographing area.
제1항에 있어서,
상기 제어부는, 상기 촬영 이미지로부터 지정 객체를 추출하며, 상기 추출한 지정 객체를 인공지능(AI)의 딥러닝 분석을 통해 상기 사람 객체의 여부를 판단하는 것을 특징으로 하는 반송시스템의 이송차량.
According to claim 1,
The control unit extracts a designated object from the captured image, and determines whether the extracted designated object is the human object through deep learning analysis of artificial intelligence (AI).
삭제delete 삭제delete 제1항에 있어서,
상기 제어부는, 상기 복수의 포인트에 대한 거리값을 히스토그램화한 후 히스토그램화한 상태에서 상기 포인트들의 차이값을 비교하는 것을 특징으로 하는 반송시스템의 이송차량.
According to claim 1,
The transfer vehicle of the transport system according to claim 1 , wherein the control unit compares difference values of the points in a histogrammed state after converting distance values for the plurality of points into histograms.
제1항에 있어서,
상기 제어부는, 상기 레일을 운행할 때의 속도나 선회 방향을 근거로 상기 촬영부의 촬영영역, 관심영역(ROI) 또는 촬영각도를 변경하는 것을 특징으로 하는 반송시스템의 이송차량.
According to claim 1,
The control unit changes a capturing area, a region of interest (ROI), or a capturing angle of the capturing unit based on a speed or a turning direction when the rail is operated.
삭제delete 촬영부가, 반송 시스템의 레일을 운행할 때 전방 영역을 3차원 촬영하는 단계; 및
제어부가, 상기 촬영한 촬영 이미지로부터 지정 객체를 인식하고, 인식 결과 상기 지정 객체가 사람 객체일 때 상기 촬영시 획득되는 깊이 데이터를 근거로 상기 사람 객체와의 거리를 측정해 측정값을 근거로 비상 신호를 발생시키는 단계;를 포함하되,
상기 발생시키는 단계는,
상기 사람 객체에 기설정되는 복수의 포인트에 대하여 거리를 각각 계산하며, 상기 각각 계산한 거리값들을 평균하여 상기 거리의 측정값으로 이용하는 단계;
상기 계산한 복수의 포인트 중 다른 포인트와 거리값을 비교하여 차이값이 기준값 이상인 포인트의 거리값은 배제하여 상기 평균을 수행하는 단계; 및
상기 촬영한 사람 객체가 촬영 영역에서 사라질 때 상기 사람 객체와 관련해 기저장한 녹화 영상을 서로 연동하는 외부장치로 자동 전송하는 단계;를
포함하는 것을 특징으로 하는 반송시스템의 이송차량의 구동방법.
3-dimensionally photographing the front area when the photographing unit travels on the rail of the transport system; and
The control unit recognizes a designated object from the photographed image, and as a result of the recognition, when the designated object is a human object, the controller measures the distance to the human object based on the depth data obtained during the photographing, and jumps based on the measured value. Generating a signal; including,
The generating step is
calculating distances for each of a plurality of points preset in the human object, and averaging the calculated distance values and using them as a measurement value of the distance;
performing the average by comparing distance values with other points among the calculated plurality of points and excluding distance values of points having a difference value greater than or equal to a reference value; and
When the photographed human object disappears from the photographing area, automatically transmitting a pre-stored recorded image related to the human object to an interlocking external device.
A method of driving a transport vehicle of a transport system, comprising:
제8항에 있어서,
상기 발생시키는 단계는,
상기 촬영 이미지로부터 지정 객체를 추출하며, 상기 추출한 지정 객체를 인공지능(AI)의 딥러닝 분석을 통해 상기 사람 객체의 여부를 판단하는 것을 특징으로 하는 반송시스템의 이송차량의 구동방법.
According to claim 8,
The generating step is
A method of driving a transport vehicle of a transport system, characterized in that extracting a designated object from the captured image, and determining whether the extracted designated object is the human object through deep learning analysis of artificial intelligence (AI).
삭제delete 삭제delete 제8항에 있어서,
상기 발생시키는 단계는,
상기 복수의 포인트에 대한 거리값을 히스토그램화한 후 히스토그램화한 상태에서 상기 포인트들의 차이값을 비교하는 것을 특징으로 하는 반송시스템의 이송차량의 구동방법.
According to claim 8,
The generating step is
A method of driving a transport vehicle of a transport system, characterized in that comparing the difference values of the points in the histogram after the distance values for the plurality of points are histogrammed.
제8항에 있어서,
상기 발생시키는 단계는,
상기 레일을 운행할 때의 속도나 선회 방향을 근거로 상기 촬영부의 촬영영역, 관심영역(ROI) 또는 촬영각도를 변경하는 것을 특징으로 하는 반송시스템의 이송차량의 구동방법.
According to claim 8,
The generating step is
A method of driving a transport vehicle of a transport system, characterized in that changing a shooting area, a region of interest (ROI), or a shooting angle of the shooting unit based on a speed or a turning direction when the rail is operated.
삭제delete
KR1020210077854A 2021-06-16 2021-06-16 Transfer Vehicle for Transfer System and Driving Method Thereof KR102492161B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210077854A KR102492161B1 (en) 2021-06-16 2021-06-16 Transfer Vehicle for Transfer System and Driving Method Thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210077854A KR102492161B1 (en) 2021-06-16 2021-06-16 Transfer Vehicle for Transfer System and Driving Method Thereof

Publications (2)

Publication Number Publication Date
KR20220168299A KR20220168299A (en) 2022-12-23
KR102492161B1 true KR102492161B1 (en) 2023-01-26

Family

ID=84536301

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210077854A KR102492161B1 (en) 2021-06-16 2021-06-16 Transfer Vehicle for Transfer System and Driving Method Thereof

Country Status (1)

Country Link
KR (1) KR102492161B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200229836Y1 (en) * 2001-02-19 2001-07-19 박흥식 A discriminating device of obstacle using the intelletual type of stereo-vision
KR101788269B1 (en) * 2016-04-22 2017-10-19 주식회사 에스원 Method and apparatus for sensing innormal situation
KR102185859B1 (en) * 2020-03-31 2020-12-02 (주)케이넷 이엔지 Apparatus and method for tracking object

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100729986B1 (en) 1999-12-20 2007-06-20 아시스트 신꼬, 인코포레이티드 Auto-carrying system
KR100790817B1 (en) 2006-12-06 2008-01-03 삼성전자주식회사 System for managing semiconductor divice manufacturing equipment
KR101507507B1 (en) * 2013-05-31 2015-03-31 (주) 세인 System and method for processing object using stereo camera
KR102062548B1 (en) 2015-12-08 2020-01-06 무라다기카이가부시끼가이샤 Return system and return method
KR102010772B1 (en) 2017-11-14 2019-10-21 주식회사 에스에프에이 Carriage system
KR102153050B1 (en) 2018-12-12 2020-09-07 주식회사 에스에프에이 A Junction Controller For Controlling Travel in Junction and A Transportation System Having The Same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200229836Y1 (en) * 2001-02-19 2001-07-19 박흥식 A discriminating device of obstacle using the intelletual type of stereo-vision
KR101788269B1 (en) * 2016-04-22 2017-10-19 주식회사 에스원 Method and apparatus for sensing innormal situation
KR102185859B1 (en) * 2020-03-31 2020-12-02 (주)케이넷 이엔지 Apparatus and method for tracking object

Also Published As

Publication number Publication date
KR20220168299A (en) 2022-12-23

Similar Documents

Publication Publication Date Title
AU2020217710A1 (en) Systems and methods for out of aisle localization and vehicle position calibration using rack leg identification
WO2020051923A1 (en) Systems And Methods For VSLAM Scale Estimation Using Optical Flow Sensor On A Robotic Device
CN106155066B (en) Carrier capable of detecting road surface obstacle and carrying method
US20120136510A1 (en) Apparatus and method for detecting vehicles using laser scanner sensors
KR102560462B1 (en) Moving robot
US8548665B2 (en) Movable body system
CN111516777A (en) Robot trolley and obstacle identification method thereof
JP4539388B2 (en) Obstacle detection device
JP2007200070A (en) Mobile robot
EP2915715B1 (en) Vehicle speed control device and vehicle provided therewith
CN111717843A (en) Logistics carrying robot
KR20210022995A (en) Apparatus for detecting tunnel and method thereof
JP2021120255A (en) Distance estimation device and computer program for distance estimation
US20240085916A1 (en) Systems and methods for robotic detection of escalators and moving walkways
KR102492161B1 (en) Transfer Vehicle for Transfer System and Driving Method Thereof
JP6632671B1 (en) Unmanned vehicle control device and unmanned vehicle control method
KR20190103524A (en) Autonomous driving devise and method
CN113064425A (en) AGV equipment and navigation control method thereof
US11880996B2 (en) Apparatus for acquiring surrounding information of vehicle and method for controlling thereof
JP2021189575A (en) Parking assist device, and control method for parking assist device
KR102568565B1 (en) Management Robot and Method for Underground Facility
BARBÉ et al. A Cloud Based and Real Time Kinematic Sensing Solution for Automated Parking Function
KR101525311B1 (en) Camera Based Auto Transportation Apparatus and Auto Pilot Method therof
KR102651108B1 (en) Apparatus and Method for Estimating Position
US20240109192A1 (en) Robot using moving walk and method of controlling the same

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant