KR102608026B1 - Stereo camera and quadrupedal robot combined system for unmanned detection of 3D radioactive contamination area - Google Patents

Stereo camera and quadrupedal robot combined system for unmanned detection of 3D radioactive contamination area Download PDF

Info

Publication number
KR102608026B1
KR102608026B1 KR1020230033287A KR20230033287A KR102608026B1 KR 102608026 B1 KR102608026 B1 KR 102608026B1 KR 1020230033287 A KR1020230033287 A KR 1020230033287A KR 20230033287 A KR20230033287 A KR 20230033287A KR 102608026 B1 KR102608026 B1 KR 102608026B1
Authority
KR
South Korea
Prior art keywords
radiation
sensing module
unmanned
robot
image
Prior art date
Application number
KR1020230033287A
Other languages
Korean (ko)
Inventor
정만희
Original Assignee
제주대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 제주대학교 산학협력단 filed Critical 제주대학교 산학협력단
Priority to KR1020230033287A priority Critical patent/KR102608026B1/en
Application granted granted Critical
Publication of KR102608026B1 publication Critical patent/KR102608026B1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01TMEASUREMENT OF NUCLEAR OR X-RADIATION
    • G01T1/00Measuring X-radiation, gamma radiation, corpuscular radiation, or cosmic radiation
    • G01T1/16Measuring radiation intensity
    • G01T1/169Exploration, location of contaminated surface areas
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01TMEASUREMENT OF NUCLEAR OR X-RADIATION
    • G01T1/00Measuring X-radiation, gamma radiation, corpuscular radiation, or cosmic radiation
    • G01T1/29Measurement performed on radiation beams, e.g. position or section of the beam; Measurement of spatial distribution of radiation
    • G01T1/2914Measurement of spatial distribution of radiation
    • G01T1/2921Static instruments for imaging the distribution of radioactivity in one or two dimensions; Radio-isotope cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01TMEASUREMENT OF NUCLEAR OR X-RADIATION
    • G01T7/00Details of radiation-measuring instruments
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Molecular Biology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Tourism & Hospitality (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Electromagnetism (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Economics (AREA)
  • Artificial Intelligence (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Measurement Of Radiation (AREA)

Abstract

본 발명은 3차원 방사선 오염지역 무인 탐지를 위한 스테레오 카메라 및 4족보행 로봇 결합 시스템에 관한 것이다.
이에 본 발명의 기술적 요지는 방사선 측정용 뎁스카메라(실내용 depth camera를 포함한 부호화 구경 기반 방사선(감마선 및 이중입자) 영상 융합장치)를 2개의 유닛으로 구비하여 원근 입체 화상을 획득할 수 있도록 하되, 라이다 장비(실외용: 3차원 형상 정보를 디지털 정보로 가지고 있음)를 포함한 입체 지형 센싱 모듈이 뎁스카메라(depth camera: 실내용)를 포함한 방사선 측정용 센싱 모듈과 연계되면서 삼각법에 의한 디지털 좌표가 3D 입체 영상으로 출력(방사선 측정 대상지역의 오염여부 또는 탐지된 방사선원이 3D 입체 영상에 출력되고, 라이다 형상 디지털 좌표에 방사선 위치를 맵핑하게 되면 어떤 구조물에서 방사능 오염지역이 어디인지 출력)되도록 함은 물론 입체 지형 센싱 모듈과 방사선 측정용 센싱 모듈(삼각법을 이용하여 거리나 깊이를 측정할 수 있고 라이다와 연동하면서 디지털 작도에 의한 정보가 3D방식으로 맵핑)은 소형화된 형태로 4족보행 로봇에 장착되어 항만, 공항, 한수원, 원자력 시설, 군사 목적의 활동 지역, 방사선원 입사 환경의 관심대상 특정지역 등을 로봇견이 무인으로 활동하면서 방사능 오염여부 탐지와 함께 오염 지도를 제작할 수 있도록 하는 것을 특징으로 한다.
The present invention relates to a system combining a stereo camera and a four-legged robot for unmanned detection of 3D radiation-contaminated areas.
Accordingly, the technical gist of the present invention is to provide a depth camera for measuring radiation (a coding aperture-based radiation (gamma ray and double particle) image fusion device including an indoor depth camera) as two units to obtain a perspective and three-dimensional image. As a three-dimensional terrain sensing module including LiDAR equipment (for outdoor use: has 3D shape information as digital information) is linked with a sensing module for radiation measurement including a depth camera (for indoor use), digital coordinates using trigonometry are converted into 3D Output as a three-dimensional image (whether the radiation measurement target area is contaminated or the detected radiation source is output in a 3D stereoscopic image, and when the radiation location is mapped to the LiDAR-shaped digital coordinates, it outputs which structure is the radioactive contaminated area). Of course, the three-dimensional terrain sensing module and the radiation measurement sensing module (which can measure distance or depth using trigonometry and links information with digital drawing in 3D while linking with LiDAR) can be installed in a miniaturized form on a four-legged robot. It is equipped with a feature that allows the robot dog to operate unmanned in ports, airports, Korea Hydro & Nuclear Power Plant, nuclear power facilities, military activity areas, and specific areas of interest in the environment where radiation sources enter the environment, while detecting radioactive contamination and creating a contamination map. .

Description

3차원 방사선 오염지역 무인 탐지를 위한 스테레오 카메라 및 4족보행 로봇 결합 시스템{Stereo camera and quadrupedal robot combined system for unmanned detection of 3D radioactive contamination area}Stereo camera and quadrupedal robot combined system for unmanned detection of 3D radioactive contamination area}

본 발명은 방사선 측정용 뎁스카메라(실내용 depth camera를 포함한 부호화 구경 기반 방사선(감마선 및 이중입자) 영상 융합장치)를 2개의 유닛으로 구비하여 원근 입체 화상을 획득할 수 있도록 하되, 라이다 장비(실외용: 3차원 형상 정보를 디지털 정보로 가지고 있음)를 포함한 입체 지형 센싱 모듈이 뎁스카메라(depth camera: 실내용)를 포함한 방사선 측정용 센싱 모듈과 연계되면서 삼각법에 의한 디지털 좌표가 3D 입체 영상으로 출력(방사선 측정 대상지역의 오염여부 또는 탐지된 방사선원이 3D 입체 영상에 출력되고, 라이다 형상 디지털 좌표에 방사선 위치를 맵핑하게 되면 어떤 구조물에서 방사능 오염지역이 어디인지 출력)되도록 함은 물론 입체 지형 센싱 모듈과 방사선 측정용 센싱 모듈(삼각법을 이용하여 거리나 깊이를 측정할 수 있고 라이다와 연동하면서 디지털 작도에 의한 정보가 3D방식으로 맵핑)은 소형화된 형태로 4족보행 로봇에 장착되어 항만, 공항, 한수원, 원자력 시설, 군사 목적의 활동 지역, 방사선원 입사 환경의 관심대상 특정지역 등을 로봇견이 무인으로 활동하면서 방사능 오염여부 탐지와 함께 오염 지도를 제작할 수 있도록 하는 것을 특징으로 하는 3차원 방사선 오염지역 무인 탐지를 위한 스테레오 카메라 및 4족보행 로봇 결합 시스템에 관한 것이다.The present invention is equipped with two units of a depth camera for measuring radiation (encoding aperture-based radiation (gamma ray and double particle) image fusion device including an indoor depth camera) to acquire perspective and three-dimensional images, and uses LiDAR equipment ( As the three-dimensional terrain sensing module including (for outdoor use: has 3D shape information as digital information) is linked with the sensing module for radiation measurement including a depth camera (for indoor use), digital coordinates using trigonometry are output as a 3D stereoscopic image. (Contamination of the radiation measurement target area or the detected radiation source is output on a 3D stereoscopic image, and when the radiation location is mapped to the LiDAR-shaped digital coordinates, the location of the radioactive contamination area in the structure is output) as well as three-dimensional terrain sensing. The module and the sensing module for radiation measurement (capable of measuring distance or depth using trigonometry and mapping information through digital drawing in 3D while linking with LiDAR) are mounted on a four-legged robot in a miniaturized form to be used in ports, ports, etc. 3D radiation pollution, which is characterized by allowing a robot dog to operate unmanned in airports, Korea Hydro & Nuclear Power Plant, nuclear power facilities, military activity areas, and specific areas of interest in the environment where radiation sources enter, detecting radioactive contamination and creating a pollution map. This is about a stereo camera and quadrupedal robot combined system for local unmanned detection.

다시 말해, 본 발명은 오염된 지역 혹은 방사선 노출로 위험한 지역을 무인기반으로 4족보행 로봇을 운용 및 자율 주행시키면서 수집된 자료로 하여금 맵핑화하도록 하는 것으로, 스테레오 카메라 방식에 라이다 장비(기존 컴프턴 카메라의 탐지 단점을 부호화구경 시스템으로 해소함)가 연동되도록 하는 바, 이는 원전 내부 공간 좌표와 함께 방사선원 위치에 대한 3D 좌표가 디지털 좌표 형태로 출력되도록 하는 것을 특징으로 한다.In other words, the present invention maps the data collected while operating and autonomously driving a four-legged robot on an unmanned basis in a contaminated area or a dangerous area due to radiation exposure, using a stereo camera method and LiDAR equipment (existing computer The detection shortcomings of the Ftern camera are resolved with the encoding aperture system), which is characterized in that the 3D coordinates of the location of the radiation source along with the spatial coordinates inside the nuclear power plant are output in the form of digital coordinates.

국내외 현장측정기반 감마선 영상장비의 활용에서는 한국수력원자력(주)의 중앙연구원에서 기관고유사업 과제의 형태로 디지털형상정보를 획득하는 장비와 두 대의 CdZnTe 기반 감마선 영상장비를 융합하여 방사선오염지역을 가시화하는 연구를 수행하고 있다.In the use of gamma-ray imaging equipment based on domestic and international field measurements, the Central Research Institute of Korea Hydro & Nuclear Power Co., Ltd. visualizes radiation-contaminated areas by fusing equipment that acquires digital shape information in the form of an institution-specific project project and two CdZnTe-based gamma-ray imaging equipment. We are conducting research.

기존에 사용되는 감마선 영상장비는 4pi의 시야각을 가지는 컴프턴 카메라(Polaris-H, H3D)로서, 모든 방향에서 입사하는 감마선의 위치를 판단하는 기능을 가지고 있으나, 원전 내부환경처럼 배경방사선이 높고, 전방향에서 감마선이 입사되는 환경에서는 관심 대상의 특정 지역에서의 감마선 영상 획득이 어려운 단점이 있어 실제 원전해체 과정 중에 개발될 장비의 활용 가능성에 우려가 있는 실정이다.The gamma ray imaging equipment currently used is a Compton camera (Polaris-H, H3D) with a viewing angle of 4pi. It has the function of determining the position of gamma rays incident from all directions, but the background radiation is high like the internal environment of a nuclear power plant. In an environment where gamma rays are incident from all directions, it is difficult to acquire gamma ray images in a specific area of interest, so there are concerns about the possibility of using the equipment to be developed during the actual nuclear power plant decommissioning process.

IAEA에서는 ARMMIS(Automated Radiation Mapping Integrated System) 프로젝트를 H3D Inc., Systel Electronique, Boston Dynamics, Intuitive Robots, Lamer Pax. 회사들이 컨소시엄을 구성하여 4족보행 로봇을 이용한 무인 감시 시스템 개발을 착수한 바 있다.At the IAEA, the Automated Radiation Mapping Integrated System (ARMIS) project was awarded to H3D Inc., Systel Electronique, Boston Dynamics, Intuitive Robots, and Lamer Pax. Companies formed a consortium and began developing an unmanned surveillance system using a four-legged robot.

따라서, 국내 연구진들 역시 이러한 국제 연구개발 방향에 맞게 기술격차를 줄이기 위한 노력이 필요한 실정이다.Therefore, domestic researchers also need to make efforts to reduce the technological gap in accordance with this international research and development direction.

1. 대한민국 특허등록 제10-2123562호(2020.06.10. 등록)1. Republic of Korea Patent Registration No. 10-2123562 (registered on June 10, 2020)

본 발명은 상술한 문제점을 해결하기 위한 것으로, 그 기술적 요지는 방사선 측정용 뎁스카메라(실내용 depth camera를 포함한 부호화 구경 기반 방사선(감마선 및 이중입자) 영상 융합장치)를 2개의 유닛으로 구비하여 원근 입체 화상을 획득할 수 있도록 하되, 라이다 장비(실외용: 3차원 형상 정보를 디지털 정보로 가지고 있음)를 포함한 입체 지형 센싱 모듈이 뎁스카메라(depth camera: 실내용)를 포함한 방사선 측정용 센싱 모듈과 연계되면서 삼각법에 의한 디지털 좌표가 3D 입체 영상으로 출력(방사선 측정 대상지역의 오염여부 또는 탐지된 방사선원이 3D 입체 영상에 출력되고, 라이다 형상 디지털 좌표에 방사선 위치를 맵핑하게 되면 어떤 구조물에서 방사능 오염지역이 어디인지 출력)되도록 하는 것을 제공함에 그 목적이 있다.The present invention is intended to solve the above-mentioned problems, and its technical gist is to provide a depth camera for measuring radiation (encoding aperture-based radiation (gamma ray and double particle) image fusion device including an indoor depth camera) as two units, To acquire three-dimensional images, a three-dimensional terrain sensing module including LiDAR equipment (for outdoor use: has 3D shape information as digital information) is combined with a sensing module for radiation measurement including a depth camera (for indoor use). As they are linked, digital coordinates based on trigonometry are output as a 3D stereoscopic image (whether the radiation measurement target area is contaminated or a detected radiation source is output in a 3D stereoscopic image, and when the radiation location is mapped to the LiDAR-shaped digital coordinates, radioactive contamination can be detected in any structure. The purpose is to provide a way to print out where the region is.

이러한 본 발명은 입체 지형 센싱 모듈과 방사선 측정용 센싱 모듈(삼각법을 이용하여 거리나 깊이를 측정할 수 있고 라이다와 연동하면서 디지털 작도에 의한 정보가 3D방식으로 맵핑)은 소형화된 형태로 4족보행 로봇에 장착되어 항만, 공항, 한수원, 원자력 시설, 군사 목적의 활동 지역, 방사선원 입사 환경의 관심대상 특정지역 등을 로봇견이 무인으로 활동하면서 방사능 오염여부 탐지와 함께 오염 지도를 제작할 수 있도록 하는 것을 제공함에 그 목적이 있다.The present invention is a three-dimensional terrain sensing module and a radiation measurement sensing module (capable of measuring distance or depth using trigonometry and mapping information by digital drawing in 3D while linking with LiDAR) in a miniaturized form and a four-legged system. It is mounted on a robot and allows the robot dog to operate unmanned in ports, airports, Korea Hydro & Nuclear Power Plant, nuclear facilities, military activity areas, and specific areas of interest in the environment where radiation sources enter, detecting radioactive contamination and creating a contamination map. The purpose is to provide.

이러한 목적을 달성하기 위해 본 발명은 부호화 구경 기반 방사선(감마선 및 이중입자) 영상 융합장치가 2개의 유닛으로 일정 간격을 두고 나란하게 배치되도록 하되, 2개의 유닛으로 분리된 각각의 영상 융합장치에 내장된 뎁스카메라(depth camera: 사람의 눈처럼 2개의 촬영렌즈를 이용하여 2장의 화상을 획득한 후 거리나 깊이를 3차원 이미지로 획득)는 원근 입체 화상을 얻을 수 있도록 하는 방사선 측정용 센싱 모듈(10)과; 라이다 장비(3차원 형상 정보를 디지털 정보로 가지고 있음)를 방사선 측정용 센싱 모듈(10)의 주변 일측에 설치하여 삼각법에 의한 디지털 좌표가 3D 입체 영상으로 출력(방사선 측정 대상지역의 오염여부 또는 탐지된 방사선원이 3D 입체 영상에 출력되고, 라이다 형상 디지털 좌표에 방사선 위치를 맵핑하게 되면 어떤 구조물에서 방사능 오염지역이 어디인지 출력되도록 하는 것)되도록 하는 입체 지형 센싱 모듈(20)과; 방사선 측정용 센싱 모듈(10)과 입체 지형 센싱 모듈(20)이 탑재되도록 하되, 험지 또는 방사선 오염대상 지역에 배치(돌아다니면서 주변지역의 방사선 오염분포를 획득)되어 무인 또는 자율 주행 방식으로 운행이 수행되도록 하는 무인 탑재체(30)가; 구성되어 이루어진다.In order to achieve this purpose, the present invention arranges an encoding aperture-based radiation (gamma ray and double particle) image fusion device in two units side by side at a certain interval, and is built into each image fusion device separated into two units. A depth camera (which acquires two images using two imaging lenses like the human eye and then acquires the distance or depth as a three-dimensional image) is a sensing module for radiation measurement that allows obtaining perspective and three-dimensional images. 10) and; LiDAR equipment (which has 3D shape information as digital information) is installed on one side of the sensing module 10 for radiation measurement, and digital coordinates using trigonometry are output as 3D stereoscopic images (whether the radiation measurement target area is contaminated or not) A three-dimensional terrain sensing module 20 that outputs the detected radiation source in a 3D stereoscopic image and maps the radiation location to LiDAR-shaped digital coordinates to output which structure is the radioactive contaminated area; It is equipped with a radiation measurement sensing module (10) and a three-dimensional terrain sensing module (20), and is placed in rough terrain or areas subject to radiation contamination (traveling around to obtain the distribution of radiation contamination in the surrounding area) so that it can be driven unmanned or autonomously. An unmanned payload (30) that performs; It is composed and accomplished.

이에, 방사선 측정용 센싱 모듈(10)은 부호화 구경 기반 방사선(감마선 및 이중입자) 영상 융합장치로서, 뎁스카메라(depth camera: 100), 부호화구경(110), 섬광체 어레이(125), 광센서 어레이(130), 신호처리부(140), 영상 융합부(150), 디스플레이(180)가 포함되고, 추가로 배터리(160)와 쿨링 팬(170) 및 방사선원의 실시간 위치 정보를 제공하는 GPS(미도시)를 포함되도록 하되, 부호화구경의 텅스텐 마스크 패턴의 앞단에는 동일한 패턴의 보론 폴리에틸렌(Boron PE) 마스크(111)를 덧대어 중성자 차폐를 도모하도록 형성된다.Accordingly, the sensing module 10 for radiation measurement is an encoding aperture-based radiation (gamma ray and double particle) image fusion device, which includes a depth camera (100), an encoding aperture (110), a scintillator array (125), and an optical sensor array. (130), a signal processing unit 140, an image fusion unit 150, and a display 180 are included, and in addition, a battery 160, a cooling fan 170, and a GPS (not shown) provide real-time location information of the radiation source. ) is included, and a boron polyethylene (Boron PE) mask 111 of the same pattern is added to the front end of the tungsten mask pattern of the coding aperture to ensure neutron shielding.

또한, 무인 탑재체(30)는 무선통신에 의해 구동체(바퀴, 무한궤도 트랙, 관절식 보행레그 중 어느 하나)가 제어되면서 무인으로 운행(전후진, 회전 또는 동작)되는 사족로봇, 로봇견, 무인로봇 중 어느 하나인 것이 바람직하다.In addition, the unmanned payload 30 is a quadruped robot, robot dog, It is desirable to use one of the unmanned robots.

이에, 무인 운용식 방사선 측정장치는 온라인 웹상(인터넷 포털 사이트 등)의 맵 어플(네이버, 다음, 구글 맵)과 연동하면서 방사선이 측정된 지역의 오염도 여부를 웹 서버나 전산용 서버로 하여금 데이터화하도록 하는 것이 바람직하다.Accordingly, the unmanned operation radiation measuring device links with map applications (Naver, Daum, Google Map) on the online web (Internet portal sites, etc.) and allows the web server or computer server to dataify the degree of contamination in the area where radiation was measured. It is desirable to do so.

아울러, 방사선 측정용 센싱 모듈(10)은 무인 탑재체(30) 일측에 장착시 보호케이스 내에 의해 장착되는 것이 바람직하다.In addition, the sensing module 10 for measuring radiation is preferably mounted within a protective case when mounted on one side of the unmanned payload 30.

또한, 입체 지형 센싱 모듈(20)은 무인 탑재체(30) 일측에 장착시 원터치 장착구(50)에 의해 장착되는 것이 바람직하다.In addition, the three-dimensional terrain sensing module 20 is preferably mounted on one side of the unmanned payload 30 using the one-touch mounting hole 50.

이와 같이 본 발명은 방사선 측정용 뎁스카메라(depth camera)를 2개의 유닛으로 구비하여 원근 입체 화상을 획득할 수 있도록 하되, 라이다 장비를 포함한 입체 지형 센싱 모듈이 뎁스카메라를 포함한 방사선 측정용 센싱 모듈과 연계되면서 삼각법에 의한 디지털 좌표가 3D 입체 영상으로 출력되도록 하는 효과가 있다.As such, the present invention is equipped with two units of depth cameras for measuring radiation to obtain perspective and three-dimensional images, and the three-dimensional terrain sensing module including the LiDAR equipment is a sensing module for measuring radiation including the depth camera. It has the effect of allowing digital coordinates based on trigonometry to be output as a 3D stereoscopic image.

이에 본 발명은 물론 입체 지형 센싱 모듈과 방사선 측정용 센싱 모듈은 소형화된 형태로 4족보행 로봇에 장착되어 항만, 공항, 한수원, 원자력 시설, 군사 목적의 활동 지역, 방사선원 입사 환경의 관심대상 특정지역 등을 로봇견이 무인으로 활동하면서 방사능 오염여부 탐지와 함께 오염 지도를 제작할 수 있도록 하는 효과가 있다.Accordingly, the present invention, as well as the three-dimensional terrain sensing module and the radiation measurement sensing module, are mounted on a four-legged robot in a miniaturized form to be used in ports, airports, Korea Hydro & Nuclear Power Plant, nuclear power facilities, military activity areas, and specific areas of interest in the radiation source incident environment. This has the effect of allowing the robot dog to operate unmanned, detect radioactive contamination, and create a contamination map.

도 1은 본 발명에 따른 3차원 방사선 오염지역 무인 탐지를 위한 스테레오 카메라 및 4족보행 로봇 결합 시스템을 나타낸 예시도,
도 2는 2개의 선원에 의한 기존의 부호화구경으로 영상을 획득하는데 걸리는 시간을 분석한 그래프,
도 3은 본 발명의 일 실시예에 따른 부호화구경 기반 방사선(감마선 및 이중입자) 영상 융합장치의 구성을 개략적으로 도시한 예시도,
도 4(a)는 기존 영상장치 부호화구경의 구성이고 도 4(b)는 본 발명인 중성자 차폐 부호화구경의 형상을 도시한 예시도,
도 5(a)는 기존 광센서 어레이의 상하측면 및 좌우측면을 차폐하는 텅스텐의 측면 차폐체이고, 도 5(b)는 본 발명인 후면의 배경방사선 차폐를 위해 각각 보론 폴리에틸렌(Boron PE)를 덧댄 형상을 도시한 예시도,
도 6은 본 발명인 부호화구경, 광센서 어레이 상하좌우측면 및 후면부에 각각 보론 폴리에틸렌(Boron PE)를 덧댄 방사선(감마선 및 이중입자) 영상 융합장치를 도시한 예시도,
도 7 내지 도 9는 본 발명에 따른 원터치 장착구의 사용상태를 나타낸 예시도이다.
Figure 1 is an example diagram showing a stereo camera and quadruped robot combination system for unmanned detection of 3D radiation-contaminated areas according to the present invention;
Figure 2 is a graph analyzing the time it takes to acquire an image with a conventional encoding aperture by two sources;
Figure 3 is an example diagram schematically showing the configuration of an encoding aperture-based radiation (gamma ray and double particle) image fusion device according to an embodiment of the present invention;
Figure 4(a) is a configuration of an existing imaging device encoding aperture, and Figure 4(b) is an example showing the shape of the neutron shielding encoding aperture of the present invention.
Figure 5(a) is a tungsten side shield that shields the top, bottom, and left and right sides of an existing optical sensor array, and Figure 5(b) shows a shape each coated with boron polyethylene (Boron PE) to shield the background radiation from the back of the present invention. An example showing,
Figure 6 is an example diagram showing the present invention's coding aperture, radiation (gamma ray and double particle) image fusion device in which boron polyethylene (Boron PE) is added to the top, bottom, left, right, and rear sides of the optical sensor array, respectively;
Figures 7 to 9 are exemplary diagrams showing the state of use of the one-touch mounting device according to the present invention.

다음은 첨부된 도면을 참조하며 본 발명을 보다 상세히 설명하겠다.Next, the present invention will be described in more detail with reference to the attached drawings.

먼저, 도 1에서 보는 바와 같이, 본 발명은 방사선 측정용 센싱 모듈(10)과 입체 지형 센싱 모듈(20) 및 무인 탑재체(30)로 크게 구성된다.First, as shown in FIG. 1, the present invention is largely comprised of a radiation measurement sensing module 10, a three-dimensional terrain sensing module 20, and an unmanned payload 30.

이에, 방사선 측정용 센싱 모듈(10)은 부호화 구경 기반 방사선(감마선 및 이중입자) 영상 융합장치가 2개의 유닛으로 일정 간격을 두고 나란하게 배치되도록 하되, 2개의 유닛으로 분리된 각각의 영상 융합장치에 내장된 뎁스카메라(depth camera)는 스테레오 카메라 또는 뎁스 카메라(사람의 눈처럼 2개의 촬영렌즈를 이용하여 2장의 화상을 획득한 후 거리나 깊이를 3차원 이미지로 획득)와 동일한 원리로 원근 입체 화상을 얻을 수 있도록 형성된다.Accordingly, the sensing module 10 for radiation measurement arranges the coding aperture-based radiation (gamma ray and double particle) image fusion devices in two units side by side at a certain interval, but each image fusion device is separated into two units. The built-in depth camera uses the same principle as a stereo camera or depth camera (like the human eye, it uses two shooting lenses to acquire two images and then acquires the distance or depth as a three-dimensional image) to capture perspective and stereoscopic images. It is formed to obtain an image.

이에, 방사선 측정용 센싱 모듈(10)은 부호화 구경 기반 방사선(감마선 및 이중입자) 영상 융합장치로서, 뎁스카메라(depth camera: 100), 부호화구경(110), 섬광체 어레이(125), 광센서 어레이(130), 신호처리부(140), 영상 융합부(150), 디스플레이(180)가 포함되고, 추가로 배터리(160)와 쿨링 팬(170) 및 방사선원의 실시간 위치 정보를 제공하는 GPS(미도시)를 포함되도록 하되, 부호화구경의 텅스텐 마스크 패턴의 앞단에는 동일한 패턴의 보론 폴리에틸렌(Boron PE) 마스크(111)를 덧대어 중성자 차폐를 도모하도록 형성된다.Accordingly, the sensing module 10 for radiation measurement is an encoding aperture-based radiation (gamma ray and double particle) image fusion device, which includes a depth camera (100), an encoding aperture (110), a scintillator array (125), and an optical sensor array. (130), a signal processing unit 140, an image fusion unit 150, and a display 180 are included, and in addition, a battery 160, a cooling fan 170, and a GPS (not shown) provide real-time location information of the radiation source. ) is included, and a boron polyethylene (Boron PE) mask 111 of the same pattern is added to the front end of the tungsten mask pattern of the coding aperture to ensure neutron shielding.

참고로, 본 발명의 방사선 측정용 센싱 모듈(10)은 본원 출원인이 기 출원하여 등록받은 선행문헌(특허 제10-2389288호: 2022.04.18.자 등록)에 이미 기술된 것으로, 본 발명에서도 이를 적용하여 설명한다.For reference, the sensing module 10 for measuring radiation of the present invention has already been described in a prior document (Patent No. 10-2389288: registered on April 18, 2022) for which the applicant of the present application has previously applied and registered, and this is also used in the present invention. Apply and explain.

먼저, 본 발명의 방사선 측정용 센싱 모듈(10) 역시 부호화 구경의 텅스텐 마스크 패턴의 앞단에 동일한 패턴의 보론 폴리에틸렌(Boron PE) 마스크를 덧댄 것으로 중성자 차폐 부호화구경이다.First, the sensing module 10 for measuring radiation of the present invention is also a neutron shielding encoding aperture by adding a boron polyethylene (Boron PE) mask of the same pattern to the front end of the tungsten mask pattern of the encoding aperture.

도 2는 텅스텐과 보론 폴리에틸렌(Boron PE)의 열중성자에 대한 차폐 능력을 분석한 표이다. Figure 2 is a table analyzing the shielding ability of tungsten and boron polyethylene (Boron PE) against thermal neutrons.

해당 표에서도 확인할 수 있듯이 텅스텐은 중성자를 차폐하기에는 적합하지 않고, 보론 폴리에틸렌(Boron PE)는 중성자에 대해 높은 차폐능력을 보이며, 얇은 두께에도 충분한 성능을 보일 수 있다.As can be seen in the table, tungsten is not suitable for shielding neutrons, and boron polyethylene (Boron PE) shows high shielding ability for neutrons and can show sufficient performance even at a thin thickness.

부호화구경 영상장치의 부호화구경(110) 부분은 텅스텐 재질의 모자익 패턴이며, 마스크 패턴을 만들기 위해 작은 사각기둥들로 이루어져 있다. The encoding aperture (110) part of the encoding aperture imaging device is a mosaic pattern made of tungsten and is made up of small square pillars to create a mask pattern.

이 작은 사각기둥들의 앞단에 보론 폴리에틸렌(Boron PE) 재질의 사각기둥 구조의 마스크(111)를 덧댐으로써 감마선과 중성자 모두를 차폐하는 효과를 기대할 수 있다. By adding a square-pillar mask 111 made of boron polyethylene (Boron PE) to the front of these small square pillars, the effect of shielding both gamma rays and neutrons can be expected.

보론 폴리에틸렌(Boron PE) 재질의 차폐체의 길이는 대략 1~8mm로, 기존 영상장치의 형태나 크기를 해치지 않는 선에서 설계에 적용이 가능하다.The length of the shielding body made of boron polyethylene (Boron PE) is approximately 1 to 8 mm, and can be applied to the design as long as it does not harm the shape or size of the existing imaging device.

도 3은 본 발명의 일 실시예에 따른 부호화구경 기반 방사선(감마선 및 이중입자) 영상 융합장치의 구성을 개략적으로 도시한 도면이다. Figure 3 is a diagram schematically showing the configuration of an encoding aperture-based radiation (gamma ray and double particle) image fusion device according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 부호화구경 기반 방사선(감마선 및 이중입자) 영상 융합장치는 크게 뎁스카메라(depth camera: 100), 부호화구경(110), 섬광체 어레이(125), 광센서 어레이(130), 신호처리부(140), 영상 융합부(150) 및 디스플레이(180)를 포함하여 구성된다. The encoding aperture-based radiation (gamma ray and double particle) image fusion device according to an embodiment of the present invention largely includes a depth camera (100), an encoding aperture (110), a scintillator array (125), and an optical sensor array (130). , and includes a signal processing unit 140, an image fusion unit 150, and a display 180.

또한, 추가적인 실시예에서는 배터리(160), 쿨링 팬(170) 및 방사선원의 실시간 위치 정보를 제공하는 GPS(미도시)를 더 포함하여 구성될 수 있다.Additionally, in an additional embodiment, it may further include a battery 160, a cooling fan 170, and a GPS (not shown) that provides real-time location information of the radiation source.

먼저, 뎁스카메라(depth camera)(100)는 CCD 또는 CMOS 영상센서로서 방사선원의 현장을 촬영하여 현장 영상을 획득하는 역할을 한다. First, the depth camera 100 is a CCD or CMOS image sensor that acquires on-site images by photographing the site of the radiation source.

광학 카메라(100)는 후술되는 영상융합부(150)의 연산 프로그램 소프트웨어를 통해 방사선 물질의 반응 위치가 영상으로 처리되는 감마선 및 중성자 영상과 융합될 영상을 촬영하게 되는데, 낮은 조명에도 영상 구현이 가능하도록 조정된다.The optical camera 100 captures images to be fused with gamma ray and neutron images in which the reaction positions of radioactive materials are processed into images through the operation program software of the image fusion unit 150, which will be described later. Images can be realized even in low lighting. It is adjusted so that

부호화구경(110)은 방사선원으로부터 방출되는 방사선을 입사시키며, 부호화된 패턴이 적용된다.The encoding aperture 110 receives radiation emitted from a radiation source, and an encoded pattern is applied.

부호화구경(110)은 높은 에너지의 방사선이 원하지 않는 방향에서 들어오는 것을 차단하는 기계적 집속 장치로써 재질은 텅스텐(tungsten)이 적용된다. The encoding aperture 110 is a mechanical focusing device that blocks high-energy radiation from entering from an unwanted direction, and the material is tungsten.

이러한 부호화구경(110)은 후술되는 섬광체 어레이(125)에 반응시키기 위해 부호화된 패턴 마스크 형태로 제작되며 이때 부호화된 패턴은 MURA 패턴이 적용된다.This encoded aperture 110 is manufactured in the form of an encoded pattern mask to react with the scintillator array 125, which will be described later, and at this time, the encoded pattern is applied as a MURA pattern.

부호화구경(110)의 마스크 패턴은 모자익 패턴(mosaicked pattern), 중심부형 모자익 패턴(centered mosaick pattern), 그리고 비대칭형(antisymmetric)한 MURA 패턴 중 어느 하나가 적용될 수 있으며, 이러한 구조는 마스크 패턴의 추가적인 프로세스(예컨대, 마스크 패턴의 회전 등)를 거치지 않고도 한번에 방사선 실시간 입사 영상을 재구성할 수 있는 이점을 가지게 된다.The mask pattern of the encoding aperture 110 may be any one of a mosaicked pattern, a centered mosaick pattern, and an antisymmetric MURA pattern, and this structure is an additional layer of the mask pattern. It has the advantage of being able to reconstruct a real-time radiation incident image at once without going through a process (e.g., rotation of the mask pattern, etc.).

마스크 패턴의 패턴 구조는 중심부를 기준으로 대각선 영역에 배치되는 한 쌍의 패턴영역이 상호 대칭되도록 배치되는데, 중심부 영역의 중심점을 지나는 두 개의 가상의 대각선을 기준으로, 중심부 영역에 가상의 대각선 상에 배치되는 각각의 영역 패턴이 상호 대칭되는 구조로 배치된다.The pattern structure of the mask pattern is such that a pair of pattern areas arranged in a diagonal area based on the center are symmetrical to each other. Based on two virtual diagonals passing through the center point of the center area, a pair of pattern areas are arranged on a virtual diagonal in the center area. Each area pattern is arranged in a structure that is symmetrical to each other.

이러한 배치 구조는 패턴의 대칭으로 인해 두 번 이상의 촬영을 하지 않고도 정확하게 영상 정보를 추출할 수 있으며, 마스크를 회전하지 않고도 동일한 영상을 구현하는 점에서, 신호대 잡음비를 증가(노이즈를 제거)하는 이점을 가지게 된다.This arrangement structure can accurately extract image information without taking more than two shots due to the symmetry of the pattern, and has the advantage of increasing the signal-to-noise ratio (removing noise) by realizing the same image without rotating the mask. have it

섬광체 어레이(125)는 NxN 배열의 픽셀 형태를 가지며, 부호화구경(110)을 통해 입사되는 방사선으로부터 감마선 및 중성자에 대한 섬광신호를 생성하는 역할을 한다.The scintillator array 125 has an NxN array of pixels and serves to generate scintillation signals for gamma rays and neutrons from radiation incident through the encoding aperture 110.

보다 구체적으로, 섬광체 어레이(125)는 부호화구경(110)을 통과한 감사선 및 중성자와 반응하여 미세한 빛의 섬광신호를 생성하며 하나 이상의 픽셀 배열로 형성되는 섬광체 몸체부(120)와, 섬광체 몸체부(120)의 상하측면 및 좌우측면을 모두 차폐하는 사각 고리 형상의 텅스텐 재질의 차폐체(121)를 포함하여 구성되며, 중성자와 감마선과의 반응 에너지 스펙트럼의 에너지 영역이 서로 다른 점을 이용하게 된다. More specifically, the scintillator array 125 reacts with the audit rays and neutrons that pass through the encoding aperture 110 to generate a fine flash signal of light, and includes a scintillator body 120 formed as an array of one or more pixels, and a scintillator body. It is composed of a shielding body 121 made of a square ring-shaped tungsten material that shields both the upper, lower, and left and right sides of the unit 120, and takes advantage of the fact that the energy regions of the reaction energy spectrum between neutrons and gamma rays are different from each other. .

이러한 섬광체 몸체부(121)는 픽셀형으로서 파형분별법(PSD)이 적용되는 액체섬광체, 플라스틱 섬광체, 스틸벤(Stilbene, 1, 2-다이페닐에틸렌, C14H12)섬광체, CLYC(Cs2LiYCl6:Ce)섬광체, 유기유리섬광체(Organic Glass Scintillator)가 적용될 수 있다.This scintillator body 121 is a pixel type liquid scintillator to which waveform discrimination (PSD) is applied, a plastic scintillator, a stilbene (1, 2-diphenylethylene, C14H12) scintillator, and a CLYC (Cs2LiYCl6:Ce) scintillator. , Organic Glass Scintillator can be applied.

특히, 섬광체 몸체부(120)가 스틸벤 유기 섬광체가 적용되는 경우, 중성자와 감마선이 분리된 이종 영상을 획득할 수 있는 이점도 가지게 된다.In particular, when the scintillator body 120 is a stilbene organic scintillator, it also has the advantage of being able to obtain heterogeneous images in which neutrons and gamma rays are separated.

광센서 어레이(130)는 NxN 배열의 픽셀 형태를 가지며, 섬광체 어레이(125)를 통해 생성된 섬광신호에 대한 전기신호를 획득하는 역할을 한다.The optical sensor array 130 has an NxN array of pixels and serves to obtain an electrical signal for the scintillation signal generated through the scintillator array 125.

보다 구체적으로, 광센서 어레이(130)는 섬광체 어레이(125)에서 빛으로 변환된 섬광신호가 빛의 양에 따라 미세한 전기신호로 변환되게 하는 역할을 하는데, 이때 광센서 어레이(130)는 실리콘 광전자증배기(SiPM) 또는 픽셀형 위치민감형 광전자증배기(PSPMT)에 해당하는 배열형의 반도체 광센서가 적용될 수 있다. More specifically, the optical sensor array 130 serves to convert the scintillation signal converted into light in the scintillator array 125 into a fine electrical signal depending on the amount of light. At this time, the optical sensor array 130 is a silicon optoelectronic signal. An array-type semiconductor optical sensor corresponding to a multiplier (SiPM) or a pixel-type position-sensitive photomultiplier (PSPMT) can be applied.

특히, SiPM의 경우 수 ㎟의 단면적을 갖는 작은 섬광체와 일대일 결합(coupling)이 가능하므로 섬광체 어레이(125)에서 방사된 빛을 수집하는 수광 성능을 극대화 시킬 수 있는 이점을 가진다. In particular, in the case of SiPM, one-to-one coupling is possible with a small scintillator with a cross-sectional area of several mm2, so it has the advantage of maximizing the light receiving performance of collecting light emitted from the scintillator array 125.

또한 광센서 어레이(130)는 섬광체 어레이(125)에 포함된 차폐체(121)에 수용됨에 따라 섬광체 몸체부(120)와 마찬가지로 상하측면 및 좌우측면이 모두 방사선으로부터 차폐될 수 있다.In addition, as the optical sensor array 130 is accommodated in the shielding body 121 included in the scintillator array 125, both the upper and lower sides and the left and right sides can be shielded from radiation, similar to the scintillator body portion 120.

참고로, 도 4(a)는 기존 영상장치 부호화구경의 구성이고 도 4(b)는 본 발명인 중성자 차폐 부호화구경의 형상을 도시한 도면이다For reference, Figure 4(a) is a diagram showing the configuration of the coding aperture of an existing imaging device, and Figure 4(b) is a diagram showing the shape of the neutron shielding coding aperture of the present invention.

그리고 도 5(a)는 기존 광센서 어레이(120)의 상하측면 및 좌우측면을 차폐하는 텅스텐의 측면 차폐체 및 도 5(b)는 본 발명인 후면의 배경방사선 차폐를 위해 각각 보론 폴리에틸렌(Boron PE)를 덧댄 형상을 도시한 도면이다.And Figure 5(a) shows a tungsten side shield that shields the top, bottom, and left and right sides of the existing optical sensor array 120, and Figure 5(b) shows a boron polyethylene (Boron PE) shield for background radiation shielding on the back of the present invention. This is a drawing showing the added shape.

본 발명은 광센서 어레이의 상하측면 및 좌우측면을 차폐하는 텅스텐의 외부에도 보론 폴리에틸렌(Boron PE) 측면 차폐체(121)를 덧대고, 후면의 배경방사선 차폐를 담당하는 텅스텐 차폐판 뒤에도 보론 폴리에틸렌(Boron PE)차폐체(133)을 추가했다.In the present invention, a boron polyethylene (Boron PE) side shield 121 is added to the outside of the tungsten that shields the top, bottom, and left and right sides of the optical sensor array, and a boron polyethylene (Boron PE) side shield 121 is added behind the tungsten shielding plate that is responsible for shielding the background radiation at the rear. PE) shielding body (133) was added.

도 6은 부호화구경, 광센서 어레이 상하좌우측면 및 후면부에 각각 보론 폴리에틸렌(Boron PE)를 덧댄 방사선(감마선 및 이중입자)영상 융합장치를 도시한 도면이다.Figure 6 is a diagram showing a radiation (gamma ray and double particle) image fusion device in which boron polyethylene (Boron PE) is added to the encoding aperture, the top, bottom, left, right, and rear sides of the optical sensor array, respectively.

본 발명의 중성자 차폐 부호화구경 및 이를 이용한 방사선(감마선 및 이중입자) 영상 융합장치에 대한 최종 도면은 전면 모자익 패턴 부분, 부호화구경 뒷부분의 광센서 어레이 상하측면 및 좌우측면, 장치 후면부에 보론 폴리에틸렌(Boron PE)를 추가한 형태로, 영상장치 전반적으로 중성자 차폐를 추가한 특징이 있다.The final drawing of the neutron-shielded encoding aperture of the present invention and the radiation (gamma ray and double particle) image fusion device using the same shows the front mosaic pattern portion, the top, bottom, and left and right sides of the optical sensor array behind the encoding aperture, and the boron polyethylene (Boron) on the back of the device. PE) is added, and has the feature of adding neutron shielding to the overall imaging device.

신호처리부(140)는 광센서 어레이(130)를 통해 획득된 전기신호에 기초하여, 감마선 및 중성자의 반응 위치, 반응 크기에 대한 반응 신호를 구별하는 역할을 한다. 이러한 신호처리부(140)는 광센서 어레이(130)를 통해 획득된 픽셀 별 신호의 크기, 위치 및 PSD 값을 추출하게 된다.The signal processing unit 140 serves to distinguish reaction signals for the reaction location and reaction size of gamma rays and neutrons, based on the electrical signal acquired through the optical sensor array 130. This signal processing unit 140 extracts the size, position, and PSD value of the signal for each pixel obtained through the optical sensor array 130.

영상 융합부(150)는 신호처리부(140)의 반응 신호에 기초하여, 감마선 및 중성자 각각의 반응 영상을 기록한 후, 감마선 및 중성자 각각의 반응 영상과 뎁스카메라(depth camera)(100)를 통해 획득된 방사선원의 현장 영상을 융합하여 융합 영상을 획득하는 역할을 한다.The image fusion unit 150 records reaction images of each gamma ray and neutron based on the reaction signal of the signal processing unit 140, and then acquires the reaction image of each gamma ray and neutron through the depth camera 100. It functions to obtain a fusion image by fusing the on-site images of the radiation source.

이때, 영상 융합부(150)는 소프트웨어 프로그램을 이용하여 감마선 영상, 중성자 영상 데이터를 획득 및 저장, 분석하고, 감마선 및 중성자 스펙트럼의 획득 및 저장, 분석, 시간별, 방사선량 별 정보 획득 및 저장, 분석하고 또한 감마선 및 중성자의 반응 위치를 연산하여 영상으로 편집하는 프로그램화된 소프트웨어가 저장된 일종의 컴퓨터에 해당한다.At this time, the image fusion unit 150 acquires, stores, and analyzes gamma-ray image and neutron image data using a software program, acquires, stores, and analyzes gamma-ray and neutron spectra, and acquires, stores, and analyzes information by time and radiation dose. It also corresponds to a type of computer that stores programmed software that calculates the reaction positions of gamma rays and neutrons and edits them into images.

실시간으로 현장의 영상에 대하여 재구성을 수행할 수 있도록 하며, 이를 재구성 하기 위한 알고리즘은, MLEM, Compressed-sensing과 같은 iterative한 영상 재구성 알고리즘을 사용하며 이를 위해 필요한 시스템 함수는 MCNP, GEANT4와 같은 모의 실험 코드를 이용하여 제작하거나, 수학적 모델링을 적용 하여 구한 시스템 함수를 사용한다. It allows reconstruction of on-site images in real time, and the algorithm for this reconstruction uses iterative image reconstruction algorithms such as MLEM and Compressed-sensing, and the system functions required for this are simulation experiments such as MCNP and GEANT4. It is produced using code, or a system function obtained by applying mathematical modeling is used.

이때 실시간으로 영상의 재구성을 위해 최소한의 iteration 수 및 재구성 시간을 사용하며 이전 정보를 초기화하여야 한다. 재구성 시간은 최소 100개의 정보를 얻을 수 있는 최소 시간을 의미한다.At this time, to reconstruct the image in real time, the minimum number of iterations and reconstruction time must be used and previous information must be initialized. Reconstruction time means the minimum time to obtain at least 100 pieces of information.

한편, 영상 융합부(150)에서 감마선 영상, 중성자 영상과 현장 영상을 융합하여 재구성하는 방법은 크게 두 가지로 구분된다.Meanwhile, there are two major methods for reconstruction by fusing gamma-ray images, neutron images, and field images in the image fusion unit 150.

첫번째로, 총 검출 시간을 정하여 그 시간 동안 검출되는 모든 신호를 이용하는 누적방식(integration mode)과, 두번째로, GUI의 계수율(count rate) 정보를 이용하여 총 검출되는 신호가 3000개가 되는 시간동안만 누적하여, 그때의 검출기 맵 정보를 위에서 언급한 영상재구성기법에 사용하는 실시간 방식(real-time mode)이다.Firstly, an integration mode that sets the total detection time and uses all signals detected during that time, and secondly, only during the time when the total number of detected signals reaches 3000 using the count rate information in the GUI. It is a real-time mode that accumulates and uses the detector map information at that time in the image reconstruction technique mentioned above.

예를 들어, 3000개의 검출 신호만으로도 영상 재구성 기법을 이용하여 방사선원의 영상을 재구성 할 수 있는데, 만약 방사선원으로부터 계수율이 300 cps(counts per second)라고 한다면 10초 동안 이벤트들을 기록하고 검출기의 맵을 만든 다음 영상 재구성하게 되는데, 이때 GUI 상으로는 100%의 진행률을 나타내는 표시부가 있어 언제쯤 방사선 영상이 표시 될 것인지 예측할 수 있다.For example, an image of a radiation source can be reconstructed using an image reconstruction technique with only 3000 detection signals. If the count rate from the radiation source is 300 cps (counts per second), events are recorded for 10 seconds and a map of the detector is created. Next, the image is reconstructed, and at this time, there is a display on the GUI that shows the progress rate of 100%, so you can predict when the radiology image will be displayed.

디스플레이(180)는 영상 융합부(150)를 통해 처리된 영상 데이터, 에너지 스펙트럼, 계수율 및 온도값을 출력하는 역할을 한다. The display 180 serves to output image data, energy spectrum, count rate, and temperature values processed through the image fusion unit 150.

이때, 본 발명은 GPS를 통해 방사선원의 실시간 위치 정보를 획득하여 이를 디스플레이(180)를 통해 화면으로 출력하게 된다.At this time, the present invention obtains real-time location information of the radiation source through GPS and outputs it on the screen through the display 180.

또한 본 발명에서는 배터리(160)를 통해 부호화구경 기반 방사선(감마선 및 이중입자) 영상융합장치 전체에 전원을 공급할수 있는데, 이때 배터리(160)는 충전이 가능한 이차 전지가 적용될 수 있고, 다른 실시예에서는 배터리(160)가외부 전원 케이블과 연결되어 직접 전원을 공급받는 역할을 할 수도 있다.In addition, in the present invention, power can be supplied to the entire coding aperture-based radiation (gamma ray and double particle) image fusion device through the battery 160. In this case, the battery 160 may be a rechargeable secondary battery, and in another embodiment In this case, the battery 160 may be connected to an external power cable to directly receive power.

또한 본 발명에서는 신호처리부(140) 및 영상 융합부(150)의 데이터 처리 과정에서 발생되는 열을 외부로 방출 및 냉각시키기 위한 쿨링팬(170)를 구비할 수 있다.Additionally, in the present invention, a cooling fan 170 may be provided to radiate and cool heat generated during the data processing of the signal processing unit 140 and the image fusion unit 150 to the outside.

또한, 광센서 어레이(130) 및 신호처리부(140) 사이에는 텅스텐 재질의 차폐체가 마련됨에 따라, 신호처리부(130)의 후방에서 광센서 어레이(130)를 향하는 방향으로 방출되는 배경 방사선이 차폐됨으로써 보다 정확한 데이터 획득이 가능한 이점을 가지게 된다.In addition, as a shield made of tungsten is provided between the optical sensor array 130 and the signal processing unit 140, background radiation emitted from the rear of the signal processing unit 130 toward the optical sensor array 130 is shielded. This has the advantage of being able to obtain more accurate data.

살펴본 바와 같이, 본 발명의 상기와 같은 구성을 통해, 본 발명은 실제 현장 영상과 융합된 방사선의 위치, 초당 선량, 스펙트럼 정보를 통한 핵종 판별, GPS 정보를 통한 현장 위치 등의 정보를 시각화함으로써 작업자 안전을 도모할 수 있고, 휴대가 간편하도록 함으로써 위치 이동에 따른 방사선 분포 지도 작성이 가능한 이점을 가지게 된다.As seen, through the above-described configuration of the present invention, the present invention visualizes information such as the location of radiation fused with the actual site image, dose per second, nuclide discrimination through spectral information, and site location through GPS information, so that the operator can It has the advantage of being able to create a radiation distribution map according to location movement by promoting safety and making it easy to carry.

한편, 입체 지형 센싱 모듈(20)은 라이다 장비(3차원 형상 정보를 디지털 정보로 가지고 있음)를 방사선 측정용 센싱 모듈(10)의 주변 일측에 설치하여 삼각법에 의한 디지털 좌표가 3D 입체 영상으로 출력(방사선 측정 대상지역의 오염여부 또는 탐지된 방사선원이 3D 입체 영상에 출력되고, 라이다 형상 디지털 좌표에 방사선 위치를 맵핑하게 되면 어떤 구조물에서 방사능 오염지역이 어디인지 출력되도록 하는 것)되도록 형성된다.Meanwhile, the three-dimensional terrain sensing module 20 installs LiDAR equipment (which has three-dimensional shape information as digital information) on one side of the sensing module for radiation measurement (10) to convert digital coordinates using trigonometry into a three-dimensional image. It is formed to output (the contamination of the radiation measurement target area or the detected radiation source is output in a 3D stereoscopic image, and when the radiation location is mapped to the LiDAR-shaped digital coordinates, it outputs which structure is the radioactive contaminated area). .

이에, 무인 탑재체(30)는 방사선 측정용 센싱 모듈(10)과 입체 지형 센싱 모듈(20)이 탑재되도록 하되, 험지 또는 방사선 오염대상 지역에 배치(돌아다니면서 주변지역의 방사선 오염분포를 획득)되어 무인 또는 자율 주행 방식으로 운행이 수행되도록 형성된다.Accordingly, the unmanned payload 30 is equipped with a sensing module 10 for measuring radiation and a three-dimensional terrain sensing module 20, but is placed in a rough area or an area subject to radiation contamination (moving around to obtain the distribution of radiation contamination in the surrounding area). It is configured to operate in an unmanned or autonomous manner.

이때, 무인 탑재체(30)는 무선통신에 의해 구동체(바퀴, 무한궤도 트랙, 관절식 보행레그 중 어느 하나)가 제어되면서 무인으로 운행(전후진, 회전 또는 동작)되는 사족로봇, 로봇견, 무인로봇 중 어느 하나인 것이 바람직하다.At this time, the unmanned payload 30 is a four-legged robot, a robot dog, or a robot that moves unmanned (forward and backward, rotates or moves) while the driving body (one of wheels, crawler tracks, and articulated walking legs) is controlled by wireless communication. It is desirable to use one of the unmanned robots.

이에, 무인 운용식 방사선 측정장치는 온라인 웹상(인터넷 포털 사이트 등)의 맵 어플(네이버, 다음, 구글 맵)과 연동하면서 방사선이 측정된 지역의 오염도 여부를 웹 서버나 전산용 서버로 하여금 데이터화하도록 하는 것이 바람직하다.Accordingly, the unmanned operation radiation measuring device links with map applications (Naver, Daum, Google Map) on the online web (Internet portal sites, etc.) and allows the web server or computer server to dataify the degree of contamination in the area where radiation was measured. It is desirable to do so.

또한, 입체 지형 센싱 모듈(20)은 무인 탑재체(30) 일측에 장착시 원터치 장착구(50)에 의해 장착되는 것이 바람직하다.In addition, the three-dimensional terrain sensing module 20 is preferably mounted on one side of the unmanned payload 30 using the one-touch mounting hole 50.

즉, 입체 지형 센싱 모듈(20)은 케이스(40)에 의해 케이싱되는 것으로, 케이스(40)는 하부에 원터치 장착구(50)가 형성되어 무인 탑재체(30)의 상면에 대하여 탈장착되도록 형성된다.That is, the three-dimensional terrain sensing module 20 is cased by a case 40, and the case 40 is formed with a one-touch mounting hole 50 at the bottom so that it can be mounted and detached from the upper surface of the unmanned payload 30.

이에, 원터치 장착구(50)는 도 7 내지 도 9에 도시된 바와 같이, 홀더(51)와 지지브라켓(52)으로 크게 구성된다.Accordingly, the one-touch mounting device 50 is largely composed of a holder 51 and a support bracket 52, as shown in FIGS. 7 to 9.

이때, 홀더(51)는 케이스(40)에 일체로 구비된 것으로 일종의 판넬 형태로서, 홀더의 저면에는 끼움용 삽입링(55)이 구비되도록 형성된다.At this time, the holder 51 is integrally provided with the case 40 and has a type of panel shape, and an insertion ring 55 for fitting is provided on the bottom of the holder.

이에, 삽입링(55)의 외주면에는 설정된 간격과 단차를 두고 복수의 스토퍼(56)와 걸림턱(57)이 구비되도록 형성되고, 스토퍼(56)는 일측 회전방향을 따라 오르막 형태의 경사면(56-1)이 형성되어 지지브라켓(52: 무인 탑재체의 윗면에 일체로 구비된 판상의 플레이트로 형성됨)의 삽입공(53)에 삽입되면 삽입공의 내주면에 형성된 반구돌기(54)의 반구면과 밀착 고정되도록 형성된다.Accordingly, the outer peripheral surface of the insertion ring 55 is formed to be provided with a plurality of stoppers 56 and a locking protrusion 57 at set intervals and steps, and the stopper 56 is formed on an uphill inclined surface 56 along one rotation direction. -1) is formed and inserted into the insertion hole 53 of the support bracket (52: formed of a plate-shaped plate integrally provided on the upper surface of the unmanned payload), the hemispherical surface of the hemispherical protrusion 54 formed on the inner peripheral surface of the insertion hole and It is formed to be tightly fixed.

이때, 경사면(56-1)의 구간 중 하이탑 높이측에는 원호형 또는 반구형의 장착홈(56-2)이 형성되어 반구돌기(54)의 반구면이 대응되면서 원주방향 과회전을 방지하면서 원터치 끼움방식으로 결합되도록 형성된다.(최상측 높이에서 수납 후 가압 체결)At this time, an arc-shaped or hemispherical mounting groove 56-2 is formed on the high-top height side of the section of the inclined surface 56-1, so that the hemispherical surface of the hemispherical protrusion 54 corresponds to it, preventing over-rotation in the circumferential direction and one-touch insertion. It is formed to be joined in a way (stored at the highest height and then pressed together).

이때, 걸림턱(57)은 스토퍼와 직교된 방향(대략 90°)이거나 설정된 각도만큼 스토퍼와 이격된 각도에 배치되면서 돌출되는 것으로, 일측방향이 개구된 디귿자 형태의 단면을 갖도록 형성된다.At this time, the locking protrusion 57 is disposed in a direction perpendicular to the stopper (approximately 90°) or protrudes at an angle spaced apart from the stopper by a set angle, and is formed to have a diagonal cross-section with an opening in one direction.

이러한 걸림턱 긴 면(디귿자 형태 중 짧은 다리를 연결하는 긴 면)이 삽입링의 회전과 함께 반구돌기의 밑단(또는 측단)으로 들어가면서 삽입공에 삽입된 삽입링이 외측으로 빠지지 않도록 형성된다.The long side of this locking protrusion (the long side that connects the short legs in the form of a digger) enters the bottom (or side end) of the hemispheric protrusion with the rotation of the insertion ring, and is formed to prevent the insertion ring inserted into the insertion hole from falling outward.

다시 말해, 본 발명의 원터치 장착구(50)는 홀더(51)와 지지브라켓(52)으로 구성되는 것으로, 지지브라켓의 삽입공에 홀더의 삽입링이 대응되면서 끼움 조립되도록 하되, 삽입링은 외주면에 스토퍼와 걸림턱이 형성되어 삽입공의 반구돌기와 대응되면서 회전 체결시 스토퍼의 경사면과 장착홈을 통해 반구돌기의 반구면이 가압 및 암수 요철 형태로 체결되도록 형성되고, 걸림턱은 홀더가 지지브라켓과 조립된 상태에서 상호 이탈되지 않도록 반구돌기의 일측단(안쪽 끝단 부분)에 걸려 빠지지 않도록 형성된다.(반대로 역회전하면 풀리도록 형성됨)In other words, the one-touch mounting device 50 of the present invention is composed of a holder 51 and a support bracket 52, and the insertion ring of the holder corresponds to the insertion hole of the support bracket and is assembled by fitting, and the insertion ring is attached to the outer peripheral surface. A stopper and a locking protrusion are formed to correspond to the hemispherical protrusion of the insertion hole, and when rotating, the hemispherical surface of the hemispherical protrusion is pressed and fastened in the form of male and female protrusions through the inclined surface of the stopper and the mounting groove. It is formed to be caught on one end (inner end) of the hemispherical protrusion so that it does not separate from each other in the assembled state. (Conversely, it is formed to be released when rotated in reverse).

이는 신속한 결합성과 체결성 및 간편한 작업성과 높은 체결 신뢰성을 확보하도록 하기 위함이다.This is to ensure quick assembly and fastening, easy workability, and high fastening reliability.

본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 고안이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.The present invention is not limited to the specific preferred embodiments described above, and various modifications can be made by anyone skilled in the art without departing from the gist of the invention as claimed in the claims. Of course, such changes are within the scope of the claims.

10 ... 방사선 측정용 센싱 모듈 20 ... 입체 지형 센싱 모듈
30 ... 무인 탑재체 40 ... 케이스
50 ... 원터치 장착구
100 ... 뎁스카메라(depth camera) 110 ... 부호화구경
125 ... 섬광체 어레이 130 ... 광센서 어레이
140 ... 신호처리부 150 ... 영상 융합부
160 ... 배터리 170 ... 쿨링팬
180 ... 디스플레이
10 ... sensing module for radiation measurement 20 ... three-dimensional terrain sensing module
30 ... unmanned payload 40 ... case
50 ... one-touch mounting hole
100 ... Depth camera 110 ... Encoding aperture
125 ... scintillator array 130 ... optical sensor array
140 ... signal processing unit 150 ... image fusion unit
160 ... Battery 170 ... Cooling fan
180 ... display

Claims (5)

부호화 구경 기반 방사선 영상 융합장치가 2개의 유닛으로 일정 간격을 두고 나란하게 배치되도록 하되, 2개의 유닛으로 분리된 각각의 영상 융합장치에 내장된 뎁스카메라(depth camera)는 원근 입체 화상을 얻을 수 있도록 하는 방사선 측정용 센싱 모듈(10)과; 라이다 장비를 방사선 측정용 센싱 모듈(10)의 주변 일측에 설치하여 삼각법에 의한 디지털 좌표가 3D 입체 영상으로 출력되도록 하는 입체 지형 센싱 모듈(20)과; 방사선 측정용 센싱 모듈(10)과 입체 지형 센싱 모듈(20)이 탑재되도록 하되, 험지 또는 방사선 오염대상 지역에 배치되어 무인 또는 자율 주행 방식으로 운행이 수행되도록 하는 무인 탑재체(30)가; 구성되어 이루어진 3차원 방사선 오염지역 무인 탐지를 위한 스테레오 카메라 및 4족보행 로봇 결합 시스템에 있어서,
방사선 측정용 센싱 모듈(10)은 부호화 구경 기반 방사선 영상 융합장치로서, 뎁스카메라(depth camera: 100), 부호화구경(110), 섬광체 어레이(125), 광센서 어레이(130), 신호처리부(140), 영상 융합부(150), 디스플레이(180)가 포함되고, 추가로 배터리(160)와 쿨링 팬(170) 및 방사선원의 실시간 위치 정보를 제공하는 GPS(미도시)를 포함되도록 하되, 부호화구경의 텅스텐 마스크 패턴의 앞단에는 동일한 패턴의 보론 폴리에틸렌(Boron PE) 마스크(111)를 덧대어 중성자 차폐를 도모하도록 형성되고,
입체 지형 센싱 모듈(20)은 무인 탑재체(30) 일측에 장착시 원터치 장착구(50)에 의해 장착되도록 하되, 입체 지형 센싱 모듈(20)은 케이스(40)에 의해 케이싱되는 것으로, 케이스(40)는 하부에 원터치 장착구(50)가 형성되어 무인 탑재체(30)의 상면에 대하여 탈장착되도록 형성되고, 원터치 장착구(50)는 홀더(51)와 지지브라켓(52)으로 구성되도록 하되, 홀더(51)는 케이스(40)에 일체로 구비된 것으로 일종의 판넬 형태로서, 홀더의 저면에는 끼움용 삽입링(55)이 구비되도록 형성되며, 삽입링(55)의 외주면에는 설정된 간격과 단차를 두고 복수의 스토퍼(56)와 걸림턱(57)이 구비되도록 형성되고, 스토퍼(56)는 일측 회전방향을 따라 오르막 형태의 경사면(56-1)이 형성되어 지지브라켓(52)의 삽입공(53)에 삽입되면 삽입공의 내주면에 형성된 반구돌기(54)의 반구면과 밀착 고정되도록 형성되며, 경사면(56-1)의 구간 중 하이탑 높이측에는 원호형 또는 반구형의 장착홈(56-2)이 형성되어 반구돌기(54)의 반구면이 대응되면서 원주방향 과회전을 방지하면서 원터치 끼움방식으로 결합되도록 형성되고, 걸림턱(57)은 스토퍼와 직교된 방향이거나 설정된 각도에 따라 스토퍼와 이격된 각도에 배치되면서 돌출되는 것으로, 일측방향이 개구된 디귿자 형태의 단면을 갖도록 형성되며, 걸림턱 긴 면이 삽입링의 회전과 함께 반구돌기의 밑단 또는 측단으로 들어가면서 삽입공에 삽입된 삽입링이 외측으로 빠지지 않도록 체결되는 것을 특징으로 하는 3차원 방사선 오염지역 무인 탐지를 위한 스테레오 카메라 및 4족보행 로봇 결합 시스템.
The coding aperture-based radiation image fusion device is arranged in two units side by side at a certain interval, and the depth camera built into each image fusion device separated into two units is designed to obtain perspective and three-dimensional images. A sensing module 10 for measuring radiation; A three-dimensional terrain sensing module (20) that installs LiDAR equipment on one side of the radiation measurement sensing module (10) to output digital coordinates using trigonometry as a 3D stereoscopic image; An unmanned payload (30) is equipped with a radiation measurement sensing module (10) and a three-dimensional terrain sensing module (20), and is deployed in rough terrain or radiation-contaminated areas to operate in an unmanned or autonomous manner; In the system consisting of a stereo camera and a four-legged walking robot for unmanned detection of 3D radiation-contaminated areas,
The sensing module 10 for radiation measurement is an encoding aperture-based radiation image fusion device, which includes a depth camera (100), an encoding aperture (110), a scintillator array (125), an optical sensor array (130), and a signal processor (140). ), an image fusion unit 150, a display 180, and additionally a battery 160, a cooling fan 170, and a GPS (not shown) that provides real-time location information of the radiation source. A boron polyethylene (Boron PE) mask 111 of the same pattern is added to the front end of the tungsten mask pattern to ensure neutron shielding,
The three-dimensional terrain sensing module 20 is mounted on one side of the unmanned payload 30 using the one-touch mounting hole 50. The three-dimensional terrain sensing module 20 is cased by the case 40, and the case 40 ) is formed with a one-touch mounting port 50 at the bottom so that it can be mounted and detached from the upper surface of the unmanned payload 30. The one-touch mounting port 50 is composed of a holder 51 and a support bracket 52, and the holder (51) is provided integrally with the case 40 and is in the form of a kind of panel, and is formed so that an insertion ring 55 for fitting is provided on the bottom of the holder, and the outer peripheral surface of the insertion ring 55 is left at a set interval and step. It is formed to be provided with a plurality of stoppers 56 and a locking protrusion 57, and the stopper 56 is formed with an inclined surface 56-1 in an uphill shape along one rotation direction to insert the insertion hole 53 of the support bracket 52. ), when inserted into the insertion hole, it is formed to be tightly fixed to the hemispherical surface of the hemispherical protrusion 54 formed on the inner peripheral surface of the insertion hole, and an arc-shaped or hemispherical mounting groove 56-2 is formed on the high-top height side of the section of the inclined surface 56-1. This is formed so that the hemispherical surface of the hemispherical protrusion 54 corresponds to prevent over-rotation in the circumferential direction and is coupled in a one-touch insertion method, and the locking protrusion 57 is oriented perpendicular to the stopper or spaced apart from the stopper according to a set angle. It is placed at an angle and protrudes, and is formed to have a cross-section in the form of a diagonal opening in one direction. As the long side of the locking jaw moves into the bottom or side end of the hemispherical protrusion with the rotation of the insertion ring, the insertion ring inserted into the insertion hole moves to the outer side. A stereo camera and four-legged robot combination system for unmanned detection of 3D radiation-contaminated areas, characterized in that it is fastened so as not to fall out.
삭제delete 제 1항에 있어서, 무인 탑재체(30)는
무선통신에 의해 구동체가 제어되면서 무인으로 운행되는 사족로봇, 로봇견, 무인로봇 중 어느 하나인 것을 특징으로 하는 3차원 방사선 오염지역 무인 탐지를 위한 스테레오 카메라 및 4족보행 로봇 결합 시스템.
The method of claim 1, wherein the unmanned payload (30) is
A stereo camera and four-legged robot combination system for unmanned detection of 3D radiation-contaminated areas, characterized in that it is one of a quadruped robot, a robot dog, and an unmanned robot that operates unmanned while the driving body is controlled by wireless communication.
제 1항에 있어서, 무인 운용식 방사선 측정장치는 온라인 웹상의 맵 어플과 연동하면서 방사선이 측정된 지역의 오염도 여부를 웹 서버나 전산용 서버로 하여금 데이터화하도록 하는 것을 특징으로 하는 3차원 방사선 오염지역 무인 탐지를 위한 스테레오 카메라 및 4족보행 로봇 결합 시스템.The three-dimensional radiation contaminated area according to claim 1, wherein the unmanned operation radiation measurement device is linked with a map application on the online web and allows a web server or computer server to convert the contamination level of the area where radiation was measured into data. A stereo camera and four-legged robot combined system for unmanned detection. 삭제delete
KR1020230033287A 2023-03-14 2023-03-14 Stereo camera and quadrupedal robot combined system for unmanned detection of 3D radioactive contamination area KR102608026B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230033287A KR102608026B1 (en) 2023-03-14 2023-03-14 Stereo camera and quadrupedal robot combined system for unmanned detection of 3D radioactive contamination area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230033287A KR102608026B1 (en) 2023-03-14 2023-03-14 Stereo camera and quadrupedal robot combined system for unmanned detection of 3D radioactive contamination area

Publications (1)

Publication Number Publication Date
KR102608026B1 true KR102608026B1 (en) 2023-11-29

Family

ID=88969124

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230033287A KR102608026B1 (en) 2023-03-14 2023-03-14 Stereo camera and quadrupedal robot combined system for unmanned detection of 3D radioactive contamination area

Country Status (1)

Country Link
KR (1) KR102608026B1 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101349785B1 (en) * 2012-08-06 2014-01-15 한국원자력연구원 Detecting device of gamma-ray radiation source using cameras and robot having the same
KR102123562B1 (en) 2018-11-26 2020-06-16 제주대학교 산학협력단 System for processing 3-dimensional visualization of radiation source distribution using coded-apertures
KR102389288B1 (en) * 2021-10-07 2022-04-22 제주대학교 산학협력단 Neutron Shielding Coding Aperture And Double Particle Image Fusion Device Using The Same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101349785B1 (en) * 2012-08-06 2014-01-15 한국원자력연구원 Detecting device of gamma-ray radiation source using cameras and robot having the same
KR102123562B1 (en) 2018-11-26 2020-06-16 제주대학교 산학협력단 System for processing 3-dimensional visualization of radiation source distribution using coded-apertures
KR102389288B1 (en) * 2021-10-07 2022-04-22 제주대학교 산학협력단 Neutron Shielding Coding Aperture And Double Particle Image Fusion Device Using The Same

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Simon Watson, 외 2인. 원자력 환경에서 로봇과 자율 시스템의 활용. 한국원자력산업협회 원전 해체 정보 시리즈, 2020년 2월 공개* *
원전 기기 원격 및 평가 시스템 모델링, 한국 원자력 연구소, 2003년 3월 공개* *

Similar Documents

Publication Publication Date Title
Sato et al. Radiation imaging using a compact Compton camera mounted on a crawler robot inside reactor buildings of Fukushima Daiichi Nuclear Power Station
Vetter et al. Gamma-Ray imaging for nuclear security and safety: Towards 3-D gamma-ray vision
US6815687B1 (en) Method and system for high-speed, 3D imaging of optically-invisible radiation
ES2512502T3 (en) Apparatus and method for the detection of radioactive materials
JP5918093B2 (en) Radiation measurement apparatus and radiation measurement method
US10274614B2 (en) High speed gamma imaging device
US20120039446A1 (en) Interwoven multi-aperture collimator for 3-dimensional radiation imaging applications
KR102049518B1 (en) An imaging device that combines gamma-ray images with visual optical camera images
KR102123562B1 (en) System for processing 3-dimensional visualization of radiation source distribution using coded-apertures
KR102389288B1 (en) Neutron Shielding Coding Aperture And Double Particle Image Fusion Device Using The Same
WO2022010065A1 (en) Apparatus for fusing dual particle images on basis of coded aperture
Kagaya et al. Development of a low-cost-high-sensitivity Compton camera using CsI (Tl) scintillators (γI)
WO2022010144A1 (en) Method for fusing dual particle images by using coded-aperture-based dual particle image fusing device
EP3674752B1 (en) Detector system and radiation imaging device
Muraishi et al. Visualization of low-level gamma radiation sources using a low-cost, high-sensitivity, omnidirectional compton camera
KR102608026B1 (en) Stereo camera and quadrupedal robot combined system for unmanned detection of 3D radioactive contamination area
EP0613023B1 (en) Radiation camera systems
Roser et al. Compton cameras and their applications
Sato et al. Three-dimensional visualization of a beta-emitting nuclide by combining a directional Geiger-Mueller counter and structure from motion
KR102613228B1 (en) Mounted radiation detection device with 360° panoramic search radius
KR102608024B1 (en) A radiation measurement device in which a radiation measurement sensing module and a Google Glass module are mounted on a helmet
Sato et al. Automatic data acquisition for visualizing radioactive substances by combining a gamma-ray imager and an autonomous mobile robot
Sato et al. 3D position and radioactivity estimation of radiation source by a simple directional radiation detector combined with structure from motion
Mascarich et al. Towards robotically supported decommissioning of nuclear sites
Han et al. Development and evaluation of a compact gamma camera for radiation monitoring

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant