KR102339339B1 - 월파의 부피 산정 방법 - Google Patents

월파의 부피 산정 방법 Download PDF

Info

Publication number
KR102339339B1
KR102339339B1 KR1020210020602A KR20210020602A KR102339339B1 KR 102339339 B1 KR102339339 B1 KR 102339339B1 KR 1020210020602 A KR1020210020602 A KR 1020210020602A KR 20210020602 A KR20210020602 A KR 20210020602A KR 102339339 B1 KR102339339 B1 KR 102339339B1
Authority
KR
South Korea
Prior art keywords
image
wave
view
overpass
image frames
Prior art date
Application number
KR1020210020602A
Other languages
English (en)
Inventor
강용덕
문종윤
조완희
성보람
양창은
Original Assignee
(주)해양정보기술
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)해양정보기술 filed Critical (주)해양정보기술
Application granted granted Critical
Publication of KR102339339B1 publication Critical patent/KR102339339B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • G06T5/002
    • G06T5/006
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/24Fluid dynamics

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)

Abstract

본 개시는 연안에서 발생하는 월파의 부피 산정 방법에 관한 것이다. 복수의 이미지 센서로부터 연안에 대한 복수의 이미지 프레임을 획득하는 단계 - 복수의 이미지 센서는 서로 다른 시야에서 연안을 촬상하도록 구성됨 -, 획득된 복수의 이미지 프레임 중에서 복수의 제1 이미지 프레임 및 복수의 제2 이미지 프레임을 선택하는 단계, 선택된 복수의 제1 이미지 프레임 및 선택된 복수의 제2 이미지 프레임으로부터 관심 영역 내에 위치하는 객체를 추출하는 단계, 추출된 객체에 대한 깊이 맵을 생성하는 단계 및 생성된 깊이 맵을 이용하여, 객체의 부피를 산출하는 단계를 포함한다.

Description

월파의 부피 산정 방법{METHOD FOR CALCULATE VOLUME OF WAVE OVERTOPPING}
본 개시는 월파의 부피 산정 방법에 관한 것이다. 보다 상세하게는 연안에서 발생하는 월파의 부피를 산정하기 위한 방법에 관한 것이다.
월파는 파도의 처오름 작용에 의하여 바닷물이 방파제나 방조제의 마루를 넘는 현상을 말한다. 이러한 월파는 해마다 연안에 침수를 야기하며, 재산 및 인명 피해를 발생시킬 수 있다. 월파량(월파의 부피)은 해안 구조물 배후지의 중요도, 배수시설 상황 등에 따라 허용 월파량이 달라지기 때문에, 해안 구조물의 적정 설계 높이를 지정하기 위해서는 월파의 부피를 산정하는 것이 중요하다.
그러나, 종래의 월파량 산정 방법은 사람이 관측 장비를 가지고 연안을 이동하며 직접 관측하는 방법이 보편적이다. 이러한 종래의 월파량 산정 방법에 따르면, 많은 인력 및 시간이 소요될 뿐만 아니라, 유지보수를 위한 지속적인 모니터링이 어려울 수 있었다.
본 개시는 상기와 같은 문제점을 해결하기 위한 월파의 부피 산정 방법, 시스템(장치), 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램 및 컴퓨터 판독 가능한 기록 매체를 제공한다.
본 개시는 방법, 시스템(장치) 또는 판독 가능 저장 매체에 저장된 컴퓨터 프로그램을 포함한 다양한 방식으로 구현될 수 있다.
본 개시의 일 실시예에 따른 연안에서 발생하는 월파의 부피 산정 방법은, 복수의 이미지 센서로부터 연안에 대한 복수의 이미지 프레임을 획득하는 단계 - 복수의 이미지 센서는 서로 다른 시야에서 연안을 촬상하도록 구성됨 -, 획득된 복수의 이미지 프레임 중에서 복수의 제1 이미지 프레임 및 복수의 제2 이미지 프레임을 선택하는 단계, 선택된 복수의 제1 이미지 프레임 및 선택된 복수의 제2 이미지 프레임으로부터 관심 영역 내에 위치하는 객체를 추출하는 단계, 추출된 객체에 대한 깊이 맵을 생성하는 단계 및 생성된 깊이 맵을 이용하여, 객체의 부피를 산출하는 단계를 포함한다.
본 개시의 일 실시예에 따르면, 복수의 이미지 센서는 제1 이미지 센서 및 제2 이미지 센서를 포함하고, 제1 이미지 센서는 제1 시야에서 복수의 이미지 프레임 중 일부를 촬상하도록 구성되고, 제2 이미지 센서는 제2 시야에서 복수의 이미지 프레임 중 나머지 일부를 촬상하도록 구성된다.
본 개시의 일 실시예에 따르면, 획득된 복수의 이미지 프레임 중에서 복수의 제1 이미지 프레임 및 복수의 제2 이미지 프레임을 선택하는 단계는, 제1 시야 및 제2 시야 각각에서 획득된 복수의 이미지 프레임 중에서, 제1 시야 및 제2 시야 각각에서 월파가 발생하지 않은 이미지 프레임을, 복수의 제1 이미지 프레임으로 선택하는 단계 및 제1 시야 및 제2 시야 각각에서 획득된 복수의 이미지 프레임 중에서, 제1 시야 및 제2 시야 각각에서 월파에서의 파도의 면적이 미리 결정된 면적 이상인 프레임을 복수의 제2 이미지 프레임으로 선택하는 단계를 포함한다.
본 개시의 일 실시예에 따르면, 선택된 복수의 제1 이미지 프레임 및 선택된 복수의 제2 이미지 프레임에 기초하여 관심 영역 내에 위치하는 객체를 추출하는 단계는, 제1 시야에서의 제1 이미지 프레임 및 제2 이미지 프레임을 이용하여 제1 객체 이미지를 생성하는 단계 및 제2 시야에서의 제1 이미지 프레임 및 제2 이미지 프레임을 이용하여 제2 객체 이미지를 생성하는 단계를 포함하며, 제1 시야에서의 제2 이미지 프레임 및 제2 시야에서의 제2 이미지 프레임은 동시간에 획득된다.
본 개시의 일 실시예에 따르면, 제1 객체 이미지를 생성하는 단계 및 제2 객체 이미지를 생성하는 단계 이전에, 제1 시야 및 제2 시야의 각각에서 선택된 제1 이미지 프레임 및 선택된 제2 이미지 프레임에 대해 굴절 왜곡 보정 또는 기하 왜곡 보정 중 적어도 하나를 수행하는 단계를 더 포함한다.
본 개시의 일 실시예에 따르면, 제1 시야에서의 제1 이미지 프레임 및 제2 이미지 프레임을 이용하여 제1 객체 이미지를 생성하는 단계는, 제1 시야에서 획득된 월파에서의 파도의 면적이 미리 결정된 면적 이상인 제2 이미지 프레임 및 월파가 발생하지 않은 제1 이미지 프레임의 차이를 기초로 제1 객체를 추출하는 단계 및 추출된 제1 객체를 포함하는 이미지를 제1 객체 이미지로서 결정하는 단계를 포함하고, 제2 시야에서의 제1 이미지 프레임 및 제2 이미지 프레임을 이용하여 제2 객체 이미지를 생성하는 단계는, 제2 시야에서 획득된 월파에서의 파도의 면적이 미리 결정된 면적 이상인 제2 이미지 프레임 및 월파가 발생하지 않은 제1 이미지 프레임의 차이를 기초로 제2 객체를 추출하는 단계 및 추출된 제2 객체를 포함하는 이미지를 제2 객체 이미지로서 결정하는 단계를 포함한다.
본 개시의 일 실시예에 따르면, 추출된 객체에 대해 깊이 맵을 생성하는 단계는, 제1 객체 이미지 및 제2 객체 이미지 각각에 대해 렉티피케이션(rectification)을 수행하는 단계, 렉티피케이션이 수행된 제1 객체 이미지 및 제2 객체 이미지를 비교함으로써, 시차(disparity)를 산출하는 단계 및 산출된 시차를 기초로 객체의 깊이 맵을 생성하는 단계를 포함한다.
본 개시의 일 실시예에 따르면, 제1 객체 이미지 및 제2 객체 이미지 각각에 대해 렉티피케이션을 수행하는 단계는, 제1 객체 이미지 내에서의 제1 객체의 좌표 및 제2 객체 이미지 내에서의 제2 객체의 좌표 각각이 에피폴라 라인(epipolar line) 상에 존재하도록, 제1 이미지 센서 및 제2 이미지 센서 사이의 위치 관계를 기초로, 제1 객체 이미지 및 제2 객체 이미지를 변환하는 단계 - 제1 객체의 좌표와 제2 객체의 좌표는 3차원 상의 동일한 좌표를 지칭함 - 를 포함한다.
본 개시의 일 실시예에 따르면, 추출된 객체에 대해 깊이 맵을 생성하는 단계는, 제1 객체 이미지 및 제2 객체 이미지 각각에 대해 렉티피케이션을 수행하는 단계 이전에, 제1 객체의 내부 영역 및 제2 객체의 내부 영역에 대한 노이즈를 필터링하는 단계, 제1 객체의 주변 영역 및 제2 객체의 주변 영역에 대한 노이즈를 필터링하는 단계 및 제1 객체 및 제2 객체의 내부를 정규화하는 단계를 더 포함한다.
본 개시의 일 실시예에 따른 월파의 부피 산정 방법을 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램이 제공될 수 있다.
본 개시의 일부 실시예들에 따르면, 연안에 고정적으로 설치된 영상 촬영 장치를 통해 촬영된 하나 이상의 이미지를 분석함으로써 월파의 부피를 산정하기 때문에, 월파의 부피 산정을 위한 인력, 시간 및 비용을 줄일 수 있다.
본 개시의 일부 실시예들에 따르면, 연안에서 설치된 영상 촬영 장치에 의해 촬영된 복수의 이미지를 분석함으로써 월파의 부피를 산정하기 때문에, 지속적인 모니터링이 가능할 뿐만 아니라, 해안 구조물의 유지보수 및 안전관리가 용이하게 수행될 수 있다.
본 개시의 효과는 이상에서 언급한 효과로 제한되지 않으며, 언급되지 않은 다른 효과들은 청구범위의 기재로부터 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자("통상의 기술자"라 함)에게 명확하게 이해될 수 있을 것이다.
본 개시의 실시예들은, 이하 설명하는 첨부 도면들을 참조하여 설명될 것이며, 여기서 유사한 참조 번호는 유사한 요소들을 나타내지만, 이에 한정되지 않는다.
도 1은 본 개시의 일 실시예에 따른 월파의 부피를 산정하는 시스템을 나타내는 예시적인 구성도이다.
도 2는 본 개시의 일 실시예에 따른 정보 처리 시스템의 예시적인 구성도이다.
도 3은 본 개시의 일 실시예에 따른 월파의 부피를 산정하는 시스템을 나타내는 예시적인 구성도이다.
도 4는 본 개시의 일 실시예에 따른 프로세서의 내부 구성을 나타내는 블록도이다.
도 5는 본 개시의 일 실시예에 따른 1회의 월파를 구분하는 방법을 나타내는 예시적인 흐름도이다.
도 6은 본 개시의 일 실시예에 따른 월파 여부에 따른 이미지 프레임 선택을 나타내는 예시도이다.
도 7은 본 개시의 일 실시예에 따른 관심 영역 내에 위치하는 객체를 추출하는 것을 나타내는 예시도이다.
도 8은 본 개시의 일 실시예에 따른 깊이 맵 생성 이전에 노이즈 필터링의 수행을 나타내는 예시도이다.
도 9는 본 개시의 일 실시예에 따른 객체에 대한 깊이 맵을 생성하는 것을 나타내는 예시도이다.
도 10은 본 개시의 일 실시예에 따른 월파의 부피를 산정하는 방법을 나타내는 예시적인 흐름도이다.
이하, 본 개시의 실시를 위한 구체적인 내용을 첨부된 도면을 참조하여 상세히 설명한다. 다만, 이하의 설명에서는 본 개시의 요지를 불필요하게 흐릴 우려가 있는 경우, 널리 알려진 기능이나 구성에 관한 구체적 설명은 생략하기로 한다.
첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응하는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.
개시된 실시예의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 개시는 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시가 완전하도록 하고, 본 개시가 속하는 기술분야에서 통상의 기술자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것일 뿐이다.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 개시된 실시예에 대해 구체적으로 설명하기로 한다. 본 명세서에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 관련 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.
본 명세서에서의 단수의 표현은 문맥상 명백하게 단수인 것으로 특정하지 않는 한, 복수의 표현을 포함한다. 또한, 복수의 표현은 문맥상 명백하게 복수인 것으로 특정하지 않는 한, 단수의 표현을 포함한다. 명세서 전체에서 어떤 부분이 어떤 구성요소를 포함한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다.
또한, 명세서에서 사용되는 '모듈' 또는 '부'라는 용어는 소프트웨어 또는 하드웨어 구성요소를 의미하며, '모듈' 또는 '부'는 어떤 역할들을 수행한다. 그렇지만, '모듈' 또는 '부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '모듈' 또는 '부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서, '모듈' 또는 '부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 또는 변수들 중 적어도 하나를 포함할 수 있다. 구성요소들과 '모듈' 또는 '부'들은 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '모듈' 또는 '부'들로 결합되거나 추가적인 구성요소들과 '모듈' 또는 '부'들로 더 분리될 수 있다.
본 개시의 일 실시예에 따르면, '모듈' 또는 '부'는 프로세서 및 메모리로 구현될 수 있다. '프로세서'는 범용 프로세서, 중앙 처리 장치(CPU), 마이크로프로세서, 디지털 신호 프로세서(DSP), 제어기, 마이크로제어기, 상태 머신 등을 포함하도록 넓게 해석되어야 한다. 몇몇 환경에서, '프로세서'는 주문형 반도체(ASIC), 프로그램가능 로직 디바이스(PLD), 필드 프로그램가능 게이트 어레이(FPGA) 등을 지칭할 수도 있다. '프로세서'는, 예를 들어, DSP와 마이크로프로세서의 조합, 복수의 마이크로프로세서들의 조합, DSP 코어와 결합한 하나 이상의 마이크로프로세서들의 조합, 또는 임의의 다른 그러한 구성들의 조합과 같은 처리 디바이스들의 조합을 지칭할 수도 있다. 또한, '메모리'는 전자 정보를 저장 가능한 임의의 전자 컴포넌트를 포함하도록 넓게 해석되어야 한다. '메모리'는 임의 액세스 메모리(RAM), 판독-전용 메모리(ROM), 비-휘발성 임의 액세스 메모리(NVRAM), 프로그램가능 판독-전용 메모리(PROM), 소거-프로그램가능 판독 전용 메모리(EPROM), 전기적으로 소거가능 PROM(EEPROM), 플래쉬 메모리, 자기 또는 광학 데이터 저장장치, 레지스터들 등과 같은 프로세서-판독가능 매체의 다양한 유형들을 지칭할 수도 있다. 프로세서가 메모리로부터 정보를 판독하고/하거나 메모리에 정보를 기록할 수 있다면 메모리는 프로세서와 전자 통신 상태에 있다고 불린다. 프로세서에 집적된 메모리는 프로세서와 전자 통신 상태에 있다.
본 개시에서, '월파'는, 연안 등에서 제방, 난간 등을 나타내는 라인을 넘어서 흐르는 물결 및/또는 파도를 지칭할 수 있다. 이러한 월파는 파도가 방파제 등 해안 구조물에 충돌하는 경우 생성될 수 있다.
본 개시에서, '월파량'은 월파한 파도의 부피를 지칭할 수 있다. 구조물의 허용 월파량은 구조물 배후지의 중요도나 배수시설의 상황 등에 따라 상이할 수 있기 때문에, 구조물의 적정 설계를 위해 '월파량'뿐만 아니라 월파의 처오름 높이가 함께 요구될 수 있다.
도 1은 본 개시의 일 실시예에 따른 월파의 부피를 산정하는 시스템을 나타내는 예시적인 구성도이다. 도시된 바와 같이, 월파의 부피를 산정하는 시스템은 정보 처리 시스템(110)을 포함할 수 있다. 일 실시예에 따르면, 정보 처리 시스템(110)은 복수의 제1 이미지 프레임(120) 및 복수의 제2 이미지 프레임(130)을 입력으로 수신하여, 복수의 제1 이미지 프레임(120) 및 복수의 제2 이미지 프레임(130) 내에 포함된 객체의 부피(140)를 출력할 수 있다.
일 실시예에 따르면, 정보 처리 시스템(110)은 복수의 이미지 센서로부터 연안에 대한 복수의 이미지 프레임을 획득할 수 있다. 여기서, 복수의 이미지 센서는 서로 다른 시야에서 연안을 촬상하도록 구성될 수 있다. 예를 들어, 제1 이미지 센서는 제1 장소에 위치하여 제3 장소에 위치한 연안을 촬상하도록 구성되고, 제2 이미지 센서는 제2 장소에 위치하여 제3 장소에 위치한 연안을 촬영하도록 구성될 수 있다.
일 실시예에 따르면, 정보 처리 시스템(110)은 획득된 복수의 이미지 프레임 중에서 복수의 제1 이미지 프레임 및 복수의 제2 이미지 프레임을 선택할 수 있다. 여기서, 복수의 제1 이미지 프레임(120)은, 복수의 이미지 센서로부터 촬상된 복수의 이미지 프레임 중에서 월파가 발생하지 않은 이미지 프레임을 포함할 수 있다. 예를 들어, 정보 처리 시스템(110)은, 제1 시야 및 제2 시야 각각에서 획득된 복수의 이미지 프레임 중에서, 제1 시야 및 제2 시야 각각에서 월파가 발생하지 않은 이미지 프레임을, 복수의 제1 이미지 프레임(120)으로 선택할 수 있다. 정보 처리 시스템(110)은, 월파가 발생하지 않은 복수의 제1 이미지 프레임(120)을 월파가 발생한 복수의 제2 프레임에서의 파도의 면적을 산출하기 위한, 기준 프레임으로서 사용할 수 있다.
일 실시예에 따르면, 복수의 제2 이미지 프레임(130)은, 복수의 이미지 센서로부터 촬상된 복수의 이미지 프레임 중에서 월파에서의 파도의 면적이 미리 결정된 면적 이상인 프레임을 포함할 수 있다. 예를 들어, 정보 처리 시스템(110)은, 제1 시야 및 제2 시야 각각에서 획득된 복수의 이미지 프레임 중에서, 제1 시야 및 제2 시야 각각에서 월파에서의 파도의 면적이 미리 결정된 면적 이상인 프레임을, 복수의 제2 이미지 프레임(130)으로 선택할 수 있다. 여기서, 정보 처리 시스템(110)은 월파에서의 파도의 면적이 미리 결정된 면적 이상인 복수의 제2 이미지 프레임(130)을 파도의 면적을 산출하기 위한, 대상 프레임으로서 사용할 수 있다.
정보 처리 시스템(110)은, 선택된 복수의 제1 이미지 프레임(120) 및 선택된 복수의 제2 이미지 프레임(130)으로부터 객체(미도시)를 추출할 수 있다. 여기서, 객체는 연안에서 발생된 월파에서의 파도의 면적이 미리 결정된 면적 이상인 파도 영역을 포함할 수 있다. 일 실시예에 따르면, 정보 처리 시스템(110)은, 제1 시야에서의 제1 이미지 프레임 및 제2 이미지 프레임을 이용하여 제1 객체 이미지를 생성하고, 제2 시야에서의 제1 이미지 프레임 및 제2 이미지 프레임을 이용하여 제2 객체 이미지를 생성할 수 있다. 예를 들어, 정보 처리 시스템(110)은, 제1 시야에서 획득된 제2 이미지 프레임 및 제1 이미지 프레임의 차이를 기초로 제1 객체를 추출할 수 있고, 제2 시야에서 획득된 제2 이미지 프레임 및 제1 이미지 프레임의 차이를 기초로 제2 객체를 추출할 수 있다. 여기서, 제1 시야에서의 제2 이미지 프레임 및 제2 시야에서의 제2 이미지 프레임은 동시간에 획득될 수 있다.
일 실시예에 따르면, 정보 처리 시스템(110)은 제1 객체를 포함하는 이미지를 제1 객체 이미지로 결정하고, 제2 객체를 포함하는 이미지를 제2 객체 이미지로 결정할 수 있다. 다른 실시예에서, 정보 처리 시스템(110)은 제1 객체 이미지 및 제2 객체 이미지를 생성하기 이전에, 제1 시야 및 제2 시야의 각각에서의 선택된 제1 이미지 프레임 및 선택된 제2 이미지 프레임에 대해 굴절 왜곡 보정 또는 기하 왜곡 보정 중 적어도 하나를 수행할 수 있다. 예를 들어, 정보 처리 시스템(110)은, 객체에 대한 깊이 맵을 보다 정교하게 생성하기 위해, 카메라 렌즈로 인해 발생하는 기하 왜곡 및 굴절 왜곡을 보정할 수 있다.
정보 처리 시스템(110)은, 추출된 객체에 대한 깊이 맵을 생성할 수 있다. 일 실시예에 따르면, 정보 처리 시스템(110)은 추출된 제1 객체 이미지 및 제2 객체 이미지 각각의 시차(disparity)를 산출하고, 산출된 시차를 기초로 객체의 깊이 맵을 생성할 수 있다. 다른 실시예에서, 정보 처리 시스템(110)은 객체에 대한 깊이 맵을 생성하기 이전에, 객체의 내부 영역 및 주변 영역에 대한 노이즈를 필터링할 수 있다. 예를 들어, 정보 처리 시스템(110)은 플러드 필(flood fill) 알고리즘, 열기(opening) 연산 등의 모폴로지 연산(morphology)을 이용하여 객체의 노이즈를 필터링할 수 있다.
정보 처리 시스템(110)은 생성된 깊이 맵을 이용하여, 객체의 부피를 산출할 수 있다. 일 실시예에 따르면, 정보 처리 시스템(110)은 산출된 깊이 맵에 수학식 1을 이용하여 객체 영역의 실제 깊이 값을 산출할 수 있다.
[수학식 1]
Z = fB/d
여기서, Z는 이미지 센서를 포함한 카메라의 Z축 상의 거리, f는 픽셀 내에서의 초점 거리(focal length), B는 복수의 이미지 센서 사이의 거리(baseline), d는 시차(disparity, 두 픽셀 사이의 좌표값의 차이)를 지칭할 수 있다. 일 실시예에 따르면, 정보 처리 시스템(110)은 객체 영역 중에서, 보이지 않는 부분을 평면으로 가정하고, 객체 영역을 적분함으로써, 객체의 부피(140)를 산출할 수 있다. 이렇게 정보 처리 시스템(110)에 의해 산출된 객체의 부피(140)(예를 들어, 월파가 포함된 영역)는, 월파의 부피로서 저장될 수 있다.
도 2는 본 개시의 일 실시예에 따른 정보 처리 시스템의 예시적인 구성도이다. 정보 처리 시스템(110)은 메모리(210), 프로세서(220), 통신 모듈(230) 및 입출력 인터페이스(240)를 포함할 수 있다. 도 2에 도시된 바와 같이, 정보 처리 시스템(110)은 통신 모듈(230)을 이용하여 네트워크를 통해 정보 및/또는 데이터를 통신할 수 있도록 구성될 수 있다.
메모리(210)는 비-일시적인 임의의 컴퓨터 판독 가능한 기록매체를 포함할 수 있다. 일 실시예에 따르면, 메모리(210)는 RAM(random access memory), ROM(read only memory), 디스크 드라이브, SSD(solid state drive), 플래시 메모리(flash memory) 등과 같은 비소멸성 대용량 저장 장치(permanent mass storage device)를 포함할 수 있다. 다른 예로서, ROM, SSD, 플래시 메모리, 디스크 드라이브 등과 같은 비소멸성 대용량 저장 장치는 메모리와는 구분되는 별도의 영구 저장 장치로서 정보 처리 시스템(110)에 포함될 수 있다. 또한, 메모리(210)에는 운영체제와 적어도 하나의 프로그램 코드(예를 들어, 정보 처리 시스템(110)에 설치되어 구동되는 월파의 부피 산정을 위한 코드)가 저장될 수 있다.
이러한 소프트웨어 구성요소들은 메모리(210)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 이러한 정보 처리 시스템(110)에 직접 연결가능한 기록 매체를 포함할 수 있는데, 예를 들어, 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 예로서, 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 모듈(230)을 통해 메모리(210)에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템이 통신 모듈(230)을 통해 제공하는 파일들에 의해 설치되는 컴퓨터 프로그램(예를 들어, 월파의 부피 산정 등을 위한 프로그램 등)에 기반하여 메모리(210)에 로딩될 수 있다.
프로세서(220)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(210) 또는 통신 모듈(230)에 의해 프로세서(220)로 제공될 수 있다. 예를 들어, 프로세서(220)는 메모리(210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.
프로세서(220)는 통신 모듈(230)을 통해 수신되거나 메모리(210)에 저장된 임의의 정보 및/데이터를 처리하여 입출력 장치(250)의 출력 장치에 출력하도록 구성될 수 있다. 일 실시예에 따르면, 프로세서(220)는 복수의 이미지 센서로부터 수신된 복수의 이미지 프레임을 기초로 월파의 부피를 산출할 수 있고, 산출된 월파의 부피를 입출력 장치(250)의 출력 장치에 출력할 수 있다. 또한, 정보 처리 시스템(110)의 프로세서(220)는 통신 모듈(230)을 통해 산출된 월파의 부피를 데이터베이스에 전송할 수 있다.
통신 모듈(230)은 네트워크(미도시)를 통해 정보 처리 시스템(110)과 복수의 이미지 센서 또는 데이터베이스(미도시)와 통신하기 위한 구성 또는 기능을 제공할 수 있으며, 정보 처리 시스템(110)이 다른 시스템과 통신하기 위한 구성 또는 기능을 제공할 수 있다. 일례로, 정보 처리 시스템(110)은 통신 모듈(230)을 통해 복수의 이미지 센서로부터 촬상된 복수의 이미지 프레임을 수신할 수 있다. 또한, 정보 처리 시스템(110)의 프로세서(220)는 메모리(210)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청을 통신 모듈(230)의 제어에 따라 네트워크를 통해 복수의 이미지 센서로 전달할 수 있다. 예를 들어, 프로세서(220)는 복수의 이미지 센서에 해당 센서의 촬상 시야를 변경하는 요청(예: tilt, pitch, yaw, pan 등)을 제공할 수 있다.
또한, 정보 처리 시스템(110)의 입출력 인터페이스(240)는 입출력 장치(250)와의 인터페이스를 위한 수단일 수 있다. 일 예로서, 입력 장치는 카메라, 키보드, 마이크로폰, 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커, 햅틱 피드백 디바이스(haptic feedback device) 등과 같은 장치를 포함할 수 있다. 다른 예로, 입출력 인터페이스(240)는 터치스크린 등과 같이 입력과 출력을 수행하기 위한 구성 또는 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 프로세서(220)가 메모리(210)에 로딩된 컴퓨터 프로그램의 명령을 처리함에 있어서 월파의 부피 산정 시스템이 제공하는 정보 및/또는 데이터를 이용하여 구성되는 서비스 화면이나 컨텐츠가 입출력 인터페이스(240)를 통해 디스플레이에 표시할 수 있고, 입력 장치를 통해 서비스 화면이나 컨텐츠와 연관된 사용자 입력을 수신할 수 있다. 도 2에서는 입출력 장치(250)가 정보 처리 시스템(110)의 외부 장치로서 도시되어 있으나, 정보 처리 시스템(110)의 입출력 장치(250)는 정보 처리 시스템(110)의 내부 장치로서 정보 처리 시스템(110)에 포함되도록 구성될 수 있다. 도 2에서는 입출력 인터페이스(240)가 프로세서(220)와 별도로 구성된 요소로서 도시되었으나, 이에 한정되지 않으며, 입출력 인터페이스(240)가 프로세서(220)에 포함되도록 구성될 수 있다.
정보 처리 시스템(110)은 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수 있다. 그러나, 대부분의 종래 기술적 구성요소들을 명확하게 도시할 필요성은 없다.
도 3은 본 개시의 일 실시예에 따른 월파의 부피를 산정하는 시스템을 나타내는 예시적인 구성도이다.
네트워크(320)는 정보 처리 시스템(110), 복수의 이미지 센서(310_1, 310_2, ..., 310_n) 및 데이터베이스(330) 사이의 통신이 가능하도록 구성될 수 있다. 네트워크(320)는 설치 환경에 따라, 예를 들어, 이더넷(Ethernet), 유선 홈 네트워크(Power Line Communication), 전화선 통신 장치 및 RS-serial 통신 등의 유선 네트워크, 이동통신망, WLAN(Wireless LAN), Wi-Fi, BLE Beacon, NFC, Bluetooth 및 ZigBee 등과 같은 무선 네트워크 또는 그 조합으로 구성될 수 있고, 나아가 시각적으로 코딩된 패턴 및 RFID 태그를 통한 통신을 포함할 수도 있다. 예를 들어, 네트워크(320)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(320)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.
복수의 이미지 센서(310_1)는, 제1 이미지 센서(310_11) 및 제2 이미지 센서(310_12)를 포함할 수 있다. 또한, 제1 이미지 센서(310_11)는 제1 시야에서 복수의 이미지 프레임 중 일부를 촬상하도록 구성되고, 제2 이미지 센서(310_12)는 제2 시야에서 복수의 이미지 프레임 중 나머지 일부를 촬상하도록 구성될 수 있다.
일 실시예에 따르면, 제1 이미지 센서(310_11)는 제1 장소에 위치하여 제3 장소에 위치한 연안을 촬상하도록 구성되고, 제2 이미지 센서(310_12)는 제2 장소에 위치하여 제3 장소에 위치한 연안을 촬영하도록 구성될 수 있다. 예를 들어, 제1 이미지 센서(310_11) 및 제2 이미지 센서(310_12)는 서로 상이한 위치에서 동일한 지점을 촬상하도록 구성된 스테레오 카메라일 수 있다. 또한, 제1 이미지 센서(310_11) 및 제2 이미지 센서(310_12)는 두 센서의 시차를 기초로 대상 객체에 대한 깊이 맵을 생성하기 위해 적절한 수준의 거리로 이격될 수 있음은 통상의 기술자에게 자명하다.
또한, 정보 처리 시스템(110)은 제1 이미지 센서(310_11) 및 제2 이미지 센서(310_12) 사이의 기하학적 관계를 알 수 있다. 예를 들어, 정보 처리 시스템(110)은 제1 이미지 센서(310_11) 및 제2 이미지 센서(310_12)가 연안을 촬상하도록 배치될 때, 복수의 이미지 센서 사이의 기하학적 관계 정보를 수집하여 기록할 수 있다. 또는, 데이터베이스(330)로부터 미리 저장된 복수의 이미지 센서 사이의 기하학적 관계 정보를 수신할 수도 있다.
일 실시예에 따르면, 제1 이미지 센서(310_11) 및 제2 이미지 센서(310_12)는 동일한 해상도, 동일한 프레임 속도로 촬영할 수 있는 동종의 이미지 센서로 구성될 수 있으나, 이에 제한되지 않고 상이한 해상도, 상이한 프레임 속도로 촬영할 수 있는 이종의 이미지 센서로 구성될 수도 있다.
일 실시예에 따르면, 정보 처리 시스템(110)은 상이한 장소를 촬상하도록 구성된 복수의 이미지 센서(310_1, 310_2, ..., 310_n)을 더 포함할 수 있다. 일 예로, 전술한 바와 같이, 복수의 이미지 센서(310_2) 내에 포함된 제1 이미지 센서(310_21) 및 제2 이미지 센서(310_22)는 서로 상이한 위치에서 동일한 지점을 촬상하도록 구성된 스테레오 카메라일 수 있다.
이렇게 복수의 이미지 센서(310_1, 310_2, ..., 310_n)에 의해 촬상된 복수의 이미지 프레임은 네트워크(320)를 통해 정보 처리 시스템(110)에 전송되거나, 데이터베이스(330)에 저장될 수 있다.
일 실시예에 따르면, 데이터베이스(330)는, 복수의 이미지 센서(310_1, 310_2, ..., 310_n)에 의해 촬상된 복수의 이미지 프레임, 정보 처리 시스템(110)에 의해 산정된 월파의 부피 등을 저장할 수 있다.
도 4는 본 개시의 일 실시예에 따른 프로세서의 내부 구성을 나타내는 블록도이다. 도시된 바와 같이, 프로세서(220)는, 객체 추출부(410), 깊이 맵 생성부(420), 객체 부피 산출부(430) 및 왜곡 보정부(440) 등을 포함할 수 있다. 또한, 프로세서(220)는 복수의 이미지 센서(예: 복수의 이미지 센서(310_1, 310_2, ..., 310_n)로부터 데이터 및/또는 정보를 수신하거나, 데이터 베이스(예: 데이터베이스(330)) 등과 통신하며 데이터 및/또는 정보를 주고받을 수 있다. 이 경우, 프로세서(220)는 실시간으로 또는 주기적으로 데이터 베이스 등과 통신하며 데이터 및/또는 정보를 주고받을 수 있다.
일 실시예에 따르면, 객체 추출부(410)는 복수의 이미지 프레임 중에서 복수의 제1 이미지 프레임 및 복수의 제2 이미지 프레임을 선택할 수 있다. 예를 들어, 객체 추출부(410)는, 복수의 이미지 센서를 통해 입력되는 데이터를 기초로 관심 영역 내에 위치하는 객체, 즉 월파에 해당하는 객체를 추출할 수 있다. 예를 들어, 객체 추출부(410)는 복수의 이미지 프레임에 대한 히스토그램 정보를 생성할 수 있다. 여기서, 히스토그램 정보의 X축은 밝기 값을 나타내고, 히스토그램 정보의 Y축은 빈도 값을 나타낼 수 있다. 따라서, 객체 추출부(410)는 복수의 이미지 프레임 내에 포함된 객체들의 밝기 변화를 기초로 월파 발생 여부를 판단할 수 있다.
객체 추출부(410)는 생성된 히스토그램 정보가 유니모달(unimodal)하면서 최빈값이 미리 결정된 밝기 값 이하인 복수의 이미지 프레임을 복수의 제1 이미지 프레임으로 선택할 수 있다. 여기서, 유니모달은 데이터의 분포가 특정 값에 집중된 단봉형의 빈도 분포를 지칭할 수 있다. 즉, 연안을 촬상한 복수의 이미지 프레임에 대한 밝기 값이 미리 결정된 밝기 값 이하의 특정 값에 집중된 경우, 객체 추출부(410)는 월파가 발생하지 않은 것으로 판정하고, 해당 히스토그램 정보와 연관된 복수의 이미지 프레임을 제1 이미지 프레임으로 선택할 수 있다.
객체 추출부(410)는 생성된 히스토그램 정보가 바이모달(bimodal)하거나 최빈값이 미리 결정된 밝기 값 이상인 복수의 이미지 프레임을 복수의 제2 이미지 프레임으로 선택할 수 있다. 여기서, 바이모달은 데이터의 분포가 두 개의 특정 값에 집중된 쌍봉형의 빈도 분포를 지칭할 수 있다. 즉, 연안을 촬상한 복수의 이미지 프레임에 대한 밝기 값이 두 개 이상의 값에 집중되거나, 최빈값이 미리 결정된 밝기 값 이상인 경우, 객체 추출부(410)는 월파가 발생한 것으로 판정하고, 해당 히스토그램 정보와 연관된 복수의 이미지 프레임을 제2 이미지 프레임으로 선택할 수 있다.
일 실시예에 따르면, 객체 추출부(410)는 제1 시야 및 제2 시야 각각에서 획득된 복수의 이미지 프레임 중에서, 제1 시야 및 제2 시야 각각에서 월파가 발생하지 않은 이미지 프레임을, 복수의 제1 이미지 프레임으로 선택할 수 있다. 또한, 객체 추출부(410)는 제1 시야 및 제2 시야 각각에서 획득된 복수의 이미지 프레임 중에서, 제1 시야 및 제2 시야 각각에서 월파에서의 파도의 면적이 미리 결정된 면적 이상인 프레임을 복수의 제2 이미지 프레임으로 선택할 수 있다. 예를 들어, 객체 추출부(410)는, 월파가 발생한 프레임에서 월파의 면적을 추출하기 위해, 월파가 발생하지 않은 프레임을 기준 이미지 프레임(또는 배경 이미지 프레임)으로 사용하기 위해, 제1 이미지 프레임으로 선택하고, 월파가 발생한 프레임을 대상 프레임으로 사용하기 위해, 제2 이미지 프레임으로 선택할 수 있다.
일 실시예에 따르면, 객체 추출부(410)는 제1 시야에서의 제1 이미지 프레임 및 제2 이미지 프레임을 이용하여 제1 객체 이미지를 생성할 수 있다. 또한, 제2 시야에서의 제1 이미지 프레임 및 제2 이미지 프레임을 이용하여 제2 객체 이미지를 생성할 수 있다. 예를 들어, 도 3에서 전술한 제1 이미지 센서(310_11)가 촬상한 제1 시야에서의 월파가 발생하지 않은 이미지 프레임 및 월파가 발생한 이미지 프레임을 이용하여 제1 객체 이미지를 생성할 수 있다. 즉, 제1 객체 이미지는 제1 이미지 센서(310_11)에서만 촬상된 이미지를 기초로 생성된 객체를 의미한다. 마찬가지로, 제2 이미지 센서(310_12)가 촬상한 제2 시야에서의 월파가 발생하지 않은 이미지 프레임 및 월파가 발생한 이미지 프레임을 이용하여 제2 객체 이미지를 생성할 수 있다.
일 실시예에 따르면, 제1 시야에서의 제2 이미지 프레임 및 제2 시야에서의 제2 이미지 프레임은 동시간에 획득될 수 있다. 예를 들어, 스테레오 비전 방법을 통해 깊이 값을 획득하기 위해서는, 동일한 시간에 상이한 시점(또는 시야)에서, 동일한 피사체(또는 지점)을 촬상한 복수의 이미지가 필요하다. 따라서, 객체 추출부(410)는 월파가 발생한 이미지 프레임의 동일한 시간에 획득되고, 서로 다른 시야(예를 들어, 제1 시야 및 제2 시야)에서 촬상된 복수의 이미지 프레임을 획득할 수 있다.
다른 실시예에서, 제1 시야에서의 제1 이미지 프레임 및 제2 시야에서의 제1 이미지 프레임은 동시간에 획득될 수 있다. 예를 들어, 제2 이미지 프레임과 마찬가지로, 월파가 발생하지 않은 이미지 프레임에 해당하는 제1 이미지 프레임 또한 동시간에 획득될 수 있다.
일 실시예에 따르면, 객체 추출부(410)는 제1 시야에서 획득된 월파에서의 파도의 면적이 미리 결정된 면적 이상인 제2 이미지 프레임 및 월파가 발생하지 않은 제1 이미지 프레임의 차이를 기초로 제1 객체를 추출할 수 있다. 또한, 객체 추출부(410)는, 추출된 제1 객체를 포함하는 이미지를 제1 객체 이미지로서 결정할 수 있다. 예를 들어, 도 3에서 전술한 제1 이미지 센서(310_11)에 의해 촬상된 제1 시야에서 월파가 발생한 이미지에서 월파가 발생하지 않은 이미지를 삭제하는 연산을 수행하여, 월파가 발생한 파도에 해당하는 객체를 추출할 수 있다.
이와 마찬가지로, 객체 추출부(410)는 제2 시야에서 획득된 월파에서의 파도의 면적이 미리 결정된 면적 이상인 제2 이미지 프레임 및 월파가 발생하지 않은 제1 이미지 프레임의 차이를 기초로 제2 객체를 추출할 수 있다. 또한, 객체 추출부(410)는, 추출된 제2 객체를 포함하는 이미지를 제2 객체 이미지로서 결정할 수 있다. 예를 들어, 도 3에서 전술한 제2 이미지 센서(310_12)에 의해 촬상된 제2 시야에서 월파가 발생한 이미지에 월파가 발생하지 않은 이미지를 빼기 연산하여 월파가 발생한 파도에 해당하는 객체를 추출할 수 있다.
깊이 맵 생성부(420)는 객체 추출부(410)에 의해 추출된 객체에 대해 깊이 맵을 생성할 수 있다. 일 실시예에 따르면, 깊이 맵 생성부(420)는, 복수의 이미지 센서가 동일한 목표 장소(예: 월파가 일어날 수 있는 연안)를 상이한 촬상 장소에서 상이한 시야(예: 제1 시야 및 제2 시야)로 촬상한 이미지를 기초로 객체에 대한 깊이 맵을 생성할 수 있다. 예를 들어, 깊이 맵 생성부(420)는 스테레오 정합(Stereo matching) 방식으로 시차(disparity)를 계산하여 깊이 값을 생성할 수 있다.
일 실시예에 따르면, 깊이 맵 생성부(420)는 제1 객체 이미지 및 제2 객체 이미지 각각에 대해 렉티피케이션(rectification)을 수행할 수 있다. 깊이 맵 생성부(420)는, 렉티피케이션이 수행된 제1 객체 이미지 및 제2 객체 이미지를 비교함으로써, 시차(disparity)를 산출할 수 있다. 또한, 깊이 맵 생성부(420)는, 산출된 시차를 기초로 객체의 깊이 맵을 생성할 수 있다.
일 실시예에 따르면, 깊이 맵 생성부(420)는 제1 객체 이미지 및 제2 객체 이미지 각각에 대해 렉티피케이션을 수행할 때, 제1 객체 이미지 내에서의 제1 객체의 좌표 및 제2 객체 이미지 내에서의 제2 객체의 좌표 각각이 에피폴라 라인(epipolar line) 상에 존재하도록, 제1 이미지 센서 및 제2 이미지 센서 사이의 위치 관계를 기초로, 제1 객체 이미지 및 제2 객체 이미지를 변환할 수 있다. 여기서, 제1 객체의 좌표와 제2 객체의 좌표는 3차원 상의 동일한 좌표를 지칭한다. 깊이 맵 생성부(420)가 수행하는 렉티피케이션 및 이미지 변환 방법의 보다 상세한 구성은 도 9를 통해 후술한다.
다른 실시예에서, 깊이 맵 생성부(420)는 제1 객체 이미지 및 제2 객체 이미지 각각에 대해 렉티피케이션을 수행하기 이전에, 제1 객체의 내부 영역 및 제2 객체의 내부 영역에 대한 노이즈를 필터링 할 수 있다. 그리고 나서, 깊이 맵 생성부(420)는, 제1 객체의 주변 영역 및 제2 객체의 주변 영역에 대한 노이즈를 필터링할 수 있다. 마지막으로, 깊이 맵 생성부(420)는, 제1 객체 및 제2 객체의 내부에 대한 정규화 작업을 수행할 수 있다. 깊이 맵 생성부(420)가 수행하는 노이즈 필터링 방법의 보다 상세한 구성은 도 8을 통해 후술한다.
객체 부피 산출부(430)는, 깊이 맵 생성부(420)에 의해 생성된 깊이 맵을 이용하여, 객체의 부피를 산출할 수 있다. 예를 들어, 객체의 부피는 월파의 부피를 포함할 수 있다. 일 실시예에 따르면, 객체 부피 산출부(430)는 생성된 깊이 맵뿐만 아니라, 객체 이미지의 특징을 분석함으로써, 객체의 부피를 추정할 수 있다. 예를 들어, 객체 부피 산출부(430)는 객체 이미지에 해당하는 영역의 색상 및/또는 밝기의 차이에 따라 객체의 밀도를 추정하고, 객체의 부피 산정 시 객체 이미지에서의 해당 색상 및/또는 밝기에 해당하는 영역에 추정된 밀도를 적용할 수 있다. 추가적으로 또는 대안적으로, 객체 부피 산출부(430)는 객체 이미지의 특징(예를 들어, 색상, 밝기 및/또는 선명도 등)을 분석함으로써, 객체 이미지에 해당하는 공극률을 추정할 수 있고, 객체의 부피 산정 시, 추정된 공극률을 해당 영역에 적용할 수 있다.
왜곡 보정부(440)는, 객체 추출부(410)에 의해 제1 객체 이미지 및 제2 객체 이미지를 생성하기 이전에, 제1 시야 및 제2 시야의 각각에서의 선택된 제1 이미지 프레임 및 선택된 제2 이미지 프레임에 대해 굴절 왜곡 보정 또는 기하 왜곡 보정 중 적어도 하나를 수행할 수 있다. 예를 들어, 복수의 이미지 센서에 의해 촬상된 이미지는 렌즈로 인한 굴절 왜곡 또는 기하 왜곡이 발생할 수 있다. 왜곡 보정부(440)는, 깊이 맵 생성부(420)가 보다 정교한 깊이 맵을 생성할 수 있도록, 우선적으로 선택된 제1 이미지 프레임 및 선택된 제2 이미지 프레임에 굴절 왜곡 보정 또는 기하 왜곡 보정 중 적어도 하나를 수행할 수 있다.
도 5는 본 개시의 일 실시예에 따른 1회의 월파를 구분하는 방법을 나타내는 예시적인 흐름도이다. 일 실시예에 따르면, 1회의 월파를 구분하는 방법은 프로세서(예를 들어, 정보 처리 시스템의 적어도 하나의 프로세서)에 의해 수행될 수 있다. 도시된 바와 같이, 이러한 방법은 프로세서가 복수의 이미지 센서로부터 수신한 복수의 이미지 프레임 중 제1 이미지 프레임을 선택하는 단계(S510)로 개시될 수 있다. 여기서, 제1 이미지 프레임은 월파가 발생하지 않은 프레임 즉, 기준 프레임을 의미할 수 있다.
프로세서는, 파도 발생 프레임과 제1 이미지 프레임(예를 들어 기준 프레임)의 차이를 기초로 객체의 면적을 산출할 수 있다(S520). 그리고 나서, 프로세서는, 객체의 면적과 미리 결정된 임계 값의 크기를 비교할 수 있다(S530). 프로세서는, 객체의 면적이 미리 결정된 임계 값보다 크다면 단계(S540)로 진행하고, 파도 발생 프레임에서 월파가 발생했다고 결정할 수 있다(S540). 다시, 단계(S530)으로 돌아가서, 프로세서가 객체의 면적이 미리 결정된 임계 값 보다 크지 않다고 결정한 경우 단계(S550)로 진행하고, 프로세서는 직전 프레임에서 월파가 발생했는지 결정할 수 있다.
프로세서가 직전 프레임에서 월파가 발생했다고 결정한 경우 단계(S560)으로 진행하고, 프로세서는 현제 프레임에서 파도가 소멸했다고 결정할 수 있다(S560). 또한, 프로세서에 의해 파도가 소멸되었다고 결정할 경우, 프로세서는 1회의 월파 발생이 완료되었다고 결정할 수 있다. 다시, 단계(S550)으로 돌아가서, 프로세서가 직전 프레임에서 월파가 발생하지 않았다고 결정한 경우 단계(S570)로 진행하고, 프로세서는 현재 직전 프레임과 현재 프레임 모두에서 월파가 발생하지 않았다고 결정할 수 있다(S570).
도 6은 본 개시의 일 실시예에 따른 월파 여부에 따른 이미지 프레임 선택을 나타내는 예시도이다. 도시된 바와 같이, 정보 처리 시스템(예: 정보 처리 시스템(110))은 획득된 복수의 이미지 프레임 중에서 복수의 제1 이미지 프레임(610) 및 복수의 제2 이미지 프레임(620)을 선택할 수 있다.
정보 처리 시스템은, 제1 시야 및 제2 시야 각각에서 획득된 복수의 이미지 프레임 중에서, 제1 시야 및 제2 시야 각각에서 월파가 발생하지 않은 이미지 프레임을, 복수의 제1 이미지 프레임(610)으로 선택할 수 있다. 예를 들어, 복수의 제1 이미지 프레임(610)은 도 3에서 전술한 바와 같이, 제1 이미지 센서(310_11)에 의해 제1 시야에서 촬상된 제1 이미지 프레임(610_1) 및 제2 이미지 센서(310_12)에 의해 제2 시야에서 촬상된 제1 이미지 프레임(610_2)을 포함할 수 있다. 즉, 복수의 제1 이미지 프레임(610)은 상이한 시야에서 촬상된 월파가 발생하지 않은 이미지 프레임을 포함할 수 있다.
정보 처리 시스템은, 제1 시야 및 제2 시야 각각에서 획득된 복수의 이미지 프레임 중에서, 제1 시야 및 제2 시야 각각에서 월파에서의 파도의 면적이 미리 결정된 면적 이상인 프레임을 복수의 제2 이미지 프레임(620)으로 선택할 수 있다. 마찬가지로, 복수의 제2 이미지 프레임(620)은, 제1 이미지 센서(310_11)에 의해 제1 시야에서 촬상된 제2 이미지 프레임(620_1) 및 제2 이미지 센서(310_12)에 의해 제2 시야에서 촬상된 제2 이미지 프레임(620_2)을 포함할 수 있다. 즉, 복수의 제2 이미지 프레임(620)은 상이한 시야에서 촬상된 월파가 발생한 이미지 프레임을 포함할 수 있다.
도 7은 본 개시의 일 실시예에 따른 관심 영역 내에 위치하는 객체를 추출하는 것을 나타내는 예시도이다. 도시된 바와 같이, 정보 처리 시스템(예: 정보 처리 시스템(110))은, 선택된 복수의 제1 이미지 프레임(예를 들어 도 6에서 복수의 제1 이미지 프레임(610)) 및 선택된 복수의 제2 이미지 프레임(620)에 기초하여 관심 영역 내에 위치하는 객체(712_1)를 추출할 수 있다.
정보 처리 시스템은, 제1 시야에서의 제1 이미지 프레임(610_1) 및 제2 이미지 프레임(620_1)을 이용하여 제1 객체 이미지(710_1)를 생성할 수 있다. 정보 처리 시스템은, 제2 시야에서의 제1 이미지 프레임(610_2) 및 제2 이미지 프레임(620_2)을 이용하여 제2 객체 이미지(710_2)를 생성할 수 있다. 여기서, 제1 시야에서의 제2 이미지 프레임(620_1) 및 제2 시야에서의 제2 이미지 프레임(620_2)은 동시간에 획득될 수 있다. 그리고 나서, 정보 처리 시스템은, 객체의 깊이 맵을 생성하기 위해, 동시간에 상이한 시점(예를 들어, 제1 시야, 제2 시야)에서 촬상된 관심 영역 내에 위치하는 객체(712_1)를 추출할 수 있다.
일 실시예에 따르면, 정보 처리 시스템은 제1 시야에서의 제1 이미지 프레임(610_1) 및 제2 이미지 프레임(620_1)을 이용하여 제1 객체 이미지(710_1)를 생성할 수 있다. 정보 처리 시스템은, 제1 시야에서 획득된 월파에서의 파도의 면적이 미리 결정된 면적 이상인 제2 이미지 프레임(620_1) 및 월파가 발생하지 않은 제1 이미지 프레임(610_1)의 차이를 기초로 제1 객체(712_1)를 추출할 수 있다. 정보 처리 시스템은, 추출된 제1 객체(712_1)를 포함하는 이미지를 제1 객체 이미지(710_1)로서 결정할 수 있다. 이와 마찬가지로, 정보 처리 시스템은, 제2 시야에서의 제1 이미지 프레임(610_2) 및 제2 이미지 프레임(620_2)을 이용하여 제2 객체 이미지(미도시)를 생성할 수 있다.
정보 처리 시스템은, 제2 시야에서 획득된 월파에서의 파도의 면적이 미리 결정된 면적 이상인 제2 이미지 프레임(620_2) 및 월파가 발생하지 않은 제1 이미지 프레임(610_2)의 차이를 기초로 제2 객체를 추출할 수 있다. 정보 처리 시스템은, 추출된 제2 객체를 포함하는 이미지를 제2 객체 이미지(710_2)로서 결정할 수 있다.
도 8은 본 개시의 일 실시예에 따른 깊이 맵 생성 이전에 노이즈 필터링의 수행을 나타내는 예시도이다. 일 실시예에 따르면, 정보 처리 시스템(예: 정보 처리 시스템(110))은, 추출된 객체에 대해 깊이 맵을 생성할 수 있다.
정보 처리 시스템은 제1 객체 이미지 및 제2 객체 이미지 각각에 대해 렉티피케이션을 수행하는 단계 이전에, 객체의 노이즈를 필터링할 수 있다. 일 실시예에 따르면, 정보 처리 시스템은 제1 객체의 내부 영역 및 제2 객체의 내부 영역에 대한 노이즈를 필터링할 수 있다. 예를 들어, 렉티피케이션 수행 이전의 제1 객체 이미지 및 제2 객체 이미지에 해당하는 원본 이미지(810)에 플러드 필(flood fill) 알고리즘을 적용하여 이미지(820)를 생성할 수 있다. 도시된 바와 같이, 이미지(810)의 객체 내부 영역의 노이즈가 제거될 수 있다.
일 실시예에 따르면, 정보 처리 시스템은 제1 객체의 주변 영역 및 제2 객체의 주변 영역에 대한 노이즈를 필터링할 수 있다. 또한, 정보 처리 시스템은 제1 객체 및 제2 객체의 내부를 정규화할 수 있다. 예를 들어, 이미지(820)에 열기(opening) 연산을 적용하여 이미지(830)를 생성할 수 있다. 도시된 바와 같이, 이미지(820)의 주변 영역의 노이즈가 제거될 수 있다. 여기서, 열기(opening) 연산은 주변보다 밝은 노이즈를 제거하는데 효과적인 연산으로, 침식(erosion) 연산 후 팽창(dilatation) 연산을 적용하는 것을 지칭할 수 있다. 도시된 바와 같이, 이미지(830) 내의 객체를 분리하고 돌출된 모양을 제거할 수 있다.
다른 실시예에 따르면, 정보 처리 시스템은 입력 이미지의 특징에 따라 객체의 노이즈를 제거하기 위해, 닫힘(closing) 연산, 그레디언트(gradient) 연산, 탑햇(top hat) 연산 또는 블랙햇(black hat) 연산 등의 다양한 노이즈 제거 연산 또는 알고리즘을 사용할 수도 있다.
도 9는 본 개시의 일 실시예에 따른 객체에 대한 깊이 맵을 생성하는 것을 나타내는 예시도이다. 일 실시예에 따르면, 정보 처리 시스템(예: 정보 처리 시스템(110))은 추출된 객체에 대해 깊이 맵을 생성할 수 있다.
정보 처리 시스템은, 제1 객체 이미지(A) 및 제2 객체 이미지(B) 각각에 대해 렉티피케이션(rectification)을 수행할 수 있다. 여기서, 렉티피케이션은 제1 객체 이미지(A) 및 제2 객체 이미지(B) 각각의 에피폴라 라인(l, l')이 평행하도록 이미지를 변환하는 것을 의미할 수 있다. 정보 처리 시스템은, 데이터베이스(예: 데이터베이스(330))로부터 복수의 이미지 센서 사이의 기하학적 관계 정보([R|t])(예를 들어, 공간 상의 대상들의 치수, 상대적 위치 등)를 수신할 수 있다.
도시된 바와 같이, 3차원 공간 상의 한 점(P)은 제1 객체 이미지(A)에서는 제1 투영점(p)에 투영되고, 제2 객체 이미지(B)에서는 제2 투영점(p')에 투영될 수 있다. 이 때, 제1 에피폴(e)은 두 개의 이미지 센서의 좌표(예를 들어, 두 개의 카메라의 사영원점)를 연결한 직선 및 제1 객체 이미지(A) 평면이 만나는 점을 지칭할 수 있다. 또한, 제2 에피폴(e')은 두 개의 이미지 센서의 좌표를 연결한 직선 및 제2 객체 이미지(B) 평면이 만나는 점을 지칭할 수 있다. 제1 에피폴라 라인(l)은 제1 투영점(p) 및 제1 에피폴(e)을 연결하는 직선을 지칭할 수 있다. 또한, 제2 에피폴라 라인(l')은 제2 투영점(p') 및 제2 에피폴(e')을 연결하는 직선을 지칭할 수 있다.
이러한 구조 하에서, 정보 처리 시스템은 제1 에피폴라 라인(l) 및 제2 에피폴라 라인(l')이 평행하도록 제1 객체 이미지(A) 및 제2 객체 이미지(B) 각각을 변환할 수 있다. 이러한 변환 과정을 통해 스테레오 정합에 필요한 연산 또는 시간을 줄일 수 있다.
정보 처리 시스템은, 렉티피케이션이 수행된 제1 객체 이미지(710_1) 및 제2 객체 이미지(710_2)를 비교함으로써, 시차(disparity)를 산출할 수 있다. 예를 들어, 제1 객체 이미지(710_1)는 제1 이미지 센서(310_11)에 의해 촬상되고, 제2 객체 이미지(710_2)는 제2 이미지 센서(310_12)에 의해 촬상될 수 있다. 여기서, 제1 이미지 센서(310_11)는 제2 이미지 센서(310_12)와는 상이한 위치에서 동일한 객체를 촬상하므로, 제1 객체 이미지(710_1)와 제2 객체 이미지(710_2)의 차이가 발생할 수 있다. 이에 따라, 종래의 스테레오 정합 방법에 따른 시차(disparity)를 이용해 이미지의 깊이 값이 산출될 수 있다. 그리고 나서, 정보 처리 시스템은, 산출된 시차를 기초로 객체의 깊이 맵을 생성할 수 있다.
일 실시예에 따르면, 정보 처리 시스템은 제1 객체 이미지(710_1) 및 제2 객체 이미지(710_2) 각각에 대해 렉티피케이션을 수행할 때, 제1 객체 이미지(710_1) 내에서의 제1 객체의 좌표 및 제2 객체 이미지(710_2) 내에서의 제2 객체의 좌표 각각이 에피폴라 라인(epipolar line) 상에 존재하도록, 제1 이미지 센서(310_11) 및 제2 이미지 센서(310_12) 사이의 위치 관계를 기초로, 제1 객체 이미지(710_1) 및 제2 객체 이미지(710_2)를 변환할 수 있다. 여기서, 제1 객체의 좌표와 제2 객체의 좌표는 3차원 상의 동일한 좌표를 지칭할 수 있다. 이러한, 에피폴라 라인이 평행하도록 이미지를 변환하는 과정을 통해, 스테레오 매칭 시간을 단축시킬 수 있다.
도 10은 본 개시의 일 실시예에 따른 월파의 부피를 산정하는 방법(1000)을 나타내는 예시적인 흐름도이다. 월파의 부피를 산정하는 방법(1000)은 정보 처리 시스템(예: 정보 처리 시스템(110)), 정보 처리 시스템의 적어도 하나의 프로세서(예: 프로세서(220))에 의해 수행될 수 있다. 방법(1000)은 프로세서가 복수의 이미지 센서로부터 연안에 대한 복수의 이미지 프레임을 획득하는 단계(S1010)로 개시될 수 있다. 여기서, 복수의 이미지 센서는 서로 다른 시야에서 연안을 촬상하도록 구성되어 네트워크(예: 네트워크(320))를 통해 정보 처리 시스템과 통신 가능한 센서를 포함할 수 있다. 일 실시예에서, 복수의 이미지 센서는 제1 이미지 센서 및 제2 이미지 센서를 포함하고, 제1 이미지 센서는 제1 시야에서 복수의 이미지 프레임 중 일부를 촬상하도록 구성되고, 제2 이미지 센서는 제2 시야에서 복수의 이미지 프레임 중 나머지 일부를 촬상하도록 구성될 수 있다.
프로세서는 획득된 복수의 이미지 프레임 중 복수의 제1 이미지 프레임 및 복수의 제2 이미지 프레임을 선택할 수 있다(S1020). 일 실시예에서, 프로세서는 제1 시야 및 제2 시야 각각에서 월파가 발생하지 않은 이미지 프레임을, 복수의 제1 이미지 프레임으로 선택하고, 제1 시야 및 제2 시야 각각에서 월파에서의 파도의 면적이 미리 결정된 면적 이상인 프레임을 복수의 제2 이미지 프레임으로 선택할 수 있다.
프로세서는 선택된 복수의 제1 이미지 프레임 및 선택된 복수의 제2 이미지 프레임으로부터 관심 영역 내에 위치하는 객체를 추출할 수 있다(S1030). 일 실시예에서, 프로세서는 제1 시야에서의 제1 이미지 프레임 및 제2 이미지 프레임을 이용하여 제1 객체 이미지를 생성하고, 제2 시야에서의 제1 이미지 프레임 및 제2 이미지 프레임을 이용하여 제2 객체 이미지를 생성할 수 있다.
다른 실시예에서, 프로세서는 제1 객체 이미지 및 제2 객체 이미지를 생성하기 이전에, 제1 시야 및 제2 시야 각각에서의 선택된 제1 이미지 프레임 및 선택된 제2 이미지 프레임에 대해 굴절 왜곡 보정 또는 기하 왜곡 보정 중 적어도 하나를 수행할 수 있다.
프로세서는 추출된 객체에 대한 깊이 맵을 생성할 수 있다(S1040). 일 실시예에서, 프로세서는 제1 객체 이미지 및 제2 객체 이미지 각각에 대해 렉티피케이션을 수행할 수 있다. 또한, 프로세서는 렉티피케이션이 수행된 제1 객체 이미지 및 제2 객체 이미지를 비교함으로써, 시차를 산출할 수 있다. 또한, 프로세서는 산출된 시차를 기초로 객체의 깊이 맵을 생성할 수 있다.
다른 실시예에서, 프로세서는 제1 객체 이미지 및 제2 객체 이미지 각각에 대해 렉티피케이션을 수행하기 이전에, 제1 객체의 내부 영역 및 제2 객체의 내부 영역에 대한 노이즈 필터링을 수행하고, 제1 객체의 주변 영역 및 제2 객체의 주면 병역에 대한 노이즈를 필터링 하고, 제1 객체 및 제2 객체의 내부를 정규화하는 일련의 노이즈 필터링 과정을 수행할 수 있다.
프로세서는 생성된 깊이 맵을 이용하여, 객체의 부피를 산출할 수 있다(S1050).
상술한 연안에서 발생하는 월파의 부피 산정 방법은 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램으로 제공될 수 있다. 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD 와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
본 개시의 방법, 동작 또는 기법들은 다양한 수단에 의해 구현될 수도 있다. 예를 들어, 이러한 기법들은 하드웨어, 펌웨어, 소프트웨어, 또는 이들의 조합으로 구현될 수도 있다. 본원의 개시와 연계하여 설명된 다양한 예시적인 논리적 블록들, 모듈들, 회로들, 및 알고리즘 단계들은 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양자의 조합들로 구현될 수도 있음을 통상의 기술자들은 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 대체를 명확하게 설명하기 위해, 다양한 예시적인 구성요소들, 블록들, 모듈들, 회로들, 및 단계들이 그들의 기능적 관점에서 일반적으로 위에서 설명되었다. 그러한 기능이 하드웨어로서 구현되는지 또는 소프트웨어로서 구현되는지의 여부는, 특정 애플리케이션 및 전체 시스템에 부과되는 설계 요구사항들에 따라 달라진다. 통상의 기술자들은 각각의 특정 애플리케이션을 위해 다양한 방식들로 설명된 기능을 구현할 수도 있으나, 그러한 구현들은 본 개시의 범위로부터 벗어나게 하는 것으로 해석되어서는 안된다.
하드웨어 구현에서, 기법들을 수행하는 데 이용되는 프로세싱 유닛들은, 하나 이상의 ASIC들, DSP들, 디지털 신호 프로세싱 디바이스들(digital signal processing devices; DSPD들), 프로그램가능 논리 디바이스들(programmable logic devices; PLD들), 필드 프로그램가능 게이트 어레이들(field programmable gate arrays; FPGA들), 프로세서들, 제어기들, 마이크로제어기들, 마이크로프로세서들, 전자 디바이스들, 본 개시에 설명된 기능들을 수행하도록 설계된 다른 전자 유닛들, 컴퓨터, 또는 이들의 조합 내에서 구현될 수도 있다.
따라서, 본 개시와 연계하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 및 회로들은 범용 프로세서, DSP, ASIC, FPGA나 다른 프로그램 가능 논리 디바이스, 이산 게이트나 트랜지스터 로직, 이산 하드웨어 컴포넌트들, 또는 본원에 설명된 기능들을 수행하도록 설계된 것들의 임의의 조합으로 구현되거나 수행될 수도 있다. 범용 프로세서는 마이크로프로세서일 수도 있지만, 대안으로, 프로세서는 임의의 종래의 프로세서, 제어기, 마이크로제어기, 또는 상태 머신일 수도 있다. 프로세서는 또한, 컴퓨팅 디바이스들의 조합, 예를 들면, DSP와 마이크로프로세서, 복수의 마이크로프로세서들, DSP 코어와 연계한 하나 이상의 마이크로프로세서들, 또는 임의의 다른 구성의 조합으로서 구현될 수도 있다.
펌웨어 및/또는 소프트웨어 구현에 있어서, 기법들은 랜덤 액세스 메모리(random access memory; RAM), 판독 전용 메모리(read-only memory; ROM), 비휘발성 RAM(non-volatile random access memory; NVRAM), PROM(programmable read-only memory), EPROM(erasable programmable read-only memory), EEPROM(electrically erasable PROM), 플래시 메모리, 컴팩트 디스크(compact disc; CD), 자기 또는 광학 데이터 스토리지 디바이스 등과 같은 컴퓨터 판독가능 매체 상에 저장된 명령들로서 구현될 수도 있다. 명령들은 하나 이상의 프로세서들에 의해 실행 가능할 수도 있고, 프로세서(들)로 하여금 본 개시에 설명된 기능의 특정 양태들을 수행하게 할 수도 있다.
이상 설명된 실시예들이 하나 이상의 독립형 컴퓨터 시스템에서 현재 개시된 주제의 양태들을 활용하는 것으로 기술되었으나, 본 개시는 이에 한정되지 않고, 네트워크나 분산 컴퓨팅 환경과 같은 임의의 컴퓨팅 환경과 연계하여 구현될 수도 있다. 또 나아가, 본 개시에서 주제의 양상들은 복수의 프로세싱 칩들이나 장치들에서 구현될 수도 있고, 스토리지는 복수의 장치들에 걸쳐 유사하게 영향을 받게 될 수도 있다. 이러한 장치들은 PC들, 네트워크 서버들, 및 휴대용 장치들을 포함할 수도 있다.
본 명세서에서는 본 개시가 일부 실시예들과 관련하여 설명되었지만, 본 개시의 발명이 속하는 기술분야의 통상의 기술자가 이해할 수 있는 본 개시의 범위를 벗어나지 않는 범위에서 다양한 변형 및 변경이 이루어질 수 있다. 또한, 그러한 변형 및 변경은 본 명세서에 첨부된 특허청구의 범위 내에 속하는 것으로 생각되어야 한다.
110: 정보 처리 시스템
120: 복수의 제1 이미지 프레임
130: 복수의 제2 이미지 프레임
140: 객체의 부피

Claims (10)

  1. 연안에서 발생하는 월파의 부피 산정 방법에 있어서,
    복수의 이미지 센서로부터 상기 연안에 대한 복수의 이미지 프레임을 획득하는 단계 - 상기 복수의 이미지 센서는 서로 다른 시야에서 상기 연안을 촬상하도록 구성됨 -;
    상기 획득된 복수의 이미지 프레임 중에서 복수의 제1 이미지 프레임 및 복수의 제2 이미지 프레임을 선택하는 단계;
    상기 선택된 복수의 제1 이미지 프레임 및 상기 선택된 복수의 제2 이미지 프레임으로부터 관심 영역 내에 위치하는 월파를 추출하는 단계;
    상기 추출된 월파에 대한 깊이 맵을 생성하는 단계; 및
    상기 생성된 깊이 맵을 이용하여, 상기 월파의 부피를 산출하는 단계
    를 포함하고,
    상기 산출하는 단계는,
    상기 선택된 복수의 제1 이미지 프레임 및 상기 선택된 복수의 제2 이미지 프레임에서의 상기 추출된 월파에 대응하는 영역의 색상 또는 밝기 중 적어도 하나를 결정하는 단계;
    상기 결정된 색상 또는 밝기 중 적어도 하나를 기초로, 상기 월파에 대응하는 영역의 밀도 또는 공극률 중 적어도 하나를 추정하는 단계; 및
    상기 추정된 월파에 대응하는 영역의 밀도 또는 공극률 중 적어도 하나를 기초로 상기 월파의 부피를 산출하는 단계
    를 포함하는, 월파의 부피 산정 방법.
  2. 제1항에 있어서,
    상기 복수의 이미지 센서는 제1 이미지 센서 및 제2 이미지 센서를 포함하고,
    상기 제1 이미지 센서는 제1 시야에서 상기 복수의 이미지 프레임 중 일부를 촬상하도록 구성되고,
    상기 제2 이미지 센서는 제2 시야에서 상기 복수의 이미지 프레임 중 나머지 일부를 촬상하도록 구성되는,
    월파의 부피 산정 방법.
  3. 제2항에 있어서,
    상기 획득된 복수의 이미지 프레임 중에서 복수의 제1 이미지 프레임 및 복수의 제2 이미지 프레임을 선택하는 단계는,
    상기 제1 시야 및 제2 시야 각각에서 획득된 복수의 이미지 프레임 중에서, 상기 제1 시야 및 제2 시야 각각에서 월파가 발생하지 않은 이미지 프레임을, 상기 복수의 제1 이미지 프레임으로 선택하는 단계; 및
    상기 제1 시야 및 제2 시야 각각에서 획득된 복수의 이미지 프레임 중에서, 상기 제1 시야 및 제2 시야 각각에서 월파에서의 파도의 면적이 미리 결정된 면적 이상인 프레임을 상기 복수의 제2 이미지 프레임으로 선택하는 단계
    를 포함하는, 월파의 부피 산정 방법.
  4. 제3항에 있어서,
    상기 선택된 복수의 제1 이미지 프레임 및 상기 선택된 복수의 제2 이미지 프레임에 기초하여 관심 영역 내에 위치하는 월파를 추출하는 단계는,
    상기 제1 시야에서의 제1 이미지 프레임 및 제2 이미지 프레임을 이용하여 제1 월파 이미지를 생성하는 단계; 및
    상기 제2 시야에서의 제1 이미지 프레임 및 제2 이미지 프레임을 이용하여 제2 월파 이미지를 생성하는 단계
    를 포함하며,
    상기 제1 시야에서의 제2 이미지 프레임 및 상기 제2 시야에서의 제2 이미지 프레임은 동시간에 획득되는,
    월파의 부피 산정 방법.
  5. 제4항에 있어서,
    상기 제1 월파 이미지를 생성하는 단계 및 상기 제2 월파 이미지를 생성하는 단계 이전에,
    상기 제1 시야 및 상기 제2 시야의 각각에서의 상기 선택된 제1 이미지 프레임 및 상기 선택된 제2 이미지 프레임에 대해 굴절 왜곡 보정 또는 기하 왜곡 보정 중 적어도 하나를 수행하는 단계
    를 더 포함하는, 월파의 부피 산정 방법.
  6. 제4항에 있어서,
    상기 제1 시야에서의 제1 이미지 프레임 및 제2 이미지 프레임을 이용하여 제1 월파 이미지를 생성하는 단계는,
    상기 제1 시야에서 획득된 월파에서의 파도의 면적이 미리 결정된 면적 이상인 제2 이미지 프레임 및 월파가 발생하지 않은 제1 이미지 프레임의 차이를 기초로 제1 월파를 추출하는 단계; 및
    상기 추출된 제1 월파를 포함하는 이미지를 상기 제1 월파 이미지로서 결정하는 단계를 포함하고,
    상기 제2 시야에서의 제1 이미지 프레임 및 제2 이미지 프레임을 이용하여 제2 월파 이미지를 생성하는 단계는,
    상기 제2 시야에서 획득된 월파에서의 파도의 면적이 미리 결정된 면적 이상인 제2 이미지 프레임 및 월파가 발생하지 않은 제1 이미지 프레임의 차이를 기초로 제2 월파를 추출하는 단계; 및
    상기 추출된 제2 월파를 포함하는 이미지를 상기 제2 월파 이미지로서 결정하는 단계를 포함하는,
    월파의 부피 산정 방법.
  7. 제6항에 있어서,
    상기 추출된 월파에 대해 깊이 맵을 생성하는 단계는,
    상기 제1 월파 이미지 및 제2 월파 이미지 각각에 대해 렉티피케이션(rectification)을 수행하는 단계;
    상기 렉티피케이션이 수행된 제1 월파 이미지 및 제2 월파 이미지를 비교함으로써, 시차(disparity)를 산출하는 단계; 및
    상기 산출된 시차를 기초로 상기 월파의 깊이 맵을 생성하는 단계
    를 포함하는, 월파의 부피 산정 방법.
  8. 제7항에 있어서,
    상기 제1 월파 이미지 및 제2 월파 이미지 각각에 대해 렉티피케이션을 수행하는 단계는,
    제1 월파 이미지 내에서의 상기 제1 월파의 좌표 및 상기 제2 월파 이미지 내에서의 상기 제2 월파의 좌표 각각이 에피폴라 라인(epipolar line) 상에 존재하도록, 상기 제1 이미지 센서 및 상기 제2 이미지 센서 사이의 위치 관계를 기초로, 상기 제1 월파 이미지 및 상기 제2 월파 이미지를 변환하는 단계 - 상기 제1 월파의 좌표와 상기 제2 월파의 좌표는 3차원 상의 동일한 좌표를 지칭함 - 를 포함하는,
    월파의 부피 산정 방법.
  9. 제7항에 있어서,
    상기 추출된 월파에 대해 깊이 맵을 생성하는 단계는,
    상기 제1 월파 이미지 및 제2 월파 이미지 각각에 대해 렉티피케이션을 수행하는 단계 이전에,
    상기 제1 월파의 내부 영역 및 상기 제2 월파의 내부 영역에 대한 노이즈를 필터링하는 단계;
    상기 제1 월파의 주변 영역 및 상기 제2 월파의 주변 영역에 대한 노이즈를 필터링하는 단계; 및
    상기 제1 월파 및 상기 제2 월파의 내부를 정규화하는 단계를 더 포함하는,
    월파의 부피 산정 방법.
  10. 제1항 내지 제9항 중 어느 한 항에 따른 월파의 부피 산정 방법을 컴퓨터에서 실행하기 위해 컴퓨터 판독 가능한 기록 매체에 저장된 컴퓨터 프로그램.
KR1020210020602A 2020-12-30 2021-02-16 월파의 부피 산정 방법 KR102339339B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200186942 2020-12-30
KR20200186942 2020-12-30

Publications (1)

Publication Number Publication Date
KR102339339B1 true KR102339339B1 (ko) 2021-12-15

Family

ID=78865764

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210020602A KR102339339B1 (ko) 2020-12-30 2021-02-16 월파의 부피 산정 방법

Country Status (1)

Country Link
KR (1) KR102339339B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR950029983A (ko) * 1994-04-29 1995-11-24 윌리암 티. 엘리스 객체 인식 장치 및 방법
KR20110119893A (ko) * 2010-04-28 2011-11-03 주식회사 아이티엑스시큐리티 3d 카메라를 이용한 영상인식장치 및 방법
KR20120097035A (ko) * 2011-02-24 2012-09-03 성균관대학교산학협력단 3d 카메라에서의 자동 주시각 제어 장치 및 자동 주시각 제어가 수행되는 방법
KR20160039447A (ko) * 2014-10-01 2016-04-11 공간정보기술 주식회사 스테레오 카메라를 이용한 공간분석시스템

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR950029983A (ko) * 1994-04-29 1995-11-24 윌리암 티. 엘리스 객체 인식 장치 및 방법
KR20110119893A (ko) * 2010-04-28 2011-11-03 주식회사 아이티엑스시큐리티 3d 카메라를 이용한 영상인식장치 및 방법
KR20120097035A (ko) * 2011-02-24 2012-09-03 성균관대학교산학협력단 3d 카메라에서의 자동 주시각 제어 장치 및 자동 주시각 제어가 수행되는 방법
KR20160039447A (ko) * 2014-10-01 2016-04-11 공간정보기술 주식회사 스테레오 카메라를 이용한 공간분석시스템

Similar Documents

Publication Publication Date Title
JP6439820B2 (ja) 対象識別方法、対象識別装置、及び分類器訓練方法
JP6351238B2 (ja) 画像処理装置、撮像装置および距離補正方法
WO2020206708A1 (zh) 障碍物的识别方法、装置、计算机设备和存储介质
US20160224856A1 (en) Occlusion handling for computer vision
WO2018068420A1 (zh) 图像处理方法和装置
CN102855459B (zh) 用于特定前景物体的检测验证的方法和系统
CN108320270B (zh) 一种图像校正方法、装置和存储介质
KR20150093972A (ko) 스테레오 카메라 기반의 3차원 얼굴 복원 방법 및 장치
TW201432621A (zh) 用於使用至少一額外影像之影像增強及邊緣驗證之方法及設備
KR102476016B1 (ko) 안구 위치 정보 확정 방법 및 장치
JP2013500536A5 (ko)
US20220078385A1 (en) Projection method based on augmented reality technology and projection equipment
JP6544257B2 (ja) 情報処理システム、情報処理方法及び情報処理プログラム
JP2021520008A (ja) 車両検査システムとその方法
WO2016207899A1 (en) System and method for secured capturing and authenticating of video clips
KR102199094B1 (ko) 관심객체 검출을 위한 관심영역 학습장치 및 방법
CN110276831B (zh) 三维模型的建构方法和装置、设备、计算机可读存储介质
CN112686877A (zh) 基于双目相机的三维房屋损伤模型构建测量方法及系统
JP2010140097A (ja) 画像生成方法、画像認証方法、画像生成装置、画像認証装置、プログラム、および記録媒体
CN113012383B (zh) 火灾检测报警方法、相关系统、相关设备及存储介质
JP2007243509A (ja) 画像処理装置
JP5101429B2 (ja) 画像監視装置
JP2018156408A (ja) 画像認識撮像装置
JP2014183322A (ja) 交差点認識装置及びコンピュータが実行可能なプログラム
KR102339339B1 (ko) 월파의 부피 산정 방법

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant