KR101984496B1 - 물체 영역에 근거하여 화상을 처리하는 장치 및 그 방법 - Google Patents

물체 영역에 근거하여 화상을 처리하는 장치 및 그 방법 Download PDF

Info

Publication number
KR101984496B1
KR101984496B1 KR1020160080520A KR20160080520A KR101984496B1 KR 101984496 B1 KR101984496 B1 KR 101984496B1 KR 1020160080520 A KR1020160080520 A KR 1020160080520A KR 20160080520 A KR20160080520 A KR 20160080520A KR 101984496 B1 KR101984496 B1 KR 101984496B1
Authority
KR
South Korea
Prior art keywords
image data
image
distance information
area
unit configured
Prior art date
Application number
KR1020160080520A
Other languages
English (en)
Other versions
KR20170002308A (ko
Inventor
코타로 야노
Original Assignee
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캐논 가부시끼가이샤 filed Critical 캐논 가부시끼가이샤
Publication of KR20170002308A publication Critical patent/KR20170002308A/ko
Application granted granted Critical
Publication of KR101984496B1 publication Critical patent/KR101984496B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19606Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/1961Movement detection not involving frame subtraction, e.g. motion detection on the basis of luminance changes in the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

화상 처리장치는, 화상 데이터를 취득하도록 구성된 화상 데이터 취득부와, 상기 화상 데이터에 대응하는 거리 정보를 취득하도록 구성된 거리 정보 취득부와, 상기 거리 정보에 근거하여, 상기 화상 데이터로부터 물체를 각각 표시하는 한 개 이상의 물체 영역들을 검출하도록 구성된 검출부와, 상기 거리 정보에 근거하여, 상기 검출된 물체 영역들 중에서 특정한 3차원 영역과 중첩하지 않는 물체를 표시하는 물체 영역을 추출하도록 구성된 추출부와, 상기 추출된 물체 영역에 근거하여 상기 화상 데이터에 대해 화상처리를 실행하도록 구성된 화상 처리부를 구비한다.

Description

물체 영역에 근거하여 화상을 처리하는 장치 및 그 방법{APPARATUS FOR AND METHOD OF PROCESSING IMAGE BASED ON OBJECT REGION}
본 발명은, 화상 중의 물체 영역에 근거해서 그 화상을 처리하는 장치 및 그 방법에 관한 것이다.
최근, 감시 카메라가 보급되고 있다. 이에 따라, 공용의 장소에 있어서 감시 카메라에 의해 촬영한 영상에 포함되는 개인의 용모를 타인이 용이하게 볼 수 있다. 이것은 프라이버시의 관점에서 문제가 되고 있다. 따라서, 감시 카메라 영상의 인물 부분을 흐릿하게 하거나, 금지 에어리어에 침입한 인물만 표시하고 다른 인물은 흐릿하게 하기 위한 니즈가 높다. 또한, 감시 카메라 뿐만 아니라, 예를 들면, 공용의 장소에서의 방송 영상에 있어서도 아나운서만 표시하고 다른 인물은 흐릿하게 하기 위한 니즈도 있다.
이러한 카메라 영상에 있어서의 프라이버시를 보호하는 방법으로서, 일본국 특개 2008-191884호 공보에서는, 영상 내부의 인물 영역을 배경 화상을 사용해서 추출하고, 블러(blurring) 처리를 행하는 방법이 제안되어 있다. 일본국 특개 2004-62560호 공보에서는, 영상 내부의 얼굴 영역을 얼굴 검출 처리에 의해 추출하고, 추출된 얼굴 영역을 미리 등록해 둔 얼굴 화상과의 대조를 행함으로써 특정 인물만 표시하는 방법이 제안되어 있다. 일본국 특개 2011-130203호 공보에서는, 영상 내부의 인물의 이상 행동을 인식하고, 이상 행동을 행한 인물만 표시하는 방법이 제안되어 있다.
그렇지만, 일본국 특개 2008-191884호 공보에 개시되어 있는 방법에서는, 배경 화상과 카메라 영상을 비교해서 인물 영역을 추출한다, 따라서, 영상 내부에 사람 이외의 동물체가 포함되거나, 배경의 변화가 있는 경우에는, 사람과 그 이외의 부분의 구별을 할 수 없다. 일본국 특개 2004-62560호 공보에 개시되어 있는 방법에서는, 얼굴의 인증에 실패하면 보호하고 싶은 부분이 표시된다. 일본국 특개 2011-130203호 공보에 개시되어 있는 방법에 있어서도, 이상하지 않는 행동을 이상 행동으로 오인식해 버리면, 보호하고 싶은 부분이 표시되어 버린다.
본 발명은, 특정 영역에 존재하는 물체 영역을 추출해서, 추출된 물체 영역을 표시하는 기술을 제공하는 것을 목적으로 한다. 이 기술을 사용하면, 예를 들면, 다른 인물의 프라이버시를 보호하면서, 특정한 위치의 인물을 표시할 수 있다.
본 발명의 일면에 따르면, 화상 처리장치는, 화상 데이터를 취득하도록 구성된 화상 데이터 취득부와, 상기 화상 데이터에 대응하는 거리 정보를 취득하도록 구성된 거리 정보 취득부와, 상기 거리 정보에 근거하여, 상기 화상 데이터로부터 물체를 각각 표시하는 한 개 이상의 물체 영역들을 검출하도록 구성된 검출부와, 상기 거리 정보에 근거하여, 상기 검출된 물체 영역들 중에서 특정한 3차원 영역과 중첩하지 않는 물체를 표시하는 물체 영역을 추출하도록 구성된 추출부와, 상기 추출된 물체 영역에 근거하여 상기 화상 데이터에 대해 화상처리를 실행하도록 구성된 화상 처리부를 구비한다.
본 발명의 또 다른 특징 및 국면은 첨부된 도면을 참조하여 주어지는 이하의 실시형태의 상세한 설명으로부터 명백해질 것이다.
도 1은 화상 처리장치의 하드웨어 구성의 일례를 도시한 도면이다.
도 2는 화상 처리장치의 소프트웨어 구성의 일례를 도시한 도면이다.
도 3은 정보처리의 일례를 나타낸 흐름도다.
도 4는 화상 취득부에서 취득되는 화상 데이터의 일례를 도시한 도면이다.
도 5는 거리 화상의 일례를 도시한 도면이다.
도 6은 화상 데이터에 대응하는 물체 검출 결과의 일례를 도시한 도면이다.
도 7은 영역 설정부에서 설정된 특정 영역의 일례를 도시한 도면이다.
도 8은 배경 화상의 일례를 도시한 도면이다.
도 9는 합성 맵의 일례를 도시한 도면이다.
도 10은 화상 합성 결과의 일례를 도시한 도면이다.
이하, 도면을 참조해서 본 발명의 실시형태를 설명한다.
도 1은, 화상 처리장치(100)의 하드웨어 구성의 일례를 도시한 도면이다. 도 1에 있어서, 중앙처리장치(CPU)(101)은, 시스템 버스(104)에 접속된 각종 디바이스의 제어를 행한다.
판독 전용 메모리(ROM)(102)는, Basic Input/Output System(BIOS) 프로그램과 부트 프로그램을 기억한다. 랜덤 액세스 메모리(RAM)(103)는, CPU(101)의 주기억장치로서 사용된다.
키보드 콘트롤러(KBC)(105)는, 마우스 등의 포인팅 디바이스(PD)(109)와 키보드(KB)(110)로부터의 정보의 입력에 관련되는 처리를 행한다.
표시 제어부(CRTC)(106)는 내부에 비디오 메모리를 갖고, CPU(101)로부터의 지시에 따라 그 비디오 메모리에 화상 데이터를 묘화하는 동시에, 비디오 메모리에 묘화된 화상 데이터를 비디오 신호로서 출력한다. 이때, 도 1에 있어서 표시장치로서 음극선관(CRT)(111)을 예시하고 있지만, 그 표시장치의 종류는 상관없다. 표시장치의 일례는 액정 표시장치이다.
디스크 콘트롤러(DKC)(107)는, 하드디스크(HDD)(112)에의 액세스를 행한다.
네트워크 인터페이스 카드(NIC)(108)는, 네트워크에 접속되고, 네트워크를 거쳐 정보를 통신한다.
하드디스크 드라이브(HDD)(112)는 기억장치의 일례다. HDD(112)는, 운영체계(OS)의 프로그램과 OS 상에서 동작하는 각종 어플리케이션에 대한 각각의 프로그램을 격납한다.
상기 구성에 있어서, 화상 처리장치(100)의 전원이 온되면, CPU(101)은, ROM(102)에 격납된 부트 프로그램에 따라, HDD(112)로부터 OS에 대한 프로그램을 RAM(103)에 판독하고, 처리를 실행함으로써, 각 장치의 기능을 실현한다.
즉, 화상 처리장치(100)의 CPU(101)이 프로그램에 근거하여 처리를 실행할 때, 화상 처리장치(100)의 소프트웨어 구성 및 후술하는 흐름도의 처리가 실현된다.
도 2는, 화상 처리장치(100)의 소프트웨어 구성의 일례를 도시한 도면이다.
화상 처리장치(100)는, 소프트웨어 구성으로서, 화상 취득부 210 및 220, 거리 화상 취득부(200), 영역 설정부(300), 물체 검출부(400) 및 물체 영역 추출부(500)를 포함한다. 화상 처리장치(100)는, 배경 화상 기억부(600), 합성 맵 생성부(700), 화상처리부(800) 및 결과 출력부(900)를 더 포함한다.
화상 취득부 210 및 220은, 각각 다른 카메라 내부의 촬영부에 의해 촬영된 화상 데이터를 취득한다. 각각의 화상 취득부 210 및 220이 취득하는 화상 데이터는 레드(R), 그린(G) 및 블루(B)의 화상 데이터다. 거리 화상 취득부(200)는, 화상 취득부 210 및 220에서 취득된 화상 데이터로부터 화상 취득부 210에서 취득된 화상 데이터를 구성하는 각각의 화소에 대응하는 거리 정보를 취득하고, 이 거리 정보를 화소값으로 사용하여 거리 화상을 취득한다.
영역 설정부(300)는, 화상 취득부 210에서 취득된 화상 데이터로 표시된 화상 내부에 특정 영역을 설정한다.
물체 검출부(400)는, 거리 화상 취득부(200)에서 취득된 거리 화상을 이용하여, 화상 취득부 210에서 취득된 화상 데이터로부터 물체 위치를 검출한다. 본 실시형태에서는, 물체 검출부(400)에서 검출하는 물체는 인물이다.
물체 영역 추출부(500)는, 거리 화상 취득부(200)에서 취득된 거리 화상을 사용하여, 물체 검출부(400)에서 검출한 물체들 중에서, 영역 설정부(300)에서 설정된 특정 영역 내에 존재하는 물체와 특정 영역 외에 존재하는 물체를 구별해서 물체 영역을 추출한다.
배경 화상 기억부(600)는, 미리 화상 취득부 210에서 취득된, 배경 만을 표시하고 인물을 포함하지 않는 화상 데이터(이하, 배경 화상으로 칭한다)를 RAM(103) 또는 HDD(112)에 기억한다.
합성 맵 생성부(700)는, 물체 영역 추출부(500)에서 추출된 물체 영역을 사용하여, 화상 취득부 210에서 취득된 화상 데이터와 배경 화상 기억부(600)에 기억되어 있는 배경 화상을 합성하기 위한 합성 맵을 생성한다. 합성 맵은 화소마다 2개의 화상 데이터를 합성하기 위한 합성 비율을 표시하는 맵이다.
화상처리부(800)는, 물체 영역 추출부(500)에서 추출된 물체 영역을 사용해서 화상 취득부 210에서 취득된 화상 데이터와 배경 화상 기억부(600)에 기억되어 있는 배경 화상을 합성한다.
결과 출력부(900)는, 화상처리부(800)에 의해 취득한 합성한 화상 데이터를 CRT(111)에 표시한다.
이하, 본 실시형태에 있어서의 정보처리를 도 3에 나타낸 흐름도를 참조하여 설명한다.
스텝 S100에 있어서, 화상 취득부 210 및 220은, 촬영된 화상 데이터를 취득한다. 화상 취득부 210 및 220 각각은, 취득한 화상 데이터를 RAM(103) 또는 HDD(112) 등의 메모리에 기억한다. 화상 취득부 210에서 취득된 화상 데이터의 예를 도 4에 나타낸다. 취득된 화상 데이터의 각각의 촬영 씬이 거의 서로 중복하도록, 화상 취득부 210 및 220 각각의 시야가 조정된다. 스텝 S100의 처리는, 화상 데이터 취득 처리의 일례다.
스텝 S200에 있어서, 거리 화상 취득부(200)는, 화상 취득부 210 및 220에서 취득된 화상 데이터로부터 화상 취득부 210에서 취득된 화상 데이터를 구성하는 화소들에 대응하는 거리 화상을 각각 취득한다. 본 실시형태에 있어서는, 거리 화상 취득부(200)는, 스테레오 삼각측량법(stereo triangulation)의 원리에 근거하여 거리 화상을 취득한다. 즉, 거리 화상 취득부(200)는, 화상 취득부 210에서 취득된 화상 데이터를 구성하는 각각의 화소에 대응하는, 화상 취득부 220에서 취득된 화상 데이터의 화소 위치를 패턴매칭에 의해 찾고, 시차 편이량의 2차원 분포를 거리 화상으로서 취득한다.
거리 화상 취득부(200)가 거리 화상을 취득하는 방법은 이 방법에 한정되지 않는다. 예를 들면, 투광된 부호화 패턴에 근거하여 거리 화상을 얻기 위해 구조화된 광 패턴을 투광하는 패턴 투광법이나, 빛의 비행 시간을 기초로 거리를 측정하는 Time-Of-Flight 방식을 사용해도 된다. 거리 화상 취득부(200)는 취득한 거리 화상을 RAM(103) 또는 HDD(112) 등의 메모리에 기억한다. 도 4에 나타낸 화상 데이터에 대응하는, 거리 화상 취득부(200)에서 취득된 거리 화상의 예를 도 5에 나타낸다. 도 5에서는, 화소의 화소값이 더 클수록, 거리가 가까운 것을 나타낸다.
스텝 S300에 있어서, 물체 검출부(400)는, 화상 취득부 210에서 취득된 화상 데이터로부터 물체 위치를 검출한다. 물체 검출부(400)는, 화상으로부터 물체 위치를 검출하는 방법으로서, Dalal, N,, and Triggs B., 2005, Histograms of Oriented Gradients for Human Detection. IEEE Computer Society Conference on Computer Vision and Pattern Recognition(CVPR'05), Vol1, 886-893에 기재되어 있는 방법을 사용할 수 있다. 이 방법은, 화상으로부터 화소값의 구배 방향의 히스토그램을 추출하고, 추출한 히스토그램을 특징량(HOG(Histogram of Oriented Gradients) 특징량)으로 사용하여 화상 내부의 부분 영역이 인물에 해당하는지 아닌지를 판정하는 것이다. 즉, 물체 검출부(400)는, 화소값의 구배의 방향의 특징량을 사용하여 인체의 윤곽을 표현하고, 인물을 인식할 수 있다.
본 실시형태에서는, 스텝 S200에 있어서 거리 화상을 취득한다. 따라서, 물체 검출부(400)는, 거리 화상으로부터 사람의 윤곽을 식별하는 특징량도 추출하고, HOG 특징량과 결합하여, 특징량을 사용하여 화상 내부의 부분 영역이 인물인지 아닌지를 판정한다. 화상으로부터 물체 위치를 검출할 때에, 물체 검출부(400)는 거리 화상을 사용함으로써 사람의 윤곽을 보다 정확하게 포착할 수 있다. 본 실시형태에서는 인물을 대상으로 사용하여 물체를 검출하지만, 인물 이외의 물체를 검출 대상으로 이용할 수도 있다. 이 경우, 물체 검출부(400)는, 검출 대상으로서의 역할을 하는 물체를 식별하기 위한 특징량과의 대조를 행하도록 하면 된다. 물체 검출부(400)는 검출한 물체의 위치 좌표를 출력한다. 도 4에 나타낸 화상 데이터에 대응하는 물체 검출 결과의 예를 도 6에 나타낸다. 도 6에서는, 검출한 인체의 위치를 사각형 R1 내지 R5로 각각 나타내고 있다.
스텝 S400에 있어서, 물체 영역 추출부(500)는, 우선 물체 검출부(400)에서 검출된 물체들 중에서, 미리 영역 설정부(300)에서 설정된 특정 영역 내에 존재하는 물체와 특정 영역 외에 존재하는 물체를 구별해서 물체 영역을 추출한다. 영역 설정부(300)에서 설정된 특정 영역을 도 7에 나타낸다. 예를 들면, 도 7에서 R로 나타낸 것과 같은 3차원 영역을 차지하는 물체는 촬영 씬에 배치되고, 이 씬의 화상 데이터는 화상 취득부 210 및 220에 의해 취득되고, 이 씬의 화상 데이터를 사용하여 거리 화상 취득부(200)에 의해 이 씬의 거리 화상이 취득된다. 영역 설정부(300)는, 거리 화상 내부의 물체에 해당하는 3차원 공간 위의 영역을 특정 영역으로서 설정한다.
우선, 물체 영역 추출부(500)는, 물체 검출부(400)에서 검출된 각각의 물체 위치(도 6에 도시된 예에서는 R1 내지 R5)에 대응하는 거리 데이터를 거리 화상으로부터 취득하고, 그것의 3차원 좌표로부터 각각의 물체 위치가 영역 설정부(300)에서 설정된 특정 영역 내에 있는지 아닌지를 판정한다.
예를 들면, 도 6에 나타낸 검출 결과에서는, R1으로 나타낸 물체 위치가 도 7에 나타낸 영역 R 내에 있는 것으로 판정된다. 예를 들면, 도 6에 나타낸 R1으로 표시된 영역 내부에서 검출된 인물의 배후에 다른 인물이 존재하는 것으로 가정한다. 화상 내부의 2차원 위치 관계만을 사용하면 그 다른 인물도 마찬가지로 영역 R 내부에 존재하는 것으로 판정되고, 그 결과, R1으로 표시된 영역 내부에서 검출된 인물과 다른 인물을 구별할 수 없다.
그러나, 본 실시형태에서는, 물체 영역 추출부(500)는, 거리 화상을 이용해서 3차원의 위치 관계에 근거하여 R1으로 표시한 물체 위치가 특정 영역 내에 있는지 아닌지를 판정한다. 따라서, R1으로 표시된 영역에서 검출된 인물의 배후에 다른 인물이 존재한 경우에도, 양쪽 인물을 구별할 수 있다.
물체 영역 추출부(500)는, 특정 영역 외의 물체에 해당하는 물체 검출 결과(즉, 도 6에 나타낸 R2 내지 R5)에 대응하는, 거리 화상 내부 화상 영역(도 5에 나타낸 파선 사각형)으로부터, 대응하는 거리 데이터 내부의 엣지 위치에 근거하여, 인물들의 윤곽을 각각 추출한다. 물체 영역 추출부(500)는, (거리 화상에서 추출된) 추출한 윤곽에 대응하는 화상 취득부 210에서 취득된 화상 데이터 내부의 윤곽 위치로부터 물체 영역을 추출한다. 물체 영역 추출부(500)가 출력하는 물체 영역은, 윤곽을 표시하는 화상 위의 좌표값이거나, 또는 좌표값의 벡터 표현이어도 된다. 물체 영역은, 영역 내에 '1'을 갖거나, 영역 외에 '0'을 각각 갖는 화소들로 이루어진 2값 화상이어도 된다.
스텝 S500에 있어서, 화상처리부(800)는, 물체 영역 추출부(500)에서 추출된 물체 영역을 사용하여, 화상 취득부 210에서 취득된 화상 데이터와 배경 화상 기억부(600)에 기억되어 있는 배경 화상을 합성한다. 배경 화상 기억부(600)에 기억되어 있는 배경 화상의 예를 도 8에 나타낸다. 이 배경 화상은, 사전에, 인물(물체)이 존재하지 않는 상태에서, 화상 취득부 210에서 취득된 화상 데이터다.
우선, 합성 맵 생성부(700)는, 물체 영역 추출부(500)에서 추출된 물체 영역을 사용하여, 화상 취득부 210에서 취득된 화상 데이터와 배경 화상 기억부(600)에 기억되어 있는 배경 화상을 합성하기 위한 합성 맵을 생성한다. 합성 맵은, 물체 영역 추출부(500)에서 추출한 물체 영역 내부에서 '1'을, 물체 영역 내부에서'0'을 각각 갖는 화소들로 구성된 2값 화상에 대해, '1'의 화소에 실수값 k(단, 0≤k<1)가 할당되고, '0'의 화소에 실수값 1이 할당된 맵이다.
합성 맵의 예를 도 9에 나타낸다. 도 9에서, 흰색 영역의 값은 1이고, 회색 영역의 값은 k이다. 화상처리부(800)는, 합성 맵 생성부(700)가 생성한 합성 맵을 사용하여, 화상 취득부 210에서 취득된 화상 데이터와 배경 화상을 합성한다. 화상 취득부 210에서 취득된 화상 데이터 내부의 화소 (i, j)에 있어서의 화소값이 PA(i, j)이고, 배경 화상에서의 화소값이 PB(i, j)이고, 합성 맵의 값이 α(i, j)일 때, 합성후의 화소값 P(i, j)은 이하의 수학식 1로 표시된다.
[수학식 1]
P(i, j)=α(i, j)×PA(i, j)+(1-α(i, j))×PB(i, j) …(1)
즉, 물체 영역 추출부(500)에서 추출된 물체 영역 이외의 영역에 있어서는, 화상 취득부 210에서 취득된 화상 데이터가 그대로 합성되고, 물체 영역 추출부(500)에서 추출된 물체 영역에서는, 취득된 화상 데이터와 배경 화상이 비율 k:(1-k)로 합성된다. k=0인 경우에는, 특정 영역 외의 인물은 배경 화상으로 치환된다. k의 값을 0.1 등의 적절히 작은 값으로 설정하면, 특정 영역 외의 인물이 반투명화되어 표시된다. 따라서, 표시된 화상에 의해 인물이 존재하는 장소를 알지만 개인을 특정할 수 없다. 도 4에 나타낸 화상 데이터에 대응하는 화상 합성 결과의 예를 도 10에 나타낸다.
본 실시형태에서는 특정 영역 외의 인물을 반투명화하였지만, 반대로 특정 영역 내의 인물만을 반투명화해도 된다. 이 경우, 스텝 S400의 처리에 있어서, 물체 영역 추출부(500)는, 영역 설정부(300)에서 설정된 특정 영역 내의 물체에 해당하는 검출 결과(도 6에 나타낸 예에서는 R1)에 대응한 물체 영역을 추출한다.
화상처리부(800)는, 특정 영역 외의 인물을 반투명화하지 않고 인물을 흐릿하게 함으로써 프라이버시를 보호할 수 있다. 이 경우, 화상처리부(800)는, 스텝 S500의 처리에 있어서 배경 화상과의 화상 합성을 위한 처리를 행하는 것 대신에, 합성 맵 내부의 값을 사용해서 화상 취득부 210에서 취득된 화상 데이터를 흐릿하게 하는 처리를 행하면 된다.
스텝 S600에 있어서, 결과 출력부(900)는, 화상처리부(800)에서 취득한 합성 화상 데이터를 표시한다. 스텝 S600에서의 처리는, 처리 결과를 출력하는 처리의 일례다.
스텝 S100 내지 스텝 S600의 처리를 취득된 화상 데이터마다 반복해서 행한다.
이상에서 설명한 것과 같이, 본 실시형태에서는, 취득된 화상으로부터 물체를 검출하고, 거리 화상을 사용하여, 검출한 물체들 중에서 특정 영역 내에 존재하는 물체와 특정 영역 외에 존재하는 물체를 구별해서, 물체 영역을 추출한다. 따라서, 입력 화상 내부의 특정한 물체와 그 밖의 물체에 대응하는 영역을 구별하여, 각각의 영역에 각각 다른 화상처리를 실행할 수 있다.
따라서, 특정한 위치의 인물을 표시하고, 다른 인물의 프라이버시를 보호하는 기술을 제공할 수 있다.
기타 실시형태
본 발명의 실시형태는, 본 발명의 전술한 실시형태(들)의 1개 이상의 기능을 수행하기 위해 기억매체('비일시적인 컴퓨터 판독가능한 기억매체'로서 더 상세히 언급해도 된다)에 기록된 컴퓨터 실행가능한 명령(예를 들어, 1개 이상의 프로그램)을 판독하여 실행하거나 및/또는 전술한 실시예(들)의 1개 이상의 기능을 수행하는 1개 이상의 회로(예를 들어, 주문형 반도체 회로(ASIC)를 포함하는 시스템 또는 장치의 컴퓨터나, 예를 들면, 전술한 실시형태(들)의 1개 이상의 기능을 수행하기 위해 기억매체로부터 컴퓨터 실행가능한 명령을 판독하여 실행함으로써, 시스템 또는 장치의 컴퓨터에 의해 수행되는 방법에 의해 구현될 수도 있다. 컴퓨터는, 1개 이상의 중앙처리장치(CPU), 마이크로 처리장치(MPU) 또는 기타 회로를 구비하고, 별개의 컴퓨터들의 네트워크 또는 별개의 컴퓨터 프로세서들을 구비해도 된다. 컴퓨터 실행가능한 명령은, 예를 들어, 기억매체의 네트워크로부터 컴퓨터로 주어져도 된다. 기록매체는, 예를 들면, 1개 이상의 하드디스크, 랜덤 액세스 메모리(RAM), 판독 전용 메모리(ROM), 분산 컴퓨팅 시스템의 스토리지, 광 디스크(콤팩트 디스크(CD), 디지털 다기능 디스크(DVD), 또는 블루레이 디스크(BD)TM 등), 플래시 메모리소자, 메모리 카드 등을 구비해도 된다.
본 발명은, 상기한 실시형태의 1개 이상의 기능을 실현하는 프로그램을, 네트워크 또는 기억매체를 개입하여 시스템 혹은 장치에 공급하고, 그 시스템 혹은 장치의 컴퓨터에 있어서 1개 이상의 프로세서가 프로그램을 읽어 실행하는 처리에서도 실행가능하다. 또한, 1개 이상의 기능을 실현하는 회로(예를 들어, ASIC)에 의해서도 실행가능하다.
예시적인 실시형태들을 참조하여 본 발명을 설명하였지만, 본 발명이 이러한 실시형태에 한정되지 않는다는 것은 자명하다. 이하의 청구범위의 보호범위는 가장 넓게 해석되어 모든 변형, 동등물 구조 및 기능을 포괄하여야 한다.

Claims (16)

  1. 화상 데이터를 취득하도록 구성된 화상 데이터 취득부와,
    상기 화상 데이터에 대응하는 거리 정보를 취득하도록 구성된 거리 정보 취득부와,
    상기 거리 정보에 근거하여, 상기 화상 데이터로부터 물체를 각각 표시하는 한 개 이상의 물체 영역들을 검출하도록 구성된 검출부와,
    상기 거리 정보에 근거하여, 상기 검출된 물체 영역들 중에서 특정한 3차원 영역 밖의 물체를 표시하는 물체 영역을 추출하도록 구성된 추출부와,
    상기 취득된 화상 데이터를 상기 추출된 물체 영역 이외의 영역에 대한 합성될 화상 데이터로서 취함으로써, 상기 취해진 화상 데이터와 배경 화상을 합성하고, 상기 특정한 3차원 영역 밖의 물체를 반투명화하도록 상기 추출된 물체 영역과 배경 화상 내부의 대응하는 영역을 소정의 비율로 합성하도록 구성된 화상 처리부를 구비한 화상 처리장치.
  2. 제 1항에 있어서,
    상기 검출부는, 상기 거리 정보와 상기 화상 데이터의 화상 특징량에 근거하여 상기 화상 데이터로부터 물체 영역을 검출하는 화상 처리장치.
  3. 제 2항에 있어서,
    상기 화상 특징량은, 물체의 윤곽을 표현하는 화상 특징량이고,
    상기 검출부는, 상기 거리 정보로부터 물체의 윤곽을 식별하는 식별 특징량을 추출하고, 상기 식별 특징량과 상기 화상 특징량에 근거하여 상기 화상 데이터로부터 물체 영역을 검출하는 화상 처리장치.
  4. 제 3항에 있어서,
    상기 거리 정보는 거리 화상이고,
    상기 검출부는, 상기 식별 특징량으로서 상기 거리 화상으로부터 엣지 정보를 추출하는 화상 처리장치.
  5. 삭제
  6. 삭제
  7. 삭제
  8. 제 3항에 있어서,
    상기 화상 데이터 취득부는, 물체를 포함하지 않는 화상 데이터를 배경 화상으로서 취득하는 화상 처리장치.
  9. 제 1항에 있어서,
    상기 화상 처리부에 의해 실행된 화상처리의 처리 결과를 출력하도록 구성된 출력부를 더 구비한 화상 처리장치.
  10. 제 1항에 있어서,
    상기 특정한 3차원 영역을 설정하도록 구성된 설정부를 더 구비한 화상 처리장치.
  11. 제 10항에 있어서,
    상기 설정부는, 상기 특정한 3차원 영역에 해당하는 물체를 배치하고, 물체에 대응하는 거리 정보를 상기 거리 정보 취득부를 거쳐 취득하고, 이 거리 정보에 근거하여 상기 특정한 3차원 영역을 설정하는 화상 처리장치.
  12. 삭제
  13. 삭제
  14. 삭제
  15. 화상 데이터를 취득하는 화상 데이터 취득 스텝과,
    상기 화상 데이터에 대응하는 거리 정보를 취득하는 거리 정보 취득 스텝과,
    상기 거리 정보에 근거하여, 상기 화상 데이터로부터 물체를 각각 표시하는 한 개 이상의 물체 영역들을 검출하는 검출 스텝과,
    상기 거리 정보에 근거하여, 상기 검출된 물체 영역들 중에서 특정한 3차원 영역 밖의 물체를 표시하는 물체 영역을 추출하는 추출 스텝과,
    상기 취득된 화상 데이터를 상기 추출된 물체 영역 이외의 영역에 대한 합성될 화상 데이터로서 취함으로써, 상기 취해진 화상 데이터와 배경 화상을 합성하고, 상기 특정한 3차원 영역 밖의 물체를 반투명화하도록 상기 추출된 물체 영역과 배경 화상 내부의 대응하는 영역을 소정의 비율로 합성하는 화상처리 스텝을 포함하는 화상 처리방법.
  16. 컴퓨터를,
    화상 데이터를 취득하도록 구성된 화상 데이터 취득부와,
    상기 화상 데이터에 대응하는 거리 정보를 취득하도록 구성된 거리 정보 취득부와,
    상기 거리 정보에 근거하여, 상기 화상 데이터로부터 물체를 각각 표시하는 한 개 이상의 물체 영역들을 검출하도록 구성된 검출부와,
    상기 거리 정보에 근거하여, 상기 검출된 물체 영역들 중에서 특정한 3차원 영역 밖의 물체를 표시하는 물체 영역을 추출하도록 구성된 추출부와,
    상기 취득된 화상 데이터를 상기 추출된 물체 영역 이외의 영역에 대한 합성될 화상 데이터로서 취함으로써, 상기 취해진 화상 데이터와 배경 화상을 합성하고, 상기 특정한 3차원 영역 밖의 물체를 반투명화하도록 상기 추출된 물체 영역과 배경 화상 내부의 대응하는 영역을 소정의 비율로 합성하도록 구성된 화상 처리부로서 기능시키기 위한 프로그램을 기억한 비일시적인 컴퓨터 판독가능한 기억매체.
KR1020160080520A 2015-06-29 2016-06-28 물체 영역에 근거하여 화상을 처리하는 장치 및 그 방법 KR101984496B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015130081A JP6587435B2 (ja) 2015-06-29 2015-06-29 画像処理装置、情報処理方法及びプログラム
JPJP-P-2015-130081 2015-06-29

Publications (2)

Publication Number Publication Date
KR20170002308A KR20170002308A (ko) 2017-01-06
KR101984496B1 true KR101984496B1 (ko) 2019-05-31

Family

ID=56235674

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160080520A KR101984496B1 (ko) 2015-06-29 2016-06-28 물체 영역에 근거하여 화상을 처리하는 장치 및 그 방법

Country Status (5)

Country Link
US (1) US10163027B2 (ko)
EP (1) EP3113112A1 (ko)
JP (1) JP6587435B2 (ko)
KR (1) KR101984496B1 (ko)
CN (1) CN106326832B (ko)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6494253B2 (ja) * 2014-11-17 2019-04-03 キヤノン株式会社 物体検出装置、物体検出方法、画像認識装置及びコンピュータプログラム
JP6587435B2 (ja) * 2015-06-29 2019-10-09 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
CN107230226A (zh) * 2017-05-15 2017-10-03 深圳奥比中光科技有限公司 人体关联关系的判断方法、装置及存储装置
JP7084795B2 (ja) * 2017-09-07 2022-06-15 キヤノン株式会社 画像処理装置、画像提供装置、それらの制御方法及びプログラム
JP6690622B2 (ja) * 2017-09-26 2020-04-28 カシオ計算機株式会社 情報処理装置、情報処理システム、情報処理方法及びプログラム
CN107941273B (zh) * 2017-11-15 2022-01-18 国网湖南省电力公司检修公司 一种带电作业安全预警方法和装置
KR102254407B1 (ko) * 2017-12-14 2021-05-24 캐논 가부시끼가이샤 3차원 모델의 생성 장치, 생성 방법, 및 프로그램
JP6977667B2 (ja) * 2018-06-01 2021-12-08 日本電信電話株式会社 物体らしさ推定装置、方法、およびプログラム
KR102574895B1 (ko) 2018-06-12 2023-09-05 한화비전 주식회사 패닝 및 틸팅 제어가 되는 카메라의 프라이버시 마스크 최적화방법 및 프라이버시 마스크 최적화가 적용된 촬상장치
US11527265B2 (en) 2018-11-02 2022-12-13 BriefCam Ltd. Method and system for automatic object-aware video or audio redaction
WO2020255226A1 (ja) * 2019-06-17 2020-12-24 日本電信電話株式会社 物体らしさ推定装置、物体らしさ推定方法、及び物体らしさ推定プログラム
JP7004116B2 (ja) * 2019-07-19 2022-01-21 三菱電機株式会社 表示処理装置、表示処理方法及びプログラム
TWI749370B (zh) * 2019-09-16 2021-12-11 緯創資通股份有限公司 臉部辨識方法及其相關電腦系統
US20240054804A1 (en) * 2020-12-14 2024-02-15 Nec Corporation Image processing apparatus, image processing method, and non-transitory computer-readable medium

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0591504A (ja) * 1991-09-30 1993-04-09 Nippon Telegr & Teleph Corp <Ntt> 映像通信装置
JPH05265547A (ja) * 1992-03-23 1993-10-15 Fuji Heavy Ind Ltd 車輌用車外監視装置
JPH07154777A (ja) * 1993-11-30 1995-06-16 Matsushita Electric Ind Co Ltd 画像処理装置およびテレビ電話装置
JP2842437B2 (ja) 1997-05-30 1999-01-06 日本電気株式会社 画像合成装置
JP4036051B2 (ja) 2002-07-30 2008-01-23 オムロン株式会社 顔照合装置および顔照合方法
WO2004015987A1 (ja) * 2002-08-09 2004-02-19 Sharp Kabushiki Kaisha 画像合成装置、画像合成方法、画像合成プログラム、および画像合成プログラムを記録した記録媒体
JP2008056078A (ja) * 2006-08-31 2008-03-13 Denso Corp 車両用空調装置
JP4672680B2 (ja) 2007-02-05 2011-04-20 日本電信電話株式会社 画像処理方法、画像処理装置、画像処理プログラム及びそのプログラムを記録したコンピュータ読み取り可能な記録媒体
US8280115B2 (en) * 2007-10-30 2012-10-02 Canon Kabushiki Kaisha Image processing apparatus and image processing method
JP2009124618A (ja) * 2007-11-19 2009-06-04 Hitachi Ltd カメラ装置、画像処理装置
DE102008007199A1 (de) * 2008-02-01 2009-08-06 Robert Bosch Gmbh Maskierungsmodul für ein Videoüberwachungssystem, Verfahren zur Maskierung von selektierten Objekten sowie Computerprogramm
JP2010193227A (ja) * 2009-02-19 2010-09-02 Hitachi Kokusai Electric Inc 映像処理システム
JP5574692B2 (ja) 2009-12-17 2014-08-20 キヤノン株式会社 映像情報処理方法及びその装置
JP5665401B2 (ja) * 2010-07-21 2015-02-04 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
KR101405410B1 (ko) 2010-10-20 2014-06-24 고려대학교 산학협력단 객체 검출 장치 및 시스템
JP2012175528A (ja) * 2011-02-23 2012-09-10 Panasonic Corp 映像端末装置、映像通信システム、及び映像通信方法
KR101237966B1 (ko) * 2011-03-16 2013-02-27 삼성테크윈 주식회사 피사체의 마스킹을 제어하는 감시 시스템 및 그 방법
JP5763965B2 (ja) * 2011-05-11 2015-08-12 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP5802279B2 (ja) * 2011-11-22 2015-10-28 株式会社日立製作所 自律移動システム
KR20130102743A (ko) * 2012-03-08 2013-09-23 엘지전자 주식회사 프라이버시 마스크 표시를 제어하는 감시 시스템 및 그 방법
WO2013137534A1 (en) * 2012-03-12 2013-09-19 Samsung Techwin Co.,Ltd. System and method for processing image to protect privacy
KR101890589B1 (ko) 2012-03-12 2018-09-28 한화에어로스페이스 주식회사 사생활 보호 영상 처리 시스템 및 방법
WO2013175608A1 (ja) * 2012-05-24 2013-11-28 株式会社日立製作所 画像解析装置、画像解析システム、画像解析方法
KR101466374B1 (ko) * 2013-05-03 2014-12-01 딕스비전 주식회사 저비용으로 사생활 보호 및 관심 강조 기능을 구비하는 통합 관제 시스템 및 방법
WO2016113904A1 (ja) * 2015-01-16 2016-07-21 株式会社日立製作所 3次元情報算出装置、3次元情報算出方法、および自律移動装置
CN104680525B (zh) * 2015-02-12 2017-05-10 南通大学 基于Kinect深度图像的人体摔倒自动检测方法
CN104794722A (zh) * 2015-04-30 2015-07-22 浙江大学 利用单个Kinect计算着装人体三维净体模型的方法
JP6587435B2 (ja) * 2015-06-29 2019-10-09 キヤノン株式会社 画像処理装置、情報処理方法及びプログラム
US10445612B2 (en) * 2015-10-26 2019-10-15 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and storage medium
JP6732522B2 (ja) * 2016-05-02 2020-07-29 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP6910772B2 (ja) * 2016-09-08 2021-07-28 キヤノン株式会社 撮像装置、撮像装置の制御方法およびプログラム

Also Published As

Publication number Publication date
EP3113112A1 (en) 2017-01-04
KR20170002308A (ko) 2017-01-06
CN106326832A (zh) 2017-01-11
CN106326832B (zh) 2020-05-19
JP2017017431A (ja) 2017-01-19
JP6587435B2 (ja) 2019-10-09
US20160379078A1 (en) 2016-12-29
US10163027B2 (en) 2018-12-25

Similar Documents

Publication Publication Date Title
KR101984496B1 (ko) 물체 영역에 근거하여 화상을 처리하는 장치 및 그 방법
US10701332B2 (en) Image processing apparatus, image processing method, image processing system, and storage medium
US10002463B2 (en) Information processing apparatus, information processing method, and storage medium, for enabling accurate detection of a color
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
JP6371553B2 (ja) 映像表示装置および映像表示システム
US10839521B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium
EP3198852B1 (en) Image processing apparatus and control method thereof
CN109565551B (zh) 对齐于参考帧合成图像
US20200293809A1 (en) Image processing apparatus, image processing method, and storage medium
US11004214B2 (en) Image processing apparatus, image processing method, and storage medium
US11100655B2 (en) Image processing apparatus and image processing method for hiding a specific object in a captured image
JP6407225B2 (ja) 画像処理装置及び画像処理方法及び画像処理システム及びプログラム
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
KR102167730B1 (ko) 영상 마스킹 장치 및 영상 마스킹 방법
US10235607B2 (en) Control device, control method, and computer program product
US20160253554A1 (en) Determination device and determination method
KR101652594B1 (ko) 증강 현실 컨텐츠 제공 장치 및 방법
US20200250799A1 (en) Information processing apparatus to determine candidate for lighting effect, information processing method, and storage medium
JP2008035301A (ja) 移動体追跡装置
JP7163049B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN109726613B (zh) 一种用于检测的方法和装置
KR20190129433A (ko) 파노라마 영상 생성 방법 및 그 장치
JP2010015548A (ja) 被写体追跡装置、およびカメラ
JP2019021333A (ja) 画像処理装置及び画像処理方法及びプログラム
US9842406B2 (en) System and method for determining colors of foreground, and computer readable recording medium therefor

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant