KR20210016454A - 화상처리장치, 화상처리방법, 프로그램 및 기록 매체 - Google Patents

화상처리장치, 화상처리방법, 프로그램 및 기록 매체 Download PDF

Info

Publication number
KR20210016454A
KR20210016454A KR1020217000014A KR20217000014A KR20210016454A KR 20210016454 A KR20210016454 A KR 20210016454A KR 1020217000014 A KR1020217000014 A KR 1020217000014A KR 20217000014 A KR20217000014 A KR 20217000014A KR 20210016454 A KR20210016454 A KR 20210016454A
Authority
KR
South Korea
Prior art keywords
image
imaging
zoom magnification
detection range
zoom
Prior art date
Application number
KR1020217000014A
Other languages
English (en)
Other versions
KR102457013B1 (ko
Inventor
치아키 미카와
토모야 아사누마
유야 미야케
Original Assignee
캐논 가부시끼가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 캐논 가부시끼가이샤 filed Critical 캐논 가부시끼가이샤
Publication of KR20210016454A publication Critical patent/KR20210016454A/ko
Application granted granted Critical
Publication of KR102457013B1 publication Critical patent/KR102457013B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • H04N5/23296
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N5/23212
    • H04N5/23216
    • H04N5/23229
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1439Methods for optical code recognition including a method step for retrieval of the optical code
    • G06K7/1447Methods for optical code recognition including a method step for retrieval of the optical code extracting optical codes from image or text carrying said optical code

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Vascular Medicine (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Character Input (AREA)

Abstract

화상처리장치는, 촬상 장치와 통신가능하며, 제1의 줌 배율로 촬상 처리를 실행해서 생성된 제1의 화상을 취득하는 제1의 취득 수단과, 상기 제1의 화상에 포함되는 검출 범위의 분할 조건을 설정하는 설정 수단과, 상기 분할 조건에 따라서 상기 검출 범위를 복수의 분할 영역으로 분할하는 분할 수단과, 상기 검출 범위의 각 분할 영역에 근거해 촬상 방향을 변경하고, 제1의 줌 배율보다도 큰 제2의 줌 배율로 촬상 처리를 실행하고, 제2의 화상을 순서대로 생성하도록 촬상 장치를 제어하는 촬상 제어 수단과, 상기 제2의 화상을 각각 취득하는 제2의 취득 수단과, 상기 제2의 화상마다 데이터의 독취 처리를 실행하는 독취 수단을 구비하는 것을 특징으로 한다.

Description

화상처리장치, 화상처리방법, 프로그램 및 기록 매체
본 발명은, 화상처리장치, 화상처리방법, 프로그램 및 기록 매체에 관한 것이다.
최근, 원격지에 설치된 카메라의 팬, 틸트, 줌을, 네트워크를 통해 감시측의 단말로부터 제어가능한 시스템이 보급되고 있다. 특허문헌1에는, 이러한 감시 시스템에 있어서, 촬상된 화상의 일부를 마우스등의 포인팅 디바이스에 의해 지정하고, 지정된 개소를 촬상하도록, 카메라를 제어하는 기술이 개시되어 있다. 또한, 특허문헌2에는, 재고관리하기 위해서 카메라로 바코드를 판독하는 재고관리 시스템이 개시되어 있다.
그러나, 종래기술에 있어서는, 촬상 대상물이 복수존재할 경우에는, 각각에 팬 틸트 줌을 지정해서 촬영할 필요가 있고, 처리에 시간이 걸린다고 하는 문제가 있었다.
본 발명은 이러한 문제점에 감안하여 이루어진 것으로, 촬상 대상물이 복수존재할 경우에 있어서, 촬영에 따른 처리의 부하를 경감하고, 처리 시간을 단축하는 것을 목적으로 한다.
일본 특허공개2011-142685호 공보 일본 특허공개2011-150460호 공보
그래서, 본 발명은, 촬상 장치와 통신가능한 화상처리장치이며, 제1의 줌 배율로 촬상 처리를 실행해서 생성된 제1의 화상을 취득하는 제1의 취득 수단과, 상기 제1의 화상에 포함되는 검출 범위의 분할 조건을 설정하는 설정 수단과, 상기 분할 조건에 따라서 상기 검출 범위를 복수의 분할 영역으로 분할하는 분할 수단과, 상기 검출 범위의 각 분할 영역에 근거해 촬상 방향을 변경하고, 제1의 줌 배율보다도 큰 제2의 줌 배율로 촬상 처리를 실행하고, 제2의 화상을 순서대로 생성하도록 촬상 장치를 제어하는 촬상 제어 수단과, 상기 제2의 화상을 각각 취득하는 제2의 취득 수단과, 상기 제2의 화상마다 데이터의 독취 처리를 실행하는 독취 수단을 구비하는 것을 특징으로 한다.
[도1] 화상처리 시스템의 전체 구성도다.
[도2] 화상처리장치의 하드웨어 구성도다.
[도3] NW카메라의 외관도다.
[도4] NW카메라의 하드웨어 구성도다.
[도5] 준비 처리를 도시한 흐름도다.
[도6] 촬영 화면의 일례를 도시한 도면이다.
[도7] 설정 화면의 일례를 도시한 도면이다.
[도8] 독취 처리를 도시한 흐름도다.
[도9] 검출 결과의 일례를 도시한 도면이다.
[도10] 적하물을 도시한 도면이다.
[도11] 준비 처리를 도시한 흐름도다.
[도12] 매칭 모델을 도시한 도면이다.
[도13] 설정 화면의 일례를 도시한 도면이다.
[도14] 테스트 화면의 일례를 도시한 도면이다.
[도15] 파일의 일례를 도시한 도면이다.
[도16] 독취 처리를 도시한 흐름도다.
[도17] 촬영 화면의 일례를 도시한 도면이다.
[도18] 독취 화면의 일례를 도시한 도면이다.
이하, 본 발명의 실시형태에 대해서 도면에 근거하여 설명한다.
(제1의 실시형태)
도1은, 화상처리 시스템의 전체 구성도다. 본 실시형태에 따른 화상처리 시스템은, 공장등에 있어서 반입된 적하물을 촬영하고, 적하물에 첨부된 바코드를 독취하고, 미리 등록된 바코드의 내용과 대조하는 것에 의해, 짐등이 예정대로 반입된 것을 확인하는 시스템이다. 더욱, 본 실시형태에 있어서는, 촬영 대상이 되는 적하물에 포함되는 각 짐에 꼬리표가 첨부되어 있고, 각 꼬리표에 바코드가 기록되어 있는 것으로 한다. 본 실시형태에 따른 화상처리 시스템은, 각 짐에 첨부된 꼬리표 각각에 기록된 바코드를 순차 독취하고, 대조한다. 또한, 본 실시형태에 있어서는, 화상처리장치(100)에 의한 독취 및 대조의 대상이 바코드일 경우를 예로 설명하지만, 독취 및 대조의 대상은, 바코드에 한정되는 것이 아니다. 독취 대상의 다른 예로서는, 숫자, 문자나 기호 바로 그것이거나, 이것들의 정보를 일정한 규칙을 따라서 표시한 도형등 형상을 표시하는 것이어도 좋다.
화상처리 시스템은, 화상처리장치(100)와, NW(network)카메라(110)와, DB(database)(120)와, POE(Power over Ethernet)허브(130)를 가지고 있다. 화상처리 시스템은 또한, PLC(programmable logic controller)(140)와, 센서(150)를 가지고 있다.
POE허브(130)는, 화상처리장치(100), NW카메라(110), DB(120) 및 PLC(140)에 접속하고, 각 부와의 통신을 행함과 아울러, 각 부에 전원을 공급한다. DB(120)에는, 반입 예정의 복수의 짐에 첨부된 복수의 꼬리표 각각에 기록된 바코드의 내용이 미리 등록되어 있다. PLC(140)는, 화상처리 시스템의 전체를 제어한다. 센서(150)는, 미리 정해진 장소에 적하물이 반입된 것을 검지한다.
화상처리장치(100)는, POE허브(130)를 통하여, NW카메라(110)와 접속하고, 후술하는 제어 커맨드를 송신 함에 의해 NW카메라(110)에 의한 촬영을 제어한다. NW 카메라(110)는, 적하물A의 반입 장소를 촬영하도록 설치되어 있고, 화상처리장치(100)의 제어하에, 적하물A의 화상을 촬영한다. 여기에서, 적하물A는, 꼬리표가 붙여진 복수의 짐을 쌓아 올릴 수 있었던 것이다. 화상처리장치(100)는, 더욱, NW카메라(110)에 의해 얻어진 화상을, POE허브(130)를 통해 수신한다. 화상처리장치(100)는, 수신된 화상에 있어서 바코드가 기록된 꼬리표의 화상을 검출하고, 바코드의 독취를 행한다. 화상처리장치(100)는, 화상으로부터 독취된 바코드의 정보와 DB(120)에 기억되어 있는 바코드의 정보와의 대조를 행한다. 이에 따라, 짐 등이 예정대로 반입된 것을 확인할 수 있다. 또한, 본 실시형태에 있어서는, 짐의 반입을 예로 설명하지만, 짐의 반출시의 대조에도 적용가능하다.
도2는, 화상처리장치(100)의 하드웨어 구성도다. 화상처리장치(100)는, CPU(201)와, ROM(202)과, RAM(203)과, 디스플레이(204)와, HDD(205)와, 입력장치(206)와, 미디어 드라이브(207)와, I/F(208)를 가지고 있다. CPU(201)는, ROM(202)에 기억된 제어 프로그램을 판독해서 각종 처리를 실행한다. RAM(203)은, CPU(201)의 주 메모리, 워크 에어리어 등의 일시 기억 영역으로서 사용할 수 있다. HDD(205)는, 각종 데이터나 각종 프로그램 등을 기억한다. 디스플레이(204)는, 각종 정보를 표시한다. 입력장치(206)는, 유저에 의한 각종 조작을 접수한다. 미디어 드라이브(207)는, SD카드 등의 미디어로부터의 데이터의 판독이나 미디어에의 데이터의 기록 등을 행한다. I/F(208)는, 외부장치와의 통신을 행한다.
또한, 후술하는 화상처리장치(100)의 기능이나 처리는, CPU(201)가 ROM(202) 또는 HDD(205)에 격납되어 있는 프로그램을 판독하고, 이 프로그램을 실행하는 것에 의해 실현되는 것이다. 또한, 다른 예로서는, CPU(201)는, ROM(202)등 대신에, SD카드 등의 기록 매체에 격납되어 있는 프로그램을 판독해도 좋다. 또한, 다른 예로서는, 화상처리장치(100)의 기능이나 처리 중 적어도 일부는, 예를 들면 복수의 CPU, RAM, ROM, 및 스토리지를 협동시킴으로써 실현해도 좋다. 또한, 다른 예로서는, 화상처리장치(100)의 기능이나 처리 중 적어도 일부는, 하드웨어 회로를 사용해서 실현해도 좋다.
도3은, NW카메라(110)의 외관도다. 301은 팬 구동부이며, 팬 모터의 구동에 의해 팬 방향(304)에서 나타내는 방향으로 경통부(303)의 방향을 변경시킨다. 302는 틸트 구동부이며, 틸트 모터의 구동에 의해 틸트 방향(305)에서 나타내는 방향으로 경통부(303)의 방향을 변경시킨다. 또한, 렌즈를 포함하는 경통부(303)는, 로테이트 모터의 제어에 의해, 렌즈 중심위치를 중심으로, 로테이트 방향(306)에서 나타내는 방향으로 회전가능하다. 또한, 경통부(303)는 포커스 렌즈나 줌렌즈를 포함하고, 각각 스테핑 모터에 의해 구동된다. NW 카메라(110)는, 돔(307)에 의해 전체를 덮고 있다.
도4는, NW카메라(110)의 하드웨어 구성도다. NW카메라(110)는, 네트워크를 통해 외부의 장치와 통신가능한 촬상 장치다. 401은 렌즈부, 402는 CCD부, 403은 신호 처리부, 404는 화상해석부, 405는 부호화부, 406은 통신 처리부다. 이하, NW카메라(110)에서 촬상된 화상 데이터를 화상처리장치(100)에 송신할 때까지의 처리를 설명한다. 렌즈부(401)로부터 받아들인 광학화상은 CCD부(402)에서 RGB디지털 데이터로 변환된 후, 신호 처리부(403)에 송신된다. 신호 처리부(403)에서는, RGB디지털 데이터를 YCbCr4:2:0포맷 또는 YCbCr4:2:2포맷의 디지털 데이터(화상 데이터)로 변환하는 처리, 요구된 송신 화상의 화상 사이즈로의 변환 처리, 각종 필터 처리 등을 행한다. 처리된 화상 데이터는 화상해석부(404)에 송신됨과 동시에 부호화부(405)에도 송신된다. 그리고, 화상 데이터는, 통신 처리부(406)에 의해 네트워크를 통해 외부의 장치에 송신된다.
부호화부(405)에서는, 화상 데이터를, 소정의 포맷, 예를 들면, H.264포맷 또는 JPEG포맷으로 부호화 압축하는 처리를 실행한다. 부호화부(405)에서 생성된 H.264의 동화상 스트림 데이터 또는 각 JPEG정지 화상 데이터는, 통신 처리부(406)에 의해 TCP/IP, HTTP 혹은 RTP등의 네트워크 프로토콜에 따라서, 화상처리장치(100)에 송신된다.
화상해석부(404)에서는, 촬상된 화상 데이터를 해석할 목적으로 하는 화상중에 피사체나 지정 조건의 화상 패턴이 포함되어 있는 것인가 아닌가를 검출하는 처리를 행한다. 신호 처리부(403), 화상해석부(404), 부호화부(405), 및 통신 처리부(406)의 각 처리 블록은 CPU(411)와 접속되어 있다. 407은 카메라 제어부이며, 모터 구동부(408) 및 렌즈 구동부(410)와 접속되어 있다. 카메라 제어부(407)는, CPU(411)로부터의 지시에 따라서, 카메라의 팬·틸트·로테이션 동작(팬 방향, 틸트 방향에의 이동, 및 광축을 중심으로 하는 회전)을 위한 제어 신호나 줌이나 AF(오토포커스)동작을 위한 제어 신호를 출력한다.
또, 카메라 제어부(407)는, RAM(413)에 기억되어 있는 가시 범위 설정 및 가동범위설정의 적어도 한쪽에 따라서, NW카메라(110)의 가시 범위 및 가동범위의 적어도 한쪽을 제어한다. 모터 구동부(408)에는 모터 구동회로 등이 구비되어 있고, 카메라 제어부(407)로부터의 제어 신호에 따라서 팬·틸트·로테이션 모터(409)를 구동하고, 모터의 회전에 의해 카메라의 촬상 방향을 변경하는 것이 가능해진다. 410은 렌즈 구동부이며, 줌, AF등의 각 제어를 행하기 위한 모터와 모터 구동회로를 구비하고 있어, 카메라 제어부(407)로부터의 제어 신호에 따라서 제어된다.
411은 CPU(중앙연산 처리 장치)이며, ROM(리드온리 메모리)(412)에 격납되어 있는 제어 프로그램을 실행함으로써, 장치 전체의 동작을 제어한다. CPU(411)에는, ROM(412), RAM(413), 및 FLASH메모리(414)가 접속되어 있다. 또한, CPU(411)는, 신호 처리부(403), 화상해석부(404), 부호화부(405), 및 통신 처리부(406)와도 접속하고, 각 처리 블록에 대하여 동작의 시작·정지, 동작 조건의 설정, 동작 결과의 취득 등을 실행함으로써 각 처리 블록의 제어를 행한다. ROM(412)에는, CPU(411)가 애플리케이션 처리 등, 본 장치의 제어를 행하기 위한 프로그램이나 데이터가 격납되어 있다.
RAM(413)은, CPU(411)가 ROM(412)의 프로그램을 실행할 때에, 데이터의 기록/판독을 행하는 메모리다. 이 RAM(413)에는, CPU(411)가 장치 제어에 있어서의 프로그램 실행에 사용하는 워크 에어리어, 일시 퇴피 에어리어 등이 구비되어 있다. RAM(413)은, 촬상가능한 화각의 범위를 지정하는 가시 범위설정과, 팬 방향, 틸트 방향 및 줌 방향에의 이동가능한 범위를 지정하는 가동범위설정의 적어도 한쪽을 기억한다.
CPU(411)는, 통신 처리부(406)를 통해 화상처리장치(100)로부터 수신한 제어 커맨드에 따라서 촬영 방향이나, 줌 배율을 변경한다. CPU(411)는, NW카메라(110)로부터 중심위치와 줌 배율을 지정한 제어 커맨드를 수신했을 경우에는, 이 제어 커맨드에 따라, 지정된 위치가 촬영 중심이 되도록 팬 틸트를 제어하고, 지정된 줌 배율이 되도록 줌을 제어한다.
도5는, 화상처리장치(100)에 의한, 준비 처리를 도시한 흐름도다. 준비 처리는, NW카메라의 촬영 위치의 설정이나 바코드의 독취를 위한 각종 설정을 행하는 처리다. 도6은, 준비 처리의 실행 개시시에 표시되는 촬영 화면(600)의 일례를 도시한 도면이다.
S500에 있어서, CPU(201)는, NW카메라(110)에 대하여, 적하물A의 전체가 촬영 범위내에 포함되는 전체 화상을 촬영하도록 제어한다. 또한, 전체 화상을 촬영할 때에, 유저는, 촬영 화면(600)의 영역 601에 있어서, 팬 틸트 줌의 설정을 행할 수 있다. CPU(201)는, 유저 조작에 의해 설정된 팬 틸트 줌의 설정에 따라, 제어 커맨드를 생성하여, 제어 커맨드를 NW카메라(110)원에 송신한다. NW카메라(110)는 제어 커맨드를 화상처리장치(100)로부터 수신하고, 제어 커맨드가 나타내는 설정에 따라서 팬 틸트 줌을 해서 촬영 처리를 행하고, 도대체 화상을 취득하고, 화상처리장치(100) 앞에 송신한다. CPU(201)는, 영역 610에 수신된 전체 화상을 표시하도록 제어한다.
다음에, S501에 있어서, CPU(201)는, 적하물A의 영역을 바코드 검출의 대상이 되는 검출 범위로서 설정한다. CPU(201)는, 구체적으로는, 엣지 검출 등 미리 설정된 화상인식 처리에 따라, 적하물A의 영역을 검출하고, 검출된 영역의 좌표를 바코드의 검출 범위로서 설정한다. 더욱, 촬영 화면(600)의 영역 602에 있어서, 유저는, 검출 범위를 변경할 수 있다. CPU(201)는, 유저 조작이 행해졌을 경우에는, 유저 조작에 따라, 검출 범위를 변경한다. CPU(201)는, 검출 범위를 나타내는 프레임(611)을 전체 화상에 중첩해서 표시한다.
다음에, S502에 있어서, CPU(201)는, 유저 조작에 따라서, 검출 범위의 분할수를 취득하고, 이것을 검출 범위의 분할수로서 설정한다. 구체적으로는, 유저가, 촬영 화면(600)의 영역 603에 있어서 종횡의 분할수를 입력하면, CPU(201)는, 이 입력에 따라, 분할수를 결정한다. 예를 들면, 도6의 예에서는, 짐은, 횡으로 3개, 종으로 5개 나열해 있으므로, 유저는, 3×5의 분할수를 입력한다. CPU(201)는, 유저가 입력한 값에 따라서 분할수를 설정한 후, 분할수에 따라서 검출 범위를 균등하게 분할하기 위한 분할 선(612)을 검출 범위내에 묘화한다. CPU(201)는, 또한, 각 분할 영역에 촬영순을 나타내는 번호를 할당하고, 분할 영역마다 할당되었던 번호 614를 표시한다. 또한, CPU(201)는, 후술하는 줌 촬영시의 촬영 중심의 위치를 나타내는 가위표(613)도 표시한다. 가위표(613)는, 초기 상태에서는, 각 분할 영역의 중심에 표시된다.
다음에, S503에 있어서, CPU(201)는, 유저가 촬영 화면(600)의 영역 604에 있어서, 줌 촬영의 중심위치의 보정값을 입력하면, 입력에 따라 줌 촬영의 중심위치를 현재의 위치(초기 상태에서는 분할 영역의 중심위치)로부터 이동시켜서 보정한다. CPU(201)는, 더욱 줌 촬영의 중심위치의 이동에 따라서, 가위표(613)의 표시 위치를 이동시킨다. 유저는, 보정값을 변경함으로써, 독취의 대상이 되는 바코드 위에 줌 촬영의 중심위치가 겹치도록 조정한다.
다음에, S504에 있어서, CPU(201)는, 유저가 촬영 화면(600)의 영역 605에 있어서, 줌 배율을 입력하면, 입력에 따라 줌 촬영에 있어서의 줌 배율을 설정한다. 여기에서, 영역 605에서 설정되는 줌 배율은, 영역 601에서 설정되는 줌 배율보다도 크다. 따라서, 영역 605에서 설정되는 줌 배율로 촬영된 전체 화상과 비교하여, 영역 601에서 설정되는 줌 배율로 촬영된 줌 화상의 촬영 범위는 좁다. CPU(201)는 더욱, 설정된 줌 배율 및 줌 촬영의 중심위치에 따라서 정해지는 촬영 범위(615)를 전체 화상에 중첩해서 표시한다. 여기에서, 촬영 범위(615)는, 바코드 독취를 위한 독취 범위의 일례이며, S502∼S504의 처리는, 복수의 분할 영역 각각과 대응하는 줌 화상의 촬영 범위, 즉 바코드의 독취 범위를 일괄해서 특정하기 위한 특정 처리의 일례다.
예를 들면, 줌 배율이 10으로 지정되었을 경우에는, 전체 화상에 있어서의 종방향 및 횡방향 모두 10분의 1의 영역을 촬영할 수 있는 것으로 한다. 전체 화상의 폭을 baseW, 높이를 baseH로 한다. 또한, 줌 배율을 curZoom으로 한다. 줌 촬영 범위의 폭을 zoomW, 높이를 zoomH로 한다. 이 때, 줌 촬영의 범위는 아래와 같게 된다.
zoomW = baseW÷curZoom
zoomH = baseH÷curZoom
CPU(201)는, 유저가 영역 606에 분할 영역을 지정하는 번호를 입력하고, 테스트 이동 버튼(607)을 누르면, 지정된 번호와 대응하는 분할 영역에 대하여 S503에서 설정된 줌 촬영의 중심위치를 취득한다. 그리고, 그 중심위치를 촬영 중심으로 해서 S504에서 설정된 줌 배율에서의 촬영을 행하기 위한 제어 커맨드를 생성하고, 제어 커맨드를 NW카메라(110)에 송신한다. NW카메라(110)는 제어 커맨드를 화상처리장치(100)로부터 수신하고, 제어 커맨드가 나타내는 설정에 따라서 팬 틸트 줌을 해서 촬영 처리를 행하고, 줌 화상을 취득하여, 화상처리장치(100)에 송신한다. 그리고, CPU(201)는, 영역 610에, NW카메라(110)로부터 수신된 줌 화상을 표시하도록 제어한다. 유저는, 영역 610에 표시된 줌 화상에 있어서, 바코드가 적절하게 촬영되어 있는지를 확인하고, 필요에 따라서 영역 605에 입력된 값을 변경함으로써, 줌 배율을 조정할 수 있다. 여기에서, CPU(201)는, 영역 605에 입력된 값이 변경되면, 제어 커맨드를 다시 생성해, NW카메라(110)에 송신한다. NW카메라(110)는 새로운 제어 커맨드에 따라서 촬영 처리를 행하고, 새롭게 줌 화상을 취득해서 화상처리장치(100)에 송신한다. 이것에 의해, CPU(201)는, 변경을 반영한 줌 배율로 촬영 처리된 줌 화상을 NW카메라(110)로부터 수신해서 영역 610에 표시할 수 있고, 유저는 변경의 결과를 확인할 수 있다.
다음에, S505에 있어서, CPU(201)는, 유저가 영역 608에 있어서 지정한 촬영순을 줌 화상의 촬영순으로서 설정한다. 본 실시형태에 있어서는, 촬영순에는 종촬영과 횡촬영의 2종류가 선택가능한 것으로 한다. 종촬영은, 같은 열의 분할 영역에 대해서 종방향으로 순서대로 촬영한 후, 오른쪽에 인접한 열로 이동해서 같은 열의 분할 영역에 대해서 종방향으로 순서대로 촬영한다. 횡촬영은, 같은 행의 분할 영역에 대해서 횡방향으로 순서대로 촬영한 후, 아래쪽에 인접한 행으로 이동해서 같은 행의 분할 영역에 대해서 횡방향으로 순서대로 촬영한다. 이렇게, 인접하는 분할 영역을 순서대로 촬영함으로써, 다음 촬영 범위를 촬영하기 위한 팬 틸트의 이동량을 적게 할 수 있다. 도6에는, 종촬영이 설정되었을 경우의 촬영순을 도시하고 있다. 횡촬영이 설정되면, 촬영순의 표시도 변경된다. 또한, 상술한 촬영순은 예시이며, 팬 틸트의 이동량이 적어지는 촬영순이면, 다른 촬영순이여도 상관 없다.
다음에, S506에 있어서, CPU(201)는, 기준화상을 판독한다. 여기에서, 기준화상이란, 줌 화상의 독취 대상을 설정하기 위한 기준이 되는 화상이다. 예를 들면, S504에 있어서 영역 610에 표시된 줌 화상이 HDD(205)에 기억되어 있고, 기준화상으로서 판독된다. 다음에, S507에 있어서, CPU(201)는, 유저 조작에 따라서, 독취 대상(본 실시형태에서는 바코드)의 독취에 따른 각종 설정을 행한다. 도7은, 각종 설정을 행할 때의 유저 조작을 접수하는 설정 화면(700)의 일례를 도시한 도면이다. 유저는, 설정 화면(700)에 있어서, 각종 설정을 입력한다. 설정 화면(700)의 영역 710에는, 기준화상이 표시된다. 판독 버튼(701)이 눌려지면, 미리 HDD(205)에 기억된 줌 화상이 기준화상으로서 판독되어서 표시된다. 또한, 촬영 버튼(702)이 눌렸을 경우에, NW카메라(110)에 제어 커맨드를 송신해서 촬영을 요구하고, 이것에 응답해서 NW카메라(110)에 의해 촬영된 화상을 수신하고, 기준화상으로서 표시하도록 해도 좋다. 영역지정(703)의 조작에 의해, 바코드 독취의 대상이 되는 직사각형 범위가 지정된다. 또한, 영역 704에는, 독취의 대상이 되는 바코드의 종류가 입력된다. 영역 705에는, 줌 화상에 있어서 검출되는 바코드의 수가 입력된다. 영역 706에는, 바코드의 독취 결과와 대조하여, 값을 취득하기 위한 사전이 선택된다. 설정 화면(700)에 있어서, 바코드 독취에 따른 설정이 변경될 때마다, 상기 설정에 근거해서 CPU(201)는 기준화상으로부터 바코드의 값을 독취하는 처리를 실행한다. 그리고, CPU(201)가, 독취된 바코드와 사전을 대조해서 얻어진 값(711)을 화상에 중첩해서 영역 710에 표시한다. 이에 따라, 유저는 바코드 독취에 따른 각종 설정이 적절한가 확인할 수 있다. 이상으로, 준비 처리가 완료한다.
도8은, 독취 처리를 도시한 흐름도다. 적하물이 반입되면, 센서(150)가 적하물을 검출하여, PLC(140)에 통지한다. PLC(140)는, 센서(150)로부터 통지를 받으면, 화상처리장치(100)에 촬영 대상을 검출한 것을 나타내는 소정의 통지를 행한다. S801에 있어서, 화상처리장치(100)의 CPU(201)는, 소정의 통지를 PLC(140)로부터 받은 것인가 아닌가 판정한다. CPU(201)는, PLC(140)로부터의 소정의 통지를 받으면, 독취 처리를 시작한다. S802에 있어서, CPU(201)는, 도6의 영역 601에서 설정된 값에 따라서 제어 커맨드를 생성하여, NW카메라(110)에 송신한다. NW카메라(110)는 제어 커맨드를 화상처리장치(100)로부터 수신하고, 제어 커맨드가 나타내는 설정에 따라서 팬 틸트 줌을 해서 전체 화상의 촬영을 행한다. 그리고, CPU(201)는, 전체 화상을 NW카메라(110)로부터 수신한다. 더욱, S803에 있어서, CPU(201)는, 스텝S802에서 수신된 전체 화상에 대하여 화상인식 처리를 행하고, 적하물의 영역을 검출하고, 해당 영역의 좌표와 스텝S501에서 설정된 검출 범위의 좌표를 비교한다. 비교의 결과에 근거하여, 도6의 촬영 화면(600)에 있어서의 설정시에 사용된 전체 화상에 있어서의 검출 범위의 위치와, S802에서 수신된 전체 화상에 있어서의 검출 범위의 위치의 어긋남을 산출한다. 이것에 의해, 적하물마다 또는 촬영마다 미미하게 다른 전체 화상에 있어서의 검출 범위의 위치를 보정할 수 있다. 또한, S501에서 검출 범위의 각도정보도 설정해 두고, 검출 범위의 각도의 어긋남을 산출해서 보정하도록 해도 좋다.
다음에, S804에 있어서, CPU(201)는, 도6에 도시한 촬영 화면(600)의 영역 605에 있어서 입력된 줌 배율을, 줌 촬영시의 줌 배율로서 설정한다. 다음에, S805에 있어서, CPU(201)는, 촬영순이 1번째의 분할 영역을 처리 대상으로 설정한다. 다음에, S806에 있어서, CPU(201)는, 처리 대상의 분할 영역에 대한 줌 촬영의 중심위치를 설정한다. 영역 604의 입력에 의해 중심위치가 보정되어 있을 경우에는, 보정후의 중심위치가 설정된다.
다음에, S807에 있어서, CPU(201)는, S806에 있어서 설정된 줌 촬영의 중심위치에 따라, NW카메라(110)가 팬 틸트를 조정하도록 촬영 범위의 설정을 행한다. 본 처리는, 촬영 범위를 변경하도록 제어하는 변경 제어 처리의 일례다. 다음에, S808에 있어서, CPU(201)는, S804에 있어서 설정된 줌 배율과, S807에 있어서 설정된 촬영 범위에 따라서 제어 커맨드를 생성하여, NW카메라(110)에 송신한다. NW카메라(110)는 제어 커맨드를 화상처리장치(100)로부터 수신하고, 제어 커맨드가 나타내는 설정에 따라서 팬 틸트 줌을 해서 촬영 처리를 행하고, 줌 화상을 취득하여, 화상처리장치(100)에 송신한다. 또한, 2번째 이후의 분할 영역에 대해서는, 줌 배율 자체는 변경이 없으므로, NW카메라(110)는 팬 틸트의 조정만을 행해서 촬영 범위를 변경하면서 촬영을 행한다. 본 처리는, 촬영 제어 처리의 일례다.
S809에 있어서, CPU(201)는, 줌 화상을 NW카메라(110)로부터 수신한다. 다음에, S810에 있어서, CPU(201)는, S809에서 수신한 줌 화상에 대하여, 도7의 설정 화면(700)에서 설정된 정보에 따라서 바코드의 독취를 행한다. CPU(201)는 RAM(203)에 줌 화상을 판독하고, 영역지정(703)에서 지정된 형상의 범위에 대하여 엣지를 검출한다. 그리고, CPU(201)는 엣지가 소정의 길이 및 규칙으로 나열해 있는 개소를 바코드라고 판정하고, 영역 704에서 지정된 바코드의 종류에 근거하여, 엣지의 간격과 출력값의 대응정보를 선택하고, 화상상의 엣지의 간격으로부터 바코드의 값을 독취한다. 바코드의 종류에 관련시켜진 엣지의 간격과 출력의 대응정보는, HDD(205)에 기억하고 있는 것으로 한다. 다음에, S811에 있어서, CPU(201)는, 바코드의 독취 결과를 HDD(205)등의 기억부에 격납한다.
도9는, 기억부에 기억되는 바코드의 독취 결과의 일례를 도시한 도면이다. ID는, 레코드의 식별 정보다. 카운터는, 줌 화상의 식별 정보이며, 본 실시형태에서는 줌 화상과 대응하는 분할 영역의 촬영순의 번호다. 분할 촬영 좌표는, 줌 화상의 중심위치를 나타내는 정보이며, ×표(613)에 대응하는 좌표다. 줌 범위는, 줌 배율 및 줌 촬영 중심위치에 따라서 정해지는 촬영 범위(615)에 대응하는 직사각형의 좌표다. 이때 분할 촬영 좌표 및 줌 범위는, 전체 화상에 있어서의 위치를 나타내는 정보다. 검출수는, 줌 화상에서 검출된 바코드의 개수다. 검출No는, 바코드의 식별 정보이며, 본 실시형태에서는, 줌 화상내에서 유일하게 부여된다. 단, 바코드의 식별 정보는 검출 범위에서 유일하게 부여되도록 해도 좋다. 중심좌표는, 바코드의 중심위치의 좌표다. 또한, 중심좌표로서는, 줌 화상에 있어서의 위치를 나타내는 정보다. 단, 중심좌표는, 줌 화상에 있어서의 위치를 전체 화상에 있어서의 위치로 변환한 값이여도 좋다. 코드 각도는, 검출된 바코드의 줌 화상에 대한 기울기의 각도다. 검출 코드는, 독취된 바코드를 사전과 대조한 결과, 검출된 코드의 정보다. 신뢰도는, 바코드의 인식 정밀도다. 이외에, 검출수, 사전일치 및 종합 판정의 판정 결과가 격납된다. 종합 판정은, 예를 들면 검출수가 일치하고, 사전에 미리 등록되어 있는 값이 함께 일치하고, 신뢰도가 역치이상일 경우에 OK라고 판정되는 것으로 한다. 바코드의 검출수의 불일치는, 예를 들면, 바코드의 씰이 벗겨지고 있거나, 바코드가 무엇인가에 의해 숨겨지고 있거나, 바코드가 더럽혀지고 있거나 해서, 존재할 것인 바코드가 검출되지 않았을 때에 일어나고, 이 경우는 NG라고 판정되게 된다. 또한, 종합 판정의 판단 기준은, 임의로 설정할 수 있는 것으로 한다.
다음에, S812에 있어서, CPU(201)는, 처리 대상의 분할 영역의 촬영순이 순번의 최후인가 아닌가를 판정한다. CPU(201)는, 최후의 경우에는 (S812에서 YES), 처리를 S814에 진행시킨다. CPU(201)는, 최후가 아닐 경우에는(S812에서 NO), 처리를 S813에 진행시킨다. S813에 있어서, CPU(201)는, 다음 촬영순의 분할 영역을 처리 대상으로 설정하고, 그 후 처리를 S806에 진행시킨다. 이 경우에는, S806에서 줌 촬영의 중심위치가 변경되고, S807에서 새로 팬 틸트가 조정되어 촬영 범위를 바꾸고, S808에서 촬영 지시가 행해진다. 또한, 이 경우에, 줌 배율이 변경되지 않으므로, 일단 줌 아웃해서 새로 줌인 한다고 한 동작은 행해지지 않는다. 이 때문에, NW카메라(110)의 줌의 구동에 따른 처리 시간을 단축할 수 있다.
한편, S814에 있어서는, CPU(201)는, 도9의 바코드의 독취 결과를 참조하여, 바코드의 독취에 실패한 줌 화상이 존재하는 것인가 아닌가, 즉 촬영의 성부를 판정한다. CPU(201)는, 실패가 있을 경우에는(S814에서 YES), 처리를 S815에 진행시킨다. CPU(201)는, 실패가 없을 경우에는(S814에서 NO), 본 처리를 종료한다.
S815에 있어서, CPU(201)는, 독취에 실패한 줌 화상을 다시 촬영하기 위해서, 해당 줌 화상의 중심위치에 따라, NW카메라(110)가 팬 틸트하도록 제어 커맨드를 생성하여, NW카메라(110)에 송신한다. NW카메라(110)는 제어 커맨드를 화상처리장치(100)로부터 수신하고, 제어 커맨드가 나타내는 설정에 따라서 팬 틸트를 해서 촬영 처리를 행하고, 줌 화상을 취득하여, 화상처리장치(100)에 송신한다. CPU(201)는, NW카메라(110)로부터 줌 화상을 수신한다. 그리고, CPU(201)는, S816에 있어서, 수신한 줌 화상에 대해서 다시, S810과 마찬가지로 바코드의 독취 처리를 행하고, 바코드의 독취 결과의 기억부에의 격납을 행한다. 본 처리는, S808∼S811의 처리와 마찬가지다. 이때, CPU(201)는, 줌 화상의 중심위치를 미리 설정된 위치보다도 어긋나게 하여서 제어 커맨드를 생성한다. 예를 들면, 우선, 상방향으로 일정량만큼 어긋나게 해서 NW카메라(110)에 촬영시킨다. 그리고, CPU(201)는, S814의 처리로 되돌아가, 종합 판정OK의 결과가 얻어지는지 판정한다. 종합 판정OK가 얻어지면, 처리를 종료한다.
한편, CPU(201)는, 종합 판정NG의 결과가 얻어진 경우에는, 계속해서 촬영 범위를 하방향으로 일정량만큼 어긋나게 해서 제어 커맨드를 생성하여, NW카메라(110)에 촬영시킨다. 이렇게, CPU(201)는, 상하좌우로 순서대로 줌 화상의 중심위치를 어긋나게 하는 것으로, 촬영 범위를 어긋나게 해서 재촬영을 행한다. 이것에 의해, 바코드의 꼬리표가 벗어난 위치에 존재하고 있어서 줌 화상의 촬영 범위에 바코드가 들어가고 있지 않기 때문에, 바코드의 독취가 실패하고 있었을 경우에, 재촬영에 의해, 옳바르게 바코드의 독취를 행할 수 있다. 또한, 줌 화상의 중심위치를 어긋나게 하는 대신에, 다른 예로서는, CPU(201)는, S815에서 설정된 줌 배율을 변경해서 제어 커맨드를 생성하여, NW카메라(110)에 재촬영을 시켜도 좋다. 이 경우에는, CPU(201)는, 우선, 줌 배율을 플러스 방향으로 변경해서 NW카메라(110)에 재촬영을 행하게 한다.
그리고, S814에서 종합 판정NG의 경우에는, 다시 줌 배율을 마이너스 방향으로 변경해서 NW카메라(110)에 재촬영을 행하게 한다. 이것에 의해, 적하물의 일부가 전후로 벗어나 놓여져 있어서 바코드에 합초하고 있지 않기 때문에, 바코드의 독취가 실패하고 있었을 경우에, 재촬영에 의해, 옳바르게 바코드의 독취를 행할 수 있다. 게다가, 다른 예로서는, 포커스의 모드나 포커스 값을 변경, 노출(모드, 셔터 스피드, 조리개, 게인등)의 변경, 화이트 밸런스 설정의 변경등을 행하고, 제어 커맨드를 생성하여, NW카메라(110)에 재촬영을 시켜도 좋다.
또한, 적하물A의 반입후에, 적하물A와 짐의 수나 쌓는 법이 동등한 적하물이 연속해서 복수반입되는 경우가 있다. 이 경우에는, 2개째 이후의 적하물에 있어서는, 준비 처리는 불필요하고, 화상처리장치(100)는, 적하물이 반입된 취지의 통지를 받으면, 독취 처리를 시작한다. 또한, 이 경우, 적하물A에 있어서 설정된 조건을 이용해서 독취 처리를 실행한다.
독취 처리에 의해 얻어진 결과는, 자신의 장치의 기억부에 격납되어, CPU(201)가, DB(120)에 기억되어 있는 바코드의 정보와 대조한다. 단, 대조를 행하는 주체는 실시형태에 한정되는 것이 아니다. 다른 예로서는, DB(120)가 대조를 행하는 것으로 하여도 좋다. 이 경우에는, 화상처리장치(100)에 있어서 얻어진 독취 결과는, POE허브(130)를 통해 DB(120)에 송신된다. 또한, PLC(140)가 대조를 행하는 것으로 하여도 좋다. 이 경우에는, 독취 결과는, POE허브(130)를 통해 140에 송신된다.
이상과 같이, 제1의 실시형태에 따른 화상처리 시스템은, 바코드가 행렬의 패턴에 따라서 규칙적으로 나열해 있는 적하물을 처리 대상으로 하여, 적하물에 첨부된 복수의 바코드의 위치를 일괄해서 특정할 수 있다. 더욱, 화상처리 시스템은, 특정한 위치에 따라, 줌 배율을 바꾸지 않고, 팬 틸트의 조정만을 행하는 것으로 연속해서 복수의 줌 화상을 촬영할 수 있다. 다시 말해, 촬영마다 줌 인 줌 아웃의 처리를 행할 필요가 없다. 따라서, 촬영에 따른 처리의 부하를 경감하여, 처리 시간을 단축할 수 있다.
제1의 변형 예에 대해서 설명한다. 본 실시형태에 있어서는, 적하물에 있어서 종횡으로 나열된 짐의 수가 적하물에 의해 변할 수 있는 경우를 상정하고, 분할수를 유저가 입력하는 것으로 했다. 단, 종횡의 짐의 수가 일정한 경우에는, 분할수의 입력은 불필요하고, CPU(201)는, 미리 화상처리장치(100)에 설정된 분할수를 취득하여, 이에 따라, 검출 범위를 분할하면 좋다.
제2의 변형 예로서는, 화상처리장치(100)는, 꼬리표에 첨부된 마크 등으로부터 꼬리표의 종류(발송원의 회사등)을 특정하고, 특정한 종류에 따라서, 줌 화상의 촬영시의 줌 배율을 특정해도 좋다. 화상처리장치(100)는, 꼬리표의 종류와 줌 배율을 대응시킨 테이블을 미리, 기억해두고, 이 테이블을 참조함으로써, 꼬리표의 종류로부터 줌 배율을 결정한다. 적하물까지의 거리가 미리 정해져 있을 경우에는, 꼬리표에 기록된 바코드나 문자의 크기에 적합한 줌 배율을 꼬리표의 종류에 대응하게 설정해둔다. 이에 따라, 화상처리장치(100)는, 줌 배율의 설정을 자동으로 행할 수 있다.
제3의 변형 예로서는, 화상처리장치(100)는, 전체 화상의 촬영시의 초점거리에 근거하여, 줌 화상의 촬영시의 줌 배율을 자동으로 설정해도 좋다.
(제2의 실시형태)
다음에, 제2의 실시형태에 따른 화상처리 시스템에 대해서, 제1의 실시형태에 따른 화상처리 시스템과 상이한 점을 주로 설명한다. 제2의 실시형태에 따른 화상처리 시스템은, 도10에 도시한 바와 같이, 처리 대상의 적하물에 있어서, 꼬리표가 규칙적으로 배치되지 않고 있는 적하물B를 처리 대상으로 삼는다. 화상처리장치(100)는, 전체 화상에 대하여 패턴 매칭을 행하는 것에 의해 전체 화상으로부터 꼬리표의 화상이 출현하는 영역을 검출하고, 검출 결과에 따라서, 줌 촬영의 범위를 결정한다.
도11은, 제2의 실시형태에 따른 화상처리장치(100)에 의한, 준비 처리를 도시한 흐름도다. S11OO에 있어서, CPU(201)는, 유저 조작에 따라서, 적하물의 전체를 촬영할 때의 위치(전체 촬영 위치)를 조정한다. 유저는, 디스플레이(204)에 표시된 적하물의 화상을 보면서, 촬영 범위내에 적하물의 전체가 들어가도록, 팬 틸트 줌을 조정한다. CPU(201)는, 이 유저 조작에 따라서 조정된 팬 틸트 줌의 설정에 따라, 제어 커맨드를 생성하여, 제어 커맨드를 NW카메라(110)에 송신한다. NW카메라(110)는 제어 커맨드를 화상처리장치(100)로부터 수신하고, 제어 커맨드가 나타내는 설정에 따라서 팬 틸트 줌을 해서 촬영 처리를 행하고, 전체 화상을 취득하여, 화상처리장치(100)에 송신한다. CPU(201)는, 수신된 전체 화상을 디스플레이(204)에 표시하도록 제어한다.
다음에, S11O1에 있어서, CPU(201)는, 전체 화상에 있어서의, 독취 대상의 바코드를 포함하는 꼬리표의 영역의 위치를 지정한다. 구체적으로는, 유저는, 디스플레이(204)에 표시된 전체 화상을 보면서, 전체 화상에 있어서 꼬리표의 영역을 찾아, 그 위치를 지정하도록 조작한다. CPU(201)는, 이 유저 조작에 따라서 전체 화상에 있어서의 꼬리표의 영역의 위치를 지정한다. 다음에, S11O2에 있어서, CPU(201)는, 매칭 모델(모델 화상)을 작성한다. 구체적으로는, 도12에 도시한 전체 화상(1200)으로부터, S11O2에서 지정된 영역의 위치에 따라서 꼬리표의 화상을 골라내어, 이것을 꼬리표화상의 매칭 모델(1201)로 한다.
다음에, S11O3에 있어서, CPU(201)는, 패턴 매칭 처리의 설정을 행한다. 구체적으로는, CPU(201)는, 도13에 도시한 설정 화면(1300)에 있어서, 유저에 의해 설정된 프레임(1301)에 따라서, 패턴 매칭 처리의 대상 에어리어를 설정한다. CPU(201)는 또한, 유저 조작에 따라서, 매칭 모델을 설정한다. 여기에서, 매칭 모델의 설정이란, S11O2에서 작성된 매칭 모델을 S11O3에서 행하는 매칭 처리의 기준화상으로서 사용하기 위해서 매칭 모델 화상을 지정하는 것이다. 설정된 매칭 모델은 1302에 표시된다. CPU(201)는 더욱, 영역 1303에의 입력에 따라서, 매칭 파라미터의 설정을 행한다. CPU(201)는 또한, 매칭 처리를 행하는 순번을 결정한다. 예를 들면, x좌표의 올림차순/내림차순, 또는 y좌표의 올림차순/내림차순으로 패턴 매칭 처리를 행하는 것을 설정한다.
패턴 매칭 처리가 행해지면, CPU(201)는, 도14에 도시한 테스트 화면(1400)을 디스플레이(204)에 표시한다. 테스트 화면(1400)의 영역 1401에는, 전체 화상이 표시되고, 매칭 모델이 출현한 영역마다, 매칭 결과를 나타내는 프레임(1402)이 중첩되고, 도14에서는 1∼7의 모든 꼬리표의 영역이 매칭 모델과 일치하고, 검출에 성공하고 있는 것을 나타내고 있다. 유저는, 매칭 결과를 참조하여, 검출에 실패한 꼬리표의 영역이 있으면, 영역 1403에 있어서, 줌 촬영의 위치를 다시 지정하거나, 영역 1404에 줌 배율을 다시 설정하거나 해서, 패턴 매칭 처리의 정밀도를 조정할 수 있다. 그리고, 패턴 매칭 처리로 검출된 꼬리표의 영역 중 적어도 1개가, 테스트의 줌 촬영의 위치로서 설정된다.
다음에, S11O4에 있어서, CPU(201)는, 테스트 화면(1400)에 있어서, 줌 촬영의 위치와 줌 배율이 설정된 상태에서 테스트 실행 버튼(1405)이 눌려지면, 설정에 따라 제어 커맨드를 생성하여, 제어 커맨드를 NW카메라(110)에 송신한다. NW카메라(110)는 제어 커맨드를 화상처리장치(100)로부터 수신하고, 제어 커맨드가 나타내는 설정에 따라서 팬 틸트 줌을 해서 촬영 처리를 행하고, 줌 화상을 취득하여, 화상처리장치(100)에 송신한다. 그리고, CPU(201)는, 영역 1401에 수신된 줌 화상을 표시한다. 유저는, 줌 화상에 있어서, 바코드가 적절하게 촬영되어 있는지를 확인하고, 줌 배율을 조정할 수 있다. 다음에, S11O5에 있어서, CPU(201)는, 더욱, 독취 설정을 행한다. 본 독취 설정의 처리는, 도5의 S507의 처리와 같다. 다시 말해, CPU(201)는, 바코드의 독취 대상이 되는 직사각형 영역, 바코드의 종류, 바코드의 수, 사전 등을 설정한다. 다음에, S11O6에 있어서, CPU(201)는, 후술의 독취 처리에 있어서 독취된 정보를 격납하기 위한 설정을 행한다. 구체적으로는, 도15에 도시한 바와 같이, 데이터를 격납하는 기억 영역을 작성한다.
도16은, 독취 처리를 도시한 흐름도다. 적하물이 반입되면, 센서(150)가 적하물을 검출하여, PLC(140)에 통지한다. PLC(140)는, 센서(150)로부터 통지를 받으면, 화상처리장치(100)에 촬영 대상을 검출한 것을 나타내는 소정의 통지를 행한다. S1601에 있어서, 화상처리장치(100)의 CPU(201)는, 소정의 통지를 PLC(140)로부터 받은 것인가 아닌가 판정한다. CPU(201)는, PLC(140)로부터의 소정의 통지를 받으면, 독취 처리를 시작한다. S1602에 있어서, CPU(201)는, S11OO(도11)에 있어서 설정된 촬영 조건에서, 제어 커맨드를 생성하여, 제어 커맨드를 NW카메라(110)에 송신한다. NW카메라(110)는 제어 커맨드를 화상처리장치(100)로부터 수신하고, 제어 커맨드가 나타내는 설정에 따라서 팬 틸트 줌을 해서 촬영 처리를 행하고, 전체 화상을 취득하여, 화상처리장치(100)에 송신한다. 다음에, S1603에 있어서, CPU(201)는, S1602에서 수신된 전체 화상에 있어서, 도11의 플로우에서 설정된 정보에 따라, 패턴 매칭 처리를 행하여, 꼬리표의 화상을 검출한다. 여기에서, 검출된 꼬리표의 화상의 수를 N으로 한다. 다음에, S1604에 있어서, CPU(201)는, S11O4에 있어서 설정된 줌 배율을 설정한다.
다음에, S1605에 있어서, CPU(201)는, 촬영순에 따라, 검출된 꼬리표의 화상 중 1번째의 꼬리표의 화상을 처리 대상으로 삼아서 설정한다. 다음에, S1606에 있어서, CPU(201)는, 1번째의 꼬리표의 화상의 검출 위치를 촬영의 중심위치로서 설정한다. 다음에, S1607에 있어서, CPU(201)는, S1606에 있어서 설정된 중심위치와 S1604에서 설정된 줌 배율을 따라 제어 커맨드를 생성하여, 제어 커맨드를 NW카메라(110)에 송신한다. NW카메라(110)는 제어 커맨드를 화상처리장치(100)로부터 수신하고, 제어 커맨드가 나타내는 설정에 따라서 팬 틸트 줌을 해서 촬영 처리를 행하고, 줌 화상을 취득하여, 화상처리장치(100)에 송신한다. 또한, 2번째 이후의 꼬리표의 화상에 대해서는, 줌 배율 자체는 변경이 없으므로, NW카메라(110)는 팬 틸트의 설정만을 조정해서 촬영을 행한다. 계속해서, S1608∼S1613의 처리는, 도8의 S808∼S813의 처리와 마찬가지다.
또, 제2의 실시형태에 있어서는, S1612에 있어서, 촬영순이 최후(N번째)의 경우에는(S1612에서 YES), 독취 처리를 종료하는 것으로 한다. 단, 제1의 실시형태에 있어서 설명한 것과 마찬가지로, 독취에 실패한 줌 화상이 존재할 경우에, 줌 화상의 재촬영을 행하는 것으로 하여도 좋다. 게다가, S1610에서 바코드 독취 처리에 실패했을 경우, S1607에서 행한 팬 틸트 설정에 있어서의 NW카메라의 팬 틸트 제어 정밀도가 원인이라고 했을 경우, 줌 배율설정, 매칭 처리, 팬 틸트 설정을 단계적으로 행해도 좋다. 구체적으로는, S1604의 줌 배율설정을 S1610의 코드 독취를 행할 수 있는 줌 배율보다도 낮게 행하고, S1608의 촬영 지시의 후에 꼬리표의 화상의 패턴 매칭 처리를 다시 행한다. 그 매칭 결과의 좌표가 화면중앙에 가까운 꼬리표에 대하여, 중심위치의 설정을 변경해서 팬 틸트 설정을 행하고, S1604의 줌 배율로 촬영 지시를 행하고, 수신한 줌 화상에 대하여 바코드 독취를 행한다. 이상과 같이, 줌 배율이 높을수록, 위치 어긋남이 커진다. 이 때문에, 줌 배율을 일단, 낮게 해서 팬 틸트 줌의 설정을 변경해서 촬영을 다시 함으로써, 바코드가 붙여진 정확한 위치를 취득할 수 있어, 바코드의 독취에 성공할 수 있게 된다.
도17은, 줌 화상의 수신시(S1609)에 표시되는 촬영 화면(1700)의 일례를 도시한 도면이다. 영역 1701에는 NW카메라(110)에 의해 촬영된 전체 화상이 수신되어서 표시되고, 꼬리표의 검출에 의한 매칭 결과를 나타내는 프레임(1702)이 중첩되어 있다. 또한, 영역 1703에는, NW카메라(110)에 의해 촬영된 줌 화상이 수신되어 표시된다. 도18은, 바코드 독취시(S1610)에 표시되는 독취 화면(1800)의 일례를 도시한 도면이다. 독취 화면(1800)에는, 바코드 독취의 결과(1801)가 표시된다.
이상과 같이, 제2의 실시형태에 따른 화상처리 시스템은, 적하물에 있어서 꼬리표가 규칙적으로 나열해 있지 않은 경우에 있어서도, 꼬리표에 있어서의 복수의 바코드의 위치를 자동으로 특정하고, 줌 배율을 변경하지 않고, 복수의 줌 화상을 연속해서 촬영한다. 이에 따라, 촬영에 따른 처리의 부하를 경감하여, 처리 시간을 단축할 수 있다.
또, 이상과 같이, 본 발명에 의하면, 촬상 대상물이 복수존재할 경우에 있어서, 촬영에 따른 처리의 부하를 경감하여, 처리 시간을 단축할 수 있다.
본 발명은, 상술한 실시형태의 1이상의 기능을 실현하는 프로그램을, 네트워크 또는 기억 매체를 통해 시스템 또는 장치에 공급하고, 그 시스템 또는 장치의 컴퓨터에 있어서의 1개이상의 프로세서가 프로그램을 판독해 실행하는 처리에서도 실현가능하다. 또한, 1이상의 기능을 실현하는 회로(예를 들면, ASIC)에 의해서도 실현가능하다.
본 발명은 상기 실시형태에 제한되는 것이 아니고, 본 발명의 정신 및 범위로부터 이탈하지 않고, 여러가지 변경 및 변형이 가능하다. 따라서, 본 발명의 범위를 밝히기 위해서 이하의 청구항을 첨부한다.
본원은, 2018년 6월 19일 제출된 일본국 특허출원 특원2018-116378을 기초로 하여서 우선권을 주장하는 것으로, 그 기재 내용의 전부를 여기에 인용한다.

Claims (20)

  1. 촬상 장치와 통신가능한 화상처리장치이고,
    제1의 줌 배율로 촬상 처리를 실행해서 생성된 제1의 화상을 취득하는 제1의 취득 수단과,
    상기 제1의 화상에 포함되는 검출 범위의 분할 조건을 설정하는 설정 수단과,
    상기 분할 조건에 따라서 상기 검출 범위를 복수의 분할 영역으로 분할하는 분할 수단과,
    상기 검출 범위의 각 분할 영역에 근거해 촬상 방향을 변경하고, 제1의 줌 배율보다도 큰 제2의 줌 배율로 촬상 처리를 실행하고, 제2의 화상을 순서대로 생성하도록 촬상 장치를 제어하는 촬상 제어 수단과,
    상기 제2의 화상을 각각 취득하는 제2의 취득 수단과,
    상기 제2의 화상마다 데이터의 독취 처리를 실행하는 독취 수단을 구비하는 것을 특징으로 하는 화상처리장치.
  2. 제 1 항에 있어서,
    상기 설정 수단은, 유저 조작에 따라서 상기 분할 조건을 설정하는 것을 특징으로 하는 화상처리장치.
  3. 제 1 항 또는 제 2 항에 있어서,
    상기 분할 조건은, 분할수인 것을 특징으로 하는 화상처리장치.
  4. 제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
    상기 제1의 화상에 대하여 소정의 모델 화상과의 패턴 매칭 처리를 실행하는 패턴 매칭 처리 수단을 더 구비하고,
    상기 설정 수단은, 상기 패턴 매칭 처리의 인식 결과에 근거해서 상기 분할 조건을 설정하는 것을 특징으로 하는 화상처리장치.
  5. 제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
    상기 설정 수단은, 더욱 상기 검출 범위를 유저 조작에 따라서 설정하는 것을 특징으로 하는 화상처리장치.
  6. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    상기 제1의 줌 배율은, 유저 조작에 따라서 결정되는 것을 특징으로 하는 화상처리장치.
  7. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
    상기 제1의 줌 배율은, 상기 검출 범위의 피사체에 대한 초점거리에 근거해서 결정되는 것을 특징으로 하는 화상처리장치.
  8. 제 1 항 내지 제 7 항 중 어느 한 항에 있어서,
    상기 제2의 줌 배율은, 상기 분할 조건에 근거해서 결정되는 것을 특징으로 하는 화상처리장치.
  9. 제 1 항 내지 제 7 항 중 어느 한 항에 있어서,
    상기 검출 범위는, 꼬리표의 화상을 포함하고,
    상기 꼬리표의 종류를 판정하는 판정 수단을 더 구비하고,
    상기 제2의 줌 배율은, 꼬리표의 종류와 줌 배율과를 대응시킨 테이블을 참조하는 것에 의해 결정되는 것을 특징으로 하는 화상처리장치.
  10. 제 1 항 내지 제 9 항 중 어느 한 항에 있어서,
    상기 제1의 취득 수단 및 상기 제2의 취득 수단은, 네트워크를 통해 상기 촬상 장치로부터 상기 제1의 화상 및 상기 제2의 화상을 각각 취득하는 것을 특징으로 하는 화상처리장치.
  11. 제 1 항 내지 제 10 항 중 어느 한 항에 있어서,
    상기 촬상 제어 수단은, 상기 독취 수단에 의한 상기 데이터의 독취 처리가 실패하면, 상기 촬상 방향의 변경 및 상기 제2의 줌 배율의 변경의 적어도 한쪽을 행하고, 다시, 촬상 처리를 실행해서 상기 제2의 화상을 생성하도록 상기 촬상 장치를 제어하는 것을 특징으로 하는 화상처리장치.
  12. 제 1 항 내지 제 11 항 중 어느 한 항에 있어서,
    상기 촬상 제어 수단은, 상기 줌 배율 및 상기 촬상 방향의 적어도 1개에 따라서 제어 커맨드를 생성하고, 상기 제어 커맨드를 상기 촬상 장치에 송신하는 것에 의해 상기 촬상 장치를 제어하는 것을 특징으로 하는 화상처리장치.
  13. 제 12 항에 있어서,
    POE(Power over Ethernet) 허브를 통해 상기 촬상 장치와 통신하는 통신 수단을 더 구비하고,
    상기 제어 커맨드는, 상기 POE를 통해 상기 촬상 장치에 송신되는 것을 특징으로 하는 화상처리장치.
  14. 제 1 항 내지 제 13 항 중 어느 한 항에 있어서,
    상기 데이터는, 바코드, QR코드(등록상표) 및 문자열 중 적어도 1개인 것을 특징으로 하는 화상처리장치.
  15. 제 1 항 내지 제 14 항 중 어느 한 항에 있어서,
    상기 촬상 제어 수단은, 더욱, 상기 제1의 줌 배율로 촬상 처리를 실행하고, 상기 제1의 화상과는 상이한 제3의 화상을 생성하도록 상기 촬상 장치를 제어하고,
    상기 분할 수단은, 상기 분할 조건에 따라서 상기 제3의 화상에 포함되는 검출 범위를 복수의 분할 영역으로 분할하고,
    상기 촬상 제어 수단은, 더욱, 상기 제3의 화상의 검출 범위의 각 분할 영역에 근거해 촬상 방향을 변경하고, 상기 제2의 줌 배율로 촬상 처리를 실행해서 상기 제2의 화상과는 상이한 제4의 화상을 순서대로 생성하도록 촬상 장치를 제어하는 것을 특징으로 하는 화상처리장치.
  16. 제 15 항에 있어서,
    외부의 센서에 의해 검지된 정보를 수신하는 수신 수단을 더 가지고,
    상기 촬상 제어 수단은, 상기 센서로부터의 정보에 응답하여, 상기 제1의 줌 배율로 촬상 처리를 실행해서 상기 제3의 화상을 생성하도록 상기 촬상 장치를 제어하는 것을 특징으로 하는 화상처리장치.
  17. 제 15 항 또는 제 16 항에 있어서,
    상기 제1의 화상의 상기 검출 범위에 근거하여, 상기 제3의 화상의 상기 검출 범위를 조정하는 조정 수단을 더 구비하는 것을 특징으로 하는 화상처리장치.
  18. 촬상 장치와 통신가능한 화상처리장치의 제어 방법이고,
    제1의 줌 배율로 촬상 처리를 실행해서 생성된 제1의 화상을 취득하는 스텝과,
    상기 제1의 화상에 포함되는 검출 범위의 분할 조건을 설정하는 스텝과,
    상기 분할 조건에 따라서 상기 검출 범위를 복수의 분할 영역으로 분할하는 스텝과,
    상기 검출 범위의 각 분할 영역에 근거해 촬상 방향을 변경하고, 제1의 줌 배율보다도 큰 제2의 줌 배율로 촬상 처리를 실행하고, 제2의 화상을 순서대로 생성하도록 촬상 장치를 제어하는 스텝과,
    상기 제2의 화상을 각각 취득하는 스텝과,
    상기 제2의 화상마다 데이터의 독취 처리를 실행하는 스텝을 구비하는 것을 특징으로 하는 제어 방법.
  19. 컴퓨터를 청구항 1∼17 중 어느 한 항에 기재된 화상처리장치의 각 수단으로서 기능시키는 프로그램.
  20. 청구항 19에 기재된 프로그램을 컴퓨터 판독 가능하게 기억한 기억 매체.
KR1020217000014A 2018-06-19 2019-06-10 화상처리장치, 화상처리방법, 컴퓨터프로그램 및 기록 매체 KR102457013B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JPJP-P-2018-116378 2018-06-19
JP2018116378A JP7199845B2 (ja) 2018-06-19 2018-06-19 画像処理装置、画像処理方法及びプログラム
PCT/JP2019/022846 WO2019244685A1 (ja) 2018-06-19 2019-06-10 画像処理装置、画像処理方法、プログラムおよび記録媒体

Publications (2)

Publication Number Publication Date
KR20210016454A true KR20210016454A (ko) 2021-02-15
KR102457013B1 KR102457013B1 (ko) 2022-10-20

Family

ID=68983954

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217000014A KR102457013B1 (ko) 2018-06-19 2019-06-10 화상처리장치, 화상처리방법, 컴퓨터프로그램 및 기록 매체

Country Status (6)

Country Link
US (1) US11363208B2 (ko)
EP (1) EP3813353A4 (ko)
JP (1) JP7199845B2 (ko)
KR (1) KR102457013B1 (ko)
CN (1) CN112369007B (ko)
WO (1) WO2019244685A1 (ko)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11169772B2 (en) * 2018-03-19 2021-11-09 Gopro, Inc. Image capture device control using mobile platform voice recognition
US11631196B2 (en) 2020-07-31 2023-04-18 Zebra Technologies Corporation Systems and methods to optimize imaging settings for a machine vision job
JP7113257B2 (ja) * 2020-12-28 2022-08-05 パナソニックIpマネジメント株式会社 荷物検品装置、荷物検品方法、プログラム、及び荷物検品システム
CN115131788A (zh) * 2021-03-24 2022-09-30 华为技术有限公司 一种标签信息获取方法、装置、计算设备及存储介质
JP2022178159A (ja) 2021-05-19 2022-12-02 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011142685A (ja) 2011-04-05 2011-07-21 Canon Inc カメラ制御システムおよびその方法およびその動作処理プログラムを記憶した記憶媒体
JP2011150460A (ja) 2010-01-20 2011-08-04 Hitachi Information & Control Solutions Ltd 入出庫管理システムおよび入出庫管理方法
JP2012054724A (ja) * 2010-08-31 2012-03-15 Canon Inc 画像処理装置、及びその制御方法
JP2012064110A (ja) * 2010-09-17 2012-03-29 Casio Comput Co Ltd 情報読取装置及びプログラム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09114913A (ja) * 1995-10-17 1997-05-02 Casio Comput Co Ltd 読取装置及び情報端末装置
JP4192847B2 (ja) * 2004-06-16 2008-12-10 カシオ計算機株式会社 コード読取装置およびプログラム
KR100828539B1 (ko) * 2005-09-20 2008-05-13 후지제롯쿠스 가부시끼가이샤 이차원 코드의 검출 방법, 검출 장치, 및 검출 프로그램을기억한 기억 매체
JP4626493B2 (ja) * 2005-11-14 2011-02-09 ソニー株式会社 画像処理装置、画像処理方法、画像処理方法のプログラム及び画像処理方法のプログラムを記録した記録媒体
US8009864B2 (en) * 2007-08-31 2011-08-30 Accenture Global Services Limited Determination of inventory conditions based on image processing
JP4959535B2 (ja) * 2007-12-13 2012-06-27 株式会社日立製作所 撮像装置
ES2632746T3 (es) * 2009-04-20 2017-09-15 Metaform Ltd. Sistema y procedimiento de detección de códigos de barras múltiples
WO2010134502A1 (ja) * 2009-05-18 2010-11-25 小平アソシエイツ株式会社 画像情報出力方法
DE102009049932B4 (de) * 2009-10-19 2016-04-07 Polytec Gmbh Vorrichtung und Verfahren zur interferometrischen Schwingungsmessung an einem Objekt
JP5534207B2 (ja) * 2010-08-31 2014-06-25 カシオ計算機株式会社 情報読取装置及びプログラム
CN103238097B (zh) * 2010-11-30 2015-08-05 富士胶片株式会社 成像设备和对焦位置检测方法
CN102184405B (zh) * 2011-04-19 2012-12-26 清华大学 图像采集分析方法
JP5898481B2 (ja) * 2011-12-13 2016-04-06 キヤノン株式会社 撮像装置及び焦点検出方法
JP5947548B2 (ja) * 2012-01-13 2016-07-06 キヤノン株式会社 撮像装置、その制御方法、画像処理装置、画像生成方法、プログラム
JP2013161097A (ja) * 2012-02-01 2013-08-19 Centrix Co Ltd 非接触通信を利用したパネル情報管理システム、およびこれに用いる情報管理サーバ、情報管理用プログラム
US8866943B2 (en) * 2012-03-09 2014-10-21 Apple Inc. Video camera providing a composite video sequence
CN102880850B (zh) * 2012-09-19 2015-08-19 腾讯科技(深圳)有限公司 一种二维码批量扫描的方法及扫描设备
JP6027287B2 (ja) * 2014-03-28 2016-11-16 富士フイルム株式会社 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
CN105100578A (zh) * 2014-05-05 2015-11-25 南昌欧菲光电技术有限公司 图像处理系统及其图像处理方法
JP5911557B2 (ja) * 2014-12-16 2016-04-27 オリンパス株式会社 撮像装置
JP6436760B2 (ja) * 2014-12-24 2018-12-12 キヤノン株式会社 ズーム制御装置、撮像装置、ズーム制御装置の制御方法、及びズーム制御装置の制御プログラム
CN204462371U (zh) * 2015-03-08 2015-07-08 无锡桑尼安科技有限公司 电表缺陷智能化检测设备
JP6719901B2 (ja) * 2015-12-28 2020-07-08 あおい精機株式会社 検体処理装置
JP6786253B2 (ja) * 2016-04-15 2020-11-18 キヤノン株式会社 撮像システム、情報処理装置、撮像システムの制御方法、情報処理装置の制御方法、及びプログラム
JP6736489B2 (ja) 2017-01-17 2020-08-05 株式会社ナリス化粧品 明るさ感の評価方法、評価プログラム、装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011150460A (ja) 2010-01-20 2011-08-04 Hitachi Information & Control Solutions Ltd 入出庫管理システムおよび入出庫管理方法
JP2012054724A (ja) * 2010-08-31 2012-03-15 Canon Inc 画像処理装置、及びその制御方法
JP2012064110A (ja) * 2010-09-17 2012-03-29 Casio Comput Co Ltd 情報読取装置及びプログラム
JP2011142685A (ja) 2011-04-05 2011-07-21 Canon Inc カメラ制御システムおよびその方法およびその動作処理プログラムを記憶した記憶媒体

Also Published As

Publication number Publication date
JP7199845B2 (ja) 2023-01-06
WO2019244685A1 (ja) 2019-12-26
CN112369007A (zh) 2021-02-12
EP3813353A1 (en) 2021-04-28
EP3813353A4 (en) 2022-03-16
CN112369007B (zh) 2022-07-15
US20210099650A1 (en) 2021-04-01
US11363208B2 (en) 2022-06-14
KR102457013B1 (ko) 2022-10-20
JP2019220829A (ja) 2019-12-26

Similar Documents

Publication Publication Date Title
KR102457013B1 (ko) 화상처리장치, 화상처리방법, 컴퓨터프로그램 및 기록 매체
US8073206B2 (en) Face feature collator, face feature collating method, and program
JP4341629B2 (ja) 撮像装置、画像処理方法及びプログラム
JP2017187988A (ja) コード認識装置
WO2021168804A1 (zh) 图像处理方法、图像处理装置和图像处理系统
US9773143B2 (en) Image processing apparatus, image processing method, and image processing system
JP7493927B2 (ja) 画像処理装置、画像処理方法およびプログラム
US7486880B2 (en) Camera device capable of changing range-finding area
US20120019620A1 (en) Image capture device and control method
JP6368997B2 (ja) 画像切り出し装置、および画像切り出しプログラム
US11800230B2 (en) Image processing apparatus of reducing whole operation time of arrival inspection, image processing method, and storage medium
JP7497203B2 (ja) 画像処理装置、画像処理装置の制御方法及びプログラム
JP6288487B2 (ja) 画像処理装置及びプログラム
JP5380833B2 (ja) 撮像装置、被写体検出方法及びプログラム
KR102637344B1 (ko) 객체의 인식을 수행하는 방법 및 장치
US11503200B2 (en) Photographing device and photographing method
CN113014796B (zh) 图像处理设备、摄像设备、图像处理方法和存储介质
JP2014116857A (ja) 情報処理装置、電子会議システム、情報処理方法、およびプログラム
JP6819478B2 (ja) コンピュータプログラム、プリセット情報登録方法およびプリセット情報登録装置
JP7304992B2 (ja) コード認識装置
JP2013232889A (ja) 画像処理装置、およびその制御方法
KR20190110369A (ko) 지정 피사체의 자동 추적이 가능한 지능형 카메라 시스템 및 이를 이용한 영상촬영 방법
EP3614298A1 (en) Portable terminal apparatus, information recording method and storage medium
JP2023139721A (ja) 情報処理装置、情報処理方法およびプログラム

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant