JP2017130794A - Information processing apparatus, evaluation chart, evaluation system, and performance evaluation method - Google Patents

Information processing apparatus, evaluation chart, evaluation system, and performance evaluation method Download PDF

Info

Publication number
JP2017130794A
JP2017130794A JP2016009021A JP2016009021A JP2017130794A JP 2017130794 A JP2017130794 A JP 2017130794A JP 2016009021 A JP2016009021 A JP 2016009021A JP 2016009021 A JP2016009021 A JP 2016009021A JP 2017130794 A JP2017130794 A JP 2017130794A
Authority
JP
Japan
Prior art keywords
feature point
image
information processing
point extraction
evaluation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016009021A
Other languages
Japanese (ja)
Inventor
英彦 小笠原
Hidehiko Ogasawara
英彦 小笠原
正朗 清水
Masao Shimizu
正朗 清水
博之 勢川
Hiroyuki Segawa
博之 勢川
大場 章男
Akio Oba
章男 大場
隆行 石田
Takayuki Ishida
隆行 石田
稲田 徹悟
Tetsugo Inada
徹悟 稲田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment LLC
Original Assignee
Sony Interactive Entertainment LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment LLC filed Critical Sony Interactive Entertainment LLC
Priority to JP2016009021A priority Critical patent/JP2017130794A/en
Priority to CN201710025681.0A priority patent/CN107018407B/en
Publication of JP2017130794A publication Critical patent/JP2017130794A/en
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently find the conditions for performing information processing using captured images with high accuracy.SOLUTION: An imaging apparatus 12 captures an evaluation chart 200, generates captured image data in the same way as during operation and transmits the data to an information processing apparatus 10. The information processing apparatus 10 performs corner detection of chessboard shaped large rectangle, in the evaluation chart 200, and acquires the coordinate of a small rectangular corner of gray represented internally, as a correct answer coordinate. Furthermore, an index representing the performance, in view point of feature point extraction, is calculated by extracting a feature point by the algorithm similar to that during operation, and comparing the point with the correct answer coordinate. When the index does not reach a target value, the information processing apparatus 10 updates and adjusts the setting of adjustment object, out of the settings of various kinds of processing in the imaging apparatus 12.SELECTED DRAWING: Figure 1

Description

本発明は、撮影画像を用いた実物体の認識を含む情報処理を行う情報処理システム、それに含まれる撮像装置、マット、および用いられる画像生成方法に関する。   The present invention relates to an information processing system that performs information processing including recognition of a real object using a captured image, an imaging device included therein, a mat, and an image generation method used.

ユーザの体やマーカーをカメラで撮影し、その像の領域を別の画像で置換してディスプレイに表示するゲームが知られている(例えば、特許文献1参照)。撮影画像における像を検出し解析することにより、被写体やカメラ自身の位置や動きを取得したり被写体が何であるかを認識したりする技術は、ゲーム装置や情報端末に搭載されたカメラのみならず、防犯カメラ、車載カメラ、ロボット搭載カメラなどを利用した情報処理においても広く導入されている。   A game is known in which a user's body or marker is photographed with a camera, the area of the image is replaced with another image, and displayed on a display (for example, see Patent Document 1). The technology to acquire the position and movement of the subject and the camera itself and to recognize what the subject is by detecting and analyzing the image in the captured image is not limited to the camera mounted on the game device or the information terminal. It is also widely used in information processing using security cameras, in-vehicle cameras, robot cameras, and the like.

上記のような技術において、対象物の像やその造形的な特徴をいかに正確に取得するかは常に重要な課題である。そのため撮影画像における物体の輪郭や特徴的な箇所を正確に抽出する様々な技術が提案されている(例えば、特許文献2参照)。   In the technology as described above, how to accurately acquire an image of an object and its modeling features is always an important issue. For this reason, various techniques have been proposed for accurately extracting the contours and characteristic portions of an object in a captured image (see, for example, Patent Document 2).

欧州特許出願公開第0999518号明細書European Patent Application No. 0999518 特開2010−182078号公報JP 2010-182078 A

撮影画像上の特徴的な箇所は、明るさなどの撮影環境、イメージセンサなど用いるデバイスの性能、撮像から特徴検出までにデータに施される様々な処理、具体的にはデモザイク処理、補正処理、圧縮符号化処理、通信処理などにおける条件や手法に依存して、その抽出されやすさが変動する。このように多数の要因が複雑に関連した結果として、検出された特徴を用いた情報処理がなされるため、システムの製造コストや処理コストの観点での制約を満足させつつ、十分な処理精度を得るための最適な条件を見出すのは容易でない。   Characteristic locations on the captured image are the shooting environment such as brightness, the performance of the device used, such as an image sensor, various processes applied to the data from imaging to feature detection, specifically demosaic processing, correction processing, The ease of extraction varies depending on conditions and methods in compression encoding processing, communication processing, and the like. As a result of many factors related to each other in this way, information processing using the detected features is performed, so that sufficient processing accuracy can be achieved while satisfying constraints in terms of system manufacturing costs and processing costs. Finding the optimal conditions to get is not easy.

本発明はこうした課題に鑑みてなされたものであり、その目的は、撮影画像を用いた情報処理を高精度に行うための処理条件を効率的に見出すことのできる技術を提供することにある。   The present invention has been made in view of these problems, and an object of the present invention is to provide a technique capable of efficiently finding processing conditions for performing information processing using a captured image with high accuracy.

上記課題を解決するために、本発明のある態様は情報処理装置に関する。この情報処理装置は、所定のパターンが表された評価用チャートの撮影画像のデータを撮像装置から取得し画像としてメモリに展開するチャート画像取得部と、撮影画像から特徴点を抽出する特徴点抽出部と、特徴点抽出部とは異なる手法で、撮影画像から抽出されるべき特徴点の位置座標を正解座標として取得する正解座標取得部と、特徴点抽出部が抽出した特徴点と正解座標に基づき、特徴点抽出に適した画像を得る性能を数値化した性能指標を算出し出力する性能指標算出部と、を備えたことを特徴とする。   In order to solve the above problems, an aspect of the present invention relates to an information processing apparatus. The information processing apparatus includes a chart image acquisition unit that acquires captured image data of an evaluation chart representing a predetermined pattern from an imaging apparatus and develops the data as an image in a memory, and a feature point extraction that extracts a feature point from the captured image And a feature coordinate extraction unit that acquires the position coordinates of the feature points to be extracted from the captured image as correct coordinates, and the feature points and correct coordinates extracted by the feature point extraction unit using a method different from that of the feature point extraction unit. And a performance index calculation unit that calculates and outputs a performance index that quantifies the performance of obtaining an image suitable for feature point extraction.

本発明の別の態様は評価用チャートに関する。この評価用チャートは、情報処理装置が特徴点抽出に適した画像を得る性能を評価するための評価用チャートであって、その撮影画像からコーナーを検出するためのチェス盤状の黒および白の矩形と、コーナーの検出結果に基づいて座標が取得され、別途行う特徴点抽出処理の結果と比較するための特徴点を有する、各矩形の内部に表されたグレーの図形と、を含むことを特徴とする。   Another embodiment of the present invention relates to an evaluation chart. This evaluation chart is an evaluation chart for evaluating the performance of the information processing apparatus to obtain an image suitable for feature point extraction, and is a chessboard-like black and white for detecting a corner from the photographed image. A rectangle and a gray figure represented inside each rectangle, with coordinates obtained based on corner detection results and having feature points for comparison with the results of feature point extraction processing performed separately. Features.

本発明のさらに別の態様も評価用チャートに関する。この評価用チャートは、情報処理装置が特徴点抽出に適した画像を得る性能を評価するための評価用チャートであって、その撮影画像から検出される、上下左右に1つ分の空きを形成するように配置された複数の黒い円と、当該円の検出結果に基づいて座標が取得され、別途行う特徴点抽出処理の結果と比較するための特徴点を有する、各円の内部および空きに表されたグレーの図形と、を含むことを特徴とする。   Yet another embodiment of the present invention also relates to an evaluation chart. This evaluation chart is an evaluation chart for evaluating the ability of the information processing apparatus to obtain an image suitable for feature point extraction, and forms one vacant space in the vertical and horizontal directions detected from the captured image. A plurality of black circles arranged in such a way that coordinates are acquired based on the detection results of the circles, and feature points for comparison with the results of feature point extraction processing performed separately, inside and in each circle And a gray figure represented.

本発明のさらに別の態様は評価システムに関する。この評価システムは、所定のパターンが表された評価用チャートを撮影する撮像装置と、その撮影画像のデータを取得し、特徴点抽出に適した画像を得る性能を評価する情報処理装置と、を含み、情報処理装置は、撮影画像のデータを撮像装置から取得し画像としてメモリに展開するチャート画像取得部と、撮影画像から特徴点を抽出する特徴点抽出部と、特徴点抽出部とは異なる手法で、撮影画像から抽出されるべき特徴点の位置座標を正解座標として取得する正解座標取得部と、特徴点抽出部が抽出した特徴点と正解座標に基づき、性能を数値化した性能指標を算出する性能指標算出部と、性能指標があらかじめ設定された目標値に達していないとき、撮像装置における処理に用いる設定のいずれかを調整する調整部と、を備え、撮像装置は、調整部によって調整された設定を格納するパラメータ記憶部と、パラメータ記憶部が格納する設定に従い撮影画像のデータを生成し情報処理装置に送信するデータ形成部と、を備えることを特徴とする。   Yet another embodiment of the present invention relates to an evaluation system. This evaluation system includes an imaging device that captures an evaluation chart in which a predetermined pattern is represented, and an information processing device that acquires data of the captured image and evaluates the ability to obtain an image suitable for feature point extraction. The information processing apparatus includes a chart image acquisition unit that acquires captured image data from an imaging device and develops the image as an image in a memory, a feature point extraction unit that extracts a feature point from the captured image, and a feature point extraction unit. The correct coordinate acquisition unit that acquires the position coordinates of the feature points that should be extracted from the captured image as the correct coordinates, and the performance index that quantifies the performance based on the feature points and correct coordinates extracted by the feature point extraction unit A performance index calculation unit for calculating, and an adjustment unit for adjusting any of the settings used for processing in the imaging device when the performance index does not reach a preset target value. Is provided with a parameter storage unit that stores settings adjusted by the adjustment unit, and a data forming unit that generates captured image data according to the settings stored in the parameter storage unit and transmits the data to the information processing apparatus. .

本発明のさらに別の態様は性能評価方法に関する。この性能評価方法は、所定のパターンが表された評価用チャートの撮影画像のデータを撮像装置から取得し画像としてメモリに展開するステップと、撮影画像から特徴点を抽出するステップと、特徴点を抽出するステップとは異なる手法で、撮影画像から抽出されるべき特徴点の位置座標を正解座標として取得するステップと、特徴点を抽出するステップで抽出した特徴点と正解座標に基づき、特徴点抽出に適した画像を得る性能を数値化した性能指標を算出し出力するステップと、を含むことを特徴とする。   Yet another embodiment of the present invention relates to a performance evaluation method. This performance evaluation method includes a step of acquiring data of a photographed image of an evaluation chart representing a predetermined pattern from an imaging device and developing the data in a memory, a step of extracting feature points from the photographed image, and a feature point Extracting feature points based on the feature points and correct coordinates extracted in the step of acquiring the position coordinates of the feature points to be extracted from the captured image as correct coordinates and the step of extracting feature points by a method different from the extracting step And a step of calculating and outputting a performance index obtained by quantifying the performance of obtaining an image suitable for.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によると、撮影画像を用いた情報処理を高精度に行うための条件を効率的に見出せる。   According to the present invention, it is possible to efficiently find conditions for performing information processing using captured images with high accuracy.

本実施の形態を適用できる評価システムの構成例を示す図である。It is a figure which shows the structural example of the evaluation system which can apply this Embodiment. 本実施の形態における情報処理装置の内部回路構成を示す図である。It is a figure which shows the internal circuit structure of the information processing apparatus in this Embodiment. 本実施の形態において調整の対象として想定される要因を例示す図である。It is a figure which shows the factor assumed as an object of adjustment in this Embodiment. 本実施の形態の評価時における情報処理装置および撮像装置の機能ブロックの構成を示す図である。It is a figure which shows the structure of the functional block of the information processing apparatus and imaging device at the time of evaluation of this Embodiment. 本実施の形態における評価用チャートを例示する図である。It is a figure which illustrates the chart for evaluation in this Embodiment. 本実施の形態における正解座標取得部が、図5の評価用チャートの撮影画像から正解座標を取得する方法を説明するための図である。It is a figure for demonstrating the method in which the correct coordinate acquisition part in this Embodiment acquires a correct coordinate from the picked-up image of the chart for evaluation of FIG. 本実施の形態において正解座標取得部が座標を取得した小矩形のコーナーと、特徴点抽出部が抽出した特徴点を比較する図である。It is a figure which compares the small rectangular corner from which the correct coordinate acquisition part acquired the coordinate in this Embodiment with the feature point which the feature point extraction part extracted. 本実施の形態において、評価用チャートを撮影した画像に対し抽出された特徴点の分布と、算出されたF値を例示する図である。In this Embodiment, it is a figure which illustrates distribution of the feature point extracted with respect to the image which image | photographed the chart for evaluation, and the calculated F value. 本実施の形態において、評価用チャートを撮影した画像に対し抽出された特徴点の分布と、算出されたF値を例示する図である。In this Embodiment, it is a figure which illustrates distribution of the feature point extracted with respect to the image which image | photographed the chart for evaluation, and the calculated F value. 本実施の形態において、評価用チャートを撮影した画像に対し抽出された特徴点の分布と、算出されたF値を例示する図である。In this Embodiment, it is a figure which illustrates distribution of the feature point extracted with respect to the image which image | photographed the chart for evaluation, and the calculated F value. 本実施の形態において、評価用チャートを撮影した画像に対し抽出された特徴点の分布と、算出されたF値を例示する図である。In this Embodiment, it is a figure which illustrates distribution of the feature point extracted with respect to the image which image | photographed the chart for evaluation, and the calculated F value. セルサイズの変化に対するS/N比の変化を例示する図である。It is a figure which illustrates the change of S / N ratio with respect to the change of cell size. 本実施の形態において、目標値記憶部に格納される目標値の設定情報のデータ構造例を示す図である。In this Embodiment, it is a figure which shows the data structure example of the setting information of the target value stored in a target value memory | storage part. 本実施の形態において情報処理装置が特徴点抽出性能を評価したうえ調整対象パラメータを調整する処理手順を示すフローチャートである。10 is a flowchart illustrating a processing procedure for adjusting an adjustment target parameter after the information processing apparatus evaluates feature point extraction performance in the present embodiment. 本実施の形態における評価用チャートの別の例を示す図である。It is a figure which shows another example of the chart for evaluation in this Embodiment.

本実施の形態は、撮影画像から抽出した特徴点を用いた情報処理を高精度に行うため、事前に行う性能評価および必要に応じた調整に係る。この性能評価や調整は、情報処理システムを開発、製造する段階でメーカーなどが行ってもよいし、製品を購入したユーザが実際の使用環境において行ってもよい。特徴点を用いて行うゲームなどの情報処理の内容は特に限定されない。以後、抽出された特徴点を利用して何らかの情報処理を行う段階を「運用時」、その前に性能評価や調整を行う段階を「評価時」と呼ぶ。   The present embodiment relates to performance evaluation performed in advance and adjustment as necessary in order to perform information processing using feature points extracted from a captured image with high accuracy. This performance evaluation and adjustment may be performed by a manufacturer at the stage of developing and manufacturing the information processing system, or may be performed by a user who has purchased the product in an actual use environment. The contents of information processing such as a game performed using the feature points are not particularly limited. Hereinafter, the stage of performing some information processing using the extracted feature points is referred to as “operation time”, and the stage of performing performance evaluation and adjustment before that is referred to as “evaluation time”.

図1は本実施の形態を適用できる評価システムの構成例を示す。評価システム8は、評価用チャート200を撮影する撮像装置12、撮影された画像から特徴点を抽出し、その結果を評価する情報処理装置10、評価結果等の情報を画像として出力する表示装置16を含む。なお同図に示すシステム構成は評価時のものであり、運用時には、撮像装置12は用途に応じた被写空間を撮影し、情報処理装置10はユーザが要求するなどした情報処理を行ってよい。また表示装置16は当該情報処理の結果を表示してよい。   FIG. 1 shows a configuration example of an evaluation system to which this embodiment can be applied. The evaluation system 8 includes an imaging device 12 that captures the evaluation chart 200, a feature point extracted from the captured image, an information processing device 10 that evaluates the result, and a display device 16 that outputs information such as the evaluation result as an image. including. Note that the system configuration shown in the figure is the one at the time of evaluation, and in operation, the imaging device 12 may shoot a subject space according to the application, and the information processing device 10 may perform information processing requested by the user. . The display device 16 may display the result of the information processing.

撮像装置12は、対象物を撮影するカメラと、その出力信号にデモザイク処理など一般的な処理を施すことにより撮影画像の出力データを生成し、情報処理装置10に送出する機構とを有する。カメラはCCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなど、一般的なデジタルカメラ、デジタルビデオカメラで利用されている可視光センサを備える。撮像装置12が備えるカメラは1つのみでもよいし、2つのカメラを既知の間隔で左右に配置したいわゆるステレオカメラでもよい。   The imaging device 12 includes a camera that captures an object and a mechanism that generates output data of a captured image by performing general processing such as demosaic processing on the output signal and sends the output data to the information processing device 10. The camera includes a visible light sensor used in general digital cameras and digital video cameras, such as a CCD (Charge Coupled Device) sensor and a CMOS (Complementary Metal Oxide Semiconductor) sensor. The imaging device 12 may include only one camera or a so-called stereo camera in which two cameras are arranged on the left and right sides at a known interval.

情報処理装置10は、たとえばゲーム装置やパーソナルコンピュータであってよく、評価や運用に必要なプログラムをロードすることで情報処理機能を実現する。あるいは情報処理装置10を、性能評価や調整を行うのに特化した装置としてもよい。この場合、運用時にはゲーム装置やパーソナルコンピュータなど用途に応じた装置に入れ替えればよい。   The information processing apparatus 10 may be a game device or a personal computer, for example, and implements an information processing function by loading a program necessary for evaluation and operation. Alternatively, the information processing apparatus 10 may be an apparatus specialized for performing performance evaluation and adjustment. In this case, it may be replaced with a device according to the application such as a game device or a personal computer at the time of operation.

表示装置16は液晶ディスプレイ、プラズマディスプレイ、有機ELディスプレイなど一般的なディスプレイでよい。評価時には表示装置16は、情報処理装置10が行った評価の結果や抽出された特徴点などの情報を表示する。このような情報の提示が必要ない場合、評価時においては表示装置16がなくてもよい。   The display device 16 may be a general display such as a liquid crystal display, a plasma display, or an organic EL display. At the time of evaluation, the display device 16 displays information such as the result of evaluation performed by the information processing device 10 and extracted feature points. When presentation of such information is not necessary, the display device 16 may be omitted at the time of evaluation.

撮像装置12、情報処理装置10、表示装置16の接続は有線であっても無線であってもよい。本実施の形態では特に、撮像装置12が撮影した画像から、十分な精度で特徴点が抽出されているかどうかを評価する。そして必要に応じて、撮像装置12内部での処理、撮像装置12から情報処理装置10へのデータ送信、特徴点の抽出処理などの条件を調整する。そのようにして適切な条件を決定し運用に活用することが目的のため、撮像装置12や通信手段は運用時に想定される構成を踏襲する。   The connection of the imaging device 12, the information processing device 10, and the display device 16 may be wired or wireless. In the present embodiment, in particular, it is evaluated whether or not feature points are extracted with sufficient accuracy from an image captured by the imaging device 12. If necessary, conditions such as processing in the imaging device 12, data transmission from the imaging device 12 to the information processing device 10, and feature point extraction processing are adjusted. In order to determine appropriate conditions in this way and use them for operation, the imaging device 12 and the communication means follow the configuration assumed during operation.

図2は情報処理装置10の内部回路構成を示している。情報処理装置10は、CPU(Central Processing Unit)22、GPU(Graphics Processing Unit)24、メインメモリ26を含む。CPU22は、オペレーティングシステムやアプリケーションなどのプログラムに基づいて、情報処理装置10内部の構成要素における処理や信号伝送を制御する。GPU24は画像処理を行う。メインメモリ26はRAM(Random Access Memory)により構成され、処理に必要なプログラムやデータを記憶する。   FIG. 2 shows an internal circuit configuration of the information processing apparatus 10. The information processing apparatus 10 includes a CPU (Central Processing Unit) 22, a GPU (Graphics Processing Unit) 24, and a main memory 26. The CPU 22 controls processing and signal transmission in the components inside the information processing apparatus 10 based on programs such as an operating system and applications. The GPU 24 performs image processing. The main memory 26 is constituted by a RAM (Random Access Memory), and stores programs and data necessary for processing.

これらの各部は、バス30を介して相互に接続されている。バス30にはさらに入出力インターフェース28が接続されている。入出力インターフェース28には、USBやIEEE1394などの周辺機器インターフェースや、有線又は無線LANのネットワークインターフェースからなる通信部32、ハードディスクドライブや不揮発性メモリなどの記憶部34、表示装置16やスピーカーなどの出力装置へデータを出力する出力部36、撮像装置12からデータを入力する入力部38、磁気ディスク、光ディスクまたは半導体メモリなどのリムーバブル記録媒体を駆動する記録媒体駆動部40が接続される。   These units are connected to each other via a bus 30. An input / output interface 28 is further connected to the bus 30. The input / output interface 28 includes a peripheral device interface such as USB and IEEE1394, a communication unit 32 including a wired or wireless LAN network interface, a storage unit 34 such as a hard disk drive or a nonvolatile memory, an output of the display device 16 or a speaker. An output unit 36 that outputs data to the apparatus, an input unit 38 that inputs data from the imaging apparatus 12, and a recording medium driving unit 40 that drives a removable recording medium such as a magnetic disk, an optical disk, or a semiconductor memory are connected.

CPU22は、記憶部34に記憶されているオペレーティングシステムを実行することにより情報処理装置10の全体を制御する。CPU22はまた、リムーバブル記録媒体から読み出されてメインメモリ26にロードされた、あるいは通信部32を介してダウンロードされた各種プログラムを実行する。GPU24は、ジオメトリエンジンの機能とレンダリングプロセッサの機能とを有し、CPU22からの描画命令に従って描画処理を行い、表示画像を図示しないフレームバッファに格納する。そしてフレームバッファに格納された表示画像をビデオ信号に変換して出力部36に出力する。   The CPU 22 controls the entire information processing apparatus 10 by executing an operating system stored in the storage unit 34. The CPU 22 also executes various programs read from the removable recording medium and loaded into the main memory 26 or downloaded via the communication unit 32. The GPU 24 has a function of a geometry engine and a function of a rendering processor, performs drawing processing according to a drawing command from the CPU 22, and stores a display image in a frame buffer (not shown). The display image stored in the frame buffer is converted into a video signal and output to the output unit 36.

評価時において情報処理装置10は、評価用のチャートを撮影した画像から特徴点を抽出し、後に述べる手法でその性能を表す数値を性能指標として算出する。そして抽出結果や性能指標を表示装置16に表示させたり、それに基づき撮影条件や処理条件を調整したりする。ただしそれらを全て実施する必要はなく、結果の表示のみを行い、それを見た開発者やユーザが人手により条件を変化させてもよいし、情報表示を行わず処理条件を自動で調整するのみでもよい。いずれにしろ、良好な性能が得られるまで調整を繰り返すことにより、最終的には、特徴点抽出の観点で最適な画像を取得するための条件が得られることになる。   At the time of evaluation, the information processing apparatus 10 extracts feature points from an image obtained by photographing an evaluation chart, and calculates a numerical value representing the performance as a performance index by a method described later. Then, the extraction result and the performance index are displayed on the display device 16, and the photographing condition and the processing condition are adjusted based on the result. However, it is not necessary to perform all of them, only the result is displayed, and the developer or user who sees it may change the condition manually, or only the processing condition is automatically adjusted without displaying the information. But you can. In any case, by repeating the adjustment until good performance is obtained, finally, a condition for obtaining an optimal image in terms of feature point extraction is obtained.

ここで調整対象とする「条件」は、撮像から特徴点抽出処理までの間で、抽出精度に影響を与え得る要因のいずれでもよく、1つであっても複数の組み合わせであってもよい。図3は、調整の対象として想定される要因を例示している。図示するように、撮像装置12が有するイメージセンサの種類、撮影条件、センサの出力値から画像データを生成する際に用いるアルゴリズムや用いるフィルタ、画像データを圧縮符号化する際の方式や設定値、情報処理装置10へデータを送信する際の無線方式など様々な要因が、撮影画像、ひいては特徴点の抽出精度に影響を与えると考えられる。   The “condition” to be adjusted here may be any factor that may affect the extraction accuracy from imaging to feature point extraction processing, and may be one or a plurality of combinations. FIG. 3 illustrates factors assumed as adjustment targets. As shown in the figure, the type of image sensor that the imaging device 12 has, the shooting conditions, the algorithm used when generating image data from the output value of the sensor, the filter used, the method and setting value when compressing and encoding the image data, It is considered that various factors such as a wireless method for transmitting data to the information processing apparatus 10 affect the accuracy of extracting a captured image and, in turn, a feature point.

例示されるような要素は従来、画像を表示したときに人が見て好適に認識される方向で追求がなされてきた。しかしながらそのようにして決定された条件は、必ずしも特徴点抽出に対して有利とは限らない。そのため、そのような条件で取得した撮影画像から抽出された特徴点を利用して情報処理を行っても、満足な処理精度が得られなかったり、さらなる精度向上が容易に見込めることに気づかなかったりすることが考えられる。   Conventionally, elements as exemplified have been pursued in a direction that humans can see and recognize when displaying an image. However, the conditions thus determined are not necessarily advantageous for feature point extraction. For this reason, even if information processing is performed using feature points extracted from captured images obtained under such conditions, satisfactory processing accuracy cannot be obtained, or further improvement in accuracy cannot be easily realized. It is possible to do.

そこで本実施の形態では、特徴点の抽出までの段階で、抽出性能の観点から画像を評価することにより、処理精度に与える影響の原因を後段の情報処理と切り分ける。また性能指標を数値化し、容易な比較を可能とすることで、図示したような多くの要因から影響の大きい要因を特定したり、最適な条件を効率的に、さらには自動的に、決定したりできるようにする。なお調整対象とする要因は図示するように、イメージセンサの種類やアルゴリズムなど個別に実体があるものと、露光時間やガンマ値などの数値とが含まれる。以後の説明ではそれらを総括して「調整対象パラメータ」と呼ぶ。   Therefore, in the present embodiment, the cause of the influence on the processing accuracy is separated from the subsequent information processing by evaluating the image from the viewpoint of extraction performance until the feature point is extracted. In addition, by quantifying performance indicators and enabling easy comparison, it is possible to identify factors that have a large impact from the many factors shown in the figure, and to determine optimal conditions efficiently and automatically. To be able to. As shown in the figure, the factors to be adjusted include an individual entity such as an image sensor type and an algorithm, and numerical values such as an exposure time and a gamma value. In the following description, these are collectively referred to as “adjustment target parameters”.

図4は、評価時における情報処理装置10および撮像装置12の機能ブロックの構成を示している。図4に示す各機能ブロックは、ハードウェア的には、CPU、GPU、メインメモリなどで実現でき、ソフトウェア的にはハードディスクや記録媒体からメインメモリにロードされたコンピュータプログラムなどで実現される。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組合せによっていろいろな形で実現できることは当業者には理解されるところであり、いずれかに限定されるものではない。   FIG. 4 shows functional block configurations of the information processing apparatus 10 and the imaging apparatus 12 at the time of evaluation. Each functional block shown in FIG. 4 can be realized in hardware by a CPU, GPU, main memory, or the like, and in software, it can be realized by a computer program or the like loaded from a hard disk or a recording medium into the main memory. Therefore, it is understood by those skilled in the art that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof, and is not limited to any one.

撮像装置12は、イメージセンサからなる撮像部62のほか、情報処理装置10に送信すべき撮影画像のデータを形成するデータ形成部60、撮影条件やデータ形成に用いるパラメータの設定値を格納するパラメータ記憶部64を含む。このパラメータには、調整対象パラメータが含まれる。撮像部62はCCDやCMOSなどのイメージセンサを含み、評価用チャートを撮影する。この際、パラメータ記憶部64に格納された露光時間、絞り値、ゲイン値などの設定値に従った条件で撮像を行う。   In addition to the imaging unit 62 formed of an image sensor, the imaging device 12 includes a data forming unit 60 that forms data of a captured image to be transmitted to the information processing device 10, and parameters that store setting values of imaging conditions and parameters used for data formation A storage unit 64 is included. This parameter includes an adjustment target parameter. The imaging unit 62 includes an image sensor such as a CCD or a CMOS, and photographs an evaluation chart. At this time, imaging is performed under conditions according to setting values such as the exposure time, aperture value, and gain value stored in the parameter storage unit 64.

データ形成部60は、撮像部62から出力された画素ごとの電気信号から撮影画像のデータを生成する。具体的には、デモザイク処理、欠陥画素の補正処理、ガンマ補正などを行う。またデータ形成部60は、生成した画像のデータを圧縮符号化し、所定の通信プロトコルで情報処理装置10に送信する。これらの各種処理に用いるアルゴリズムやフィルタなどについても、パラメータ記憶部64に格納された設定に従う。   The data forming unit 60 generates captured image data from the electrical signal for each pixel output from the imaging unit 62. Specifically, demosaic processing, defective pixel correction processing, gamma correction, and the like are performed. Further, the data forming unit 60 compresses and encodes the generated image data and transmits it to the information processing apparatus 10 using a predetermined communication protocol. The algorithms and filters used for these various processes also follow the settings stored in the parameter storage unit 64.

情報処理装置10は、評価用チャートを撮影した画像のデータを取得するチャート画像取得部70、撮影画像のデータを格納する画像格納部71、運用時と同じ手法で撮影画像から特徴点を抽出する特徴点抽出部72、評価用チャートに適した手法で正しい特徴点の座標を取得する正解座標取得部74、特徴点抽出の性能指標を算出する性能指標算出部76、あらかじめ設定した目標値と性能指標を比較する比較部78、当該目標値を格納する目標値記憶部80、比較結果に基づき調整対象パラメータを調整する調整部82、および調整対象パラメータの設定候補を格納するパラメータ候補記憶部84を含む。   The information processing apparatus 10 extracts a feature point from a photographed image by the same method as in operation, a chart image obtaining unit 70 that obtains image data obtained by photographing an evaluation chart, an image storage unit 71 that stores photographed image data, and the like. A feature point extraction unit 72, a correct coordinate acquisition unit 74 that acquires correct feature point coordinates by a method suitable for an evaluation chart, a performance index calculation unit 76 that calculates a performance index for feature point extraction, a preset target value and performance A comparison unit 78 that compares indexes, a target value storage unit 80 that stores the target value, an adjustment unit 82 that adjusts an adjustment target parameter based on the comparison result, and a parameter candidate storage unit 84 that stores adjustment target parameter setting candidates Including.

チャート画像取得部70は、撮像装置12からチャートを撮影した画像のデータを取得し、採用されている圧縮符号化形式に則り復号、伸張して画像格納部71に展開する。特徴点抽出部72は、画像格納部71から画像のデータを読み出し、運用時と同じアルゴリズムで特徴点を抽出する。画像認識などの目的で特徴点を抽出する技術としては、Harris、Eigen、Fast(Features from Accelerated Segment Test)、SIFT(Scale-Invariant Feature Transform)、SURF(Speeded Up Robust Features)など様々なアルゴリズムが実用化されている。   The chart image acquisition unit 70 acquires data of an image obtained by photographing the chart from the imaging device 12, decodes and decompresses the data in accordance with the compression encoding format employed, and expands the data in the image storage unit 71. The feature point extraction unit 72 reads the image data from the image storage unit 71 and extracts the feature points using the same algorithm as in operation. Various algorithms such as Harris, Eigen, Fast (Features from Accelerated Segment Test), SIFT (Scale-Invariant Feature Transform), SURF (Speeded Up Robust Features) are used as techniques for extracting feature points for image recognition and other purposes. It has become.

本実施の形態ではそのいずれを採用してもよく、情報処理の目的などに応じて適宜選択しておく。あるいはアルゴリズム自体を調整対象パラメータとすることもできる。個々のアルゴリズムは一般的なものであるためここでは説明を省略する。   Any one of them may be adopted in the present embodiment, and it is appropriately selected according to the purpose of information processing. Alternatively, the algorithm itself can be set as a parameter to be adjusted. Since the individual algorithms are general, the description thereof is omitted here.

正解座標取得部74は、画像格納部71からチャートの撮影画像のデータを読み出し、評価用チャートに適した所定のアルゴリズムを用いて、本来抽出すべき特徴点の画像平面における位置座標(以後、「正解座標」と呼ぶ)を取得する。すなわち特徴点抽出部72が特徴点を抽出するのとは異なる、評価用チャートに特化した手法で正解座標を取得する。具体例は後に述べる。   The correct coordinate acquisition unit 74 reads the data of the photographed image of the chart from the image storage unit 71, and uses the predetermined algorithm suitable for the evaluation chart to position coordinates (hereinafter, “ Called correct coordinates). That is, the correct coordinates are acquired by a method specialized for the evaluation chart, which is different from the feature point extraction unit 72 extracting the feature points. Specific examples will be described later.

性能指標算出部76は、評価用チャートの同じ撮影画像から、特徴点抽出部72が抽出した特徴点と、正解座標取得部74が取得した正解座標とを照合することにより、特徴点の抽出性能を数値として表す。性能指標算出部76はさらに、特徴点抽出部72が抽出した特徴点と、正解座標取得部74が取得した正解座標とを、撮影画像上に図形などで表した画像を生成して、表示装置16に表示させてもよい。これにより開発者やユーザは、特徴点の抽出がどの程度正しくなされているかを感覚的に理解できる。   The performance index calculation unit 76 collates the feature points extracted by the feature point extraction unit 72 and the correct coordinates acquired by the correct coordinate acquisition unit 74 from the same captured image of the evaluation chart, thereby extracting the feature points. Is expressed as a numerical value. The performance index calculation unit 76 further generates an image in which the feature point extracted by the feature point extraction unit 72 and the correct coordinate acquired by the correct coordinate acquisition unit 74 are represented by a graphic or the like on the captured image, and is displayed on the display device. 16 may be displayed. As a result, the developer or user can sensuously understand how correctly feature points are extracted.

比較部78は、あらかじめ設定された性能指標の目標値を目標値記憶部80から読み出し、性能指標算出部76が算出した実際の性能指標と比較する。性能指標の目標値は、抽出された特徴点を用いて情報処理を行った結果、十分な処理精度が得られることが保証されるような値を実験などにより求めておく。目標値は情報処理の内容、検出対象の被写体などによって複数の設定があってもよい。この場合、それらの要素ごとに、最適な調整対象パラメータが得られることになる。   The comparison unit 78 reads a preset target value of the performance index from the target value storage unit 80 and compares it with the actual performance index calculated by the performance index calculation unit 76. As the target value of the performance index, a value that ensures that sufficient processing accuracy is obtained as a result of information processing using the extracted feature points is obtained by experiments or the like. The target value may have a plurality of settings depending on the contents of information processing, the subject to be detected, and the like. In this case, the optimum parameter to be adjusted is obtained for each of those elements.

調整部82は、性能指標が目標値に達しているか否かによって調整の必要の有無を判定する。判定結果は表示装置16に表示させてもよい。また調整を必要と判定したとき、調整部82は、調整対象パラメータの新たな設定を決定する。上述のとおり調整対象パラメータには、露光時間、絞り値、圧縮率など連続的に数値を変化させられるものと、アルゴリズムやフィルタなど個別の実体から選択するものが考えられる。   The adjustment unit 82 determines whether or not adjustment is necessary depending on whether or not the performance index has reached a target value. The determination result may be displayed on the display device 16. When determining that adjustment is necessary, the adjustment unit 82 determines a new setting of the adjustment target parameter. As described above, the parameters to be adjusted include those whose numerical values can be continuously changed such as the exposure time, aperture value, and compression rate, and those that are selected from individual entities such as algorithms and filters.

パラメータ候補記憶部84には、数値を変化させられる調整対象パラメータについては調整可能な数値範囲とその変化のさせ方に係る規則を、候補から選択する調整対象パラメータについては選択可能な候補とその選択規則を格納しておく。調整部82は、設定された規則に従い新たな設定を決定し、撮像装置12のパラメータ記憶部64に格納された設定を更新する。調整にあたっては、実際の性能指標と目標値との差分を反映させてもよい。すなわち差分が大きいほど調整対象パラメータの調整幅を大きくする。   The parameter candidate storage unit 84 has an adjustable numerical value range for the adjustment target parameter whose value can be changed and a rule relating to how to change the parameter, and a selectable candidate for the adjustment target parameter selected from the candidates and the selection thereof. Store the rules. The adjustment unit 82 determines a new setting according to the set rule, and updates the setting stored in the parameter storage unit 64 of the imaging device 12. In the adjustment, the difference between the actual performance index and the target value may be reflected. That is, the adjustment range of the adjustment target parameter is increased as the difference is increased.

なお一度の評価によって調整するパラメータは1つでもよいし、複数の組み合わせでもよい。その対象を開発者やユーザが事前に指定できるようにしてもよい。またイメージセンサの種類など自動調整が困難なパラメータについては、表示装置16に判定結果等を表示させることにより開発者などの検討材料とすることができる。撮像装置12が、更新された設定で新たに撮影し送信した評価用チャートの撮像画像を用いて、再度、性能評価や調整を行うループを繰り返すようにすると、最適な条件を効率的に特定できることになる。   One parameter may be adjusted by one evaluation, or a plurality of combinations may be used. The target may be specified in advance by a developer or user. Further, parameters that are difficult to automatically adjust, such as the type of image sensor, can be used as a material for investigation by a developer or the like by displaying the determination result on the display device 16. When the imaging device 12 repeats a loop for performing performance evaluation and adjustment again using the captured image of the evaluation chart newly captured and transmitted with the updated setting, the optimum condition can be efficiently identified. become.

図5は、評価用チャートを例示している。評価用チャート200はボードやマットなどの物体の表面にチャートパターンを描画したものでもよいし、電子データとして作成したものを表示装置16に表示させたものでもよい。そのような評価用チャート200を所定の距離で正面から撮影することにより、図示したようなパターンが撮影画像として得られる。図示する評価用チャート200は、隣同士で白黒が反転したチェス盤状の複数の大矩形(例えば大矩形202)と、各大矩形の内部に表されたグレーの小矩形(例えば小矩形204)で構成される。   FIG. 5 illustrates an evaluation chart. The evaluation chart 200 may be one in which a chart pattern is drawn on the surface of an object such as a board or a mat, or one created as electronic data may be displayed on the display device 16. By photographing such an evaluation chart 200 from the front at a predetermined distance, a pattern as illustrated is obtained as a photographed image. The evaluation chart 200 shown in the figure includes a plurality of chessboard-like large rectangles (for example, a large rectangle 202) in which black and white are inverted next to each other, and a gray small rectangle (for example, a small rectangle 204) represented inside each large rectangle. Consists of.

評価用チャート200において小矩形のグレー濃度はグラデーションを有することが望ましい。この例では、小矩形の四隅(コーナー)を特徴点として正確かつ無駄なく抽出できているか否かの観点で特徴点抽出性能の評価を行う。すなわち運用時の被写体の像を疑似的に小矩形で表して抽出性能を評価する。したがって小矩形が表すグレーの階調を多くするほど、実際の撮影画像における像の多様性を表すことになり、正しい評価が行える。   In the evaluation chart 200, it is desirable that the gray density of the small rectangle has gradation. In this example, the feature point extraction performance is evaluated from the viewpoint of whether or not the four corners of the small rectangle can be extracted accurately and without waste. That is, the extraction performance is evaluated by representing the subject image during operation in a pseudo small rectangle. Therefore, as the gray gradation represented by the small rectangle increases, the diversity of the image in the actual photographed image is represented, and the correct evaluation can be performed.

図6は、正解座標取得部74が、図5で示した評価用チャートの撮影画像から正解座標を取得する方法を説明するための図である。なお同図(a)、(b)は、評価用チャート200の像のうち、一部を抜粋して示している。正解座標取得部74はまず、同図の(a)において白抜きバツ印で示すように、大矩形のコーナーを特徴点として抽出し、その位置座標を取得する。チェス盤状のパターンチャートの撮影画像から矩形のコーナーを特徴点として抽出する手法は、カメラキャリブレーションにおいては広く知られており(例えば特開2014−92460号公報参照)、抽出アルゴリズムも一般的なものを用いて高精度に実施できる。   FIG. 6 is a diagram for explaining a method in which the correct coordinate acquisition unit 74 acquires correct coordinates from the captured image of the evaluation chart shown in FIG. 2A and 2B show a part of the image of the evaluation chart 200. FIG. First, the correct coordinate acquisition unit 74 extracts a corner of a large rectangle as a feature point as indicated by a white cross in (a) of FIG. A technique for extracting rectangular corners as feature points from a captured image of a chessboard pattern chart is widely known in camera calibration (see, for example, Japanese Patent Application Laid-Open No. 2014-92460), and an extraction algorithm is also common. It can be carried out with high accuracy using a thing.

例えばコンピュータビジョンの分野で広く用いられるオープンソースであるopenCVにおける、cornerSubPix関数(http://docs.opencv.org/2.4/modules/imgproc/doc/feature_detection.html)を利用できる。正解座標取得部74は、このように精度が保証されている手法を用いて、撮影画像における大矩形のコーナーの位置座標を取得する。そして同図の(b)において白丸で示すように、大矩形のコーナーとの相対位置に基づき小矩形のコーナーを抽出する。   For example, the cornerSubPix function (http://docs.opencv.org/2.4/modules/imgproc/doc/feature_detection.html) in openCV, which is an open source widely used in the field of computer vision, can be used. The correct coordinate acquisition unit 74 acquires the position coordinates of the corner of the large rectangle in the photographed image using the method in which the accuracy is guaranteed in this way. Then, as shown by white circles in (b) of the figure, corners of small rectangles are extracted based on their relative positions to the corners of large rectangles.

具体的には、同図右側に示すように、大矩形の像の一つのコーナーの位置座標(x0,y0)と、横方向、縦方向の辺の長さΔx、Δyに基づき、対応する小矩形の像のコーナーの位置座標(x,y)を求める。元の評価用チャートにおいて、大矩形をn%(n<100)に縮小したサイズの小矩形を大矩形の中心に配置しているとすると、小矩形のコーナーの位置座標(x,y)は次のように表される。   Specifically, as shown on the right side of the figure, based on the position coordinates (x0, y0) of one corner of the large rectangular image and the side lengths Δx, Δy in the horizontal and vertical directions, the corresponding small The position coordinates (x, y) of the corner of the rectangular image are obtained. In the original evaluation chart, assuming that a small rectangle having a size reduced to n% (n <100) is arranged at the center of the large rectangle, the position coordinates (x, y) of the corner of the small rectangle are It is expressed as follows.

ここで右辺における正負の符号は、大矩形と小矩形の対応するコーナーの位置関係によって切り替える。なお正解座標をより精度よく求めるためには、評価用チャートを撮影した画像に対し、レンズなどによる歪みを除去する補正処理を施しておくことが望ましい。このような補正処理も、チェス盤状のパターンチャートを用いた一般的な手法、例えば上述のopenCVで提供されている関数を、本実施の形態の評価用チャートにもそのまま適用できる。   Here, the positive and negative signs on the right side are switched according to the positional relationship between the corresponding corners of the large rectangle and the small rectangle. In order to obtain the correct coordinates more accurately, it is desirable to perform a correction process for removing distortion caused by a lens or the like on the image obtained by photographing the evaluation chart. For such correction processing, a general method using a chessboard pattern chart, for example, the function provided in the above-described openCV can be applied to the evaluation chart of this embodiment as it is.

このように、従来カメラキャリブレーションで用いられてきたパターンを評価用チャートの一部に含めることにより、特徴点の抽出性能評価以外のキャリブレーション処理を同時に達成することができる。また小矩形の少なくとも1つを、露出やホワイトバランスを調整するグレーカードと同色とすることで、それらの調整も同時に行える。   As described above, by including the pattern used in the conventional camera calibration in a part of the chart for evaluation, calibration processing other than the feature point extraction performance evaluation can be achieved at the same time. Also, by making at least one of the small rectangles the same color as the gray card that adjusts exposure and white balance, these adjustments can be made simultaneously.

一方、特徴点抽出部72は上述のとおり、同じ撮影画像から運用時と同じアルゴリズムで小矩形のコーナーを抽出する。すなわち正解座標取得部74が、チェス盤状のパターンに特化したアルゴリズムを用いるのに対し、特徴点抽出部72は任意の被写体であっても特徴点を抽出できるようなアルゴリズムを用いる。   On the other hand, as described above, the feature point extraction unit 72 extracts small rectangular corners from the same captured image by the same algorithm as in operation. That is, the correct coordinate acquisition unit 74 uses an algorithm specialized for a chessboard pattern, whereas the feature point extraction unit 72 uses an algorithm that can extract a feature point even for an arbitrary subject.

例示する評価用チャートはそのうち、コーナーを抽出できるアルゴリズムを想定しているため、大矩形の内部に小さい矩形を表している。ただし、運用時に用いる特徴点抽出アルゴリズムによっては、大矩形の内部に表す図形の形状を矩形以外としてもよい。大矩形のコーナーとの位置関係が既知であれば、図形によらず正解座標を取得できるため、矩形と同様に抽出性能を評価できる。   Since the evaluation chart illustrated here assumes an algorithm that can extract corners, a small rectangle is represented inside a large rectangle. However, depending on the feature point extraction algorithm used during operation, the shape of the figure represented inside the large rectangle may be other than a rectangle. If the positional relationship with the corner of the large rectangle is known, the correct coordinates can be acquired regardless of the figure, so that the extraction performance can be evaluated in the same manner as the rectangle.

図7は、正解座標取得部74が座標を取得した小矩形のコーナーと、特徴点抽出部72が抽出した特徴点を比較している。(a)、(b)に示す評価用チャートの撮影画像のうち、(a)は正解座標取得部74が取得したコーナーの位置を、(b)は特徴点抽出部72が抽出した特徴点を、それぞれ四角形で囲んで示している。   FIG. 7 compares the small rectangular corner from which the correct coordinate acquisition unit 74 has acquired the coordinates with the feature point extracted by the feature point extraction unit 72. Among the captured images of the evaluation charts shown in (a) and (b), (a) shows the corner positions acquired by the correct coordinate acquisition unit 74, and (b) shows the feature points extracted by the feature point extraction unit 72. , Each is enclosed in a rectangle.

(a)に示されるように、正解座標取得部74は上述の手法により小矩形のコーナーを正確に抽出できる。一方、特徴点抽出部72は小矩形のコーナーを抽出できなかったり、コーナー以外の箇所を誤抽出したりしている。なお(b)では、誤抽出された特徴点を囲む四角形を、より濃い線で表している。   As shown in (a), the correct coordinate acquisition unit 74 can accurately extract small rectangular corners by the above-described method. On the other hand, the feature point extraction unit 72 cannot extract a small rectangular corner or misextracts a part other than the corner. Note that in (b), the rectangle surrounding the mis-extracted feature point is represented by a darker line.

評価用チャートの一方向において大矩形と小矩形のコントラストが徐々に強くなるように小矩形のグレー濃度を変化させると、コントラストと誤抽出の頻度との関係を把握しやすくできる。性能指標算出部76が、特徴点抽出部72が抽出した特徴点を(b)に示すように表示させることにより、ユーザは誤抽出や抽出漏れの傾向を目視で確認し、対策の検討を行える。   If the gray density of the small rectangle is changed so that the contrast between the large rectangle and the small rectangle gradually increases in one direction of the evaluation chart, the relationship between the contrast and the frequency of erroneous extraction can be easily grasped. The performance index calculation unit 76 displays the feature points extracted by the feature point extraction unit 72 as shown in (b), so that the user can visually check the tendency of erroneous extraction and extraction omission and examine the countermeasure. .

性能指標算出部76は、このような誤抽出や抽出漏れの観点で抽出性能を数値化することにより、複数の条件での結果比較を容易にしたり、調整対象パラメータの調整を自動で行ったりできるようにする。具体的には、情報検索の性能などを表すのに用いられる尺度であるF値(F-measure)を次のように算出する。   The performance index calculation unit 76 makes it easy to compare the results under a plurality of conditions and automatically adjust the adjustment target parameter by digitizing the extraction performance from the viewpoint of such erroneous extraction and extraction omission. Like that. Specifically, an F value (F-measure), which is a measure used to express information retrieval performance, is calculated as follows.

すなわちF値はPrecision(適合率)とRecall(再現率)の調和平均である。ここでPrecision(適合率)は、特徴点抽出部72が抽出した特徴点の個数Nのうち正解の個数Rの割合、Recall(再現率)は、抽出すべきであった正解の個数、すなわち正解座標取得部74が取得した正解座標の個数Cうち特徴点抽出部72が特徴点として抽出した個数Rの割合であり、それぞれ次のように与えられる。   That is, the F value is a harmonic average of Precision and Recall. Here, Precision is the ratio of the number of correct answers R out of the number N of feature points extracted by the feature point extraction unit 72, and Recall is the number of correct answers that should have been extracted, that is, correct answers. This is the ratio of the number of correct coordinates acquired by the coordinate acquisition unit 74 to the number R extracted as feature points by the feature point extraction unit 72, and is given as follows.

F値を利用することにより、抽出された特徴点における誤りの少なさ、といった意味での「精度」のほか、抽出漏れの少なさの観点を含んだ包括的な抽出性能を表せる。図8〜11は、様々な条件で評価用チャートを撮影した画像に対し抽出された特徴点の分布と、算出されたF値を例示している。各図において、4種類の異なる撮像素子を有するカメラで撮影した結果を比較しており、A、B、Cはセルサイズが大、中、小のRGB(赤緑青)センサ、DはRGB・IR(赤外線)センサを有する。   By using the F value, it is possible to represent comprehensive extraction performance including the viewpoint of “accuracy” in the sense that there are few errors in the extracted feature points, and the point of few extraction omissions. 8 to 11 illustrate the distribution of feature points extracted from images obtained by photographing the evaluation chart under various conditions, and the calculated F value. In each figure, the results of photographing with cameras having four different image sensors are compared. A, B, and C are large, medium, and small RGB (red, green, and blue) sensors, and D is RGB and IR. It has an (infrared) sensor.

ただしどのセンサであっても、RGBの信号から最終的に生成された輝度画像から特徴点を抽出している。図8は、700ルクスの比較的明るい場所で撮影し、通常のゲイン調整をした場合の結果を示している。このような好条件での撮影では、セルサイズや赤外線センサの有無による影響は少なく、安定的に良好なF値が得られる。   However, in any sensor, feature points are extracted from a luminance image finally generated from RGB signals. FIG. 8 shows the result of shooting in a relatively bright place of 700 lux and normal gain adjustment. In photographing under such favorable conditions, there is little influence due to the cell size or the presence or absence of an infrared sensor, and a good F value can be obtained stably.

図9は、図8と同じ明るさの場所で撮影し、ゲイン調整をしなかった場合の結果を示している。ゲイン調整をした場合と比較すると、いずれのセンサでもF値が悪化するが、悪化の度合いは一律ではなく、セルサイズが小さいCのセンサと赤外線も検出するDのセンサで悪化が顕著となる。   FIG. 9 shows the result when the image is taken at the same brightness as in FIG. 8 and the gain is not adjusted. Compared with the case where the gain is adjusted, the F value is deteriorated in any sensor, but the degree of deterioration is not uniform, and the deterioration is noticeable in the sensor C having a small cell size and the sensor D also detecting infrared rays.

図10は、図8、9より暗い100ルクスの場所で撮影し、通常のゲイン調整をした場合の結果を示している。この場合、セルサイズが小さいCのセンサでF値が一段と悪化する。またセルサイズが大きいAやBのセンサでは、この程度の照度の変化に対し頑健性を有していることがわかる。   FIG. 10 shows the result when shooting is performed at a location of 100 lux darker than FIGS. 8 and 9 and normal gain adjustment is performed. In this case, the F value is further deteriorated by the C sensor having a small cell size. Further, it can be seen that the sensors A and B having a large cell size have robustness against such a change in illuminance.

図11は、図10よりさらに暗い10ルクスの場所で撮影し、通常のゲイン調整をした場合の結果を示している。ただし赤外線も検出するDのセンサで撮影した画像は、ノイズにより正常な特徴点抽出がなされなかったため不図示としている。この場合、セルサイズが中程度のBのセンサでも、F値が顕著に悪化する。   FIG. 11 shows a result of shooting at a location of 10 lux that is darker than that in FIG. 10 and performing normal gain adjustment. However, an image photographed by the D sensor that also detects infrared rays is not shown because normal feature point extraction was not performed due to noise. In this case, even with a B sensor having a medium cell size, the F value is significantly deteriorated.

すなわちこのような暗所を想定した場合、特徴点を用いた情報処理に耐え得るには、セルサイズが所定値以上のセンサを用いる必要があることがわかる。なおBやCのセンサでの画像の下方において抽出された特徴点が示されていないのは、上方から積算した誤検出の個数が所定値を超えたとき、以後の特徴点を表示対象から除外する、というソフトウェア上の規則によるものである。   That is, when such a dark place is assumed, it can be understood that a sensor having a cell size equal to or larger than a predetermined value needs to be used in order to withstand information processing using feature points. Note that the feature points extracted below the images of the B and C sensors are not shown because when the number of false detections accumulated from above exceeds a predetermined value, the subsequent feature points are excluded from the display target. This is due to the software rule of

図12は、セルサイズの変化に対するS/N比の変化を例示している。図示するようにS/N比は、セルサイズの増加に対し線形に増加する特性を有する。一方、図8〜11の結果において、セルサイズに対するF値の変化は線形とはいえず、また撮影環境の照度によってその関係が大きく変化している。例えば同じセルサイズでも、ある照度を境にF値が急激に悪化し、その境界となる照度はセルサイズによって異なる。   FIG. 12 illustrates the change in the S / N ratio with respect to the change in cell size. As shown in the figure, the S / N ratio has a characteristic of increasing linearly as the cell size increases. On the other hand, in the results of FIGS. 8 to 11, the change of the F value with respect to the cell size is not linear, and the relationship greatly changes depending on the illuminance of the photographing environment. For example, even if the cell size is the same, the F value suddenly deteriorates with a certain illuminance as a boundary, and the illuminance at the boundary varies depending on the cell size.

したがって特徴点抽出処理の性能の悪化はノイズのみに依存するものではなく、様々な要因が複雑に関係していると考えられる。本実施の形態で説明した手法によれば、そのような性能を数値化することにより様々な条件での比較を容易にする。これにより多数の要因を切り分けて性能を評価できるため、最適なパラメータの組み合わせを決定したり、特徴点の情報が運用時の使用に耐えうるだけの精度を維持できるか確認したりすることを、効率的かつ容易に行える。   Therefore, the deterioration of the performance of the feature point extraction process does not depend only on noise, and various factors are considered to be related in a complicated manner. According to the method described in the present embodiment, such performance is digitized to facilitate comparison under various conditions. This allows you to isolate a number of factors and evaluate performance, so that you can determine the optimal combination of parameters and check whether the feature point information can maintain enough accuracy to withstand use during operation. It can be done efficiently and easily.

図13は、目標値記憶部80に格納される目標値の設定情報のデータ構造例を示している。目標値設定テーブル260は、アプリケーション欄262および目標値欄264を含む。アプリケーション欄262は、個々のゲームなど運用時にユーザが選択して情報処理を行わせる単位としてのアプリケーションの識別情報を設定する。目標値欄264には、各アプリケーションに対応させて、特徴点抽出性能指標の目標値を設定する。   FIG. 13 shows an example of the data structure of the target value setting information stored in the target value storage unit 80. The target value setting table 260 includes an application field 262 and a target value field 264. The application column 262 sets application identification information as a unit that is selected by a user during information processing such as an individual game and performs information processing. In the target value column 264, a target value of the feature point extraction performance index is set in correspondence with each application.

アプリケーションによっては、高い抽出性能を求められる場合がある一方、特徴点の抽出性能をそれほど追求せずとも処理が破綻しない場合もある。また検出対象や想定される動きも様々であり、それにより特徴点の抽出しやすさも異なってくる。したがってアプリケーションごとに目標値を設定することにより、状況に見合った調整対象パラメータを求めたり切り替えたりすることができ、無駄に処理コストを増大させることがなくなる。   Depending on the application, high extraction performance may be required, but processing may not fail without pursuing feature point extraction performance so much. In addition, there are various detection targets and assumed movements, which makes it easy to extract feature points. Therefore, by setting the target value for each application, it is possible to obtain or switch the parameter to be adjusted according to the situation, and the processing cost is not increased unnecessarily.

次に、上記の構成によって実現できる情報処理装置10の動作について説明する。図14は、情報処理装置10が特徴点抽出性能を評価したうえ調整対象パラメータを調整する処理手順を示すフローチャートである。このフローチャートは、撮像装置12が評価用チャートを撮影したときに開始される。まず情報処理装置10のチャート画像取得部70は、当該評価表チャートの撮影画像のデータを取得する(S10)。   Next, the operation of the information processing apparatus 10 that can be realized by the above configuration will be described. FIG. 14 is a flowchart illustrating a processing procedure in which the information processing apparatus 10 adjusts the adjustment target parameter after evaluating the feature point extraction performance. This flowchart is started when the imaging device 12 captures an evaluation chart. First, the chart image acquisition unit 70 of the information processing apparatus 10 acquires captured image data of the evaluation table chart (S10).

撮像装置12による撮像から情報処理装置10がデータを取得するまでになされる各種処理は、運用時と同様とする。すなわち調整対象パラメータについても、運用時に想定される初期値が与えられている。チャート画像取得部70は、取得したデータを適宜復号、伸張するなどして画像格納部71に格納する。次に特徴点抽出部72は、当該画像のデータを読み出し、運用時に想定されるアルゴリズムで特徴点を抽出する(S12)。   Various processes performed from the imaging by the imaging device 12 until the information processing device 10 acquires data are the same as in operation. That is, the adjustment target parameter is also given an initial value assumed at the time of operation. The chart image acquisition unit 70 stores the acquired data in the image storage unit 71 by appropriately decoding and expanding the acquired data. Next, the feature point extraction unit 72 reads the data of the image and extracts the feature points using an algorithm assumed at the time of operation (S12).

このとき、抽出された特徴点の数が所定のしきい値Thを超えていなければ(S14のN)、性能評価を行うことなく調整対象パラメータの調整が必要であると判定し、調整部82にパラメータの調整を行わせる(S22)。具体的には調整部82は、パラメータ候補記憶部84から次の設定候補を読み出し、撮像装置12のパラメータ記憶部64における設定を更新する。ここでしきい値Thは、性能指標を算出するまでもなく、特徴点抽出が適性になされていないことが明らかであるような低めの値を設定しておく。   At this time, if the number of extracted feature points does not exceed the predetermined threshold Th (N in S14), it is determined that the adjustment target parameter needs to be adjusted without performing the performance evaluation, and the adjustment unit 82 The parameter is adjusted (S22). Specifically, the adjustment unit 82 reads the next setting candidate from the parameter candidate storage unit 84 and updates the setting in the parameter storage unit 64 of the imaging device 12. Here, the threshold value Th is set to a low value so that it is clear that the feature point extraction is not appropriate without calculating the performance index.

抽出された特徴点の数が所定のしきい値Thを超えていたら(S14のY)、正解座標取得部74は正解座標を取得し(S16)、性能指標算出部76は性能評価の指標を算出する(S18)。具体的には、正解座標の個数や、特徴点抽出部72が抽出した特徴点のうち正解の個数、不正解の個数に従いF値を算出する。この際、性能指標算出部76は、抽出された特徴点を正解、不正解で異なる色や形状で撮影画像上に表した画像を表示装置16に表示させてもよい。   If the number of extracted feature points exceeds the predetermined threshold Th (Y in S14), the correct coordinate acquisition unit 74 acquires the correct coordinate (S16), and the performance index calculation unit 76 displays an index for performance evaluation. Calculate (S18). Specifically, the F value is calculated according to the number of correct coordinates, the number of correct answers among the feature points extracted by the feature point extraction unit 72, and the number of incorrect answers. At this time, the performance index calculation unit 76 may cause the display device 16 to display an image in which the extracted feature points are displayed on the captured image in different colors and shapes for the correct answer and the incorrect answer.

比較部78が、算出された性能指標と目標値記憶部80から読み出した目標値を比較した結果、性能指標が目標値に達していなかったら(S20のY)、調整部82は調整対象パラメータを調整する(S22)。具体的には、パラメータ候補記憶部84から次の設定候補を読み出し、撮像装置12のパラメータ記憶部64における設定を更新する。パラメータの調整を行ったら、それを反映させて撮影、送信された新たな撮影画像のデータを取得し直し(S10)、S12〜S20の処理を行う。   If the comparison unit 78 compares the calculated performance index with the target value read from the target value storage unit 80 and the performance index does not reach the target value (Y in S20), the adjustment unit 82 sets the adjustment target parameter. Adjust (S22). Specifically, the next setting candidate is read from the parameter candidate storage unit 84 and the setting in the parameter storage unit 64 of the imaging device 12 is updated. Once the parameters are adjusted, the data of the new photographed image that has been photographed and transmitted reflecting the parameter is acquired again (S10), and the processes of S12 to S20 are performed.

これを繰り返し、S20において特徴点抽出性能の指標が目標値に達したら処理を終了する(S20のN)。これにより撮像装置12のパラメータ記憶部64には、十分な特徴点抽出性能が得られるような処理条件が設定されていることになる。   This process is repeated, and when the feature point extraction performance index reaches the target value in S20, the process ends (N in S20). As a result, processing conditions are set in the parameter storage unit 64 of the imaging device 12 so as to obtain sufficient feature point extraction performance.

図15は、評価用チャートの別の例を示している。評価用チャート300は、所定サイズの黒い円(例えば円302)を、上下左右に1つ分の空きを形成したうえで並べ、その内部および空き部分に所定サイズのグレーの三角形(例えば三角形304)を表したパターンを有する。この場合、まず円形モデルによるフィッティングによって撮影画像から黒い円の像を検出する。そして同図右側に示すように、各円の中心座標(x0,y0)、(x1,y1)および、それらを通る縦方向、横方向の直線の交点の座標(x1,y0)、(x0,y1)を求め、それらの座標を重心とする所定サイズの三関係の頂点座標を正解座標として求める。   FIG. 15 shows another example of the evaluation chart. In the evaluation chart 300, black circles of a predetermined size (for example, a circle 302) are arranged after forming one vacant space in the upper, lower, left, and right sides, and gray triangles (for example, a triangle 304) of a predetermined size are formed inside and vacant portions thereof. It has the pattern showing. In this case, first, a black circle image is detected from the photographed image by fitting with a circular model. As shown on the right side of the figure, the center coordinates (x0, y0) and (x1, y1) of each circle and the coordinates (x1, y0), (x0, y1) is obtained, and three-related vertex coordinates of a predetermined size with these coordinates as the center of gravity are obtained as correct coordinates.

そして別途、運用時のアルゴリズムで三角形の頂点を特徴点として抽出することにより、図5の評価用チャートを用いた場合と同様に性能指標を求めることができる。このように、評価用チャートのパターンは、ある箇所の座標が正確に求められるアルゴリズムが存在する、基準となるモノトーンの図形と、当該図形と所定の位置関係を有するように表された、運用時の対象物の像を疑似的に表すような特徴点を有する形状のグレーの図形との組み合わせであればよく、形状や配置は限定されない。   Separately, by extracting the vertices of the triangle as feature points using an algorithm at the time of operation, the performance index can be obtained in the same manner as in the case of using the evaluation chart of FIG. In this way, the pattern of the chart for evaluation is represented as having a predetermined monotone figure and a predetermined positional relationship with the figure, and there is an algorithm for accurately obtaining the coordinates of a certain location. The shape and arrangement are not limited as long as it is a combination with a gray figure having a feature point that represents a pseudo image of the target object.

例えば図5の評価用チャート200における小矩形を三角形としてもよいし、図15の評価用チャート300における三角形を矩形としてもよい。また両者の評価用チャートにおける大矩形や円に代えて格子状の直線などでもよい。小矩形や三角形の代わりに直線、星形、多角形などとしてもよい。   For example, the small rectangle in the evaluation chart 200 of FIG. 5 may be a triangle, or the triangle in the evaluation chart 300 of FIG. 15 may be a rectangle. In addition, a grid-like straight line or the like may be used instead of the large rectangle or the circle in the both evaluation charts. Instead of small rectangles and triangles, straight lines, stars, polygons, etc. may be used.

以上、述べた本実施の形態によれば、評価用チャートを撮影した画像を用いて、特徴点を抽出する段階での画像が抽出処理の観点から適切に得られているかを評価する。一般的に撮像から情報処理装置でのデータ展開までの画像に係る処理は、人の目で見て良好な画像となるように条件が最適化される。一方、そのような条件が特徴点抽出の観点で好適とは限らない。したがって特徴点抽出の観点から、それらの処理や用いるデバイスに調整の余地を与えることにより、より高精度に特徴点を抽出でき、ひいてはそれを用いた情報処理の精度も向上させることができる。   As described above, according to the present embodiment described above, it is evaluated whether an image at the stage of extracting feature points is appropriately obtained from the viewpoint of extraction processing, using an image obtained by photographing an evaluation chart. In general, the processing related to the image from imaging to data development in the information processing apparatus is optimized so that a good image can be obtained with human eyes. On the other hand, such a condition is not always preferable from the viewpoint of feature point extraction. Therefore, from the viewpoint of feature point extraction, it is possible to extract feature points with higher accuracy by giving room for adjustment to those processes and devices to be used, and as a result, it is possible to improve the accuracy of information processing using the feature points.

特徴点の抽出に対するシステム構成の適性は、抽出性能指標として数値化する。このとき、運用時に用いる特徴点抽出アルゴリズムとは異なる手法を用いて、本来抽出されるべき特徴点の座標を求めておき、誤抽出および抽出漏れの両者を加味した尺度を求める。評価用チャートは、本来抽出されるべき特徴点の座標を正確に求めることができるようなアルゴリズムに対応するパターンとする。例えば、チェス盤状のパターンの各矩形の内部にグレーの小矩形を表す。そして一般的なアルゴリズムを用いてまずチェス盤状のパターンのコーナーを高精度に検出し、それとの相対位置に基づき小矩形のコーナー座標を求める。これを運用時のアルゴリズムで抽出した特徴点と比較することにより、上記のような尺度を求めることができる。   The suitability of the system configuration for feature point extraction is quantified as an extraction performance index. At this time, using a method different from the feature point extraction algorithm used at the time of operation, the coordinates of the feature points to be originally extracted are obtained, and a scale that takes into account both erroneous extraction and omission of extraction is obtained. The evaluation chart has a pattern corresponding to an algorithm that can accurately obtain the coordinates of feature points that should be extracted. For example, a small gray rectangle is represented inside each rectangle of a chessboard-like pattern. First, a corner of a chessboard pattern is detected with high accuracy using a general algorithm, and corner coordinates of a small rectangle are obtained based on the relative position with the corner. By comparing this with the feature points extracted by the algorithm at the time of operation, the above scale can be obtained.

特徴点抽出処理に影響を与え得る要因が多数あり、条件が多様化しても、抽出性能指標を数値として算出することにより、容易な比較が可能となる。また装置がそれを認識し、調整が必要か否かを判定したり、性能を改善させるために調整を行ったりすることもできる。結果として、撮影画像から抽出した特徴点を用いて行う情報処理の精度向上のための処理条件を、効率的に取得することができる。   There are many factors that can affect the feature point extraction process, and even if the conditions are diversified, it is possible to easily compare by calculating the extraction performance index as a numerical value. The device can also recognize it and determine whether adjustment is necessary or make adjustments to improve performance. As a result, it is possible to efficiently acquire processing conditions for improving the accuracy of information processing performed using feature points extracted from the captured image.

以上、本発明を実施の形態をもとに説明した。上記実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   The present invention has been described based on the embodiments. Those skilled in the art will understand that the above-described embodiment is an exemplification, and that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are also within the scope of the present invention. is there.

例えば本実施の形態では、特徴点が適性に得られるように、撮像装置による撮像から情報処理装置での画像データの展開までになされる処理を調整したが、本発明の用途はそれに限らない。例えばRGB・IRセンサを有するカメラで撮影する場合、RGB信号にIR信号が漏れ込んだ結果、RGB画像にノイズが発生する場合がある。本発明によれば、評価用チャートを撮影した画像から抽出した特徴点のうち誤抽出されたものが明確に特定できるため、当該誤抽出の発生量によりIR信号の漏れ込みの度合いを評価できる。   For example, in the present embodiment, the processing performed from the imaging by the imaging device to the development of the image data by the information processing device is adjusted so that the feature points can be obtained appropriately, but the application of the present invention is not limited thereto. For example, when shooting with a camera having an RGB / IR sensor, noise may occur in the RGB image as a result of the IR signal leaking into the RGB signal. According to the present invention, since the feature points extracted from the image obtained by photographing the evaluation chart can be clearly identified, the degree of leakage of the IR signal can be evaluated based on the generation amount of the erroneous extraction.

この場合、イメージセンサからのRGB信号に対する処理ができるだけ少ない段階での画像を用いて指標を算出することにより、後段の処理に起因した誤抽出と切り分けることができる。またIR信号による画像を用いて指標を算出すれば、IRセンサに発生するノイズの量を評価することもできる。   In this case, by calculating an index using an image at a stage where processing for the RGB signals from the image sensor is as small as possible, it is possible to distinguish from erroneous extraction caused by subsequent processing. Further, if an index is calculated using an image based on an IR signal, the amount of noise generated in the IR sensor can be evaluated.

8 評価システム、 10 情報処理装置、 12 撮像装置、 16 表示装置、 22 CPU、 24 GPU、 26 メインメモリ、 60 データ形成部、 62 撮像部、 64 パラメータ記憶部、 70 チャート画像取得部、 71 画像格納部、 72 特徴点抽出部、 74 正解座標取得部、 76 性能指標算出部、 78 比較部、 80 目標値記憶部、 82 調整部、 84 パラメータ候補記憶部、 200 評価用チャート、 300 評価用チャート。   DESCRIPTION OF SYMBOLS 8 Evaluation system, 10 Information processing apparatus, 12 Imaging apparatus, 16 Display apparatus, 22 CPU, 24 GPU, 26 Main memory, 60 Data formation part, 62 Imaging part, 64 Parameter storage part, 70 Chart image acquisition part, 71 Image storage Unit, 72 feature point extraction unit, 74 correct coordinate acquisition unit, 76 performance index calculation unit, 78 comparison unit, 80 target value storage unit, 82 adjustment unit, 84 parameter candidate storage unit, 200 evaluation chart, 300 evaluation chart.

Claims (14)

所定のパターンが表された評価用チャートの撮影画像のデータを撮像装置から取得し画像としてメモリに展開するチャート画像取得部と、
前記撮影画像から特徴点を抽出する特徴点抽出部と、
前記特徴点抽出部とは異なる手法で、前記撮影画像から抽出されるべき特徴点の位置座標を正解座標として取得する正解座標取得部と、
前記特徴点抽出部が抽出した特徴点と前記正解座標に基づき、特徴点抽出に適した画像を得る性能を数値化した性能指標を算出し出力する性能指標算出部と、
を備えたことを特徴とする情報処理装置。
A chart image acquisition unit that acquires data of a photographed image of an evaluation chart representing a predetermined pattern from an imaging device and develops the data as an image in a memory;
A feature point extraction unit for extracting feature points from the captured image;
A correct coordinate acquisition unit that acquires, as a correct coordinate, a position coordinate of a feature point to be extracted from the captured image by a method different from the feature point extraction unit;
Based on the feature points extracted by the feature point extraction unit and the correct coordinates, a performance index calculation unit that calculates and outputs a performance index that quantifies the performance of obtaining an image suitable for feature point extraction;
An information processing apparatus comprising:
前記評価用チャートのパターンは、前記正解座標取得部が用いる抽出アルゴリズムが抽出対象とするモノトーンの図形と、それと所定の位置関係を有するグレーの図形を含み、
前記正解座標取得部は、当該位置関係を利用して、前記グレーの図形が有する特徴点の座標を前記正解座標として取得することを特徴とする請求項1に記載の情報処理装置。
The pattern of the evaluation chart includes a monotone figure to be extracted by the extraction algorithm used by the correct coordinate acquisition unit, and a gray figure having a predetermined positional relationship therewith,
The information processing apparatus according to claim 1, wherein the correct coordinate acquisition unit acquires the coordinates of feature points of the gray graphic as the correct coordinates using the positional relationship.
前記評価用チャートのパターンは、チェス盤状の黒および白の大矩形と、各大矩形の内部に表されたグレーの図形とを含むことを特徴とする請求項1または2に記載の情報処理装置。   3. The information processing according to claim 1, wherein the pattern of the evaluation chart includes a chessboard-like large black and white rectangle and a gray figure represented in each large rectangle. apparatus. 前記評価用チャートのパターンは、上下左右に1つ分の空きを形成するように配置された複数の黒い円と、各円の内部および前記空きに表されたグレーの図形とを含むことを特徴とする請求項1または2に記載の情報処理装置。   The pattern of the evaluation chart includes a plurality of black circles arranged so as to form one empty space in the upper, lower, left, and right directions, and a gray figure that is represented in each of the circles and in the empty space. The information processing apparatus according to claim 1 or 2. 前記評価用チャートのパターンにおける複数のグレーの図形は、複数のグレー濃度を有することを特徴とする請求項2から4のいずれかに記載の情報処理装置。   5. The information processing apparatus according to claim 2, wherein a plurality of gray figures in the pattern of the evaluation chart have a plurality of gray densities. 前記性能指標があらかじめ設定された目標値に達していないとき、撮像から特徴点抽出までに実行される、撮影画像に係る処理に用いる設定のいずれかを調整する調整部をさらに備えたことを特徴とする請求項1から5のいずれかに記載の情報処理装置。   The image processing apparatus further includes an adjustment unit that adjusts any setting used for processing related to the captured image that is executed from imaging to feature point extraction when the performance index does not reach a preset target value. The information processing apparatus according to any one of claims 1 to 5. 前記目標値は、抽出された特徴点を利用した情報処理を規定するアプリケーションに応じて異なることを特徴とする請求項6に記載の情報処理装置。   The information processing apparatus according to claim 6, wherein the target value varies depending on an application that defines information processing using the extracted feature points. 前記性能指標算出部は、前記特徴点抽出部が誤抽出した点の数と、抽出漏れした特徴点の数に基づき、前記性能指標を算出することを特徴とする請求項1から7のいずれかに記載の情報処理装置。   8. The performance index calculation unit according to claim 1, wherein the performance index calculation unit calculates the performance index based on the number of points erroneously extracted by the feature point extraction unit and the number of feature points that are not extracted. The information processing apparatus described in 1. 前記性能指標算出部は、前記特徴点抽出部が抽出した特徴点のうち、正解座標に対応するものとそれ以外とを区別して撮影画像上に表した画像を表示装置に表示させることを特徴とする請求項1から8のいずれかに記載の情報処理装置。   The performance index calculation unit displays on the display device an image represented on the captured image by distinguishing the feature points extracted by the feature point extraction unit from those corresponding to the correct coordinates and the others. The information processing apparatus according to any one of claims 1 to 8. 情報処理装置が特徴点抽出に適した画像を得る性能を評価するための評価用チャートであって、
その撮影画像からコーナーを検出するためのチェス盤状の黒および白の矩形と、前記コーナーの検出結果に基づいて座標が取得され、別途行う特徴点抽出処理の結果と比較するための特徴点を有する、各矩形の内部に表されたグレーの図形と、を含むことを特徴とする評価用チャート。
An evaluation chart for evaluating the performance of an information processing device to obtain an image suitable for feature point extraction,
A chessboard-like black and white rectangle for detecting a corner from the captured image, and coordinates are obtained based on the detection result of the corner, and feature points for comparison with the result of a feature point extraction process performed separately An evaluation chart comprising: a gray figure represented inside each rectangle.
情報処理装置が特徴点抽出に適した画像を得る性能を評価するための評価用チャートであって、
その撮影画像から検出される、上下左右に1つ分の空きを形成するように配置された複数の黒い円と、前記円の検出結果に基づいて座標が取得され、別途行う特徴点抽出処理の結果と比較するための特徴点を有する、各円の内部および前記空きに表されたグレーの図形と、を含むことを特徴とする評価用チャート。
An evaluation chart for evaluating the performance of an information processing device to obtain an image suitable for feature point extraction,
A plurality of black circles arranged so as to form one empty space in the up, down, left, and right detected from the captured image, and coordinates are acquired based on the detection results of the circles, and feature point extraction processing is performed separately An evaluation chart comprising: a gray graphic represented in the interior of each circle and in the vacant space having characteristic points for comparison with results.
所定のパターンが表された評価用チャートを撮影する撮像装置と、その撮影画像のデータを取得し、特徴点抽出に適した画像を得る性能を評価する情報処理装置と、を含み、
前記情報処理装置は、
前記撮影画像のデータを前記撮像装置から取得し画像としてメモリに展開するチャート画像取得部と、
前記撮影画像から特徴点を抽出する特徴点抽出部と、
前記特徴点抽出部とは異なる手法で、前記撮影画像から抽出されるべき特徴点の位置座標を正解座標として取得する正解座標取得部と、
前記特徴点抽出部が抽出した特徴点と前記正解座標に基づき、前記性能を数値化した性能指標を算出する性能指標算出部と、
前記性能指標があらかじめ設定された目標値に達していないとき、前記撮像装置における処理に用いる設定のいずれかを調整する調整部と、を備え、
前記撮像装置は、
前記調整部によって調整された設定を格納するパラメータ記憶部と、
前記パラメータ記憶部が格納する設定に従い撮影画像のデータを生成し前記情報処理装置に送信するデータ形成部と、
を備えることを特徴とする評価システム。
An imaging device that captures an evaluation chart representing a predetermined pattern, and an information processing device that acquires data of the captured image and evaluates the ability to obtain an image suitable for feature point extraction,
The information processing apparatus includes:
A chart image acquisition unit that acquires data of the photographed image from the imaging device and develops the data as an image in a memory;
A feature point extraction unit for extracting feature points from the captured image;
A correct coordinate acquisition unit that acquires, as a correct coordinate, a position coordinate of a feature point to be extracted from the captured image by a method different from the feature point extraction unit;
Based on the feature points extracted by the feature point extraction unit and the correct coordinates, a performance index calculation unit that calculates a performance index that quantifies the performance;
An adjustment unit that adjusts any of the settings used for processing in the imaging device when the performance index does not reach a preset target value;
The imaging device
A parameter storage unit for storing settings adjusted by the adjustment unit;
A data forming unit that generates data of a captured image according to the settings stored in the parameter storage unit and transmits the data to the information processing device;
An evaluation system comprising:
所定のパターンが表された評価用チャートの撮影画像のデータを撮像装置から取得し画像としてメモリに展開するステップと、
前記撮影画像から特徴点を抽出するステップと、
前記特徴点を抽出するステップとは異なる手法で、前記撮影画像から抽出されるべき特徴点の位置座標を正解座標として取得するステップと、
前記特徴点を抽出するステップで抽出した特徴点と前記正解座標に基づき、特徴点抽出に適した画像を得る性能を数値化した性能指標を算出し出力するステップと、
を含むことを特徴とする、情報処理装置による性能評価方法。
Acquiring data of a photographed image of an evaluation chart representing a predetermined pattern from an imaging device and developing the data in a memory as an image;
Extracting feature points from the captured image;
Obtaining the position coordinates of the feature points to be extracted from the captured image as correct coordinates in a different method from the step of extracting the feature points;
Calculating and outputting a performance index quantifying the performance of obtaining an image suitable for feature point extraction based on the feature point extracted in the step of extracting the feature point and the correct coordinates;
The performance evaluation method by information processing apparatus characterized by including these.
所定のパターンが表された評価用チャートの撮影画像のデータを撮像装置から取得し画像としてメモリに展開する機能と、
前記撮影画像から特徴点を抽出する機能と、
前記特徴点を抽出する機能とは異なる手法で、前記撮影画像から抽出されるべき特徴点の位置座標を正解座標として取得する機能と、
前記特徴点を抽出する機能で抽出した特徴点と前記正解座標に基づき、特徴点抽出に適した画像を得る性能を数値化した性能指標を算出し出力する機能と、
をコンピュータに実現させることを特徴とするコンピュータプログラム。
A function of acquiring data of a photographed image of an evaluation chart in which a predetermined pattern is represented from an imaging device and developing the data as an image in a memory;
A function of extracting feature points from the captured image;
A function for acquiring position coordinates of feature points to be extracted from the captured image as correct coordinates in a method different from the function of extracting the feature points;
A function that calculates and outputs a performance index that quantifies the ability to obtain an image suitable for feature point extraction based on the feature point extracted by the function of extracting the feature point and the correct coordinates;
A computer program for causing a computer to realize the above.
JP2016009021A 2016-01-20 2016-01-20 Information processing apparatus, evaluation chart, evaluation system, and performance evaluation method Pending JP2017130794A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016009021A JP2017130794A (en) 2016-01-20 2016-01-20 Information processing apparatus, evaluation chart, evaluation system, and performance evaluation method
CN201710025681.0A CN107018407B (en) 2016-01-20 2017-01-13 Information processing device, evaluation chart, evaluation system, and performance evaluation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016009021A JP2017130794A (en) 2016-01-20 2016-01-20 Information processing apparatus, evaluation chart, evaluation system, and performance evaluation method

Publications (1)

Publication Number Publication Date
JP2017130794A true JP2017130794A (en) 2017-07-27

Family

ID=59395751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016009021A Pending JP2017130794A (en) 2016-01-20 2016-01-20 Information processing apparatus, evaluation chart, evaluation system, and performance evaluation method

Country Status (2)

Country Link
JP (1) JP2017130794A (en)
CN (1) CN107018407B (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019057864A (en) * 2017-09-22 2019-04-11 富士通株式会社 Camera control method, camera controller and camera control program
WO2019093136A1 (en) * 2017-11-08 2019-05-16 ソニー株式会社 Image processing device, image processing method, and program
WO2021100163A1 (en) 2019-11-21 2021-05-27 日本電気株式会社 Parameter determination device, parameter determination method, and recording medium
US20220178681A1 (en) * 2020-12-03 2022-06-09 Seiko Epson Corporation Identification method, projection method and identification system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108363736B (en) * 2018-01-19 2022-01-25 国家测绘地理信息局第三地形测量队 Storage method, device and storage system of line entity
JP7298227B2 (en) * 2019-03-20 2023-06-27 株式会社リコー Information processing device, information processing method, information processing program, and information processing system

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4623111B2 (en) * 2008-03-13 2011-02-02 ソニー株式会社 Image processing apparatus, image processing method, and program
JP5240795B2 (en) * 2010-04-30 2013-07-17 オムロン株式会社 Image deformation device, electronic device, image deformation method, and image deformation program
WO2012073421A1 (en) * 2010-11-29 2012-06-07 パナソニック株式会社 Image classification device, image classification method, program, recording media, integrated circuit, and model creation device
JP5887770B2 (en) * 2011-09-05 2016-03-16 富士ゼロックス株式会社 Image processing apparatus and image processing program
JP2014092461A (en) * 2012-11-02 2014-05-19 Sony Corp Image processor and image processing method, image processing system, and program
JP6557943B2 (en) * 2014-01-15 2019-08-14 オムロン株式会社 Image collation device, image sensor, processing system, and image collation method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019057864A (en) * 2017-09-22 2019-04-11 富士通株式会社 Camera control method, camera controller and camera control program
WO2019093136A1 (en) * 2017-11-08 2019-05-16 ソニー株式会社 Image processing device, image processing method, and program
WO2021100163A1 (en) 2019-11-21 2021-05-27 日本電気株式会社 Parameter determination device, parameter determination method, and recording medium
US20220178681A1 (en) * 2020-12-03 2022-06-09 Seiko Epson Corporation Identification method, projection method and identification system

Also Published As

Publication number Publication date
CN107018407A (en) 2017-08-04
CN107018407B (en) 2020-02-07

Similar Documents

Publication Publication Date Title
JP2017130794A (en) Information processing apparatus, evaluation chart, evaluation system, and performance evaluation method
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
CN108846807B (en) Light effect processing method and device, terminal and computer-readable storage medium
KR101662846B1 (en) Apparatus and method for generating bokeh in out-of-focus shooting
JP2004357277A (en) Digital image processing method
JP6833415B2 (en) Image processing equipment, image processing methods, and programs
KR20200023651A (en) Preview photo blurring method and apparatus and storage medium
JP5779089B2 (en) Edge detection apparatus, edge detection program, and edge detection method
CN112272292B (en) Projection correction method, apparatus and storage medium
JP2015127668A (en) Measurement device, system and program
WO2022105276A1 (en) Method and apparatus for determining projection area, projection device, and readable storage medium
CN113947613B (en) Target area detection method, device, equipment and storage medium
JP6564136B2 (en) Image processing apparatus, image processing method, and program
JP2017059927A (en) User terminal, color correction system, and color correction method
CN111080683B (en) Image processing method, device, storage medium and electronic equipment
CN109658360B (en) Image processing method and device, electronic equipment and computer storage medium
US20190073558A1 (en) Information processing apparatus, information processing method, and computer program
CN115457055A (en) Illuminance meter value identification method, electronic device, and storage medium
CN112997217A (en) Document detection from video images
JP4222013B2 (en) Image correction apparatus, character recognition method, and image correction program
JP6777507B2 (en) Image processing device and image processing method
CN108921097B (en) Human eye visual angle detection method and device and computer readable storage medium
CN112911161A (en) Image processing apparatus, image processing method, image pickup apparatus, and storage medium
JP6508617B2 (en) Image reading apparatus, image reading method and image reading program
JP6600090B2 (en) Image processing apparatus, image processing method, and program