JP2011130213A - Information processing apparatus and image verifying device, and control method thereof - Google Patents

Information processing apparatus and image verifying device, and control method thereof Download PDF

Info

Publication number
JP2011130213A
JP2011130213A JP2009286962A JP2009286962A JP2011130213A JP 2011130213 A JP2011130213 A JP 2011130213A JP 2009286962 A JP2009286962 A JP 2009286962A JP 2009286962 A JP2009286962 A JP 2009286962A JP 2011130213 A JP2011130213 A JP 2011130213A
Authority
JP
Japan
Prior art keywords
verification
input
image data
image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009286962A
Other languages
Japanese (ja)
Inventor
Kazuya Kishi
一也 岸
Yasuhiro Nakamoto
泰弘 中本
Kichiji Imamoto
吉治 今本
Junichi Hayashi
淳一 林
Nobuhiro Tagashira
信博 田頭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009286962A priority Critical patent/JP2011130213A/en
Publication of JP2011130213A publication Critical patent/JP2011130213A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To exclude image processing such as gamma correction processing, contrast correction processing and white balance correction processing from factors of disturbing guarantee of originality by producing verification data for which influences of such image processing is reduced. <P>SOLUTION: A boundary information calculating section 211 detects a pixel value of which the difference from an unreal pixel value becomes 1, from among pixel values really existing in image data inputted and produces, as first verification target information, information indicating whether or not the detection is made successful and information specifying a position of a pixel having the pixel value detected successfully if detected successfully. Each time two pixels are selected from the image data inputted in accordance with a preset random number, an order information calculating section 212 produces, as second verification target information, information specifying a magnitude relationship between the two pixels selected. A verification data producing section 213 produces verification data for image data signature using the first verification target information and the second verification target information. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像データの原本性を保証する技術に関するものである。   The present invention relates to a technique for guaranteeing the originality of image data.

保険会社や建設会社では、事故現場や建築現場の進捗等を証拠写真として銀塩カメラを利用してきたが、これに代えてデジタルカメラを利用することが考えられている。しかし、デジタルカメラで得られたデジタル画像データは、PC用の市販のフォトレタッチツール等を用いて容易に改竄することができてしまうため、デジタルデータの信頼性は従来の銀塩写真と比較して低く、証拠としての能力に乏しいという課題がある。このような課題を解決する方法として、特許文献1に開示されているような方法が提案されている。この文献には、予めデジタルカメラ内部に秘密情報を組み込んでおき、撮影して得られたデジタル画像データに、その秘密情報を用いて署名処理を施すことが開示されている。撮影後、生成された署名情報を用いて検証処理を行うことにより、撮影画像データの原本性保証が可能となる。   Insurance companies and construction companies have used silver halide cameras as evidence photographs of the progress of accident sites and construction sites, but it is considered to use digital cameras instead. However, the digital image data obtained with a digital camera can be easily tampered with using a commercially available photo retouching tool for PCs, etc. Therefore, the reliability of digital data is higher than that of conventional silver salt photographs. The problem is that it is low and the ability as evidence is poor. As a method for solving such a problem, a method as disclosed in Patent Document 1 has been proposed. This document discloses that confidential information is previously incorporated in a digital camera and digital image data obtained by photographing is subjected to signature processing using the confidential information. By performing verification processing using the generated signature information after shooting, it is possible to guarantee the originality of the shot image data.

一方、デジタルカメラなどの映像入力装置では、CMOS、CCD等の撮像素子により被写体光学像を光電変換して得られた撮像画像の電気信号をAD変換することにより、デジタルデータに変換する。そして、デジタルデータに変換した画像データ(以降ではRAW画像データと呼ぶ)に様々な画像再現処理を行う。画像再現処理の例としては、ガンマ補正処理、コントラスト補正処理、ホワイトバランス補正処理などが含まれる。特に、最近のデジタルカメラでは、前述したようなRAW画像データを(画像処理することなく)出力するような動作モードを備える装置もある。こうしたデジタルカメラでは、ユーザがRAW画像データをPC等に転送し、PC上のアプリケーションを用いて、所望の画像処理を施すことにより画像再現処理をしている。これにより、ユーザ自身がユーザの好みに応じた画像を再現することが可能になっている。   On the other hand, in a video input device such as a digital camera, an electrical signal of a captured image obtained by photoelectrically converting a subject optical image by an image sensor such as a CMOS or CCD is converted into digital data by AD conversion. Then, various image reproduction processes are performed on the image data converted to digital data (hereinafter referred to as RAW image data). Examples of image reproduction processing include gamma correction processing, contrast correction processing, white balance correction processing, and the like. In particular, some recent digital cameras have an operation mode that outputs RAW image data as described above (without image processing). In such a digital camera, a user transfers RAW image data to a PC or the like, and performs image reproduction processing by performing desired image processing using an application on the PC. Thereby, the user himself / herself can reproduce an image according to the user's preference.

米国特許第5499294号US Pat. No. 5,499,294

しかしながら、特許文献1に記載の方式は、前述したようなRAW画像データに対する画像再現処理は考慮されていない。つまり、デジタルカメラ内部においてRAW画像データに対して署名を施し、その後、PCにおいて画像再現処理を実行した場合、署名の検証に失敗してしまう。即ち、特許文献1に記載の方式によれば、悪意を持って行う改竄ではない画像再現処理を施した場合でも、改竄であると判定されてしまうため、画像再現処理された画像データの原本性を保証することが困難である。   However, the method described in Patent Document 1 does not consider the image reproduction processing for RAW image data as described above. In other words, when a signature is applied to the RAW image data inside the digital camera and then the image reproduction process is executed on the PC, the signature verification fails. That is, according to the method described in Patent Document 1, even if image reproduction processing that is not malicious tampering is performed, it is determined that the image is tampered. Therefore, the originality of the image data subjected to image reproduction processing is determined. Is difficult to guarantee.

本発明はかかる問題点に鑑みなされたものである。そして、ガンマ補正処理、コントラスト補正処理、及びホワイトバランス補正処理などのような画像再現処理が施された画像データの原本性を保証することが可能な技術を提供しようとするものである。   The present invention has been made in view of such problems. Then, it is intended to provide a technique capable of guaranteeing the originality of image data subjected to image reproduction processing such as gamma correction processing, contrast correction processing, and white balance correction processing.

この課題を解決するため、例えば本発明の情報処理装置は以下の構成を備える。すなわち、
画像データの原本性を保証するための検証データを、前記画像データから生成する情報処理装置であって、
原本性の保証対象とする画像データを入力する画像入力手段と、
該画像入力手段によって入力された前記画像データ内に実在する画素値の中で、非実在の画素値との差が予め設定された閾値以下となる画素値を検出し、検出に成功したか否かを示す情報、及び、検出に成功した場合には検出に成功した画素値を有する画素の位置を特定する情報とを第1の検証対象情報として生成する第1の生成手段と、
前記画像入力手段によって入力された前記画像データから、予め設定された乱数にしたがってN画素(Nは2以上の整数)を選択する度に、選択したN画素中の第1乃至第Nの画素の各画素値の大小関係を特定する情報を第2の検証対象情報として生成する第2の生成手段と、
前記第1の検証対象情報、及び、前記第2の検証対象情報を用いて、前記画像入力手段によって入力された前記画像データの検証データを生成する検証データ生成手段と、
該検証データ生成手段で生成された検証データを、前記画像入力手段によって入力された前記画像データと共に出力する画像出力手段とを備える。
In order to solve this problem, for example, an information processing apparatus of the present invention has the following configuration. That is,
An information processing apparatus for generating verification data for assuring the originality of image data from the image data,
Image input means for inputting image data to be guaranteed for originality;
Whether the pixel value that is different from the non-existent pixel value is less than or equal to a preset threshold value among the actual pixel values input in the image data input by the image input unit and has been detected successfully First generation means for generating, as first verification target information, information indicating whether or not, and information for specifying a position of a pixel having a pixel value that has been successfully detected when detection is successful;
Each time N pixels (N is an integer of 2 or more) are selected from the image data input by the image input unit according to a preset random number, the first to Nth pixels of the selected N pixels are selected. Second generation means for generating, as second verification target information, information specifying the magnitude relationship of each pixel value;
Verification data generation means for generating verification data of the image data input by the image input means using the first verification target information and the second verification target information;
Image output means for outputting the verification data generated by the verification data generation means together with the image data input by the image input means.

本発明によれば、ガンマ補正処理、コントラスト補正処理、及びホワイトバランス補正処理などの影響が少ない検証データを生成するので、これらの画像処理を、原本性の保証の妨げの要因から除外することが可能になる。   According to the present invention, verification data with less influence such as gamma correction processing, contrast correction processing, and white balance correction processing is generated. Therefore, it is possible to exclude these image processing from factors that hinder the guarantee of originality. It becomes possible.

第1の実施形態におけるシステムの全体構成を説明する図。The figure explaining the whole structure of the system in 1st Embodiment. 第1の実施形態における画像入力装置の構成を示す図。1 is a diagram illustrating a configuration of an image input device according to a first embodiment. 第1の実施形態における画像検証装置の構成を示す図。1 is a diagram illustrating a configuration of an image verification apparatus according to a first embodiment. 第1の実施形態における境界情報算出部の構成を示すブロック図。The block diagram which shows the structure of the boundary information calculation part in 1st Embodiment. 第1の実施形態における構成値、及び境界値の抽出方法を説明する図。The figure explaining the extraction method of the component value and boundary value in 1st Embodiment. 第1の実施形態における境界情報の抽出方法を説明する図。The figure explaining the extraction method of the boundary information in 1st Embodiment. 第1の実施形態における境界情報抽出処理を示すフローチャート。The flowchart which shows the boundary information extraction process in 1st Embodiment. 第1の実施形態における順序情報算出部の構成を示すブロック図。The block diagram which shows the structure of the order information calculation part in 1st Embodiment. 画素対を説明する図。The figure explaining a pixel pair. 順序情報の算出例を説明する図。The figure explaining the example of calculation of order information. 第1の実施形態における撮影処理を示すフローチャート。6 is a flowchart illustrating imaging processing according to the first embodiment. 第1の実施形態における検証部の構成を示すブロック図。The block diagram which shows the structure of the verification part in 1st Embodiment. 第1の実施形態における第1の検証部を説明する図。The figure explaining the 1st verification part in 1st Embodiment. 第1の実施形態における第1の検証処理を示すフローチャート。The flowchart which shows the 1st verification process in 1st Embodiment. 第1の実施形態における画像検証処理を示すフローチャート。5 is a flowchart illustrating image verification processing according to the first embodiment. 境界値となる画素を欠落画素値に改竄する場合の攻撃を説明する図。The figure explaining the attack in the case of falsifying the pixel used as a boundary value into a missing pixel value.

以下、添付図面に従って本発明に係る実施形態を詳細に説明する。   Hereinafter, embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

[第1の実施形態]
<システム全体構成の説明>
はじめに、本実施形態におけるシステムの全体構成例を図1に示す。本実施形態におけるシステムは、画像入力装置11及び画像検証装置12から構成される。
[First Embodiment]
<Description of overall system configuration>
First, an example of the overall configuration of the system in this embodiment is shown in FIG. The system in the present embodiment includes an image input device 11 and an image verification device 12.

図中、画像入力装置11は、原本性の保証対象の画像データを発生し、発生した画像データを出力する。特に、本実施形態においては、その画像データに加え、当該画像データが改竄されているか否か、言い換えれば原本性を保証するための検証データを生成し、画像データと共に出力する。また、本実施形態においては、画像入力装置11内部のCMOS、CCD等の撮像素子により被写体光学像を光電変換して得られた撮像画像の電気信号をAD変換した画像データ(以降では、RAW画像データと呼ぶ)を画像処理することなく出力するものとする。RAW画像データの詳細は後述する。画像検証装置12は、前段の画像入力装置11から入力された画像データが改竄されているか否かを検証し、検証結果を出力する。画像入力装置11、及び、画像検証装置12はインターネットなどのネットワークによって接続しておき、各種データを交換可能にしておいても良い。或いは、出力時に各種データをリムーバブルメディアなどの記憶媒体に記録し、各種データを交換するようにしても良い。   In the figure, an image input device 11 generates image data to be guaranteed for originality and outputs the generated image data. In particular, in the present embodiment, in addition to the image data, whether or not the image data has been tampered with, in other words, verification data for assuring the originality is generated and output together with the image data. In the present embodiment, image data obtained by AD-converting an electrical signal of a captured image obtained by photoelectrically converting a subject optical image by an image sensor such as a CMOS or CCD in the image input device 11 (hereinafter referred to as a RAW image). Data) is output without image processing. Details of the RAW image data will be described later. The image verification device 12 verifies whether the image data input from the previous image input device 11 has been tampered with, and outputs a verification result. The image input device 11 and the image verification device 12 may be connected via a network such as the Internet so that various data can be exchanged. Alternatively, various data may be recorded in a storage medium such as a removable medium at the time of output, and the various data may be exchanged.

<画像入力装置の基本構成>
次に、図2(A)を用いて、本実施形態に適応可能な画像入力装置11について説明する。図2(A)は本実施形態に適応可能な画像入力装置11の基本構成を示す図である。図2(A)に示すように本実施形態における画像入力装置11は、ROM21、保管用メモリ22、作業用メモリ23、CPU24、操作部25、光学系26、駆動部27、及びI/F28から構成され、夫々はバス29で接続されている。
<Basic configuration of image input device>
Next, the image input apparatus 11 applicable to the present embodiment will be described with reference to FIG. FIG. 2A is a diagram illustrating a basic configuration of the image input apparatus 11 applicable to the present embodiment. As shown in FIG. 2A, the image input device 11 in this embodiment includes a ROM 21, a storage memory 22, a work memory 23, a CPU 24, an operation unit 25, an optical system 26, a drive unit 27, and an I / F 28. Each of them is connected by a bus 29.

画像入力装置11は、例えば一般に普及しているデジタルカメラ等の撮像装置であり、操作部25を用いて撮影指示がなされた際、光学系26により生成されたデジタル画像データを保管用メモリ22などへ蓄積することが可能である。図中、ROM21は読み出し専用メモリであり、あらかじめ動作プログラムや検証データ生成に必要な共有情報が格納される。保管用メモリ22は処理済の画像データを格納する。作業用メモリ23では画像データが一時的に保管され、ここで該画像データの圧縮及び各種演算処理が行われる。CPU24は撮影指示がなされると、ROM21にあらかじめ格納されているプログラムに従い、画像データの圧縮処理、検証データ生成等の各種演算処理を行う。操作部25は撮影者の撮影指示、及び種々のパラメータの設定をはじめとする各種の指示を受け付けるためのユーザインターフェイスである。光学系26は電荷結合素子CCD、或いは相補型金属酸化物半導体CMOS等の光学センサーを含み、撮影指示がなされると被写体の撮影、電気信号処理、デジタル信号処理等を行う。駆動部27は撮影に必要な機械的な動作(フォーカスレンズやズームレンズの移動)をCPU24の制御のもとで行う。I/F28はメモリカード、携帯端末、通信装置といった外部装置とのインタフェースであり、画像データや検証データをこれらの機器へ送信する時に使用される。   The image input device 11 is an imaging device such as a digital camera that is widely used, for example, and stores digital image data generated by the optical system 26 when a shooting instruction is given using the operation unit 25. It is possible to accumulate in In the figure, a ROM 21 is a read-only memory, in which shared information necessary for generating an operation program and verification data is stored in advance. The storage memory 22 stores processed image data. The work memory 23 temporarily stores the image data, where the image data is compressed and various arithmetic processes are performed. When a photographing instruction is given, the CPU 24 performs various arithmetic processing such as image data compression processing and verification data generation in accordance with a program stored in the ROM 21 in advance. The operation unit 25 is a user interface for receiving various instructions including a shooting instruction of the photographer and setting of various parameters. The optical system 26 includes an optical sensor such as a charge-coupled device CCD or a complementary metal oxide semiconductor CMOS. When a photographing instruction is given, the subject 26 is photographed, electrical signal processing, digital signal processing, and the like are performed. The drive unit 27 performs mechanical operations (movement of the focus lens and zoom lens) necessary for photographing under the control of the CPU 24. The I / F 28 is an interface with an external device such as a memory card, a portable terminal, or a communication device, and is used when image data or verification data is transmitted to these devices.

<ホストコンピュータの基本構成>
次に、図3(A)を用いて、本実施の形態に適応可能な画像検証装置12について説明する。図3(A)は本実施形態に係る画像検証装置12として機能するホストコンピュータの基本構成を示すと共に、その周辺機器との関係を示す図である。ホストコンピュータは、一般に普及しているパーソナルコンピュータである。
<Basic configuration of host computer>
Next, the image verification apparatus 12 that can be applied to the present embodiment will be described with reference to FIG. FIG. 3A shows a basic configuration of a host computer that functions as the image verification apparatus 12 according to the present embodiment and a relationship with peripheral devices. The host computer is a commonly used personal computer.

ホストコンピュータ12は、種々の情報を表示するモニタ32、ホストコンピュータ12内の各部の動作を制御、或いはRAM35にロードされたプログラムを実行することのできるCPU33、BIOSやブートプログラムを記憶しているROM34を有する。また、ホストコンピュータ12は」CPU33にて処理を行うために一時的にプログラムや処理対象の画像データを格納しておくRAM35を有する。RAM35には、OS(オペレーティングシステム)やCPU33が後述の各種処理を行うためのプログラムがロードされることになる。また、ホストコンピュータ12は、RAM35等に転送されるOSやプログラムを格納したり、装置が動作中に画像データを格納したり、読出すために使用されるハードディスク(HD)36を有する。また、他の外部記憶装置として、CD−ROM(CD−R、CD−R/Wなど)ドライブ37、FD(フロッピー(登録商標))ドライブ38、DVDドライブも設けられている。尚、CD−ROM、FD、DVD−ROM等に画像処理用のプログラムが記憶されている場合には、これらプログラムをHD36にインストールし、必要に応じてRAM45に転送されるようになっている。   The host computer 12 includes a monitor 32 that displays various information, a CPU 33 that can control the operation of each unit in the host computer 12 or execute a program loaded in the RAM 35, and a ROM 34 that stores a BIOS and a boot program. Have In addition, the host computer 12 has a RAM 35 for temporarily storing a program and image data to be processed in order to perform processing by the CPU 33. The RAM 35 is loaded with a program for the OS (operating system) and the CPU 33 to perform various processes described later. Further, the host computer 12 has a hard disk (HD) 36 used for storing an OS and a program transferred to the RAM 35 and the like, and storing and reading image data while the apparatus is operating. As other external storage devices, a CD-ROM (CD-R, CD-R / W, etc.) drive 37, an FD (floppy (registered trademark)) drive 38, and a DVD drive are also provided. Note that when a program for image processing is stored in a CD-ROM, FD, DVD-ROM or the like, these programs are installed in the HD 36 and transferred to the RAM 45 as necessary.

また、ホストコンピュータは、ネットワークインタフェースカード(NIC)310を接続するインタフェース311、マウス等のポインティングデバイス312、キーボード313を接続するインタフェース314を有する。NIC310を接続することで、本装置を、インターネットなどのネットワークに接続することができる。また、RAM35、HD36、CD−ROM37、FD38、DVD39などに記憶されている画像データをネットワークに送信することも可能となる。更には、ネットワークから画像データを受信することも可能になる。そして、上記各構成ユニットは、システムバス315を介して互いに接続されている。   The host computer also has an interface 311 for connecting a network interface card (NIC) 310, a pointing device 312 such as a mouse, and an interface 314 for connecting a keyboard 313. By connecting the NIC 310, the present apparatus can be connected to a network such as the Internet. In addition, image data stored in the RAM 35, HD 36, CD-ROM 37, FD 38, DVD 39, etc. can be transmitted to the network. Furthermore, image data can be received from the network. The constituent units are connected to each other via a system bus 315.

上記構成において、ホストコンピュータは、HD36、CD37、FD38、及びDVD39などに蓄積したり、或いは蓄積されている画像データ等をモニタ32に表示したりすることが可能である。更に、これらの画像データは、NIC310などを用いることによってインターネットなどを介して配布、逆に、取得することが可能である。また、ユーザからの各種指示等は、ポインティングデバイス312、及びキーボード313からの入力により行われる。ホストコンピュータ12の内部では、バス315により後述する各ブロックが接続され、種々のデータの受け渡しが可能である。   In the above configuration, the host computer can store in the HD 36, CD 37, FD 38, DVD 39, etc., or display the stored image data or the like on the monitor 32. Further, these image data can be distributed via the Internet or the like by using the NIC 310 or the like, and conversely can be obtained. Further, various instructions from the user are performed by input from the pointing device 312 and the keyboard 313. Inside the host computer 12, blocks to be described later are connected by a bus 315, and various data can be transferred.

<画像入力装置の構成>
以下、図2(B)を用いて本実施の形態に適用される画像入力装置11の機能構成を説明する。なお、以下の説明では、画像入力装置11に電源が投入され、OSが作業用メモリ23にロードされている場合である。尚、本発明はこれに限定されることなく、前述したホストコンピュータ12によって実行するようにしても良い。この場合、各処理部は、該当するプログラム及びそれを実行するCPU33、場合によっては周辺のハードウェアでもって実現することになる。
<Configuration of image input device>
Hereinafter, the functional configuration of the image input apparatus 11 applied to the present embodiment will be described with reference to FIG. In the following description, the image input apparatus 11 is powered on and the OS is loaded in the work memory 23. The present invention is not limited to this, and may be executed by the host computer 12 described above. In this case, each processing unit is realized by a corresponding program and a CPU 33 that executes the program, and in some cases, peripheral hardware.

図2(B)に示すように、本実施形態における画像入力装置11は、画像発生部210、境界情報算出部211、順序情報算出部212、検証データ生成部213、及び画像出力部214から構成される。なお、ここで説明する画像入力処理はソフトウェア処理により実現されてもよい。その場合には、上記各部は上記処理に必要な機能を概念的なものとして捉えたものと考慮されるべきものである。   As shown in FIG. 2B, the image input device 11 in this embodiment includes an image generation unit 210, a boundary information calculation unit 211, an order information calculation unit 212, a verification data generation unit 213, and an image output unit 214. Is done. Note that the image input processing described here may be realized by software processing. In that case, each of the above sections should be considered as a conceptual view of the functions necessary for the above processing.

画像発生部210は、光学系26により、CMOS(相補型金属酸化物半導体)、或いはCCD(電荷結合素子)などの光学センサー、及び光学系を制御するマイクロプロセッサなどを有する。画像発生部210は、光学系、及び光学センサーによって生成されたビデオ信号をイメージ情報として取得し、画像データIを形成する。画像発生部210で発生した画像データIは後段の境界情報算出部211、順序情報算出部212、及び画像出力部214へ供給される。境界情報算出部211は、前段の画像発生部210より供給された画像データIを入力し、その画像データIから境界情報Bを生成し、出力する。   The image generating unit 210 includes an optical sensor such as a CMOS (complementary metal oxide semiconductor) or a CCD (charge coupled device) and a microprocessor for controlling the optical system by the optical system 26. The image generation unit 210 acquires a video signal generated by the optical system and the optical sensor as image information, and forms image data I. The image data I generated by the image generation unit 210 is supplied to the subsequent boundary information calculation unit 211, the order information calculation unit 212, and the image output unit 214. The boundary information calculation unit 211 receives the image data I supplied from the previous image generation unit 210, generates boundary information B from the image data I, and outputs it.

ここで本実施形態における境界情報算出部211の詳細について図4を用いて説明する。図4に示すように本実施形態における境界情報算出部211は、画像構成画素抽出部41、境界画素抽出部42、及び、境界情報抽出部43から構成される。画像構成画素抽出部41は、入力した画像データIから画像構成画素Cを抽出し、境界画素抽出部42へ出力する。ここで、入力された画像データを構成する画素値のことを画像構成画素値と定義し、画像構成画素値の集合を画像構成画素Cとする。画像構成画素抽出部41は、例えばラスタスキャン順に画像データIの画像構成画素値を抽出し、その画像構成画素値の集合を画像構成画素Cとして境界画素抽出部42へ出力する。ここで、図5を用いて画像構成画素Cの抽出について説明する。図5において、画像データ51は画像構成画素Cの抽出対象である画像データIであり、それぞれの格子は画素を示す。また、左上の画素からラスタスキャン順に、図5の参照符号52のように割り当てる。画像データIの画素は、C(0)=4、C(1)=5、C(2)=3、・・・、C(33)=253、C(34)=255、C(35)=255となる。ここで、画像データ51を抽出対象の画像データとし、画像構成画素Cを抽出する。ラスタスキャン順に画像データ51を構成しているすべての画素を洗い出すと画像データ51が、画素値0、1、2、3、4、5、200、250、251、252、253、254、255で構成されていることがわかる。従って、画像データI51の画像構成画素Cは、画像構成画素Cを構成する画像構成画素値の数が13、その画像構成画素値は0、1、2、3、4、5、200、250、251、252、253、254、255となる。結果として、図5の画像構成画素C53が抽出され、境界画素抽出部42に出力する。つまり、画像構成画素C53は、着目ブロック内に出現する色数と、各色の画素を連結したものと言える。ここでは、ラスタスキャン順に画像データIを構成する画素値を確認していたが、例えば画像を構成しうる画素値(0〜255)が画像データIに含まれているかどうかを順に検査してもよい。また、以降では説明の便宜上、画像データIを構成しない画素値を欠落画素値と定義する。例えば、前述した例における画像データI成分の欠落画素値は、6、7・・・199、201、202、・・・、248、249となる。以上、本実施形態における画像構成画素抽出部41の詳細について説明した。   Details of the boundary information calculation unit 211 in this embodiment will be described with reference to FIG. As shown in FIG. 4, the boundary information calculation unit 211 in this embodiment includes an image configuration pixel extraction unit 41, a boundary pixel extraction unit 42, and a boundary information extraction unit 43. The image constituent pixel extraction unit 41 extracts the image constituent pixel C from the input image data I, and outputs it to the boundary pixel extraction unit 42. Here, a pixel value constituting input image data is defined as an image constituent pixel value, and a set of image constituent pixel values is defined as an image constituent pixel C. The image constituent pixel extraction unit 41 extracts the image constituent pixel values of the image data I in the raster scan order, for example, and outputs the set of the image constituent pixel values as the image constituent pixels C to the boundary pixel extracting unit 42. Here, extraction of the image constituent pixel C will be described with reference to FIG. In FIG. 5, image data 51 is image data I from which image constituent pixels C are to be extracted, and each grid indicates a pixel. Also, allocation is performed in the order of raster scanning from the upper left pixel as indicated by reference numeral 52 in FIG. The pixels of the image data I are C (0) = 4, C (1) = 5, C (2) = 3,..., C (33) = 253, C (34) = 255, C (35) = 255. Here, the image constituent pixel C is extracted by using the image data 51 as the image data to be extracted. When all the pixels constituting the image data 51 are identified in the raster scan order, the image data 51 has pixel values 0, 1, 2, 3, 4, 5, 200, 250, 251, 252, 253, 254, 255. It can be seen that it is configured. Therefore, the image constituent pixel C of the image data I51 has 13 image constituent pixel values constituting the image constituent pixel C, and the image constituent pixel values are 0, 1, 2, 3, 4, 5, 200, 250, 251, 252, 253, 254, 255. As a result, the image constituent pixel C53 of FIG. 5 is extracted and output to the boundary pixel extracting unit 42. That is, it can be said that the image constituent pixel C53 is obtained by connecting the number of colors appearing in the block of interest and the pixels of each color. Here, the pixel values constituting the image data I are confirmed in the order of raster scanning. However, for example, even if pixel values (0 to 255) that can constitute an image are included in the image data I in order, Good. Further, hereinafter, for convenience of explanation, a pixel value that does not constitute the image data I is defined as a missing pixel value. For example, the missing pixel values of the image data I component in the above-described example are 6, 7,... 199, 201, 202,. The details of the image configuration pixel extraction unit 41 in the present embodiment have been described above.

境界画素抽出部42は、前段の画像構成画素抽出部41で抽出した画像構成画素Cを入力し、その画像構成画素Cから境界画素Kを抽出し、境界情報抽出部43へ出力する。ここで、画像構成画素Cに含まれる各画像構成画素値に最小精度を加算、或いは減算したどちらかの値が欠落画素値になるものを境界画素値と定義し、境界画素値の集合を境界画素Kとする。本実施形態では、画素値の最小精度を1として説明する。本実施形態では、画素値の最小精度を1としたが、例えば最小精度が1以下の表現が可能なTIFFフォーマットなどの場合は、これに限定されることはない。以下、境界画素抽出部42の処理の詳細を説明する。   The boundary pixel extraction unit 42 receives the image configuration pixel C extracted by the previous image configuration pixel extraction unit 41, extracts the boundary pixel K from the image configuration pixel C, and outputs it to the boundary information extraction unit 43. Here, a pixel value defined by adding or subtracting the minimum accuracy to each image component pixel value included in the image component pixel C is defined as a boundary pixel value, and a set of boundary pixel values is defined as a boundary pixel value. Let it be pixel K. In the present embodiment, description will be made assuming that the minimum accuracy of the pixel value is 1. In the present embodiment, the minimum precision of the pixel value is set to 1. However, the present invention is not limited to this, for example, in the case of a TIFF format or the like in which the minimum precision is 1 or less. Hereinafter, details of the processing of the boundary pixel extraction unit 42 will be described.

境界画素抽出部42は、まず前段の画像構成画素抽出部41で抽出した画像構成画素Cに含まれる各画像構成画素値に対して、画素値の最小精度である1を加算し、加算後の値が、前段の画像構成画素抽出部41で抽出した画像構成画素Cに含まれているかどうかを検査する。検査の結果、加算後の値が、画像構成画素Cに含まれていない場合(つまり、欠落画素値になる場合)は、加算前の画像構成画素値を境界画素値として抽出する。このとき、画素値がとりうる最大値に関しては(本実施形態の場合は255)、画素値の最小精度である1を加算した値が存在しないため除外する。   The boundary pixel extraction unit 42 first adds 1 that is the minimum precision of the pixel value to each image configuration pixel value included in the image configuration pixel C extracted by the previous image configuration pixel extraction unit 41, and after the addition It is inspected whether the value is included in the image constituent pixel C extracted by the previous image constituent pixel extraction unit 41. As a result of the inspection, when the value after addition is not included in the image constituent pixel C (that is, when it becomes a missing pixel value), the image constituent pixel value before addition is extracted as a boundary pixel value. At this time, the maximum value that the pixel value can take (255 in this embodiment) is excluded because there is no value obtained by adding 1 which is the minimum precision of the pixel value.

以上説明した内容を、前述した画像構成画素C53を用いて説明する。まず、画像構成画素C53に示す画像構成画素値の1つ目の情報から画像データIを構成する画像構成画素値の数が13であることがわかる。そして、画像構成画素C53の2個目から14個目の値が、画像構成画素値であることもわかる。そこで、画像構成画素値C0=0に画素値の最小精度である1を加算した値C0'(=0+1=1)が、画像構成画素C53の残りの画素値{1、2、3、4、5、200、250、251、252、253、254、255}に含まれているかどうかを検査する。その結果、C0'=1は前述した画素値(C1=1)に含まれている(つまり、欠落画素値ではない)ため、画素値C0は境界画素値ではないと判断する。同様に全ての画像構成画素値について検査していくと、画像構成画素値C5=5に1を加算した値C5'=6は、画像構成画素C53の画像構成画素値{0、1、2、3、4、5、200、250、251、252、253、254、255}に含まれていない。つまり、欠落画素値と判定できる。従って、画素値C5は境界画素値として抽出される。
次に、境界画素抽出部42は、前述した加算と同様に、画像構成画素Cに含まれる各画像構成画素値に対して画素値の最小精度である1を減算し、減算後の値が、画像構成画素抽出部41で抽出した画像構成画素Cに含まれているかどうかを検査する。検査の結果、減算後の値が画像構成画素Cに含まれていない場合(つまり、欠落画素値になる場合)は、減算前の画像構成画素値を境界値として抽出する。このとき、画素値のとりうる最小値に関しては(本実施形態の場合は0)、画素値の最小精度である1を減算した値が存在しないため除外する。
The content described above will be described using the above-described image constituent pixel C53. First, it can be seen from the first information of the image constituent pixel value indicated by the image constituent pixel C53 that the number of image constituent pixel values constituting the image data I is thirteen. It can also be seen that the second to fourteenth values of the image constituent pixel C53 are image constituent pixel values. Therefore, a value C 0 ′ (= 0 + 1 = 1) obtained by adding 1 which is the minimum accuracy of the pixel value to the image constituent pixel value C 0 = 0 is the remaining pixel value {1, 2, 3,. 4, 5, 200, 250, 251, 252, 253, 254, 255}. As a result, since C 0 ′ = 1 is included in the pixel value (C 1 = 1) described above (that is, not a missing pixel value), it is determined that the pixel value C 0 is not a boundary pixel value. Similarly, when all the image constituent pixel values are inspected, the value C 5 ′ = 6 obtained by adding 1 to the image constituent pixel value C 5 = 5 is the image constituent pixel value {0, 1, 2, 3, 4, 5, 200, 250, 251, 252, 253, 254, 255}. That is, it can be determined as a missing pixel value. Accordingly, the pixel value C 5 is extracted as a boundary pixel value.
Next, similarly to the above-described addition, the boundary pixel extraction unit 42 subtracts 1 which is the minimum precision of the pixel value from each image configuration pixel value included in the image configuration pixel C, and the value after the subtraction is It is inspected whether it is included in the image constituent pixel C extracted by the image constituent pixel extracting unit 41. As a result of the inspection, when the value after subtraction is not included in the image constituent pixel C (that is, when it becomes a missing pixel value), the image constituent pixel value before subtraction is extracted as a boundary value. At this time, the minimum value that the pixel value can take (0 in the present embodiment) is excluded because there is no value obtained by subtracting 1 which is the minimum precision of the pixel value.

以下、減算による境界画素抽出を、前述した画像構成画素53Cを用いて説明する。まず、画像構成画素値C0=0から1を減算した値C0'(=0−1=−1)は画素値として存在しないため除外する。画像構成画素値C1=1から画素値の最小精度である1を減算した値C1'(1−1=0)が、画像構成画素Cの画像構成画素値{0、1、2、3、4、5、200、250、251、252、253、254、255}に含まれているかどうかを検査する。その結果、C1'=0は前述した画像構成画素値(C0=0)に含まれている(つまり、欠落画素値ではない)ため、画像構成画素値C1は境界画素値ではないと判断する。同様に全ての画像構成画素値について検査していくと、画像構成画素値C200=200から1を減算した値C200''=199は、画像構成画素C53の画像構成画素値{0、1、2、3、4、5、200、250、251、252、253、254、255}に含まれていない(つまり、欠落画素値である)。従って、画像構成画素値C200は境界画素値として抽出される。このようにして、全ての色成分に関して境界画素値を抽出した結果が、図5の境界画素K54となり、境界情報抽出部43へ出力される。 Hereinafter, boundary pixel extraction by subtraction will be described using the above-described image constituent pixel 53C. First, the value C 0 ′ (= 0−1 = −1) obtained by subtracting 1 from the image constituent pixel value C 0 = 0 is excluded because it does not exist as a pixel value. A value C 1 ′ (1-1 = 0) obtained by subtracting 1 which is the minimum precision of the pixel value from the image constituent pixel value C 1 = 1 is the image constituent pixel value {0, 1, 2, 3 of the image constituent pixel C. 4, 5, 200, 250, 251, 252, 253, 254, 255}. As a result, since C 1 ′ = 0 is included in the above-described image configuration pixel value (C 0 = 0) (that is, not a missing pixel value), the image configuration pixel value C 1 is not a boundary pixel value. to decide. Similarly, when all the image constituent pixel values are inspected, the value C200 ″ = 199 obtained by subtracting 1 from the image constituent pixel value C 200 = 200 is the image constituent pixel value {0, 1, 2, 3, 4, 5, 200, 250, 251, 252, 253, 254, 255} (that is, missing pixel values). Therefore, the image constituent pixel value C200 is extracted as a boundary pixel value. In this way, the result of extracting the boundary pixel values for all the color components becomes the boundary pixel K54 in FIG. 5 and is output to the boundary information extraction unit 43.

なお、図5の境界画素K54の通り、画素値C200は、加算、及び、減算の双方で境界画素として判定されるが、加算と減算で重複して抽出される画素は1つにしてカウントする。ここで、図5に示すように、境界画素抽出部42は、境界画素値が存在したかどうかについて境界情報抽出部43へ伝える。例えば、境界画素値が存在した場合は、境界画素Kの先頭に1を付加し、境界画素値が存在しない場合は0を付加するなどして、境界画素値が存在するかどうかの旨を境界情報抽出部43へ伝えるようにする。つまり、境界画素K54は、先頭に境界画素値の有無、その後に境界画素値の数、境界画素値が含まれる。以上、本実施形態における境界画素抽出部42の詳細について説明した。 Note that as indicated by the boundary pixel K54 in FIG. 5, the pixel value C 200 is determined as a boundary pixel in both addition and subtraction, but the number of pixels extracted in duplicate by addition and subtraction is counted as one. To do. Here, as illustrated in FIG. 5, the boundary pixel extraction unit 42 notifies the boundary information extraction unit 43 as to whether or not the boundary pixel value exists. For example, when there is a boundary pixel value, 1 is added to the head of the boundary pixel K, and when there is no boundary pixel value, 0 is added to indicate whether the boundary pixel value exists. Information is transmitted to the information extraction unit 43. That is, the boundary pixel K54 includes the presence / absence of the boundary pixel value at the head, and the number of boundary pixel values and the boundary pixel value thereafter. The details of the boundary pixel extraction unit 42 in the present embodiment have been described above.

境界情報抽出部43は、前段の境界画素抽出部42で抽出した境界画素Kと、画像発生部210で発生した画像データIを入力し、境界画素K、及び画像データIから境界情報Bを抽出し、検証データ生成部213へ出力する。   The boundary information extraction unit 43 inputs the boundary pixel K extracted by the previous boundary pixel extraction unit 42 and the image data I generated by the image generation unit 210, and extracts boundary information B from the boundary pixel K and the image data I And output to the verification data generation unit 213.

ここで、境界画素値が画像データ中の特定の位置で同値になっているということが判断できる情報を含んだものを境界情報Bとする。例えば、画像データI中で同じ境界画素値を持つ画素値の位置情報と、同値となる画素値に関する画像内の位置情報の数を含んだものを境界情報Bとしてもよい。また、全ての境界画素値の値とその境界画素値に対する画像内の位置情報を含んだものを境界情報Bとしてもよい。本実施形態では、画像データI中で同じ境界画素値を持つ画素値の画像内における位置情報(ラスタースキャン順にスキャンした場合に何番目の画素かを示す情報とする)、同値となる画素値に関する画像内の位置情報の数を含んだものを境界情報Bとして説明する。   Here, the boundary information B includes information that can be determined that the boundary pixel value is the same value at a specific position in the image data. For example, the boundary information B may include the position information of the pixel value having the same boundary pixel value in the image data I and the number of position information in the image regarding the pixel value having the same value. The boundary information B may include all boundary pixel value values and position information in the image corresponding to the boundary pixel values. In the present embodiment, position information in the image of pixel values having the same boundary pixel value in the image data I (information indicating the number of pixels when scanned in the raster scan order), and pixel values that are the same value Information including the number of pieces of position information in the image will be described as boundary information B.

境界情報抽出部43は、境界画素Kに含まれる境界画素値の画像データI中の位置を特定し、その特定された位置に対応する画素値を抽出する。境界情報抽出部43は、ラスタスキャン順に基準となる境界画素値を検索し、基準となった境界画素値と同等の画素値が見つかった場合は、その画像内の位置情報を抽出する。このとき、画像データI中に同じ境界画素値が複数存在しない場合は、その境界画素値を境界情報Bに含めない。このような抽出を境界画素Kに含まれる全ての境界画素値に対して行い、境界情報Bとして検証データ生成部213へ出力する。   The boundary information extraction unit 43 specifies the position of the boundary pixel value included in the boundary pixel K in the image data I, and extracts the pixel value corresponding to the specified position. The boundary information extraction unit 43 searches for a boundary pixel value serving as a reference in the order of raster scanning, and if a pixel value equivalent to the reference boundary pixel value is found, extracts position information within the image. At this time, when there are not a plurality of the same boundary pixel values in the image data I, the boundary pixel values are not included in the boundary information B. Such extraction is performed on all boundary pixel values included in the boundary pixel K, and is output to the verification data generation unit 213 as boundary information B.

ここで本実施形態における境界情報抽出部43の詳細について図6を用いて説明する。まず、境界情報抽出部43は、境界画素K54から境界画素値が存在するかどうかを判定する。境界画素値が存在しない場合は、その旨を検証データ生成部213へ通知し、境界画素値が存在する場合は以下の処理を行う。   Details of the boundary information extraction unit 43 in this embodiment will be described with reference to FIG. First, the boundary information extraction unit 43 determines whether a boundary pixel value exists from the boundary pixel K54. When the boundary pixel value does not exist, the verification data generation unit 213 is notified to that effect, and when the boundary pixel value exists, the following processing is performed.

ここでは、図6の参照符号61で示すのが境界情報Bの抽出対象である画像データIであるものとする。境界情報抽出部43は、境界画素K54を入力した場合、その内容から、画像データIに対する境界画素値は、画像62に示す網掛け部に示すものと判定できる。ここで、入力された境界画素Kの値に関して、ラスタスキャン順に画像データ中の位置を検索すると、境界画素値ごとの画像内の位置情報は、境界画素値が“5”の場合は、位置C(1)となる。また、境界画素値が“200”の場合は、位置C(7)、C(8)、C(13)、C(14)である。そして、境界画素値が“250”の場合は、位置C(25)となる。このうち境界画素値が“5”、及び、境界画素値が“250”に対する位置情報は、1つしか存在しない(同じ境界画素値が複数存在しない)ため、境界情報Bには含めない。したがって、画像データIに関する境界情報Bは、画像データ63に示すように同じ境界画素値を持つ画素の位置情報がC(7)、C(8)、C(13)、C(14)であり、同値となる位置情報の数は“4”となる。ここで、境界情報抽出部43は、境界情報Bが存在したかどうかについて検証データ生成部213へ伝える。例えば、境界情報Bが抽出できた場合は、境界情報Bの先頭に1を付加し、境界情報Bが抽出されなかった場合や、境界画素抽出部42から境界画素値が存在しなかった場合は、境界情報Bの先頭に0を付加するなどして、境界情報Bが存在するかどうかの旨を検証データ生成部213へ伝える。以上のように境界情報Bを抽出すると、参照符号64に示すような境界情報Bが得られ、検証データ生成部213へ出力する。なお、ここでは境界情報B64に示すフォーマットを示したが、例えば参照符号65に示すようなマップをもとにして、1次元に並べた参照符号66に示すような境界情報Bを用いてもよい。この場合、境界情報Bの先頭に境界情報Bの有無を示す情報を付加し、その後ラスタスキャン順に画像中の位置情報に対応する情報を付加する。同値となる境界画素値がある場合は、1を付加し、そうでない場合は0を付加する。境界情報B66の場合は、C(7)、C(8)、C(13)、C(14)において同値であることが確認できる。以上、本実施形態における境界情報抽出部43の詳細について説明した。   Here, it is assumed that image data I from which boundary information B is extracted is indicated by reference numeral 61 in FIG. When the boundary information extraction unit 43 receives the boundary pixel K54, the boundary pixel value for the image data I can be determined from the content of the boundary pixel K54 as indicated by the shaded portion shown in the image 62. When the position in the image data is searched in the raster scan order with respect to the input value of the boundary pixel K, the position information in the image for each boundary pixel value is the position C when the boundary pixel value is “5”. (1). When the boundary pixel value is “200”, the positions are C (7), C (8), C (13), and C (14). When the boundary pixel value is “250”, the position C is (25). Of these, only one piece of position information for the boundary pixel value “5” and the boundary pixel value “250” exists (there are no plurality of the same boundary pixel values), so it is not included in the boundary information B. Therefore, the boundary information B relating to the image data I is that the position information of the pixels having the same boundary pixel value is C (7), C (8), C (13), and C (14) as shown in the image data 63. The number of pieces of position information having the same value is “4”. Here, the boundary information extraction unit 43 notifies the verification data generation unit 213 as to whether or not the boundary information B exists. For example, when the boundary information B can be extracted, 1 is added to the head of the boundary information B, and when the boundary information B is not extracted or when the boundary pixel value does not exist from the boundary pixel extraction unit 42 Then, by adding 0 to the head of the boundary information B, the verification data generation unit 213 is informed of whether the boundary information B exists. When the boundary information B is extracted as described above, boundary information B as indicated by reference numeral 64 is obtained and output to the verification data generation unit 213. Although the format shown in the boundary information B64 is shown here, for example, the boundary information B as shown in the reference numeral 66 arranged one-dimensionally based on the map as shown in the reference numeral 65 may be used. . In this case, information indicating the presence or absence of the boundary information B is added to the head of the boundary information B, and then information corresponding to the position information in the image is added in the raster scan order. If there is a boundary pixel value that is the same value, 1 is added, otherwise 0 is added. In the case of the boundary information B66, it can be confirmed that C (7), C (8), C (13), and C (14) have the same value. The details of the boundary information extraction unit 43 in the present embodiment have been described above.

上記を平たく言えば、境界情報算出部211は、入力された画像データ内に実在する画素値の中で、非実在の画素値との差が予め設定された閾値以下(実施形態では閾値=1)となる画素値を検出し、検出に成功したか否かを示す情報、及び、検出に成功した場合には検出に成功した画素値を有する画素の位置を特定する情報とを第1の検証対象情報として生成する第1の生成部ということができる。   To put it flatly, the boundary information calculation unit 211 has a difference between a pixel value existing in the input image data and a non-existing pixel value equal to or less than a preset threshold value (threshold value = 1 in the embodiment). The first verification of information indicating whether or not the detection is successful, and information for specifying the position of the pixel having the successful detection when the detection is successful. It can be said to be a first generation unit that is generated as target information.

<境界値算出処理のフロー>
以下、図7(A),(B)のフローチャートに従って、本実施形態における境界情報算出部211で実行される境界情報算出処理のフローを説明する。ここでは、まず画像構成画素抽出部41と境界画素抽出部42に関する処理を図7(A)に従って説明し、その後、図7(B)に従って境界情報抽出部43の処理を説明する。
<Boundary value calculation processing flow>
Hereinafter, the flow of the boundary information calculation process executed by the boundary information calculation unit 211 in the present embodiment will be described with reference to the flowcharts of FIGS. Here, first, the processing related to the image constituent pixel extraction unit 41 and the boundary pixel extraction unit 42 will be described according to FIG. 7A, and then the processing of the boundary information extraction unit 43 will be described according to FIG. 7B.

まず、画像構成画素抽出部41と境界画素抽出部42に関する処理フローをあわせて説明する。はじめに画像構成画素抽出部41において、画像発生部210で生成された画像データIを入力し(S701)、画像構成画素抽出部41を用いて、入力した画像データIの画像構成画素を抽出する(S702)。次に、境界画素抽出部42を用いて、画像データI中の画像構成画素値を特定し(S703)、特定した画像構成画素値に対して最小精度を加算、減算する(S704)。最小精度を加算した画素値、もしくは最小精度を減算した画素値が欠落画素値と同等であるかどうかを検証する(S705)。欠落画素値と同等である場合は演算前の画像構成画素値を境界画素値として抽出し(S706)、欠落画素値とならない場合は、処理を行わずに全ての画素値に対して処理を行ったかどうかを検査する(S707)。ここで、全ての画像構成画素値について処理を行っていない場合は、全ての画像構成画素値の処理が完了するまで処理を繰り返す。全ての画像構成画素値に対して処理が完了した場合、境界画素値が抽出されたかどうかを判断して、境界画素値が抽出できた場合は境界画素値を境界画素Kに含め(S710)、境界画素値が抽出できなかった場合はその旨を境界画素Kに含める(S709)。そして、最終的に境界画素Kを境界情報抽出部43へ出力する。   First, the processing flow regarding the image constituent pixel extraction unit 41 and the boundary pixel extraction unit 42 will be described together. First, in the image component pixel extraction unit 41, the image data I generated by the image generation unit 210 is input (S701), and the image component pixel of the input image data I is extracted using the image component pixel extraction unit 41 (S701). S702). Next, the boundary pixel extraction unit 42 is used to specify an image constituent pixel value in the image data I (S703), and minimum accuracy is added to or subtracted from the specified image constituent pixel value (S704). It is verified whether the pixel value to which the minimum accuracy is added or the pixel value to which the minimum accuracy is subtracted is equivalent to the missing pixel value (S705). If it is equal to the missing pixel value, the pixel value before calculation is extracted as the boundary pixel value (S706), and if it is not the missing pixel value, all pixel values are processed without performing the process. It is inspected whether or not (S707). Here, when the processing is not performed for all the image constituent pixel values, the processing is repeated until the processing of all the image constituent pixel values is completed. When the processing is completed for all the image constituent pixel values, it is determined whether or not the boundary pixel value is extracted. If the boundary pixel value can be extracted, the boundary pixel value is included in the boundary pixel K (S710). If the boundary pixel value cannot be extracted, this is included in the boundary pixel K (S709). Finally, the boundary pixel K is output to the boundary information extraction unit 43.

続いて、境界情報抽出部43に関する処理を説明する。はじめに、画像データIおよび境界画素抽出部42で生成された境界画素Kを入力し(S712)、境界画素が存在するかどうかを確認する(S713)。境界画素が存在しない場合境界情報がない旨を境界情報Bへ含める(S714)。境界画素が存在する場合は、境界情報を抽出する。境界情報の週出は、まず境界画素値を特定し(S715)、全ての境界画素値に対して処理をしたかどうかを確認する(S716)。全ての境界画素値に対して処理をした場合、S720へ進む。全ての境界画素値に対して処理を行っていない場合は、画像内に同じ境界画素値が存在するかどうかを確認し(S717)、同じ境界画素値が存在しない場合は、境界情報が存在しないと判断できるため次の境界画素値を特定し、処理を繰り返す。画像内に同じ境界画素値が存在する場合は、当該画素値に関する全ての画像内の位置情報を抽出し(S718)、位置情報の個数を抽出する(S719)。S720では、境界情報が存在するかどうかを確認し、存在しない場合は境界情報がない旨を境界情報Bに含め(S714)、境界情報がある場合は境界情報が存在する旨を境界情報Bへ含める(S721)。最終的に境界情報Bを検証データ生成部213へ出力する(S722)。以上、本実施形態における境界情報算出処理のフローについて説明した。   Next, processing related to the boundary information extraction unit 43 will be described. First, the image data I and the boundary pixel K generated by the boundary pixel extraction unit 42 are input (S712), and it is confirmed whether or not the boundary pixel exists (S713). When there is no boundary pixel, the fact that there is no boundary information is included in the boundary information B (S714). If there is a boundary pixel, boundary information is extracted. In order to make the boundary information weekly, first, the boundary pixel values are specified (S715), and it is confirmed whether or not all the boundary pixel values have been processed (S716). If all the boundary pixel values have been processed, the process proceeds to S720. If all the boundary pixel values are not processed, it is checked whether or not the same boundary pixel value exists in the image (S717). If the same boundary pixel value does not exist, boundary information does not exist. Therefore, the next boundary pixel value is specified and the process is repeated. When the same boundary pixel value exists in the image, position information in all the images related to the pixel value is extracted (S718), and the number of position information is extracted (S719). In S720, it is confirmed whether or not boundary information exists. If there is no boundary information, the fact that there is no boundary information is included in the boundary information B (S714), and if there is boundary information, the boundary information B indicates that the boundary information exists. Include (S721). Finally, the boundary information B is output to the verification data generation unit 213 (S722). The flow of the boundary information calculation process in the present embodiment has been described above.

続いて、順序情報算出部212について説明する。順序情報算出部212は、前段の画像発生部210で発生した画像データI、及び、乱数初期値KRが入力され、入力された乱数初期値を用いて画像データIから順序情報Rが生成され、生成された順序情報Rが出力される。   Next, the order information calculation unit 212 will be described. The order information calculation unit 212 receives the image data I generated by the previous image generation unit 210 and the random number initial value KR, generates the order information R from the image data I using the input random number initial value, The generated order information R is output.

ここで本実施形態における順序情報算出部212の詳細について図8を用いて説明する。図8に示すように本実施形態における順序情報算出部212は、擬似乱数生成部81、画素対選択部82、画素値比較部83から構成される。   Details of the order information calculation unit 212 in the present embodiment will be described with reference to FIG. As shown in FIG. 8, the order information calculation unit 212 in this embodiment includes a pseudo random number generation unit 81, a pixel pair selection unit 82, and a pixel value comparison unit 83.

図中、擬似乱数生成部81は、入力された初期値KRをシードとして擬似乱数RNDを生成し、生成した擬似乱数RNDを後段の画素対選択部82へ出力する。ただし、初期値KRは、画像入力装置11と後述する画像検証装置12とで共有しておく必要がある。このため、予め画像入力装置11内部のROM21、及び画像検証装置12内部のROM34に共通の秘密情報を保持しておき、検証データ生成部213が必要に応じて当該秘密情報を利用するようにする。或いは、ICカード等の耐タンパーな装置内部に初期値KRを保持しておき、当該ICカードを画像入力装置11及び画像検証装置12に接続するようにし、ICカード内部から初期値KRを取得して利用するようにしても良い。   In the figure, a pseudo random number generation unit 81 generates a pseudo random number RND using the input initial value KR as a seed, and outputs the generated pseudo random number RND to the pixel pair selection unit 82 in the subsequent stage. However, the initial value KR needs to be shared between the image input device 11 and an image verification device 12 described later. For this reason, common secret information is held in advance in the ROM 21 in the image input apparatus 11 and the ROM 34 in the image verification apparatus 12 so that the verification data generation unit 213 uses the secret information as necessary. . Alternatively, the initial value KR is held in a tamper-resistant device such as an IC card, and the IC card is connected to the image input device 11 and the image verification device 12, and the initial value KR is acquired from the IC card. You may make it use.

画素対選択部82は、前段の擬似乱数生成部81で生成された擬似乱数RNDを用いて、画像データIを構成する画素の中から2つの画素の位置を選択する。そして、選択した2つの位置の画素を1つの画素対とすることを繰り返すことにより、複数個の画素対から構成される画素対IPを生成して出力する。   The pixel pair selection unit 82 selects the positions of two pixels from the pixels constituting the image data I using the pseudo random number RND generated by the pseudo random number generation unit 81 in the previous stage. Then, by repeating the selection of the pixels at the two selected positions as one pixel pair, a pixel pair IP composed of a plurality of pixel pairs is generated and output.

ここで図9を用いて本実施形態における画素対の例について説明する。図中、97は画像データIを示し、91、92、94、及び95は夫々画像データ97中の画素を示す。図中の点線で結び付けられた画素が画素対であり、画素91と画素92が画素対93を構成する。また、画素94と画素95が画素対96を構成している様を示している。この場合、画素対93と画素対96が画素対IPとして出力される。   Here, an example of a pixel pair in the present embodiment will be described with reference to FIG. In the figure, 97 indicates image data I, and 91, 92, 94, and 95 indicate pixels in the image data 97, respectively. Pixels connected by dotted lines in the figure are pixel pairs, and the pixels 91 and 92 constitute a pixel pair 93. Further, it is shown that the pixel 94 and the pixel 95 constitute a pixel pair 96. In this case, the pixel pair 93 and the pixel pair 96 are output as the pixel pair IP.

画素値比較部83は、画素対IPが入力され、入力された画素対を構成する画素値同士を比較し、比較結果を順序情報Rとして出力する。   The pixel value comparison unit 83 receives the pixel pair IP, compares the pixel values constituting the input pixel pair, and outputs the comparison result as order information R.

本実施形態では、画素値比較部83内部で以下の式(1)を用いて順序情報Rを生成するものとする。
if c(i)<c(j) then Rk=0 else Rk=1 …(1)
In the present embodiment, the order information R is generated in the pixel value comparison unit 83 using the following formula (1).
if c (i) <c (j) then Rk = 0 else Rk = 1 (1)

式(1)において、c(x)は画素位置xにおける画素値、i及びjは前段の画素対選択部82で選択された画素対における画素の位置である。入力された擬似乱数RNDによって選択された画素対IPについて式(1)を用いて相対的大小関係Rkを算出し、算出された大小関係Rkを連結した結果を順序情報Rとして出力する。   In Expression (1), c (x) is a pixel value at the pixel position x, and i and j are pixel positions in the pixel pair selected by the pixel pair selection unit 82 in the previous stage. The relative magnitude relation Rk is calculated using the equation (1) for the pixel pair IP selected by the input pseudorandom number RND, and the result of concatenating the calculated magnitude relation Rk is output as the order information R.

以上説明したRk、及び順序情報Rの算出の具体例を前述の図5、及び図10を用いて説明する。画像データ51は順序情報Rの算出対象である画像データであり、まず、大小関係Rkを求める。表101は、画像データに対して、擬似乱数、画素対IP、大小関係Rkを説明するためのものである。画像データ51に対し、擬似乱数生成部81で生成された擬似乱数RNDが、表101におけるi、及びjであり、画素対選択部82において選択された画素対IPがC(i)及びC(j)である。表101においては、合計6個の画素対が選択されていることになる。   A specific example of calculating Rk and order information R described above will be described with reference to FIGS. 5 and 10 described above. The image data 51 is image data for which the order information R is calculated. First, the magnitude relationship Rk is obtained. Table 101 is for explaining pseudo-random numbers, pixel pairs IP, and magnitude relations Rk for image data. For the image data 51, the pseudorandom numbers RND generated by the pseudorandom number generator 81 are i and j in Table 101, and the pixel pairs IP selected by the pixel pair selector 82 are C (i) and C ( j). In Table 101, a total of six pixel pairs are selected.

次に、夫々の画素対に対して式1を用いてRkを算出する。例えば、表101における最初の画素対は、C(i)=200、C(j)=2である。この場合、C(i)>C(j)であるためRk=1となる。一方、2番目の画素対は、C(i)=4、C(j)=253であるので、C(i)>C(j)でないためRk=0となる。   Next, Rk is calculated using Equation 1 for each pixel pair. For example, the first pixel pair in Table 101 is C (i) = 200 and C (j) = 2. In this case, Rk = 1 because C (i)> C (j). On the other hand, since C (i) = 4 and C (j) = 253 in the second pixel pair, Rk = 0 because C (i)> C (j) is not satisfied.

以上の方法を用い、残りの画素に対しても、Rkを算出する。そして、算出した大小関係Rkを順に連結することにより、図10の参照符号102に示す順序情報R(101010)を生成する。   Using the above method, Rk is also calculated for the remaining pixels. And the order information R (101010) shown to the referential mark 102 of FIG. 10 is produced | generated by connecting the calculated magnitude relationship Rk in order.

尚、図10の例では画像データIに含まれる一部の画素対IPに対してランダムに選択したものに対して大小関係Rkを算出し、順序情報Rとして出力するようとして説明したが、全ての画素対IPに対して大小関係Rkを算出するものであっても構わない。   In the example of FIG. 10, the magnitude relationship Rk is calculated and output as the order information R for a part of the pixel pairs IP included in the image data I selected at random. The magnitude relationship Rk may be calculated for each pixel pair IP.

また、全ての画素対IPに対して大小関係Rkを算出し、順序情報Rとして出力する場合、擬似乱数生成部81は必ずしも必要ではなく、擬似乱数RNDを用いて画素対を選択する代わりに、予め決めたらた順に従って、全ての画素対を選択するようにすれば良い。   Further, when calculating the magnitude relation Rk for all the pixel pairs IP and outputting them as the order information R, the pseudo-random number generation unit 81 is not necessarily required. Instead of selecting a pixel pair using the pseudo-random number RND, All the pixel pairs may be selected according to a predetermined order.

また、本実施形態では、画素対IPとして2つの画素を選択するものとして説明するが、本発明はこれに限定されることなくN(>2)個の画素を選択し画素対IPとしても良い。この場合、画素対選択部82でN個の画素から構成される画素対IPを選択し、画素値比較部83ではN個の画素値の大小関係を算出し、順序情報Rとして出力するようにする。一般的に、N個の画素値の大小関係はN!通りあり得るため、一つの画素対IPの大小関係RkとしてはN!を表現し得るビット長で順序情報を構成するようにする。例えば、N=3の場合は画素値の大小関係として3!=6通りの場合があり得るため、3ビットで大小関係Rkを表現するようにすれば良い。   In the present embodiment, the description will be made on the assumption that two pixels are selected as the pixel pair IP. However, the present invention is not limited to this, and N (> 2) pixels may be selected as the pixel pair IP. . In this case, the pixel pair selection unit 82 selects a pixel pair IP composed of N pixels, and the pixel value comparison unit 83 calculates the magnitude relationship of the N pixel values and outputs the result as order information R. To do. In general, the magnitude relationship of N pixel values is N! Since there is a possibility, the magnitude relationship Rk of one pixel to IP is N! The order information is configured with a bit length capable of expressing. For example, when N = 3, the pixel value is 3! Since there may be 6 cases, the magnitude relationship Rk may be expressed by 3 bits.

ここで、式1を用いた場合、算出される大小関係Rkは「0」か「1」が存在するため1ビットで表現可能である。しかし、例えば以下のような式(2)を用いた場合、算出される大小関係Rkは、「0」、「1」、「2」の3通りが存在するため2ビットで表現する必要がある。つまり、式(1)を用いる場合に比べて式(2)を用いる場合は情報量が多くなってしまう。一方で、大小関係を厳密に表現できるため、より正確な検証が可能となる。
if c(i)<c(j) then Rk=0
if c(i)>c(j) then Rk=1
else Rk=2 …(2)
Here, when Expression 1 is used, the calculated magnitude relationship Rk can be expressed by 1 bit because “0” or “1” exists. However, for example, when the following equation (2) is used, the calculated magnitude relationship Rk needs to be expressed by 2 bits because there are three types of “0”, “1”, and “2”. . That is, the amount of information increases when using equation (2) compared to when using equation (1). On the other hand, since the magnitude relationship can be expressed precisely, more accurate verification is possible.
if c (i) <c (j) then Rk = 0
if c (i)> c (j) then Rk = 1
else Rk = 2 (2)

上記を平たく言えば、順序情報算出部212は、入力された画像データから、予め設定された乱数にしたがってN画素(Nは2以上の整数)を選択する度に、選択したN画素中の第1乃至第Nの画素の各画素値の大小関係を特定する情報を第2の検証対象情報として生成する第2の生成部と言える。   Speaking of the above, each time the order information calculation unit 212 selects N pixels (N is an integer of 2 or more) from the input image data according to a preset random number, It can be said that the second generation unit generates information for specifying the magnitude relationship between the pixel values of the 1st to Nth pixels as the second verification target information.

以上、本実施形態における順序情報算出部212の詳細について説明した。   The details of the order information calculation unit 212 in the present embodiment have been described above.

引き続き、図2(B)に戻って説明を続ける。検証データ生成部213は、境界情報算出部211で生成された境界情報B、及び順序情報算出部212で生成された順序情報Rを入力し、入力した境界情報B、及び順序情報Rから検証データS(BR)を生成し、後段の画像出力部214に出力する。   Subsequently, returning to FIG. 2B, the description will be continued. The verification data generation unit 213 receives the boundary information B generated by the boundary information calculation unit 211 and the order information R generated by the order information calculation unit 212, and verifies the verification data from the input boundary information B and the order information R. S (BR) is generated and output to the subsequent image output unit 214.

本実施形態における検証データとしては、MAC(Message Authentication Code)や電子署名などが適用可能である。尚、MAC及び電子署名の生成方法については当業者にとって公知の技術であるので詳細な説明は省略する。電子署名やMACの対象となるデータは、例えば図10の参照符号103に示すような構成とする。本実施形態では、順序情報Rは、ハッシュなどを利用して情報量を少なくし、境界情報Bに関してはそのままの情報として、まとめて電子署名やMACを適用する。本実施形態では、順序情報Rに関して情報量を少なくするようにしたが、これに限定することなく例えばそのままのデータに電子署名やMACを適用してもよい。   As verification data in the present embodiment, a MAC (Message Authentication Code), an electronic signature, or the like is applicable. The MAC and electronic signature generation method is a technique known to those skilled in the art, and a detailed description thereof will be omitted. The data that is the subject of the electronic signature or MAC is configured as shown by reference numeral 103 in FIG. 10, for example. In the present embodiment, the order information R uses a hash or the like to reduce the amount of information, and the boundary information B is applied as it is to the digital signature or MAC as it is. In the present embodiment, the amount of information regarding the order information R is reduced. However, the present invention is not limited to this, and for example, an electronic signature or MAC may be applied to the data as it is.

検証データとしてMACを適用する場合には、MACを生成するための秘密情報を、署名鍵KSとして入力するようにし、MACを生成する際に利用する。署名鍵KSは画像入力装置11と後述する画像検証装置12とで共有しておく必要がある。このため、予め画像入力装置11内部のROM21、及び画像検証装置12内部のROM34に共通の秘密情報を保持しておき、検証データ生成部213が必要に応じて当該秘密情報を利用するようにする。或いは、ICカード等の耐タンパーな装置内部に署名鍵KSを保持しておき、当該ICカードを画像入力装置11及び画像検証装置12に接続するようにし、検証データ生成部213がICカード内部から署名鍵KSを取得して利用するようにしても良い。或いは、画像入力装置11の内部で新たに秘密情報を発生させ、発生した秘密情報を署名鍵KSとして利用するようにしても良い。この場合、発生した秘密秘密情報はICカード等の耐タンパーな装置内部に保持したり、或いは暗号化を施した後画像検証装置12へ送信するようにすれば良い。   When the MAC is applied as the verification data, secret information for generating the MAC is input as the signature key KS and used when generating the MAC. The signature key KS needs to be shared between the image input device 11 and an image verification device 12 described later. For this reason, common secret information is held in advance in the ROM 21 in the image input apparatus 11 and the ROM 34 in the image verification apparatus 12 so that the verification data generation unit 213 uses the secret information as necessary. . Alternatively, the signature key KS is held inside a tamper-resistant device such as an IC card, and the IC card is connected to the image input device 11 and the image verification device 12, and the verification data generation unit 213 is connected from the inside of the IC card. The signature key KS may be acquired and used. Alternatively, new secret information may be generated inside the image input apparatus 11 and the generated secret information may be used as the signature key KS. In this case, the generated secret secret information may be stored in a tamper-resistant device such as an IC card or transmitted to the image verification device 12 after being encrypted.

一方、検証データとして電子署名を適用する場合には、電子署名を生成するための秘密鍵を、署名鍵KSとして入力するようにする。このため、予め画像入力装置11内部のROM21に署名鍵KSを保持しておき、検証データ生成部213が必要に応じて当該署名鍵KSを利用するようにする。或いは、ICカード等の耐タンパーな装置内部に署名鍵KSを保持しておき、当該ICカードを画像入力装置11に接続するようにし、検証データ生成部213がICカード内部から署名鍵KSを取得して利用するようにしても良い。或いは、画像入力装置11の内部で新たに署名鍵KSを発生させ、発生した署名鍵KSを利用するようにしても良い。また、何れの場合においても、検証データ生成部213が利用した署名鍵KSに対応する公開鍵が、後述する画像検証装置12の内部で必要となる。このため、後段の画像出力部214において、署名鍵KSに対応する公開鍵を画像データに付加して、画像検証装置12へ送信するようにする。或いは、不図示のサーバ上に公開鍵を保持しておき、当該サーバ上の公開鍵の保持位置を示す情報(URLなど)を画像データに記録するようにしておく。そして、画像検証装置12は当該保持位置を示す情報を用いることにより、必要に応じて公開鍵をサーバから取得するようにしても良い。   On the other hand, when an electronic signature is applied as verification data, a secret key for generating an electronic signature is input as a signature key KS. For this reason, the signature key KS is held in advance in the ROM 21 in the image input apparatus 11 so that the verification data generation unit 213 uses the signature key KS as necessary. Alternatively, the signature key KS is held inside a tamper-resistant device such as an IC card, and the IC card is connected to the image input device 11, and the verification data generation unit 213 acquires the signature key KS from the inside of the IC card. You may make it use it. Alternatively, a new signature key KS may be generated inside the image input apparatus 11 and the generated signature key KS may be used. In any case, a public key corresponding to the signature key KS used by the verification data generation unit 213 is required inside the image verification apparatus 12 described later. Therefore, the subsequent image output unit 214 adds the public key corresponding to the signature key KS to the image data and transmits the image data to the image verification apparatus 12. Alternatively, a public key is held on a server (not shown), and information (such as a URL) indicating a public key holding position on the server is recorded in the image data. Then, the image verification apparatus 12 may acquire the public key from the server as necessary by using information indicating the holding position.

画像出力部214は、前段の画像発生部210から出力された画像データI、及び検証データ生成部213から出力された検証データS(BR)を入力し、検証データS(BR)を画像データIに付加して出力する。なお、本実施形態では付加方法として、Exifなどでフォーマット化されている画像データIのヘッダ中に検証データS(BR)を記録する。しかしながら本発明はこれに限定されることなく、画像データIに検証データS(BR)を連結するようにしても良いし、そのフォーマットは如何なるものでも構わない。画像出力部214は、画像データIをリムーバブルメディア等の記憶媒体に記録したり、或いは、有線/無線のネットワークを介して所定のホストへ送信したりする。以上、本実施形態における画像入力装置11の構成について説明した。   The image output unit 214 receives the image data I output from the previous image generation unit 210 and the verification data S (BR) output from the verification data generation unit 213, and the verification data S (BR) is input to the image data I. To be output. In the present embodiment, as an addition method, verification data S (BR) is recorded in the header of image data I formatted by Exif or the like. However, the present invention is not limited to this, and the verification data S (BR) may be connected to the image data I, and any format may be used. The image output unit 214 records the image data I on a storage medium such as a removable medium, or transmits it to a predetermined host via a wired / wireless network. The configuration of the image input device 11 in the present embodiment has been described above.

<撮影処理のフロー>
以下、図11のフローチャートを用いて本実施形態における画像入力装置11で実行される撮影処理のフローを説明する。図11は本実施形態に適用可能な撮影処理の流れを示すフローチャートである。
<Flow of shooting process>
Hereinafter, the flow of the photographing process executed by the image input apparatus 11 in the present embodiment will be described using the flowchart of FIG. FIG. 11 is a flowchart showing a flow of photographing processing applicable to this embodiment.

まず、ユーザからの撮影指示に従って画像発生部210を用いて画像データIを撮影する(S111)。次に、境界情報算出部211において境界情報Bを算出し(S112)、擬似乱数生成部81で生成された擬似乱数RNDを用いて画素対選択部82において画素対IPを選択し(S113)、画素値比較部83を用いて画素対IPの順序情報Rを算出する(S114)。そして、検証データ生成部213を用いて、順序情報Rに対する検証データS(BR)を生成し(S115)、最終的に画像出力部214から、検証データS(BR)が付加された画像データを出力する(S116)。以上、本実施形態における撮影処理のフローについて説明した。   First, the image data I is imaged using the image generation unit 210 in accordance with an imaging instruction from the user (S111). Next, the boundary information calculation unit 211 calculates boundary information B (S112), the pixel pair selection unit 82 selects the pixel pair IP using the pseudorandom number RND generated by the pseudorandom number generation unit 81 (S113), The pixel value comparison unit 83 is used to calculate the order information R of the pixel pair IP (S114). Then, the verification data generation unit 213 is used to generate verification data S (BR) for the order information R (S115), and finally the image data to which the verification data S (BR) is added is output from the image output unit 214. Output (S116). The shooting process flow according to the present embodiment has been described above.

<画像検証装置の構成>
以下、図3(B)を用いて本実施形態に適用される画像検証装置12の機能構成を説明する。尚、以下の説明では、前述したホストコンピュータ12に電源が投入され、OSが作業メモリ35にロードされ、検証処理アプリケーションプログラムも作業メモリ35に実行されているものとする。
<Configuration of image verification device>
Hereinafter, the functional configuration of the image verification apparatus 12 applied to the present embodiment will be described with reference to FIG. In the following description, it is assumed that the above-described host computer 12 is powered on, the OS is loaded into the work memory 35, and the verification processing application program is also executed in the work memory 35.

図3(B)に示すように、本実施形態における画像検証装置12は、画像入力部316、順序情報算出部317、及び検証部318から構成される。尚、ここで説明する画像検証処理はソフトウェア処理により実現されても良い。その場合には、上記各部は上記処理に必要な機能を概念的なものとして捉えたものと考慮されるべきものである。   As shown in FIG. 3B, the image verification apparatus 12 in this embodiment includes an image input unit 316, an order information calculation unit 317, and a verification unit 318. Note that the image verification processing described here may be realized by software processing. In that case, each of the above sections should be considered as a conceptual view of the functions necessary for the above processing.

画像入力部316は、画像データI’を入力する。画像データI’がリムーバブルメディア、及び/或いはネットワーク等を介して入力されると考えると理解し易い。また、画像入力部316は、入力した画像データI’のヘッダを解析し、付加されている検証データS(BR)を抽出(もしくは分離)し、抽出した検証データS(BR)を検証部318に出力する。   The image input unit 316 inputs image data I ′. It is easy to understand that the image data I 'is input via a removable medium and / or a network. Further, the image input unit 316 analyzes the header of the input image data I ′, extracts (or separates) the added verification data S (BR), and verifies the extracted verification data S (BR). Output to.

順序情報算出部317は、前段の画像入力部316からの画像データI’、及び、ROM34からの乱数初期値KRを入力し、入力された画像データI’、乱数初期値KRから順序情報R’を生成し、生成された順序情報R’を出力する。尚、本実施形態においては順序情報算出部317の内部で実行される順序情報算出処理は、前述した図2(B)における順序情報算出部212の内部で実行される順序情報算出処理と同様の処理であるため、ここでの説明は省略する。   The order information calculation unit 317 inputs the image data I ′ from the previous image input unit 316 and the random number initial value KR from the ROM 34, and the order information R ′ from the input image data I ′ and the random number initial value KR. And the generated order information R ′ is output. In the present embodiment, the order information calculation process executed inside the order information calculation unit 317 is the same as the order information calculation process executed inside the order information calculation unit 212 in FIG. Since it is a process, description here is abbreviate | omitted.

検証部318は、前段の順序情報算出部317で生成された順序情報R’、画像入力部316で抽出された検証データS(BR)、画像データI’及び検証鍵KSを入力する。そして、入力されたデータを用いて画像データI’が改竄されているか否かを検証し、検証結果(OK/NG)を出力する。   The verification unit 318 inputs the order information R ′ generated by the previous order information calculation unit 317, the verification data S (BR) extracted by the image input unit 316, the image data I ′, and the verification key KS. Then, it is verified whether or not the image data I 'has been tampered with using the input data, and a verification result (OK / NG) is output.

ここで本実施形態における検証部318の詳細について図12を用いて説明する。図12に示すように本実施形態における検証部318は、復号部121、第1の検証部122、第2の検証部123から構成される。   Details of the verification unit 318 in this embodiment will be described with reference to FIG. As shown in FIG. 12, the verification unit 318 in this embodiment includes a decoding unit 121, a first verification unit 122, and a second verification unit 123.

復号部121は、入力された検証データS(BR)を、同じく入力された検証鍵KSで復号する。その結果得られた、境界情報B、及び順序情報R(ハッシュなどを利用して情報量を少なくしたもの)をそれぞれ第1の検証部122、第2の検証部123へ出力する。尚、復号部121で実行される処理は、前述した検証データ生成部213に対応するものでなければならない。即ち、検証データ生成部213においてMACが生成された場合、検証鍵KSは、MACの場合は検証データ生成部213で適用された署名鍵KSと同一の秘密情報を適用し、電子署名の場合は検証データ生成部213で適用された署名鍵KSに対応する公開鍵であると考慮されるべきものである。復号に失敗した場合は、NGを出力する。   The decryption unit 121 decrypts the input verification data S (BR) with the input verification key KS. As a result, the boundary information B and the order information R (the information amount reduced by using a hash or the like) are output to the first verification unit 122 and the second verification unit 123, respectively. Note that the processing executed by the decryption unit 121 must correspond to the verification data generation unit 213 described above. That is, when the verification data generation unit 213 generates a MAC, the verification key KS applies the same secret information as the signature key KS applied by the verification data generation unit 213 in the case of MAC, and in the case of an electronic signature. The public key corresponding to the signature key KS applied by the verification data generation unit 213 should be considered. If decryption fails, NG is output.

第1の検証部122は、前段の復号部121で得られた境界情報Bを入力し、境界情報Bをもとに、画像データI’の検証を行い、その検証結果(OK/NG)を出力する。第1の検証部122は、前段の復号部121で得られた境界情報Bを参照し、まず、境界情報Bが存在するか否かを検査する。境界情報が存在しない場合、つまり本実施形態では境界情報Bの先頭が0の場合は、検証結果(OK)を出力し、境界情報が存在する場合、つまり境界情報Bの先頭が1の場合は、同じ境界値を持つ画素の位置情報と、同値となる位置情報の数の関係を検査する。その結果、境界情報Bに示されている、特定の位置情報に関して画素値が同等であると判断できた場合は検証結果(OK)を出力する。逆に、特定の位置情報に関して画素値が同等でないと判断できた場合は画像が改竄されていると判断し、検証結果(NG)を出力する。   The first verification unit 122 receives the boundary information B obtained by the preceding decoding unit 121, verifies the image data I ′ based on the boundary information B, and outputs the verification result (OK / NG). Output. The first verification unit 122 refers to the boundary information B obtained by the preceding decoding unit 121 and first checks whether the boundary information B exists. When the boundary information does not exist, that is, when the head of the boundary information B is 0 in this embodiment, the verification result (OK) is output. When the boundary information exists, that is, when the head of the boundary information B is 1. The relationship between the position information of pixels having the same boundary value and the number of position information having the same value is examined. As a result, if it can be determined that the pixel values are the same for the specific position information indicated in the boundary information B, a verification result (OK) is output. On the contrary, if it can be determined that the pixel values are not equivalent with respect to the specific position information, it is determined that the image has been tampered with, and a verification result (NG) is output.

ここで、本実施形態における第1の検証部122の詳細について図13を用いて説明する。ここで、第1の検証部122に入力される境界情報Bは前述した図6における参照符号64とし、画像データI’は図13の参照符号131とする。画像データI’131の網掛け部分は、境界情報Bに含まれた位置情報を表している。入力された境界情報Bについてみると、同値となる位置情報の数は4つであり、その位置情報はそれぞれ、C(7)、C(8)、C(13)、C(14)であることがわかる。したがって、画像データI’131の画素C(7)、C(8)、C(13)、C(14)の画素値を調べてみると、全て199となる。よって、境界情報Bに示された位置情報の画素値は同値であると判断できる。境界情報Bに関して全て境界画素値についての検証を行い各位置情報に関して画素値が同値であると判断できた場合、第1の検証部122は検証結果(OK)を出力する。例えば画像データ132に示すように、C(13)の画素値が200であり、C(7)、C(8)、C(14)の画素値が199のような場合は、C(7)、C(8)、C(13)、C(14)の画素値が同値でないため、境界情報Bの内容と異なり、第1の検証部122は検証結果(NG)を出力する。以上、本実施形態における第1の検証部の詳細について説明した。   Here, details of the first verification unit 122 in the present embodiment will be described with reference to FIG. Here, the boundary information B input to the first verification unit 122 is the reference numeral 64 in FIG. 6 described above, and the image data I ′ is the reference numeral 131 in FIG. 13. The shaded portion of the image data I ′ 131 represents the position information included in the boundary information B. As for the input boundary information B, there are four pieces of position information having the same value, and the position information is C (7), C (8), C (13), and C (14), respectively. I understand that. Therefore, when the pixel values of the pixels C (7), C (8), C (13), and C (14) of the image data I'131 are examined, all become 199. Therefore, it can be determined that the pixel values of the position information indicated by the boundary information B are the same value. When all the boundary pixel values are verified with respect to the boundary information B and it can be determined that the pixel values are the same for each position information, the first verification unit 122 outputs a verification result (OK). For example, as shown in the image data 132, when the pixel value of C (13) is 200 and the pixel values of C (7), C (8), and C (14) are 199, C (7) , C (8), C (13), and C (14) pixel values are not the same, and therefore different from the content of the boundary information B, the first verification unit 122 outputs a verification result (NG). The details of the first verification unit in the present embodiment have been described above.

<第1の検証処理のフロー>
以下、図14のフローチャートを用いて本実施形態における第1の検証部122で実行される第1の検証処理のフローを説明する。
<First verification processing flow>
Hereinafter, the flow of the first verification process executed by the first verification unit 122 in this embodiment will be described using the flowchart of FIG.

まず、復号部121で復号された境界情報B、及び画像データI’を入力し(S161)、入力された境界情報Bから、境界情報が存在するか否かを検査する(S142)。境界情報が存在しない場合は検証成功と判断し(S146)、境界情報が存在する場合は、境界情報の検証を行う。続いて入力された境界情報Bから同値となる位置情報の数を抽出し(S143)、同じ境界値を持つ画素の位置情報を抽出する(S144)。抽出した、同値となる位置情報の数、及び同じ境界値を持つ画素の位置情報において全ての画素値が同値であるかどうかを検証する(S145)。位置情報に関する画素値が同値であれば、検証成功(S146)、そうでなければ検証失敗(S147)として出力する。以上、本実施形態における第1の検証処理のフローについて説明した。   First, the boundary information B and image data I ′ decoded by the decoding unit 121 are input (S161), and it is checked from the input boundary information B whether boundary information exists (S142). If the boundary information does not exist, it is determined that the verification is successful (S146). If the boundary information exists, the boundary information is verified. Subsequently, the number of position information having the same value is extracted from the input boundary information B (S143), and the position information of pixels having the same boundary value is extracted (S144). It is verified whether or not all pixel values are the same in the extracted number of pieces of position information having the same value and the position information of the pixels having the same boundary value (S145). If the pixel values related to the position information are the same, the verification is successful (S146), otherwise the verification is failed (S147). The flow of the first verification process in the present embodiment has been described above.

第2の検証部123は、入力された順序情報R’、及び前段の復号部121で抽出された順序情報Rを入力し、検証結果(OK/NG)を出力する。具体的には、入力された順序情報R’と順序情報Rを比較し、一致していれば検証結果(OK)する。入力された順序情報Rが検証データ生成時にハッシュなどを利用して情報量を少なくしている場合は、第2の検証部でも同様の処理を行って比較し、検証結果(OK/NG)を出力する。   The second verification unit 123 inputs the input order information R ′ and the order information R extracted by the preceding decoding unit 121, and outputs a verification result (OK / NG). Specifically, the inputted order information R ′ and the order information R are compared, and if they match, a verification result (OK) is obtained. If the input order information R reduces the amount of information using a hash or the like when generating verification data, the second verification unit performs the same processing and compares the result, and the verification result (OK / NG) is obtained. Output.


<画像検証処理のフロー>
以下、図15のフローチャートを用いて本実施形態における画像検証装置12で実行される画像検証処理のフローを説明する。

<Flow of image verification processing>
Hereinafter, the flow of image verification processing executed by the image verification apparatus 12 according to the present embodiment will be described with reference to the flowchart of FIG.

まず、画像入力部316が画像データI’を入力する(S151)。次に、擬似乱数生成部81で生成された擬似乱数RNDを用いて画素対選択部82において画素対IPを選択し(S152)、画素値比較部83を用いて選択した画素対IPの順序情報Rを算出する(S153)。そして、復号部121において復号処理を実行する(S154)。そして、復号に成功したか否かを判定する(S155)。復号処理に成功した場合は第1の検証処理に進み(S156;第1の判定処理)、さもなければ検証失敗とする(S1511)。第1の検証処理(S156)では、画像入力装置と同じように、画像データ内に実在する画素値の中で、非実在の画素値との差が予め設定された閾値以下となる画素値を検出し、検出に成功したか否か、並びに、検出に成功した場合には検出に成功した画素値を有する画素の位置を抽出する。そして、S157にて、抽出した情報と、復号して得られた検証データ内の境界情報Bと比較し、検証が成功したか否か(一致するか否か)を判定する。検証結果が検証成功である場合には処理を第2の検証処理に進め(S158;第2の判定処理)、さもなければ検証失敗とする(S1511)。第2の検証処理(S158)では、入力した画像データから、画像入力装置と同じ乱数にしたがって2画素を選択し、その2画素の大小関係を特定する情報を作成していく。そして、その情報のハッシュ値を求め、その値と、復号して得られた検証データ内の順序情報Rのハッシュ値と比較し、検証が成功したか否かを判定する(S159)。検証成功である場合、すなわち、境界情報B、及び、順序情報Rの両方が、復号して得られたそれぞれの情報と一致する場合、画像の検証は成功(改竄無し)と判定する。また、少なくともいずれか一方が不一致であった場合、S1511にて、検証は失敗(改竄有り)と判定して処理を終了する。以上、本実施形態における画像検証処理のフローについて説明した。   First, the image input unit 316 inputs image data I '(S151). Next, the pixel pair IP is selected by the pixel pair selection unit 82 using the pseudo random number RND generated by the pseudo random number generation unit 81 (S152), and the order information of the pixel pair IP selected using the pixel value comparison unit 83 is selected. R is calculated (S153). Then, the decoding unit 121 executes a decoding process (S154). Then, it is determined whether or not the decoding is successful (S155). If the decoding process is successful, the process proceeds to the first verification process (S156; first determination process), otherwise the verification is failed (S1511). In the first verification process (S156), as in the case of the image input device, among pixel values existing in the image data, pixel values whose difference from the non-existing pixel values is equal to or less than a preset threshold value. Detection is performed, and whether or not the detection is successful, and if the detection is successful, the position of the pixel having the pixel value that has been successfully detected is extracted. In step S157, the extracted information is compared with the boundary information B in the verification data obtained by decoding, and it is determined whether the verification is successful (whether they match). If the verification result is a verification success, the process proceeds to the second verification process (S158; second determination process); otherwise, the verification is failed (S1511). In the second verification process (S158), two pixels are selected from the input image data according to the same random number as the image input device, and information for specifying the magnitude relationship between the two pixels is created. Then, the hash value of the information is obtained, and the value is compared with the hash value of the order information R in the verification data obtained by decryption to determine whether or not the verification is successful (S159). If the verification is successful, that is, if both the boundary information B and the order information R match the respective information obtained by decoding, it is determined that the image verification is successful (no tampering). If at least one of them does not match, in S1511 it is determined that the verification has failed (has falsification), and the process ends. The flow of the image verification process in the present embodiment has been described above.

<改竄方法の一例>
以下、本発明によって対抗可能な改竄方法の一例について説明する。ここで説明する改竄方法とは、境界値となる画素を欠落画素値に改竄するような攻撃である。例えば、下記の式3を用いて順序情報を生成するとする。
if c(i)≧ c(j) then Rk=0 else Rk=1 …(3)
このような場合、「0」と「1」の2値で順序情報Rを構成することが可能であるが、以下に説明する攻撃が可能である。
<Example of tampering method>
Hereinafter, an example of a tampering method that can be countered by the present invention will be described. The falsification method described here is an attack that falsifies a pixel serving as a boundary value to a missing pixel value. For example, it is assumed that the order information is generated using the following Expression 3.
if c (i) ≧ c (j) then Rk = 0 else Rk = 1 (3)
In such a case, it is possible to configure the order information R with binary values of “0” and “1”, but an attack described below is possible.

図16に示す参照符号161は入力された画像データを示している。ここで、画像データ161に示す網掛け部は境界画素値を示している。このとき、画像データ161中の画素(2, 2)に対してすべての画素に対する順序情報を生成すると、参照符号162に示すような順序情報のマップが生成される。更に、画像データ161を参照符号163に示すような画像データに改竄する。このとき改竄する内容は、画像データ163に示された斜線部分に対応の境界画素値200を欠落画素値である“176”に変更するものとする。このときに、画像データ161と同様に、画像データに示すような画像データ中の画素(2, 2)に対して全ての画素に対する順序情報を生成する。すると、参照符号164に示すような順序情報のマップが生成される。生成された順序情報のマップを確認すると、斜線部分の順序情報は、「0」であり前述した順序情報のマップ162と比較すると同じマップになってしまう。このように式(3)を用いたような順序情報が「0」、「1」の2値で表現できるような場合は、境界画素値の画素値を欠落画素値の値に変更する攻撃が可能である。   Reference numeral 161 shown in FIG. 16 indicates input image data. Here, the shaded portion shown in the image data 161 indicates the boundary pixel value. At this time, when order information for all the pixels is generated for the pixel (2, 2) in the image data 161, a map of order information as indicated by reference numeral 162 is generated. Further, the image data 161 is altered to image data as indicated by reference numeral 163. In this case, the content to be altered is to change the boundary pixel value 200 corresponding to the hatched portion shown in the image data 163 to “176” which is the missing pixel value. At this time, as with the image data 161, order information for all the pixels is generated for the pixel (2, 2) in the image data as shown in the image data. Then, a map of order information as indicated by reference numeral 164 is generated. When the generated map of the order information is confirmed, the order information in the hatched portion is “0”, which is the same map as compared with the order information map 162 described above. Thus, when the order information using Equation (3) can be expressed by binary values of “0” and “1”, an attack to change the pixel value of the boundary pixel value to the value of the missing pixel value is performed. Is possible.

しかして、本実施形態では、境界情報算出部によって境界情報を算出し、境界情報を検証側に送付する。そうすることによって、境界画素値が欠落画素値に変更された場合においても、境界画素値に関しては、全てが同じ画素値にならなければならないため前述した問題を検知することが可能となる。以上、本発明によって対抗可能な改竄方法の一例について説明した。   Therefore, in this embodiment, boundary information is calculated by the boundary information calculation unit, and the boundary information is sent to the verification side. By doing so, even when the boundary pixel value is changed to a missing pixel value, all of the boundary pixel values must be the same pixel value, so that the above-described problem can be detected. In the above, an example of the falsification method which can be countered by this invention was demonstrated.

以上説明したように、本実施形態によれば、画像発生部210において発生した画像データIに対する検証データに、境界情報B(境界値の数とその位置情報)と順序情報Rを加えている。これにより、画像データIが画像再現処理を実行した場合においても、検証処理を成功させることが可能である。特に境界情報Bを検証データに加えることによって、境界値となる画素を欠落画素値に改竄するような攻撃に対しても、改竄を検知することが可能となっている。これは、境界値となる値の位置に関する情報を持つことによって、境界値の一部のみを変更できないようにしているためである。   As described above, according to the present embodiment, the boundary information B (the number of boundary values and their position information) and the order information R are added to the verification data for the image data I generated by the image generation unit 210. Thereby, even when the image data I performs the image reproduction process, the verification process can be made successful. In particular, by adding the boundary information B to the verification data, it is possible to detect falsification against an attack that falsifies a pixel serving as a boundary value to a missing pixel value. This is because only a part of the boundary value cannot be changed by having information on the position of the value that becomes the boundary value.

ところで、本発明は上述した効果以外に、順序情報を2値で表現することが重要である。上述した攻撃方法に関しては、順序情報を3値で表現することでも対抗できるが、情報量を考慮した場合、順序情報を2値で表現し、境界情報を付加した場合のほうが少ない情報量で処理することを可能としている。   Incidentally, in the present invention, in addition to the effects described above, it is important to express the order information in binary. The attack method described above can be countered by expressing the order information as ternary values. However, if the amount of information is taken into consideration, the order information is expressed as binary values and the boundary information is added. It is possible to do.

また、実施形態では、画像入力装置11としてデジタルカメラを例にしたが、イメージスキャナであっても構わないし、撮像手段を接続或いは収容した情報処理装置でも構わない。また、実施形態では、1画素が1成分であり、成分値は8ビットであることを前提にして説明したが、1画素が複数成分であっても構わないし、8ビットを超えるビット数で表現される場合にも適用できる。1画素が複数成分で表わされている場合、各成分について上記の実施形態を適用すればよいからである。   In the embodiment, a digital camera is taken as an example of the image input device 11. However, an image scanner may be used, and an information processing device with an imaging unit connected or accommodated may be used. Further, in the embodiment, the description has been made on the assumption that one pixel is one component and the component value is 8 bits. However, one pixel may be a plurality of components, and is expressed by the number of bits exceeding 8 bits. It can also be applied to This is because when one pixel is represented by a plurality of components, the above embodiment may be applied to each component.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (9)

画像データの原本性を保証するための検証データを、前記画像データから生成する情報処理装置であって、
原本性の保証対象とする画像データを入力する画像入力手段と、
該画像入力手段によって入力された前記画像データ内に実在する画素値の中で、非実在の画素値との差が予め設定された閾値以下となる画素値を検出し、検出に成功したか否かを示す情報、及び、検出に成功した場合には検出に成功した画素値を有する画素の位置を特定する情報とを第1の検証対象情報として生成する第1の生成手段と、
前記画像入力手段によって入力された前記画像データから、予め設定された乱数にしたがってN画素(Nは2以上の整数)を選択する度に、選択したN画素中の第1乃至第Nの画素の各画素値の大小関係を特定する情報を第2の検証対象情報として生成する第2の生成手段と、
前記第1の検証対象情報、及び、前記第2の検証対象情報を用いて、前記画像入力手段によって入力された前記画像データの検証データを生成する検証データ生成手段と、
該検証データ生成手段で生成された検証データを、前記画像入力手段によって入力された前記画像データと共に出力する画像出力手段と
を備えることを特徴とする情報処理装置。
An information processing apparatus for generating verification data for assuring the originality of image data from the image data,
Image input means for inputting image data to be guaranteed for originality;
Whether the pixel value that is different from the non-existent pixel value is less than or equal to a preset threshold value among the actual pixel values input in the image data input by the image input unit and has been detected successfully First generation means for generating, as first verification target information, information indicating whether or not, and information for specifying a position of a pixel having a pixel value that has been successfully detected when detection is successful;
Each time N pixels (N is an integer of 2 or more) are selected from the image data input by the image input unit according to a preset random number, the first to Nth pixels of the selected N pixels are selected. Second generation means for generating, as second verification target information, information specifying the magnitude relationship of each pixel value;
Verification data generation means for generating verification data of the image data input by the image input means using the first verification target information and the second verification target information;
An information output apparatus comprising: an image output unit that outputs the verification data generated by the verification data generation unit together with the image data input by the image input unit.
前記第1の生成手段は、前記非実在の画素値との差が1である、実在する画素値を検出し、
前記第2の生成手段は、前記画像データから、前記予め設定された乱数にしたがって2つの画素を選択することを特徴とする請求項1に記載の情報処理装置。
The first generation means detects an existing pixel value having a difference of 1 from the non-existing pixel value;
The information processing apparatus according to claim 1, wherein the second generation unit selects two pixels from the image data according to the preset random number.
前記画像入力手段は、撮像手段であることを特徴とする請求項1又は2に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the image input unit is an imaging unit. 請求項1に記載の情報処理装置で生成された画像データと検証データとに基づき、前記画像データの改竄の有無を検証する検証装置であって、
検証対象の画像データと、当該画像データのための検証データとを入力する入力手段と、
該入力手段で入力した前記画像データ内に実在する画素値の中で、非実在の画素値との差が予め設定された閾値以下となる画素値を検出し、検出に成功したか否か、並びに、検出に成功した場合には検出に成功した画素値を有する画素の位置が、前記入力手段で入力した検証データに含まれる第1の検証対象情報と一致するか否かを判定する第1の判定手段と、
前記入力手段によって入力された前記画像データから、予め設定された乱数にしたがってN画素(Nは2以上の整数)を選択して得られたN画素中の第1乃至第Nの画素の各画素値の大小関係を特定する情報と、前記入力手段で入力した検証データに含まれる第2の検証対象情報とが一致するか否かを判定する第2の判定手段と、
前記第1の判定手段、及び、前記第2の判定手段の両方の判定の結果が一致することを示す場合、前記入力手段で入力した画像データは改竄無しとして判定し、前記第1の判定手段、及び、前記第2の判定手段の少なくとも一方の判定の結果が不一致を示す場合、前記入力手段で入力した画像データは改竄有りとして判定する検証手段と
を備えることを特徴とする検証装置。
A verification device that verifies the presence or absence of falsification of the image data based on image data and verification data generated by the information processing device according to claim 1,
Input means for inputting image data to be verified and verification data for the image data;
Among pixel values existing in the image data input by the input means, a pixel value whose difference from a non-existing pixel value is equal to or less than a preset threshold value is detected, and whether or not the detection has succeeded, In addition, when the detection is successful, a first determination is made as to whether or not the position of the pixel having the pixel value that has been successfully detected matches the first verification target information included in the verification data input by the input means. Determining means,
Each pixel of the first to Nth pixels among N pixels obtained by selecting N pixels (N is an integer of 2 or more) from the image data input by the input means according to a preset random number. Second determination means for determining whether or not the information for specifying the magnitude relationship between the values and the second verification target information included in the verification data input by the input means match;
When the determination results of both the first determination unit and the second determination unit indicate that they match, it is determined that the image data input by the input unit is not falsified, and the first determination unit And a verification unit that determines that the image data input by the input unit is falsified when the determination result of at least one of the second determination units indicates a mismatch.
画像データの原本性を保証するための検証データを、前記画像データから生成する情報処理装置の制御方法であって、
画像入力手段が、原本性の保証対象とする画像データを入力する画像入力工程と、
第1の生成手段が、該画像入力工程によって入力された前記画像データ内に実在する画素値の中で、非実在の画素値との差が予め設定された閾値以下となる画素値を検出し、検出に成功したか否かを示す情報、及び、検出に成功した場合には検出に成功した画素値を有する画素の位置を特定する情報とを第1の検証対象情報として生成する第1の生成工程と、
第2の生成手段が、前記画像入力工程によって入力された前記画像データから、予め設定された乱数にしたがってN画素(Nは2以上の整数)を選択する度に、選択したN画素中の第1乃至第Nの画素の各画素値の大小関係を特定する情報を第2の検証対象情報として生成する第2の生成工程と、
検証データ生成手段が、前記第1の検証対象情報、及び、前記第2の検証対象情報を用いて、前記画像入力工程によって入力された前記画像データの検証データを生成する検証データ生成工程と、
画像出力手段が、該検証データ生成工程で生成された検証データを、前記画像入力工程によって入力された前記画像データと共に出力する画像出力工程と
を有することを特徴とする情報処理装置の制御方法。
An information processing apparatus control method for generating verification data for guaranteeing originality of image data from the image data,
An image input step in which the image input means inputs image data to be guaranteed for originality;
The first generation means detects a pixel value whose difference from the non-existing pixel value is equal to or less than a preset threshold value among the actual pixel values input in the image data input by the image input step. First information that generates information indicating whether or not detection is successful, and information that specifies the position of a pixel having a pixel value that has been successfully detected as detection target information when detection is successful Generation process;
Each time the second generation unit selects N pixels (N is an integer of 2 or more) from the image data input in the image input step according to a preset random number, the second generation unit in the selected N pixels A second generation step of generating, as second verification target information, information that specifies the magnitude relationship between the pixel values of the first to Nth pixels;
A verification data generating unit that generates verification data of the image data input by the image input step using the first verification target information and the second verification target information; and
A method for controlling an information processing apparatus, comprising: an image output step in which image output means outputs the verification data generated in the verification data generation step together with the image data input in the image input step.
請求項1に記載の情報処理装置で生成された画像データと検証データとに基づき、前記画像データの改竄の有無を検証する検証装置の制御方法であって、
入力手段が、検証対象の画像データと、当該画像データのための検証データとを入力する入力工程と、
第1の判定手段が、該入力工程で入力した前記画像データ内に実在する画素値の中で、非実在の画素値との差が予め設定された閾値以下となる画素値を検出し、検出に成功したか否か、並びに、検出に成功した場合には検出に成功した画素値を有する画素の位置が、前記入力工程で入力した検証データに含まれる第1の検証対象情報と一致するか否かを判定する第1の判定工程と、
第2の判定手段が、前記入力工程によって入力された前記画像データから、予め設定された乱数にしたがってN画素(Nは2以上の整数)を選択して得られたN画素中の第1乃至第Nの画素の各画素値の大小関係を特定する情報と、前記入力工程で入力した検証データに含まれる第2の検証対象情報とが一致するか否かを判定する第2の判定工程と、
検証手段が、前記第1の判定工程、及び、前記第2の判定工程の両方の判定の結果が一致することを示す場合、前記入力工程で入力した画像データは改竄無しとして判定し、前記第1の判定工程、及び、前記第2の判定工程の少なくとも一方の判定の結果が不一致を示す場合、前記入力工程で入力した画像データは改竄有りとして判定する検証工程と
を有することを特徴とする検証装置の制御方法。
A control method for a verification device that verifies the presence or absence of falsification of the image data based on image data and verification data generated by the information processing device according to claim 1,
An input step in which the input means inputs image data to be verified and verification data for the image data;
The first determination means detects a pixel value in which the difference from the non-existing pixel value is equal to or less than a preset threshold value among the existing pixel values in the image data input in the input step. And whether or not the position of the pixel having the pixel value that has been successfully detected matches the first verification target information included in the verification data input in the input step. A first determination step of determining whether or not;
The first through the N pixels obtained by the second determination unit selecting N pixels (N is an integer of 2 or more) from the image data input in the input step according to a preset random number. A second determination step of determining whether or not the information specifying the magnitude relationship between the pixel values of the Nth pixel matches the second verification target information included in the verification data input in the input step; ,
When the verification means indicates that the determination results of both the first determination step and the second determination step match, it is determined that the image data input in the input step is not falsified, and the second And a verification step for determining that the image data input in the input step is falsified when the determination result of at least one of the first determination step and the second determination step indicates a mismatch. Control method of verification device.
画像データを入力する画像入力手段を有するコンピュータに読み込み込ませ実行させることで、前記コンピュータを、前記画像入力手段より入力した画像データの原本性を保証するための検証データを生成する情報処理装置として機能させる、プログラムであって、
前記コンピュータを、
該画像入力手段によって入力された前記画像データ内に実在する画素値の中で、非実在の画素値との差が予め設定された閾値以下となる画素値を検出し、検出に成功したか否かを示す情報、及び、検出に成功した場合には検出に成功した画素値を有する画素の位置を特定する情報とを第1の検証対象情報として生成する第1の生成手段、
前記画像入力手段によって入力された前記画像データから、予め設定された乱数にしたがってN画素(Nは2以上の整数)を選択する度に、選択したN画素中の第1乃至第Nの画素の各画素値の大小関係を特定する情報を第2の検証対象情報として生成する第2の生成手段、
前記第1の検証対象情報、及び、前記第2の検証対象情報を用いて、前記画像入力手段によって入力された前記画像データの検証データを生成する検証データ生成手段、
該検証データ生成手段で生成された検証データを、前記画像入力手段によって入力された前記画像データと共に出力する画像出力手段
として機能させることを特徴とするプログラム。
As an information processing apparatus for generating verification data for guaranteeing the originality of image data input from the image input means by causing a computer having image input means for inputting image data to be read and executed A functioning program,
The computer,
Whether the pixel value that is different from the non-existent pixel value is less than or equal to a preset threshold value among the actual pixel values input in the image data input by the image input unit and has been detected successfully First generation means for generating, as first verification target information, information indicating whether or not and information for specifying a position of a pixel having a pixel value that has been successfully detected when detection is successful,
Each time N pixels (N is an integer of 2 or more) are selected from the image data input by the image input unit according to a preset random number, the first to Nth pixels of the selected N pixels are selected. Second generation means for generating, as second verification target information, information that specifies the magnitude relationship of each pixel value;
Verification data generation means for generating verification data of the image data input by the image input means using the first verification target information and the second verification target information;
A program for causing verification data generated by the verification data generation means to function as image output means for outputting together with the image data input by the image input means.
検証対象の画像データと、当該画像データのための検証データとを入力する入力手段を有するコンピュータに読み込み込ませ実行させることで、前記コンピュータを、請求項1に記載の情報処理装置で生成された画像データと検証データとに基づき、前記画像データの改竄の有無を検証する検証装置として機能させるプログラムであって、
前記コンピュータを、
前記入力手段で入力した前記画像データ内に実在する画素値の中で、非実在の画素値との差が予め設定された閾値以下となる画素値を検出し、検出に成功したか否か、並びに、検出に成功した場合には検出に成功した画素値を有する画素の位置が、前記入力手段で入力した検証データに含まれる第1の検証対象情報と一致するか否かを判定する第1の判定手段、
前記入力手段によって入力された前記画像データから、予め設定された乱数にしたがってN画素(Nは2以上の整数)を選択して得られたN画素中の第1乃至第Nの画素の各画素値の大小関係を特定する情報と、前記入力手段で入力した検証データに含まれる第2の検証対象情報とが一致するか否かを判定する第2の判定手段、
前記第1の判定手段、及び、前記第2の判定手段の両方の判定の結果が一致することを示す場合、前記入力手段で入力した画像データは改竄無しとして判定し、前記第1の判定手段、及び、前記第2の判定手段の少なくとも一方の判定の結果が不一致を示す場合、前記入力手段で入力した画像データは改竄有りとして判定する検証手段
として機能させることを特徴とするプログラム。
The computer is generated by the information processing apparatus according to claim 1 by being read and executed by a computer having an input unit for inputting image data to be verified and verification data for the image data. A program that functions as a verification device that verifies the presence or absence of falsification of the image data based on image data and verification data,
The computer,
Among pixel values that are actually present in the image data input by the input means, detect a pixel value whose difference from a non-existent pixel value is equal to or less than a preset threshold value, and whether or not the detection is successful. In addition, when the detection is successful, a first determination is made as to whether or not the position of the pixel having the pixel value that has been successfully detected matches the first verification target information included in the verification data input by the input means. Determining means,
Each pixel of the first to Nth pixels among N pixels obtained by selecting N pixels (N is an integer of 2 or more) from the image data input by the input means according to a preset random number. Second determination means for determining whether or not the information for specifying the magnitude relationship between the values and the second verification target information included in the verification data input by the input means match;
When the determination results of both the first determination unit and the second determination unit indicate that they match, it is determined that the image data input by the input unit is not falsified, and the first determination unit And a program for causing the image data input by the input means to function as a verification means for determining that there is falsification when a determination result of at least one of the second determination means indicates a mismatch.
請求項7又は8に記載のプログラムを格納したことを特徴とするコンピュータの読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 7 or 8.
JP2009286962A 2009-12-17 2009-12-17 Information processing apparatus and image verifying device, and control method thereof Withdrawn JP2011130213A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009286962A JP2011130213A (en) 2009-12-17 2009-12-17 Information processing apparatus and image verifying device, and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009286962A JP2011130213A (en) 2009-12-17 2009-12-17 Information processing apparatus and image verifying device, and control method thereof

Publications (1)

Publication Number Publication Date
JP2011130213A true JP2011130213A (en) 2011-06-30

Family

ID=44292302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009286962A Withdrawn JP2011130213A (en) 2009-12-17 2009-12-17 Information processing apparatus and image verifying device, and control method thereof

Country Status (1)

Country Link
JP (1) JP2011130213A (en)

Similar Documents

Publication Publication Date Title
JP3884955B2 (en) Image verification system and image verification apparatus
US7535488B2 (en) Image data verification system
JP5341615B2 (en) Information processing apparatus and control method thereof
US7162637B2 (en) Image verification system
CN1741449A (en) Data-processing system and method for controlling same, computer program, and computer-readable recording medium
KR20000035423A (en) Recording device
JP5340029B2 (en) Information processing apparatus and control method thereof, verification apparatus and control method thereof
JP2008124668A (en) Content editing device and content verification apparatus
US8422732B2 (en) Information processing apparatus, verification apparatus, and methods of controlling the same
JP5693134B2 (en) Information processing apparatus and control method thereof
JP5635896B2 (en) Image input device, image verification device, and control method thereof
WO2022137798A1 (en) Image processing device and method
JP2007080071A (en) System having alteration detecting function
JP2011130213A (en) Information processing apparatus and image verifying device, and control method thereof
JP2007013882A (en) Storage medium, and apparatus and method for digital data processing
JP6757169B2 (en) Signature device, signature method, verification device, verification method, computer program
JP4143516B2 (en) Image processing apparatus, image verification method, program, and storage medium
JP2007067938A (en) Verification system and electronic data generating apparatus, and electronic data verification apparatus and method thereof
JP2006302299A (en) Image verification device

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130305