JP6909055B2 - Information processing equipment, control methods and programs - Google Patents

Information processing equipment, control methods and programs Download PDF

Info

Publication number
JP6909055B2
JP6909055B2 JP2017108320A JP2017108320A JP6909055B2 JP 6909055 B2 JP6909055 B2 JP 6909055B2 JP 2017108320 A JP2017108320 A JP 2017108320A JP 2017108320 A JP2017108320 A JP 2017108320A JP 6909055 B2 JP6909055 B2 JP 6909055B2
Authority
JP
Japan
Prior art keywords
information
information processing
posture
processing device
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017108320A
Other languages
Japanese (ja)
Other versions
JP2018207230A (en
Inventor
浦谷 充
充 浦谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017108320A priority Critical patent/JP6909055B2/en
Publication of JP2018207230A publication Critical patent/JP2018207230A/en
Application granted granted Critical
Publication of JP6909055B2 publication Critical patent/JP6909055B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、付加情報が多重化された画像を撮影する情報処理装置、制御方法及びプログラムに関する。 The present invention relates to an information processing device, a control method, and a program for capturing an image in which additional information is multiplexed.

画像情報に対して、画像に関連のある他の情報を多重化した電子透かし技術が知られている。電子透かし技術によれば、例えば、写真、絵画等の画像情報中に、その著作者名や、使用許可の可否等の付加情報が視覚的に判別しづらいように多重化される。また、応用分野での技術として、複写機、プリンタ等の画像出力装置の高画質化に伴い、紙幣、印紙、有価証券等の偽造を防止する目的で、紙上に出力された画像から出力機器及びその機体番号を特定するために、画像中に付加情報を埋め込む技術が知られている。 A digital watermarking technique that multiplexes other information related to an image with respect to the image information is known. According to the digital watermarking technology, for example, in image information such as a photograph or a painting, additional information such as the author's name and permission to use is multiplexed so as to be difficult to visually discriminate. In addition, as a technology in the field of application, with the aim of preventing forgery of banknotes, stamps, securities, etc. with the improvement of image quality of image output devices such as copiers and printers, output devices and output devices from images output on paper A technique for embedding additional information in an image is known in order to specify the aircraft number.

また、紙上に出力された画像中に埋め込まれた付加情報を取り出すために、スキャナや携帯端末の内蔵カメラ等の撮像デバイスで、対象の出力物の撮影を行い、その撮影画像を解析することで埋め込まれた情報を取り出す技術が知られている。ここで、対象の出力物を撮影する際には、一般に埋め込まれた情報に対して正位置で撮影した画像が必要になるが、携帯端末の内蔵カメラの場合、撮影姿勢が安定せず、回転や台形歪みが生じてしまい、情報を取り出せないことがある。 In addition, in order to extract additional information embedded in the image output on paper, an imaging device such as a scanner or a built-in camera of a mobile terminal is used to take a picture of the target output object and analyze the taken image. A technique for extracting embedded information is known. Here, when shooting the target output, an image shot at a normal position with respect to the embedded information is generally required, but in the case of the built-in camera of the mobile terminal, the shooting posture is not stable and the image is rotated. Or trapezoidal distortion may occur and information may not be retrieved.

特許文献1には、付加情報を読み取る際に、画像の基準点あるいは基準線を表す印である補正マーカーの付加された補正マーカー付き透かし入り画像を用いることで、電子透かしに対して高度な幾何変換耐性を簡単な処理で実現することが記載されている。 In Patent Document 1, when reading additional information, a watermarked image with a correction marker added, which is a mark representing a reference point or a reference line of the image, is used, so that a high-level geometry with respect to a digital watermark is used. It is described that conversion resistance is realized by a simple process.

特許第3888549号公報Japanese Patent No. 3888549

上記の補正マーカーを用いる方法では、補正マーカーを読み取るために印刷物全体を撮影する必要があるので、印刷物が画角に入るまで引いて撮影しなくてはならない。その場合、印刷物が遠くなりすぎると、埋め込まれた付加情報を読み取るには解像度が足りなくなってしまう。一方、解像度を上げるために印刷物に近づいて撮影を行うと、補正マーカーが読み取れない。そのため、印刷物の端部を検出して傾きや回転角を推測し、台形補正や回転補正を行おうとしても、印刷物との距離が近いと端部が画角に入らないので上記の推測を行うことができない。 In the method using the correction marker described above, it is necessary to take a picture of the entire printed matter in order to read the correction marker, so that the printed matter must be pulled until it enters the angle of view. In that case, if the printed matter is too far away, the resolution will be insufficient to read the embedded additional information. On the other hand, if the photograph is taken close to the printed matter in order to increase the resolution, the correction marker cannot be read. Therefore, even if you try to perform keystone correction or rotation correction by detecting the edge of the printed matter and estimating the tilt and rotation angle, the edge will not fit in the angle of view if the distance to the printed matter is short, so the above estimation is performed. Can't.

本発明の目的は、このような従来の問題点を解決することにある。上記の点に鑑み、本発明は、付加情報が多重化された画像を被写体として撮影する場合に、被写体を撮影する装置の姿勢を適正とするための通知を行う情報処理装置、制御方法及びプログラムを提供することを目的とする。 An object of the present invention is to solve such a conventional problem. In view of the above points, the present invention provides an information processing device, a control method, and a program for notifying the proper posture of the device for photographing the subject when the image in which the additional information is multiplexed is photographed as the subject. The purpose is to provide.

上記課題を解決するため、本発明に係る情報処理装置は、情報処理装置であって、前記情報処理装置を被写体に対して基準の姿勢となるようにセットするよう通知する第1の通知手段と、付加情報が多重化された画像を前記被写体の画像として撮像する撮像手段と、前記情報処理装置の姿勢情報を取得する取得手段と、前記取得手段により取得された前記姿勢情報に基づいて、前記情報処理装置の前記被写体に対する姿勢が、前記撮像手段により撮像された前記画像から前記付加情報を抽出するために適正であるか否かを判定する判定手段と、前記情報処理装置の前記被写体に対する姿勢が、前記撮像手段により撮像された前記画像から前記付加情報を抽出するために適正でないと判定された場合、前記撮像手段による撮影前に、表示部に当該姿勢を適正とするための画面を表示させる表示制御手段と、を備え、前記取得手段は、前記第1の通知手段による通知の後、前記姿勢情報を取得する、ことを特徴とする。 In order to solve the above problems, the information processing device according to the present invention is an information processing device, which is a first notification means for notifying the subject to set the information processing device so as to have a reference posture. an imaging means for capturing an image additional information is multiplexed as an image of the object, and acquisition means for acquiring orientation information of the information processing apparatus, based on the orientation information acquired by the acquisition unit, wherein A determination means for determining whether or not the attitude of the information processing device with respect to the subject is appropriate for extracting the additional information from the image captured by the imaging means, and an attitude of the information processing device with respect to the subject. display but if it is determined not to be appropriate to extract the additional information from the image captured by the imaging means, before photographing by the imaging means, a screen for proper the posture display unit The information processing means includes a display control means for information processing, and the acquisition means acquires the attitude information after the notification by the first notification means .

本発明によれば、付加情報が多重化された画像を被写体として撮影する場合に、被写体を撮影する装置の姿勢を適正とするための通知を行うことができる。 According to the present invention, when an image in which additional information is multiplexed is photographed as a subject, it is possible to give a notification to make the posture of the device for photographing the subject appropriate.

画像処理システムの構成を示すブロック図である。It is a block diagram which shows the structure of an image processing system. 画像処理装置、カメラ付携帯端末のブロック構成を示す図である。It is a figure which shows the block structure of the image processing apparatus and the mobile terminal with a camera. 付加情報多重化部に含まれる埋込みを行う構成を示すブロック図である。It is a block diagram which shows the structure which performs the embedding included in the additional information multiplexing part. 量子化条件制御部を含む全体の処理を示すフローチャートである。It is a flowchart which shows the whole processing including the quantization condition control part. 水平画素数がWIDTH、垂直画素数がHEIGHTから成る画像を示す図である。It is a figure which shows the image which the number of horizontal pixels is WIDTH, and the number of vertical pixels is HEIGHT. 量子化条件A、Bを説明するための図である。It is a figure for demonstrating the quantization conditions A and B. 付加情報分離部の構成を示すブロック図である。It is a block diagram which shows the structure of the additional information separation part. 付加情報分離部に用いる空間フィルタを示す図である。It is a figure which shows the spatial filter used for the additional information separation part. 二次元の周波数領域を示す図である。It is a figure which shows the two-dimensional frequency domain. 図7の間引き部から判定部までの処理を示すフローチャートである。It is a flowchart which shows the process from the thinning part to the determination part of FIG. カメラ付携帯端末の撮影時の姿勢を説明するための図である。It is a figure for demonstrating the posture at the time of shooting of the mobile terminal with a camera. アオリと回転が不適正な場合を示す図である。It is a figure which shows the case which the tilt and rotation are improper. 印刷物とカメラ付携帯端末とが正対している様子を示す図である。It is a figure which shows the state which a printed matter and a mobile terminal with a camera face each other. ディスプレイに表示されるメッセージを示す図である。It is a figure which shows the message displayed on the display. カメラ付携帯端末の姿勢が規定の許容範囲を超えた場合を示す図である。It is a figure which shows the case where the posture of the mobile terminal with a camera exceeds a predetermined permissible range. ディスプレイに表示されるガイダンス画面を示す図である。It is a figure which shows the guidance screen which is displayed on the display. APIの例を示す図である。It is a figure which shows the example of API. 表示制御処理を示すフローチャートである。It is a flowchart which shows the display control processing.

以下、添付図面を参照して本発明の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成要素には同一の参照番号を付して、説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the present invention according to the claims, and not all combinations of features described in the present embodiment are essential for the means for solving the present invention. .. The same components are given the same reference numbers, and the description thereof will be omitted.

図1は、画像処理システムの構成を示すブロック図である。本実施形態における画像処理システムは、画像処理装置100とカメラ付携帯端末101とを含む。画像処理装置100は、印刷機能を有する印刷装置であり、例えば、MFP(多機能型周辺装置)である。カメラ付携帯端末101は、例えば、カメラ付携帯電話、カメラ付スマートフォンやタブレットPCである。 FIG. 1 is a block diagram showing a configuration of an image processing system. The image processing system in the present embodiment includes an image processing device 100 and a mobile terminal 101 with a camera. The image processing device 100 is a printing device having a printing function, and is, for example, an MFP (multifunctional peripheral device). The camera-equipped mobile terminal 101 is, for example, a camera-equipped mobile phone, a camera-equipped smartphone, or a tablet PC.

本実施形態では、画像処理装置100は、付加情報が多重化された印刷物104を印刷する。そして、カメラ付携帯端末101は、撮像センサ107(カメラ)により、被写体としての印刷物104を撮像する。そのため、本実施形態では、画像処理装置100とカメラ付携帯端末101との間は、有線ネットワークや無線ネットワークで相互に通信可能であっても良いし、ネットワーク等を介して通信可能に接続されていなくても良い。 In the present embodiment, the image processing device 100 prints the printed matter 104 in which the additional information is multiplexed. Then, the mobile terminal 101 with a camera images the printed matter 104 as a subject by the image sensor 107 (camera). Therefore, in the present embodiment, the image processing device 100 and the camera-equipped mobile terminal 101 may be able to communicate with each other via a wired network or a wireless network, or are connected to each other via a network or the like. It does not have to be.

画像処理装置100は、付加情報を印刷物104に埋め込む付加情報多重化部105を含み、カメラ付携帯端末101は、多重化された付加情報を印刷物104から読み取る付加情報分離部108を含む。付加情報多重化部105は、例えば、プリント部106(プリンタエンジン)へ出力すべき画像情報を作成するプリンタドライバソフトウエア、もしくは、アプリケーションソフトウエアとして実現される。また、複写機、ファクシミリ、プリンタ本体等にハードウエアやソフトウエアとして内蔵される形態で実現されても良い。 The image processing device 100 includes an additional information multiplexing unit 105 that embeds additional information in the printed matter 104, and the camera-equipped mobile terminal 101 includes an additional information separating unit 108 that reads the multiplexed additional information from the printed matter 104. The additional information multiplexing unit 105 is realized as, for example, printer driver software or application software that creates image information to be output to the print unit 106 (printer engine). Further, it may be realized in a form of being built in as hardware or software in a copying machine, a facsimile, a printer main body or the like.

また、付加情報分離部108は、例えば、デジタルスチールカメラで撮影した画像から付加情報を分離する内部のアプリケーションソフトウエアやハードウエアで実現されても良い。なお、本実施形態では、付加情報多重化部105とプリント部106が画像処理装置100に含まれるものとして説明するが、付加情報多重化部105とプリント部106が、別々の装置に分けられても良い。例えば、PCやスマートフォン等の情報処理装置が付加情報多重化部105を含み、その情報処理装置とは異なる画像処理装置がプリント部106を含む形態でも良い。なお、情報処理装置が、付加情報多重化部105と付加情報分離部108の両者を含んでいても良い。 Further, the additional information separation unit 108 may be realized by, for example, internal application software or hardware that separates additional information from an image taken by a digital still camera. In the present embodiment, the additional information multiplexing unit 105 and the printing unit 106 will be described as being included in the image processing device 100, but the additional information multiplexing unit 105 and the printing unit 106 are separated into separate devices. Is also good. For example, an information processing device such as a PC or a smartphone may include an additional information multiplexing unit 105, and an image processing device different from the information processing device may include a printing unit 106. The information processing device may include both the additional information multiplexing unit 105 and the additional information separation unit 108.

[付加情報の埋込みのための構成]
入力端子102から多階調の画像情報が入力され、入力端子103から画像情報の中に埋め込むべき付加情報が入力される。この付加情報は、画像情報とは別の情報、例えば音声情報や動画情報、文字情報、画像に関する著作権、撮影日時、撮影場所、撮影者の諸情報、若しくは、全く別の画像情報等、である。さらに、付加情報は、画像ファイルとして構成された画像情報の一部として内包されていても良い。
[Configuration for embedding additional information]
Multi-gradation image information is input from the input terminal 102, and additional information to be embedded in the image information is input from the input terminal 103. This additional information includes information other than image information, such as audio information, video information, text information, copyright related to the image, shooting date and time, shooting location, various information of the photographer, or completely different image information. be. Further, the additional information may be included as a part of the image information configured as an image file.

付加情報多重化部105は、視覚的に判別しづらいように、画像情報中に付加情報を埋め込む(多重化する)。プリント部106は、付加情報多重化部105で作成された情報に基づいて印刷処理を実行する。プリント部106は、例えば、インクジェットプリンタ、レーザプリンタ等、疑似階調処理を用いることにより階調表現を印刷物104上に実現するプリンタである。 The additional information multiplexing unit 105 embeds (multiplexes) additional information in the image information so that it is difficult to visually discriminate. The print unit 106 executes the print process based on the information created by the additional information multiplexing unit 105. The print unit 106 is, for example, an inkjet printer, a laser printer, or the like, which is a printer that realizes gradation expression on a printed matter 104 by using pseudo gradation processing.

図2(a)は、画像処理装置100のブロック構成を示す図である。CPU200は、画像処理装置100の内部を統括的に制御するプロセッサである。図1の付加情報多重化部105は、例えば、CPU200により実現される。ROM201やHDD203は、画像処理装置100の基本プログラムや制御プログラム、各種アプリケーションやデータ等を記憶する。例えば、CPU200は、ROM201に記憶されたプログラムをRAM202に読み出して実行することにより、各実施形態の動作を実現する。RAM202は、CPU200のワーキングメモリとしても用いられる。 FIG. 2A is a diagram showing a block configuration of the image processing device 100. The CPU 200 is a processor that comprehensively controls the inside of the image processing device 100. The additional information multiplexing unit 105 of FIG. 1 is realized by, for example, the CPU 200. The ROM 201 and HDD 203 store basic programs, control programs, various applications, data, and the like of the image processing device 100. For example, the CPU 200 realizes the operation of each embodiment by reading the program stored in the ROM 201 into the RAM 202 and executing the program. The RAM 202 is also used as a working memory of the CPU 200.

ネットワークインタフェース(NW I/F)204は、例えば、有線や無線等、ネットワークの形態に応じた構成を有する。また、通信範囲が異なる複数種類の無線ネットワークにも対応可能であり、例えば、通信距離が数cmといった近距離無線通信(NFC:Near Field Communication)により、カメラ付携帯端末101と通信することも可能である。ディスプレイ205は、ユーザーに各設定画面やプレビュー画面等を表示する。操作部206は、例えば、キーボードやタッチパネル等を有し、ユーザーからの操作指示を受付可能である。 The network interface (NW I / F) 204 has a configuration according to the form of the network, for example, wired or wireless. It is also possible to support multiple types of wireless networks with different communication ranges. For example, it is possible to communicate with the camera-equipped mobile terminal 101 by short-range wireless communication (NFC: Near Field Communication) with a communication distance of several cm. Is. The display 205 displays each setting screen, preview screen, and the like to the user. The operation unit 206 has, for example, a keyboard, a touch panel, or the like, and can receive operation instructions from the user.

デバイスI/F207は、プリント部106(プリントエンジン)と、システムバス209とを接続する。図2(a)では、プリント部106が示されているが、画像処理装置100の実行可能な機能に応じて、スキャナ、FAX等、他のブロックがデバイスI/F207に接続されても良い。画像処理部208は、外部から取得した画像データに対して、用途に応じた画像処理を実行する。例えば、画像処理部208は、プリント部106の記録方式に応じた色空間変換や二値化処理、画像の拡大/縮小/回転、といった処理を実行する。 The device I / F 207 connects the print unit 106 (print engine) and the system bus 209. Although the print unit 106 is shown in FIG. 2A, other blocks such as a scanner and a fax machine may be connected to the device I / F 207 depending on the executable function of the image processing device 100. The image processing unit 208 executes image processing according to the intended use on the image data acquired from the outside. For example, the image processing unit 208 executes processing such as color space conversion, binarization processing, and image enlargement / reduction / rotation according to the recording method of the printing unit 106.

図2(a)に示す各ブロックは、システムバス209を介して相互に通信可能に接続される。図2(a)に示す構成以外の構成であっても良く、例えば、システムバス209とイメージデータバスとがバスブリッジを介して接続される。その場合には、例えば、デバイスI/F207がイメージデータバスに接続される。図1の入力端子102は、例えば、ネットワークI/F204から入力される構成を示し、また、入力端子103は、例えば、ネットワークI/F204や操作部206から入力される構成を示す。 The blocks shown in FIG. 2A are communicably connected to each other via the system bus 209. A configuration other than the configuration shown in FIG. 2A may be used. For example, the system bus 209 and the image data bus are connected via a bus bridge. In that case, for example, the device I / F 207 is connected to the image data bus. The input terminal 102 of FIG. 1 shows, for example, a configuration input from the network I / F 204, and the input terminal 103 shows, for example, a configuration input from the network I / F 204 or the operation unit 206.

[付加情報の読取りのための構成]
図1のカメラ付携帯端末101上で実行される読取アプリケーションは、撮像センサ107を用いて印刷物104上の情報を読み取り、付加情報分離部108によって、印刷物104中に埋め込まれた付加情報を分離し、出力端子109に出力する。この出力端子109は、取得した付加情報を出力するインタフェースである。例えば、画像情報や文字情報であれば、ディスプレイ110(表示部)へ出力し、URLなどのリンク情報であれば、ディスプレイ110上でブラウザを起動してリンク先を表示する。また、外部デバイスへデータを出力するインタフェースに出力しても良い。
[Configuration for reading additional information]
The reading application executed on the camera-equipped mobile terminal 101 of FIG. 1 reads the information on the printed matter 104 using the image sensor 107, and separates the additional information embedded in the printed matter 104 by the additional information separating unit 108. , Output to output terminal 109. The output terminal 109 is an interface for outputting the acquired additional information. For example, if it is image information or character information, it is output to the display 110 (display unit), and if it is link information such as a URL, a browser is started on the display 110 to display the link destination. It may also be output to an interface that outputs data to an external device.

図2(b)は、カメラ付携帯端末101のブロック構成を示す図である。カメラ付携帯端末101は、CPUやROMやRAMといった、汎用的な情報処理装置の構成を含む。CPU210は、カメラ付携帯端末101の内部を統括的に制御するプロセッサである。図1の付加情報分離部108は、例えば、CPU210により実現される。ROM211は、カメラ付携帯端末101の基本プログラムや制御プログラム、各種アプリケーションやデータ等を記憶する。例えば、CPU210は、ROM211に記憶されたプログラムをRAM212に読み出して実行することにより、各実施形態の動作を実現する。RAM212は、CPU210のワーキングメモリとしても用いられる。 FIG. 2B is a diagram showing a block configuration of the camera-equipped mobile terminal 101. The camera-equipped mobile terminal 101 includes a configuration of a general-purpose information processing device such as a CPU, ROM, and RAM. The CPU 210 is a processor that comprehensively controls the inside of the camera-equipped mobile terminal 101. The additional information separation unit 108 of FIG. 1 is realized by, for example, the CPU 210. The ROM 211 stores basic programs, control programs, various applications, data, and the like of the camera-equipped mobile terminal 101. For example, the CPU 210 realizes the operation of each embodiment by reading the program stored in the ROM 211 into the RAM 212 and executing the program. The RAM 212 is also used as a working memory for the CPU 210.

ネットワークI/F213は、例えば、有線や無線等、ネットワークの形態に応じた構成を有する。また、通信範囲が異なる複数種類の無線ネットワークにも対応可能であり、例えば、通信距離が数cmといった近距離無線通信(NFC:Near Field Communication)により、画像処理装置100と通信することも可能である。ディスプレイ110は、ユーザーに各設定画面やプレビュー画面等を表示する。また、ディスプレイ110は、後述するが、撮像センサ107による撮像結果を表示する。操作部214は、例えば、ハードキー等を有し、ユーザーからの操作指示を受付可能である。加速度センサ111は、カメラ付携帯端末101にかかる重力加速度を検出し、地磁気センサ112は、カメラ付携帯端末101の向いている方位を検出する。図2(b)に示す各ブロックは、システムバス215を介して相互に通信可能に接続されている。 The network I / F 213 has a configuration according to the form of the network, such as wired or wireless. It is also possible to support multiple types of wireless networks with different communication ranges. For example, it is possible to communicate with the image processing device 100 by short-range wireless communication (NFC: Near Field Communication) with a communication distance of several centimeters. be. The display 110 displays each setting screen, preview screen, and the like to the user. Further, as will be described later, the display 110 displays an image pickup result by the image pickup sensor 107. The operation unit 214 has, for example, a hard key or the like, and can receive an operation instruction from the user. The acceleration sensor 111 detects the gravitational acceleration applied to the camera-equipped mobile terminal 101, and the geomagnetic sensor 112 detects the orientation of the camera-equipped mobile terminal 101. The blocks shown in FIG. 2B are communicably connected to each other via the system bus 215.

[付加情報の埋込み処理]
図3は、図1の付加情報多重化部105に含まれる埋込みを行う構成を示すブロック図である。誤差拡散処理部300は、入力端子102に入力された画像情報に、一般的な誤差拡散法を用いた疑似階調処理を行うことによって、入力階調数よりも少ない量子化レベルに変換し、複数画素の量子化値により、面積的に階調性を表現する。
[Embedding of additional information]
FIG. 3 is a block diagram showing a configuration for embedding included in the additional information multiplexing unit 105 of FIG. The error diffusion processing unit 300 converts the image information input to the input terminal 102 into a quantization level smaller than the number of input gradations by performing pseudo gradation processing using a general error diffusion method. The gradation value is expressed in terms of area by the quantization value of a plurality of pixels.

ブロック化部301は、入力端子102に入力された画像情報を所定領域(ブロック)単位に区分する。ブロック化部301により行われるブロック化は、矩形に区分されても良いし、矩形以外の領域に区分されても良い。量子化条件制御部302は、入力端子103で入力された付加情報に基づいて、ブロック化部301にてブロック化された領域単位で、量子化条件を変更するように制御する。また、量子化条件制御部302は、入力端子103に入力された付加情報に基づき、ブロック単位で量子化条件を変更する。 The blocking unit 301 divides the image information input to the input terminal 102 into predetermined area (block) units. The blocking performed by the blocking unit 301 may be divided into rectangles or areas other than rectangles. The quantization condition control unit 302 controls to change the quantization condition in units of regions blocked by the blocking unit 301 based on the additional information input at the input terminal 103. Further, the quantization condition control unit 302 changes the quantization condition in block units based on the additional information input to the input terminal 103.

次に、量子化条件制御部302を含む全体の処理について、図4のフローチャートを参照しながら説明する。量子化値は二値である例について説明する。図4の処理は、例えば、画像処理装置100のCPU200がROM201に記憶されているプログラムをRAM202に読み出して実行することにより実現される。 Next, the entire process including the quantization condition control unit 302 will be described with reference to the flowchart of FIG. An example in which the quantization value is binary will be described. The process of FIG. 4 is realized, for example, by the CPU 200 of the image processing device 100 reading the program stored in the ROM 201 into the RAM 202 and executing the program.

S401では、CPU200は、RAM202に確保された変数iを初期化する。ここで、変数iは、垂直方向のアドレスをカウントする変数である。S402では、CPU200は、RAM202に確保された変数jを初期化する。ここで、変数jは、水平方向のアドレスをカウントする変数である。続いて、S403では、CPU200は、現在の処理アドレスである座標(i,j)が多重化処理を実行すべき領域に属しているか否かを判定する。 In S401, the CPU 200 initializes the variable i reserved in the RAM 202. Here, the variable i is a variable that counts addresses in the vertical direction. In S402, the CPU 200 initializes the variable j reserved in the RAM 202. Here, the variable j is a variable that counts the addresses in the horizontal direction. Subsequently, in S403, the CPU 200 determines whether or not the coordinates (i, j), which are the current processing addresses, belong to the area where the multiplexing process should be executed.

図5を参照しながら、多重化領域について説明する。図5は、水平画素数がWIDTH、垂直画素数がHEIGHTから成る、一つの画像を示している。本実施形態では、この画像中に付加情報が多重化される例を説明する。画像の左上を原点として、横N画素、縦M画素でブロック化が行われる。本実施形態では、原点を基準点としてブロック化が行われるが、原点から離れた点を基準点として設定するようにしても良い。この画像中に最大限の情報を多重化するために、N×Mのブロックを基準点から配置していくとして説明する。水平方向に配置可能なブロック数をW、垂直方向に配置可能なブロック数をHとすると、WとHは、式(1)及び(2)から算出される。 The multiplexing region will be described with reference to FIG. FIG. 5 shows one image in which the number of horizontal pixels is WIDTH and the number of vertical pixels is HEIGHT. In this embodiment, an example in which additional information is multiplexed in this image will be described. Blocking is performed with horizontal N pixels and vertical M pixels with the upper left of the image as the origin. In the present embodiment, blocking is performed with the origin as a reference point, but a point away from the origin may be set as a reference point. In order to multiplex the maximum amount of information in this image, N × M blocks will be arranged from the reference point. Assuming that the number of blocks that can be arranged in the horizontal direction is W and the number of blocks that can be arranged in the vertical direction is H, W and H are calculated from the equations (1) and (2).

W = INT(WIDTH/N) ・・・(1)
H = INT(HEIGHT/M) ・・・(2)
但し、INT()は()内の整数部分を示す。
W = INT (WIDTH / N) ・ ・ ・ (1)
H = INT (HEIGHT / M) ・ ・ ・ (2)
However, INT () indicates the integer part in ().

式(1)、(2)において割り切れない剰余画素数が、N×Mのブロックを複数配置した時の端部に相当し、本実施形態では、その部分を符号多重化領域外とする。 The number of surplus pixels that cannot be divided in the equations (1) and (2) corresponds to the end portion when a plurality of N × M blocks are arranged, and in the present embodiment, that portion is outside the code multiplexing region.

図4のS403では、現在処理している注目画素が多重化領域内でない、即ち、多重化領域外であると判定された場合には、S404において、CPU200は、量子化条件Cを設定する。一方、多重化領域内であると判定された場合には、S405において、CPU200は、多重化すべき付加情報を読み込む。ここで、説明を容易にする為に、付加情報は、code[]という配列を用いて、各1ビットずつ表現されるものとする。例えば、付加情報を48ビット分の情報と仮定すると、配列code[]には、code[0]からcode[47]まで、各1ビットずつが格納されている。 In S403 of FIG. 4, when it is determined that the pixel of interest currently being processed is not in the multiplexing region, that is, outside the multiplexing region, the CPU 200 sets the quantization condition C in S404. On the other hand, when it is determined that the information is within the multiplexing area, the CPU 200 reads the additional information to be multiplexed in S405. Here, for ease of explanation, the additional information is represented by one bit each using an array called code []. For example, assuming that the additional information is information for 48 bits, 1 bit each from code [0] to code [47] is stored in the array code [].

S405において、CPU200は、RAM202に確保された変数bitに、式(3)のように、配列code[]内の情報を代入する。 In S405, the CPU 200 substitutes the information in the array code [] into the variable bit secured in the RAM 202, as in the equation (3).

bit = code[INT(i/M)×W+INT(j/N)]・・・(3)
S406では、CPU200は、代入された変数bitが"1"であるか否かを判定する。前述したように、配列code[]内の情報は各1ビットずつ格納されているので、変数bitの値も"0"か"1"かの何れかを示すことになる。
bit = code [INT (i / M) x W + INT (j / N)] ... (3)
In S406, the CPU 200 determines whether or not the assigned variable bit is "1". As described above, since the information in the array code [] is stored by 1 bit each, the value of the variable bit also indicates either "0" or "1".

ここで、"0"であると判定された場合には、S407において、CPU200は、量子化条件Aを設定し、"1"であると判定された場合には、S408において、CPU200は、量子化条件Bを設定する。 Here, if it is determined to be "0", the CPU 200 sets the quantization condition A in S407, and if it is determined to be "1", the CPU 200 sets the quantum condition A in S408. The conversion condition B is set.

次に、S409では、CPU200は、S404、S407、S408で設定された量子化条件に基づいて量子化処理を行う。この量子化処理は、誤差拡散法により行われる。 Next, in S409, the CPU 200 performs the quantization process based on the quantization conditions set in S404, S407, and S408. This quantization process is performed by the error diffusion method.

S410では、CPU200は、水平方向変数jをカウントアップして、S411において、カウントアップされた変数jが画像の水平画素数であるWIDTH未満か否かを判定する。ここで、変数jがWIDTH未満であると判定された場合、S403からの処理を繰り返す。一方、変数jがWIDTH未満でないと判定された場合、即ち、水平方向の処理がWIDTH画素数分終了した場合、S412において、CPU200は、垂直方向変数iをカウントアップする。そして、S413において、CPU200は、カウントアップされた変数iが画像の垂直画素数であるHEIGHT未満か否かを判定する。ここで、変数iがHEIGHT未満であると判定された場合、S402からの処理を繰り返す。一方、変数iがHEIGHT未満でないと判定された場合、即ち、垂直方向の処理がHEIGHT画素数分終了した場合、図4の処理を終了する。以上の処理により、N×M画素よりなるブロック単位で、量子化条件を変更する。 In S410, the CPU 200 counts up the horizontal variable j, and in S411, determines whether or not the counted up variable j is less than WIDTH, which is the number of horizontal pixels of the image. Here, when it is determined that the variable j is less than WIDTH, the process from S403 is repeated. On the other hand, when it is determined that the variable j is not less than WIDTH, that is, when the horizontal processing is completed for the number of WIDTH pixels, the CPU 200 counts up the vertical variable i in S412. Then, in S413, the CPU 200 determines whether or not the counted-up variable i is less than HEIGHT, which is the number of vertical pixels of the image. Here, when it is determined that the variable i is less than HEIGHT, the process from S402 is repeated. On the other hand, when it is determined that the variable i is not less than HEIGHT, that is, when the processing in the vertical direction is completed for the number of HEIGHT pixels, the processing of FIG. 4 is terminated. By the above processing, the quantization condition is changed in block units consisting of N × M pixels.

次に、量子化条件A、B、Cの例について説明する。誤差拡散法における量子化条件には様々な因子があるが、本実施形態において量子化条件の因子は、量子化閾値である。S404で設定される量子化条件Cは、多重化領域外で用いられるので、量子化閾値はどのような条件でも良い。1画素が8ビットによる階調表現で、量子化レベルが2値の場合には、最大値である"255"、及び、最小値である"0"が量子化代表値となるが、その中間値となる"128"が量子化閾値として設定されることが多い。よって、本実施形態では、量子化条件Cは、量子化閾値を"128"の固定値とする条件とする。 Next, examples of quantization conditions A, B, and C will be described. There are various factors in the quantization condition in the error diffusion method, but in the present embodiment, the factor of the quantization condition is the quantization threshold value. Since the quantization condition C set in S404 is used outside the multiplexing region, the quantization threshold value may be any condition. When one pixel is a gradation expression with 8 bits and the quantization level is binary, the maximum value "255" and the minimum value "0" are typical quantization values, but in between. The value "128" is often set as the quantization threshold. Therefore, in the present embodiment, the quantization condition C is a condition in which the quantization threshold value is a fixed value of "128".

S407で設定される量子化条件Aと、S408で設定される量子化条件Bは、多重化領域内のブロックで用いられるので、量子化条件の違いによる画質の違いを生じさせる必要がある。但し、画質の違いは視覚的には判別しにくいように表現し、かつ、紙上から容易に識別可能である必要がある。 Since the quantization condition A set in S407 and the quantization condition B set in S408 are used in the blocks in the multiplexing region, it is necessary to cause a difference in image quality due to the difference in the quantization condition. However, it is necessary that the difference in image quality is expressed so as to be difficult to visually distinguish and can be easily identified from the paper.

図6(a)及び(b)は、量子化条件A、Bを説明するための図である。図6(a)は、量子化条件Aにおける量子化閾値の変化の周期を示す図である。図中、一つのマスを1画素分と想定し、白いマスは固定閾値、灰色のマスを変動閾値とする。即ち、図6(a)の例では、横8画素、縦4画素のマトリクスを組み、灰色のマスについてのみ突出した値を閾値として設定する。 6 (a) and 6 (b) are diagrams for explaining the quantization conditions A and B. FIG. 6A is a diagram showing the period of change of the quantization threshold value under the quantization condition A. In the figure, one cell is assumed to be one pixel, a white cell is a fixed threshold value, and a gray cell is a variable threshold value. That is, in the example of FIG. 6A, a matrix of 8 pixels in the horizontal direction and 4 pixels in the vertical direction is assembled, and a value that protrudes only for the gray square is set as the threshold value.

図6(b)は、同様に、量子化条件Bにおける量子化閾値の変化の周期を示した図である。図6(b)の例では、図6(a)とは異なり、横4画素、縦8画素のマトリクスを組み、灰色のマスについてのみ突出した値を閾値として設定する。 FIG. 6B is also a diagram showing the period of change of the quantization threshold under the quantization condition B. In the example of FIG. 6B, unlike FIG. 6A, a matrix of 4 horizontal pixels and 8 vertical pixels is assembled, and a value that protrudes only for the gray square is set as a threshold value.

前述したように1画素が8ビットの階調値の場合、例えば、固定閾値として"128"、突出した閾値を"10"と設定する。量子化閾値が低くなると、注目画素の量子化値が"1"(量子化代表値"255")になりやすくなる。即ち、図6(a)、(b)ともに、図中の灰色のマスの並びで量子化値"1"が並びやすくなる。言い換えると、N×M画素のブロック毎に、図6(a)の灰色のマスの並びでドットが発生するブロックと、図6(b)の灰色のマスの並びでドットが発生するブロックとが混在することになる。 As described above, when one pixel has an 8-bit gradation value, for example, a fixed threshold value of "128" and a prominent threshold value of "10" are set. When the quantization threshold is lowered, the quantization value of the pixel of interest tends to be "1" (quantization representative value "255"). That is, in both FIGS. 6A and 6B, the quantized value "1" can be easily arranged in the arrangement of the gray cells in the figure. In other words, for each block of N × M pixels, there are a block in which dots are generated in the arrangement of gray cells in FIG. 6 (a) and a block in which dots are generated in the arrangement of gray cells in FIG. 6 (b). It will be mixed.

誤差拡散法における量子化閾値の多少の変更は、画質的には大きな影響を及ぼさない。組織的ディザ法においては、使用するディザパターンによって、階調表現の画質が大きく左右される。しかしながら、前述したような、規則的に量子化閾値の変化を与えた誤差拡散法では、あくまでも画質を決定する階調表現は誤差拡散法であるので、ドットの並びが多少変化したり、テクスチャの発生が変化したり等は、階調表現の画質には殆ど影響を与えない。量子化閾値が変化した場合でも、あくまでも信号値と量子化値との差分となる誤差は周囲画素に拡散されるので、入力された信号値は、マクロ的に保存される。即ち、誤差拡散法におけるドットの並び、テクスチャの発生に関しては、冗長性が極めて大きいといえる。 A slight change in the quantization threshold in the error diffusion method does not have a great effect on the image quality. In the systematic dither method, the image quality of gradation expression is greatly affected by the dither pattern used. However, in the error diffusion method in which the quantization threshold is regularly changed as described above, the gradation expression that determines the image quality is the error diffusion method, so that the arrangement of dots may change slightly or the texture may change. Changes in generation have almost no effect on the image quality of gradation expression. Even if the quantization threshold changes, the error that is the difference between the signal value and the quantization value is diffused to the surrounding pixels, so that the input signal value is stored macroscopically. That is, it can be said that the redundancy is extremely large with respect to the arrangement of dots and the generation of texture in the error diffusion method.

上記のように、本実施形態では、誤差拡散法の量子化閾値に、符号を表す所定の周期性を重畳することにより、多重化を実現している。しかしながら、他の重畳方式により多重化を実現しても良い。例えば、直接RGBの値(輝度情報)に、周期性を重畳する方式により多重化を実現しても良い。または、RGBの値を、輝度−色差情報など、他の色空間情報(例えばCIE L*a*b*、YCrCb信号)に分離して周期性を重畳する方式により多重化を実現しても良い。または、RGBの値をインク色(例えばCMYK信号)に分離して周期性を重畳する方式により多重化を実現しても良い。 As described above, in the present embodiment, multiplexing is realized by superimposing a predetermined periodicity representing a sign on the quantization threshold of the error diffusion method. However, multiplexing may be realized by another superimposition method. For example, multiplexing may be realized by a method of directly superimposing periodicity on RGB values (luminance information). Alternatively, multiplexing may be realized by a method in which the RGB value is separated into other color space information (for example, CIE L * a * b *, YCrCb signal) such as luminance-color difference information and the periodicity is superimposed. .. Alternatively, multiplexing may be realized by a method in which RGB values are separated into ink colors (for example, CMYK signals) and periodicity is superimposed.

[付加情報の読取処理]
次に、図1の画像処理システムにおける付加情報分離部108の処理について説明する。この処理は、後述する、カメラ付携帯端末101の姿勢を適正にするための通知を利用して撮影された画像から付加情報を分離する処理である。図7は、付加情報分離部108の構成を示すブロック図である。説明を容易にする為に、前述の付加情報多重化部105の場合と同様、分割したブロック内に各1ビットずつの付加情報が多重化されている印刷物104から、付加情報を分離する例について説明する。当然のことながら、付加情報多重化部105における1ブロックあたりの付加情報量と、付加情報分離部108における1ブロックあたりの分離情報量とは等しくなる。
[Reading process of additional information]
Next, the processing of the additional information separation unit 108 in the image processing system of FIG. 1 will be described. This process is a process of separating additional information from the captured image by using the notification for adjusting the posture of the camera-equipped mobile terminal 101, which will be described later. FIG. 7 is a block diagram showing the configuration of the additional information separation unit 108. In order to facilitate the explanation, as in the case of the additional information multiplexing unit 105 described above, an example of separating the additional information from the printed matter 104 in which the additional information of 1 bit each is multiplexed in the divided blocks. explain. As a matter of course, the amount of additional information per block in the additional information multiplexing unit 105 and the amount of separated information per block in the additional information separation unit 108 are equal.

入力端子700には、カメラ付携帯端末101で読み込まれた画像情報が入力される。ここで、カメラ付携帯端末101の撮像センサ107の解像度(撮像解像度)は、印刷物104を作成する際の印刷解像度以上が好ましい。勿論のことながら、正確に印刷物104のドットの点在情報を読み込むためには、サンプリング定理により、撮像センサ107側はプリンタ側よりも2倍以上の解像度が必要になる。しかしながら、同等以上であれば、正確でなくとも、ある程度ドットが点在しているのを判別することが可能である。本実施形態では、説明を容易にするために印刷解像度と撮像センサ107の解像度とは同一解像度であるとする。 The image information read by the camera-equipped mobile terminal 101 is input to the input terminal 700. Here, the resolution (imaging resolution) of the image pickup sensor 107 of the mobile terminal 101 with a camera is preferably equal to or higher than the print resolution at the time of creating the printed matter 104. Of course, in order to accurately read the dotted information of the dots of the printed matter 104, the imaging sensor 107 side needs to have a resolution more than twice that of the printer side according to the sampling theorem. However, if it is equal to or higher than that, it is possible to determine that the dots are scattered to some extent even if it is not accurate. In the present embodiment, the print resolution and the resolution of the image sensor 107 are assumed to be the same resolution for ease of explanation.

ブロック化部701は、横P画素、縦Q画素単位にブロック化を行う。ここで、各ブロックは、電子透かしの重畳時にブロック化したN×M画素よりも小さい。即ち、式(4)の関係が成り立つ。 The blocking unit 701 blocks in units of horizontal P pixels and vertical Q pixels. Here, each block is smaller than the N × M pixels blocked when the digital watermark is superimposed. That is, the relationship of equation (4) holds.

P≦N、かつ Q≦M ・・・(4)
また、P×Q画素単位のブロック化は、ある一定間隔毎にスキップして行われる。即ち、多重化時のN×M画素より成るブロックと想定される領域内に、P×Q画素単位のブロックが一つ内包されるようにブロック化が行われる。
P ≦ N and Q ≦ M ・ ・ ・ (4)
Further, the block formation in units of P × Q pixels is performed by skipping at regular intervals. That is, the block is performed so that one block in units of P × Q pixels is included in the area assumed to be a block composed of N × M pixels at the time of multiplexing.

空間フィルタ702、703は、それぞれ特性の異なる空間フィルタA、Bを示し、フィルタリング部704は、周辺画素との積和を演算するディジタルフィルタリング部を示す。この空間フィルタの各係数は、多重化時の量子化条件の変動閾値の周期に対応して設定される。ここで、付加情報多重化部105における量子化条件の変更が図6(a)及び(b)の2種類の周期性を用いて行われることにより、付加情報が多重化されたとする。その場合の付加情報分離部108に用いる空間フィルタ702、空間フィルタ703の例を、図8(a)及び(b)に示す。図8(a)及び(b)中、5×5画素の中央部が注目画素になり、それ以外の24画素分が周辺画素になる。図8(a)及び(b)中、空白部の画素は、フィルタ係数が"0"であることを表す。図8(a)及び(b)に示すように、図8(a)及び(b)は、エッジ強調フィルタになっている。しかも、その強調するエッジの方向性と多重化した時の変動閾値の方向性とが図8(a)及び(b)と図6(a)及び(b)とで一致している。つまり、図8(a)は図6(a)に一致し、また、図8(b)は図6(b)に一致するように、空間フィルタが作成される。 Spatial filters 702 and 703 indicate spatial filters A and B having different characteristics, and filtering unit 704 indicates a digital filtering unit that calculates the sum of products with peripheral pixels. Each coefficient of this spatial filter is set corresponding to the period of the fluctuation threshold of the quantization condition at the time of multiplexing. Here, it is assumed that the additional information is multiplexed by changing the quantization conditions in the additional information multiplexing unit 105 using the two types of periodicity shown in FIGS. 6A and 6B. Examples of the spatial filter 702 and the spatial filter 703 used for the additional information separation unit 108 in that case are shown in FIGS. 8A and 8B. In FIGS. 8A and 8B, the central portion of the 5 × 5 pixel is the pixel of interest, and the other 24 pixels are the peripheral pixels. In FIGS. 8A and 8B, the pixels in the blank portion indicate that the filter coefficient is "0". As shown in FIGS. 8A and 8B, FIGS. 8A and 8B are edge enhancement filters. Moreover, the directionality of the emphasized edge and the directionality of the fluctuation threshold value when multiplexing are the same in FIGS. 8 (a) and 8 (b) and FIGS. 6 (a) and 6 (b). That is, the spatial filter is created so that FIG. 8 (a) matches FIG. 6 (a) and FIG. 8 (b) matches FIG. 6 (b).

間引き部705、706は、それぞれ、P×Q画素から成るブロック内のフィルタリング後の信号(以下、変換値という)を、ある規則性に基づいて間引き処理する。本実施形態では、周期性と位相のそれぞれの規則性に分離して間引き処理を行う。即ち、間引き部705及び706では間引きの周期性が互いに異なっており、それぞれにおいて、位相を変化させた複数の間引き処理を実行する。間引き処理については後述する。 Each of the thinning units 705 and 706 thins out the filtered signals (hereinafter referred to as conversion values) in the block composed of P × Q pixels based on a certain regularity. In the present embodiment, the thinning process is performed separately for each regularity of periodicity and phase. That is, the thinning units 705 and 706 have different thinning periodicities, and a plurality of thinning processes having different phases are executed in each of the thinning units 705 and 706. The thinning process will be described later.

変換値加算部707は、間引き部705及び706により間引きされた変換値を、位相毎にそれぞれ加算する。この間引き処理及び間引き画素の変換値の加算処理は、空間フィルタで強調した所定周波数ベクトルの電力(パワー)を抽出することに相当する。 The conversion value addition unit 707 adds the conversion values thinned out by the thinning units 705 and 706 for each phase. The thinning process and the addition process of the conversion values of the thinned pixels correspond to extracting the power of the predetermined frequency vector emphasized by the spatial filter.

分散値算出部708は、それぞれの周期性において、位相毎に加算した複数の加算値の分散値を算出する。判定部709は、それぞれの周期性における分散値に基づいて、多重化された符号を判定する。 The variance value calculation unit 708 calculates the variance value of a plurality of added values added for each phase in each periodicity. The determination unit 709 determines the multiplexed code based on the variance value in each periodicity.

図9は、二次元の周波数領域を示す図である。横軸は水平方向の周波数を示し、縦軸は垂直方向の周波数を示している。中心となる原点は直流成分を示し、原点から遠ざかるにつれて、高周波域となることを示している。図9中の円は、誤差拡散によるカットオフ周波数を示している。誤差拡散法のフィルタ特性は、低周波域がカットオフされたHPF(ハイパスフィルタ)の特性を示し、そのカットオフされる周波数は、対象画像の濃度に応じて変化する。 FIG. 9 is a diagram showing a two-dimensional frequency domain. The horizontal axis shows the frequency in the horizontal direction, and the vertical axis shows the frequency in the vertical direction. The origin at the center shows the DC component, and it is shown that the frequency becomes higher as the distance from the origin increases. The circle in FIG. 9 shows the cutoff frequency due to error diffusion. The filter characteristic of the error diffusion method shows the characteristic of the HPF (high-pass filter) in which the low frequency region is cut off, and the cutoff frequency changes according to the density of the target image.

本実施形態では、量子化閾値の変更により量子化後に発生する周波数特性が変化するが、図6(a)による量子化閾値の変更では、図9の周波数ベクトルA上に大きなパワースペクトルが生じる。また、図6(b)による量子化閾値の変更では、図9の周波数ベクトルB上に大きなパワースペクトルが生じる。付加情報分離時には、この大きなパワースペクトルが発生する周波数ベクトルを検出することに基づいて、多重化信号の判定が行われる。本実施形態では、各々の周波数ベクトルを個別に強調、抽出することが行われる。 In the present embodiment, the frequency characteristic generated after quantization changes by changing the quantization threshold, but the change of the quantization threshold according to FIG. 6A produces a large power spectrum on the frequency vector A of FIG. Further, in the change of the quantization threshold value according to FIG. 6B, a large power spectrum is generated on the frequency vector B of FIG. At the time of additional information separation, the multiplexing signal is determined based on the detection of the frequency vector in which this large power spectrum is generated. In this embodiment, each frequency vector is individually emphasized and extracted.

図8(a)及び(b)は、特定の周波数ベクトルの方向性を有するHPFに相当する。即ち、図8(a)の空間フィルタでは、図9の直線A上の周波数ベクトルを強調することが可能になり、また、図8(b)の空間フィルタでは、図9の直線B上の周波数ベクトルを強調することが可能になる。例えば、図6(a)に示すような量子化条件の変更により、図9の直線Aの周波数ベクトル上に大きなパワースペクトルが発生したとする。その時に、図8(a)の空間フィルタではパワースペクトルの変化量が増幅するが、図8(b)の空間フィルタでは、ほとんど増幅されない。つまり、複数の空間フィルタを並列にフィルタリングした場合に、周波数ベクトルが一致した空間フィルタ時のみ増幅し、それ以外のフィルタによるフィルタリングの場合には増幅がほとんどない。従って、いかなる周波数ベクトル上に大きなパワースペクトルが発生しているかを容易に判定することができる。 8 (a) and 8 (b) correspond to an HPF having a specific frequency vector directionality. That is, the spatial filter of FIG. 8A can emphasize the frequency vector on the straight line A of FIG. 9, and the spatial filter of FIG. 8B can emphasize the frequency on the straight line B of FIG. It becomes possible to emphasize the vector. For example, it is assumed that a large power spectrum is generated on the frequency vector of the straight line A of FIG. 9 due to the change of the quantization condition as shown in FIG. 6A. At that time, the amount of change in the power spectrum is amplified by the spatial filter of FIG. 8 (a), but is hardly amplified by the spatial filter of FIG. 8 (b). That is, when a plurality of spatial filters are filtered in parallel, amplification is performed only when the spatial filters have the same frequency vector, and there is almost no amplification when filtering by other filters. Therefore, it is possible to easily determine on what frequency vector a large power spectrum is generated.

図10は、図7の間引き部705及び706、変換値加算部707、分散値算出部708、判定部709の処理を示すフローチャートである。図10の処理は、例えば、カメラ付携帯端末101のCPU210がROM211に記憶されているプログラムをRAM212に読み出して実行することにより実現される。 FIG. 10 is a flowchart showing the processing of the thinning units 705 and 706 of FIG. 7, the conversion value addition unit 707, the dispersion value calculation unit 708, and the determination unit 709. The process of FIG. 10 is realized, for example, by the CPU 210 of the camera-equipped mobile terminal 101 reading the program stored in the ROM 211 into the RAM 212 and executing the program.

図10中、S1001及びS1002は、変数の初期化を示し、CPU210は、RAM212内に確保された変数i、jの値を0に初期化する。S1003では、CPU210は、間引き部705及び706による間引きの規則性の因子、即ち、"周期性"及び"位相"の2因子を決定する。本フローチャートでは、周期性に関する変数をi、位相に関する変数をjとする。この周期性及び位相の条件は、番号(ナンバー)により管理され、ここでは、周期性ナンバー(以下No.と略す)がi、位相No.がjである間引き方法の因子を設定する。 In FIG. 10, S1001 and S1002 indicate the initialization of the variables, and the CPU 210 initializes the values of the variables i and j secured in the RAM 212 to 0. In S1003, the CPU 210 determines two factors of the regularity of thinning by the thinning units 705 and 706, that is, "periodicity" and "phase". In this flowchart, the variable related to periodicity is i and the variable related to phase is j. The conditions of the periodicity and the phase are managed by the number (number), and here, the periodicity number (hereinafter abbreviated as No.) is i, and the phase No. Set the factor of the thinning method in which is j.

S1004では、CPU210は、ブロック内で間引きをした変換値を加算し、その加算値を変数の配列TOTAL[i][j]として記憶する。S1005では、CPU210は、変数jをカウントアップし、S1006において、固定値Jと比較する。固定値Jには、位相を変化させて間引き処理をする回数が格納されている。ここで、変数jがJ未満であれば、S1003に戻り、カウントアップ後のjによる新たな位相No.により、間引き処理及び間引き画素の変換値の加算処理が繰り返される。 In S1004, the CPU 210 adds the converted values thinned out in the block, and stores the added values as an array of variables TOTAL [i] [j]. In S1005, the CPU 210 counts up the variable j and compares it with the fixed value J in S1006. The fixed value J stores the number of times the thinning process is performed by changing the phase. Here, if the variable j is less than J, the process returns to S1003, and the new phase No. As a result, the thinning process and the addition process of the conversion values of the thinned pixels are repeated.

位相をずらした間引き処理及び間引き画素の変換値の加算処理が設定回数終了した場合、S1007において、CPU210は、加算結果TOTAL[i][j]の分散値を算出する。即ち、各加算結果が位相の差によりどの程度ばらついているかが評価される。ここでは、iを固定して、J個のTOTAL[i][j]の分散値を求める。ここで、分散値をB[i]とする。 When the phase-shifted thinning process and the thinning pixel conversion value addition process are completed a set number of times, in S1007, the CPU 210 calculates the variance value of the addition result TOTAL [i] [j]. That is, it is evaluated how much each addition result varies depending on the phase difference. Here, i is fixed and the variance values of J TOTAL [i] [j] are obtained. Here, let the variance value be B [i].

S1008において、CPU210は、変数iをカウントアップし、S1009において、固定値Iと比較する。固定値Iには、周期性を変化させて間引き処理をする回数が格納されている。ここで、変数iがI未満であれば、S1002に戻り、カウントアップ後のiによる新たな周期性No.の条件を用いて、再び、間引き処理及び間引き画素の変換値の加算処理が繰り返される。 In S1008, the CPU 210 counts up the variable i and compares it with the fixed value I in S1009. The fixed value I stores the number of times the thinning process is performed by changing the periodicity. Here, if the variable i is less than I, the process returns to S1002, and the new periodicity No. Using the condition of, the thinning process and the addition process of the converted values of the thinned pixels are repeated again.

S1009において、CPU210は、iが設定回数終了したと判定されると、分散値B[i]は、I個算出できたことになる。S1010にて、I個の分散値の集合から、分散値の最大値を検出し、その時のiの値を変数imaxに代入する。S1011において、CPU210は、周期性No.がimaxである符号を、多重化された符号であると判定する。その後、図10の処理を終了する。 In S1009, when the CPU 210 determines that i has completed the set number of times, it means that I can calculate the variance value B [i]. In S1010, the maximum value of the variance value is detected from the set of I variance values, and the value of i at that time is substituted into the variable imax. In S1011, the CPU 210 has a periodicity No. A code in which is imax is determined to be a multiplexed code. After that, the process of FIG. 10 is completed.

このように、量子化条件と、空間フィルタ特性と、間引き条件の周期性とを関連付けることで、多重化及び分離が容易に実現できる。本実施形態では、ブロック内の多重化符号は1ビットであった。しかしながら、多重化符号は、1ビットより多くても良い。 In this way, by associating the quantization condition, the spatial filter characteristic, and the periodicity of the thinning condition, multiplexing and separation can be easily realized. In this embodiment, the multiplexing code in the block is 1 bit. However, the multiplexing code may be more than one bit.

本実施形態では、上記のように多重化情報(付加情報)を不可視で埋め込み、さらに、撮像して読み込むので、印刷物上にコード部を配置する必要がない。従って、例えば、写真鑑賞の観点で不必要と考えられるコード部の配置を避けることができる。加えて、印刷物のコード部を撮像してその後に写真部を撮像する、あるいは、どの特徴量を使用するかのユーザー操作後に写真部を撮像する、という2アクションのユーザーの手間を必要としない。つまり、本実施形態では、印刷物の写真部のみを撮像する1アクションで実行できるので、ユーザー工数を低減し、利便性を向上させることができる。 In the present embodiment, the multiplexing information (additional information) is embedded invisible as described above, and further, the image is captured and read, so that it is not necessary to arrange the code portion on the printed matter. Therefore, for example, it is possible to avoid the arrangement of the code portion which is considered unnecessary from the viewpoint of viewing a photograph. In addition, there is no need for a two-action user to take an image of the code portion of the printed matter and then take an image of the photo portion, or to take an image of the photo portion after the user operates which feature amount to use. That is, in the present embodiment, since it can be executed by one action of capturing only the photo portion of the printed matter, the man-hours for the user can be reduced and the convenience can be improved.

[読み取り時の操作]
入力端子700から送信される画像情報は、プリント部106による印刷物104を、カメラ付携帯端末101によって撮影しているので、プリンタ出力以前の画像情報とは異なって分離ができない場合がある。その理由としては、撮影時にカメラ付携帯端末101の姿勢が印刷物104に正対していないことから、画像に幾何学的な歪みが発生していることがある。
[Operation when reading]
The image information transmitted from the input terminal 700 may not be separated from the image information before the printer output because the printed matter 104 by the print unit 106 is photographed by the mobile terminal 101 with a camera. The reason is that the posture of the mobile terminal 101 with a camera does not face the printed matter 104 at the time of shooting, so that the image is geometrically distorted.

図11は、カメラ付携帯端末101の撮影時の姿勢を説明するための図である。図11(a)は、カメラ付携帯端末101のディスプレイ110がある面を示し、図11(b)は、その反対側を示す。図11(b)に示すように、カメラ付携帯端末101にはカメラレンズ1100が設けられている。図11(c)は、図11(a)をX方向から見た図であり、図11(d)は、図11(a)をY方向から見た図である。 FIG. 11 is a diagram for explaining the posture of the mobile terminal 101 with a camera at the time of shooting. FIG. 11A shows the side of the camera-equipped mobile terminal 101 where the display 110 is located, and FIG. 11B shows the opposite side. As shown in FIG. 11B, the camera-equipped mobile terminal 101 is provided with a camera lens 1100. 11 (c) is a view of FIG. 11 (a) viewed from the X direction, and FIG. 11 (d) is a view of FIG. 11 (a) viewed from the Y direction.

カメラ付携帯端末101の姿勢には、回転(yaw)、アオリ(pitch)、傾斜(roll)の3種類があり、図11(a)、(c)、(d)に示す通りである。しかしながら、幾何学変換によってこれらの影響を補正しようとしても、どれぐらいの傾きや回転角で撮影されたのかが不明であるので、補正を行うことができない。 There are three types of postures of the camera-equipped mobile terminal 101: yaw, pitch, and roll, as shown in FIGS. 11A, 11C, and 11D. However, even if an attempt is made to correct these effects by geometric transformation, it is not possible to correct them because it is unknown at what tilt and angle of rotation the image was taken.

図12は、アオリと回転が不適正な場合を示す図である。カメラ付携帯端末101に、印刷物104に対して図12(a)に示すようなアオリ角が付いており、図12(b)に示すような回転角が付いている。この場合、カメラ付携帯端末101から見た印刷物104は、図12(c)のようになっており歪みが生じているが、撮影によって取得される画像1200では、印刷物104の端部が見えないので、歪みが生じていることが分からない。しかしながら、実際は歪みが生じているので、撮影された画像から多重化の分離を行うことが困難となる。 FIG. 12 is a diagram showing a case where the tilt and rotation are improper. The camera-equipped mobile terminal 101 has a tilt angle as shown in FIG. 12A and a rotation angle as shown in FIG. 12B with respect to the printed matter 104. In this case, the printed matter 104 seen from the camera-equipped mobile terminal 101 is distorted as shown in FIG. 12 (c), but the end portion of the printed matter 104 cannot be seen in the image 1200 acquired by shooting. Therefore, it is not known that the distortion is occurring. However, since distortion actually occurs, it becomes difficult to separate the multiplexing from the captured image.

その対策として、本実施形態では、図13(a)に示すように、まず、印刷物104の上にカメラ付携帯端末101を正対して重ねるために、ディスプレイ110に図14(a)のような指示を表示する。つまり、図14(a)に示すようなメッセージを表示することで、ユーザに対して、カメラ付携帯端末101を印刷物104に対して正対する位置にセットするように促す。ここで、OKボタン1401が押下されると、加速度センサ111と地磁気センサ112の値を取得し、両方の値から回転行列を作成してシステムの座標軸に行列変換を行って回転、アオリ、傾斜を算出し、基準状態の姿勢情報としてRAM212内に格納する。これらの計算には公知の技術を用いれば良く、例えば図17に示すようにAndroid(登録商標)のシステム標準APIを用いても良い。 As a countermeasure, in the present embodiment, as shown in FIG. 13 (a), first, in order to superimpose the camera-equipped mobile terminal 101 on the printed matter 104 facing directly, the display 110 is as shown in FIG. 14 (a). Display instructions. That is, by displaying the message as shown in FIG. 14A, the user is urged to set the camera-equipped mobile terminal 101 at a position facing the printed matter 104. Here, when the OK button 1401 is pressed, the values of the acceleration sensor 111 and the geomagnetic sensor 112 are acquired, a rotation matrix is created from both values, and a matrix conversion is performed on the coordinate axes of the system to rotate, tilt, and tilt. It is calculated and stored in the RAM 212 as the attitude information in the reference state. A known technique may be used for these calculations, and for example, the system standard API of Android (registered trademark) may be used as shown in FIG.

OKボタン1401が押下されると、姿勢情報を算出すると同時にディスプレイ110に図14(b)のような指示を表示する。その表示により、ユーザーーは、端末を持ち上げて所望の位置に移動して印刷物104の撮影を行うことになる。本実施形態では、撮影ボタン1402を押下することで撮影を行うが、OKボタン1401が押下された時から動画の撮影を開始し、逐次静止画を切り出して多重化の分離処理を行っても良い。 When the OK button 1401 is pressed, the posture information is calculated and at the same time, an instruction as shown in FIG. 14B is displayed on the display 110. With the display, the user lifts the terminal and moves it to a desired position to take a picture of the printed matter 104. In the present embodiment, shooting is performed by pressing the shooting button 1402, but shooting of a moving image may be started from the time when the OK button 1401 is pressed, and still images may be sequentially cut out to perform multiplexing separation processing. ..

OKボタン1401が押下されると、基準状態の姿勢情報を算出した後からは、定期的に姿勢情報を算出し、RAM212内に格納された基準状態の姿勢情報と比較して、その差分がROM211内に記録された規定の許容範囲内にあるか否かを判定する。このとき、ユーザーが図13(c)に示すように印刷物104に対して平行なまま持ち上げることができれば、ディスプレイ110の表示は、図14(c)に示すように、その姿勢を維持するように通知する。しかしながら、図15に示すように現状の姿勢情報と基準状態の姿勢情報の差分が規定の許容範囲を超えるようにユーザーが端末を持ち上げた場合、図16に示すような画面が表示される。例えば、図16(a)に示すように、規定の許容範囲を超えた値を元に戻すためのガイダンスメッセージの通知を行う。または、図16(b)に示すように、現姿勢の状態をグラフィカルに通知する。 When the OK button 1401 is pressed, the posture information in the reference state is calculated, and then the posture information is periodically calculated and compared with the posture information in the reference state stored in the RAM 212, and the difference is ROM 211. Determine if it is within the specified tolerance recorded in. At this time, if the user can lift the printed matter 104 while being parallel to the printed matter 104 as shown in FIG. 13 (c), the display 110 should maintain the posture as shown in FIG. 14 (c). Notice. However, as shown in FIG. 15, when the user lifts the terminal so that the difference between the current posture information and the posture information in the reference state exceeds the specified allowable range, the screen as shown in FIG. 16 is displayed. For example, as shown in FIG. 16A, a guidance message for returning a value exceeding a specified allowable range is notified. Alternatively, as shown in FIG. 16B, the state of the current posture is graphically notified.

図16(b)は、水準器とコンパスを合わせた表示になっており、泡のようなシンボル1602が中心にあれば、アオリと傾斜の角度が基準状態と同じであることを示している。点線矢印1603は、OKボタン1401を押下した時の方角を指しているので、点線矢印1603が実線矢印1604と重なれば回転の角度が基準状態と同じであることを示している。 FIG. 16B shows a display in which the spirit level and the compass are combined, and if the bubble-like symbol 1602 is in the center, the angle between tilt and inclination is the same as the reference state. Since the dotted arrow 1603 points in the direction when the OK button 1401 is pressed, if the dotted arrow 1603 overlaps with the solid arrow 1604, it indicates that the rotation angle is the same as the reference state.

図18は、本実施形態における表示制御処理の手順を示すフローチャートである。図18の処理は、例えば、カメラ付携帯端末101のCPU210がROM211に記憶されているプログラムをRAM212に読み出して実行することにより実現される。図18の処理は、ユーザーによるカメラ撮影等、カメラ付携帯端末101の撮像センサ107の機能が実行されたときに開始される。または、ユーザーがカメラ付携帯端末101を操作してアプリケーション起動し、多重化情報を読み取る指示を入力した場合に実行されても良い。この場合、CPU210は、付加情報分離部108を備えるアプリケーションをメモリからを読みだして実行することで後述する処理を実行する。 FIG. 18 is a flowchart showing the procedure of the display control process in the present embodiment. The process of FIG. 18 is realized, for example, by the CPU 210 of the camera-equipped mobile terminal 101 reading the program stored in the ROM 211 into the RAM 212 and executing the program. The process of FIG. 18 is started when the function of the image sensor 107 of the mobile terminal 101 with a camera is executed, such as a camera shooting by a user. Alternatively, it may be executed when the user operates the mobile terminal 101 with a camera to start the application and inputs an instruction to read the multiplexing information. In this case, the CPU 210 executes the process described later by reading the application including the additional information separation unit 108 from the memory and executing the application.

S1801では、CPU210は、図14(a)に示すメッセージをディスプレイ110に表示する。図14(a)に示すように、「印刷物に端末を正対して重ね、「OK」を押して下さい」というメッセージ1400と、OKボタン1401とがディスプレイ110に表示される。S1802では、CPU210は、OKボタン1401が押下されたか否かを判定する。ここで、押下されたと判定された場合、S1803に進み、押下されていないと判定された場合、S1802の処理を繰り返す。 In S1801, the CPU 210 displays the message shown in FIG. 14A on the display 110. As shown in FIG. 14A, the message 1400 "Please place the terminal facing the printed matter and press" OK "" and the OK button 1401 are displayed on the display 110. In S1802, the CPU 210 determines whether or not the OK button 1401 has been pressed. Here, if it is determined that the button has been pressed, the process proceeds to S1803, and if it is determined that the button has not been pressed, the process of S1802 is repeated.

S1803では、CPU210は、加速度センサ111及び地磁気センサ112により、カメラ付携帯端末101の姿勢情報を取得する。CPU210は、取得された姿勢情報を、基準状態の姿勢情報としてRAM212等の記憶領域に保存する。つまり、ユーザが正対していることを意識してセットしたときのカメラ付携帯端末101の姿勢情報を、基準状態の姿勢情報として取得する。 In S1803, the CPU 210 acquires the attitude information of the camera-equipped mobile terminal 101 by the acceleration sensor 111 and the geomagnetic sensor 112. The CPU 210 stores the acquired posture information in a storage area such as the RAM 212 as the posture information in the reference state. That is, the posture information of the mobile terminal 101 with a camera when the user is conscious of facing the user is acquired as the posture information in the reference state.

S1804では、CPU210は、図14(b)に示すメッセージをディスプレイ110に表示する。図14(b)に示すように、「端末をまっすぐ持ち上げて下さい」というメッセージ1403と、撮影ボタン1402とがディスプレイ110に表示される。 In S1804, the CPU 210 displays the message shown in FIG. 14B on the display 110. As shown in FIG. 14B, the message 1403 "Please lift the terminal straight" and the shooting button 1402 are displayed on the display 110.

S1805では、CPU210は、S1803で基準状態の姿勢情報を取得してから所定時間が経過したか否かを判定する。ここで、所定時間が経過したと判定された場合、S1806に進み、所定時間が経過していないと判定された場合、S1805の処理を繰り返す。S1806では、CPU210は、加速度センサ111及び地磁気センサ112により、現時点でのカメラ付携帯端末101の姿勢情報を取得する。ここでの所定時間とは、ユーザがカメラ付携帯端末101をまっすぐ持ち上げている動作の間に、正対している状態でなくなったことを検知可能な時間間隔であり、例えば0.05秒である。つまり、所定時間ごとにS1805において加速度センサ111及び地磁気センサ112からの姿勢情報の取得が行われる。 In S1805, the CPU 210 determines whether or not a predetermined time has elapsed since the attitude information in the reference state was acquired in S1803. Here, if it is determined that the predetermined time has elapsed, the process proceeds to S1806, and if it is determined that the predetermined time has not elapsed, the process of S1805 is repeated. In S1806, the CPU 210 acquires the posture information of the mobile terminal 101 with a camera at the present time by the acceleration sensor 111 and the geomagnetic sensor 112. The predetermined time here is a time interval during which the user can detect that he / she is no longer facing the camera-equipped mobile terminal 101 while he / she is lifting the camera-equipped mobile terminal 101 straight, for example, 0.05 seconds. .. That is, the attitude information is acquired from the acceleration sensor 111 and the geomagnetic sensor 112 in S1805 at predetermined time intervals.

S1807では、CPU210は、S1805で取得された姿勢情報が、S1803で取得された基準状態の姿勢情報から規定の許容範囲内であるか否かを判定する。なお、S1807の判定処理は、言い換えれば、撮像手段により撮像された画像から付加情報を抽出するために適正であるか否かを判定する処理に相当する。ここで、規定の許容範囲内であると判定された場合、S1808において、CPU210は、図14(c)に示すメッセージ1404をディスプレイ110に表示させる表示制御処理を実行する。図14(b)に示すように、「その姿勢を維持して下さい」というメッセージ1404と、撮影ボタン1402とがディスプレイ110に表示される。一方、規定の許容範囲内でないと判定された場合、S1811を実行する。つまり、CPU210は、図16(a)に示すメッセージ1601、若しくは、図16(b)に示す水準器及びコンパスをディスプレイ110に表示させる表示制御処理を実行する。 In S1807, the CPU 210 determines whether or not the posture information acquired in S1805 is within the specified allowable range from the posture information in the reference state acquired in S1803. In other words, the determination process of S1807 corresponds to a process of determining whether or not it is appropriate to extract additional information from the image captured by the imaging means. Here, when it is determined that the range is within the specified allowable range, in S1808, the CPU 210 executes a display control process for displaying the message 1404 shown in FIG. 14C on the display 110. As shown in FIG. 14B, the message 1404 "Please maintain that posture" and the shooting button 1402 are displayed on the display 110. On the other hand, if it is determined that it is not within the specified allowable range, S1811 is executed. That is, the CPU 210 executes a display control process for displaying the message 1601 shown in FIG. 16A or the spirit level and compass shown in FIG. 16B on the display 110.

S1808若しくはS1811におけるメッセージの表示後、S1809において、CPU210は、撮影ボタン1402が押下されたか否かを判定する。ここで、撮影ボタン1402が押下されたと判定された場合、S1810において、CPU210は、撮像センサ107により印刷物の撮影を行う。この撮影処理により、カメラ付携帯端末101は、印刷物に埋め込まれ付加情報を取得し、付加情報に基づいた表示処理を実行することができる。例えば、カメラ付携帯端末101は、撮影中の印刷物を表示しながら、付加情報に基づくメッセージ等を重ねて表示することができる。また、カメラ付携帯端末101は、付加情報から取得されたURLに対応する画面を表示することができる。その後、図18の処理を終了する。一方、撮影ボタン1402が押下されていないと判定された場合、S1805からの処理を繰り返す。 After displaying the message in S1808 or S1811, in S1809, the CPU 210 determines whether or not the shooting button 1402 is pressed. Here, when it is determined that the shooting button 1402 is pressed, in S1810, the CPU 210 takes a picture of the printed matter by the image sensor 107. By this shooting process, the mobile terminal 101 with a camera can be embedded in the printed matter to acquire additional information and execute a display process based on the additional information. For example, the camera-equipped mobile terminal 101 can display a printed matter being photographed while superimposing a message or the like based on additional information. In addition, the camera-equipped mobile terminal 101 can display a screen corresponding to the URL acquired from the additional information. After that, the process of FIG. 18 is completed. On the other hand, when it is determined that the shooting button 1402 is not pressed, the process from S1805 is repeated.

以上のように、本実施形態によれば、撮影前に、カメラ付携帯端末の内蔵カメラによる電子透かし読取時の適正な撮像姿勢と現在の撮像姿勢との差分を用いて通知を行うことで、読み取りに適した撮像姿勢に修正させることができる。 As described above, according to the present embodiment, before shooting, a notification is given using the difference between the proper imaging posture and the current imaging posture when the digital watermark is read by the built-in camera of the mobile terminal with a camera. It can be corrected to an imaging posture suitable for reading.

(その他の実施例)
上述した実施形態では、S1809の前に実行されるS1807の判定処理の実行結果を用いてS1808またはS1811のメッセージ表示処理を実行していた。つまり、撮影前にメッセージ表示処理が実行されることになるが、他のタイミングでメッセージ表示処理が実行されても良い。例えば、撮影が、動画撮影のように複数回の撮影処理を実行している場合、撮影開始後にS1807のような判定処理を実行し、撮影開始後にメッセージ表示処理が実行されても良い。
(Other Examples)
In the above-described embodiment, the message display process of S1808 or S1811 is executed using the execution result of the determination process of S1807 executed before S1809. That is, the message display process is executed before shooting, but the message display process may be executed at other timings. For example, when shooting is performing a plurality of shooting processes such as moving image shooting, a determination process such as S1807 may be executed after the start of shooting, and a message display process may be executed after the start of shooting.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 画像処理装置: 101 カメラ付携帯端末: 200、210 CPU: 201、211 ROM: 202、212 RAM 100 Image processing device: 101 Mobile terminal with camera: 200, 210 CPU: 201, 211 ROM: 202, 212 RAM

Claims (10)

情報処理装置であって、
前記情報処理装置を被写体に対して基準の姿勢となるようにセットするよう通知する第1の通知手段と、
付加情報が多重化された画像を前記被写体の画像として撮像する撮像手段と、
前記情報処理装置の姿勢情報を取得する取得手段と、
前記取得手段により取得された前記姿勢情報に基づいて、前記情報処理装置の前記被写体に対する姿勢が、前記撮像手段により撮像された前記画像から前記付加情報を抽出するために適正であるか否かを判定する判定手段と、
前記情報処理装置の前記被写体に対する姿勢が、前記撮像手段により撮像された前記画像から前記付加情報を抽出するために適正でないと判定された場合、前記撮像手段による撮影前に、表示部に当該姿勢を適正とするための画面を表示させる表示制御手段と、
を備え、
前記取得手段は、前記第1の通知手段による通知の後、前記姿勢情報を取得する、
ことを特徴とする情報処理装置。
It is an information processing device
A first notification means for notifying the subject to set the information processing device so as to have a reference posture.
Imaging means for taking an image additional information is multiplexed as an image of the object,
An acquisition means for acquiring the posture information of the information processing device, and
Based on the posture information acquired by the acquisition means, whether or not the posture of the information processing device with respect to the subject is appropriate for extracting the additional information from the image captured by the imaging means. Judgment means for judgment and
Attitude to the subject of the information processing apparatus, when it is determined not to be appropriate to extract the additional information from the image captured by the imaging means, before photographing by the imaging means, the position on the display unit Display control means to display the screen to make it appropriate,
With
The acquisition means acquires the posture information after the notification by the first notification means.
An information processing device characterized by this.
記取得手段による前記姿勢情報の取得の後、前記情報処理装置を撮影のための位置まで移動するよう通知する第2の通知手段、をさらに備えることを特徴とする請求項に記載の情報処理装置。 Before After the acquisition of the pre Kisugata posture information by Quito resulting unit, according to claim 1, further comprising a second notifying means, for notifying to move the information processing apparatus to a position for photographing Information processing equipment. 記取得手段は、基準の姿勢情報の取得の後、所定の時間間隔で、前記姿勢情報を取得することを特徴とする請求項1又は2に記載の情報処理装置。 Before Quito resulting means, after acquisition of standards of orientation information, at predetermined time intervals, before the information processing apparatus according to claim 1 or 2, characterized in that to obtain the Kisugata biased information. 前記判定手段により、前記情報処理装置の前記被写体に対する姿勢が、前記撮像手段により撮像された前記画像から前記付加情報を抽出するために適正であると判定された場合、当該姿勢を維持するよう通知する第3の通知手段、をさらに備えることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。 When the determination means determines that the posture of the information processing device with respect to the subject is appropriate for extracting the additional information from the image captured by the imaging means, the determination means notifies that the posture is maintained. The information processing apparatus according to any one of claims 1 to 3, further comprising a third notification means. 記姿勢情報は、前記情報処理装置の回転の角度、アオリの角度、傾斜の角度のいずれかを含むことを特徴とする請求項乃至のいずれか1項に記載の情報処理装置。 Before Kisugata posture information, the angle of rotation of the information processing apparatus, the angle of tilt, the information processing apparatus according to any one of claims 1 to 4, characterized in that it comprises one of the angle of the inclined. 前記表示制御手段は、前記表示部に前記情報処理装置の姿勢を適正とするためのガイダンスメッセージを表示させることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 5 , wherein the display control means causes the display unit to display a guidance message for optimizing the posture of the information processing device. 前記表示制御手段は、前記表示部に前記情報処理装置の姿勢を適正とするための画面として、水準器とコンパスのいずれかを含む画面を表示させることを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。 Any of claims 1 to 6 , wherein the display control means causes the display unit to display a screen including either a spirit level or a compass as a screen for optimizing the posture of the information processing device. The information processing device according to item 1. 前記表示制御手段は、前記表示部に、前記撮像手段による撮影の指示を受け付ける受付手段をさらに表示することを特徴とする請求項1乃至のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 7 , wherein the display control means further displays a reception means for receiving a shooting instruction by the imaging means on the display unit. 情報処理装置において実行される制御方法であって、
前記情報処理装置を被写体に対して基準の姿勢となるようにセットするよう通知する通知工程と、
付加情報が多重化された画像を前記被写体の画像として撮像する撮像工程と、
前記情報処理装置の姿勢情報を取得する取得工程と、
前記取得工程において取得された前記姿勢情報に基づいて、前記情報処理装置の前記被写体に対する姿勢が、前記撮像工程において撮像された前記画像から前記付加情報を抽出するために適正であるか否かを判定する判定工程と、
前記情報処理装置の前記被写体に対する姿勢が、前記撮像工程において撮像された前記画像から前記付加情報を抽出するために適正でないと判定された場合、前記撮像工程における撮影前に、表示部に当該姿勢を適正とするための画面を表示させる表示制御工程と、
を有し、
前記取得工程では、前記通知工程における通知の後、前記姿勢情報を取得する、
ことを特徴とする制御方法。
A control method executed in an information processing device.
A notification process for notifying the subject to set the information processing device so as to have a reference posture.
An imaging step of capturing an image of the additional information is multiplexed as an image of the object,
The acquisition process for acquiring the attitude information of the information processing device, and
Based on the posture information acquired in the acquisition step, whether or not the posture of the information processing device with respect to the subject is appropriate for extracting the additional information from the image captured in the imaging step. Judgment process and
Attitude to the subject of the information processing apparatus, when it is determined not to be appropriate to extract the additional information from the image captured in the imaging step, before photographing in the imaging step, the orientation on the display unit Display control process to display the screen to make the information processing and
Have,
In the acquisition step, after the notification in the notification step, the posture information is acquired.
A control method characterized by that.
コンピュータを、請求項1乃至8のいずれか1項に記載の情報処理装置の手段として機能させるためのプログラム。 The computer program for functioning as a means of the information processing apparatus according to any one of claims 1 to 8.
JP2017108320A 2017-05-31 2017-05-31 Information processing equipment, control methods and programs Active JP6909055B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017108320A JP6909055B2 (en) 2017-05-31 2017-05-31 Information processing equipment, control methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017108320A JP6909055B2 (en) 2017-05-31 2017-05-31 Information processing equipment, control methods and programs

Publications (2)

Publication Number Publication Date
JP2018207230A JP2018207230A (en) 2018-12-27
JP6909055B2 true JP6909055B2 (en) 2021-07-28

Family

ID=64958300

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017108320A Active JP6909055B2 (en) 2017-05-31 2017-05-31 Information processing equipment, control methods and programs

Country Status (1)

Country Link
JP (1) JP6909055B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7433912B2 (en) 2020-01-06 2024-02-20 キヤノン株式会社 Information processing device, control method for information processing device, program, and storage medium

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100876006B1 (en) * 2005-08-04 2008-12-26 니폰 덴신 덴와 가부시끼가이샤 Electronic watermark embedding method, electronic watermark embedding apparatus and program
JP2011078002A (en) * 2009-10-01 2011-04-14 Nikon Corp Image-pickup device
JP4880096B1 (en) * 2010-06-30 2012-02-22 富士フイルム株式会社 Multi-view shooting control device, multi-view shooting control method, and multi-view shooting control program
CN106663213A (en) * 2014-05-12 2017-05-10 飞利浦灯具控股公司 Detection of coded light
JP6322099B2 (en) * 2014-09-12 2018-05-09 キヤノン株式会社 Image processing apparatus and image processing method
JP2017005363A (en) * 2015-06-05 2017-01-05 カシオ計算機株式会社 Notification control device, notification control method, and program
JP6643854B2 (en) * 2015-10-06 2020-02-12 キヤノン株式会社 Information processing apparatus, information processing method, and computer program
US10412265B2 (en) * 2015-10-06 2019-09-10 Canon Kabushiki Kaisha Information processing apparatus that displays a prompt to move the apparatus and information processing method

Also Published As

Publication number Publication date
JP2018207230A (en) 2018-12-27

Similar Documents

Publication Publication Date Title
JP6322099B2 (en) Image processing apparatus and image processing method
JP5423893B2 (en) Imaging apparatus, image processing apparatus, and image processing program recording medium
JP6397284B2 (en) Image processing apparatus, image processing method, and program
EP1432232A1 (en) Image metadata processing system and method
JP6386841B2 (en) Image processing apparatus, program, image processing system, and image processing method
US8160295B2 (en) Image-processing device and image-processing method for embedding code patterns in image information
US10992837B2 (en) Information processing apparatus, control method thereof, and storage medium
CN107566684B (en) Image processing apparatus, image processing method, and storage medium
JP6808581B2 (en) Information processing equipment, information processing methods and programs
JP2016063324A (en) Image processing device, image processing method, and program
JP6643854B2 (en) Information processing apparatus, information processing method, and computer program
EP2392466B1 (en) Background pattern image combining apparatus, background pattern image combining method, and computer-readable storage medium for computer program
JP6909055B2 (en) Information processing equipment, control methods and programs
JP2014123881A (en) Information processing device, information processing method, and computer program
US10033904B2 (en) Information processing apparatus for multiplexing information in an image, information processing method, and storage medium storing program
JP6952499B2 (en) Information processing equipment and programs
KR20190063401A (en) Image forming apparatus capable of undergoing remote image diagnosis, control method therefor, and storage medium storing control program therefor
JP6976734B2 (en) Image processing equipment, image processing methods, and programs
JP7463087B2 (en) Information processing device, information processing method, and program
JP6664179B2 (en) Information processing apparatus, information processing method and program
JP7458766B2 (en) Information processing device, control method for information processing device, program, and storage medium
JP6025803B2 (en) Image processing device
JP2017073649A (en) Information processing device, information processing method and computer program
JP7182858B2 (en) Image processing device, image processing method, and program
JP7438752B2 (en) Information processing device, control method for information processing device, storage medium, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200528

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210702

R151 Written notification of patent or utility model registration

Ref document number: 6909055

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151