JP6909055B2 - Information processing equipment, control methods and programs - Google Patents
Information processing equipment, control methods and programs Download PDFInfo
- Publication number
- JP6909055B2 JP6909055B2 JP2017108320A JP2017108320A JP6909055B2 JP 6909055 B2 JP6909055 B2 JP 6909055B2 JP 2017108320 A JP2017108320 A JP 2017108320A JP 2017108320 A JP2017108320 A JP 2017108320A JP 6909055 B2 JP6909055 B2 JP 6909055B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- information processing
- posture
- processing device
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、付加情報が多重化された画像を撮影する情報処理装置、制御方法及びプログラムに関する。 The present invention relates to an information processing device, a control method, and a program for capturing an image in which additional information is multiplexed.
画像情報に対して、画像に関連のある他の情報を多重化した電子透かし技術が知られている。電子透かし技術によれば、例えば、写真、絵画等の画像情報中に、その著作者名や、使用許可の可否等の付加情報が視覚的に判別しづらいように多重化される。また、応用分野での技術として、複写機、プリンタ等の画像出力装置の高画質化に伴い、紙幣、印紙、有価証券等の偽造を防止する目的で、紙上に出力された画像から出力機器及びその機体番号を特定するために、画像中に付加情報を埋め込む技術が知られている。 A digital watermarking technique that multiplexes other information related to an image with respect to the image information is known. According to the digital watermarking technology, for example, in image information such as a photograph or a painting, additional information such as the author's name and permission to use is multiplexed so as to be difficult to visually discriminate. In addition, as a technology in the field of application, with the aim of preventing forgery of banknotes, stamps, securities, etc. with the improvement of image quality of image output devices such as copiers and printers, output devices and output devices from images output on paper A technique for embedding additional information in an image is known in order to specify the aircraft number.
また、紙上に出力された画像中に埋め込まれた付加情報を取り出すために、スキャナや携帯端末の内蔵カメラ等の撮像デバイスで、対象の出力物の撮影を行い、その撮影画像を解析することで埋め込まれた情報を取り出す技術が知られている。ここで、対象の出力物を撮影する際には、一般に埋め込まれた情報に対して正位置で撮影した画像が必要になるが、携帯端末の内蔵カメラの場合、撮影姿勢が安定せず、回転や台形歪みが生じてしまい、情報を取り出せないことがある。 In addition, in order to extract additional information embedded in the image output on paper, an imaging device such as a scanner or a built-in camera of a mobile terminal is used to take a picture of the target output object and analyze the taken image. A technique for extracting embedded information is known. Here, when shooting the target output, an image shot at a normal position with respect to the embedded information is generally required, but in the case of the built-in camera of the mobile terminal, the shooting posture is not stable and the image is rotated. Or trapezoidal distortion may occur and information may not be retrieved.
特許文献1には、付加情報を読み取る際に、画像の基準点あるいは基準線を表す印である補正マーカーの付加された補正マーカー付き透かし入り画像を用いることで、電子透かしに対して高度な幾何変換耐性を簡単な処理で実現することが記載されている。
In
上記の補正マーカーを用いる方法では、補正マーカーを読み取るために印刷物全体を撮影する必要があるので、印刷物が画角に入るまで引いて撮影しなくてはならない。その場合、印刷物が遠くなりすぎると、埋め込まれた付加情報を読み取るには解像度が足りなくなってしまう。一方、解像度を上げるために印刷物に近づいて撮影を行うと、補正マーカーが読み取れない。そのため、印刷物の端部を検出して傾きや回転角を推測し、台形補正や回転補正を行おうとしても、印刷物との距離が近いと端部が画角に入らないので上記の推測を行うことができない。 In the method using the correction marker described above, it is necessary to take a picture of the entire printed matter in order to read the correction marker, so that the printed matter must be pulled until it enters the angle of view. In that case, if the printed matter is too far away, the resolution will be insufficient to read the embedded additional information. On the other hand, if the photograph is taken close to the printed matter in order to increase the resolution, the correction marker cannot be read. Therefore, even if you try to perform keystone correction or rotation correction by detecting the edge of the printed matter and estimating the tilt and rotation angle, the edge will not fit in the angle of view if the distance to the printed matter is short, so the above estimation is performed. Can't.
本発明の目的は、このような従来の問題点を解決することにある。上記の点に鑑み、本発明は、付加情報が多重化された画像を被写体として撮影する場合に、被写体を撮影する装置の姿勢を適正とするための通知を行う情報処理装置、制御方法及びプログラムを提供することを目的とする。 An object of the present invention is to solve such a conventional problem. In view of the above points, the present invention provides an information processing device, a control method, and a program for notifying the proper posture of the device for photographing the subject when the image in which the additional information is multiplexed is photographed as the subject. The purpose is to provide.
上記課題を解決するため、本発明に係る情報処理装置は、情報処理装置であって、前記情報処理装置を被写体に対して基準の姿勢となるようにセットするよう通知する第1の通知手段と、付加情報が多重化された画像を前記被写体の画像として撮像する撮像手段と、前記情報処理装置の姿勢情報を取得する取得手段と、前記取得手段により取得された前記姿勢情報に基づいて、前記情報処理装置の前記被写体に対する姿勢が、前記撮像手段により撮像された前記画像から前記付加情報を抽出するために適正であるか否かを判定する判定手段と、前記情報処理装置の前記被写体に対する姿勢が、前記撮像手段により撮像された前記画像から前記付加情報を抽出するために適正でないと判定された場合、前記撮像手段による撮影前に、表示部に当該姿勢を適正とするための画面を表示させる表示制御手段と、を備え、前記取得手段は、前記第1の通知手段による通知の後、前記姿勢情報を取得する、ことを特徴とする。 In order to solve the above problems, the information processing device according to the present invention is an information processing device, which is a first notification means for notifying the subject to set the information processing device so as to have a reference posture. an imaging means for capturing an image additional information is multiplexed as an image of the object, and acquisition means for acquiring orientation information of the information processing apparatus, based on the orientation information acquired by the acquisition unit, wherein A determination means for determining whether or not the attitude of the information processing device with respect to the subject is appropriate for extracting the additional information from the image captured by the imaging means, and an attitude of the information processing device with respect to the subject. display but if it is determined not to be appropriate to extract the additional information from the image captured by the imaging means, before photographing by the imaging means, a screen for proper the posture display unit The information processing means includes a display control means for information processing, and the acquisition means acquires the attitude information after the notification by the first notification means .
本発明によれば、付加情報が多重化された画像を被写体として撮影する場合に、被写体を撮影する装置の姿勢を適正とするための通知を行うことができる。 According to the present invention, when an image in which additional information is multiplexed is photographed as a subject, it is possible to give a notification to make the posture of the device for photographing the subject appropriate.
以下、添付図面を参照して本発明の実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る本発明を限定するものでなく、また本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成要素には同一の参照番号を付して、説明を省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. It should be noted that the following embodiments do not limit the present invention according to the claims, and not all combinations of features described in the present embodiment are essential for the means for solving the present invention. .. The same components are given the same reference numbers, and the description thereof will be omitted.
図1は、画像処理システムの構成を示すブロック図である。本実施形態における画像処理システムは、画像処理装置100とカメラ付携帯端末101とを含む。画像処理装置100は、印刷機能を有する印刷装置であり、例えば、MFP(多機能型周辺装置)である。カメラ付携帯端末101は、例えば、カメラ付携帯電話、カメラ付スマートフォンやタブレットPCである。
FIG. 1 is a block diagram showing a configuration of an image processing system. The image processing system in the present embodiment includes an
本実施形態では、画像処理装置100は、付加情報が多重化された印刷物104を印刷する。そして、カメラ付携帯端末101は、撮像センサ107(カメラ)により、被写体としての印刷物104を撮像する。そのため、本実施形態では、画像処理装置100とカメラ付携帯端末101との間は、有線ネットワークや無線ネットワークで相互に通信可能であっても良いし、ネットワーク等を介して通信可能に接続されていなくても良い。
In the present embodiment, the
画像処理装置100は、付加情報を印刷物104に埋め込む付加情報多重化部105を含み、カメラ付携帯端末101は、多重化された付加情報を印刷物104から読み取る付加情報分離部108を含む。付加情報多重化部105は、例えば、プリント部106(プリンタエンジン)へ出力すべき画像情報を作成するプリンタドライバソフトウエア、もしくは、アプリケーションソフトウエアとして実現される。また、複写機、ファクシミリ、プリンタ本体等にハードウエアやソフトウエアとして内蔵される形態で実現されても良い。
The
また、付加情報分離部108は、例えば、デジタルスチールカメラで撮影した画像から付加情報を分離する内部のアプリケーションソフトウエアやハードウエアで実現されても良い。なお、本実施形態では、付加情報多重化部105とプリント部106が画像処理装置100に含まれるものとして説明するが、付加情報多重化部105とプリント部106が、別々の装置に分けられても良い。例えば、PCやスマートフォン等の情報処理装置が付加情報多重化部105を含み、その情報処理装置とは異なる画像処理装置がプリント部106を含む形態でも良い。なお、情報処理装置が、付加情報多重化部105と付加情報分離部108の両者を含んでいても良い。
Further, the additional
[付加情報の埋込みのための構成]
入力端子102から多階調の画像情報が入力され、入力端子103から画像情報の中に埋め込むべき付加情報が入力される。この付加情報は、画像情報とは別の情報、例えば音声情報や動画情報、文字情報、画像に関する著作権、撮影日時、撮影場所、撮影者の諸情報、若しくは、全く別の画像情報等、である。さらに、付加情報は、画像ファイルとして構成された画像情報の一部として内包されていても良い。
[Configuration for embedding additional information]
Multi-gradation image information is input from the
付加情報多重化部105は、視覚的に判別しづらいように、画像情報中に付加情報を埋め込む(多重化する)。プリント部106は、付加情報多重化部105で作成された情報に基づいて印刷処理を実行する。プリント部106は、例えば、インクジェットプリンタ、レーザプリンタ等、疑似階調処理を用いることにより階調表現を印刷物104上に実現するプリンタである。
The additional
図2(a)は、画像処理装置100のブロック構成を示す図である。CPU200は、画像処理装置100の内部を統括的に制御するプロセッサである。図1の付加情報多重化部105は、例えば、CPU200により実現される。ROM201やHDD203は、画像処理装置100の基本プログラムや制御プログラム、各種アプリケーションやデータ等を記憶する。例えば、CPU200は、ROM201に記憶されたプログラムをRAM202に読み出して実行することにより、各実施形態の動作を実現する。RAM202は、CPU200のワーキングメモリとしても用いられる。
FIG. 2A is a diagram showing a block configuration of the
ネットワークインタフェース(NW I/F)204は、例えば、有線や無線等、ネットワークの形態に応じた構成を有する。また、通信範囲が異なる複数種類の無線ネットワークにも対応可能であり、例えば、通信距離が数cmといった近距離無線通信(NFC:Near Field Communication)により、カメラ付携帯端末101と通信することも可能である。ディスプレイ205は、ユーザーに各設定画面やプレビュー画面等を表示する。操作部206は、例えば、キーボードやタッチパネル等を有し、ユーザーからの操作指示を受付可能である。
The network interface (NW I / F) 204 has a configuration according to the form of the network, for example, wired or wireless. It is also possible to support multiple types of wireless networks with different communication ranges. For example, it is possible to communicate with the camera-equipped
デバイスI/F207は、プリント部106(プリントエンジン)と、システムバス209とを接続する。図2(a)では、プリント部106が示されているが、画像処理装置100の実行可能な機能に応じて、スキャナ、FAX等、他のブロックがデバイスI/F207に接続されても良い。画像処理部208は、外部から取得した画像データに対して、用途に応じた画像処理を実行する。例えば、画像処理部208は、プリント部106の記録方式に応じた色空間変換や二値化処理、画像の拡大/縮小/回転、といった処理を実行する。
The device I /
図2(a)に示す各ブロックは、システムバス209を介して相互に通信可能に接続される。図2(a)に示す構成以外の構成であっても良く、例えば、システムバス209とイメージデータバスとがバスブリッジを介して接続される。その場合には、例えば、デバイスI/F207がイメージデータバスに接続される。図1の入力端子102は、例えば、ネットワークI/F204から入力される構成を示し、また、入力端子103は、例えば、ネットワークI/F204や操作部206から入力される構成を示す。
The blocks shown in FIG. 2A are communicably connected to each other via the
[付加情報の読取りのための構成]
図1のカメラ付携帯端末101上で実行される読取アプリケーションは、撮像センサ107を用いて印刷物104上の情報を読み取り、付加情報分離部108によって、印刷物104中に埋め込まれた付加情報を分離し、出力端子109に出力する。この出力端子109は、取得した付加情報を出力するインタフェースである。例えば、画像情報や文字情報であれば、ディスプレイ110(表示部)へ出力し、URLなどのリンク情報であれば、ディスプレイ110上でブラウザを起動してリンク先を表示する。また、外部デバイスへデータを出力するインタフェースに出力しても良い。
[Configuration for reading additional information]
The reading application executed on the camera-equipped
図2(b)は、カメラ付携帯端末101のブロック構成を示す図である。カメラ付携帯端末101は、CPUやROMやRAMといった、汎用的な情報処理装置の構成を含む。CPU210は、カメラ付携帯端末101の内部を統括的に制御するプロセッサである。図1の付加情報分離部108は、例えば、CPU210により実現される。ROM211は、カメラ付携帯端末101の基本プログラムや制御プログラム、各種アプリケーションやデータ等を記憶する。例えば、CPU210は、ROM211に記憶されたプログラムをRAM212に読み出して実行することにより、各実施形態の動作を実現する。RAM212は、CPU210のワーキングメモリとしても用いられる。
FIG. 2B is a diagram showing a block configuration of the camera-equipped
ネットワークI/F213は、例えば、有線や無線等、ネットワークの形態に応じた構成を有する。また、通信範囲が異なる複数種類の無線ネットワークにも対応可能であり、例えば、通信距離が数cmといった近距離無線通信(NFC:Near Field Communication)により、画像処理装置100と通信することも可能である。ディスプレイ110は、ユーザーに各設定画面やプレビュー画面等を表示する。また、ディスプレイ110は、後述するが、撮像センサ107による撮像結果を表示する。操作部214は、例えば、ハードキー等を有し、ユーザーからの操作指示を受付可能である。加速度センサ111は、カメラ付携帯端末101にかかる重力加速度を検出し、地磁気センサ112は、カメラ付携帯端末101の向いている方位を検出する。図2(b)に示す各ブロックは、システムバス215を介して相互に通信可能に接続されている。
The network I /
[付加情報の埋込み処理]
図3は、図1の付加情報多重化部105に含まれる埋込みを行う構成を示すブロック図である。誤差拡散処理部300は、入力端子102に入力された画像情報に、一般的な誤差拡散法を用いた疑似階調処理を行うことによって、入力階調数よりも少ない量子化レベルに変換し、複数画素の量子化値により、面積的に階調性を表現する。
[Embedding of additional information]
FIG. 3 is a block diagram showing a configuration for embedding included in the additional
ブロック化部301は、入力端子102に入力された画像情報を所定領域(ブロック)単位に区分する。ブロック化部301により行われるブロック化は、矩形に区分されても良いし、矩形以外の領域に区分されても良い。量子化条件制御部302は、入力端子103で入力された付加情報に基づいて、ブロック化部301にてブロック化された領域単位で、量子化条件を変更するように制御する。また、量子化条件制御部302は、入力端子103に入力された付加情報に基づき、ブロック単位で量子化条件を変更する。
The blocking
次に、量子化条件制御部302を含む全体の処理について、図4のフローチャートを参照しながら説明する。量子化値は二値である例について説明する。図4の処理は、例えば、画像処理装置100のCPU200がROM201に記憶されているプログラムをRAM202に読み出して実行することにより実現される。
Next, the entire process including the quantization
S401では、CPU200は、RAM202に確保された変数iを初期化する。ここで、変数iは、垂直方向のアドレスをカウントする変数である。S402では、CPU200は、RAM202に確保された変数jを初期化する。ここで、変数jは、水平方向のアドレスをカウントする変数である。続いて、S403では、CPU200は、現在の処理アドレスである座標(i,j)が多重化処理を実行すべき領域に属しているか否かを判定する。
In S401, the
図5を参照しながら、多重化領域について説明する。図5は、水平画素数がWIDTH、垂直画素数がHEIGHTから成る、一つの画像を示している。本実施形態では、この画像中に付加情報が多重化される例を説明する。画像の左上を原点として、横N画素、縦M画素でブロック化が行われる。本実施形態では、原点を基準点としてブロック化が行われるが、原点から離れた点を基準点として設定するようにしても良い。この画像中に最大限の情報を多重化するために、N×Mのブロックを基準点から配置していくとして説明する。水平方向に配置可能なブロック数をW、垂直方向に配置可能なブロック数をHとすると、WとHは、式(1)及び(2)から算出される。 The multiplexing region will be described with reference to FIG. FIG. 5 shows one image in which the number of horizontal pixels is WIDTH and the number of vertical pixels is HEIGHT. In this embodiment, an example in which additional information is multiplexed in this image will be described. Blocking is performed with horizontal N pixels and vertical M pixels with the upper left of the image as the origin. In the present embodiment, blocking is performed with the origin as a reference point, but a point away from the origin may be set as a reference point. In order to multiplex the maximum amount of information in this image, N × M blocks will be arranged from the reference point. Assuming that the number of blocks that can be arranged in the horizontal direction is W and the number of blocks that can be arranged in the vertical direction is H, W and H are calculated from the equations (1) and (2).
W = INT(WIDTH/N) ・・・(1)
H = INT(HEIGHT/M) ・・・(2)
但し、INT()は()内の整数部分を示す。
W = INT (WIDTH / N) ・ ・ ・ (1)
H = INT (HEIGHT / M) ・ ・ ・ (2)
However, INT () indicates the integer part in ().
式(1)、(2)において割り切れない剰余画素数が、N×Mのブロックを複数配置した時の端部に相当し、本実施形態では、その部分を符号多重化領域外とする。 The number of surplus pixels that cannot be divided in the equations (1) and (2) corresponds to the end portion when a plurality of N × M blocks are arranged, and in the present embodiment, that portion is outside the code multiplexing region.
図4のS403では、現在処理している注目画素が多重化領域内でない、即ち、多重化領域外であると判定された場合には、S404において、CPU200は、量子化条件Cを設定する。一方、多重化領域内であると判定された場合には、S405において、CPU200は、多重化すべき付加情報を読み込む。ここで、説明を容易にする為に、付加情報は、code[]という配列を用いて、各1ビットずつ表現されるものとする。例えば、付加情報を48ビット分の情報と仮定すると、配列code[]には、code[0]からcode[47]まで、各1ビットずつが格納されている。
In S403 of FIG. 4, when it is determined that the pixel of interest currently being processed is not in the multiplexing region, that is, outside the multiplexing region, the
S405において、CPU200は、RAM202に確保された変数bitに、式(3)のように、配列code[]内の情報を代入する。
In S405, the
bit = code[INT(i/M)×W+INT(j/N)]・・・(3)
S406では、CPU200は、代入された変数bitが"1"であるか否かを判定する。前述したように、配列code[]内の情報は各1ビットずつ格納されているので、変数bitの値も"0"か"1"かの何れかを示すことになる。
bit = code [INT (i / M) x W + INT (j / N)] ... (3)
In S406, the
ここで、"0"であると判定された場合には、S407において、CPU200は、量子化条件Aを設定し、"1"であると判定された場合には、S408において、CPU200は、量子化条件Bを設定する。
Here, if it is determined to be "0", the
次に、S409では、CPU200は、S404、S407、S408で設定された量子化条件に基づいて量子化処理を行う。この量子化処理は、誤差拡散法により行われる。
Next, in S409, the
S410では、CPU200は、水平方向変数jをカウントアップして、S411において、カウントアップされた変数jが画像の水平画素数であるWIDTH未満か否かを判定する。ここで、変数jがWIDTH未満であると判定された場合、S403からの処理を繰り返す。一方、変数jがWIDTH未満でないと判定された場合、即ち、水平方向の処理がWIDTH画素数分終了した場合、S412において、CPU200は、垂直方向変数iをカウントアップする。そして、S413において、CPU200は、カウントアップされた変数iが画像の垂直画素数であるHEIGHT未満か否かを判定する。ここで、変数iがHEIGHT未満であると判定された場合、S402からの処理を繰り返す。一方、変数iがHEIGHT未満でないと判定された場合、即ち、垂直方向の処理がHEIGHT画素数分終了した場合、図4の処理を終了する。以上の処理により、N×M画素よりなるブロック単位で、量子化条件を変更する。
In S410, the
次に、量子化条件A、B、Cの例について説明する。誤差拡散法における量子化条件には様々な因子があるが、本実施形態において量子化条件の因子は、量子化閾値である。S404で設定される量子化条件Cは、多重化領域外で用いられるので、量子化閾値はどのような条件でも良い。1画素が8ビットによる階調表現で、量子化レベルが2値の場合には、最大値である"255"、及び、最小値である"0"が量子化代表値となるが、その中間値となる"128"が量子化閾値として設定されることが多い。よって、本実施形態では、量子化条件Cは、量子化閾値を"128"の固定値とする条件とする。 Next, examples of quantization conditions A, B, and C will be described. There are various factors in the quantization condition in the error diffusion method, but in the present embodiment, the factor of the quantization condition is the quantization threshold value. Since the quantization condition C set in S404 is used outside the multiplexing region, the quantization threshold value may be any condition. When one pixel is a gradation expression with 8 bits and the quantization level is binary, the maximum value "255" and the minimum value "0" are typical quantization values, but in between. The value "128" is often set as the quantization threshold. Therefore, in the present embodiment, the quantization condition C is a condition in which the quantization threshold value is a fixed value of "128".
S407で設定される量子化条件Aと、S408で設定される量子化条件Bは、多重化領域内のブロックで用いられるので、量子化条件の違いによる画質の違いを生じさせる必要がある。但し、画質の違いは視覚的には判別しにくいように表現し、かつ、紙上から容易に識別可能である必要がある。 Since the quantization condition A set in S407 and the quantization condition B set in S408 are used in the blocks in the multiplexing region, it is necessary to cause a difference in image quality due to the difference in the quantization condition. However, it is necessary that the difference in image quality is expressed so as to be difficult to visually distinguish and can be easily identified from the paper.
図6(a)及び(b)は、量子化条件A、Bを説明するための図である。図6(a)は、量子化条件Aにおける量子化閾値の変化の周期を示す図である。図中、一つのマスを1画素分と想定し、白いマスは固定閾値、灰色のマスを変動閾値とする。即ち、図6(a)の例では、横8画素、縦4画素のマトリクスを組み、灰色のマスについてのみ突出した値を閾値として設定する。 6 (a) and 6 (b) are diagrams for explaining the quantization conditions A and B. FIG. 6A is a diagram showing the period of change of the quantization threshold value under the quantization condition A. In the figure, one cell is assumed to be one pixel, a white cell is a fixed threshold value, and a gray cell is a variable threshold value. That is, in the example of FIG. 6A, a matrix of 8 pixels in the horizontal direction and 4 pixels in the vertical direction is assembled, and a value that protrudes only for the gray square is set as the threshold value.
図6(b)は、同様に、量子化条件Bにおける量子化閾値の変化の周期を示した図である。図6(b)の例では、図6(a)とは異なり、横4画素、縦8画素のマトリクスを組み、灰色のマスについてのみ突出した値を閾値として設定する。 FIG. 6B is also a diagram showing the period of change of the quantization threshold under the quantization condition B. In the example of FIG. 6B, unlike FIG. 6A, a matrix of 4 horizontal pixels and 8 vertical pixels is assembled, and a value that protrudes only for the gray square is set as a threshold value.
前述したように1画素が8ビットの階調値の場合、例えば、固定閾値として"128"、突出した閾値を"10"と設定する。量子化閾値が低くなると、注目画素の量子化値が"1"(量子化代表値"255")になりやすくなる。即ち、図6(a)、(b)ともに、図中の灰色のマスの並びで量子化値"1"が並びやすくなる。言い換えると、N×M画素のブロック毎に、図6(a)の灰色のマスの並びでドットが発生するブロックと、図6(b)の灰色のマスの並びでドットが発生するブロックとが混在することになる。 As described above, when one pixel has an 8-bit gradation value, for example, a fixed threshold value of "128" and a prominent threshold value of "10" are set. When the quantization threshold is lowered, the quantization value of the pixel of interest tends to be "1" (quantization representative value "255"). That is, in both FIGS. 6A and 6B, the quantized value "1" can be easily arranged in the arrangement of the gray cells in the figure. In other words, for each block of N × M pixels, there are a block in which dots are generated in the arrangement of gray cells in FIG. 6 (a) and a block in which dots are generated in the arrangement of gray cells in FIG. 6 (b). It will be mixed.
誤差拡散法における量子化閾値の多少の変更は、画質的には大きな影響を及ぼさない。組織的ディザ法においては、使用するディザパターンによって、階調表現の画質が大きく左右される。しかしながら、前述したような、規則的に量子化閾値の変化を与えた誤差拡散法では、あくまでも画質を決定する階調表現は誤差拡散法であるので、ドットの並びが多少変化したり、テクスチャの発生が変化したり等は、階調表現の画質には殆ど影響を与えない。量子化閾値が変化した場合でも、あくまでも信号値と量子化値との差分となる誤差は周囲画素に拡散されるので、入力された信号値は、マクロ的に保存される。即ち、誤差拡散法におけるドットの並び、テクスチャの発生に関しては、冗長性が極めて大きいといえる。 A slight change in the quantization threshold in the error diffusion method does not have a great effect on the image quality. In the systematic dither method, the image quality of gradation expression is greatly affected by the dither pattern used. However, in the error diffusion method in which the quantization threshold is regularly changed as described above, the gradation expression that determines the image quality is the error diffusion method, so that the arrangement of dots may change slightly or the texture may change. Changes in generation have almost no effect on the image quality of gradation expression. Even if the quantization threshold changes, the error that is the difference between the signal value and the quantization value is diffused to the surrounding pixels, so that the input signal value is stored macroscopically. That is, it can be said that the redundancy is extremely large with respect to the arrangement of dots and the generation of texture in the error diffusion method.
上記のように、本実施形態では、誤差拡散法の量子化閾値に、符号を表す所定の周期性を重畳することにより、多重化を実現している。しかしながら、他の重畳方式により多重化を実現しても良い。例えば、直接RGBの値(輝度情報)に、周期性を重畳する方式により多重化を実現しても良い。または、RGBの値を、輝度−色差情報など、他の色空間情報(例えばCIE L*a*b*、YCrCb信号)に分離して周期性を重畳する方式により多重化を実現しても良い。または、RGBの値をインク色(例えばCMYK信号)に分離して周期性を重畳する方式により多重化を実現しても良い。 As described above, in the present embodiment, multiplexing is realized by superimposing a predetermined periodicity representing a sign on the quantization threshold of the error diffusion method. However, multiplexing may be realized by another superimposition method. For example, multiplexing may be realized by a method of directly superimposing periodicity on RGB values (luminance information). Alternatively, multiplexing may be realized by a method in which the RGB value is separated into other color space information (for example, CIE L * a * b *, YCrCb signal) such as luminance-color difference information and the periodicity is superimposed. .. Alternatively, multiplexing may be realized by a method in which RGB values are separated into ink colors (for example, CMYK signals) and periodicity is superimposed.
[付加情報の読取処理]
次に、図1の画像処理システムにおける付加情報分離部108の処理について説明する。この処理は、後述する、カメラ付携帯端末101の姿勢を適正にするための通知を利用して撮影された画像から付加情報を分離する処理である。図7は、付加情報分離部108の構成を示すブロック図である。説明を容易にする為に、前述の付加情報多重化部105の場合と同様、分割したブロック内に各1ビットずつの付加情報が多重化されている印刷物104から、付加情報を分離する例について説明する。当然のことながら、付加情報多重化部105における1ブロックあたりの付加情報量と、付加情報分離部108における1ブロックあたりの分離情報量とは等しくなる。
[Reading process of additional information]
Next, the processing of the additional
入力端子700には、カメラ付携帯端末101で読み込まれた画像情報が入力される。ここで、カメラ付携帯端末101の撮像センサ107の解像度(撮像解像度)は、印刷物104を作成する際の印刷解像度以上が好ましい。勿論のことながら、正確に印刷物104のドットの点在情報を読み込むためには、サンプリング定理により、撮像センサ107側はプリンタ側よりも2倍以上の解像度が必要になる。しかしながら、同等以上であれば、正確でなくとも、ある程度ドットが点在しているのを判別することが可能である。本実施形態では、説明を容易にするために印刷解像度と撮像センサ107の解像度とは同一解像度であるとする。
The image information read by the camera-equipped
ブロック化部701は、横P画素、縦Q画素単位にブロック化を行う。ここで、各ブロックは、電子透かしの重畳時にブロック化したN×M画素よりも小さい。即ち、式(4)の関係が成り立つ。
The blocking
P≦N、かつ Q≦M ・・・(4)
また、P×Q画素単位のブロック化は、ある一定間隔毎にスキップして行われる。即ち、多重化時のN×M画素より成るブロックと想定される領域内に、P×Q画素単位のブロックが一つ内包されるようにブロック化が行われる。
P ≦ N and Q ≦ M ・ ・ ・ (4)
Further, the block formation in units of P × Q pixels is performed by skipping at regular intervals. That is, the block is performed so that one block in units of P × Q pixels is included in the area assumed to be a block composed of N × M pixels at the time of multiplexing.
空間フィルタ702、703は、それぞれ特性の異なる空間フィルタA、Bを示し、フィルタリング部704は、周辺画素との積和を演算するディジタルフィルタリング部を示す。この空間フィルタの各係数は、多重化時の量子化条件の変動閾値の周期に対応して設定される。ここで、付加情報多重化部105における量子化条件の変更が図6(a)及び(b)の2種類の周期性を用いて行われることにより、付加情報が多重化されたとする。その場合の付加情報分離部108に用いる空間フィルタ702、空間フィルタ703の例を、図8(a)及び(b)に示す。図8(a)及び(b)中、5×5画素の中央部が注目画素になり、それ以外の24画素分が周辺画素になる。図8(a)及び(b)中、空白部の画素は、フィルタ係数が"0"であることを表す。図8(a)及び(b)に示すように、図8(a)及び(b)は、エッジ強調フィルタになっている。しかも、その強調するエッジの方向性と多重化した時の変動閾値の方向性とが図8(a)及び(b)と図6(a)及び(b)とで一致している。つまり、図8(a)は図6(a)に一致し、また、図8(b)は図6(b)に一致するように、空間フィルタが作成される。
間引き部705、706は、それぞれ、P×Q画素から成るブロック内のフィルタリング後の信号(以下、変換値という)を、ある規則性に基づいて間引き処理する。本実施形態では、周期性と位相のそれぞれの規則性に分離して間引き処理を行う。即ち、間引き部705及び706では間引きの周期性が互いに異なっており、それぞれにおいて、位相を変化させた複数の間引き処理を実行する。間引き処理については後述する。
Each of the thinning
変換値加算部707は、間引き部705及び706により間引きされた変換値を、位相毎にそれぞれ加算する。この間引き処理及び間引き画素の変換値の加算処理は、空間フィルタで強調した所定周波数ベクトルの電力(パワー)を抽出することに相当する。
The conversion
分散値算出部708は、それぞれの周期性において、位相毎に加算した複数の加算値の分散値を算出する。判定部709は、それぞれの周期性における分散値に基づいて、多重化された符号を判定する。
The variance
図9は、二次元の周波数領域を示す図である。横軸は水平方向の周波数を示し、縦軸は垂直方向の周波数を示している。中心となる原点は直流成分を示し、原点から遠ざかるにつれて、高周波域となることを示している。図9中の円は、誤差拡散によるカットオフ周波数を示している。誤差拡散法のフィルタ特性は、低周波域がカットオフされたHPF(ハイパスフィルタ)の特性を示し、そのカットオフされる周波数は、対象画像の濃度に応じて変化する。 FIG. 9 is a diagram showing a two-dimensional frequency domain. The horizontal axis shows the frequency in the horizontal direction, and the vertical axis shows the frequency in the vertical direction. The origin at the center shows the DC component, and it is shown that the frequency becomes higher as the distance from the origin increases. The circle in FIG. 9 shows the cutoff frequency due to error diffusion. The filter characteristic of the error diffusion method shows the characteristic of the HPF (high-pass filter) in which the low frequency region is cut off, and the cutoff frequency changes according to the density of the target image.
本実施形態では、量子化閾値の変更により量子化後に発生する周波数特性が変化するが、図6(a)による量子化閾値の変更では、図9の周波数ベクトルA上に大きなパワースペクトルが生じる。また、図6(b)による量子化閾値の変更では、図9の周波数ベクトルB上に大きなパワースペクトルが生じる。付加情報分離時には、この大きなパワースペクトルが発生する周波数ベクトルを検出することに基づいて、多重化信号の判定が行われる。本実施形態では、各々の周波数ベクトルを個別に強調、抽出することが行われる。 In the present embodiment, the frequency characteristic generated after quantization changes by changing the quantization threshold, but the change of the quantization threshold according to FIG. 6A produces a large power spectrum on the frequency vector A of FIG. Further, in the change of the quantization threshold value according to FIG. 6B, a large power spectrum is generated on the frequency vector B of FIG. At the time of additional information separation, the multiplexing signal is determined based on the detection of the frequency vector in which this large power spectrum is generated. In this embodiment, each frequency vector is individually emphasized and extracted.
図8(a)及び(b)は、特定の周波数ベクトルの方向性を有するHPFに相当する。即ち、図8(a)の空間フィルタでは、図9の直線A上の周波数ベクトルを強調することが可能になり、また、図8(b)の空間フィルタでは、図9の直線B上の周波数ベクトルを強調することが可能になる。例えば、図6(a)に示すような量子化条件の変更により、図9の直線Aの周波数ベクトル上に大きなパワースペクトルが発生したとする。その時に、図8(a)の空間フィルタではパワースペクトルの変化量が増幅するが、図8(b)の空間フィルタでは、ほとんど増幅されない。つまり、複数の空間フィルタを並列にフィルタリングした場合に、周波数ベクトルが一致した空間フィルタ時のみ増幅し、それ以外のフィルタによるフィルタリングの場合には増幅がほとんどない。従って、いかなる周波数ベクトル上に大きなパワースペクトルが発生しているかを容易に判定することができる。 8 (a) and 8 (b) correspond to an HPF having a specific frequency vector directionality. That is, the spatial filter of FIG. 8A can emphasize the frequency vector on the straight line A of FIG. 9, and the spatial filter of FIG. 8B can emphasize the frequency on the straight line B of FIG. It becomes possible to emphasize the vector. For example, it is assumed that a large power spectrum is generated on the frequency vector of the straight line A of FIG. 9 due to the change of the quantization condition as shown in FIG. 6A. At that time, the amount of change in the power spectrum is amplified by the spatial filter of FIG. 8 (a), but is hardly amplified by the spatial filter of FIG. 8 (b). That is, when a plurality of spatial filters are filtered in parallel, amplification is performed only when the spatial filters have the same frequency vector, and there is almost no amplification when filtering by other filters. Therefore, it is possible to easily determine on what frequency vector a large power spectrum is generated.
図10は、図7の間引き部705及び706、変換値加算部707、分散値算出部708、判定部709の処理を示すフローチャートである。図10の処理は、例えば、カメラ付携帯端末101のCPU210がROM211に記憶されているプログラムをRAM212に読み出して実行することにより実現される。
FIG. 10 is a flowchart showing the processing of the thinning
図10中、S1001及びS1002は、変数の初期化を示し、CPU210は、RAM212内に確保された変数i、jの値を0に初期化する。S1003では、CPU210は、間引き部705及び706による間引きの規則性の因子、即ち、"周期性"及び"位相"の2因子を決定する。本フローチャートでは、周期性に関する変数をi、位相に関する変数をjとする。この周期性及び位相の条件は、番号(ナンバー)により管理され、ここでは、周期性ナンバー(以下No.と略す)がi、位相No.がjである間引き方法の因子を設定する。
In FIG. 10, S1001 and S1002 indicate the initialization of the variables, and the
S1004では、CPU210は、ブロック内で間引きをした変換値を加算し、その加算値を変数の配列TOTAL[i][j]として記憶する。S1005では、CPU210は、変数jをカウントアップし、S1006において、固定値Jと比較する。固定値Jには、位相を変化させて間引き処理をする回数が格納されている。ここで、変数jがJ未満であれば、S1003に戻り、カウントアップ後のjによる新たな位相No.により、間引き処理及び間引き画素の変換値の加算処理が繰り返される。
In S1004, the
位相をずらした間引き処理及び間引き画素の変換値の加算処理が設定回数終了した場合、S1007において、CPU210は、加算結果TOTAL[i][j]の分散値を算出する。即ち、各加算結果が位相の差によりどの程度ばらついているかが評価される。ここでは、iを固定して、J個のTOTAL[i][j]の分散値を求める。ここで、分散値をB[i]とする。
When the phase-shifted thinning process and the thinning pixel conversion value addition process are completed a set number of times, in S1007, the
S1008において、CPU210は、変数iをカウントアップし、S1009において、固定値Iと比較する。固定値Iには、周期性を変化させて間引き処理をする回数が格納されている。ここで、変数iがI未満であれば、S1002に戻り、カウントアップ後のiによる新たな周期性No.の条件を用いて、再び、間引き処理及び間引き画素の変換値の加算処理が繰り返される。
In S1008, the
S1009において、CPU210は、iが設定回数終了したと判定されると、分散値B[i]は、I個算出できたことになる。S1010にて、I個の分散値の集合から、分散値の最大値を検出し、その時のiの値を変数imaxに代入する。S1011において、CPU210は、周期性No.がimaxである符号を、多重化された符号であると判定する。その後、図10の処理を終了する。
In S1009, when the
このように、量子化条件と、空間フィルタ特性と、間引き条件の周期性とを関連付けることで、多重化及び分離が容易に実現できる。本実施形態では、ブロック内の多重化符号は1ビットであった。しかしながら、多重化符号は、1ビットより多くても良い。 In this way, by associating the quantization condition, the spatial filter characteristic, and the periodicity of the thinning condition, multiplexing and separation can be easily realized. In this embodiment, the multiplexing code in the block is 1 bit. However, the multiplexing code may be more than one bit.
本実施形態では、上記のように多重化情報(付加情報)を不可視で埋め込み、さらに、撮像して読み込むので、印刷物上にコード部を配置する必要がない。従って、例えば、写真鑑賞の観点で不必要と考えられるコード部の配置を避けることができる。加えて、印刷物のコード部を撮像してその後に写真部を撮像する、あるいは、どの特徴量を使用するかのユーザー操作後に写真部を撮像する、という2アクションのユーザーの手間を必要としない。つまり、本実施形態では、印刷物の写真部のみを撮像する1アクションで実行できるので、ユーザー工数を低減し、利便性を向上させることができる。 In the present embodiment, the multiplexing information (additional information) is embedded invisible as described above, and further, the image is captured and read, so that it is not necessary to arrange the code portion on the printed matter. Therefore, for example, it is possible to avoid the arrangement of the code portion which is considered unnecessary from the viewpoint of viewing a photograph. In addition, there is no need for a two-action user to take an image of the code portion of the printed matter and then take an image of the photo portion, or to take an image of the photo portion after the user operates which feature amount to use. That is, in the present embodiment, since it can be executed by one action of capturing only the photo portion of the printed matter, the man-hours for the user can be reduced and the convenience can be improved.
[読み取り時の操作]
入力端子700から送信される画像情報は、プリント部106による印刷物104を、カメラ付携帯端末101によって撮影しているので、プリンタ出力以前の画像情報とは異なって分離ができない場合がある。その理由としては、撮影時にカメラ付携帯端末101の姿勢が印刷物104に正対していないことから、画像に幾何学的な歪みが発生していることがある。
[Operation when reading]
The image information transmitted from the
図11は、カメラ付携帯端末101の撮影時の姿勢を説明するための図である。図11(a)は、カメラ付携帯端末101のディスプレイ110がある面を示し、図11(b)は、その反対側を示す。図11(b)に示すように、カメラ付携帯端末101にはカメラレンズ1100が設けられている。図11(c)は、図11(a)をX方向から見た図であり、図11(d)は、図11(a)をY方向から見た図である。
FIG. 11 is a diagram for explaining the posture of the
カメラ付携帯端末101の姿勢には、回転(yaw)、アオリ(pitch)、傾斜(roll)の3種類があり、図11(a)、(c)、(d)に示す通りである。しかしながら、幾何学変換によってこれらの影響を補正しようとしても、どれぐらいの傾きや回転角で撮影されたのかが不明であるので、補正を行うことができない。 There are three types of postures of the camera-equipped mobile terminal 101: yaw, pitch, and roll, as shown in FIGS. 11A, 11C, and 11D. However, even if an attempt is made to correct these effects by geometric transformation, it is not possible to correct them because it is unknown at what tilt and angle of rotation the image was taken.
図12は、アオリと回転が不適正な場合を示す図である。カメラ付携帯端末101に、印刷物104に対して図12(a)に示すようなアオリ角が付いており、図12(b)に示すような回転角が付いている。この場合、カメラ付携帯端末101から見た印刷物104は、図12(c)のようになっており歪みが生じているが、撮影によって取得される画像1200では、印刷物104の端部が見えないので、歪みが生じていることが分からない。しかしながら、実際は歪みが生じているので、撮影された画像から多重化の分離を行うことが困難となる。
FIG. 12 is a diagram showing a case where the tilt and rotation are improper. The camera-equipped
その対策として、本実施形態では、図13(a)に示すように、まず、印刷物104の上にカメラ付携帯端末101を正対して重ねるために、ディスプレイ110に図14(a)のような指示を表示する。つまり、図14(a)に示すようなメッセージを表示することで、ユーザに対して、カメラ付携帯端末101を印刷物104に対して正対する位置にセットするように促す。ここで、OKボタン1401が押下されると、加速度センサ111と地磁気センサ112の値を取得し、両方の値から回転行列を作成してシステムの座標軸に行列変換を行って回転、アオリ、傾斜を算出し、基準状態の姿勢情報としてRAM212内に格納する。これらの計算には公知の技術を用いれば良く、例えば図17に示すようにAndroid(登録商標)のシステム標準APIを用いても良い。
As a countermeasure, in the present embodiment, as shown in FIG. 13 (a), first, in order to superimpose the camera-equipped
OKボタン1401が押下されると、姿勢情報を算出すると同時にディスプレイ110に図14(b)のような指示を表示する。その表示により、ユーザーーは、端末を持ち上げて所望の位置に移動して印刷物104の撮影を行うことになる。本実施形態では、撮影ボタン1402を押下することで撮影を行うが、OKボタン1401が押下された時から動画の撮影を開始し、逐次静止画を切り出して多重化の分離処理を行っても良い。
When the
OKボタン1401が押下されると、基準状態の姿勢情報を算出した後からは、定期的に姿勢情報を算出し、RAM212内に格納された基準状態の姿勢情報と比較して、その差分がROM211内に記録された規定の許容範囲内にあるか否かを判定する。このとき、ユーザーが図13(c)に示すように印刷物104に対して平行なまま持ち上げることができれば、ディスプレイ110の表示は、図14(c)に示すように、その姿勢を維持するように通知する。しかしながら、図15に示すように現状の姿勢情報と基準状態の姿勢情報の差分が規定の許容範囲を超えるようにユーザーが端末を持ち上げた場合、図16に示すような画面が表示される。例えば、図16(a)に示すように、規定の許容範囲を超えた値を元に戻すためのガイダンスメッセージの通知を行う。または、図16(b)に示すように、現姿勢の状態をグラフィカルに通知する。
When the
図16(b)は、水準器とコンパスを合わせた表示になっており、泡のようなシンボル1602が中心にあれば、アオリと傾斜の角度が基準状態と同じであることを示している。点線矢印1603は、OKボタン1401を押下した時の方角を指しているので、点線矢印1603が実線矢印1604と重なれば回転の角度が基準状態と同じであることを示している。
FIG. 16B shows a display in which the spirit level and the compass are combined, and if the bubble-
図18は、本実施形態における表示制御処理の手順を示すフローチャートである。図18の処理は、例えば、カメラ付携帯端末101のCPU210がROM211に記憶されているプログラムをRAM212に読み出して実行することにより実現される。図18の処理は、ユーザーによるカメラ撮影等、カメラ付携帯端末101の撮像センサ107の機能が実行されたときに開始される。または、ユーザーがカメラ付携帯端末101を操作してアプリケーション起動し、多重化情報を読み取る指示を入力した場合に実行されても良い。この場合、CPU210は、付加情報分離部108を備えるアプリケーションをメモリからを読みだして実行することで後述する処理を実行する。
FIG. 18 is a flowchart showing the procedure of the display control process in the present embodiment. The process of FIG. 18 is realized, for example, by the
S1801では、CPU210は、図14(a)に示すメッセージをディスプレイ110に表示する。図14(a)に示すように、「印刷物に端末を正対して重ね、「OK」を押して下さい」というメッセージ1400と、OKボタン1401とがディスプレイ110に表示される。S1802では、CPU210は、OKボタン1401が押下されたか否かを判定する。ここで、押下されたと判定された場合、S1803に進み、押下されていないと判定された場合、S1802の処理を繰り返す。
In S1801, the
S1803では、CPU210は、加速度センサ111及び地磁気センサ112により、カメラ付携帯端末101の姿勢情報を取得する。CPU210は、取得された姿勢情報を、基準状態の姿勢情報としてRAM212等の記憶領域に保存する。つまり、ユーザが正対していることを意識してセットしたときのカメラ付携帯端末101の姿勢情報を、基準状態の姿勢情報として取得する。
In S1803, the
S1804では、CPU210は、図14(b)に示すメッセージをディスプレイ110に表示する。図14(b)に示すように、「端末をまっすぐ持ち上げて下さい」というメッセージ1403と、撮影ボタン1402とがディスプレイ110に表示される。
In S1804, the
S1805では、CPU210は、S1803で基準状態の姿勢情報を取得してから所定時間が経過したか否かを判定する。ここで、所定時間が経過したと判定された場合、S1806に進み、所定時間が経過していないと判定された場合、S1805の処理を繰り返す。S1806では、CPU210は、加速度センサ111及び地磁気センサ112により、現時点でのカメラ付携帯端末101の姿勢情報を取得する。ここでの所定時間とは、ユーザがカメラ付携帯端末101をまっすぐ持ち上げている動作の間に、正対している状態でなくなったことを検知可能な時間間隔であり、例えば0.05秒である。つまり、所定時間ごとにS1805において加速度センサ111及び地磁気センサ112からの姿勢情報の取得が行われる。
In S1805, the
S1807では、CPU210は、S1805で取得された姿勢情報が、S1803で取得された基準状態の姿勢情報から規定の許容範囲内であるか否かを判定する。なお、S1807の判定処理は、言い換えれば、撮像手段により撮像された画像から付加情報を抽出するために適正であるか否かを判定する処理に相当する。ここで、規定の許容範囲内であると判定された場合、S1808において、CPU210は、図14(c)に示すメッセージ1404をディスプレイ110に表示させる表示制御処理を実行する。図14(b)に示すように、「その姿勢を維持して下さい」というメッセージ1404と、撮影ボタン1402とがディスプレイ110に表示される。一方、規定の許容範囲内でないと判定された場合、S1811を実行する。つまり、CPU210は、図16(a)に示すメッセージ1601、若しくは、図16(b)に示す水準器及びコンパスをディスプレイ110に表示させる表示制御処理を実行する。
In S1807, the
S1808若しくはS1811におけるメッセージの表示後、S1809において、CPU210は、撮影ボタン1402が押下されたか否かを判定する。ここで、撮影ボタン1402が押下されたと判定された場合、S1810において、CPU210は、撮像センサ107により印刷物の撮影を行う。この撮影処理により、カメラ付携帯端末101は、印刷物に埋め込まれ付加情報を取得し、付加情報に基づいた表示処理を実行することができる。例えば、カメラ付携帯端末101は、撮影中の印刷物を表示しながら、付加情報に基づくメッセージ等を重ねて表示することができる。また、カメラ付携帯端末101は、付加情報から取得されたURLに対応する画面を表示することができる。その後、図18の処理を終了する。一方、撮影ボタン1402が押下されていないと判定された場合、S1805からの処理を繰り返す。
After displaying the message in S1808 or S1811, in S1809, the
以上のように、本実施形態によれば、撮影前に、カメラ付携帯端末の内蔵カメラによる電子透かし読取時の適正な撮像姿勢と現在の撮像姿勢との差分を用いて通知を行うことで、読み取りに適した撮像姿勢に修正させることができる。 As described above, according to the present embodiment, before shooting, a notification is given using the difference between the proper imaging posture and the current imaging posture when the digital watermark is read by the built-in camera of the mobile terminal with a camera. It can be corrected to an imaging posture suitable for reading.
(その他の実施例)
上述した実施形態では、S1809の前に実行されるS1807の判定処理の実行結果を用いてS1808またはS1811のメッセージ表示処理を実行していた。つまり、撮影前にメッセージ表示処理が実行されることになるが、他のタイミングでメッセージ表示処理が実行されても良い。例えば、撮影が、動画撮影のように複数回の撮影処理を実行している場合、撮影開始後にS1807のような判定処理を実行し、撮影開始後にメッセージ表示処理が実行されても良い。
(Other Examples)
In the above-described embodiment, the message display process of S1808 or S1811 is executed using the execution result of the determination process of S1807 executed before S1809. That is, the message display process is executed before shooting, but the message display process may be executed at other timings. For example, when shooting is performing a plurality of shooting processes such as moving image shooting, a determination process such as S1807 may be executed after the start of shooting, and a message display process may be executed after the start of shooting.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
100 画像処理装置: 101 カメラ付携帯端末: 200、210 CPU: 201、211 ROM: 202、212 RAM 100 Image processing device: 101 Mobile terminal with camera: 200, 210 CPU: 201, 211 ROM: 202, 212 RAM
Claims (10)
前記情報処理装置を被写体に対して基準の姿勢となるようにセットするよう通知する第1の通知手段と、
付加情報が多重化された画像を前記被写体の画像として撮像する撮像手段と、
前記情報処理装置の姿勢情報を取得する取得手段と、
前記取得手段により取得された前記姿勢情報に基づいて、前記情報処理装置の前記被写体に対する姿勢が、前記撮像手段により撮像された前記画像から前記付加情報を抽出するために適正であるか否かを判定する判定手段と、
前記情報処理装置の前記被写体に対する姿勢が、前記撮像手段により撮像された前記画像から前記付加情報を抽出するために適正でないと判定された場合、前記撮像手段による撮影前に、表示部に当該姿勢を適正とするための画面を表示させる表示制御手段と、
を備え、
前記取得手段は、前記第1の通知手段による通知の後、前記姿勢情報を取得する、
ことを特徴とする情報処理装置。 It is an information processing device
A first notification means for notifying the subject to set the information processing device so as to have a reference posture.
Imaging means for taking an image additional information is multiplexed as an image of the object,
An acquisition means for acquiring the posture information of the information processing device, and
Based on the posture information acquired by the acquisition means, whether or not the posture of the information processing device with respect to the subject is appropriate for extracting the additional information from the image captured by the imaging means. Judgment means for judgment and
Attitude to the subject of the information processing apparatus, when it is determined not to be appropriate to extract the additional information from the image captured by the imaging means, before photographing by the imaging means, the position on the display unit Display control means to display the screen to make it appropriate,
With
The acquisition means acquires the posture information after the notification by the first notification means.
An information processing device characterized by this.
前記情報処理装置を被写体に対して基準の姿勢となるようにセットするよう通知する通知工程と、
付加情報が多重化された画像を前記被写体の画像として撮像する撮像工程と、
前記情報処理装置の姿勢情報を取得する取得工程と、
前記取得工程において取得された前記姿勢情報に基づいて、前記情報処理装置の前記被写体に対する姿勢が、前記撮像工程において撮像された前記画像から前記付加情報を抽出するために適正であるか否かを判定する判定工程と、
前記情報処理装置の前記被写体に対する姿勢が、前記撮像工程において撮像された前記画像から前記付加情報を抽出するために適正でないと判定された場合、前記撮像工程における撮影前に、表示部に当該姿勢を適正とするための画面を表示させる表示制御工程と、
を有し、
前記取得工程では、前記通知工程における通知の後、前記姿勢情報を取得する、
ことを特徴とする制御方法。 A control method executed in an information processing device.
A notification process for notifying the subject to set the information processing device so as to have a reference posture.
An imaging step of capturing an image of the additional information is multiplexed as an image of the object,
The acquisition process for acquiring the attitude information of the information processing device, and
Based on the posture information acquired in the acquisition step, whether or not the posture of the information processing device with respect to the subject is appropriate for extracting the additional information from the image captured in the imaging step. Judgment process and
Attitude to the subject of the information processing apparatus, when it is determined not to be appropriate to extract the additional information from the image captured in the imaging step, before photographing in the imaging step, the orientation on the display unit Display control process to display the screen to make the information processing and
Have,
In the acquisition step, after the notification in the notification step, the posture information is acquired.
A control method characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017108320A JP6909055B2 (en) | 2017-05-31 | 2017-05-31 | Information processing equipment, control methods and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017108320A JP6909055B2 (en) | 2017-05-31 | 2017-05-31 | Information processing equipment, control methods and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018207230A JP2018207230A (en) | 2018-12-27 |
JP6909055B2 true JP6909055B2 (en) | 2021-07-28 |
Family
ID=64958300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017108320A Active JP6909055B2 (en) | 2017-05-31 | 2017-05-31 | Information processing equipment, control methods and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6909055B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7433912B2 (en) | 2020-01-06 | 2024-02-20 | キヤノン株式会社 | Information processing device, control method for information processing device, program, and storage medium |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100876006B1 (en) * | 2005-08-04 | 2008-12-26 | 니폰 덴신 덴와 가부시끼가이샤 | Electronic watermark embedding method, electronic watermark embedding apparatus and program |
JP2011078002A (en) * | 2009-10-01 | 2011-04-14 | Nikon Corp | Image-pickup device |
JP4880096B1 (en) * | 2010-06-30 | 2012-02-22 | 富士フイルム株式会社 | Multi-view shooting control device, multi-view shooting control method, and multi-view shooting control program |
CN106663213A (en) * | 2014-05-12 | 2017-05-10 | 飞利浦灯具控股公司 | Detection of coded light |
JP6322099B2 (en) * | 2014-09-12 | 2018-05-09 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP2017005363A (en) * | 2015-06-05 | 2017-01-05 | カシオ計算機株式会社 | Notification control device, notification control method, and program |
JP6643854B2 (en) * | 2015-10-06 | 2020-02-12 | キヤノン株式会社 | Information processing apparatus, information processing method, and computer program |
US10412265B2 (en) * | 2015-10-06 | 2019-09-10 | Canon Kabushiki Kaisha | Information processing apparatus that displays a prompt to move the apparatus and information processing method |
-
2017
- 2017-05-31 JP JP2017108320A patent/JP6909055B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018207230A (en) | 2018-12-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6322099B2 (en) | Image processing apparatus and image processing method | |
JP5423893B2 (en) | Imaging apparatus, image processing apparatus, and image processing program recording medium | |
JP6397284B2 (en) | Image processing apparatus, image processing method, and program | |
EP1432232A1 (en) | Image metadata processing system and method | |
JP6386841B2 (en) | Image processing apparatus, program, image processing system, and image processing method | |
US8160295B2 (en) | Image-processing device and image-processing method for embedding code patterns in image information | |
US10992837B2 (en) | Information processing apparatus, control method thereof, and storage medium | |
CN107566684B (en) | Image processing apparatus, image processing method, and storage medium | |
JP6808581B2 (en) | Information processing equipment, information processing methods and programs | |
JP2016063324A (en) | Image processing device, image processing method, and program | |
JP6643854B2 (en) | Information processing apparatus, information processing method, and computer program | |
EP2392466B1 (en) | Background pattern image combining apparatus, background pattern image combining method, and computer-readable storage medium for computer program | |
JP6909055B2 (en) | Information processing equipment, control methods and programs | |
JP2014123881A (en) | Information processing device, information processing method, and computer program | |
US10033904B2 (en) | Information processing apparatus for multiplexing information in an image, information processing method, and storage medium storing program | |
JP6952499B2 (en) | Information processing equipment and programs | |
KR20190063401A (en) | Image forming apparatus capable of undergoing remote image diagnosis, control method therefor, and storage medium storing control program therefor | |
JP6976734B2 (en) | Image processing equipment, image processing methods, and programs | |
JP7463087B2 (en) | Information processing device, information processing method, and program | |
JP6664179B2 (en) | Information processing apparatus, information processing method and program | |
JP7458766B2 (en) | Information processing device, control method for information processing device, program, and storage medium | |
JP6025803B2 (en) | Image processing device | |
JP2017073649A (en) | Information processing device, information processing method and computer program | |
JP7182858B2 (en) | Image processing device, image processing method, and program | |
JP7438752B2 (en) | Information processing device, control method for information processing device, storage medium, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200528 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210315 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210604 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210702 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6909055 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |