JP2012164235A - Program, information storage medium, reader, and server - Google Patents

Program, information storage medium, reader, and server Download PDF

Info

Publication number
JP2012164235A
JP2012164235A JP2011025490A JP2011025490A JP2012164235A JP 2012164235 A JP2012164235 A JP 2012164235A JP 2011025490 A JP2011025490 A JP 2011025490A JP 2011025490 A JP2011025490 A JP 2011025490A JP 2012164235 A JP2012164235 A JP 2012164235A
Authority
JP
Japan
Prior art keywords
captured image
light source
unit
recognized
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011025490A
Other languages
Japanese (ja)
Inventor
Koji Toyoda
耕志 豊田
Akio Onda
明生 恩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bandai Namco Entertainment Inc
Original Assignee
Namco Bandai Games Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Bandai Games Inc filed Critical Namco Bandai Games Inc
Priority to JP2011025490A priority Critical patent/JP2012164235A/en
Publication of JP2012164235A publication Critical patent/JP2012164235A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a program, an information storage medium, a reader and a server for properly reading an object whose forgery can be prevented.SOLUTION: An object (for instance, a card) includes a symbol in which components of light received by an imaging section vary according to the settings of a light source. The imaging section performs recognition processing on a first image of an object imaged at a first light source setting time and performs recognition processing on a second image of the object imaged at a second light source setting time.

Description

本発明は、プログラム、情報記憶媒体、読み取り装置、及びサーバに関する。   The present invention relates to a program, an information storage medium, a reading device, and a server.

従来から、コードを読み取るためのコードリーダが存在する(特許文献1)。また、ゲーム分野においては、コードが記録されたカードから当該コードを読取り、読み取った情報を用いてゲーム処理を行うゲーム装置が存在する。   Conventionally, there is a code reader for reading a code (Patent Document 1). In the game field, there are game devices that read a code from a card on which the code is recorded and perform a game process using the read information.

しかし、従来では、このカードが偽造されることがあり、ゲーム装置等において、本物のカードと偽造のカードとを簡易に判別することができないという問題があった。   However, conventionally, this card may be counterfeited, and there has been a problem that a real card and a counterfeit card cannot be easily distinguished in a game device or the like.

特開平9−179926号公報JP-A-9-179926

本発明は、以上のような課題に鑑みてなされたものであり、その目的とするところは、偽造防止可能な対象物を適確に読み取るためのプログラム、情報記憶媒体、読み取り装置及びサーバを提供することにある。   The present invention has been made in view of the problems as described above, and an object of the present invention is to provide a program, an information storage medium, a reading device, and a server for accurately reading an object that can be prevented from forgery. There is to do.

(1)本発明は、光が照射された対象物を撮像し、撮像画像の認識処理を行うプログラムであって、前記対象物を照射するための少なくとも1つの光源を可変に設定する光源設定部と、前記対象物を撮像する撮像部と、前記撮像部で撮像された撮像画像の認識処理を行う認識処理部として、コンピュータを機能させ、前記対象物は、前記光源の設定に応じて前記撮像部が受光する光の成分が変化するシンボルを含み、前記光源設定部が、少なくとも1つの光源に対して、第1の光源の設定と第2の光源設定とを排他的に行い、前記認識処理部が、前記第1の光源設定時に前記対象物を撮像した前記第1の撮像画像の認識処理と、前記第2の光源設定時に前記対象物を撮像した前記第2の撮像画像の認識処理とを行うプログラムに関する。また、本発明は、上記プログラムを記憶した情報記憶媒体、上記各部として構成する読み取り装置に関係する。   (1) The present invention is a program for imaging an object irradiated with light and performing recognition processing of the captured image, and a light source setting unit that variably sets at least one light source for irradiating the object And an imaging unit that images the object, and a recognition processing unit that performs a recognition process of a captured image captured by the imaging unit, and the object captures the image according to the setting of the light source. The light source setting unit exclusively performs the first light source setting and the second light source setting with respect to at least one light source, and includes the recognition process. A recognition process of the first captured image obtained by imaging the object at the time of setting the first light source, and a recognition process of the second captured image obtained by imaging the object at the time of setting the second light source. It relates to the program that performs. The present invention also relates to an information storage medium storing the above program and a reading device configured as each of the above units.

ここで、「光の成分」とは光の色成分及び光の輝度成分の少なくとも一方を含む。また、撮像部が対象物を撮像する場合には、その対象物の一部分を撮像してもよいし、その対象物の全体を撮像してもよい。   Here, the “light component” includes at least one of a light color component and a light luminance component. When the imaging unit images an object, a part of the object may be imaged, or the entire object may be imaged.

本発明によれば、光源の設定に応じて撮像部が受光する光の成分が変化するシンボルを含む対象物を撮像する場合であっても、対象物に記録されるシンボルを適確に読み取ることができる。また、本発明の対象物のシンボルは、光源の設定に応じて撮像部が受光する光の成分が変化するので、対象物の偽造防止を図ることができる。   According to the present invention, even when imaging an object including a symbol whose light component received by the imaging unit changes according to the setting of the light source, the symbol recorded on the object can be read accurately. Can do. In addition, the symbol of the object of the present invention can prevent forgery of the object because the light component received by the imaging unit changes according to the setting of the light source.

(2)また、本発明のプログラム、情報記憶媒体及び読み取り装置は、前記光源設定部が、前記光源の強度を可変に設定するようにしてもよい。   (2) In the program, the information storage medium, and the reading device of the present invention, the light source setting unit may variably set the intensity of the light source.

(3)また、本発明のプログラム、情報記憶媒体及び読み取り装置は、前記光源設定部が、前記光源の明度を可変に設定するようにしてもよい。   (3) In the program, the information storage medium, and the reading device of the present invention, the light source setting unit may variably set the lightness of the light source.

(4)また、本発明のプログラム、情報記憶媒体及び読み取り装置は、前記光源設定部が、前記光源の照射方向を可変に設定するようにしてもよい。   (4) In the program, the information storage medium, and the reading device of the present invention, the light source setting unit may variably set the irradiation direction of the light source.

(5)また、本発明のプログラム、情報記憶媒体及び読み取り装置は、前記光源設定部が、前記光源の照射数を可変に設定するようにしてもよい。   (5) In the program, the information storage medium, and the reading device of the present invention, the light source setting unit may variably set the number of irradiations of the light source.

(6)また、本発明のプログラム、情報記憶媒体及び読み取り装置は、前記対象物の真贋判定処理を行う真贋判定部として、コンピュータを更に機能させ、前記対象物は、第1の所定情報に応じたシンボルを含み、前記真贋判定部が、前記第1の撮像画像と前記第2の撮像画像のうち、一方の撮像画像から前記第1の所定情報を認識し他方の撮像画像から前記第1の所定情報を認識しない場合に、前記対象物を真と判定する処理を行うようにしてもよい。   (6) Further, the program, the information storage medium, and the reading device of the present invention further cause a computer to function as an authenticity determination unit that performs an authenticity determination process of the object, and the object corresponds to the first predetermined information. The authenticity determination unit recognizes the first predetermined information from one captured image of the first captured image and the second captured image, and recognizes the first predetermined information from the other captured image. When the predetermined information is not recognized, a process for determining that the object is true may be performed.

ここで、「第1の所定情報」は、第1のシンボルそのものであってもよいし、第1のシンボルが示すデータ、第1のシンボルが示すデータに含まれる対象物の真正を示す特定のデータ、第1のシンボルから認識される第1のデータでもよい。   Here, the “first predetermined information” may be the first symbol itself, or the specific data indicating the authenticity of the object included in the data indicated by the first symbol and the data indicated by the first symbol. The data may be first data recognized from the first symbol.

本発明によれば、第1の撮像画像と第2の撮像画像のうち、一方の撮像画像から第1の所定情報を認識し他方の撮像画像から当該第1の所定情報を認識しない場合に、真の対象物であると判定する処理を行うので、簡易にかつ適確に真贋判定を行うことができる。   According to the present invention, when the first predetermined information is recognized from one of the first captured image and the second captured image and the first predetermined information is not recognized from the other captured image, Since the process of determining that the object is a true object is performed, the authenticity determination can be performed easily and accurately.

(7)また、本発明のプログラム、情報記憶媒体及び読み取り装置は、前記対象物の真贋判定処理を行う真贋判定部として、コンピュータを更に機能させ、前記対象物は、第1の所定情報に応じた第1のシンボルと当該第1の所定情報とは異なる第2のシンボルとを含み、前記真贋判定部が、前記第1の撮像画像と前記第2の撮像画像のうち、一方の撮像画像から前記第1の所定情報を認識し他方の撮像画像から前記第1の所定情報を認識しない場合に、前記対象物を真と判定する処理を行うようにしてもよい。   (7) Further, the program, the information storage medium, and the reading device of the present invention further cause a computer to function as an authenticity determination unit that performs an authenticity determination process of the object, and the object corresponds to the first predetermined information. A first symbol and a second symbol different from the first predetermined information, and the authenticity determination unit determines whether one of the first captured image and the second captured image is the first captured image. When the first predetermined information is recognized and the first predetermined information is not recognized from the other captured image, a process of determining the object as true may be performed.

ここで、「第2の所定情報」は、第1のシンボルから認識される第2のデータでもよい。また「第2の所定情報」は、第2のシンボルそのものであってもよいし、第2のシンボルが示すデータ、第2のシンボルが示すデータに含まれる対象物の真正を示す特定のデータ、第2のシンボルから認識されるデータでもよい。   Here, the “second predetermined information” may be second data recognized from the first symbol. In addition, the “second predetermined information” may be the second symbol itself, data indicated by the second symbol, specific data indicating the authenticity of the object included in the data indicated by the second symbol, Data recognized from the second symbol may also be used.

本発明によれば、第1の撮像画像と第2の撮像画像のうち、一方の撮像画像から第1の所定情報を認識し他方の撮像画像から当該第1の所定情報を認識しない場合に、真の対象物であると判定する処理を行うので、簡易にかつ適確に真贋判定を行うことができる。   According to the present invention, when the first predetermined information is recognized from one of the first captured image and the second captured image and the first predetermined information is not recognized from the other captured image, Since the process of determining that the object is a true object is performed, the authenticity determination can be performed easily and accurately.

(8)また、本発明のプログラム、情報記憶媒体及び読み取り装置は、前記対象物の真贋判定処理を行う真贋判定部として、コンピュータを更に機能させ、前記対象物は、第1の所定情報に応じた第1のシンボルと第2の所定情報に応じた第2のシンボルとを含み、前記真贋判定部が、前記第1の撮像画像と前記第2の撮像画像のうち、一方の撮像画像から第1の所定情報を認識し他方の撮像画像から第2の所定情報を認識した場合に、前記対象物を真と判定する処理を行うようにしてもよい。   (8) Further, the program, the information storage medium, and the reading device of the present invention further cause a computer to function as an authenticity determination unit that performs an authenticity determination process of the object, and the object corresponds to the first predetermined information. A first symbol and a second symbol corresponding to the second predetermined information, wherein the authenticity determination unit determines the first captured image from the first captured image and the second captured image. When the first predetermined information is recognized and the second predetermined information is recognized from the other captured image, a process of determining the object as true may be performed.

本発明によれば、第1の撮像画像と第2の撮像画像のうち、一方の撮像画像から第1の所定情報を認識し他方の撮像画像から第2の所定情報を認識した場合に、真と判定する処理を行うので、簡易にかつ適確に真贋判定を行うことができる。   According to the present invention, when the first predetermined information is recognized from one of the first captured image and the second captured image and the second predetermined information is recognized from the other captured image, it is true. Therefore, it is possible to easily and accurately determine the authenticity.

(9)また、本発明のプログラム、情報記憶媒体及び読み取り装置は、前記第1の撮像画像と第2の撮像画像とにおいて共通性を有するか否かを判定する共通性判定部として、コンピュータを機能させ、前記対象物には、いずれの方向からも視認可能な識別マークが記録されており、前記共通性判定部が、前記第1の撮像画像と前記第2の撮像画像とにおいて前記識別マークを認識した認識結果に基づき、前記第1の撮像画像と第2の撮像画像とにおいて共通性を有するか否かを判定し、前記真贋判定部が、前記第1の撮像画像と第2の撮像画像とにおいて共通性を有しない場合には、前記対象物を偽と判定する処理を行うようにしてもよい。本発明によれば、真贋判定の条件として被写体の同一性が要求されることになり、不正な撮像を防止することができる。   (9) Further, the program, the information storage medium, and the reading device of the present invention use a computer as a commonality determination unit that determines whether or not the first captured image and the second captured image have commonality. And an identification mark that is visible from any direction is recorded on the object, and the commonality determination unit includes the identification mark in the first captured image and the second captured image. Whether the first captured image and the second captured image have a commonality or not, and the authenticity determination unit determines whether the first captured image and the second captured image are common. When there is no commonality with the image, a process for determining that the object is false may be performed. According to the present invention, the identity of a subject is required as a condition for authenticity determination, and illegal imaging can be prevented.

(10)また、本発明のプログラム、情報記憶媒体及び読み取り装置は、前記第1の撮像画像から認識した情報と、前記第2の撮像画像から認識した情報とに基づいて、ゲーム処理で用いられるゲーム情報を決定する決定部として、コンピュータを機能させるようにしてもよい。   (10) Further, the program, the information storage medium, and the reading device of the present invention are used in the game process based on the information recognized from the first captured image and the information recognized from the second captured image. You may make it function a computer as a determination part which determines game information.

本発明によれば、前記第1の撮像画像から認識した情報と、前記第2の撮像画像から認識した情報とに基づいて、ゲーム処理で用いられるゲーム情報を決定するので、認識した情報を有効利用することができる。   According to the present invention, the game information used in the game process is determined based on the information recognized from the first captured image and the information recognized from the second captured image. Can be used.

(11)本発明は、撮像画像の認識処理を行うサーバであって、光が照射された対象物を撮像した撮像画像を、所与の端末からネットワークを介して受信する通信制御部と、受信した前記撮像画像の認識処理を行う認識処理部と、を含み、前記対象物は、可変に設定可能な光源の設定に応じて撮像部が受光する光の成分が変化するシンボルを含み、前記通信制御部が、少なくとも1つの光源に対して、排他的に第1の光源の設定と第2の光源設定とが行われた、当該第1の光源設定時に前記対象物を撮像した第1の撮像画像と、当該第2の光源設定時に前記対象物を撮像した第2の撮像画像とを受信する処理を行い、前記認識処理部が、前記第1の撮像画像の認識処理と、前記第2の撮像画像の認識処理とを行うことを特徴とするサーバに関する。本発明は、上記各部として機能するプログラム、当該プログラム、を記憶した情報記憶媒体に関係する。   (11) The present invention is a server that performs a recognition process of a captured image, and receives a captured image obtained by capturing an object irradiated with light from a given terminal via a network; A recognition processing unit that performs recognition processing of the captured image, and the object includes a symbol in which a component of light received by the imaging unit changes according to a variably set light source setting, and the communication 1st imaging which imaged the target object at the time of the 1st light source setting by which the control part performed the setting of the 1st light source exclusively, and the 2nd light source setting to at least one light source A process of receiving an image and a second captured image obtained by capturing the object at the time of setting the second light source, and the recognition processing unit includes a recognition process for the first captured image, and the second captured image. A server characterized by recognition processing of captured images. That. The present invention relates to a program that functions as each unit described above and an information storage medium that stores the program.

ここで、端末から送信される撮像画像は、当該端末が備える撮像部で撮像された撮像画像に限らず、端末とは別の撮像部によって撮像された撮像画像でもよい。また、撮像部が対象物を撮像する場合には、その対象物の一部分を撮像してもよいし、その対象物の全体を撮像してもよい。   Here, the captured image transmitted from the terminal is not limited to the captured image captured by the imaging unit included in the terminal, and may be a captured image captured by an imaging unit different from the terminal. When the imaging unit images an object, a part of the object may be imaged, or the entire object may be imaged.

本発明のサーバは、端末から、第1の撮像画像と第2の撮像画像とを受信する処理を行った場合、当該第1、第2の撮像画像の認識処理を行うので、対象物に記録される第1のシンボルを適確に読み取ることができる。また、本発明の対象物のシンボルは、光源の設定に応じて撮像部が受光する光の成分が変化するので、対象物の偽造防止を図ることができる。   When the server of the present invention performs processing for receiving the first captured image and the second captured image from the terminal, the server performs recognition processing for the first and second captured images, so that the server records them. The first symbol to be read can be accurately read. In addition, the symbol of the object of the present invention can prevent forgery of the object because the light component received by the imaging unit changes according to the setting of the light source.

図1は、本実施形態の読み取り装置(端末)の機能ブロック図の一例。FIG. 1 is an example of a functional block diagram of a reading apparatus (terminal) according to the present embodiment. 図2(A)、(B)は、本実施形態の読み取り装置の一例。2A and 2B are examples of the reading apparatus of the present embodiment. 図3は、本実施形態の読み取り装置の一例。FIG. 3 is an example of a reading apparatus according to the present embodiment. 図4(A)、(B)は、真の対象物の説明図。4A and 4B are explanatory diagrams of a true object. 図5(A)、(B)は、真の対象物の撮像画像の説明図。FIGS. 5A and 5B are explanatory diagrams of a captured image of a true object. 図6(A)、(B)は、偽造物の説明図。6A and 6B are explanatory diagrams of forgeries. 図7(A)、(B)は、偽造物の撮像画像の説明図。7A and 7B are explanatory diagrams of captured images of counterfeits. 図8(A)〜(D)は、対象物の一例。8A to 8D are examples of objects. 図9は、レンチキュラーの説明図。FIG. 9 is an explanatory diagram of a lenticular. 図10は、偏光インク、偏光シートの説明図。FIG. 10 is an explanatory diagram of a polarizing ink and a polarizing sheet. 図11(A)〜(C)は、対象物の一例。11A to 11C are examples of objects. 図12は、撮像部の撮影手法の説明図。FIG. 12 is an explanatory diagram of a shooting method of the imaging unit. 図13(A)〜(C)は、認識処理の説明図。13A to 13C are explanatory diagrams of recognition processing. 図14(A)〜(C)は、認識処理の説明図。14A to 14C are explanatory diagrams of recognition processing. 図15は、ゲーム情報を決定するための説明図。FIG. 15 is an explanatory diagram for determining game information. 図16は、ゲーム情報を決定するための説明図。FIG. 16 is an explanatory diagram for determining game information. 図17は、本実施形態の処理の流れ図。FIG. 17 is a flowchart of processing according to the present embodiment. 図18は、撮像部の撮影手法の説明図。FIG. 18 is an explanatory diagram of a shooting technique of the imaging unit. 図19は、対象物の位置の設定に関する説明図。FIG. 19 is an explanatory diagram regarding setting of the position of an object. 図20は、自然光の遮蔽について説明するための図。FIG. 20 is a diagram for explaining blocking of natural light. 図21(A)(B)は、光源設定と真の対象物の関係を説明するための図。FIGS. 21A and 21B are diagrams for explaining the relationship between the light source setting and the true object. 図22(A)(B)は、光源設定と偽造物の関係を説明するための図。22A and 22B are diagrams for explaining the relationship between light source settings and counterfeits. 図23(A)(B)は、光源設定の説明図。23A and 23B are explanatory diagrams of light source setting. 図24(A)(B)は、光源設定の説明図。24A and 24B are explanatory diagrams of light source setting. 図25(A)(B)は、光源設定の説明図。25A and 25B are explanatory diagrams of light source setting. 図26(A)(B)は、光源設定の説明図。26A and 26B are explanatory diagrams of light source setting. 図27は、端末10とサーバ20とが接続されたネットワークシステムを示す図。FIG. 27 is a diagram showing a network system in which the terminal 10 and the server 20 are connected. 図28(A)(B)は、業務用のゲーム装置の一例。FIGS. 28A and 28B are examples of a game device for business use.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.構成
図1に本実施形態の読み取り装置10(コンピュータ、ゲーム装置、携帯型ゲーム装置、筐体、端末(端末装置)、携帯電話、スマートフォン、携帯端末、タブレット型コンピュータ、画像生成装置)の機能ブロック図の例を示す。なお本実施形態の読み取り装置10は図1の構成要素(各部)の一部を省略した構成としてもよい。
1. Configuration FIG. 1 shows functional blocks of a reading device 10 (computer, game device, portable game device, housing, terminal (terminal device), mobile phone, smartphone, portable terminal, tablet computer, image generation device) according to the present embodiment. An example of the figure is shown. Note that the reading apparatus 10 according to the present embodiment may have a configuration in which some of the components (each unit) in FIG. 1 are omitted.

撮像部30は、物体から発した光をレンズなどの光学系によって撮像素子の受光平面に結像させ、その像の光による明暗を電荷の量に光電変換し、それを順次読み出して電気信号に変換する。そして、撮像部30は撮像画像(入力画像)を撮像画像記憶部173に出力する処理を行う。例えば、撮像部30は、RGB、YUV、HSVなどの色空間(フォーマット)で定義された色画像を、撮像画像記憶部173に出力する処理を行う。また、本実施形態の撮像部30は、第1の撮像部31、第2の撮像部32を備えていてもよい。かかる場合は、例えば、第1の撮像部31において撮像された第1の撮像画像と、第2の撮像部32において撮像された第2の撮像画像とを撮像画像記憶部173に記憶する。   The imaging unit 30 forms an image of light emitted from an object on a light receiving plane of an imaging element by an optical system such as a lens, photoelectrically converts light and darkness of the image into an amount of electric charge, and sequentially reads out the electric signal as an electric signal. Convert. Then, the imaging unit 30 performs a process of outputting the captured image (input image) to the captured image storage unit 173. For example, the imaging unit 30 performs processing for outputting a color image defined in a color space (format) such as RGB, YUV, or HSV to the captured image storage unit 173. In addition, the imaging unit 30 of the present embodiment may include a first imaging unit 31 and a second imaging unit 32. In such a case, for example, the first captured image captured by the first imaging unit 31 and the second captured image captured by the second imaging unit 32 are stored in the captured image storage unit 173.

本実施形態の撮像部30は、撮像位置に応じて撮像部が受光する光の成分が変化するシンボルを含む対象物を撮像する。言い換えると、撮像部30は、見る角度に応じて反射光の成分が変化するシンボルを含む対象物を撮像する。また、別の言い方をすれば、撮像部30は、光源の設定に応じて撮像部が受光する光の成分が変化するシンボルを含む対象物を撮像する。なお、撮像部30は、対象物の一部を撮像してもよい。例えば、シンボルが記録されている領域(所定領域)を撮像してもよい。また、撮像部30は、対象物を含むように撮像してもよい。   The imaging unit 30 according to the present embodiment images an object including a symbol whose light component received by the imaging unit changes according to the imaging position. In other words, the imaging unit 30 captures an object including a symbol whose reflected light component changes according to the viewing angle. In other words, the imaging unit 30 captures an object including a symbol whose light component received by the imaging unit changes according to the setting of the light source. Note that the imaging unit 30 may image a part of the object. For example, you may image the area | region (predetermined area | region) where the symbol is recorded. In addition, the imaging unit 30 may capture an image so as to include an object.

また、被写体となる対象物(印刷媒体、表示媒体等)のシンボルから受光する光の成分は、見る角度に応じて、第1の成分から第2の成分に変化する。また、被写体となる対象物は、いずれの方向からも視認可能な識別マークが記録されている。例えば、対象物には、いずれの方向からも視認可能な複数の識別マークそれぞれが、各所定位置に記録されている。なお、本実施形態の対象物のシンボルから受光する光の成分(反射光の成分)は、見る角度に応じて、第1の成分から第2の成分に変化してもよい。例えば、本実施形態の対象物のシンボルから受光する光の成分(反射光の成分)は、第1のシンボルからの反射光の第1の成分から第2のシンボルからの反射光の第2の成分に変化してもよい。   In addition, the light component received from the symbol of the target object (print medium, display medium, etc.) that is the subject changes from the first component to the second component according to the viewing angle. In addition, an identification mark that is visible from any direction is recorded on the target object. For example, each of a plurality of identification marks that can be viewed from any direction is recorded at each predetermined position on the object. Note that the component of light received from the symbol of the object of the present embodiment (the component of reflected light) may change from the first component to the second component depending on the viewing angle. For example, the component of the light received from the symbol of the object of the present embodiment (the component of the reflected light) is the second component of the reflected light from the first symbol to the second component of the reflected light from the first symbol. It may change to a component.

また、撮像部30は、対象物のシンボルからの第1の成分を少なくとも受光する第1の撮像位置から対象物を撮像し、対象物のシンボルからの第2の成分を少なくとも受光する第2の撮像位置から対象物を撮像してもよい。例えば、第1の成分は、対象物に記録されたシンボル(例えば、コード)からの光の成分であり、第2の成分は、対象物に記録された当該シンボルではない光の成分とすることができる。   In addition, the imaging unit 30 captures the object from the first imaging position that receives at least the first component from the symbol of the object, and receives the second component from the symbol of the object. You may image a target object from an imaging position. For example, the first component is a light component from a symbol (for example, a code) recorded on the object, and the second component is a light component that is not the symbol recorded on the object. Can do.

また、撮像部30は、同じタイミングで第1、第2の撮像位置から対象物を撮像してもよいし、異なるタイミングで第1、第2の撮像位置から対象物を撮像してもよい。   Further, the imaging unit 30 may image the object from the first and second imaging positions at the same timing, or may image the object from the first and second imaging positions at different timings.

また、第1の撮像部31が、第1の撮像位置から対象物を撮像し、第2の撮像部32が、第1の撮像位置から対象物を撮像する場合において、第1の撮像部31と第2の撮像部32とが、所定の撮像位置関係及び所定の撮像方向関係を有するようにしてもよい。   In addition, when the first imaging unit 31 images the object from the first imaging position and the second imaging unit 32 images the object from the first imaging position, the first imaging unit 31. And the second imaging unit 32 may have a predetermined imaging position relationship and a predetermined imaging direction relationship.

また、撮像部30は、第1の光源設定時に対象物を撮像し、第2の光源設定時に対象物を撮像してもよい。例えば、撮像部30は、第1の光源(可視光の光源)の照射時に対象物の反射光の第1の成分を少なくとも受光する位置であって、第2の光源(可視光の光源)の照射時に対象物の反射光の第2の成分を少なくとも受光する位置を撮像位置として配置してもよい。   In addition, the imaging unit 30 may capture an object when the first light source is set and may capture the object when the second light source is set. For example, the imaging unit 30 is a position that receives at least the first component of the reflected light of the object when irradiated with a first light source (visible light source), and is a second light source (visible light source). You may arrange | position the position which receives at least the 2nd component of the reflected light of a target object at the time of irradiation as an imaging position.

入力部160は、プレーヤ(操作者)からの入力情報を入力するための入力機器(コントローラ)であり、プレーヤの入力情報を処理部に出力する。本実施形態の入力部160は、プレーヤの入力情報(入力信号)を検出する検出部162を備える。入力部160は、例えば、レバー、ボタン、ステアリング、マイク、タッチパネル型ディスプレイなどがある。また、入力部160は、振動信号に基づいて振動させる処理を行う振動部を備えていてもよい。   The input unit 160 is an input device (controller) for inputting input information from the player (operator), and outputs the input information of the player to the processing unit. The input unit 160 of this embodiment includes a detection unit 162 that detects input information (input signal) of the player. The input unit 160 includes, for example, a lever, a button, a steering, a microphone, a touch panel display, and the like. The input unit 160 may include a vibration unit that performs a process of vibrating based on the vibration signal.

また、入力部160は、3軸の加速度を検出する加速度センサや、角速度を検出するジャイロセンサ、撮像部30を備えた入力機器でもよい。例えば、入力部160は、プレーヤが把持して動かすものであってもよいし、プレーヤが身につけて動かすものであってもよい。また、入力部160は、プレーヤが把持する刀型コントローラや銃型コントローラ、あるいはプレーヤが身につける(プレーヤが手に装着する)グローブ型コントローラなど実際の道具を模して作られた入力機器でもよい。また入力部160は、端末(携帯電話、携帯端末、スマートフォン、携帯型ゲーム装置、タブレット型コンピュータ)そのものであってもよい。   The input unit 160 may be an input device including an acceleration sensor that detects triaxial acceleration, a gyro sensor that detects angular velocity, and the imaging unit 30. For example, the input unit 160 may be held and moved by the player, or may be worn by the player and moved. The input unit 160 may be an input device imitating an actual tool such as a sword-type controller or gun-type controller held by the player, or a glove-type controller worn by the player (attached to the hand of the player). Good. The input unit 160 may be a terminal (a mobile phone, a mobile terminal, a smartphone, a portable game device, a tablet computer) itself.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(VRAM)などにより実現できる。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (VRAM) or the like.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(CD、DVD)、光磁気ディスク(MO)、磁気ディスク、ハードディスク、磁気テープ、或いはメモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。情報記憶媒体180には、本実施形態の各部としてコンピュータを機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)を記憶することができる。   The information storage medium 180 (computer-readable medium) stores programs, data, and the like, and functions as an optical disk (CD, DVD), magneto-optical disk (MO), magnetic disk, hard disk, and magnetic tape. Alternatively, it can be realized by a memory (ROM). The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. The information storage medium 180 can store a program for causing a computer to function as each unit of the present embodiment (a program for causing a computer to execute processing of each unit).

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、CRT、LCD、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by a CRT, LCD, touch panel display, HMD (head mounted display), or the like.

音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

通信部196は外部(例えば他の端末、サーバ)との間で通信を行うための各種制御を行うものであり、その機能は、各種プロセッサ又は通信用ASICなどのハードウェアや、プログラムなどにより実現できる。   The communication unit 196 performs various controls for communicating with the outside (for example, other terminals and servers), and the functions are realized by hardware such as various processors or communication ASICs, programs, and the like. it can.

なお、本実施形態では、サーバ20が有する情報記憶媒体や記憶部に記憶されている本実施形態の各部としてコンピュータを機能させるためのプログラムやデータを、ネットワークを介して受信し、受信したプログラムやデータを情報記憶媒体180や記憶部170に記憶してもよい。このようにプログラムやデータを受信して端末を機能させる場合も本発明の範囲内に含む。   In the present embodiment, a program or data for causing a computer to function as each unit of the present embodiment stored in the information storage medium or storage unit of the server 20 is received via a network, and the received program or data Data may be stored in the information storage medium 180 or the storage unit 170. The case where the terminal is functioned by receiving the program or data as described above is also included in the scope of the present invention.

処理部100(プロセッサ)は、入力部160からの入力データやプログラムなどに基づいて、ゲーム処理、画像生成処理、或いは音生成処理などの処理を行う。   The processing unit 100 (processor) performs processing such as game processing, image generation processing, or sound generation processing based on input data from the input unit 160, a program, and the like.

この処理部100は記憶部170内の主記憶部171をワーク領域として各種処理を行う。処理部100の機能は各種プロセッサ(CPU、DSP等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 performs various processes using the main storage unit 171 in the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, etc.), ASIC (gate array, etc.), and programs.

処理部100は、共通性判定部110、認識処理部111、真贋判定部112、ゲーム処理部113、決定部114、表示制御部115、光源設定部116、撮像部設定部117、対象物設定部118、通信制御部119、描画部120、音処理部130を含む。なお、これらの一部を省略する構成としてもよい。   The processing unit 100 includes a commonality determination unit 110, a recognition processing unit 111, an authenticity determination unit 112, a game processing unit 113, a determination unit 114, a display control unit 115, a light source setting unit 116, an imaging unit setting unit 117, and an object setting unit. 118, a communication control unit 119, a drawing unit 120, and a sound processing unit 130. Note that some of these may be omitted.

共通性判定部110は、第1の撮像画像と第2の撮像画像とにおいて共通性を有するか否かを判定する。例えば、共通性判定部110は、第1の撮像画像と第2の撮像画像とにおいて識別マークを検出した場合に、第1の撮像画像と第2の撮像画像とにおいて共通性を有すると判定する。また、共通性判定部110は、第1の撮像画像上の各識別マークの位置関係と、第2の撮像画像上の各識別マークの位置関係とを比較し、比較結果が所定の位置関係条件を満たす場合に、共通性を有すると判定するようにしてもよい。   The commonality determination unit 110 determines whether there is commonality between the first captured image and the second captured image. For example, the commonality determination unit 110 determines that there is commonality between the first captured image and the second captured image when an identification mark is detected in the first captured image and the second captured image. . Further, the commonality determination unit 110 compares the positional relationship between the identification marks on the first captured image with the positional relationship between the identification marks on the second captured image, and the comparison result is a predetermined positional relationship condition. When satisfying, it may be determined that they have commonality.

また、共通性判定部110は、第1の撮像画像上の各識別マークの位置関係から第1の撮像位置に対する対象物の向きと、第2の撮像画像上の各識別マークの位置関係から第2の撮像位置に対する対象物の向きとを比較し、比較結果が所定の向き関係条件を満たす場合に、共通性を有すると判定するようにしてもよい。   Further, the commonality determination unit 110 determines the orientation of the object with respect to the first imaging position based on the positional relationship between the identification marks on the first captured image and the positional relationship between the identification marks on the second captured image. The direction of the object with respect to the two imaging positions may be compared, and if the comparison result satisfies a predetermined orientation relationship condition, it may be determined that there is commonality.

認識処理部111は、撮像部30で撮像された撮像画像の認識処理を行う。例えば、認識処理部111は、第1の撮像位置から撮像された第1の撮像画像の認識処理を行い、第2の撮像位置から撮像された第2の撮像画像の認識処理を行う。   The recognition processing unit 111 performs recognition processing of the captured image captured by the imaging unit 30. For example, the recognition processing unit 111 performs recognition processing of a first captured image captured from the first imaging position, and performs recognition processing of a second captured image captured from the second imaging position.

認識処理部111は、第1の光源設定時に対象物を撮像した第1の撮像画像の認識処理と、第2の光源設定時に対象物を撮像した第2の撮像画像の認識処理とを行うようにしてもよい。また、例えば、認識処理部111は、第1の光源の照射時に撮像された第1の撮像画像の認識処理を行い、第2の光源の照射時に撮像された第2の撮像画像の認識処理を行うようにしてもよい。   The recognition processing unit 111 performs recognition processing of a first captured image obtained by imaging the object at the time of setting the first light source and recognition processing of a second captured image obtained by imaging the object at the time of setting the second light source. It may be. In addition, for example, the recognition processing unit 111 performs recognition processing of the first captured image captured when the first light source is irradiated, and performs recognition processing of the second captured image captured when the second light source is irradiated. You may make it perform.

真贋判定部(真偽判定部)112は、対象物の真贋判定処理を行う。例えば、真贋判定部112は、第1の撮像画像と第2の撮像画像のうち、一方の撮像画像から第1の所定情報を認識し他方の撮像画像から当該第1の所定情報を認識しない場合に、真の対象物と判定する処理を行う。   The authenticity determination unit (authentication determination unit) 112 performs an authenticity determination process for the object. For example, when the authenticity determination unit 112 recognizes the first predetermined information from one of the first captured image and the second captured image and does not recognize the first predetermined information from the other captured image. Next, a process for determining a true object is performed.

また、真贋判定部112は、第1の撮像画像と第2の撮像画像のうち、一方の撮像画像から第1の所定情報を認識し、他方の撮像画像から第2の所定情報を認識した場合に、真と判定する処理を行うようにしてもよい。   Further, when the authenticity determination unit 112 recognizes the first predetermined information from one of the first captured image and the second captured image and recognizes the second predetermined information from the other captured image. In addition, a process for determining true may be performed.

また、真贋判定部112は、第1の撮像画像と第2の撮像画像とにおいて共通性を有する場合であって、かつ、一方の撮像画像から第1の所定情報を認識し他方の撮像画像から当該第1の所定情報を認識しない場合に、真の対象物と判定する処理を行うようにしてもよい。また、真贋判定部112は、第1の撮像画像と第2の撮像画像とにおいて共通性を有する場合であって、かつ、一方の撮像画像から第1の所定情報を認識し他方の撮像画像から当該第2の所定情報を認識する場合に、真の対象物と判定する処理を行うようにしてもよい。つまり、真贋判定部112は、第1の撮像画像と第2の撮像画像とにおいて共通性を有しない場合には対象物を偽と判定してもよい。   Further, the authenticity determination unit 112 has a commonality between the first captured image and the second captured image, recognizes the first predetermined information from one captured image, and determines from the other captured image. When the first predetermined information is not recognized, a process for determining a true object may be performed. Further, the authenticity determination unit 112 has a commonality between the first captured image and the second captured image, recognizes the first predetermined information from one captured image, and determines from the other captured image. When recognizing the second predetermined information, a process of determining a true object may be performed. That is, the authenticity determination unit 112 may determine that the target object is false when there is no commonality between the first captured image and the second captured image.

ゲーム処理部113は、種々のゲーム演算処理を行う。例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、ゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理などがある。   The game processing unit 113 performs various game calculation processes. For example, there are a process for starting a game when a game start condition is satisfied, a process for advancing the game, and a process for ending a game when a game end condition is satisfied.

また、ゲーム処理部113は、プレーヤキャラクタ、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)をオブジェクト空間に配置設定する処理を行うようにしてもよい。   The game processing unit 113 includes various objects (polygons, free-form surfaces, subdivision surfaces, etc.) representing display objects such as player characters, buildings, stadiums, cars, trees, pillars, walls, and maps (terrain). The object may be placed and set in the object space.

ここでオブジェクト空間とは、仮想空間であり、2次元空間、3次元空間の両方を含む。2次元空間とは、例えば2次元座標(X,Y)においてオブジェクトが配置される空間であり、3次元空間とは、例えば3次元座標(X,Y,Z)においてオブジェクトが配置される空間である。例えば、オブジェクト空間設定部111は、オブジェクト空間を3次元空間とした場合には、ワールド座標系にオブジェクトを配置する。また、例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義であり、例えば、ワールド座標系でのX、Y、Z軸の各軸の正方向からみて時計回りに回る場合における回転角度)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   Here, the object space is a virtual space and includes both a two-dimensional space and a three-dimensional space. The two-dimensional space is a space in which an object is arranged at, for example, two-dimensional coordinates (X, Y), and the three-dimensional space is a space in which an object is arranged at, for example, three-dimensional coordinates (X, Y, Z). is there. For example, the object space setting unit 111 places an object in the world coordinate system when the object space is a three-dimensional space. In addition, for example, the position and rotation angle of the object in the world coordinate system (synonymous with the direction and direction, for example, when turning clockwise when viewed from the positive direction of the X, Y, and Z axes in the world coordinate system. Is determined, and an object is arranged at the position (X, Y, Z) at the rotation angle (rotation angle about the X, Y, Z axes).

また、ゲーム処理部113は、オブジェクト空間において、プレーヤキャラクタを移動させる処理を行うようにしてもよい。すなわち入力部160によりプレーヤが入力した入力情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、プレーヤキャラクタをオブジェクト空間内で移動させたり、オブジェクトを動作(モーション、アニメーション)させたりする処理を行う。具体的には、プレーヤキャラクタの移動情報(位置、回転角度、速度、或いは加速度などの移動パラメータ)や動作情報(オブジェクトを構成する各パーツの位置、或いは回転角度)を、1フレーム(例えば、1/60秒)毎に順次求める処理を行うようにしてもよい。なおフレームは、プレーヤキャラクタの移動・動作処理や画像生成処理を行う時間の単位である。   Further, the game processing unit 113 may perform processing for moving the player character in the object space. That is, based on input information input by the player through the input unit 160, a program (movement / motion algorithm), various data (motion data), and the like, the player character is moved in the object space, and the object is moved (motion, motion, etc.). Animation). More specifically, movement information (movement parameters such as position, rotation angle, speed, or acceleration) and action information (position or rotation angle of each part constituting the object) of the player character are stored in one frame (for example, 1 / 60 seconds) may be performed sequentially. The frame is a unit of time for performing the player character movement / motion process and the image generation process.

ゲーム処理部113は、認識処理結果に基づいてゲーム処理を行う。例えば、第1の所定情報と第2の所定情報とを認識した場合には、第1の所定情報と第2の所定情報とに基づいて、ゲーム処理を行う。   The game processing unit 113 performs a game process based on the recognition process result. For example, when the first predetermined information and the second predetermined information are recognized, the game process is performed based on the first predetermined information and the second predetermined information.

決定部114は、第1の撮像画像の認識処理結果と、第2の撮像画像の認識処理結果とに基づいて、ゲーム処理で用いられるゲーム情報を決定する処理を行う。例えば、決定部114は、第1の撮像画像から認識した情報と、第2の撮像画像から認識した情報とに基づいて、ゲーム処理で用いられるゲーム情報を決定する処理を行う。なお、決定部114は、対象物が真と判定された場合に、第1の撮像画像から認識した情報と、第2の撮像画像から認識した情報とに基づいて、ゲーム処理で用いられるゲーム情報を決定する処理を行うようにしてもよい。   The determination unit 114 performs processing for determining game information used in the game processing based on the recognition processing result of the first captured image and the recognition processing result of the second captured image. For example, the determination unit 114 performs a process of determining game information used in the game process based on information recognized from the first captured image and information recognized from the second captured image. The determination unit 114 uses the game information used in the game process based on the information recognized from the first captured image and the information recognized from the second captured image when the object is determined to be true. It is also possible to perform a process for determining.

また、表示制御部115は、ゲーム処理部113によるゲーム処理内容を表示させる表示制御や、描画部120において生成された画像を表示部190に表示させる表示制御を行う。   Further, the display control unit 115 performs display control for displaying the contents of the game processing by the game processing unit 113 and display control for displaying the image generated in the drawing unit 120 on the display unit 190.

また、表示制御部115は、サーバ20から受信した認識処理結果、例えば、撮像画像から認識した情報を表示してもよい。また、サーバ20から、Webページ(インターネット上で提供されるハイパーテキスト記述言語で記載されたデータ。例えば、HTML(Hyper Text Markup Language)データなど)や、ゲーム結果等を表示させる処理を行ってもよい。   Further, the display control unit 115 may display the recognition processing result received from the server 20, for example, information recognized from the captured image. Further, even if the server 20 performs processing for displaying a Web page (data described in a hypertext description language provided on the Internet. For example, HTML (Hyper Text Markup Language) data), a game result, or the like. Good.

光源設定部116は、対象物を照射するための少なくとも1つの光源を設定する。例えば、光源設定部116は、光源を可変に設定してもよいし、固定に設定してもよい。また、光源設定部116は、少なくとも1つの光源に対して、第1の光源設定と第2の光源設定とを排他的に行うようにしてもよい。   The light source setting unit 116 sets at least one light source for irradiating the object. For example, the light source setting unit 116 may set the light source variably or may be fixed. Further, the light source setting unit 116 may exclusively perform the first light source setting and the second light source setting for at least one light source.

具体的には、第1の光源設定は、撮像部30が第1の成分を受光するための光源設定としてもよい。また、第2の光源設定は、撮像部30が第2の成分を受光するための光源設定としてもよい。例えば、第1の光源設定は、撮像部30が対象物に記録されたシンボル(例えば、コード)からの光の第1の成分を受光するための光源設定としてもよい。また、第2の光源設定は、撮像部30が対象物に記録された当該シンボルからの第2の成分を受光するための光源設定としてもよい。   Specifically, the first light source setting may be a light source setting for the imaging unit 30 to receive the first component. Further, the second light source setting may be a light source setting for the imaging unit 30 to receive the second component. For example, the first light source setting may be a light source setting for the imaging unit 30 to receive a first component of light from a symbol (for example, a code) recorded on the object. Further, the second light source setting may be a light source setting for the imaging unit 30 to receive the second component from the symbol recorded on the object.

また、光源設定部116は、光源の強度を可変に設定するようにしてもよい。また、光源設定部116は、光源の明度を可変に設定するようにしてもよい。また、光源設定部116は、光源の照射方向を可変に設定するようにしてもよい。また、光源設定部116は、光源の照射数を可変に設定するようにしてもよい。また、光源設定部116は、光源位置を可変に設定するようにしてもよい。   The light source setting unit 116 may variably set the intensity of the light source. The light source setting unit 116 may variably set the brightness of the light source. The light source setting unit 116 may variably set the irradiation direction of the light source. The light source setting unit 116 may variably set the number of light source irradiations. Further, the light source setting unit 116 may variably set the light source position.

撮像部設定部(カメラ設定部)117は、撮像部30の位置を可変又は固定に設定する。例えば、撮像部設定部117は、(例えば、撮像時に)撮像部の位置を固定に設定するようにしてもよい。また、撮像部設定部は、複数の撮像部の位置を設定するようにしてもよい。また、撮像部設定部117は、撮像部30の被写体が常に対象物(対象物のコード記録面)になるように自動制御するようにしてもよい。   The imaging unit setting unit (camera setting unit) 117 sets the position of the imaging unit 30 to be variable or fixed. For example, the imaging unit setting unit 117 may set the position of the imaging unit to be fixed (for example, during imaging). The imaging unit setting unit may set the positions of a plurality of imaging units. In addition, the imaging unit setting unit 117 may automatically control the subject of the imaging unit 30 so as to always be the target (the code recording surface of the target).

対象物設定部118は、カード等の対象物の位置を可変又は固定に設定する。例えば、対象物設定部118は、(例えば、撮像時に)対象物の位置を固定に設定するようにしてもよい。   The object setting unit 118 sets the position of an object such as a card to be variable or fixed. For example, the object setting unit 118 may set the position of the object to be fixed (for example, during imaging).

通信制御部119は、他の読み取り装置(端末)10又はサーバ20とデータを送受信する処理を行う。例えば、通信制御部119は、サーバのIPアドレスやポート番号を指定してデータを送受信する処理を行う。また、通信制御部119は、サーバ20から受信したデータを記憶部170に格納する処理、受信したデータを解析する処理、その他のデータの送受信に関する制御処理等を行う。なお、通信制御部119は、サーバの宛先情報(IPアドレス、ポート番号)を情報記憶媒体180に記憶し、管理する処理を行うようにしてもよい。また、通信制御部119は、ユーザからの通信開始の入力情報を受け付けた場合に、サーバ20との通信を行うようにしてもよい。   The communication control unit 119 performs processing for transmitting / receiving data to / from another reading device (terminal) 10 or the server 20. For example, the communication control unit 119 performs processing for transmitting and receiving data by designating the IP address and port number of the server. Further, the communication control unit 119 performs processing for storing the data received from the server 20 in the storage unit 170, processing for analyzing the received data, control processing for other data transmission / reception, and the like. The communication control unit 119 may store the server destination information (IP address, port number) in the information storage medium 180 and perform a management process. The communication control unit 119 may perform communication with the server 20 when receiving input information for starting communication from the user.

特に、通信制御部119は、サーバ20にユーザの識別情報を送信して、ユーザ情報に関するデータ(ゲームデータ、或いは、ユーザのWebページ等)をサーバ20から受信する処理を行う。例えば、通信制御部119は、ユーザとフレンド関係にある他のユーザの情報(他のユーザ名、他のユーザの掲示情報など)を含むデータを、サーバ20から受信する処理を行うようにしてもよい。   In particular, the communication control unit 119 performs processing for transmitting user identification information to the server 20 and receiving data related to the user information (game data or a user's Web page) from the server 20. For example, the communication control unit 119 may perform a process of receiving data from the server 20 including information on other users who have friendships with the user (such as other user names and other users' posted information). Good.

なお、通信制御部119は、画像を描画するフレームレートに応じてデータを含むパケットを生成し、サーバ20に生成したパケットを送信する処理を行ってもよい。具体的に説明すると、例えば、フレームレートが60fpsである場合には、1/60秒毎に、サーバ20にパケットを送信する処理を行ってもよい。   Note that the communication control unit 119 may perform a process of generating a packet including data in accordance with a frame rate for drawing an image and transmitting the generated packet to the server 20. Specifically, for example, when the frame rate is 60 fps, a process of transmitting a packet to the server 20 may be performed every 1/60 seconds.

また、通信制御部119は、撮像部30で撮像した撮像画像を、ネットワークを介してサーバや他の端末に送信してもよい。また、通信制御部119は、入力情報、ゲーム情報、ゲーム結果などをサーバや他の読み取り装置(端末)10に送信するようにしてもよい。   Further, the communication control unit 119 may transmit the captured image captured by the imaging unit 30 to a server or another terminal via a network. Further, the communication control unit 119 may transmit input information, game information, game results, and the like to a server or other reading device (terminal) 10.

描画部120は、オブジェクトをオブジェクト空間(仮想的3次元空間)に配置する処理を行う。例えば、オブジェクト配置部は、建物、球場、車、樹木、柱、壁、マップ(地形)などの表示物を、オブジェクト空間に配置する処理を行う。ここでオブジェクト空間とは、仮想的なゲーム空間であり、例えば、ワールド座標系、仮想カメラ座標系のように、3次元座標(X,Y,Z)においてオブジェクトが配置される空間である。   The drawing unit 120 performs processing for arranging an object in an object space (virtual three-dimensional space). For example, the object placement unit performs processing for placing a display object such as a building, a stadium, a car, a tree, a pillar, a wall, and a map (terrain) in the object space. Here, the object space is a virtual game space, for example, a space in which objects are arranged in three-dimensional coordinates (X, Y, Z) such as a world coordinate system and a virtual camera coordinate system.

例えば、オブジェクト配置部は、ワールド座標系にオブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェスなどのプリミティブで構成されるオブジェクト)を配置する。また、例えば、ワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。   For example, the object placement unit places an object (an object composed of a primitive such as a polygon, a free-form surface, or a subdivision surface) in the world coordinate system. Also, for example, the position and rotation angle (synonymous with direction and direction) of the object in the world coordinate system is determined, and the rotation angle (X, Y, Z axis rotation) is determined at that position (X, Y, Z). Position the object at (Angle).

描画部120は、処理部100で行われる種々の処理の結果に基づいて描画処理を行い、これにより画像を生成し、表示部190に出力する。言い換えると、描画部120は、オブジェクト空間において、仮想カメラから見える画像を生成する。   The drawing unit 120 performs drawing processing based on the results of various processes performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. In other words, the drawing unit 120 generates an image that can be seen from the virtual camera in the object space.

例えば、描画部120は、オブジェクト(モデル)の各頂点の頂点データ(頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)を含むオブジェクトデータ(モデルデータ)が入力され、入力されたオブジェクトデータに含まれる頂点データに基づいて、頂点処理(頂点シェーダによるシェーディング)が行われる。なお頂点処理を行うに際して、必要に応じてポリゴンを再分割するための頂点生成処理(テッセレーション、曲面分割、ポリゴン分割)を行うようにしてもよい。   For example, the drawing unit 120 receives object data (model data) including vertex data (vertex position coordinates, texture coordinates, color data, normal vector, α value, etc.) of each vertex of the object (model). Based on the vertex data included in the object data, vertex processing (shading by a vertex shader) is performed. When performing the vertex processing, vertex generation processing (tessellation, curved surface division, polygon division) for re-dividing the polygon may be performed as necessary.

頂点処理では、頂点処理プログラム(頂点シェーダプログラム、第1のシェーダプログラム)に従って、頂点の移動処理や、座標変換、例えばワールド座標変換、視野変換(カメラ座標変換)、クリッピング処理、透視変換(投影変換)、ビューポート変換等のジオメトリ処理が行われ、その処理結果に基づいて、オブジェクトを構成する頂点群について与えられた頂点データを変更(更新、調整)する。   In the vertex processing, according to the vertex processing program (vertex shader program, first shader program), vertex movement processing, coordinate transformation, for example, world coordinate transformation, visual field transformation (camera coordinate transformation), clipping processing, perspective transformation (projection transformation) ), Geometry processing such as viewport conversion is performed, and based on the processing result, the vertex data given to the vertex group constituting the object is changed (updated or adjusted).

そして、頂点処理後の頂点データに基づいてラスタライズ(走査変換)が行われ、ポリゴン(プリミティブ)の面とピクセルとが対応づけられる。そしてラスタライズに続いて、画像を構成するピクセル(表示画面を構成するフラグメント)を描画するピクセル処理(ピクセルシェーダによるシェーディング、フラグメント処理)が行われる。ピクセル処理では、ピクセル処理プログラム(ピクセルシェーダプログラム、第2のシェーダプログラム)に従って、テクスチャの読出し(テクスチャマッピング)、色データの設定/変更、半透明合成、アンチエイリアス等の各種処理を行って、画像を構成するピクセルの最終的な描画色を決定し、透視変換されたオブジェクトの描画色を画像バッファ172(ピクセル単位で画像情報を記憶できるバッファ。VRAM、レンダリングターゲット、フレームバッファ)に出力(描画)する。すなわち、ピクセル処理では、画像情報(色、法線、輝度、α値等)をピクセル単位で設定あるいは変更するパーピクセル処理を行う。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。   Then, rasterization (scan conversion) is performed based on the vertex data after the vertex processing, and the surface of the polygon (primitive) is associated with the pixel. Subsequent to rasterization, pixel processing (shading or fragment processing by a pixel shader) for drawing pixels (fragments forming a display screen) constituting an image is performed. In pixel processing, according to a pixel processing program (pixel shader program, second shader program), various processes such as texture reading (texture mapping), color data setting / change, translucent composition, anti-aliasing, etc. are performed, and an image is processed. The final drawing color of the constituent pixels is determined, and the drawing color of the perspective-transformed object is output (drawn) to the image buffer 172 (buffer that can store image information in units of pixels; VRAM, rendering target, frame buffer). . That is, in pixel processing, per-pixel processing for setting or changing image information (color, normal, luminance, α value, etc.) in units of pixels is performed. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated.

なお頂点処理やピクセル処理は、シェーディング言語によって記述されたシェーダプログラムによって、ポリゴン(プリミティブ)の描画処理をプログラム可能にするハードウェア、いわゆるプログラマブルシェーダ(頂点シェーダやピクセルシェーダ)により実現される。プログラマブルシェーダでは、頂点単位の処理やピクセル単位の処理がプログラム可能になることで描画処理内容の自由度が高く、従来のハードウェアによる固定的な描画処理に比べて表現力を大幅に向上させることができる。   Note that the vertex processing and pixel processing are realized by hardware that enables polygon (primitive) drawing processing to be programmed by a shader program written in a shading language, so-called programmable shaders (vertex shaders and pixel shaders). Programmable shaders can be programmed with vertex-level processing and pixel-level processing, so that the degree of freedom of drawing processing is high, and expressive power is greatly improved compared to conventional hardware-based fixed drawing processing. Can do.

そして描画部120は、オブジェクトを描画する際に、ジオメトリ処理、テクスチャマッピング、隠面消去処理、αブレンディング等を行う。   The drawing unit 120 performs geometry processing, texture mapping, hidden surface removal processing, α blending, and the like when drawing an object.

ジオメトリ処理では、オブジェクトに対して、座標変換、クリッピング処理、透視投影変換、或いは光源計算等の処理が行われる。そして、ジオメトリ処理後(透視投影変換後)のオブジェクトデータ(オブジェクトの頂点の位置座標、テクスチャ座標、色データ(輝度データ)、法線ベクトル、或いはα値等)は、記憶部170に保存される。   In the geometry processing, processing such as coordinate conversion, clipping processing, perspective projection conversion, or light source calculation is performed on the object. Then, the object data (positional coordinates of object vertices, texture coordinates, color data (luminance data), normal vector, α value, etc.) after geometry processing (after perspective projection conversion) is stored in the storage unit 170. .

テクスチャマッピングは、記憶部170に記憶されるテクスチャ(テクセル値)をオブジェクトにマッピングするための処理である。具体的には、オブジェクトの頂点に設定(付与)されるテクスチャ座標等を用いて記憶部170からテクスチャ(色(RGB)、α値などの表面プロパティ)を読み出す。そして、2次元の画像であるテクスチャをオブジェクトにマッピングする。この場合に、ピクセルとテクセルとを対応づける処理や、テクセルの補間としてバイリニア補間などを行う。   Texture mapping is a process for mapping a texture (texel value) stored in the storage unit 170 to an object. Specifically, the texture (surface properties such as color (RGB) and α value) is read from the storage unit 170 using texture coordinates or the like set (given) to the vertex of the object. Then, a texture that is a two-dimensional image is mapped to an object. In this case, processing for associating pixels with texels, bilinear interpolation or the like is performed as texel interpolation.

隠面消去処理としては、描画ピクセルのZ値(奥行き情報)が格納されるZバッファ(奥行きバッファ)を用いたZバッファ法(奥行き比較法、Zテスト)による隠面消去処理を行うことができる。すなわちオブジェクトのプリミティブに対応する描画ピクセルを描画する際に、Zバッファに格納されるZ値を参照する。そして参照されたZバッファのZ値と、プリミティブの描画ピクセルでのZ値とを比較し、描画ピクセルでのZ値が、仮想カメラから見て手前側となるZ値(例えば小さなZ値)である場合には、その描画ピクセルの描画処理を行うとともにZバッファのZ値を新たなZ値に更新する。   As the hidden surface removal processing, hidden surface removal processing can be performed by a Z buffer method (depth comparison method, Z test) using a Z buffer (depth buffer) in which Z values (depth information) of drawing pixels are stored. . That is, when drawing pixels corresponding to the primitive of the object are drawn, the Z value stored in the Z buffer is referred to. Then, the Z value of the referenced Z buffer is compared with the Z value at the drawing pixel of the primitive, and the Z value at the drawing pixel is a Z value (for example, a small Z value) on the near side when viewed from the virtual camera. In some cases, the drawing process of the drawing pixel is performed and the Z value of the Z buffer is updated to a new Z value.

αブレンディング(α合成)は、α値(A値)に基づく半透明合成処理(通常αブレンディング、加算αブレンディング又は減算αブレンディング等)のことである。   α blending (α synthesis) is a translucent synthesis process (usually α blending, addition α blending, subtraction α blending, or the like) based on an α value (A value).

例えば、αブレンディングでは、これから画像バッファ172に描画する描画色(上書きする色)C1と、既に画像バッファ172(レンダリングターゲット)に描画されている描画色(下地の色)C2とを、α値に基づいて線形合成処理を行う。つまり、最終的な描画色をCとすると、C=C1*α+C2*(1−α)によって求めることができる。   For example, in α blending, the drawing color (overwriting color) C1 to be drawn in the image buffer 172 and the drawing color (background color) C2 already drawn in the image buffer 172 (rendering target) are set to α values. Based on this, a linear synthesis process is performed. That is, if the final drawing color is C, it can be obtained by C = C1 * α + C2 * (1−α).

なお、α値は、各ピクセル(テクセル、ドット)に関連づけて記憶できる情報であり、例えば色情報以外のプラスアルファの情報である。α値は、マスク情報、半透明度(透明度、不透明度と等価)、バンプ情報などとして使用できる。   The α value is information that can be stored in association with each pixel (texel, dot), for example, plus alpha information other than color information. The α value can be used as mask information, translucency (equivalent to transparency and opacity), bump information, and the like.

音処理部130は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などのゲーム音を生成し、音出力部192に出力する。   The sound processing unit 130 performs sound processing based on the results of various processes performed by the processing unit 100, generates a game sound such as BGM, sound effect, or sound, and outputs the game sound to the sound output unit 192.

なお、本実施形態の読み取り装置(端末、ゲーム装置)10は、1人のプレーヤのみがプレイできるシングルプレーヤモード、或いは、複数のプレーヤがプレイできるマルチプレーヤモードでゲームプレイできるように制御してもよい。例えば、マルチプレーヤモードで制御する場合には、ネットワークを介して他の読み取り装置10とデータを送受信してゲーム処理を行うようにしてもよいし、1つの読み取り装置10が、複数の入力部からの入力情報に基づいて処理を行うようにしてもよい。また、読み取り装置10は、サーバ20から受信したゲームプログラムに基づいて、ゲーム処理を行うようにしてもよい。   Note that the reading device (terminal, game device) 10 of the present embodiment may be controlled so that the game can be played in a single player mode in which only one player can play or in a multiplayer mode in which a plurality of players can play. Good. For example, in the case of controlling in the multiplayer mode, game processing may be performed by transmitting / receiving data to / from another reading device 10 via a network, or one reading device 10 may be connected from a plurality of input units. Processing may be performed based on the input information. Further, the reading device 10 may perform a game process based on a game program received from the server 20.

2.読み取り装置の説明
図2(A)(B)は、本実施形態の読み取り装置10の一例を示す。本実施形態の読み取り装置10は、例えば携帯型ゲーム装置である。読み取り装置10は、本体上部2と本体下部4とがヒンジ部6により接合されており、本体上部2と本体下部4とがヒンジ軸回りに回動可能に形成されている。そして本体上部2には第1のディスプレイ11と、第1のディスプレイ11に立体視用画像を表示する際に立体度を調整するスライド型の3Dボリューム(立体視の奥行き度の調整機能)が設けられている。
2. Description of Reading Device FIGS. 2A and 2B show an example of the reading device 10 of the present embodiment. The reading device 10 of the present embodiment is a portable game device, for example. In the reading device 10, the main body upper portion 2 and the main body lower portion 4 are joined by a hinge portion 6, and the main body upper portion 2 and the main body lower portion 4 are formed to be rotatable around a hinge axis. The upper part 2 of the main body is provided with a first display 11 and a slide-type 3D volume (a function of adjusting the depth of stereoscopic vision) for adjusting the stereoscopic degree when displaying a stereoscopic image on the first display 11. It has been.

そして、本実施形態の読み取り装置10の本体上部2には、撮像部(カメラ)30(31、32、33)が設けられている。つまり、図2(B)に示すように、本体上部2の外側に2つの撮像部31、32と、図2(A)に示すように、本体上部2の内側に1つの撮像部33が設けられている。   An imaging unit (camera) 30 (31, 32, 33) is provided on the main body upper portion 2 of the reading apparatus 10 of the present embodiment. That is, as shown in FIG. 2 (B), two image pickup units 31 and 32 are provided outside the main body upper portion 2 and one image pickup portion 33 is provided inside the main body upper portion 2 as shown in FIG. 2 (A). It has been.

また、図3に示すように、本実施形態の読み取り装置10は、2つの撮像部31、32によって撮像された各撮像画像を合成することによって立体視用画像を生成することができる。そのため、2つの撮像部31、32が、本体上部2において、所定の位置、所定の方向を向くように配置設定されている。例えば、各撮像部31、32は、本体上部2の代表位置Pから所定距離Lだけ離れた位置CP1、CP2に配置され、本体上部においてのY軸、Z軸が揃うように配置されている。そして、撮像部31、32は、同じ方向Vを向くように配置される。そして、撮像部31、32は、同一の被写体である対象物を、入力部160からの入力情報を受け付けたタイミング(入力信号を検出したタイミング)で、撮像する。撮像部31、32によって撮像された各撮像画像は、撮像画像記憶部173に記憶される。そして、本実施形態の読み取り装置10は、撮像画像記憶部173に記憶された各撮像画像を認識する処理を行う。   As illustrated in FIG. 3, the reading apparatus 10 according to the present embodiment can generate a stereoscopic image by combining the captured images captured by the two imaging units 31 and 32. Therefore, the two imaging units 31 and 32 are arranged and set in the main body upper part 2 so as to face a predetermined position and a predetermined direction. For example, the imaging units 31 and 32 are arranged at positions CP1 and CP2 that are separated from the representative position P of the main body upper portion 2 by a predetermined distance L, and are arranged so that the Y axis and the Z axis in the upper portion of the main body are aligned. The imaging units 31 and 32 are arranged to face the same direction V. Then, the imaging units 31 and 32 capture an image of an object that is the same subject at a timing when input information from the input unit 160 is received (a timing when an input signal is detected). Each captured image captured by the imaging units 31 and 32 is stored in the captured image storage unit 173. Then, the reading device 10 according to the present embodiment performs processing for recognizing each captured image stored in the captured image storage unit 173.

また、図2(A)に示すように、本体下部4には、第2のディスプレイ12が設けられている。また本体下部4には、スライドパッド13、十字キー14、電源ボタン15、ボタン16、セレクトボタン17、ホームボタン18、スタートボタン19、などの入力部(操作部)160が設けられている。なお、読み取り装置10は、操作者が音入力(音声入力)を行うための音入力装置(マイク)が設けられていてもよい。   Further, as shown in FIG. 2A, a second display 12 is provided in the main body lower portion 4. Also, the lower part 4 of the main body is provided with input units (operation units) 160 such as a slide pad 13, a cross key 14, a power button 15, a button 16, a select button 17, a home button 18, and a start button 19. Note that the reading device 10 may be provided with a sound input device (microphone) for an operator to input sound (voice input).

また、本実施形態の第2のディスプレイ12は、液晶ディスプレイとタッチパネルとが積層されて構成されており、第2のディスプレイ12の表示領域に対する接触操作位置を検出できるようになっている。そして本実施形態では、操作者にタッチペン17あるいは指により第2のディスプレイ12に対して接触操作を行わせ、その接触操作位置を検出する。   In addition, the second display 12 of the present embodiment is configured by laminating a liquid crystal display and a touch panel, and can detect a contact operation position with respect to a display area of the second display 12. In this embodiment, the operator is caused to perform a contact operation on the second display 12 with the touch pen 17 or a finger, and the contact operation position is detected.

3.本実施形態の手法
3.1 概要
本実施形態では、読み取り装置10の撮像部30(例えば、撮像部31、32)によって、対象物(例えば、カード)を撮像し、撮像された2つの撮像画像それぞれから対象物の真正を示す所定情報を認識することができるか否かを判断する。そして、撮像部30によって撮像された2つの撮像画像のうち一方の撮像画像において所定情報を認識でき、他方の撮像画像において所定情報を認識できない場合に、真の対象物であると判定する処理を行う。
3. 3. Method according to the present embodiment 3.1 Overview In the present embodiment, the imaging unit 30 (for example, the imaging units 31 and 32) of the reading device 10 captures an image of an object (for example, a card), and two captured images are captured. It is determined whether or not predetermined information indicating the authenticity of the object can be recognized from each. Then, when the predetermined information can be recognized in one of the two picked-up images picked up by the image pickup unit 30 and the predetermined information cannot be recognized in the other picked-up image, a process of determining that the object is a true object is performed. Do.

より具体的に説明すると、本実施形態では、対象物40の一例として所定の大きさの長方形のカード(印刷媒体)を用いる。このカード40は、印刷面の所定領域(シンボル記録領域、コード記録面)に見る方向によって色が変化する偏光インク等の特殊インク、レンチキュラー、エンボス加工等の特殊加工が施されている。そして、本実施形態では、カード40の印刷面に特殊加工が施されたカードを、真のカード(正規のカード)として取り扱う。例えば、図4(A)に示すように、特殊インクが施されたコードが記録されたカード40は、位置P0からカードの方向R1から見たときには、コードを見ることができる。一方、図4(B)に示すように、位置P1からカードの方向R2から見たときには、コードを見ることができない。   More specifically, in the present embodiment, a rectangular card (print medium) having a predetermined size is used as an example of the object 40. This card 40 is subjected to special processing such as special ink such as polarized ink whose color changes depending on the direction seen in a predetermined region (symbol recording region, code recording surface) on the printing surface, lenticular, embossing and the like. And in this embodiment, the card | curd in which the special process was given to the printing surface of the card | curd 40 is handled as a true card | curd (regular card | curd). For example, as shown in FIG. 4A, a card 40 on which a code with special ink is recorded can see the code when viewed from the position P0 in the card direction R1. On the other hand, as shown in FIG. 4B, the code cannot be viewed when viewed from the position P1 in the card direction R2.

そして、本実施形態では、撮像部30によって、異なる位置で撮像して得られた2つの撮像画像の認識処理を行うことによって、真贋判定(真偽判定)を行っている。つまり、図5に示すように、本実施形態の読み取り装置10は、撮像部31に撮像された撮像画像61からコードを認識し、撮像部32に撮像された撮像画像62からコードを認識しない場合に、真のカードと判定する。   In the present embodiment, authentication processing (authentication determination) is performed by performing recognition processing of two captured images obtained by imaging at different positions by the imaging unit 30. That is, as illustrated in FIG. 5, the reading apparatus 10 according to the present embodiment recognizes the code from the captured image 61 captured by the imaging unit 31 and does not recognize the code from the captured image 62 captured by the imaging unit 32. It is determined that it is a true card.

一方、所定領域にいずれの方向からも視認可能な通常のインクが施された偽のカード50が存在する。例えば、図6(A)に示すように、通常インクが施されたコードが記録されたカード50は、位置P0からカード50の方向R1から見たときには、コードを見ることができるし、図6(B)に示すように、位置P1からカード50の方向R2から見たときにも、コードを見ることができる。本実施形態の読み取り装置10は、コード部分に通常のインクが施されたカードを、偽のカードと判定する。   On the other hand, there is a fake card 50 with normal ink that is visible from any direction in a predetermined area. For example, as shown in FIG. 6A, a card 50 on which a code with normal ink is recorded can see the code when viewed from the position P0 in the direction R1 of the card 50, and FIG. As shown in (B), the code can also be seen when viewed from the direction P2 of the card 50 from the position P1. The reading apparatus 10 according to the present embodiment determines that a card in which normal ink is applied to the code portion is a fake card.

つまり、図7に示すように、本実施形態の読み取り装置10は、撮像部31から撮像された撮像画像71にコードが撮像されるのでコードを認識することができる。また、読み取り装置10は、撮像部32から撮像された撮像画像72にコードが撮像され、コードを認識することができる。このように、両方の撮像画像71、72においてコードを認識することができる場合に、偽のカードであると判定する。   That is, as illustrated in FIG. 7, the reading apparatus 10 according to the present embodiment can recognize the code because the code is captured in the captured image 71 captured from the imaging unit 31. In addition, the reading device 10 can recognize the code by imaging the code in the captured image 72 captured from the imaging unit 32. Thus, when the code can be recognized in both the captured images 71 and 72, it is determined that the card is a fake card.

このように、本実施形態では、偏光インク等が施されたカードを、正規のカードとして扱っているので、複写機等による偽造が困難となる。つまり、本実施形態によれば、偽造防止を図ることが可能なカードを提供することができる。また、本実施形態の読み取り装置によれば、簡易に真贋判定を行うことができる。以下、詳細を説明する。   As described above, in this embodiment, a card on which polarized ink or the like has been applied is handled as a regular card, so that forgery by a copying machine or the like is difficult. That is, according to this embodiment, a card capable of preventing forgery can be provided. Further, according to the reading apparatus of the present embodiment, it is possible to easily determine the authenticity. Details will be described below.

3.2 対象物の説明
まず、読み取り装置10において認識される情報が記録された対象物について説明する。本実施形態の対象物は、撮像部30の被写体となる対象物であり、例えば、カードなどの印刷物(印刷媒体)、画面(表示画面、表示媒体)等の物(媒体)とすることができる。本実施例では、対象物として主に、印刷物を例にとって記載している。なお、対象物が自発光型の画面等の場合は、光の照射等の照明は不要であり、反射光ではなく、直接光を撮像又は、観察することになる。
3.2 Description of Object First, an object on which information recognized by the reading device 10 is recorded will be described. The target object of the present embodiment is a target object that is a subject of the imaging unit 30, and can be, for example, a printed matter (print medium) such as a card or an object (medium) such as a screen (display screen or display medium). . In this embodiment, a printed matter is mainly described as an example of the object. When the object is a self-luminous screen or the like, illumination such as light irradiation is not necessary, and direct light is imaged or observed instead of reflected light.

また、本実施形態の対象物に記録されるシンボル(例えば、コード)は、光(可視光)が照射された場合に、見る角度に応じて、シンボルから受光する光の成分が変化する(別の言い方をすれば、見る角度に応じて、シンボルからの反射光の成分が変化する)。なお、光の成分とは、光の色成分及び輝度成分の少なくとも一方である。つまり、観察者が対象物を傾けると、その傾斜角度に応じてコードが見えたり見えなかったり変化するように見える。本実施形態の対象物の例についてより具体的に説明する。   In addition, the symbol (for example, code) recorded on the object of the present embodiment changes the light component received from the symbol according to the viewing angle when light (visible light) is irradiated (separately). In other words, the reflected light component from the symbol changes according to the viewing angle). The light component is at least one of a light color component and a luminance component. That is, when the observer tilts the object, the code appears to be visible or invisible depending on the tilt angle. An example of the object of the present embodiment will be described more specifically.

3.2.1 シンボルの説明
まず、本実施形態のシンボルについて説明する。本実施形態のシンボルは、コードや、図柄、文字、絵文字、数値、色、模様、色分け模様、無模様、無地、帯状のグラデーション等とすることができる。例えば、コードは、横方向に縞模様状の線の太さによって情報を示す一次元のコードだけでなく、縦横に情報を示す2次元コード(例えば、QRコード(登録商標)、網目模様のコード)としてもよい。また、コードは、白又は黒によって示されるコードでもよいし、色によるコードでもよい。
3.2.1 Explanation of Symbols First, symbols according to the present embodiment will be described. The symbol of this embodiment can be a code, a pattern, a character, a pictogram, a numerical value, a color, a pattern, a color-coded pattern, a non-pattern, a plain color, a belt-like gradation, or the like. For example, the code is not only a one-dimensional code indicating information by the thickness of a striped line in the horizontal direction, but also a two-dimensional code (for example, a QR code (registered trademark), a mesh pattern code indicating information vertically and horizontally) ). The code may be a code indicated by white or black, or may be a code by color.

そして、本実施形態の対象物には、シンボルが記録される。ここで、シンボルが対象物に「記録される」とは、シンボルが対象物に「印刷される」、シンボルが対象物に「エンボス加工(凹凸加工)される」、シンボルが対象物に表示されることを意味するが、他の態様でシンボルが対象物に記録されていてもよい。   And a symbol is recorded on the object of this embodiment. Here, the symbol is “recorded” on the object means that the symbol is “printed” on the object, the symbol is “embossed (unevened)” on the object, and the symbol is displayed on the object. This means that the symbol may be recorded on the object in another manner.

また、本実施形態の対象物に記録されるシンボルは、観察者が受光する光の成分が変化するように記録されている。つまり、対象物に記録されるシンボルは、観察者の見る角度に応じて、光の成分が変化するように見える。   Further, the symbols recorded on the object of the present embodiment are recorded such that the light component received by the observer changes. That is, the symbol recorded on the object appears to change the light component according to the viewing angle of the observer.

したがって、対象物に記録されるシンボルは、本実施形態の読み取り装置10が備える撮像部30の撮像位置に応じて、撮像部30が受光する光の成分が変化することになる。   Therefore, the component of the light received by the imaging unit 30 is changed according to the imaging position of the imaging unit 30 included in the reading device 10 of the present embodiment.

また、本実施形態の対象物に記録されるシンボルは、光源の設定に応じて、反射光の成分が変化するように、シンボルが記録されていてもよい。つまり、光源の強度等の設定に応じて、撮像部30が受光する光の成分が変化するようにシンボルが記録されていてもよい。   Moreover, the symbol recorded on the target object of the present embodiment may be recorded such that the component of the reflected light changes according to the setting of the light source. That is, the symbol may be recorded so that the light component received by the imaging unit 30 changes according to the setting of the light source intensity or the like.

また、シンボルは、当該対象物の真正を示す所定情報に応じたシンボルとしてもよい。ここで、所定情報とは、対象物の真正を示す情報であり、例えば、シンボルそのものであってもよいし、シンボルが示すデータ、シンボルが示すデータに含まれる対象物の真正を示す特定のデータ、シンボルから認識されるデータ等である。   The symbol may be a symbol corresponding to predetermined information indicating the authenticity of the object. Here, the predetermined information is information indicating the authenticity of the object, and may be, for example, the symbol itself, or data indicated by the symbol, or specific data indicating the authenticity of the object included in the data indicated by the symbol. , Data recognized from symbols, and the like.

より具体的に説明すると、例えばシンボルがコード(1次元コード、2次元コード)である場合において所定情報に応じたコードとは、例えば、予め定めた対象物の真正を示す数値(文字列でもよい)を含むデータをエンコードしたコードとすることができる。   More specifically, for example, when the symbol is a code (one-dimensional code, two-dimensional code), the code corresponding to the predetermined information is, for example, a numerical value (character string) indicating the authenticity of a predetermined object. ) Including encoded data.

また、例えばシンボルが色である場合において所定情報に応じた色とは、予め定めた対象物の真正を示す色である。例えば、真正を示す色を赤色と定義した場合には、対象物に赤色をシンボルとして記録する。   For example, when the symbol is a color, the color corresponding to the predetermined information is a color indicating the authenticity of a predetermined object. For example, when the true color is defined as red, red is recorded as a symbol on the object.

また、例えばシンボルがマークである場合において所定情報に応じたマークとは、予め定めた対象物の真正を示すマークである。例えば、真正を示すマークを円形マークと定義した場合には、対象物に円形マークをシンボルとして記録する。   For example, when the symbol is a mark, the mark corresponding to the predetermined information is a mark indicating the authenticity of a predetermined object. For example, when a mark indicating authenticity is defined as a circular mark, the circular mark is recorded as a symbol on the object.

また、本実施形態の対象物には、第2のシンボルが記録されていてもよい。例えば、対象物には、光(例えば、可視光)が照射された場合に、見る角度に応じて、第2のシンボルから受光する光の成分(反射光に含まれる成分)が変化するように、第2のシンボルが記録されていてもよい。また、第2のシンボルは、当該対象物の真正を示す所定情報とは異なる(無関係の)シンボルとしてもよいし、第2のシンボルは、当該対象物の真正を示す第2の所定情報に応じたシンボルとしてもよい。また、対象物には、見る角度に応じて、第1のシンボルから受光する光の第1の成分(反射光の第1の成分)から、第2のシンボルから受光する光の第2の成分(反射光の第2の成分)に変化するように、第1のシンボルと第2のシンボルとが記録されていてもよい。   Further, the second symbol may be recorded on the object of the present embodiment. For example, when the object is irradiated with light (for example, visible light), the light component received from the second symbol (the component included in the reflected light) changes according to the viewing angle. The second symbol may be recorded. Further, the second symbol may be a symbol different from (unrelated to) the predetermined information indicating the authenticity of the target object, or the second symbol may be in accordance with the second predetermined information indicating the authenticity of the target object. It may be a symbol. Further, the object includes a second component of light received from the second symbol from a first component of light received from the first symbol (first component of reflected light) according to a viewing angle. The first symbol and the second symbol may be recorded so as to change to (second component of reflected light).

また、本実施形態では、第1のシンボルは、ゲーム情報を決定するための情報に応じたシンボルとしてもよい。例えば、本実施形態の第1のシンボルは、ゲームにおいてキャラクタを決定するために用いる情報、強さパラメータ、体力値パラメータ、アイテム、動画、文字、実行すべきイベントプログラム名、音声などのゲーム情報を、読み取り装置10によって認識可能なシンボルとしてもよい。そして、読み取り装置10において、シンボルが認識され、シンボルによって認識されたゲーム情報を、ゲーム処理で用いるようにしてもよい。なお、第2のシンボルを対象物に記録する場合には、当該第2のシンボルを、ゲーム情報を決定するための情報に応じたシンボルとしてもよい。   In the present embodiment, the first symbol may be a symbol corresponding to information for determining game information. For example, the first symbol of the present embodiment includes game information such as information used to determine a character in the game, strength parameter, physical fitness parameter, item, movie, character, event program name to be executed, and voice. The symbol may be recognizable by the reader 10. Then, the reader 10 may recognize the symbol and use the game information recognized by the symbol in the game process. In addition, when recording a 2nd symbol on a target object, it is good also considering the said 2nd symbol as a symbol according to the information for determining game information.

例えば、本実施形態では、ゲーム情報を決定するための情報(数値や文字列)を含むデータをエンコードし、エンコードしたコードを第1のシンボルとして対象物に記録してもよい。また、本実施形態では、ゲーム情報を決定するための色を第1のシンボルとして対象物に記録してもよいし、ゲーム情報を決定するためのマークを第1のシンボルとして対象物に記録してもよい。   For example, in this embodiment, data including information (numerical values or character strings) for determining game information may be encoded, and the encoded code may be recorded on the object as the first symbol. In the present embodiment, the color for determining the game information may be recorded on the object as the first symbol, or the mark for determining the game information is recorded on the object as the first symbol. May be.

3.2.2 シンボルの記録の具体例
本実施形態の対象物40は、対象物40の一部或いは全部にシンボルが記録される。なお、対象物40がカードである場合には、表面、裏面の少なくとも一方にシンボルを記録する。また、対象物40の予め決められた所定領域(シンボルの記録領域)に、シンボルを記録するようにしてもよい。
3.2.2 Specific Example of Symbol Recording In the object 40 of the present embodiment, symbols are recorded on a part or all of the object 40. If the object 40 is a card, a symbol is recorded on at least one of the front surface and the back surface. Further, the symbol may be recorded in a predetermined area (symbol recording area) of the object 40.

例えば、対象物40は、図8(A)〜(D)に示すように、所定領域(シンボルの記録領域)A1〜A3を設定し、所定領域に、レンチキュラー、カラーシフティング、エンボス加工等を施すことによって、見る方向に応じて色が変化するように形成している。   For example, as shown in FIGS. 8A to 8D, the target object 40 is set with predetermined areas (symbol recording areas) A1 to A3, and lenticular, color shifting, embossing, etc. are performed on the predetermined areas. By applying, the color changes depending on the viewing direction.

具体的に説明すると、図8(A)に示すように、対象物40の所定領域A1に、可視光が照射された場合に、見る角度に応じて、コードから受光する光の成分(反射光の成分)が変化するように、コードを記録する。言い換えると、所定領域A1に、コード記録面に対する見る角度θの変化に応じて色及び輝度の少なくとも一方が変化する変化部を設ける。   Specifically, as shown in FIG. 8A, when a predetermined region A1 of the object 40 is irradiated with visible light, the component of light received from the code (reflected light) according to the viewing angle. The code is recorded so that the component of In other words, the predetermined area A1 is provided with a changing portion in which at least one of color and luminance changes according to a change in the viewing angle θ with respect to the code recording surface.

例えば、コード記録面に対する見る角度が第1の角度θ1である第1の方向R1から見た場合に所定領域A1においてコードが見え、コード記録面に対する見る角度が第2の角度θ2である第2の方向R2から見た場合に所定領域A1にコードが見えないように、コードを記録する。記録方法は、レンチキュラー、偏光インクや偏光シート、エンボス加工などの印刷手法、立体視映像表示画面に表示するための画像描画がある。   For example, when viewed from the first direction R1 in which the viewing angle with respect to the code recording surface is the first angle θ1, the code can be seen in the predetermined area A1, and the viewing angle with respect to the code recording surface is the second angle θ2. The code is recorded so that the code cannot be seen in the predetermined area A1 when viewed from the direction R2. Recording methods include lenticular, polarizing ink and polarizing sheet, printing techniques such as embossing, and image drawing for displaying on a stereoscopic video display screen.

また、対象物40は、図8(B)に示すように、対象物40の全体(表面全体及び裏面全体の少なくとも一方)である領域A2を、見る方向に応じて色或いは輝度が変化するように見える特殊印刷、特殊画像を施してもよい。かかる場合は、図8(B)に示すように、領域A2の一部にシンボル(コード)を記録してもよいし、領域A2全体にシンボルを記録してもよい。また、図8(B)に示すように、第1、第2の方向R1、R2において、シンボル(コード)の記録領域以外の領域に見る方向に応じて図柄等を変化させるようにしてもよい。   Further, as shown in FIG. 8B, the object 40 has a color or luminance that changes depending on the viewing direction of the region A2 that is the entire object 40 (at least one of the entire front surface and the entire back surface). Special printing and special images that can be seen may be applied. In such a case, as shown in FIG. 8B, a symbol (code) may be recorded in a part of the area A2, or a symbol may be recorded in the entire area A2. Further, as shown in FIG. 8B, in the first and second directions R1 and R2, the design or the like may be changed according to the direction of viewing in the area other than the symbol (code) recording area. .

3.2.3 識別マークの記録
本実施形態では、第1のシンボルが記録されている所定領域以外に、いずれの方向からも視認可能な複数の識別マークを対象物に記録するようにしてもよい。例えば、複数の識別マークと所定領域とが、所定の配置関係で配置されているように各識別マークと第1のシンボルを対象物に記録する。このようにすれば、読み取り装置10においてマークM1〜M3を認識することによって、マークM1〜M3の位置関係から、読み取るべき第1のシンボル(コード)がどの部分に記載されているのか容易に判断できる。なお、マークM1〜M3は、いずれの方向からも視認できるように形成されている。マークM1〜M3は、所定領域を抽出するために、いずれの方向からも視認可能に形成される必要があるからである。
3.2.3 Recording of identification marks In this embodiment, a plurality of identification marks that are visible from any direction other than the predetermined area where the first symbol is recorded may be recorded on the object. Good. For example, each identification mark and the first symbol are recorded on the object such that a plurality of identification marks and a predetermined area are arranged in a predetermined arrangement relationship. In this way, by recognizing the marks M1 to M3 in the reading device 10, it is easy to determine in which part the first symbol (code) to be read is described from the positional relationship of the marks M1 to M3. it can. The marks M1 to M3 are formed so as to be visible from any direction. This is because the marks M1 to M3 need to be formed so as to be visible from any direction in order to extract a predetermined region.

例えば、図8(C)に示すように、第1の方向R1から見た場合には、所定領域A3においてコードが見え、第2の方向R2から見た場合には、所定領域A3においてコードが見えないように記録され、複数の識別マークM1〜M3はいずれの方向からも視認できるように記録される。   For example, as shown in FIG. 8C, when viewed from the first direction R1, the code can be seen in the predetermined area A3, and when viewed from the second direction R2, the code can be seen in the predetermined area A3. The plurality of identification marks M1 to M3 are recorded so as to be visible from any direction.

そして、図8(C)に示すように、本実施形態では、複数の識別マークM1〜M3が、対象物の所定の位置に所定間隔をおいて配置されている。つまり、対象物40の4隅のうち、3個の識別マークM1〜M3を3隅に配置し、残りの1つの隅にシンボルを記録するための所定領域A3を設定する。本実施形態の識別マークM1〜M3は、同一の中心点をもち、大きさが異なる2つの正方形で構成し、内側の正方形を黒塗りで示しているが、識別マークは識別可能なものであればよい。   As shown in FIG. 8C, in the present embodiment, the plurality of identification marks M1 to M3 are arranged at predetermined intervals on the target object. That is, among the four corners of the object 40, three identification marks M1 to M3 are arranged at the three corners, and a predetermined area A3 for recording a symbol is set at the remaining one corner. The identification marks M1 to M3 of the present embodiment are composed of two squares having the same center point and different sizes, and the inner squares are shown in black. However, the identification marks can be identified. That's fine.

また、本実施形態の対象物40は、図8(D)に示すように、対象物40に複数のマークM1〜M3を設けて、マークM1〜M3の位置関係に基づき第1のシンボルが記録されている所定領域A3のほかに、情報記録領域(情報記録範囲)Bを設けてもよい。   In addition, as shown in FIG. 8D, the object 40 of the present embodiment is provided with a plurality of marks M1 to M3 on the object 40, and the first symbol is recorded based on the positional relationship between the marks M1 to M3. In addition to the predetermined area A3, an information recording area (information recording range) B may be provided.

例えば、マークM1〜M3、所定領域A3、情報記録領域Bが、所定の位置関係を有するように予め配置決定すれば、所定領域A3にはカード偽造の判定のための情報を記録し、情報記録領域Bには、他の情報(所与の情報)に応じた第3のシンボルを記録することができるので、読み取り装置10の処理を簡易にすることができる。   For example, if the marks M1 to M3, the predetermined area A3, and the information recording area B are determined in advance so as to have a predetermined positional relationship, information for determining card forgery is recorded in the predetermined area A3. Since the third symbol corresponding to other information (given information) can be recorded in the area B, the processing of the reading device 10 can be simplified.

つまり、図8(D)に示すように、対象物の所定領域A3に、第1の方向R1から見た場合にはコードが見え第2の方向R2から見た場合にコードが見えないようにコードを記録し、さらに、複数の識別マークM1〜M3や情報記録領域Bに記録された別の情報(第3の情報)に応じた第3のシンボル(例えば、第3のコード)は、いずれの方向からも視認できるように記録される。なお、情報記憶領域Bに、第1の方向R1から見た場合に第3のシンボルが見え第2の方向R2から見た場合に第3のシンボルが見えないように当該第3のシンボルを記録するようにしてもよい。   That is, as shown in FIG. 8D, in the predetermined area A3 of the object, the code is visible when viewed from the first direction R1, and the code is not visible when viewed from the second direction R2. A code is recorded, and a third symbol (for example, a third code) corresponding to another information (third information) recorded in the plurality of identification marks M1 to M3 and the information recording area B is It is recorded so that it can also be visually recognized from the direction. In the information storage area B, the third symbol is recorded so that the third symbol can be seen when viewed from the first direction R1 and the third symbol cannot be seen when viewed from the second direction R2. You may make it do.

3.2.4 シンボルを記録する手法
次に、見る角度に応じて、受光する光の成分(反射光)が変化する記録方法について簡単に説明する。
3.2.4 Method of recording symbols Next, a recording method in which the component of light received (reflected light) changes according to the viewing angle will be briefly described.

(1)レンチキュラー
本実施形態では、レンチキュラーを用いて、可視光が照射された場合に、見る角度に応じて、シンボルから受光する光の成分(シンボルからの反射光に含まれる成分)が変化するように、シンボルを対象物に記録する。つまり、本実施形態の対象物40所定領域に、レンチキュラーを施すことによって、見る方向に応じて色が変化するように形成してもよい。特に、本実施形態の対象物40は、特定の方向から対象物40を見た場合に、受光する光の成分に第1の成分が含まれるように、第1のシンボルを記録する。
(1) Lenticular In this embodiment, when visible light is irradiated using a lenticular, the component of light received from the symbol (component included in the reflected light from the symbol) changes according to the viewing angle. Thus, the symbol is recorded on the object. That is, the object 40 of the present embodiment may be formed so that the color changes according to the viewing direction by applying lenticular to a predetermined region. In particular, the target object 40 of the present embodiment records the first symbol so that when the target object 40 is viewed from a specific direction, the first component is included in the received light component.

レンチキュラーとは、シート状のレンチキュラーレンズを用いて、見る角度によって絵柄が変化したり、立体感が得られたりする物(印刷物、裸眼式の立体視ディスプレイ)である。   The lenticular is an object (printed material, autostereoscopic display) that uses a sheet-like lenticular lens to change the picture depending on the viewing angle or to obtain a stereoscopic effect.

例えば、図9に示すように、レンチキュラーシート(レンチキュラーレンズ)は、表面に微細な細長い蒲鉾上の凸レンズが無数に並んだシートであり、このシートは透明なプラスチック製である。そして、レンチキュラーシートにシンボルを印刷した印刷物を貼り合わせ、或いは、レンチキュラーシートの裏面そのものに直接シンボルを印刷することにより、レンチキュラーを生成する。   For example, as shown in FIG. 9, a lenticular sheet (lenticular lens) is a sheet in which countless convex lenses on the surface are arranged on a surface, and this sheet is made of transparent plastic. Then, a lenticular sheet is generated by sticking a printed material on which a symbol is printed on the lenticular sheet, or by printing the symbol directly on the back surface of the lenticular sheet.

なお、印刷物を貼り合わせる場合は、2つのシンボルを細長く短冊状に切り、切り取られた各シンボルの短冊を交互にインターレース状に、2つのシンボルの短冊の組み合わせが、1つの凸レンズが載るように貼り合せる(印刷する)。また、3次元ディスプレイでは、ピクセルの列とレンチキュラーのレンズの並びを一致させ、一列おきに異なるシンボルを表示させる。   When pasting the printed materials, cut the two symbols into strips and paste them so that the strips of each symbol are interlaced alternately so that the combination of the strips of two symbols is placed on one convex lens. Combine (print). In the three-dimensional display, the pixel rows and the lenticular lenses are aligned to display different symbols every other row.

例えば、図9に示すように、シンボルEの色と、シンボルFの色が交互に並び、見る角度によって片方のシンボルを見ることができる。例えば、視点P2の場合は、シンボルEの色が見え、視点P3の場合には、シンボルFの色を見ることができる。   For example, as shown in FIG. 9, the color of the symbol E and the color of the symbol F are alternately arranged, and one of the symbols can be seen depending on the viewing angle. For example, in the case of the viewpoint P2, the color of the symbol E can be seen, and in the case of the viewpoint P3, the color of the symbol F can be seen.

本実施形態において、所定領域にレンチキュラーを用いる場合には、シンボルEとして、第1のコードを施し、シンボルFとして第1のコードが記録されていない無地や図柄、或いは、第2のコードを施す。そして、一方の視点位置(視線方向)から第1のコードが見えるようにレンチキュラーを施せばよい。   In the present embodiment, when a lenticular is used in a predetermined area, the first code is applied as the symbol E, and the plain code, the design, or the second code in which the first code is not recorded is applied as the symbol F. . Then, a lenticular may be applied so that the first cord can be seen from one viewpoint position (line-of-sight direction).

このようにすれば、視点P2から対象物40の所定領域を見た場合に、第1のシンボルから受光する光の成分に第1の成分が含まれるように、第1のシンボルを記録することができる。また、視点P3から対象物40の所定領域を見た場合に、無地や図柄、或いは、第2のシンボルから受光する光の成分に第2の成分が含まれるように、無地や図柄、或いは、第2のコードを記録することができる。   In this way, when the predetermined region of the object 40 is viewed from the viewpoint P2, the first symbol is recorded so that the first component is included in the light component received from the first symbol. Can do. Further, when the predetermined region of the object 40 is viewed from the viewpoint P3, the solid color, the design, or the solid component, the design, or the light component received from the second symbol includes the second component, or A second code can be recorded.

(2)カラーシフティング
本実施形態では、偏光インク(カラーシフトインク)または偏光シート(カラーシフティングシート)を用いて、可視光が照射された場合に、見る角度に応じて、シンボルから受光する光の成分(シンボルからの反射光に含まれる成分)が変化するように、シンボルを対象物に記録してもよい。つまり、本実施形態の対象物40所定領域に、カラーシフティングを施すことによって、見る方向に応じて色が変化するように形成してもよい。特に、本実施形態の対象物40は、特定の方向から対象物40を見た場合に、観察者が受光する光の成分に第1の成分が含まれるように、第1のシンボルを記録する。
(2) Color Shifting In this embodiment, when visible light is irradiated using a polarizing ink (color shift ink) or a polarizing sheet (color shifting sheet), light is received from the symbol according to the viewing angle. The symbol may be recorded on the object such that the light component (component included in the reflected light from the symbol) changes. That is, the color may be formed on the predetermined area of the object 40 according to the present embodiment so that the color changes according to the viewing direction. In particular, the object 40 of the present embodiment records the first symbol so that the first component is included in the light component received by the observer when the object 40 is viewed from a specific direction. .

例えば、本実施形態の対象物40の所定領域にカラーシフティング(カラーシフティングフィルムやカラーシフトインク)を施し、対象物40の所定領域が見る方向に応じて色が変化するように形成(印刷)する。   For example, color shifting (color shifting film or color shift ink) is applied to a predetermined area of the object 40 according to the present embodiment, and the predetermined area of the object 40 is formed (printed) so that the color changes according to the viewing direction. )

例えば、カラーシフティングは、薄い高分子膜を積層し、この多層構造によって光の干渉をコントロールするものである。例えば、図10(A)に示すように、視点P4の場合(正面からカラーシフティングを施した対象物を見た場合)は、白色光が目に入射され、図10(B)に示すように、視点P5の場合(カラーシフティングを施した対象物を斜めに見た場合)、白色光のうちシアン色光が目に入射される。   For example, in color shifting, thin polymer films are stacked and light interference is controlled by this multilayer structure. For example, as shown in FIG. 10A, in the case of the viewpoint P4 (when an object subjected to color shifting is viewed from the front), white light is incident on the eyes, as shown in FIG. 10B. In addition, in the case of the viewpoint P5 (when the object subjected to color shifting is viewed obliquely), cyan light out of white light is incident on the eye.

本実施形態において所定領域にカラーシフトインクを施す場合には、第1のコードをカラーシフトインクで印刷する。つまり、カラーシフトインクが施された第1のコードは、見る角度に応じて、第1のコードから受光する光の成分(第1のコードからの反射光)が、第1の成分から第2の成分に変化することになる。   In the present embodiment, when color shift ink is applied to a predetermined area, the first code is printed with color shift ink. That is, in the first code to which the color shift ink is applied, the light component received from the first code (reflected light from the first code) is changed from the first component to the second according to the viewing angle. It will change to the component of.

例えば、第1のコードをカラーシフトインクで印刷すると、第1のコードが特定の方向(例えば視点P5から)見た場合にシアン色光を反射する。本実施形態では、例えば、視点P5から対象物40の所定領域を見た場合に、第1のコードから受光する光の成分(第1のコードからの反射光)に第1の成分(例えば、シアン色の成分)が含まれるように、第1のシンボルを記録する。   For example, when the first code is printed with color shift ink, cyan light is reflected when the first code is viewed in a specific direction (for example, from the viewpoint P5). In the present embodiment, for example, when a predetermined region of the object 40 is viewed from the viewpoint P5, the first component (for example, the reflected light from the first code) of the light received from the first code (for example, The first symbol is recorded so as to include a cyan component.

(3)エンボス加工
本実施形態では、対象物として潜像を有する印刷物を用いる場合には、エンボス加工によって、可視光が照射された場合に、シンボルから受光する光の成分(シンボルからの反射光に含まれる成分)が変化するように、シンボルを対象物に記録してもよい。つまり、本実施形態の対象物40の所定領域に、エンボス加工を施すことによって、見る方向に応じて色が変化するように形成してもよい。特に、本実施形態の対象物40は、特定の方向から対象物40を見た場合に、受光する光の成分に第1の成分が含まれるように、第1のシンボルを記録する。
(3) Embossing In this embodiment, when a printed matter having a latent image is used as an object, the component of light received from the symbol (reflected light from the symbol) when visible light is irradiated by embossing. The symbol may be recorded on the object so that the component contained in the object changes. That is, you may form so that a color may change according to the viewing direction by embossing the predetermined area | region of the target object 40 of this embodiment. In particular, the target object 40 of the present embodiment records the first symbol so that when the target object 40 is viewed from a specific direction, the first component is included in the received light component.

ここで、エンボス加工は、エンボス版で物に凹凸の段差をつけ、この段差を利用して、見る方向によって色が変化することを利用したものである。本実施形態において所定領域にエンボス加工を施す場合には、第1のコードのエンボス加工を行う。つまり、特定の方向から対象物40の所定領域を見た場合に、第1のシンボルから受光する光の成分(第1のコードからの反射光)に第1の成分が含まれるように、第1のシンボルを記録する。   Here, the embossing uses an embossed plate to give unevenness to the object, and uses this step to change the color depending on the viewing direction. In the present embodiment, when embossing is performed on a predetermined area, the first code is embossed. That is, the first component is included in the light component received from the first symbol (reflected light from the first code) when the predetermined region of the object 40 is viewed from a specific direction. Record one symbol.

なお、第1のコードが記録されていない無地の(図柄のない)エンボス加工、或いは、第2のコードが記録されるエンボス加工を行うようにしてもよい。   In addition, you may make it perform the embossing of the plain (it does not have a pattern) in which the 1st code | cord is not recorded, or the embossing in which the 2nd code | cord | chord is recorded.

(4)立体視映像表示画面
本実施形態では、対象物として立体視映像表示画面を用いる場合には、立体視映像表示画面を見る角度に応じて、第1のシンボルから受光する光の成分が変化するように、第1のシンボルに基づく画像を生成する。特に、本実施形態の対象物40は、特定の方向から対象物40を見た場合に、受光する光の成分に第1の成分が含まれるように、第1のシンボルを記録する。
(4) Stereoscopic video display screen In this embodiment, when a stereoscopic video display screen is used as an object, the component of light received from the first symbol depends on the angle at which the stereoscopic video display screen is viewed. An image based on the first symbol is generated to change. In particular, the target object 40 of the present embodiment records the first symbol so that when the target object 40 is viewed from a specific direction, the first component is included in the received light component.

本実施形態において立体視画像を生成する場合には、第1のコードが描画された画像と、第1のコードが記録されていない画像(例えば、無模様(無地)の画像)、或いは、第2のコードが描画された画像とを合成して、立体視画像を生成するようにすればよい。   In the present embodiment, when generating a stereoscopic image, an image in which the first code is drawn and an image in which the first code is not recorded (for example, a pattern (plain) image), or What is necessary is just to synthesize | combine with the image by which code | cord | chord 2 was drawn, and to produce | generate a stereoscopic vision image.

例えば、特定の方向から対象物40の所定領域を見た場合に、第1のコードから受光する光の第1の成分が含まれるように、第1のシンボルを表示する。   For example, when the predetermined region of the object 40 is viewed from a specific direction, the first symbol is displayed so that the first component of the light received from the first code is included.

また、別の方向から対象物40の所定領域を見た場合に、無地や図柄、或いは、第2のコードから受光する光の成分に含まれる第2の成分を含むように、無地や図柄、或いは、第2のコードを表示してもよい。   Further, when the predetermined region of the object 40 is viewed from another direction, the solid color or the design, or the solid color or the design so as to include the second component included in the light component received from the second code, Alternatively, the second code may be displayed.

なお立体視映像表示画面は、フラットパネルディスプレイ等であり、表示画面に、表示画面と略平行にレンズ板を配置したものである。レンズ板は、上述したレンチキュラーとしてもよい。また、レンチキュラーの他、裸眼立体視が可能な構成であればよい。   The stereoscopic video display screen is a flat panel display or the like, and has a lens plate arranged on the display screen substantially parallel to the display screen. The lens plate may be the lenticular described above. In addition to lenticular, any configuration capable of autostereoscopic viewing is acceptable.

3.2.5 シンボルの他の例
本実施形態の対象物に記録するシンボルは、コードに限らず、色、マーク、図柄、模様、帯状のグラデーションなどとすることができる。例えば、図11(A)に示すように、対象物40の所定領域A1に、見る方向に応じて異なる色を施してもよい。具体的には、図11(A)に示すように、対象物40の所定領域A1に、第1の方向(例えば対象物40のコード記録面に対する見る角度が第1の角度θ1である第1の方向R1)から見た場合に、観察者が受光する光の色成分(反射光の色成分)が赤色となるように、赤色を記録する。また、対象物40の所定領域A1に、第2の方向(例えば対象物40のコード記録面に対する見る角度が第2の角度θ2である第2の方向R2)から見た場合に、観察者が受光する光の色成分(反射光の色成分)が黒色となるように、黒色を記録する。なお、かかる場合は、所定領域A1に記録される赤色の色データを、対象物の真正を示す「所定情報」として予め定義してもよい。また、所定領域A1に記録される赤色の色データを、「第1の所定情報」として予め定義し、所定領域A1に記録される黒色の色データを、「第2の所定情報」として予め定義してもよい。
3.2.5 Other Examples of Symbols The symbols recorded on the object of the present embodiment are not limited to codes, but may be colors, marks, designs, patterns, belt-like gradations, and the like. For example, as shown to FIG. 11 (A), you may give a different color to predetermined area | region A1 of the target object 40 according to the viewing direction. Specifically, as shown in FIG. 11A, in a predetermined area A1 of the object 40, the first direction (for example, the angle of viewing the object 40 with respect to the code recording surface is the first angle θ1). When viewed from the direction R1), red is recorded so that the color component of light received by the observer (color component of reflected light) is red. In addition, when the observer sees the predetermined area A1 of the object 40 from a second direction (for example, the second direction R2 in which the viewing angle of the object 40 with respect to the code recording surface is the second angle θ2), Black is recorded so that the color component of the received light (the color component of the reflected light) is black. In such a case, the red color data recorded in the predetermined area A1 may be defined in advance as “predetermined information” indicating the authenticity of the object. Also, red color data recorded in the predetermined area A1 is defined in advance as “first predetermined information”, and black color data recorded in the predetermined area A1 is defined in advance as “second predetermined information”. May be.

また、本実施形態の対象物は、図11(B)に示すように、対象物40の所定領域A1に、見る方向に応じて異なるマーク(図柄、模様、絵)を施してもよい。具体的には、図11(B)に示すように、対象物40の所定領域A1に、第1の方向(例えば対象物40のコード記録面に対する見る角度が第1の角度θ1である第1の方向R1)から見た場合に、観察者が受光する光の色成分(反射光の色成分)が円形マークの色となるように、黒の円形マークを記録する。また、対象物40の所定領域A1に、第2の方向(例えば対象物40のコード記録面に対する見る角度が第2の角度θ2である第2の方向R2)から見た場合に、観察者が受光する光の色成分(反射光の色成分)が三角形マークの色となるように、三角形のマークを記録する。なお、かかる場合には、所定領域A1に記録される円形マークの形状データを、対象物の真正を示す「所定情報」として予め定義してもよい。また、所定領域A1に記録される円形マークの形状データを、「第1の所定情報」として予め定義し、所定領域A1に記録される三角形マークの形状データを、「第2の所定情報」として予め定義してもよい。   In addition, as shown in FIG. 11B, the object of the present embodiment may be provided with different marks (designs, patterns, pictures) in a predetermined area A1 of the object 40 depending on the viewing direction. Specifically, as shown in FIG. 11B, in a predetermined area A1 of the object 40, a first direction (for example, the angle of viewing the object 40 with respect to the code recording surface is the first angle θ1). When viewed from the direction R1), the black circular mark is recorded so that the color component of the light received by the observer (the color component of the reflected light) becomes the color of the circular mark. In addition, when the observer sees the predetermined area A1 of the object 40 from a second direction (for example, the second direction R2 in which the viewing angle of the object 40 with respect to the code recording surface is the second angle θ2), The triangular mark is recorded so that the color component of the received light (the color component of the reflected light) is the color of the triangular mark. In such a case, the shape data of the circular mark recorded in the predetermined area A1 may be defined in advance as “predetermined information” indicating the authenticity of the object. Further, the circular mark shape data recorded in the predetermined area A1 is defined in advance as “first predetermined information”, and the triangular mark shape data recorded in the predetermined area A1 is defined as “second predetermined information”. It may be defined in advance.

また、本実施形態の対象物は、可視光が照射された場合に、見る角度に応じて、第1のコードから受光する光(反射光)の第1の成分から、第2のコードから受光する光(反射光)の第2の成分に変化するように形成してもよい。例えば、図11(C)に示すように、対象物40の所定領域A1に、見る方向に応じて異なるコードを施してもよい。具体的には、図11(C)に示すように、対象物40の所定領域A1に、第1の方向(例えば対象物40のコード記録面に対する見る角度が第1の角度θ1である第1の方向R1)から見た場合に、観察者が受光する光の色成分(反射光の色成分)が第1のコードC1の色となるように、第1のコードC1を記録する。また、対象物40の所定領域A1に、第2の方向(例えば対象物40のコード記録面に対する見る角度が第2の角度θ2である第2の方向R2)から見た場合に、観察者が受光する光の色成分(反射光の色成分)が第2のコードC2の色となるように、第2のコードC2を記録する。このようにすれば、限られた領域A1において、複数の情報(例えば、第1、第2のコード)を記録することができる。なお、かかる場合には、所定領域A1に記録される第1のコードのコードデータに含まれる数値を、対象物の真正を示す「所定情報」として予め定義してもよい。また、所定領域A1に記録される第1のコードのコードデータに含まれる数値を、「第1の所定情報」として予め定義し、所定領域A1に記録される第2のコードのコードデータに含まれる数値を、「第2の所定情報」として予め定義してもよい。   Further, the object of the present embodiment receives light from the first code from the first component of light (reflected light) received from the first code according to the viewing angle when visible light is irradiated. You may form so that it may change to the 2nd component of the light (reflected light) to do. For example, as shown in FIG. 11C, different codes may be applied to the predetermined area A1 of the object 40 depending on the viewing direction. Specifically, as shown in FIG. 11C, in a predetermined area A1 of the object 40, the first direction (for example, the angle of the object 40 viewed with respect to the code recording surface is the first angle θ1). The first code C1 is recorded so that the color component of the light received by the observer (the color component of the reflected light) becomes the color of the first code C1 when viewed from the direction R1). In addition, when the observer sees the predetermined area A1 of the object 40 from a second direction (for example, the second direction R2 in which the viewing angle of the object 40 with respect to the code recording surface is the second angle θ2), The second code C2 is recorded so that the color component of the received light (the color component of the reflected light) becomes the color of the second code C2. In this way, a plurality of pieces of information (for example, first and second codes) can be recorded in the limited area A1. In such a case, a numerical value included in the code data of the first code recorded in the predetermined area A1 may be defined in advance as “predetermined information” indicating the authenticity of the object. Also, a numerical value included in the code data of the first code recorded in the predetermined area A1 is defined in advance as “first predetermined information” and included in the code data of the second code recorded in the predetermined area A1. The numerical value to be used may be defined in advance as “second predetermined information”.

なお、本実施形態の対象物40には、見る方向に応じて受光する光の成分(反射光の成分)が異なる領域を複数設けてもよい。かかる場合には、各領域をマークM1〜M3の位置関係に基づいて設定するようにしてもよい。   Note that the object 40 of the present embodiment may be provided with a plurality of regions having different light components (reflected light components) depending on the viewing direction. In such a case, each area may be set based on the positional relationship between the marks M1 to M3.

3.3 認識処理
本実施形態の読み取り装置10は、対象物を撮像し、撮像画像の認識処理を行う。例えば、見る角度に応じて観察者が受光する光の成分(反射光の成分)が変化する対象物40を撮像し、撮像された撮像画像の認識処理を行う。
3.3 Recognition Processing The reading device 10 according to the present embodiment images a target object and performs recognition processing of a captured image. For example, the object 40 whose light component (reflected light component) received by the observer changes according to the viewing angle is imaged, and recognition processing of the captured image is performed.

上述したように、図4に示すように、人間の目において、対象物40から受光する光の成分(反射光の成分)は、見る角度に応じて第1の成分から第2の成分に変化する。したがって、本実施形態の読み取り装置10は、このような観察者が受光する光の成分(反射光の成分)の変化を利用して、コードの認識処理を行う。   As described above, as shown in FIG. 4, in the human eye, the component of light received from the object 40 (the component of reflected light) changes from the first component to the second component according to the viewing angle. To do. Therefore, the reading apparatus 10 according to the present embodiment performs code recognition processing using such a change in the light component (reflected light component) received by the observer.

また、本実施形態の読み取り装置10は、例えば、図12に示すように、2つの撮像部31、32が各撮像位置P6、P7において、同一の被写体である対象物40を同じタイミングで撮像してもよい。また、読み取り装置10は、1つの撮像部で、対象物40を撮像してもよい。   In the reading apparatus 10 of the present embodiment, for example, as illustrated in FIG. 12, the two imaging units 31 and 32 capture the object 40 that is the same subject at the same timing at the imaging positions P6 and P7. May be. Moreover, the reader 10 may image the target object 40 with one imaging unit.

本実施形態の認識処理について詳細に説明すると、例えば、読み取り装置10は、撮像部31によって、コードの光の成分を少なくとも受光する第1の撮像位置P6から、当該コードとは認識できない光の成分を少なくとも受光する第2の撮像位置P7から対象物40を撮像する。そして、本実施形態の読み取り装置10は、第1の撮像位置P6から撮像された第1の撮像画像、及び、第2の撮像位置P7から撮像された第2の撮像画像の認識処理を行う。   The recognition process of the present embodiment will be described in detail. For example, the reading device 10 uses the imaging unit 31 to at least receive the light component of the code from the first imaging position P6 and cannot recognize the light component. The object 40 is imaged from the second imaging position P7 that at least receives. Then, the reading device 10 according to the present embodiment performs recognition processing of the first captured image captured from the first imaging position P6 and the second captured image captured from the second imaging position P7.

そして、読み取り装置10は、例えば、取得した第1、第2の撮像画像から、対象物の真正を示す所定情報を認識できるか否かを判定する。   Then, for example, the reading device 10 determines whether or not the predetermined information indicating the authenticity of the target object can be recognized from the acquired first and second captured images.

具体的には、読み取り装置10は、所定情報(第1の所定情報)を認識の可否を示すフラグFC1を1又は0に設定し、所定情報(第1の所定情報)を認識した場合にはFC1=1に設定し、所定情報(第1の所定情報)を認識しない(認識エラー)の場合にはFC1=0に設定する。具体的には、図5に示すように、本実施形態の読み取り装置10は、撮像位置P6から撮像部31によって撮像された撮像画像61において所定情報(第1の所定情報)を認識した場合には、FC1=1に設定する。同様に、撮像位置P7から撮像部32によって撮像された撮像画像62において所定情報(第1の所定情報)を認識しない場合には、FC1=0に設定する。   Specifically, when the reading device 10 sets the flag FC1 indicating whether or not to recognize the predetermined information (first predetermined information) to 1 or 0 and recognizes the predetermined information (first predetermined information), When FC1 = 1 is set and the predetermined information (first predetermined information) is not recognized (recognition error), FC1 = 0 is set. Specifically, as illustrated in FIG. 5, the reading device 10 according to the present embodiment recognizes predetermined information (first predetermined information) in the captured image 61 captured by the imaging unit 31 from the imaging position P6. Sets FC1 = 1. Similarly, when the predetermined information (first predetermined information) is not recognized in the captured image 62 captured by the imaging unit 32 from the imaging position P7, FC1 = 0 is set.

なお、読み取り装置10は、第2の所定情報を認識の可否を示すフラグFC2を1又は0に設定し、第2の所定情報を認識した場合にはFC2=1に設定し、第2の所定情報を認識しない(認識エラー)の場合にはFC2=0に設定するようにしてもよい。   The reading device 10 sets a flag FC2 indicating whether or not the second predetermined information can be recognized to 1 or 0. When the second predetermined information is recognized, the reading device 10 sets FC2 = 1 to set the second predetermined information. When information is not recognized (recognition error), FC2 = 0 may be set.

読み取り装置10において、撮像画像から第1の所定情報を認識できるか否かを判定する処理は次のように行う。例えば、一定のしきい値を用いて撮像画像において反射光(受光する光)の輝度が高い部分(白い部分)を「0」、輝度が低い部分(黒い部分)を「1」に変換する。そして、変換されたデータが、第1の所定情報に適合する場合(例えば、適合率が所定適合率以上の場合)に認識可と判定する。一方、第1の所定情報に適合しない場合(例えば、適合率が所定適合率以下である場合)に、認識不可と判定する。また、認識可否の判定処理は、予め定義された第1の所定情報の画像パターンと撮像画像とのパターンマッチングを行い、その適合度に基づいて判定してもよい。なお、撮像画像から第2の所定情報を認識できるか否かを判定する処理も、撮像画像から第1の所定情報を認識できるか否かを判定する処理と同様に処理を行う。   In the reading device 10, the process of determining whether or not the first predetermined information can be recognized from the captured image is performed as follows. For example, using a certain threshold value, a portion (white portion) where the luminance of reflected light (light received) in the captured image is high is converted to “0”, and a portion where the luminance is low (black portion) is converted to “1”. Then, when the converted data matches the first predetermined information (for example, when the matching rate is equal to or higher than the predetermined matching rate), it is determined that recognition is possible. On the other hand, when it does not match the first predetermined information (for example, when the matching rate is equal to or lower than the matching rate), it is determined that recognition is impossible. Further, the recognition possibility determination processing may be performed on the basis of the matching degree by performing pattern matching between the image pattern of the first predetermined information defined in advance and the captured image. The process for determining whether or not the second predetermined information can be recognized from the captured image is performed in the same manner as the process for determining whether or not the first predetermined information can be recognized from the captured image.

また、読み取り装置10において、認識したコードデータ(コードをデコードしたデコードデータ)に真正を示す数値が存在するか否かに基づいて、撮像画像から第1の所定情報を認識できるか否かを判定する処理を行ってもよい。例えば、コードデータに真正を示す数値が存在する場合に、認識可と判定し、コードデータに真正を示す数値が存在しない場合に、認識不可と判定してもよい。   Further, in the reading device 10, it is determined whether or not the first predetermined information can be recognized from the captured image based on whether or not the recognized code data (decoded data obtained by decoding the code) includes a numerical value indicating authenticity. You may perform the process to do. For example, it may be determined that recognition is possible when a numerical value indicating authenticity exists in code data, and it may be determined that recognition is not possible when a numerical value indicating authenticity does not exist in code data.

また、読み取り装置10において、撮像画像から真正を示す色の画素数が所定数以上存在するか否かに基づいて、撮像画像から第1の所定情報を認識できるか否かを判定する処理を行ってもよい。例えば、撮像画像から真正を示す色の画素数が所定数以上存在する場合に、認識可と判定し、撮像画像から真正を示す色の画素数が所定数以上存在しない場合に、認識不可と判定してもよい。   Further, the reading device 10 performs a process of determining whether or not the first predetermined information can be recognized from the captured image based on whether or not there are a predetermined number or more of pixels having a true color from the captured image. May be. For example, it is determined that recognition is possible when there are a predetermined number or more of pixels having a true color from the captured image, and it is determined that recognition is not possible when there is no predetermined number or more of the pixels having a true color from the captured image. May be.

また、認識可否の判定処理は、予め定義された第1の所定情報の画像パターンと撮像画像とのパターンマッチングを行い、その適合度に基づいて判定してもよい。   Further, the recognition possibility determination processing may be performed on the basis of the matching degree by performing pattern matching between the image pattern of the first predetermined information defined in advance and the captured image.

なお、撮像画像から第2の所定情報を認識できるか否かを判定する処理も、撮像画像から第1の所定情報を認識できるか否かを判定する処理と同様に処理を行う。   The process for determining whether or not the second predetermined information can be recognized from the captured image is performed in the same manner as the process for determining whether or not the first predetermined information can be recognized from the captured image.

また、本実施形態では、図8(C)に示すように、対象物40にマークM1〜M3が施されている場合には、図13(C)に示すように、撮像画像上におけるマークM1〜M3の位置関係から認識処理対象のコード範囲CR1を特定してもよい。なお、コード範囲は、撮像画像上の範囲であり、対象物40の所定領域に対応する範囲である。このようにすれば、撮像画像上の認識すべき範囲が限られるので処理負荷を軽減することができる。   Further, in the present embodiment, as shown in FIG. 8C, when the marks 40 are provided on the object 40, the mark M1 on the captured image is shown in FIG. The code range CR1 to be recognized may be specified from the positional relationship of .about.M3. The code range is a range on the captured image and is a range corresponding to a predetermined area of the object 40. In this way, since the range to be recognized on the captured image is limited, the processing load can be reduced.

例えば、図13(A)に示すように、撮像画像63を取得した場合には、図13(B)に示すように、マークM1〜M3それぞれの位置Q1〜Q3を認識する。そして、図13(C)に示すように、撮像画像63の位置Q1〜Q3の位置関係から、コード範囲CR1を特定する処理を行う。そして、本実施形態では、特定されたコード範囲CR1内で認識処理を行う。例えば、所定情報(第1の所定情報)を認識できる場合にはFC1=1を設定し、所定情報(第1の所定情報)を認識できない場合はFC1=0を設定する。   For example, as illustrated in FIG. 13A, when the captured image 63 is acquired, the positions Q1 to Q3 of the marks M1 to M3 are recognized as illustrated in FIG. 13B. Then, as shown in FIG. 13C, the code range CR1 is specified from the positional relationship between the positions Q1 to Q3 of the captured image 63. In this embodiment, recognition processing is performed within the specified code range CR1. For example, FC1 = 1 is set when the predetermined information (first predetermined information) can be recognized, and FC1 = 0 is set when the predetermined information (first predetermined information) cannot be recognized.

また、本実施形態では、図8(D)に示すように対象物40にマークM1〜M3と、他のコードが記載されている場合には、マークM1〜M3の位置関係から認識すべき複数のコード範囲CR11、CR12を特定する処理を行う。   Further, in the present embodiment, as shown in FIG. 8D, when marks M1 to M3 and other codes are described on the object 40, a plurality of marks to be recognized from the positional relationship between the marks M1 to M3. The code ranges CR11 and CR12 are specified.

例えば、撮像部31において撮像した撮像画像を取得する。そして、例えば、図14(A)に示すように、撮像画像65を取得した場合には、図14(B)に示すように、マークM1〜M3それぞれの位置Q11〜Q13を認識する。そして、図14(C)に示すように、撮像画像65の位置Q11〜Q13の位置関係から、コード範囲CR11、R12を特定する処理を行う。そして、本実施形態では、特定されたコード範囲CR11、R12内で、コードを認識する処理を行う。   For example, a captured image captured by the imaging unit 31 is acquired. For example, as illustrated in FIG. 14A, when the captured image 65 is acquired, the positions Q11 to Q13 of the marks M1 to M3 are recognized as illustrated in FIG. 14B. Then, as shown in FIG. 14C, processing for specifying the code ranges CR11 and R12 from the positional relationship between the positions Q11 to Q13 of the captured image 65 is performed. In this embodiment, a process for recognizing a code is performed within the specified code ranges CR11 and R12.

例えば、コード範囲CR11で、所定情報(第1の所定情報)を認識する場合にはFC1=1を設定し、所定情報(第1の所定情報)を認識できない場合はFC1=0を設定する。また、コード範囲CR12において、コードを認識できた場合には、そのコードから得られる情報をゲーム処理に用いる。   For example, FC1 = 1 is set when the predetermined information (first predetermined information) is recognized in the code range CR11, and FC1 = 0 is set when the predetermined information (first predetermined information) cannot be recognized. If the code can be recognized in the code range CR12, the information obtained from the code is used for the game process.

なお、本実施形態の認識処理は、複数の撮像部が異なるタイミングで同一対象物40を撮像してもよい。かかる場合は、対象物40は静止していることが好ましい。また、本実施形態では、3つ以上の撮像部を備えていてもよく、3つ以上の撮像画像から情報を認識してもよい。   In the recognition process of the present embodiment, the same object 40 may be imaged at different timings by a plurality of imaging units. In such a case, the object 40 is preferably stationary. In the present embodiment, three or more imaging units may be provided, and information may be recognized from three or more captured images.

また、本実施形態では、撮像画像のコード、識別マークを認識する処理を行っているが、コードや識別マークだけでなく、図柄、絵、文字、色などの識別可能なシンボルを認識する処理を行ってもよい。   In this embodiment, the process of recognizing the code and the identification mark of the captured image is performed, but the process of recognizing not only the code and the identification mark but also an identifiable symbol such as a pattern, a picture, a character, and a color You may go.

3.4 真贋判定処理
本実施形態では、所定情報の認識結果に基づいて、対象物40の真贋判定処理を行う。
3.4 Authentication Determination Processing In the present embodiment, authentication determination processing of the object 40 is performed based on the recognition result of the predetermined information.

3.4.1 真贋判定処理例1
本実施形態では、撮像部によって撮像された第1の撮像画像と第2の撮像画像のうち、一方の撮像画像から所定情報(第1の所定情報)を認識し、他方の撮像画像から所定情報(第1の所定情報)を認識しない場合に、対象物を真(本物)と判定する処理を行う。そして、第1の撮像画像と第2の撮像画像のうち、両方の撮像画像から所定情報を認識する場合、又は、両方の撮像画像から所定情報を認識しない場合には対象物40は偽(偽物)であると判定する。
3.4.1 Authenticity determination processing example 1
In the present embodiment, the predetermined information (first predetermined information) is recognized from one of the first captured image and the second captured image captured by the imaging unit, and the predetermined information is determined from the other captured image. When (first predetermined information) is not recognized, a process of determining the object as true (genuine) is performed. When the predetermined information is recognized from both of the first captured image and the second captured image, or when the predetermined information is not recognized from both of the captured images, the object 40 is false (fake). ).

例えば、図5に示すように、本実施形態の読み取り装置10は、撮像部31から撮像された撮像画像61の所定情報(第1の所定情報)の認識可否を示すフラグFC1が1、撮像部32から撮像された撮像画像62のフラグFC1が0の場合は、真と判定する。なお、撮像画像61のフラグFC1が0であって撮像画像62のフラグFC1が1の場合も、真と判定する。   For example, as illustrated in FIG. 5, the reading device 10 according to the present embodiment has a flag FC1 that indicates whether or not the predetermined information (first predetermined information) of the captured image 61 captured from the imaging unit 31 is recognized, and the imaging unit When the flag FC1 of the captured image 62 captured from 32 is 0, it is determined to be true. Note that it is also determined to be true when the flag FC1 of the captured image 61 is 0 and the flag FC1 of the captured image 62 is 1.

例えば、図7に示すように、偽造品50である場合には、読み取り装置10は、撮像部31から撮像された撮像画像71のフラグFC1が1、撮像部32から撮像された撮像画像72のフラグFC1が1で同じ値であるので、対象物50が偽物であると判定する。なお、2つの撮像画像のフラグFC1が共に0の場合も対象物50が偽物であると判定する。このように、本実施形態の読み取り装置10によれば、簡易に本物、偽物の区別を行うことができる。   For example, as illustrated in FIG. 7, in the case of the counterfeit product 50, the reading device 10 sets the flag FC <b> 1 of the captured image 71 captured from the imaging unit 31 and the captured image 72 captured from the imaging unit 32. Since the flag FC1 is 1 and the same value, it is determined that the object 50 is a fake. Note that the object 50 is also determined to be fake even when the flags FC1 of the two captured images are both 0. As described above, according to the reading device 10 of the present embodiment, it is possible to easily distinguish between a real product and a fake product.

3.4.2 真贋判定処理例2
また、本実施形態では、撮像部によって撮像された第1の撮像画像と第2の撮像画像のうち、一方の撮像画像から第1の所定情報を認識し、他方の撮像画像から第2の所定情報を認識した場合に、対象物を真(本物)と判定する処理を行うようにしてもよい。このようにすれば、第1の所定情報の認識、第2の所定情報の認識という2段階の認識処理があるので、真贋判定をより適確に行うことができる。例えば、本実施形態の読み取り装置10は、撮像部31から撮像された撮像画像61のフラグFC1(第1の所定情報を認識可否を示すフラグFC1)が1であって、かつ、撮像部32から撮像された撮像画像62フラグFC2(第2の所定情報の認識可否を示すフラグFC2)が1の場合は、真と判定してもよい。或いは、撮像画像61のフラグFC2が1であって、かつ、撮像画像62のFC1が1の場合は、真と判定してもよい。
3.4.2 Authenticity determination processing example 2
Moreover, in this embodiment, 1st predetermined information is recognized from one captured image among the 1st captured image and 2nd captured image imaged by the imaging part, and it is 2nd predetermined from the other captured image. When the information is recognized, a process of determining the object as true (genuine) may be performed. In this way, since there are two stages of recognition processing, that is, recognition of the first predetermined information and recognition of the second predetermined information, the authenticity determination can be performed more appropriately. For example, in the reading device 10 of the present embodiment, the flag FC1 (flag FC1 indicating whether or not the first predetermined information can be recognized) of the captured image 61 captured from the imaging unit 31 is 1, and the imaging unit 32 When the captured image 62 flag FC2 (flag FC2 indicating whether or not the second predetermined information can be recognized) is 1, it may be determined to be true. Alternatively, when the flag FC2 of the captured image 61 is 1 and FC1 of the captured image 62 is 1, it may be determined to be true.

3.4.3 真贋判定処理例3
さらに、本実施形態では、図15に示すように、取得した各撮像画像から認識した情報F1、F2の組み合わせが、予め定義された組み合わせパターンと一致している場合は真と判定し、そうでない場合は偽と判定してもよい。各撮像画像から認識した情報F1、F2とは、撮像画像から認識した認識結果情報であり、例えば、コードデータ、当該コードデータを解析したデータ(コードデータに含まれる情報)、色情報、画像情報等である。また、各撮像画像から認識した情報F1、F2は、認識される所定情報(第1の所定情報、第2の所定情報)としてもよい。
3.4.3 Authentication determination example 3
Furthermore, in this embodiment, as shown in FIG. 15, when the combination of information F1 and F2 recognized from each acquired captured image matches a predefined combination pattern, it is determined to be true. In this case, it may be determined as false. The information F1 and F2 recognized from each captured image is recognition result information recognized from the captured image, for example, code data, data obtained by analyzing the code data (information included in the code data), color information, and image information. Etc. Further, the information F1 and F2 recognized from each captured image may be recognized predetermined information (first predetermined information and second predetermined information).

例えば、図15に示すように、各撮像画像の認識した情報F1、F2の組み合わせが(DA,D1)又は(D1,DA)である場合には、ID=1のパターンに対応するので、真と判定する。一方、各撮像画像の情報F1、F2の組み合わせが(DA,DA)等のように同じ場合や、或いは、図15に示すように予め決めた定義パターンに存在しない場合には、偽と判定する。このようにすれば、より真贋判定を適確に行うことができる。   For example, as shown in FIG. 15, when the combination of the recognized information F1 and F2 of each captured image is (DA, D1) or (D1, DA), it corresponds to the pattern of ID = 1. Is determined. On the other hand, when the combination of the information F1 and F2 of each captured image is the same as (DA, DA) or the like, or when the combination does not exist in the predetermined definition pattern as shown in FIG. . In this way, authenticity determination can be performed more accurately.

3.4.4 共通性判定処理
また、本実施形態では、撮像部によって撮像された各撮像画像において、共通のマークM1〜M3の認識結果に基づき各撮像画像の共通性(同一性)を判定し、共通性を有すると判定した場合に、真贋判定を行うようにしてもよい。つまり、共通性を有しない場合には偽物と判定する。このようにすれば、例えば、2つの撮像画像の被写体である対象物40が異なる場合や、ゲームで用いる対象物40とは全く別の物を被写体としている場合の撮像等を排除することができ、不正な撮像を防止することができる。
3.4.4 Commonness Determination Processing In the present embodiment, the commonality (identity) of each captured image is determined based on the recognition result of the common marks M1 to M3 in each captured image captured by the imaging unit. However, if it is determined that there is commonality, authenticity determination may be performed. That is, when there is no commonality, it is determined to be a fake. In this way, for example, it is possible to eliminate imaging or the like when the object 40 that is the subject of the two captured images is different, or when the object 40 is completely different from the object 40 used in the game. Unauthorized imaging can be prevented.

例えば、本実施形態では、第1の撮像画像と前記第2の撮像画像とにおいて識別マークM1〜M3を検出した場合に、共通性を有すると判定する。本実施形態の対象物40は、いずれの方向からも視認可能な複数の識別マークそれぞれが、各所定位置に記録されているので、第1の撮像画像上の各識別マークの位置関係と、第2の撮像画像上の各識別マークの位置関係とを比較し、比較結果が所定の位置関係条件を満たす場合に、共通性を有すると判定してもよい。   For example, in this embodiment, when the identification marks M1 to M3 are detected in the first captured image and the second captured image, it is determined that there is commonality. In the target object 40 of the present embodiment, each of a plurality of identification marks that can be viewed from any direction is recorded at each predetermined position, so that the positional relationship between the identification marks on the first captured image and the first The positional relationship between the identification marks on the two captured images may be compared, and if the comparison result satisfies a predetermined positional relationship condition, it may be determined that there is commonality.

また、本実施形態の読み取り装置10は、撮像部31の撮像位置P6から撮像部32の撮像位置P7までの距離や、撮像部31、32の撮像方向が予め決められている。したがって、撮像部31の撮像位置P6から撮像部32の撮像位置P7までの距離、及び、識別マークM1〜M3の撮像画像上の位置座標Q1〜Q3と、に基づき、撮像位置P6に対する対象物40の距離N1及び撮像位置P7に対する対象物40の距離N2を求めることができる。例えば、本実施形態では、距離N1、N2を求め、距離N1、距離N2の差分値が所定値以下である場合(所定の位置関係条件を満たす場合)は、同一性があると判定するようにしてもよい。   In the reading device 10 of the present embodiment, the distance from the imaging position P6 of the imaging unit 31 to the imaging position P7 of the imaging unit 32 and the imaging direction of the imaging units 31 and 32 are determined in advance. Therefore, based on the distance from the imaging position P6 of the imaging unit 31 to the imaging position P7 of the imaging unit 32 and the position coordinates Q1 to Q3 on the captured image of the identification marks M1 to M3, the object 40 with respect to the imaging position P6. And the distance N2 of the object 40 with respect to the imaging position P7. For example, in the present embodiment, the distances N1 and N2 are obtained, and when the difference value between the distances N1 and N2 is equal to or smaller than a predetermined value (when a predetermined positional relationship is satisfied), it is determined that there is identity. May be.

本実施形態の読み取り装置10は、撮像部31の撮像位置P6から撮像部32の撮像位置P7までの距離だけでなく、撮像部31、32の撮像方向が予め決められている。したがって、撮像部31の撮像位置P6から撮像部32の撮像位置P7までの距離、及び、識別マークM1〜M3の撮像画像上の位置座標Q1〜Q3と、に基づき、撮像位置P6に対する対象物40の向き(姿勢)U1及び撮像位置P7に対する対象物40の向き(姿勢)U2を求めることができる。例えば、本実施形態では、向きU1、U2を求め、向きU1、U2の差分値が第2の所定値以下である場合(所定の向き関係条件を満たす場合)は、同一性があると判定するようにしてもよい。   In the reading apparatus 10 of the present embodiment, not only the distance from the imaging position P6 of the imaging unit 31 to the imaging position P7 of the imaging unit 32 but also the imaging directions of the imaging units 31 and 32 are determined in advance. Therefore, based on the distance from the imaging position P6 of the imaging unit 31 to the imaging position P7 of the imaging unit 32 and the position coordinates Q1 to Q3 on the captured image of the identification marks M1 to M3, the object 40 with respect to the imaging position P6. Direction (posture) U1 and the direction (posture) U2 of the object 40 with respect to the imaging position P7 can be obtained. For example, in this embodiment, the directions U1 and U2 are obtained, and when the difference value between the directions U1 and U2 is equal to or smaller than a second predetermined value (when a predetermined direction relation condition is satisfied), it is determined that there is identity. You may do it.

3.5 決定処理
また、本実施形態では、真贋判定によって真と判定された場合に、少なくとも1つの撮像画像から認識される情報(撮像画像から認識した認識結果情報、例えば、コードデータ、当該コードデータを解析したデータ(コードデータに含まれる情報)、認識される所定情報(第1の所定情報、第2の所定情報)、色情報、画像情報等)に基づいて、ゲーム情報を決定するようにしてもよい。
3.5 Determination Processing Further, in the present embodiment, information that is recognized from at least one captured image (recognition result information recognized from the captured image, for example, code data, the code, when determined to be true by authenticity determination) Game information is determined based on data (information included in the code data) obtained by analyzing the data, recognized predetermined information (first predetermined information, second predetermined information), color information, image information, etc.) It may be.

例えば、本実施形態では、撮像画像から認識される情報に基づいて、プレーヤの操作対象となるプレーヤキャラクタを決定する処理を行うことができる。   For example, in the present embodiment, it is possible to perform processing for determining a player character to be operated by the player based on information recognized from the captured image.

例えば、第1の撮像画像の認識処理、及び、第2の撮像画像の認識処理の少なくとも一方で情報Fを得た場合、図16に示すように、撮像画像から認識される情報(例えば、情報F)が「DA」である場合には、「DA」に対応するキャラクタは「人間」であるので、予め記憶部に記憶されている「人間」のキャラクタを、プレーヤキャラクタとして決定する処理を行う。   For example, when the information F is obtained in at least one of the recognition process of the first captured image and the recognition process of the second captured image, as shown in FIG. When F) is “DA”, since the character corresponding to “DA” is “human”, a process of determining the “human” character stored in the storage unit in advance as the player character is performed. .

また、例えば、図11(C)に示すように、第1のコードC1と、第2のコードC2とが記録された対象物を読み取る場合は、第1、第2の撮像画像でコードC1、C2に応じた2つの情報を認識する場合がある。かかる場合は、2つの情報に基づいてキャラクタを決定してもよい。例えば、図15に示すように、第1の撮像画像F1により認識した第1の情報がDAであり、第2の撮像画像により認識した第2の情報F2がD1である場合には、複数の人間のキャラクタのうち「人間1」のキャラクタをプレーヤキャラクタとして決定する。このように、複数の情報があれば、バラエティーに富んだキャラクタを用意することができる。   In addition, for example, as shown in FIG. 11C, when reading an object on which the first code C1 and the second code C2 are recorded, the code C1, There are cases where two pieces of information corresponding to C2 are recognized. In such a case, the character may be determined based on two pieces of information. For example, as shown in FIG. 15, when the first information recognized by the first captured image F1 is DA and the second information F2 recognized by the second captured image is D1, Among the human characters, the character “human 1” is determined as the player character. Thus, if there is a plurality of information, a variety of characters can be prepared.

3.6 真贋判定処理の流れ
次に、真贋判定の処理の流れについて、図17を用いて説明する。まず、対象物を撮像した複数の撮像画像を取得する。例えば、複数の異なる撮像位置から対象物を撮像した撮像画像を取得する(ステップS1)。
3.6 Flow of Authentication Determination Processing Next, the flow of authentication determination processing will be described with reference to FIG. First, a plurality of captured images obtained by capturing an object are acquired. For example, captured images obtained by capturing an object from a plurality of different imaging positions are acquired (step S1).

次に、各撮像画像において共通性を有するか否かを判定する(ステップS2)。そして、各撮像画像において共通性を有する場合(ステップS2のY)、ステップS3に進む。一方、各撮像画像において共通性がないと判定された場合(ステップS2のN)、偽の判定(ステップS5)を行う。   Next, it is determined whether each captured image has commonality (step S2). If the captured images have commonality (Y in step S2), the process proceeds to step S3. On the other hand, if it is determined that there is no commonality among the captured images (N in step S2), a false determination (step S5) is performed.

次に、各撮像画像のコード範囲に差異があるか否かを判定する(ステップS3)。例えば、撮像部31で撮像した撮像画像、撮像部32で撮像した撮像画像のうち、一方の撮像画像から所定情報を認識可、他方の撮像画像から所定情報を認識不可の組み合わせであるか否かを判定する。   Next, it is determined whether or not there is a difference in the code range of each captured image (step S3). For example, of the captured image captured by the imaging unit 31 and the captured image captured by the imaging unit 32, whether or not the combination is such that the predetermined information can be recognized from one captured image and the predetermined information cannot be recognized from the other captured image Determine.

そして、各撮像画像のコード範囲に差異がある場合(ステップS3のY)、例えば、一方の撮像画像から所定情報を認識可、他方の撮像画像から所定情報を認識不可の組み合わせである場合には、真と判定する(ステップS4)。   When there is a difference in the code range of each captured image (Y in step S3), for example, when the predetermined information can be recognized from one captured image and the predetermined information cannot be recognized from the other captured image. And true (step S4).

一方、各撮像画像のコード範囲に差異がない場合(ステップS3のN)、例えば、両方の撮像画像から所定情報を認識可、或いは、両方の撮像画像から所定情報を認識不可である場合には、偽と判定する(ステップS5)。以上で処理が終了する。   On the other hand, when there is no difference in the code range of each captured image (N in step S3), for example, when predetermined information can be recognized from both captured images, or when predetermined information cannot be recognized from both captured images. , It is determined to be false (step S5). The process ends here.

3.7 その他
3.7.1 撮像部の数
本実施形態では、複数の撮像部31、32によって、2つの撮像画像を取得しているが、撮像部は少なくとも1つでもよい。例えば、図18(A)に示すように、1つの撮像部30が撮像位置P8から対象物40を撮像する。そして、図18(B)に示すように、撮像部30を移動させて、P8とは異なる位置P9を撮像部30の新たな撮像位置として設定し、位置P9から対象物40を撮像する。なお、対象物40は、固定に設定してもよいし、可変に設定してもよい。つまり、本実施形態では、撮像位置P8で撮像した撮像画像と、撮像位置P9で撮像した撮像画像の2つの撮像画像を取得するようにしてもよい。
3.7 Others 3.7.1 Number of imaging units In the present embodiment, two captured images are acquired by the plurality of imaging units 31 and 32, but at least one imaging unit may be used. For example, as illustrated in FIG. 18A, one imaging unit 30 images the object 40 from the imaging position P8. Then, as shown in FIG. 18B, the imaging unit 30 is moved, a position P9 different from P8 is set as a new imaging position of the imaging unit 30, and the object 40 is imaged from the position P9. Note that the object 40 may be set to be fixed or may be set to be variable. That is, in the present embodiment, two captured images, that is, a captured image captured at the imaging position P8 and a captured image captured at the imaging position P9 may be acquired.

3.7.2 対象物の設定
本実施形態では、対象物40の位置を可変に設定してもよい。例えば、図19(A)に示すように、対象物40の代表点(中心点)が位置P40に位置するように設定し、撮像部30が位置P40に位置する対象物40を撮像する。そして、図19(B)に示すように、対象物40(対象物40の代表点)を位置P40から位置P41に移動させる。そして、撮像部30がP41に位置する対象物40を撮像する。なお、撮像部30は、固定に設定してもよいし、可変に設定してもよい。つまり、本実施形態では、対象物40を位置P40に配置した際の撮像画像と、対象物40を位置P41に配置した際の撮像画像の2つの撮像画像を取得するようにしてもよい。
3.7.2 Setting of Object In this embodiment, the position of the object 40 may be set variably. For example, as shown in FIG. 19A, the representative point (center point) of the object 40 is set to be located at the position P40, and the imaging unit 30 images the object 40 located at the position P40. Then, as shown in FIG. 19B, the object 40 (representative point of the object 40) is moved from the position P40 to the position P41. And the imaging part 30 images the target object 40 located in P41. Note that the imaging unit 30 may be set to be fixed or variable. That is, in the present embodiment, two captured images, that is, a captured image when the object 40 is disposed at the position P40 and a captured image when the object 40 is disposed at the position P41 may be acquired.

3.7.3 自然光の遮蔽
本実施形態では、対象物40に照射する自然光を光(可視光)の一例としてもよいが、自然光を遮蔽し、自然光とは別の光源(可視光の光源)を対象物40に照射してもよい。
3.7.3 Shielding of natural light In this embodiment, natural light applied to the object 40 may be an example of light (visible light), but the natural light is shielded and a light source different from natural light (visible light source). The object 40 may be irradiated.

例えば、図20に示すように、自然光L1からの対象物40への照射を遮蔽物70によって遮蔽する。なお、撮像部30は、対象物40を撮像できるように、遮蔽物70の内側(対象物が存在する側)に配置設定する。   For example, as shown in FIG. 20, the irradiation of the object 40 from the natural light L <b> 1 is shielded by the shielding object 70. In addition, the imaging unit 30 is arranged and set inside the shielding object 70 (the side where the object exists) so that the object 40 can be imaged.

そして、遮蔽物70で囲まれる自然光が遮られた範囲AR内の光源位置LP2に、光源L2を設定し、光源L2からの光を対象物40に照射する。このようにすれば、環境を問わず、確実に光源L2からの光を対象物40に照射することができる。なお、自然光を遮蔽する場合、自然光全てを遮蔽する場合でもよいし、自然光の一部の遮蔽するようにしてもよい。   Then, the light source L2 is set at the light source position LP2 within the range AR where the natural light surrounded by the shield 70 is blocked, and the object 40 is irradiated with the light from the light source L2. In this way, the object 40 can be reliably irradiated with light from the light source L2 regardless of the environment. When natural light is shielded, all natural light may be shielded or a part of natural light may be shielded.

4.変形例
4.1 概要
上述した例では、本実施形態では、撮像部30(例えば、撮像部31、32)によって、対象物(例えば、カード)を撮像し、撮像された2つの撮像画像それぞれから対象物の真正を示す所定情報を認識することができるか否かを判断したが、読み取り装置10が備える光源(発光部)を可変に設定して、複数の撮像画像を取得するようにしてもよい。そして、取得された複数の撮像画像のうち一方の撮像画像において所定情報を認識でき、他方の撮像画像において所定情報を認識できない場合に、真の対象物であると判定する処理を行うようにしてもよい。
4). Modification 4.1 Overview In the above-described example, in the present embodiment, the imaging unit 30 (for example, the imaging units 31 and 32) captures an object (for example, a card), and each of the captured two captured images. Although it has been determined whether or not the predetermined information indicating the authenticity of the object can be recognized, a plurality of captured images may be acquired by variably setting the light source (light emitting unit) included in the reading device 10. Good. Then, when predetermined information can be recognized in one captured image among the plurality of acquired captured images and predetermined information cannot be recognized in the other captured image, a process of determining that the target is a true object is performed. Also good.

例えば、図21(A)(B)に示すように、真上から特殊インクが施されたコードが記録されたカード(対象物40の一例)を見た場合について説明する。例えば、図21(A)に示すように、光源位置LP3から照射方向LR1でカード(対象物)40を照射すると、コードを見ることができる。一方、図21(B)に示すように、光源位置LP4から照射方向LR2でカード(対象物)40を照射すると、コードを見ることができない。   For example, as shown in FIGS. 21A and 21B, a case will be described in which a card (an example of the object 40) on which a code with special ink is recorded is viewed from directly above. For example, as shown in FIG. 21A, when the card (object) 40 is irradiated from the light source position LP3 in the irradiation direction LR1, the code can be viewed. On the other hand, as shown in FIG. 21B, when the card (object) 40 is irradiated from the light source position LP4 in the irradiation direction LR2, the code cannot be seen.

つまり、本実施形態の変形例では、光源を多様に設定することによって、異なる光源の設定で撮像された2つの撮像画像の認識処理を行うことによって、真贋判定(真偽判定)を行っている。   That is, in the modification of the present embodiment, authenticity determination (authentication determination) is performed by performing recognition processing of two captured images captured with different light source settings by setting various light sources. .

例えば、図21(A)(B)に示すように、読み取り装置10は、図21(A)の光源設定時に撮像部30に撮像された撮像画像からコードを認識し、図21(B)の光源設定時に撮像部30に撮像された撮像画像からコードを認識しない。かかる場合に、真のカードと判定する。   For example, as illustrated in FIGS. 21A and 21B, the reading device 10 recognizes a code from a captured image captured by the imaging unit 30 when the light source is set in FIG. The code is not recognized from the captured image captured by the imaging unit 30 when the light source is set. In such a case, the card is determined to be a true card.

一方、所定領域にいずれの方向からも視認可能な通常のインクが施された偽のカード50が存在する。例えば、図22(A)に示すように、通常インクが施されたコードが記録されたカード50に対して、光源位置LP3から照射方向LR1で照射すると、コードを見ることができるし、図22(B)に示すように、光源位置LP4から照射方向LR2で照射した場合もコードを見ることができる。かかる場合、読み取り装置10は、コード部分に通常のインクが施されたカードを、偽のカードと判定する。   On the other hand, there is a fake card 50 with normal ink that is visible from any direction in a predetermined area. For example, as shown in FIG. 22A, when the card 50 on which the code with the normal ink is recorded is irradiated in the irradiation direction LR1 from the light source position LP3, the code can be seen. As shown in (B), the code can also be seen when the light is irradiated from the light source position LP4 in the irradiation direction LR2. In such a case, the reading device 10 determines that a card in which normal ink is applied to the code portion is a fake card.

つまり、図22(A)(B)に示すように、読み取り装置10は、図22(A)の光源設定時に撮像部30に撮像された撮像画像からコードを認識し、図22(B)の光源設定時に撮像部30に撮像された撮像画像からコードを認識する。かかる場合に、偽のカードと判定する。   That is, as illustrated in FIGS. 22A and 22B, the reading device 10 recognizes the code from the captured image captured by the imaging unit 30 when the light source is set in FIG. The code is recognized from the captured image captured by the imaging unit 30 when the light source is set. In such a case, the card is determined to be a fake card.

本実施形態の変形例においても、上述したように、偏光インク等が施された対象物40(例えば、カード)を、正規の対象物として扱っている。つまり、対象物40に記録されるシンボル(例えば、コード)は、光(可視光)が照射された場合に、見る角度に応じて、シンボルからの反射光(シンボルから受光する光)が変化するものである。以下、変形例の詳細を説明する。   Also in the modification of this embodiment, as described above, the object 40 (for example, a card) to which the polarized ink or the like is applied is handled as a regular object. That is, when a symbol (for example, a code) recorded on the object 40 is irradiated with light (visible light), reflected light from the symbol (light received from the symbol) changes depending on the viewing angle. Is. Details of the modification will be described below.

4.2 光源の設定
本実施形態の変形例の読み取り装置10は、まず対象物を照射するための少なくとも1つの光源を可変に設定する。例えば、読み取り装置10は、少なくとも1つの光源に対して、第1の光源設定と第2の光源設定とを排他的に行う。
4.2 Setting of Light Source The reading apparatus 10 according to the modification of the present embodiment first variably sets at least one light source for irradiating an object. For example, the reading device 10 exclusively performs the first light source setting and the second light source setting with respect to at least one light source.

つまり、本実施形態の変化例の読み取り装置は、第1、第2の光源設定を行う。例えば、撮像部30が、対象物40に記録されたシンボルから受光する光の成分(反射光の成分)が異なるように、第1、第2の光源設定を行う。そして、第1、第2の光源設定時それぞれにおいて、撮像部が対象物40を撮像して、2つの撮像画像を取得し、取得した2つの撮像画像に基づいて認識処理を行う。   That is, the reading apparatus according to the modification of the present embodiment performs the first and second light source settings. For example, the imaging unit 30 performs the first and second light source settings so that light components (reflected light components) received from symbols recorded on the object 40 are different. Then, at each of the first and second light source settings, the imaging unit images the object 40 to acquire two captured images, and performs recognition processing based on the acquired two captured images.

4.2.1 光源の設定の具体例1(光源の強度)
本実施形態の変形例では、例えば、光源の強度を可変に設定してもよい。ここで、光源の強度とは、輝度、光度、照度、光度エネルギー、光束、光束発散度、視感度、発光効率の少なくとも1つである。
4.2.1 Specific example 1 of light source setting (light source intensity)
In the modification of the present embodiment, for example, the intensity of the light source may be set variably. Here, the intensity of the light source is at least one of luminance, luminous intensity, illuminance, luminous energy, luminous flux, luminous flux divergence, visibility, and luminous efficiency.

例えば、図23(A)(B)に示すように、光源位置を変化させることによって、光源の強度を可変に設定してもよい。つまり、図23(A)に示すように、光源L4が、光源位置LP5から対象物40を照射する。その後、光源L4を、光源位置LP5よりも強い強度で対象物40を照射可能な光源位置LP6に移動させる。つまり、光源L4を対象物40に近づける。そして、光源位置をLP6に移動させると、図23(B)に示すように、光源L4が、光源位置LP6から対象物40を照射する。なお、光源位置LP6は、光源L4を対象物から遠ざけて、光源位置LP5よりも弱い強度で対象物40を照射可能な位置に移動させてもよい。   For example, as shown in FIGS. 23A and 23B, the intensity of the light source may be variably set by changing the position of the light source. That is, as shown in FIG. 23A, the light source L4 irradiates the object 40 from the light source position LP5. Thereafter, the light source L4 is moved to the light source position LP6 where the object 40 can be irradiated with an intensity stronger than that of the light source position LP5. That is, the light source L4 is brought close to the object 40. When the light source position is moved to LP6, the light source L4 irradiates the object 40 from the light source position LP6 as shown in FIG. The light source position LP6 may be moved to a position where the object 40 can be irradiated with an intensity weaker than that of the light source position LP5 by moving the light source L4 away from the object.

つまり、本実施形態では、異なる強度の複数の光源位置(第1、第2の光源位置)を設定する。そして、第1の光源位置から照射された対象物を撮像した撮像画像と、第2の光源位置から照射された対象物を撮像した撮像画像と、を取得する。   That is, in the present embodiment, a plurality of light source positions (first and second light source positions) having different intensities are set. And the captured image which imaged the target object irradiated from the 1st light source position and the captured image which imaged the target object irradiated from the 2nd light source position are acquired.

また、図24(A)(B)に示すように、光源L5を調光することによって、光源の強度を可変に設定してもよい。つまり、図24(A)に示すように、光源L5が、光源位置LP7から第1の強度値d1で対象物40を照射する。その後、光源L5を第1の強度値d1よりも強い第2の強度値d2(d1<d2)に調光させ、図24(B)に示すように、光源L5が、光源位置LP7から第2の強度値d2で対象物40を照射する。なお、第2の強度値d2は、第1の強度値d1よりも弱い強度としてもよい。   Further, as shown in FIGS. 24A and 24B, the intensity of the light source may be variably set by dimming the light source L5. That is, as shown in FIG. 24A, the light source L5 irradiates the object 40 with the first intensity value d1 from the light source position LP7. Thereafter, the light source L5 is dimmed to a second intensity value d2 (d1 <d2) that is higher than the first intensity value d1, and as shown in FIG. 24B, the light source L5 is second from the light source position LP7. The object 40 is irradiated with the intensity value d2. The second intensity value d2 may be weaker than the first intensity value d1.

つまり、本実施形態では、異なる強度の複数の強度値(第1、第2の強度値)を設定する。そして、第1の強度値によって照射された対象物を撮像した撮像画像と、第2の強度値によって照射された対象物を撮像した撮像画像と、を取得する。   That is, in the present embodiment, a plurality of intensity values (first and second intensity values) having different intensities are set. And the captured image which imaged the target object irradiated with the 1st intensity value and the captured image which imaged the target object irradiated with the 2nd intensity value are acquired.

また、本実施形態では、後述する光源の照射方向を変化させたり、光源の照射数を変化させることによって、光源の強度を可変に設定してもよい。   In the present embodiment, the intensity of the light source may be variably set by changing the irradiation direction of the light source to be described later or changing the number of irradiations of the light source.

4.2.2 光源の設定の具体例2(光源の明度)
また、本実施形態の変形例では、例えば、光源の明度を可変に設定してもよい。なお、光源の明度とは、光源のRGBの各成分の各明度を含む。光源の明度の設定は、光源の強度と同様に行うことができる。
4.2.2 Specific example 2 of light source setting (lightness of light source)
In the modification of the present embodiment, for example, the brightness of the light source may be set variably. The lightness of the light source includes each lightness of each RGB component of the light source. The brightness of the light source can be set in the same manner as the intensity of the light source.

例えば、図23(A)(B)に示すように、光源位置を変化させることによって、光源の明度を可変に設定してもよい。つまり、図23(A)に示すように、光源L4が、光源位置LP5から対象物40を照射する。その後、光源L4を、光源位置LP5よりも明るい明度で対象物40を照射可能な光源位置LP6に移動させる。つまり、光源L4を対象物40に近づける。そして、光源位置をLP6に移動させると、図23(B)に示すように、光源L4が、光源位置LP6から対象物40を照射する。なお、光源位置LP6は、光源L4を対象物から遠ざけて、光源位置LP5よりも弱い明度で対象物40を照射可能な位置に移動させてもよい。   For example, as shown in FIGS. 23A and 23B, the lightness of the light source may be variably set by changing the light source position. That is, as shown in FIG. 23A, the light source L4 irradiates the object 40 from the light source position LP5. Thereafter, the light source L4 is moved to a light source position LP6 that can irradiate the object 40 with lighter brightness than the light source position LP5. That is, the light source L4 is brought close to the object 40. When the light source position is moved to LP6, the light source L4 irradiates the object 40 from the light source position LP6 as shown in FIG. Note that the light source position LP6 may be moved to a position where the object 40 can be irradiated with a lightness lower than that of the light source position LP5 by moving the light source L4 away from the object.

つまり、本実施形態では、異なる明度の複数の光源位置(第1、第2の光源位置)を設定する。そして、第1の光源位置から照射された対象物を撮像した撮像画像と、第2の光源位置から照射された対象物を撮像した撮像画像と、を取得する。   That is, in this embodiment, a plurality of light source positions (first and second light source positions) with different brightness are set. And the captured image which imaged the target object irradiated from the 1st light source position and the captured image which imaged the target object irradiated from the 2nd light source position are acquired.

また、図24(A)(B)に示すように、光源L5を調光することによって、光源の明度を可変に設定してもよい。つまり、図24(A)に示すように、光源L5が、光源位置LP7から第1の明度値e1で対象物40を照射する。その後、光源L5を第1の明度値e1よりも強い第2の明度値e2(e1<e2)に調光させ、図24(B)に示すように、光源L5が、光源位置LP7から第2の明度値e2で対象物40を照射する。なお、第2の明度値e2は、第1の明度値e1よりも弱い明度としてもよい。   Further, as shown in FIGS. 24A and 24B, the brightness of the light source may be variably set by adjusting the light source L5. That is, as shown in FIG. 24A, the light source L5 irradiates the object 40 with the first brightness value e1 from the light source position LP7. Thereafter, the light source L5 is dimmed to a second lightness value e2 (e1 <e2) stronger than the first lightness value e1, and as shown in FIG. 24B, the light source L5 is second from the light source position LP7. The object 40 is irradiated with the brightness value e2. The second lightness value e2 may be lighter than the first lightness value e1.

つまり、本実施形態では、異なる明度の複数の明度値(第1、第2の明度値)を設定する。そして、第1の明度値によって照射された対象物を撮像した撮像画像と、第2の明度値によって照射された対象物を撮像した撮像画像と、を取得する。   That is, in the present embodiment, a plurality of brightness values (first and second brightness values) having different brightness values are set. And the captured image which imaged the target object irradiated by the 1st brightness value and the captured image which imaged the target object irradiated by the 2nd brightness value are acquired.

また、光源の明度を設定する際は、光のRGBの3つ成分のうち、少なくとも1つの成分(例えば、R成分のみ)を変化させるようにしてもよい。例えば、本実施形態では、異なるR成分の複数の明度値(第1、第2のR成分の明度値)を設定する。そして、第1のR成分の明度値によって照射された対象物を撮像した撮像画像と、第2のR成分の明度値によって照射された対象物を撮像した撮像画像と、を取得するようにしてもよい。なお、G成分、B成分についても同様に変化させて2つの撮像画像を取得するようにしてもよい。   Further, when setting the lightness of the light source, at least one component (for example, only the R component) of the three RGB components of light may be changed. For example, in this embodiment, a plurality of brightness values of different R components (lightness values of the first and second R components) are set. Then, a captured image obtained by imaging the object irradiated with the brightness value of the first R component and a captured image obtained by imaging the object irradiated by the brightness value of the second R component are acquired. Also good. Note that two captured images may be acquired by changing the G component and the B component in the same manner.

また、本実施形態では、後述する光源の照射方向を変化させたり、光源の照射数を変化させることによって、光源の明度を可変に設定してもよい。   In the present embodiment, the brightness of the light source may be variably set by changing the irradiation direction of the light source, which will be described later, or changing the number of irradiations of the light source.

4.2.3 光源の設定の具体例3(光源の照射方向)
また、本実施形態の変形例では、光源の照射方向を可変に設定してもよい。例えば、図21(A)に示すように、対象物40(カード等)のコード記録面と照射方向LR1とのなす角度θ1から、図21(B)に示すように対象物40(カード等)のコード記録面と照射方向LR2とのなす角度θ2(θ1>θ2)に変化させて設定するようにしてもよい。逆に、対象物40(カード等)のコード記録面と照射方向LR1とのなす角度を、θ2からθ1に変化させて設定するようにしてもよい。
4.2.3 Specific example 3 of light source setting (light source irradiation direction)
In the modification of this embodiment, the irradiation direction of the light source may be set variably. For example, as shown in FIG. 21A, the object 40 (card or the like) as shown in FIG. 21 (B) from the angle θ1 formed by the code recording surface of the object 40 (card or the like) and the irradiation direction LR1. The angle may be set to be changed to an angle θ2 (θ1> θ2) formed by the code recording surface and the irradiation direction LR2. Conversely, the angle formed between the code recording surface of the object 40 (such as a card) and the irradiation direction LR1 may be set by changing from θ2 to θ1.

つまり、本実施形態では、異なる複数の照射方向(第1、第2の照射方向)を設定する。そして、第1の照射方向によって照射された対象物を撮像した撮像画像と、第2の照射方向によって照射された対象物を撮像した撮像画像と、を取得する。   That is, in this embodiment, a plurality of different irradiation directions (first and second irradiation directions) are set. And the captured image which imaged the target object irradiated by the 1st irradiation direction and the captured image which imaged the target object irradiated by the 2nd irradiation direction are acquired.

4.2.4 光源の設定の具体例4(光源の照射数)
また、本実施形態の変形例では、例えば、光源の照射数を可変に設定してもよい。例えば、図25(A)に示すように、対象物40を照射する光源の数が1つ(光源L6)から、図25(B)に示すように、対象物40を照射する光源の数を2つ(光源L6、L7)に変化させて設定するようにしてもよい。つまり、対象物40に照射する光源の照射数を増加させるように設定してもよい。逆に、対象物40を照射する光源の照射数を減らすように設定してもよい。なお、光源自体の数を3つ以上とし、対象物40を照射する(オンにする)光源の照射数は3つ以上としてもよい。
4.2.4 Example 4 of light source setting (number of light source irradiations)
Moreover, in the modification of this embodiment, for example, the number of irradiations of the light source may be set variably. For example, as shown in FIG. 25A, the number of light sources that irradiate the object 40 is changed from one (light source L6) to the number of light sources that irradiate the object 40, as shown in FIG. It may be set by changing to two (light sources L6 and L7). That is, you may set so that the irradiation number of the light source irradiated to the target object 40 may be increased. Conversely, the number of light sources that irradiate the object 40 may be set to be reduced. Note that the number of light sources itself may be three or more, and the number of light sources that irradiate (turn on) the object 40 may be three or more.

つまり、本実施形態では、光源の照射数が異なる複数の光源設定(第1の照射数の設定、第2の照射数の設定)を行う。第1の照射数によって照射された対象物を撮像した撮像画像と、第2の照射数によって照射された対象物を撮像した撮像画像と、を取得する。   That is, in this embodiment, a plurality of light source settings (setting of the first irradiation number and setting of the second irradiation number) with different numbers of light source irradiations are performed. A captured image obtained by imaging the object irradiated by the first irradiation number and a captured image obtained by imaging the object irradiated by the second irradiation number are acquired.

4.2.5 その他
なお、本実施形態では、複数の光源設定を行うが、光源の強度、明度、照射方向、照射数の少なくとも1つが異なるように、複数の光源設定を行うようにしてもよい。また、他の態様で異なる複数の光源設定を行うようにしてもよい。
4.2.5 Others In this embodiment, a plurality of light source settings are performed, but a plurality of light source settings may be performed so that at least one of the intensity, brightness, irradiation direction, and number of irradiations of the light sources is different. Good. Moreover, you may make it perform several different light source settings in another aspect.

4.3 認識処理
次に、本実施形態の変形例の読み取り装置10は、第1の光源設定時に対象物を撮像した第1の撮像画像と、第2の光源設定時に対象物を撮像した第2の撮像画像とを取得し、第1、第2の撮像画像の認識処理とを行う。なお、本実施形態の変形例では、光源設定の変化状況に応じて、撮像部30が撮像するタイミングを変化させるようにしている。なお、撮像部30は少なくとも1つあればよく2以上でもよい。
4.3 Recognition Processing Next, the reader 10 according to the modification of the present embodiment captures a first captured image obtained by imaging the object when the first light source is set, and a first image obtained by imaging the object when the second light source is set. Two captured images are acquired, and recognition processing of the first and second captured images is performed. In the modification of the present embodiment, the timing at which the imaging unit 30 captures an image is changed according to the change state of the light source setting. Note that there may be at least one imaging unit 30 and two or more.

本実施形態の変形例の読み取り装置10は、例えば、取得した第1、第2の撮像画像から、対象物の真正を示す所定情報を認識できるか否かを判定する。   For example, the reading device 10 according to the modification of the present embodiment determines whether or not predetermined information indicating the authenticity of the target object can be recognized from the acquired first and second captured images.

具体的には、読み取り装置10は、所定情報(第1の所定情報)を認識の可否を示すフラグFC1を1又は0に設定し、所定情報(第1の所定情報)を認識した場合にはFC1=1に設定し、所定情報(第1の所定情報)を認識しない(認識エラー)の場合にはFC1=0に設定する。具体的には、第1の光源設定時に撮像部30によって撮像された撮像画像81において所定情報(第1の所定情報)を認識した場合には、FC1=1に設定する。同様に、第2の光源設定時に撮像部30によって撮像された撮像画像82において所定情報(第1の所定情報)を認識しない場合には、FC1=0に設定する。   Specifically, when the reading device 10 sets the flag FC1 indicating whether or not to recognize the predetermined information (first predetermined information) to 1 or 0 and recognizes the predetermined information (first predetermined information), When FC1 = 1 is set and the predetermined information (first predetermined information) is not recognized (recognition error), FC1 = 0 is set. Specifically, when predetermined information (first predetermined information) is recognized in the captured image 81 captured by the imaging unit 30 when the first light source is set, FC1 = 1 is set. Similarly, when the predetermined information (first predetermined information) is not recognized in the captured image 82 captured by the imaging unit 30 when the second light source is set, FC1 = 0 is set.

なお、読み取り装置10は、第2の所定情報を認識の可否を示すフラグFC2を1又は0に設定し、第2の所定情報を認識した場合にはFC2=1に設定し、第2の所定情報を認識しない(認識エラー)の場合にはFC2=0に設定するようにしてもよい。   The reading device 10 sets a flag FC2 indicating whether or not the second predetermined information can be recognized to 1 or 0. When the second predetermined information is recognized, the reading device 10 sets FC2 = 1 to set the second predetermined information. When information is not recognized (recognition error), FC2 = 0 may be set.

読み取り装置10において、撮像画像から第1の所定情報を認識できるか否かを判定する処理、撮像画像から第2の所定情報を認識できるか否かを判定する処理等は、上述した通りである。   In the reading device 10, the process for determining whether or not the first predetermined information can be recognized from the captured image, the process for determining whether or not the second predetermined information can be recognized from the captured image, and the like are as described above. .

また、本実施形態の変形例においても、上述したように、図8(C)に示すように、対象物40にマークM1〜M3が施されている場合には、図13(C)に示すように、撮像画像上におけるマークM1〜M3の位置関係から認識処理対象のコード範囲CR1を特定してもよい。   Moreover, also in the modification of this embodiment, as shown above, as shown in FIG. 8 (C), when the mark M1 to M3 is given to the object 40, it is shown in FIG. 13 (C). As described above, the code range CR1 to be recognized may be specified from the positional relationship between the marks M1 to M3 on the captured image.

また、本実施形態の変形例においても、図8(D)に示すように対象物40にマークM1〜M3と、他のコードが記載されている場合には、図14(C)に示すように、マークM1〜M3の位置関係から認識すべき複数のコード範囲CR11、CR12を特定する処理を行ってもよい。つまり、特定されたコード範囲CR11、CR12内で、コードを認識する処理を行ってもよい。   Further, also in the modification of the present embodiment, when marks M1 to M3 and other codes are described on the object 40 as shown in FIG. 8D, as shown in FIG. In addition, a process of specifying a plurality of code ranges CR11 and CR12 to be recognized from the positional relationship between the marks M1 to M3 may be performed. That is, processing for recognizing codes may be performed within the specified code ranges CR11 and CR12.

例えば、コード範囲CR11で、所定情報(第1の所定情報)を認識する場合にはFC1=1を設定し、所定情報(第1の所定情報)を認識できない場合はFC1=0を設定する。また、コード範囲CR12において、コードを認識できた場合には、そのコードから得られる情報をゲーム処理に用いる。   For example, FC1 = 1 is set when the predetermined information (first predetermined information) is recognized in the code range CR11, and FC1 = 0 is set when the predetermined information (first predetermined information) cannot be recognized. If the code can be recognized in the code range CR12, the information obtained from the code is used for the game process.

また、本実施形態の変形例では、撮像画像のコード、識別マークを認識する処理を行っているが、コードや識別マークだけでなく、図柄、絵、文字、色などの識別可能なシンボルを認識する処理を行ってもよい。   In addition, in the modification of the present embodiment, processing for recognizing the code and identification mark of the captured image is performed, but not only the code and identification mark but also identifiable symbols such as symbols, pictures, characters, and colors are recognized. You may perform the process to do.

4.4 真贋判定処理
本実施形態の変形例においても、所定情報の認識結果に基づいて、対象物40の真贋判定処理を行う。
4.4 Authentication Determination Processing Also in the modification of the present embodiment, the authentication determination processing of the object 40 is performed based on the recognition result of the predetermined information.

4.4.1 真贋判定処理例1
本実施形態では、第1の光源設定時に対象物を撮像した第1の撮像画像と、第2の光源設定時に対象物を撮像した第2の撮像画像のうち、一方の撮像画像から所定情報(第1の所定情報)を認識し、他方の撮像画像から所定情報(第1の所定情報)を認識しない場合に、対象物を真(本物)と判定する処理を行う。そして、第1の撮像画像と第2の撮像画像のうち、両方の撮像画像から所定情報を認識する場合、又は、両方の撮像画像から所定情報を認識しない場合には対象物40は偽(偽物)であると判定する。
4.4.1 Example 1 of authenticity determination processing
In the present embodiment, predetermined information (1) is obtained from one of the captured images of the first captured image capturing the target object when the first light source is set and the second captured image capturing the target object when the second light source is set. When the first predetermined information) is recognized and the predetermined information (first predetermined information) is not recognized from the other captured image, a process of determining the object as true (genuine) is performed. When the predetermined information is recognized from both of the first captured image and the second captured image, or when the predetermined information is not recognized from both of the captured images, the object 40 is false (fake). ).

例えば、本実施形態の読み取り装置10は、例えば、第1の光源設定時に撮像部30に撮像された撮像画像81の所定情報(第1の所定情報)の認識可否を示すフラグFC1が1、第2の光源設定時に撮像部30に撮像された撮像画像82のフラグFC1が0の場合は、真と判定する。なお、撮像画像81のフラグFC1が0であって撮像画像82のフラグFC1が1の場合も、真と判定する。   For example, in the reading device 10 of the present embodiment, for example, the flag FC1 indicating whether or not the predetermined information (first predetermined information) of the captured image 81 captured by the imaging unit 30 at the time of setting the first light source is 1, When the flag FC1 of the captured image 82 captured by the imaging unit 30 at the time of setting the light source 2 is 0, it is determined to be true. In addition, when the flag FC1 of the captured image 81 is 0 and the flag FC1 of the captured image 82 is 1, it is determined to be true.

例えば、図22に示すように、偽造品50である場合には、読み取り装置10は、第1の光源設定時に撮像部30に撮像された撮像画像91のフラグFC1が1、第2の光源設定時に撮像部30から撮像された撮像画像92のフラグFC1が1で同じ値であるので、対象物50が偽物であると判定する。なお、2つの撮像画像のフラグFC1が共に0の場合も対象物50が偽物であると判定する。このように、本実施形態の読み取り装置10によれば、簡易に本物、偽物の区別を行うことができる。   For example, as illustrated in FIG. 22, in the case of the counterfeit product 50, the reading device 10 sets the flag FC1 of the captured image 91 captured by the imaging unit 30 when the first light source is set to 1 and the second light source setting. Since the flag FC1 of the captured image 92 captured from the image capturing unit 30 is sometimes 1 and the same value, it is determined that the object 50 is a fake. Note that the object 50 is also determined to be fake even when the flags FC1 of the two captured images are both 0. As described above, according to the reading device 10 of the present embodiment, it is possible to easily distinguish between a real product and a fake product.

4.4.2 真贋判定処理例2
また、本実施形態の変形例においても、第1の撮像画像と第2の撮像画像のうち、一方の撮像画像から第1の所定情報を認識し、他方の撮像画像から第2の所定情報を認識した場合に、対象物を真(本物)と判定する処理を行うようにしてもよい。このようにすれば、第1の所定情報の認識、第2の所定情報の認識という2段階の認識処理があるので、真贋判定をより適確に行うことができる。例えば、読み取り装置10は、第1の光源設定時に撮像部30に撮像された撮像画像81のフラグFC1(第1の所定情報を認識可否を示すフラグFC1)が1であって、かつ、第2の光源設定時に撮像部30に撮像された撮像画像82のフラグFC2(第2の所定情報の認識可否を示すフラグFC2)が1の場合は、真と判定してもよい。或いは、撮像画像81のフラグFC2が1であって、かつ、撮像画像82のFC1が1の場合は、真と判定してもよい。
4.4.2 Authenticity determination processing example 2
Also in the modification of the present embodiment, the first predetermined information is recognized from one of the first captured image and the second captured image, and the second predetermined information is acquired from the other captured image. When the object is recognized, a process of determining the object as true (genuine) may be performed. In this way, since there are two stages of recognition processing, that is, recognition of the first predetermined information and recognition of the second predetermined information, the authenticity determination can be performed more appropriately. For example, the reading device 10 has a flag FC1 (a flag FC1 indicating whether or not the first predetermined information can be recognized) of the captured image 81 captured by the imaging unit 30 when the first light source is set, and the second When the flag FC2 (flag FC2 indicating whether or not the second predetermined information can be recognized) of the captured image 82 captured by the imaging unit 30 at the time of setting the light source is 1, it may be determined to be true. Alternatively, when the flag FC2 of the captured image 81 is 1 and FC1 of the captured image 82 is 1, it may be determined to be true.

4.4.3 真贋判定処理例3
さらに、本実施形態の変形例においても、図15に示すように、取得した各撮像画像から認識した情報F1、F2の組み合わせが、予め定義された組み合わせパターンと一致している場合は真と判定し、そうでない場合は偽と判定してもよい。例えば、図15に示すように、各撮像画像の認識した情報F1、F2の組み合わせが(DA,D1)又は(D1,DA)である場合には、ID=1のパターンに対応するので、真と判定する。一方、各撮像画像の情報F1、F2の組み合わせが(DA,DA)等のように同じ場合や、或いは、図15に示すように予め決めた定義パターンに存在しない場合には、偽と判定してもよい。
4.4.3 Authentication determination processing example 3
Furthermore, also in the modification of the present embodiment, as shown in FIG. 15, it is determined to be true when the combination of the information F1 and F2 recognized from each acquired captured image matches a predefined combination pattern. If not, it may be determined to be false. For example, as shown in FIG. 15, when the combination of the recognized information F1 and F2 of each captured image is (DA, D1) or (D1, DA), it corresponds to the pattern of ID = 1. Is determined. On the other hand, when the combination of the information F1 and F2 of each captured image is the same as (DA, DA), or when the combination does not exist in a predetermined definition pattern as shown in FIG. May be.

4.4.4 共通性判定処理
また、本実施形態の変形例においても、第1、第2の光源設定で撮像部30に撮像された各撮像画像において、共通のマークM1〜M3の認識結果に基づき各撮像画像の共通性(同一性)を判定し、共通性を有すると判定した場合に、真贋判定を行うようにしてもよい。つまり、共通性を有しない場合には偽物と判定する。このようにすれば、例えば、2つの撮像画像の被写体である対象物40が異なる場合や、ゲームで用いる対象物40とは全く別の物を被写体としている場合の撮像等を排除することができ、不正な撮像を防止することができる。
4.4.4 Commonness Determination Processing Also in the modified example of the present embodiment, the recognition results of the common marks M1 to M3 in each captured image captured by the imaging unit 30 with the first and second light source settings. The commonality (identity) of each captured image is determined based on the above, and the authenticity determination may be performed when it is determined that they have the commonality. That is, when there is no commonality, it is determined to be a fake. In this way, for example, it is possible to eliminate imaging or the like when the object 40 that is the subject of the two captured images is different, or when the object 40 is completely different from the object 40 used in the game. Unauthorized imaging can be prevented.

4.5 決定処理
また、本実施形態の変形例においても、真贋判定によって真と判定された場合に、少なくとも1つの撮像画像から認識される情報(撮像画像から認識した認識結果情報、例えば、コードデータ、当該コードデータを解析したデータ(コードデータに含まれる情報)、認識される所定情報(第1の所定情報、第2の所定情報)、色情報、画像情報等)に基づいて、ゲーム情報を決定するようにしてもよい。
4.5 Determination Process Also in the modification of the present embodiment, information recognized from at least one captured image (recognition result information recognized from the captured image, for example, code, when determined to be true by authenticity determination) Game information based on data, data obtained by analyzing the code data (information included in the code data), predetermined information to be recognized (first predetermined information, second predetermined information), color information, image information, and the like) May be determined.

例えば、本実施形態の変形例においても、撮像画像から認識される情報に基づいて、プレーヤの操作対象となるプレーヤキャラクタを決定する処理を行うことができる。   For example, also in the modified example of the present embodiment, it is possible to perform a process of determining a player character to be operated by the player based on information recognized from the captured image.

例えば、第1の撮像画像の認識処理、及び、第2の撮像画像の認識処理の少なくとも一方で情報Fを得た場合、図16に示すように、撮像画像から認識される情報(例えば、情報F)が「DA」である場合には、「DA」に対応するキャラクタは「人間」であるので、予め記憶部に記憶されている「人間」のキャラクタを、プレーヤキャラクタとして決定する処理を行う。   For example, when the information F is obtained in at least one of the recognition process of the first captured image and the recognition process of the second captured image, as shown in FIG. When F) is “DA”, since the character corresponding to “DA” is “human”, a process of determining the “human” character stored in the storage unit in advance as the player character is performed. .

また、例えば、図11(C)に示すように、第1のコードC1と、第2のコードC2とが記録された対象物を読み取る場合は、第1、第2の撮像画像でコードC1、C2に応じた2つの情報を認識する場合がある。かかる場合は、2つの情報に基づいてキャラクタを決定してもよい。例えば、図15に示すように、第1の撮像画像により認識した第1の情報F1がDAであり、第2の撮像画像により認識した第2の情報F2がD1である場合には、複数の人間のキャラクタのうち「人間1」のキャラクタをプレーヤキャラクタとして決定する。このように、複数の情報があれば、バラエティーに富んだキャラクタを用意することができる。   In addition, for example, as shown in FIG. 11C, when reading an object on which the first code C1 and the second code C2 are recorded, the code C1, There are cases where two pieces of information corresponding to C2 are recognized. In such a case, the character may be determined based on two pieces of information. For example, as illustrated in FIG. 15, when the first information F1 recognized by the first captured image is DA and the second information F2 recognized by the second captured image is D1, Among the human characters, the character “human 1” is determined as the player character. Thus, if there is a plurality of information, a variety of characters can be prepared.

4.6 真贋判定処理の流れ
次に、真贋判定の処理の流れについて、図17を用いて説明する。まず、対象物を撮像した複数の撮像画像を取得する。例えば、本実施形態の変形例では、第1の光源設定時に撮像部30に撮像された撮像画像と、第2の光源設定時に撮像部30に撮像された撮像画像とを取得する。(ステップS1)。
4.6 Flow of Authentication Determination Processing Next, the processing flow of authentication determination will be described with reference to FIG. First, a plurality of captured images obtained by capturing an object are acquired. For example, in the modified example of the present embodiment, a captured image captured by the imaging unit 30 when the first light source is set and a captured image captured by the imaging unit 30 when the second light source is set are acquired. (Step S1).

次に、各撮像画像において共通性を有するか否かを判定する(ステップS2)。そして、各撮像画像において共通性を有する場合(ステップS2のY)、ステップS3に進む。一方、各撮像画像において共通性がないと判定された場合(ステップS2のN)、偽の判定(ステップS5)を行う。   Next, it is determined whether each captured image has commonality (step S2). If the captured images have commonality (Y in step S2), the process proceeds to step S3. On the other hand, if it is determined that there is no commonality among the captured images (N in step S2), a false determination (step S5) is performed.

次に、各撮像画像のコード範囲に差異があるか否かを判定する(ステップS3)。例えば、第1の光源設定時に撮像した撮像画像、第2の光源設定時撮像した撮像画像のうち、一方の撮像画像から所定情報を認識可、他方の撮像画像から所定情報を認識不可の組み合わせであるか否かを判定する。   Next, it is determined whether or not there is a difference in the code range of each captured image (step S3). For example, among the captured image captured when the first light source is set and the captured image captured when the second light source is set, the predetermined information can be recognized from one captured image, and the predetermined information cannot be recognized from the other captured image. It is determined whether or not there is.

そして、各撮像画像のコード範囲に差異がある場合(ステップS3のY)、例えば、一方の撮像画像から所定情報を認識可、他方の撮像画像から所定情報を認識不可の組み合わせである場合には、真と判定する(ステップS4)。   When there is a difference in the code range of each captured image (Y in step S3), for example, when the predetermined information can be recognized from one captured image and the predetermined information cannot be recognized from the other captured image. And true (step S4).

一方、各撮像画像のコード範囲に差異がない場合(ステップS3のN)、例えば、両方の撮像画像から所定情報を認識可、或いは、両方の撮像画像から所定情報を認識不可である場合には、偽と判定する(ステップS5)。以上で処理が終了する。   On the other hand, when there is no difference in the code range of each captured image (N in step S3), for example, when predetermined information can be recognized from both captured images, or when predetermined information cannot be recognized from both captured images. , It is determined to be false (step S5). The process ends here.

4.7 その他
本実施形態の変形例においては、1つの撮像部で複数の撮像画像を取得しているが複数の撮像部を用いて複数の撮像画像を取得してもよい。第1の光源設定時の撮像部と、第1の光源設定時の撮像部とを、それぞれ別の撮像部によって撮像してもよい。例えば、図18(A)(B)に示すように、1つの撮像部30の位置を可変に設定してもよい。また、撮像部30の位置を固定に設定してもよい。
4.7 Others In the modification of the present embodiment, a plurality of captured images are acquired by one imaging unit, but a plurality of captured images may be acquired using a plurality of imaging units. The imaging unit at the time of setting the first light source and the imaging unit at the time of setting the first light source may be imaged by different imaging units, respectively. For example, as shown in FIGS. 18A and 18B, the position of one imaging unit 30 may be set variably. Further, the position of the imaging unit 30 may be set to be fixed.

また本実施形態の変形例においても、図19(A)(B)に示すように、対象物40の位置を可変に設定してもよい。例えば、第1の光源設定時の対象物40の位置と、第2の光源設定時の対象物40の位置とを可変に設定してもよいし、対象物40の位置を固定にしてもよい。   Also in the modification of the present embodiment, as shown in FIGS. 19A and 19B, the position of the object 40 may be set variably. For example, the position of the object 40 at the time of setting the first light source and the position of the object 40 at the time of setting the second light source may be set variably, or the position of the object 40 may be fixed. .

また、本実施形態の変形例は、対象物40に照射する自然光を光(可視光)の一例としてもよいが、図20に示すように、自然光を遮蔽し、自然光とは別の光源(可視光の光源)を対象物40に照射してもよい。   Moreover, although the modification of this embodiment is good also considering natural light irradiated to the target object 40 as an example of light (visible light), as shown in FIG. 20, it shields natural light and is different from natural light (visible light). The object 40 may be irradiated with a light source.

例えば、図20に示すように、自然光L1からの対象物40への照射を遮蔽物70によって遮蔽する。なお、撮像部30は、対象物40を撮像できるように(遮蔽されないように)、遮蔽物70の内側(対象物が存在する側)に配置設定する。   For example, as shown in FIG. 20, the irradiation of the object 40 from the natural light L <b> 1 is shielded by the shielding object 70. In addition, the imaging unit 30 is arranged and set inside the shielding object 70 (the side where the object exists) so that the object 40 can be imaged (so as not to be shielded).

そして、遮蔽物70で囲まれる自然光が遮られた範囲AR内において、本実施形態の変形例で述べた光源設定を行ってもよい。つまり、設定される光源は、範囲AR内に配置される。このようにすれば、環境を問わず、確実に設定した光源からの光を対象物40に照射することができる。なお、自然光を遮蔽する場合、自然光全てを遮蔽する場合でもよいし、自然光の一部の遮蔽するようにしてもよい。   Then, the light source setting described in the modification of the present embodiment may be performed within the range AR where the natural light surrounded by the shield 70 is blocked. That is, the set light source is disposed within the range AR. If it does in this way, the light from the light source set reliably can be irradiated to the target object 40 irrespective of an environment. When natural light is shielded, all natural light may be shielded or a part of natural light may be shielded.

4.8 光源の切り替え
本実施形態では、図26(A)(B)に示すように、複数の光源L6、L7を用い、各光源の照射(ON)、非照射(OFF)を交互に切り替えるようにしてもよい。かかる場合には、一方の光源を照射したときに他方の光源が非照射になるように制御する。そして、各光源の照射、非照射を切り替えるタイミングで、撮像部が対象物40を撮像する処理を行う。このようにすれば、読み取り装置は、見る角度に応じて観察者が受光する光の成分(反射光の成分)が変化する対象物40を撮像する場合においても、適確に認識することができる。
4.8 Switching of Light Sources In this embodiment, as shown in FIGS. 26A and 26B, a plurality of light sources L6 and L7 are used, and irradiation (ON) and non-irradiation (OFF) of each light source are switched alternately. You may do it. In such a case, control is performed such that when one light source is irradiated, the other light source is not irradiated. And the imaging part performs the process which images the target object 40 at the timing which switches irradiation of each light source, and non-irradiation. In this way, the reading apparatus can accurately recognize the object 40 in which the light component (reflected light component) received by the observer changes according to the viewing angle. .

より詳しく説明すると、本実施形態では、図26(A)に示すように、光源L6をオンに設定し光源L7をオフに設定した際に撮像部30が対象物40を撮像した第1の撮像画像と、図26(B)に示すように、光源L6をオフに設定し光源L7をオンに設定した際に撮像部30が対象物40を撮像した第2の撮像画像とを取得する。そして、本実施形態では、第1の光源の照射時に撮像された第1の撮像画像の認識処理を行い、第2の光源の照射時に撮像された第2の撮像画像の認識処理を行う。例えば、上述したように、取得した各撮像画像の認識結果に基づいて、対象物の真贋を判定する処理や、対象物の認識処理を行う。   More specifically, in the present embodiment, as shown in FIG. 26A, the first imaging in which the imaging unit 30 images the object 40 when the light source L6 is set on and the light source L7 is set off. As shown in FIG. 26B, the image capturing unit 30 acquires the image and the second captured image obtained by capturing the object 40 when the light source L6 is set to OFF and the light source L7 is set to ON. In this embodiment, the first captured image captured when the first light source is irradiated is recognized, and the second captured image captured when the second light source is irradiated is recognized. For example, as described above, based on the acquired recognition result of each captured image, a process for determining the authenticity of the object and a process for recognizing the object are performed.

また、本実施形態の光源L6、L7は、可視光を対象物40に照射可能に設定される。また、撮像部30の撮像位置P16は、光源L6の照射時に対象物40の反射光の第1の成分(色成分、輝度成分)を少なくとも受光する位置であって、光源L7の照射時に対象物40の反射光の第2の成分を少なくとも受光する位置に設定される。   Further, the light sources L6 and L7 of the present embodiment are set so that visible light can be irradiated onto the object 40. The imaging position P16 of the imaging unit 30 is a position that receives at least the first component (color component, luminance component) of the reflected light of the target object 40 when irradiated with the light source L6, and the target object when irradiated with the light source L7. It is set to a position for receiving at least the second component of the 40 reflected light.

5.サーバ
また、本実施形態では、読み取り装置10の処理部100で行う一部又は全部の処理をサーバ20で行うようにしてもよい。つまり、図27に示すように、サーバ20は、端末10(読み取り装置10)とネットワークを介して接続され、サーバ20と端末10とはデータを送受信する処理を行う。
5. Server In the present embodiment, some or all of the processing performed by the processing unit 100 of the reading device 10 may be performed by the server 20. That is, as shown in FIG. 27, the server 20 is connected to the terminal 10 (reading device 10) via the network, and the server 20 and the terminal 10 perform processing for transmitting and receiving data.

例えば、サーバ20が、端末10から撮像画像を受信すると、その撮像画像を認識する処理を行うようにしてもよい。   For example, when the server 20 receives a captured image from the terminal 10, the server 20 may perform processing for recognizing the captured image.

つまり、本実施形態のサーバ20は、対象物40が撮像された撮像画像を、所与の端末10(本実施形態の読み取り装置10)からネットワークを介して受信する処理を行い、受信した撮像画像の認識処理を行うようにしてもよい。なお、この対象物40は、上述したように、光(例えば、可視光)が照射された場合に、見る角度に応じて、第1のシンボルから受光する光(第1のシンボルからの反射光)が変化するように第1のシンボルが記録された物である。   That is, the server 20 of the present embodiment performs a process of receiving a captured image obtained by capturing the object 40 from a given terminal 10 (reading device 10 of the present embodiment) via the network, and the received captured image. The recognition process may be performed. As described above, the object 40 receives light from the first symbol (reflected light from the first symbol) according to the viewing angle when irradiated with light (for example, visible light). ) Changes so that the first symbol is recorded.

例えば、端末10が、第1の撮像位置から対象物40を撮像した第1の撮像画像と、第2の撮像位置から対象物40を撮像した第2の撮像画像とを、ネットワークを介してサーバ20に送信すると、サーバ20は、第1の撮像画像と第2の撮像画像とを端末10から受信する処理を行い、第1の撮像画像の認識処理を行い、第2の撮像画像の認識処理を行うようにしてもよい。   For example, the terminal 10 uses a server to transmit a first captured image obtained by imaging the object 40 from the first imaging position and a second captured image obtained by imaging the object 40 from the second imaging position via the network. Then, the server 20 performs processing for receiving the first captured image and the second captured image from the terminal 10, performs recognition processing for the first captured image, and performs recognition processing for the second captured image. May be performed.

また、端末10が、少なくとも1つの光源に対して、第1の光源設定と第2の光源設定とを排他的に行い、第1の光源設定時に対象物を撮像した第1の撮像画像と、第2の光源設定時に対象物を撮像した第2の撮像画像とネットワークを介してサーバ20に送信すると、サーバ20は、第1の撮像画像と第2の撮像画像とを端末10から受信する処理を行い、第1の撮像画像の認識処理を行い、第2の撮像画像の認識処理を行うようにしてもよい。   In addition, the terminal 10 exclusively performs the first light source setting and the second light source setting with respect to at least one light source, and a first captured image obtained by capturing an object at the time of the first light source setting; When the second captured image obtained by capturing an object at the time of setting the second light source and transmitted to the server 20 via the network, the server 20 receives the first captured image and the second captured image from the terminal 10. The recognition processing of the first captured image may be performed, and the recognition processing of the second captured image may be performed.

また、サーバ20は、端末10(或いは他の撮像部)で撮像する際に被写体となる対象物40の真贋を判定してもよい。   Further, the server 20 may determine the authenticity of the target object 40 that is a subject when the terminal 10 (or another imaging unit) captures an image.

例えば、サーバ20は、端末10から受信した第1の撮像画像と第2の撮像画像のうち、一方の撮像画像から第1の所定情報を認識し他方の撮像画像から当該第1の所定情報を認識しない場合に、対象物40を真と判定する処理を行うようにしてもよい。   For example, the server 20 recognizes the first predetermined information from one captured image of the first captured image and the second captured image received from the terminal 10, and acquires the first predetermined information from the other captured image. If the object 40 is not recognized, a process for determining the object 40 as true may be performed.

また、サーバ20は、第1の撮像画像と第2の撮像画像のうち、一方の撮像画像から第1の所定情報を認識し他方の撮像画像から第2の所定情報を認識した場合に、対象物20を真と判定してもよい。   Further, when the server 20 recognizes the first predetermined information from one of the first captured image and the second captured image and recognizes the second predetermined information from the other captured image, the server 20 The object 20 may be determined to be true.

また、サーバ20は、第1の撮像画像と第2の撮像画像とにおいて共通性を有するか否かを判定し、第1の撮像画像と第2の撮像画像とにおいて識別マークを認識した認識結果に基づき、第1の撮像画像と第2の撮像画像とにおいて共通性を有するか否かを判定してもよい。例えば、サーバ20は、第1の撮像画像と第2の撮像画像とにおいて共通性を有しない場合には、対象物40を偽と判定する処理を行うようにしてもよい。   In addition, the server 20 determines whether or not the first captured image and the second captured image have commonality, and the recognition result of recognizing the identification mark in the first captured image and the second captured image. Based on the above, it may be determined whether or not there is commonality between the first captured image and the second captured image. For example, when there is no commonality between the first captured image and the second captured image, the server 20 may perform a process of determining the object 40 as false.

また、サーバ20は、第1の撮像画像の認識処理結果と、第2の撮像画像の認識処理結果とに基づいて、ゲーム処理で用いられるゲーム情報を決定する処理を行うようにしてもよい。例えば、サーバ20は、第1の撮像画像から認識した情報と、第2の撮像画像から認識した情報とに基づいて、ゲーム処理で用いられるゲーム情報を決定する処理を行うようにしてもよい。なお、サーバ20は、対象物が真と判定された場合に、第1の撮像画像から認識した情報と、第2の撮像画像から認識した情報とに基づいて、ゲーム処理で用いられるゲーム情報を決定する処理を行うようにしてもよい。   Further, the server 20 may perform a process of determining game information used in the game process based on the recognition process result of the first captured image and the recognition process result of the second captured image. For example, the server 20 may perform a process for determining game information used in the game process based on information recognized from the first captured image and information recognized from the second captured image. Note that the server 20 obtains game information used in the game process based on information recognized from the first captured image and information recognized from the second captured image when the target is determined to be true. You may make it perform the process to determine.

なお、本実施形態のサーバ20は、真贋判定の結果情報、第1、第2の撮像画像の共通性の判断結果、決定されたゲーム情報を端末10に送信するようにしてもよい。また、本実施形態のサーバ20は、端末10から、操作情報を受信してゲーム処理を行うようにしてもよい。そして、サーバ20は、ゲーム情報、キャラクタの位置情報、ゲーム勝敗結果等を端末10に送信してゲームを進行させるようにしてもよい。   Note that the server 20 of the present embodiment may transmit the determination result information, the determination result of the commonality between the first and second captured images, and the determined game information to the terminal 10. Further, the server 20 of the present embodiment may receive operation information from the terminal 10 and perform game processing. Then, the server 20 may transmit game information, character position information, game win / loss results, and the like to the terminal 10 to advance the game.

6.筐体
本実施形態は、読み取り装置は、業務用のゲーム装置に応用してもよい。図28(A)は、業務用ゲーム装置の一例である。例えば、図28(A)に示すように、ゲーム装置10−1は、ゲームに使用する所定サイズの対象物40(カード)が、予め決められたカード挿入部70に挿入されると、ゲーム装置10−1が備える撮像部によってカードを被写体として撮像し、各撮像画像の認識処理を行う。そして、各撮像画像の認識結果に基づいて、上述した真贋判定処理を行う。なお、挿入部70は、図28(A)に示すように、自然光を遮蔽するように形成されていてもよい。
6). Housing In this embodiment, the reading device may be applied to a business game device. FIG. 28A illustrates an example of an arcade game device. For example, as shown in FIG. 28 (A), the game apparatus 10-1 is configured such that when an object 40 (card) having a predetermined size used for the game is inserted into a predetermined card insertion unit 70, the game apparatus 10-1. The card is imaged as a subject by the imaging unit included in 10-1, and recognition processing of each captured image is performed. And the authenticity determination process mentioned above is performed based on the recognition result of each captured image. Note that the insertion portion 70 may be formed so as to shield natural light, as shown in FIG.

また、図28(B)は、業務用ゲーム装置の他の例である。例えば、図28(B)に示すように、ゲームに使用する所定サイズの対象物40(カード)が、無色透明な載置台60に配置されると、ゲーム装置10−2が備える撮像部によって載置台60に配置された対象物40を被写体として撮像し、各撮像画像の認識処理を行う。例えば、ゲーム装置10−2は、カードの裏面が撮像されることにより、当該カードに記録されたシンボル(コード)を認識する処理を行う。   FIG. 28B shows another example of the arcade game apparatus. For example, as shown in FIG. 28 (B), when an object 40 (card) of a predetermined size used in a game is placed on a colorless and transparent placing table 60, it is placed by an imaging unit included in the game apparatus 10-2. The object 40 arranged on the pedestal 60 is imaged as a subject, and recognition processing of each captured image is performed. For example, the game device 10-2 performs a process of recognizing a symbol (code) recorded on the card by imaging the back surface of the card.

また、ゲーム装置10−1、10−2で使用する対象物40は、上述した見る方向に応じて色・輝度が異なるシンボル(コード)が所定領域に記録されたカードである。なお、ゲーム装置10−1、10−2のいずれにおいても、異なる複数の撮像位置から撮像した複数の撮像画像を取得してもよいし、変形例に示すように、異なる複数の光源設定時それぞれにおいて撮像した複数の撮像画像を取得するようにしてもよい。   The object 40 used in the game apparatuses 10-1 and 10-2 is a card in which symbols (codes) having different colors and luminances according to the viewing direction are recorded in a predetermined area. Note that in any of the game apparatuses 10-1 and 10-2, a plurality of captured images captured from a plurality of different imaging positions may be acquired. You may make it acquire the some captured image imaged in (2).

7.その他
また、本実施形態で行う認識処理、真贋判定処理等は、アクションゲーム、ロールプレイングゲーム、対戦ゲーム、レースゲーム、音楽ゲーム、格闘ゲーム、シューティングゲーム、フライトシューティングゲームなど種々のゲーム装置、ゲームを提供するサーバで行うようにしてもよい。
7). In addition, the recognition processing, authenticity determination processing, and the like performed in this embodiment include various game devices and games such as action games, role-playing games, battle games, racing games, music games, fighting games, shooting games, and flight shooting games. You may make it carry out with the server to provide.

なお、本発明は、上記実施形態で説明したものに限らず、種々の変形実施が可能である。例えば、明細書又は図面中の記載において広義や同義な用語として引用された用語は、明細書又は図面中の他の記載においても広義や同義な用語に置き換えることができる。   The present invention is not limited to the one described in the above embodiment, and various modifications can be made. For example, terms cited as broad or synonymous terms in the description in the specification or drawings can be replaced with broad or synonymous terms in other descriptions in the specification or drawings.

本発明は、実施の形態で説明した構成と実質的に同一の構成(例えば、機能、方法及び結果が同一の構成、あるいは目的及び効果が同一の構成)を含む。また、本発明は、実施の形態で説明した構成の本質的でない部分を置き換えた構成を含む。また、本発明は、実施の形態で説明した構成と同一の作用効果を奏する構成又は同一の目的を達成することができる構成を含む。また、本発明は、実施の形態で説明した構成に公知技術を付加した構成を含む。なお、本実施形態で説明した実施例は、自由に組み合わせることができる。   The present invention includes configurations that are substantially the same as the configurations described in the embodiments (for example, configurations that have the same functions, methods, and results, or configurations that have the same objects and effects). In addition, the invention includes a configuration in which a non-essential part of the configuration described in the embodiment is replaced. In addition, the present invention includes a configuration that exhibits the same operational effects as the configuration described in the embodiment or a configuration that can achieve the same object. Further, the invention includes a configuration in which a known technique is added to the configuration described in the embodiment. Note that the examples described in this embodiment can be freely combined.

10 読み取り装置(端末)、
100 処理部、110 共通性判定部、111 認識処理部、
112 真贋判定部、113 ゲーム処理部、114 決定部、
115 表示制御部、116 光源設定部、117 撮像部設定部、
118 対象物設定部、119 通信制御部、120 描画部、130 音処理部、
170 記憶部、171 主記憶部、172 画像バッファ、173 撮像画像記憶部、
30 撮像部、31 第1の撮像部、32 第2の撮像部、33 第3の撮像部、
160 入力部、162 検出部、
180 情報記憶媒体、190 表示部、
192 音出力部、196 通信部、
20 サーバ
10 Reading device (terminal),
100 processing unit, 110 commonality determining unit, 111 recognition processing unit,
112 authenticity determination unit, 113 game processing unit, 114 determination unit,
115 display control unit, 116 light source setting unit, 117 imaging unit setting unit,
118 object setting unit, 119 communication control unit, 120 drawing unit, 130 sound processing unit,
170 storage unit, 171 main storage unit, 172 image buffer, 173 captured image storage unit,
30 imaging units, 31 first imaging unit, 32 second imaging unit, 33 third imaging unit,
160 input unit, 162 detection unit,
180 information storage medium, 190 display unit,
192 sound output unit, 196 communication unit,
20 servers

Claims (13)

光が照射された対象物を撮像し、撮像画像の認識処理を行うプログラムであって、
前記対象物を照射するための少なくとも1つの光源を可変に設定する光源設定部と、
前記対象物を撮像する撮像部と、
前記撮像部で撮像された撮像画像の認識処理を行う認識処理部として、コンピュータを機能させ、
前記対象物は、前記光源の設定に応じて前記撮像部が受光する光の成分が変化するシンボルを含み、
前記光源設定部が、
少なくとも1つの光源に対して、第1の光源の設定と第2の光源設定とを排他的に行い、
前記認識処理部が、
前記第1の光源設定時に前記対象物を撮像した前記第1の撮像画像の認識処理と、前記第2の光源設定時に前記対象物を撮像した前記第2の撮像画像の認識処理とを行うことを特徴とするプログラム。
A program that images a target object irradiated with light and performs recognition processing of the captured image,
A light source setting unit that variably sets at least one light source for irradiating the object;
An imaging unit for imaging the object;
As a recognition processing unit that performs recognition processing of a captured image captured by the imaging unit, the computer functions,
The object includes a symbol that changes a component of light received by the imaging unit according to the setting of the light source,
The light source setting unit is
For at least one light source, the first light source setting and the second light source setting are performed exclusively,
The recognition processing unit
Recognizing the first captured image obtained by imaging the object at the time of setting the first light source and recognizing processing of the second captured image obtained by imaging the object at the time of setting the second light source. A program characterized by
請求項1において、
前記光源設定部が、
前記光源の強度を可変に設定することを特徴とするプログラム。
In claim 1,
The light source setting unit is
A program characterized by variably setting the intensity of the light source.
請求項1又は2において、
前記光源設定部が、
前記光源の明度を可変に設定することを特徴とするプログラム。
In claim 1 or 2,
The light source setting unit is
A program for variably setting the lightness of the light source.
請求項1〜3のいずれかにおいて、
前記光源設定部が、
前記光源の照射方向を可変に設定することを特徴とするプログラム。
In any one of Claims 1-3,
The light source setting unit is
A program characterized by variably setting the irradiation direction of the light source.
請求項1〜4のいずれかにおいて、
前記光源設定部が、
前記光源の照射数を可変に設定することを特徴とするプログラム。
In any one of Claims 1-4,
The light source setting unit is
A program characterized in that the number of irradiations of the light source is variably set.
請求項1〜5のいずれかにおいて、
前記対象物の真贋判定処理を行う真贋判定部として、コンピュータを更に機能させ、
前記対象物は、第1の所定情報に応じたシンボルを含み、
前記真贋判定部が、
前記第1の撮像画像と前記第2の撮像画像のうち、一方の撮像画像から前記第1の所定情報を認識し他方の撮像画像から前記第1の所定情報を認識しない場合に、前記対象物を真と判定する処理を行うことを特徴とするプログラム。
In any one of Claims 1-5,
As an authenticity determination unit that performs an authenticity determination process of the object, further function a computer,
The object includes a symbol corresponding to first predetermined information,
The authenticity determination unit
Of the first captured image and the second captured image, the object is recognized when the first predetermined information is recognized from one captured image and the first predetermined information is not recognized from the other captured image. A program characterized by performing a process for determining whether or not is true.
請求項1〜6のいずれかにおいて、
前記対象物の真贋判定処理を行う真贋判定部として、コンピュータを更に機能させ、
前記対象物は、第1の所定情報に応じた第1のシンボルと当該第1の所定情報とは異なる第2のシンボルとを含み、
前記真贋判定部が、
前記第1の撮像画像と前記第2の撮像画像のうち、一方の撮像画像から前記第1の所定情報を認識し他方の撮像画像から前記第1の所定情報を認識しない場合に、前記対象物を真と判定する処理を行うことを特徴とするプログラム。
In any one of Claims 1-6,
As an authenticity determination unit that performs an authenticity determination process of the object, further function a computer,
The object includes a first symbol corresponding to the first predetermined information and a second symbol different from the first predetermined information,
The authenticity determination unit
Of the first captured image and the second captured image, the object is recognized when the first predetermined information is recognized from one captured image and the first predetermined information is not recognized from the other captured image. A program characterized by performing a process for determining whether or not is true.
請求項1〜7のいずれかにおいて、
前記対象物の真贋判定処理を行う真贋判定部として、コンピュータを更に機能させ、
前記対象物は、第1の所定情報に応じた第1のシンボルと第2の所定情報に応じた第2のシンボルとを含み、
前記真贋判定部が、
前記第1の撮像画像と前記第2の撮像画像のうち、一方の撮像画像から第1の所定情報を認識し他方の撮像画像から第2の所定情報を認識した場合に、前記対象物を真と判定する処理を行うことを特徴とするプログラム。
In any one of Claims 1-7,
As an authenticity determination unit that performs an authenticity determination process of the object, further function a computer,
The object includes a first symbol corresponding to first predetermined information and a second symbol corresponding to second predetermined information,
The authenticity determination unit
Of the first captured image and the second captured image, when the first predetermined information is recognized from one captured image and the second predetermined information is recognized from the other captured image, the object is true. The program characterized by performing the process which determines.
請求項6〜8のいずれかにおいて、
前記第1の撮像画像と第2の撮像画像とにおいて共通性を有するか否かを判定する共通性判定部として、コンピュータを機能させ、
前記対象物には、いずれの方向からも視認可能な識別マークが記録されており、
前記共通性判定部が、
前記第1の撮像画像と前記第2の撮像画像とにおいて前記識別マークを認識した認識結果に基づき、前記第1の撮像画像と第2の撮像画像とにおいて共通性を有するか否かを判定し、
前記真贋判定部が、
前記第1の撮像画像と第2の撮像画像とにおいて共通性を有しない場合には、前記対象物を偽と判定する処理を行うことを特徴とするプログラム。
In any one of Claims 6-8,
As a commonality determination unit that determines whether or not there is commonality between the first captured image and the second captured image, the computer functions.
An identification mark that is visible from any direction is recorded on the object,
The commonality determination unit
Based on the recognition result of recognizing the identification mark in the first captured image and the second captured image, it is determined whether the first captured image and the second captured image have commonality. ,
The authenticity determination unit
The program which performs the process which determines that the said target object is false when there is no commonality in a said 1st captured image and a 2nd captured image.
請求項1〜9のいずれかにおいて、
前記第1の撮像画像から認識した情報と、前記第2の撮像画像から認識した情報とに基づいて、ゲーム処理で用いられるゲーム情報を決定する決定部として、コンピュータを機能させることを特徴とするプログラム。
In any one of Claims 1-9,
A computer is caused to function as a determination unit that determines game information used in a game process based on information recognized from the first captured image and information recognized from the second captured image. program.
コンピュータ読み取り可能な情報記憶媒体であって、請求項1〜10のいずれかのプログラムを記憶したことを特徴とする情報記憶媒体。   A computer-readable information storage medium, wherein the program according to any one of claims 1 to 10 is stored. 光が照射された対象物を撮像し、撮像画像の認識処理を行う読み取り装置であって、
前記対象物を照射するための少なくとも1つの光源を可変に設定する光源設定部と、
前記対象物を撮像する撮像部と、
前記撮像部で撮像された撮像画像の認識処理を行う認識処理部と、を含み、
前記対象物は、前記光源の設定に応じて前記撮像部が受光する光の成分が変化するシンボルを含み、
前記光源設定部が、
少なくとも1つの光源に対して、第1の光源の設定と第2の光源設定とを排他的に行い、
前記認識処理部が、
前記第1の光源設定時に前記対象物を撮像した前記第1の撮像画像の認識処理と、前記第2の光源設定時に前記対象物を撮像した前記第2の撮像画像の認識処理とを行うことを特徴とする読み取り装置。
A reading apparatus that captures an image of an object irradiated with light and performs recognition processing of the captured image,
A light source setting unit that variably sets at least one light source for irradiating the object;
An imaging unit for imaging the object;
A recognition processing unit that performs recognition processing of a captured image captured by the imaging unit,
The object includes a symbol that changes a component of light received by the imaging unit according to the setting of the light source,
The light source setting unit is
For at least one light source, the first light source setting and the second light source setting are performed exclusively,
The recognition processing unit
Recognizing the first captured image obtained by imaging the object at the time of setting the first light source and recognizing processing of the second captured image obtained by imaging the object at the time of setting the second light source. A reader characterized by.
撮像画像の認識処理を行うサーバであって、
光が照射された対象物を撮像した撮像画像を、所与の端末からネットワークを介して受信する通信制御部と、
受信した前記撮像画像の認識処理を行う認識処理部と、を含み、
前記対象物は、可変に設定可能な光源の設定に応じて撮像部が受光する光の成分が変化するシンボルを含み、
前記通信制御部が、
少なくとも1つの光源に対して、排他的に第1の光源の設定と第2の光源設定とが行われた、当該第1の光源設定時に前記対象物を撮像した第1の撮像画像と、当該第2の光源設定時に前記対象物を撮像した第2の撮像画像とを受信する処理を行い、
前記認識処理部が、
前記第1の撮像画像の認識処理と、前記第2の撮像画像の認識処理とを行うことを特徴とするサーバ。
A server that performs recognition processing of a captured image,
A communication control unit that receives a captured image obtained by capturing an object irradiated with light from a given terminal via a network;
A recognition processing unit that performs a recognition process on the received captured image,
The object includes a symbol in which a component of light received by an imaging unit changes according to a light source setting that can be variably set,
The communication control unit
A first captured image obtained by capturing the object at the time of the first light source setting, in which the first light source setting and the second light source setting are performed exclusively for at least one light source; A process of receiving a second captured image obtained by capturing the object at the time of setting the second light source,
The recognition processing unit
A server that performs recognition processing of the first captured image and recognition processing of the second captured image.
JP2011025490A 2011-02-08 2011-02-08 Program, information storage medium, reader, and server Withdrawn JP2012164235A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011025490A JP2012164235A (en) 2011-02-08 2011-02-08 Program, information storage medium, reader, and server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011025490A JP2012164235A (en) 2011-02-08 2011-02-08 Program, information storage medium, reader, and server

Publications (1)

Publication Number Publication Date
JP2012164235A true JP2012164235A (en) 2012-08-30

Family

ID=46843550

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011025490A Withdrawn JP2012164235A (en) 2011-02-08 2011-02-08 Program, information storage medium, reader, and server

Country Status (1)

Country Link
JP (1) JP2012164235A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013022739A (en) * 2011-07-15 2013-02-04 Tomy Co Ltd Game system
WO2014199424A1 (en) * 2013-06-10 2014-12-18 日立マクセル株式会社 Image processing system, server, and image processing terminal
KR102187123B1 (en) * 2020-02-12 2020-12-04 주식회사 카카오뱅크 Server and Method for Detecting Hologram
KR102573975B1 (en) * 2022-06-15 2023-09-04 주식회사 코이웨어 Device and method for determining ID Authentication

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013022739A (en) * 2011-07-15 2013-02-04 Tomy Co Ltd Game system
WO2014199424A1 (en) * 2013-06-10 2014-12-18 日立マクセル株式会社 Image processing system, server, and image processing terminal
KR102187123B1 (en) * 2020-02-12 2020-12-04 주식회사 카카오뱅크 Server and Method for Detecting Hologram
WO2021162440A1 (en) * 2020-02-12 2021-08-19 주식회사 카카오뱅크 Hologram detection service providing server and hologram detection method
KR20210102830A (en) * 2020-02-12 2021-08-20 주식회사 카카오뱅크 Server and Method for Detecting Hologram
KR102447961B1 (en) * 2020-02-12 2022-09-27 주식회사 카카오뱅크 Server and Method for Detecting Hologram
US11625566B2 (en) 2020-02-12 2023-04-11 Kakaobank Corp. Hologram detection service providing server and hologram detection method
US11907783B2 (en) 2020-02-12 2024-02-20 Kakaobank Corp. Hologram detection service providing server and hologram detection method
KR102573975B1 (en) * 2022-06-15 2023-09-04 주식회사 코이웨어 Device and method for determining ID Authentication

Similar Documents

Publication Publication Date Title
JP2012164236A (en) Object
JP3442270B2 (en) Image generating apparatus and information storage medium
CN109999491A (en) The method and computer readable storage medium of image are rendered on head-mounted display
JP2013050881A (en) Information processing program, information processing system, information processor, and information processing method
WO2017094434A1 (en) Avatar display system, user terminal, and program
JP2011152297A (en) Program, information storage medium, game system
JP2012088782A (en) Image processing program, image processing device, image processing system, and image processing method
JP2011215968A (en) Program, information storage medium and object recognition system
JP2012164235A (en) Program, information storage medium, reader, and server
EP3767591A1 (en) Illumination effects from luminous inserted content
US20130109468A1 (en) Game processing system, game processing method, game processing apparatus, and computer-readable storage medium having game processing program stored therein
US8991691B2 (en) System and method for interactive mobile gaming
US9744443B2 (en) Server, terminal, network system, program and information storage medium
JP2012164234A (en) Program, information storage medium, reader, and server
TW478943B (en) Game machine, and image processing method for use with the game machine
JP5256153B2 (en) Image processing apparatus, image processing apparatus control method, and program
CN105718054A (en) Non-contact intelligent terminal control method, device and system of augmented reality object
JP7116410B2 (en) Program and image generation system
JP2010029375A (en) Game system, program, and information storage medium
JP2004073241A (en) Game system, program, and information storage medium
JP6034079B2 (en) Computer program and computer system
CN110882536A (en) Chess and play game system based on AR equipment
JP2009075739A (en) Program, information storage medium and image generation system
JP2003203250A (en) Shooting game device and information storage medium
JP4229317B2 (en) Image generation system, program, and information storage medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140513