JP6033431B2 - Information processing method, information processing apparatus, and information processing program - Google Patents

Information processing method, information processing apparatus, and information processing program Download PDF

Info

Publication number
JP6033431B2
JP6033431B2 JP2015523718A JP2015523718A JP6033431B2 JP 6033431 B2 JP6033431 B2 JP 6033431B2 JP 2015523718 A JP2015523718 A JP 2015523718A JP 2015523718 A JP2015523718 A JP 2015523718A JP 6033431 B2 JP6033431 B2 JP 6033431B2
Authority
JP
Japan
Prior art keywords
event
region
target portion
information processing
edge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015523718A
Other languages
Japanese (ja)
Other versions
JPWO2014207844A1 (en
Inventor
裕 陳野
裕 陳野
赤鹿 秀樹
秀樹 赤鹿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rakuten Group Inc
Original Assignee
Rakuten Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rakuten Inc filed Critical Rakuten Inc
Application granted granted Critical
Publication of JP6033431B2 publication Critical patent/JP6033431B2/en
Publication of JPWO2014207844A1 publication Critical patent/JPWO2014207844A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/30Payment architectures, schemes or protocols characterised by the use of specific devices or networks
    • G06Q20/32Payment architectures, schemes or protocols characterised by the use of specific devices or networks using wireless devices
    • G06Q20/327Short range or proximity payments by means of M-devices
    • G06Q20/3278RFID or NFC payments by means of M-devices

Description

本発明は、撮像手段により撮像された物体の動画像に基づいて特定部分を検出する方法等の技術分野に関する。   The present invention relates to a technical field such as a method for detecting a specific portion based on a moving image of an object imaged by an imaging means.

従来、カメラに近づいた人物の位置と距離と移動方向を検出し、その位置と距離と移動方向に基づいて情報を変更して表示部に提示する手法が知られている(特許文献1)。特許文献1に記載の手法では、カメラにより撮像された映像から、例えば顔の肌色の部分や目の幅などにより距離を推量し、その推量値に基づき、重ねて表示する映像の位置・大きさを変化させるようになっている。   Conventionally, a method is known in which the position, distance, and moving direction of a person approaching the camera is detected, and information is changed based on the position, distance, and moving direction and presented on a display unit (Patent Document 1). In the method described in Patent Document 1, a distance is estimated from, for example, a skin color portion of a face or the width of an eye from an image captured by a camera, and the position and size of an image to be displayed in an overlapping manner based on the estimated value. Is to change.

特開2006-330011号公報JP 2006-330011 A

ところで、近年の携帯端末は、非接触型ICチップを内蔵するカードとの間で近距離無線通信を行うことが可能になっている。携帯端末と非接触型ICチップとの間で近距離無線通信を確立させる場合、例えば、携帯端末の背面と、カードの平面とを略平行にして両者を近接させる必要がある。このように、携帯端末にカードを近接させる場面において、携帯端末とカードとの相対的な位置関係の変化により携帯端末にデータの入力又は出力などの処理を実行させることができれば便利である。一方、携帯端末の多くは、例えば背面側に配置されたカメラにより撮像される画像を前面側に形成されたディスプレイにリアルタイムで表示させる機能を有する。そのため、例えば、携帯端末とカードの間で近距離無線通信を確立させる際に、カードの平面を携帯端末のカメラで撮像することが可能である。このように撮像されたカードの映像から、携帯端末とカードとの相対的な位置関係(例えば、距離)を認識させるために、例えば特許公報1に開示された手法を利用することが考えられる。しかしながら、特許文献1に記載の手法では、被写体の表面に共通して存在する特徴量を利用して距離を推量する。そのため、被写体の表面から特徴量を取得できない場合には、特許文献1に記載の手法を利用することができない。   By the way, recent portable terminals can perform short-range wireless communication with a card incorporating a non-contact type IC chip. When establishing short-range wireless communication between a portable terminal and a non-contact type IC chip, for example, it is necessary to bring the back surface of the portable terminal and the plane of the card substantially parallel to bring them close to each other. Thus, it is convenient if the portable terminal can execute processing such as data input or output by a change in the relative positional relationship between the portable terminal and the card in a situation where the card is brought close to the portable terminal. On the other hand, many portable terminals have a function of displaying an image captured by a camera disposed on the back side in real time on a display formed on the front side. Therefore, for example, when establishing short-distance wireless communication between the mobile terminal and the card, the plane of the card can be imaged with the camera of the mobile terminal. In order to recognize the relative positional relationship (for example, distance) between the mobile terminal and the card from the image of the card imaged in this way, it is conceivable to use, for example, the technique disclosed in Japanese Patent Application Laid-Open No. 2005-151867. However, in the method described in Patent Document 1, the distance is estimated using a feature amount that is commonly present on the surface of the subject. Therefore, when the feature amount cannot be acquired from the surface of the subject, the method described in Patent Document 1 cannot be used.

本発明は、物体の表面に表れている情報に依存せずに、例えば携帯端末等の情報処理装置とカード等の物体との相対的な位置関係の変化を検出することが可能な情報処理装置、情報処理方法、情報処理プログラム、及び情報処理プログラムが記録された記録媒体を提供することを課題とする。   The present invention relates to an information processing apparatus capable of detecting a change in the relative positional relationship between an information processing apparatus such as a portable terminal and an object such as a card without depending on information appearing on the surface of the object. An object is to provide an information processing method, an information processing program, and a recording medium on which the information processing program is recorded.

上記課題を解決するために、請求項1に記載の発明は、情報処理プログラムが情報処理装置に行わせる情報処理方法であって、前記情報処理方法は、撮像手段により連続的に撮像される一連の画像を構成する基準画像において当該基準画像に表れる物体の縁を基準として特定可能な注目部分を決定する決定ステップと、前記決定された注目部分が前記基準画像に後続する複数の比較画像のいずれかにおいて変化したことを示す事象を検出する検出ステップと、前記検出された事象又は当該事象に関連する他の事象に対応する信号を出力する出力ステップと、を含み、前記物体は、データを記憶する記憶部と、当該物体と通信可能な装置からの要求に応じて前記データにアクセスする処理部と、を有するICモジュールを備え、前記情報処理方法は、前記出力ステップにより出力された信号と、前記記憶部のデータとに基づいて所定の処理を行うことを特徴とする。請求項2に記載の発明は、請求項1に記載の情報処理方法において、前記物体は、前記記憶部と前記処理部とを有するICモジュールを備えるカードであり、前記記憶部は、電子バリューの残高を示す残高データを記憶し、前記処理部は、近距離無線通信可能な距離範囲内にある装置から入力される残高変更情報を用いて前記記憶される残高データを変更する残高変更処理を実行し、処理結果を応答するものであり、前記情報処理方法は、前記出力された信号に応じて前記残高に加算されるべき金額を示すチャージ金額を設定する設定ステップと、前記チャージ金額分だけ前記記憶される残高データを変更させるための残高変更情報を、外部の残高変更装置から取得し前記ICモジュールに入力する入力ステップと、を更に含む、ことを特徴とする。この発明によれば、カードに備えられるICモジュールの記憶部に記憶された残高データを、当該カードと情報処理装置との相対的な位置関係を変化させることに変更させることができる。請求項3に記載の発明は、請求項1に記載の情報処理方法において、前記処理部は、近距離無線通信可能な距離範囲内にある装置からの要求に応じて前記データに対して所定の処理を実行し処理結果を応答するものであり、前記情報処理方法は、前記出力ステップにより出力された信号に応じて、前記所定の処理に用いられるパラメータを設定する設定ステップを更に含む、ことを特徴とする。この発明によれば、物体の記憶部に記憶されたデータに対する処理に用いられるパラメータを、当該物体と情報処理装置との相対的な位置関係を変化させることにより設定させることができる。請求項4に記載の発明は、請求項1乃至3の何れか一項に記載の情報処理方法において、前記決定ステップは、前記撮像手段により連続的に撮像される一連の画像を構成する基準画像において当該基準画像に表れる物体の直線状の第1の縁を第1の注目部分として決定し、かつ、当該第1の縁に直交する直線状の第2の縁を第2の注目部分として決定し、前記検出ステップは、前記決定された第1の注目部分と第2の注目部分が前記基準画像に後続する複数の比較画像のいずれかにおいて変化したことを示す事象を検出する検出ステップであって、前記決定された第1の注目部分の少なくとも一部を包含する第1の領域から当該第1の注目部分の垂線方向に位置する第2の領域に当該第1の注目部分が変位したことを示す第1の事象と、前記決定された第2の注目部分の少なくとも一部を包含する第3の領域から当該第2の注目部分の垂線方向に位置する第4の領域に当該第2の注目部分が変位したことを示す第2の事象と、をそれぞれ検出し、前記出力ステップは、前記第1の事象と前記第2の事象とが所定閾値以内の時間差で検出された場合に、当該第1の事象と当該第2の事象との合成事象に対応する信号を出力することを特徴とする。 In order to solve the above-described problem, an invention according to claim 1 is an information processing method that an information processing program causes an information processing apparatus to perform, and the information processing method is a series of images continuously captured by an imaging unit. A determination step of determining a target portion that can be specified with reference to an edge of an object appearing in the reference image in a reference image that constitutes the image, and any one of a plurality of comparison images in which the determined target portion follows the reference image A detection step for detecting an event indicating that the object has changed, and an output step for outputting a signal corresponding to the detected event or another event related to the detected event, wherein the object stores data. And an information processing method comprising: an IC module having a storage unit that performs processing and a processing unit that accesses the data in response to a request from a device capable of communicating with the object Is characterized by performing a predetermined process based a signal output by said output step, the data of the storage unit. The invention according to claim 2 is the information processing method according to claim 1, wherein the object is a card including an IC module having the storage unit and the processing unit, and the storage unit is an electronic value Balance data indicating a balance is stored, and the processing unit executes balance change processing for changing the stored balance data using balance change information input from a device within a short range wireless communication range. The information processing method is configured to set a charge amount indicating an amount to be added to the balance according to the output signal, and the amount corresponding to the charge amount An input step of acquiring balance change information for changing the stored balance data from an external balance change device and inputting the balance change information to the IC module. To. According to the present invention, the balance data stored in the storage unit of the IC module provided in the card can be changed to change the relative positional relationship between the card and the information processing apparatus. According to a third aspect of the present invention, in the information processing method according to the first aspect, the processing unit is configured to perform predetermined processing on the data in response to a request from a device within a short-range wireless communication range. A process is executed and a process result is returned, and the information processing method further includes a setting step of setting a parameter used for the predetermined process in accordance with the signal output by the output step. Features. According to this invention, it is possible to set parameters used for processing on data stored in the storage unit of an object by changing the relative positional relationship between the object and the information processing apparatus. According to a fourth aspect of the present invention, in the information processing method according to any one of the first to third aspects, the determining step includes a reference image that constitutes a series of images that are continuously captured by the imaging unit. In Step 1, the linear first edge of the object appearing in the reference image is determined as the first target portion, and the linear second edge orthogonal to the first edge is determined as the second target portion. The detection step is a detection step of detecting an event indicating that the determined first target portion and second target portion have changed in any of a plurality of comparison images subsequent to the reference image. The first target portion has been displaced from the first region including at least a part of the determined first target portion to the second region located in the perpendicular direction of the first target portion. A first event indicating The second region indicating that the second region of interest is displaced from the third region including at least a part of the determined second region of interest to the fourth region located in the perpendicular direction of the second region of interest. Each of the two events is detected, and the output step detects the first event and the second event when the first event and the second event are detected with a time difference within a predetermined threshold. A signal corresponding to a composite event with an event is output .

この発明によれば、空間内における情報処理装置と物体との相対的な位置関係の変化を、物体の表面に表れている情報に依存せずに、物体の縁を基準として特定可能な注目部分の変化により検出することができ、当該変化したことに応じた信号を出力することができる。また、空間内における情報処理装置と物体との相対的な位置関係の変化を、直交する二方向における注目部分の変位により検出することができ、注目部分が直交する二方向にほぼ同時に変位したことに応じた信号を出力することができる。 According to the present invention, the attention portion that can specify the change in the relative positional relationship between the information processing apparatus and the object in the space on the basis of the edge of the object without depending on the information appearing on the surface of the object. And a signal corresponding to the change can be output. In addition, the change in the relative positional relationship between the information processing device and the object in the space can be detected by the displacement of the target part in two orthogonal directions, and the target part is displaced almost simultaneously in two orthogonal directions. It is possible to output a signal according to.

請求項に記載の発明は、請求項に記載の情報処理方法において、前記第2の領域には、前記第1の領域を境に互いに逆方向に位置する2つの領域が含まれ、前記出力ステップは、前記第2の領域に含まれる2つの領域のうち前記注目部分が変位した先の領域に応じて異なる前記信号を出力することを特徴とする。 According to a fifth aspect of the present invention, in the information processing method according to the fourth aspect , the second area includes two areas positioned in opposite directions with respect to the first area, and The output step outputs the signal that differs depending on a previous region in which the target portion is displaced among the two regions included in the second region.

この発明によれば、注目部分が第1の領域を境に変位する方向に応じて異なる信号を出力することができる。   According to the present invention, it is possible to output different signals depending on the direction in which the target portion is displaced from the first region.

請求項に記載の発明は、請求項4または5に記載の情報処理方法において、前記第1の縁の少なくとも一部が前記第1の領域に収まり、かつ、前記第1の領域と前記第2の領域の境界が当該第1の縁に平行になり、かつ、前記第2の縁の少なくとも一部が前記第3の領域に収まり、かつ、前記第3の領域と前記第4の領域の境界が当該第2の縁に平行になるように、前記情報処理装置と前記物体との相対的な位置関係の調整を促す情報をユーザへ通知する通知ステップを更に含み、前記決定ステップは、前記第1の縁の少なくとも一部が前記第1の領域に収まり、かつ、前記第2の縁の少なくとも一部が前記第3の領域に収まる前記基準画像において、当該第1の縁を前記第1の注目部分として決定し、かつ、当該第2の縁を前記第2の注目部分として決定することを特徴とする。 According to a sixth aspect of the present invention, in the information processing method according to the fourth or fifth aspect , at least a part of the first edge fits in the first region, and the first region and the first region The boundary of the second region is parallel to the first edge, and at least a part of the second edge is within the third region, and the third region and the fourth region A notification step of notifying a user of information prompting adjustment of a relative positional relationship between the information processing apparatus and the object so that a boundary is parallel to the second edge; In the reference image in which at least a part of the first edge fits in the first area and at least a part of the second edge fits in the third area, the first edge is changed to the first area. And the second edge is determined as the second note. And determining a portion.

この発明によれば、直交する二方向における注目部分の変位を確実に検出することができるように、情報処理装置と物体との相対的な位置関係をユーザに調整させることができる。   According to the present invention, the relative positional relationship between the information processing apparatus and the object can be adjusted by the user so that the displacement of the target portion in the two orthogonal directions can be reliably detected.

請求項に記載の発明は、請求項4または5に記載の情報処理方法において、前記第1の縁の少なくとも一部が前記第1の領域に収まり、かつ、前記第1の領域と前記第2の領域の境界が当該第1の縁に平行になり、かつ、前記第2の縁の少なくとも一部が前記第3の領域に収まり、かつ、前記第3の領域と前記第4の領域の境界が当該第2の縁に平行になるように、当該第1から第4の領域をそれぞれ配置する配置ステップを更に含み、前記決定ステップは、前記第1の縁の少なくとも一部が前記第1の領域に収まり、かつ、前記第2の縁の少なくとも一部が前記第3の領域に収まる前記基準画像において、当該第1の縁を前記第1の注目部分として決定し、かつ、当該第2の縁を前記第2の注目部分として決定することを特徴とする。 According to a seventh aspect of the present invention, in the information processing method according to the fourth or fifth aspect , at least a part of the first edge fits in the first region, and the first region and the first region The boundary of the second region is parallel to the first edge, and at least a part of the second edge is within the third region, and the third region and the fourth region The method further includes an arranging step of arranging the first to fourth regions so that the boundary is parallel to the second edge, and the determining step includes at least a part of the first edge being the first edge. In the reference image in which at least a part of the second edge falls within the third area, the first edge is determined as the first attention part, and the second Is determined as the second target portion.

この発明によれば、ユーザが情報処理装置と物体との相対的な位置関係を調整しなくとも、直交する二方向における注目部分の変位を確実に検出することができるように、情報処理プログラムが第1〜第4の領域を配置することができる。   According to the present invention, the information processing program is provided so that the user can reliably detect the displacement of the target portion in two orthogonal directions without adjusting the relative positional relationship between the information processing apparatus and the object. First to fourth regions can be arranged.

請求項に記載の発明は、請求項4乃至7の何れか一項に記載の情報処理方法において、前記出力ステップは、前記第1の事象と前記第2の事象との検出の時間差に応じて、前記第1の事象のみに対応する第1の信号と、前記第2の事象のみに対応する第2の信号と、当該第1の事象と当該第2の事象との合成事象に対応する第3の信号と、のうちいずれかを選択的に出力することを特徴とする。 According to an eighth aspect of the present invention, in the information processing method according to any one of the fourth to seventh aspects, the output step corresponds to a detection time difference between the first event and the second event. A first signal corresponding only to the first event, a second signal corresponding only to the second event, and a combined event of the first event and the second event Any one of the third signals is selectively output.

この発明によれば、前記第1の事象と前記第2の事象との検出の時間差に応じて、3つの信号を使い分けることができる。   According to this invention, three signals can be used properly according to the time difference between the detection of the first event and the second event.

請求項に記載の発明は、請求項に記載の情報処理方法において、前記出力ステップは、前記第1の事象と前記第2の事象との検出順序に応じて異なる前記第3の信号を出力することを特徴とする。 According to a ninth aspect of the present invention, in the information processing method according to the eighth aspect , the output step outputs the third signal that differs according to the detection order of the first event and the second event. It is characterized by outputting.

この発明によれば、前記第1の事象と前記第2の事象との検出順序に応じて、2つの信号を使い分けることができる。   According to this invention, two signals can be used properly according to the detection order of the first event and the second event.

請求項10に記載の発明は、請求項4乃至9の何れか一項に記載の情報処理方法において、前記注目部分の少なくとも一部を包含する前記領域と当該注目部分の垂線方向に位置する前記領域との間の該垂線方向の距離が閾値以上に設定されていることを特徴とする。 A tenth aspect of the present invention is the information processing method according to any one of the fourth to ninth aspects, wherein the region including at least a part of the target portion and the perpendicular direction of the target portion are located. The distance between the region and the perpendicular direction is set to a threshold value or more.

この発明によれば、情報処理装置と物体との少なくとも何れか一方を持つユーザの手振れによる上記変位の検出を防ぎ、検出精度を向上させることができる。   According to the present invention, it is possible to prevent the detection of the displacement due to the hand shake of the user who has at least one of the information processing apparatus and the object, and improve the detection accuracy.

請求項11に記載の発明は、請求項4乃至10の何れか一項に記載の情報処理方法において、前記撮像手段は、所定の撮像間隔で連続的に撮像し、前記検出ステップは、前記所定の撮像間隔と前記注目部分の前記基準画像における位置からの変位量とに基づく加速度が所定パターンで変化するように当該注目部分が変位したことを示す前記事象を検出することを特徴とする。 An eleventh aspect of the present invention is the information processing method according to any one of the fourth to tenth aspects, wherein the imaging unit continuously captures images at a predetermined imaging interval, and the detection step includes the predetermined step. The event indicating that the target portion is displaced is detected so that the acceleration based on the imaging interval and the displacement amount of the target portion from the position in the reference image changes in a predetermined pattern.

この発明によれば、情報処理装置と物体との少なくとも何れか一方を持つユーザの手振れによる上記変位の検出を防ぎ、検出精度を向上させることができる。   According to the present invention, it is possible to prevent the detection of the displacement due to the hand shake of the user who has at least one of the information processing apparatus and the object, and improve the detection accuracy.

請求項12に記載の発明は、撮像手段により連続的に撮像される一連の画像を構成する基準画像において当該基準画像に表れる物体の縁を基準として特定可能な注目部分を決定する決定手段と、前記決定された注目部分が前記基準画像に後続する複数の比較画像のいずれかにおいて変化したことを示す事象を検出する検出手段と、前記検出された事象又は当該事象に関連する他の事象に対応する信号を出力する出力手段と、を備える情報処理装置であって、前記物体は、データを記憶する記憶部と、当該物体と通信可能な装置からの要求に応じて前記データにアクセスする処理部と、を有するICモジュールを備え、前記情報処理装置は、前記出力手段により出力された信号と、前記記憶部のデータとに基づいて所定の処理を行うことを特徴とする。請求項13に記載の発明は、撮像手段により連続的に撮像される一連の画像を構成する基準画像において当該基準画像に表れる物体の縁を基準として特定可能な注目部分を決定する決定ステップと、前記決定された注目部分が前記基準画像に後続する複数の比較画像のいずれかにおいて変化したことを示す事象を検出する検出ステップと、前記検出された事象又は当該事象に関連する他の事象に対応する信号を出力する出力ステップと、をコンピュータに実行させる情報処理プログラムであって、前記物体は、データを記憶する記憶部と、当該物体と通信可能な装置からの要求に応じて前記データにアクセスする処理部と、を有するICモジュールを備え、前記情報処理プログラムは、前記コンピュータに、前記出力ステップにより出力された信号と、前記記憶部のデータとに基づいて所定の処理を行わせることを特徴とする。 The invention according to claim 12 is a determining unit that determines a target portion that can be specified with reference to an edge of an object appearing in the reference image in a reference image that constitutes a series of images continuously captured by the imaging unit; Detecting means for detecting an event indicating that the determined portion of interest has changed in any of a plurality of comparison images subsequent to the reference image; and corresponding to the detected event or another event related to the event Output means for outputting a signal to be output, wherein the object is a storage unit that stores data, and a processing unit that accesses the data in response to a request from a device that can communicate with the object And the information processing device performs predetermined processing based on the signal output by the output unit and data in the storage unit. To. The invention according to claim 13 is a determination step of determining a target portion that can be specified with reference to an edge of an object appearing in the reference image in a reference image that constitutes a series of images continuously captured by the imaging unit; A detection step for detecting an event indicating that the determined portion of interest has changed in any of a plurality of comparison images subsequent to the reference image; and corresponding to the detected event or another event related to the event An information processing program for causing a computer to execute an output step of outputting a signal to be executed, wherein the object accesses the data in response to a request from a storage unit that stores data and a device that can communicate with the object And the information processing program is output to the computer through the output step. A signal, characterized in that to perform a predetermined process based on the data of the storage unit.

本発明によれば、空間内における情報処理装置と物体との相対的な位置関係の変化を、物体の表面に表れている情報に依存せずに、物体の縁を基準として特定可能な注目部分の変化により検出することができ、当該変化したことに応じた信号を出力することができる。   According to the present invention, it is possible to specify a change in the relative positional relationship between the information processing apparatus and the object in the space on the basis of the edge of the object without depending on the information appearing on the surface of the object. And a signal corresponding to the change can be output.

本発明の実施形態において用いられる板カード1と携帯端末2を示す図である。It is a figure which shows the board card 1 and the portable terminal 2 which are used in embodiment of this invention. (A)は、携帯端末2の概要構成例を示す図であり、(B)は、制御部28における機能ブロックの一例を示す図である。(A) is a figure which shows the example of a schematic structure of the portable terminal 2, (B) is a figure which shows an example of the functional block in the control part 28. FIG. 注目部分の変位事象の例を示す図である。It is a figure which shows the example of the displacement event of an attention part. 注目部分の変位事象の例を示す図である。It is a figure which shows the example of the displacement event of an attention part. 注目部分の変位事象の例を示す図である。It is a figure which shows the example of the displacement event of an attention part. 注目部分の変位事象の例を示す図である。It is a figure which shows the example of the displacement event of an attention part. 注目部分の変位事象の例を示す図である。It is a figure which shows the example of the displacement event of an attention part. 注目部分の変位事象の例を示す図である。It is a figure which shows the example of the displacement event of an attention part. 注目部分の変位事象の例を示す図である。It is a figure which shows the example of the displacement event of an attention part. (A)は、横向きにされた板カード1の縁と、縦向きにされた携帯端末2の縁とが平行な状態で、板カード1が撮像された場合における注目部分を示す図であり、(B)は、注目部分を包含する領域と当該注目部分の垂線方向に位置する領域との間の該垂線方向の距離が閾値以上に設定された例を示す図である。(A) is a figure which shows the attention part in case the board card 1 is imaged in the state in which the edge of the board card 1 turned sideways and the edge of the portable terminal 2 made vertical are parallel, (B) is a diagram showing an example in which the distance in the perpendicular direction between the region including the target portion and the region located in the normal direction of the target portion is set to be equal to or greater than a threshold value. 注目部分の変位事象検出及び信号出力処理の一例を示すフローチャートである。It is a flowchart which shows an example of the displacement event detection and signal output process of an attention part. 本発明が適用される電子マネーシステムSの概要構成例を示す図である。It is a figure showing an example of outline composition of electronic money system S to which the present invention is applied. 電子バリューのチャージ動作の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the charge operation of electronic value. 電子マネーカード1と携帯端末2との相対的な位置関係の変化によりチャージ金額が設定される様子を示す図である。It is a figure which shows a mode that charge amount is set by the change of the relative positional relationship of the electronic money card 1 and the portable terminal 2. FIG. 電子マネーカード1と携帯端末2との相対的な位置関係の変化によりチャージ金額が設定される様子を示す図である。It is a figure which shows a mode that charge amount is set by the change of the relative positional relationship of the electronic money card 1 and the portable terminal 2. FIG. 携帯端末2による情報取得動作の一例を示すシーケンス図である。It is a sequence diagram which shows an example of the information acquisition operation by the portable terminal. 電子マネーカード1と携帯端末2との相対的な位置関係の変化により情報種別が設定される様子を示す図である。It is a figure which shows a mode that an information type is set by the change of the relative positional relationship of the electronic money card 1 and the portable terminal 2. FIG.

以下、図面を参照して本発明の実施形態について説明する。
[1.本発明の実施形態]
先ず、本発明の実施形態について図1〜図11を用いて説明する。図1は、本発明の実施形態において用いられる板カード1と携帯端末2を示す図である。図2(A)は、携帯端末2の概要構成例を示す図である。板カード1は、本発明における物体の一例であり、携帯端末2は、本発明における情報処理装置の一例である。なお、本発明は、板カード1に対して適用されることが望ましいが、板カード1以外の例えばキーホルダー、財布、定期入れ、腕時計等に対しても適用可能である。また、本発明は、携帯端末2に適用されることが望ましいが、据置型のパーソナルコンピュータ等に対しても適用可能である。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[1. Embodiment of the Invention]
First, an embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a diagram showing a board card 1 and a portable terminal 2 used in the embodiment of the present invention. FIG. 2A is a diagram illustrating a schematic configuration example of the mobile terminal 2. The board card 1 is an example of an object in the present invention, and the mobile terminal 2 is an example of an information processing apparatus in the present invention. Although the present invention is preferably applied to the board card 1, it can also be applied to, for example, a key holder, a wallet, a periodic case, a wristwatch, and the like other than the board card 1. Further, the present invention is preferably applied to the mobile terminal 2, but can also be applied to a stationary personal computer or the like.

板カード1は、例えば国際標準規格等で寸法が定められた平板状のカードである。板カード1には、例えば電子マネーカード、クレジットカード、会員カード等が適用可能である。なお、本発明は、非接触型ICチップを搭載する板カード1と、非接触型ICチップを搭載しない板カード1との双方に適用可能である。板カード1に搭載される非接触型ICチップは、例えば13.56MHz帯の周波数を使った近距離無線通信(NFC:Near Field Communication)技術を採用したICモジュールである。板カード1に搭載される非接触型ICチップは、アンテナと、データを記憶する記憶部(例えば、不揮発性メモリ)と、近距離無線通信可能な距離範囲内にある携帯端末2からの要求に応じて記憶部に記憶されたデータに対して所定の処理を実行し処理結果を応答する処理部(例えば、CPU)とを備える。また、図1に示す板カード1の形状は、角に丸みを有する長方形であるが、正方形、菱形、円形等であってもよい。   The board card 1 is a flat card whose dimensions are determined by, for example, international standards. For the board card 1, for example, an electronic money card, a credit card, a membership card, or the like can be applied. The present invention is applicable to both the board card 1 on which a non-contact type IC chip is mounted and the board card 1 on which a non-contact type IC chip is not mounted. The non-contact type IC chip mounted on the board card 1 is an IC module that employs Near Field Communication (NFC) technology using, for example, a 13.56 MHz band frequency. The non-contact type IC chip mounted on the board card 1 responds to a request from an antenna, a storage unit (for example, a nonvolatile memory) that stores data, and a portable terminal 2 that is within a distance range capable of short-range wireless communication. Accordingly, a processing unit (for example, a CPU) that performs a predetermined process on the data stored in the storage unit and responds with a processing result is provided. The shape of the board card 1 shown in FIG. 1 is a rectangle having rounded corners, but may be a square, a rhombus, a circle, or the like.

携帯端末2は、ユーザにより携帯可能であり、例えば、スマートフォン、携帯電話機、ゲーム機、タブレット型コンピュータなどが適用可能である。携帯端末2は、図2に示すように、カメラ21(撮像手段の一例)、表示部22、スピーカ23、操作部24、記憶部25、近距離無線通信部26、移動体無線通信部27、及び制御部28等を備えて構成される。カメラ21、表示部22、スピーカ23、操作部24、記憶部25、近距離無線通信部26、及び移動体無線通信部27は、入出力インターフェース部(図示せず)及びバス29を介して制御部28に接続される。   The portable terminal 2 can be carried by a user, and for example, a smartphone, a mobile phone, a game machine, a tablet computer, etc. can be applied. As shown in FIG. 2, the mobile terminal 2 includes a camera 21 (an example of an imaging unit), a display unit 22, a speaker 23, an operation unit 24, a storage unit 25, a short-range wireless communication unit 26, a mobile wireless communication unit 27, And a control unit 28 and the like. The camera 21, display unit 22, speaker 23, operation unit 24, storage unit 25, short-range wireless communication unit 26, and mobile wireless communication unit 27 are controlled via an input / output interface unit (not shown) and the bus 29. Connected to the unit 28.

カメラ21は、例えば携帯端末2の背面側に設置されており、ユーザの指示にしたがって被写体を撮像(撮影)する。カメラ21による撮像モードとして、動画像の撮像モードと、静止画像の撮像モードとが選択可能になっている。カメラ21により撮像された画像は、例えば記憶部25に割り当てられた画像記憶領域に記憶されるとともに、表示部22におけるディスプレイD上に表示される。表示部22は、例えばタッチパネル方式のディスプレイD等により構成される。ディスプレイDは、例えば携帯端末2の表面側に設置されており、制御部28からの制御信号にしたがって、ユーザ指定可能なアイコンを配列する画面や、カメラ21により撮像された板カード1の画像等を表示する。スピーカ23は、制御部28からの音声信号を音声として外部へ出力する。操作部24は、ユーザからの指示を入力するための入力ボタン等により構成される。操作部24は、タッチパネル方式のディスプレイDに表示されたアイコンを介して指示を入力することができる。   The camera 21 is installed on the back side of the mobile terminal 2, for example, and images (photographs) a subject according to a user instruction. As an imaging mode by the camera 21, a moving image imaging mode and a still image imaging mode can be selected. For example, the image captured by the camera 21 is stored in an image storage area allocated to the storage unit 25 and displayed on the display D in the display unit 22. The display unit 22 includes a touch panel display D, for example. The display D is installed, for example, on the front side of the mobile terminal 2, and a screen for arranging user-designable icons according to a control signal from the control unit 28, an image of the board card 1 captured by the camera 21, and the like. Is displayed. The speaker 23 outputs the audio signal from the control unit 28 to the outside as audio. The operation unit 24 includes an input button for inputting an instruction from the user. The operation unit 24 can input an instruction via an icon displayed on the touch panel display D.

記憶部25は、例えばフラッシュメモリやEEPROM等の不揮発性メモリ等により構成される。記憶部25には、OS(Operating System)及び各種アプリケーションプログラム等が記憶されている。アプリケーションプログラムには、本発明の情報処理プログラムが含まれる。なお、アプリケーションプログラムは、例えばインターネットに接続される所定のサーバからダウンロードすることができる。或いは、アプリケーションプログラムは、CD(Compact Disc)、DVD(Digital Versatile Disc)などの記録媒体に記録され、当該記録媒体からドライブを介して記憶部25に読み込まれるものであってもよい。   The storage unit 25 is configured by a nonvolatile memory such as a flash memory or an EEPROM, for example. The storage unit 25 stores an OS (Operating System), various application programs, and the like. The application program includes the information processing program of the present invention. The application program can be downloaded from a predetermined server connected to the Internet, for example. Alternatively, the application program may be recorded on a recording medium such as a CD (Compact Disc) or a DVD (Digital Versatile Disc) and read from the recording medium into the storage unit 25 via a drive.

近距離無線通信部26は、例えば13.56MHz帯の周波数を使った近距離無線通信(NFC)技術を採用したICモジュール、及びアンテナ等により構成される。近距離無線通信部26は、非接触型ICチップを内蔵する板カード1が近距離無線通信可能な距離範囲内に近接した場合に、当該非接触型ICチップとの間で通信を行うようになっている。移動体無線通信部27は、移動体通信ネットワークにおける基地局との間で無線通信を行うようになっている。これにより、制御部28は、例えばインターネットを介して所定のサーバにアクセスし、当該サーバとの間で通信を行うこととができる。   The near field communication unit 26 includes, for example, an IC module that employs near field communication (NFC) technology using a 13.56 MHz band frequency, an antenna, and the like. The short-range wireless communication unit 26 communicates with the non-contact type IC chip when the board card 1 containing the non-contact type IC chip comes close to within a distance range where short-range wireless communication is possible. It has become. The mobile wireless communication unit 27 performs wireless communication with a base station in the mobile communication network. Thereby, the control part 28 can access a predetermined server via the internet, for example, and can communicate with the said server.

制御部28は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、及びRAM(Random Access Memory)等により構成される。図2(B)は、制御部28における機能ブロックの一例を示す図である。制御部28は、例えば記憶部25に記憶された情報処理プログラムにしたがって後述する処理を実行する。このような処理において、制御部28は、図2(B)に示すように、注目部分決定部28a、変化事象検出部28b、情報通知部28c、領域配置部28d、信号出力部28e、及び処理部28f等として機能する。なお、注目部分決定部28aは、本発明における決定手段の一例である。変化事象検出部28bは、本発明における検出手段の一例である。信号出力部28eは、本発明における出力手段の一例である。   The control unit 28 includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. FIG. 2B is a diagram illustrating an example of functional blocks in the control unit 28. For example, the control unit 28 executes processing to be described later according to an information processing program stored in the storage unit 25. In such processing, as shown in FIG. 2 (B), the control unit 28 includes a target portion determination unit 28a, a change event detection unit 28b, an information notification unit 28c, a region arrangement unit 28d, a signal output unit 28e, and a process. It functions as the part 28f. The attention portion determination unit 28a is an example of a determination unit in the present invention. The change event detection unit 28b is an example of detection means in the present invention. The signal output unit 28e is an example of output means in the present invention.

注目部分決定部28aは、例えば板カード1と携帯端末2とが近接された状態において、カメラ21により所定の撮像間隔で連続的に撮像される一連の画像を取り込み、当該一連の画像を構成する基準画像において当該基準画像に表れる板カード1の縁を基準として特定可能な注目部分を決定する。ここで、一連の画像には、動画像の撮像モードにおいて撮像された動画像、及び静止画像の撮像モードにおいて連続撮像(連写)された一連の静止画像が該当する。例えば、注目部分決定部28aは、基準画像に表れる板カード1の直線状の縁を検出し、検出した直線状の縁を注目部分として決定する。注目部分は、1つ又は複数決定される。例えば、注目部分が2つである場合、注目部分決定部28aは、基準画像に表れる板カード1の直線状の第1の縁を第1の注目部分として決定し、かつ、当該第1の縁に直交する直線状の第2の縁を第2の注目部分として決定する。   For example, in the state where the board card 1 and the portable terminal 2 are close to each other, the attention portion determination unit 28a captures a series of images continuously captured at a predetermined imaging interval by the camera 21 and configures the series of images. In the reference image, a target portion that can be specified with reference to the edge of the board card 1 appearing in the reference image is determined. Here, the series of images corresponds to a moving image captured in the moving image capturing mode and a series of still images continuously captured (continuous shooting) in the still image capturing mode. For example, the attention portion determination unit 28a detects the straight edge of the board card 1 appearing in the reference image, and determines the detected straight edge as the attention portion. One or more attention portions are determined. For example, when there are two attention portions, the attention portion determination unit 28a determines the first linear edge of the board card 1 appearing in the reference image as the first attention portion, and the first edge Is determined as a second target portion.

変化事象検出部28bは、注目部分決定部28aにより決定された注目部分が基準画像に後続する複数の比較画像のいずれかにおいて変化したことを示す事象を検出する。ここで、「比較画像」は、時間的に近接(例えば、基準画像の撮像時間から1秒〜2秒程度)している必要があるが、基準画像の直ぐ次の画像である必要はない。例えば、変化事象検出部28bは、注目部分の少なくとも一部を包含する第1の領域から当該注目部分上の任意の2点を通る直線の垂線方向に位置する第2の領域に当該注目部分が変位(つまり、注目部分の位置が変化)したことを示す事象を検出する。比較画像における注目部分は、基準画像と同じように、比較画像に表れる板カード1の直線状の縁を検出することで特定される。本実施形態では、板カード1の表面に表れている情報に依存せず、基準画像と比較画像のそれぞれにおいて板カード1の縁を検出するのである。また、上述したように決定された注目部分が2つである場合、変化事象検出部28bは、決定された第1の注目部分の少なくとも一部を包含する第1の領域から当該第1の注目部分の垂線方向(つまり、第1の注目部分上の任意の2点を通る直線の垂線方向)に位置する第2の領域に当該第1の注目部分が変位したことを示す第1の事象と、決定された第2の注目部分の少なくとも一部を包含する第3の領域から当該第2の注目部分の垂線方向(つまり、第2の注目部分上の任意の2点を通る直線の垂線方向)に位置する第4の領域に当該第2の注目部分が変位したことを示す第2の事象と、をそれぞれ検出する。なお、上記「第2の領域」には、第1の注目部分上の任意の2点を通る直線を境に互いに逆方向に位置する2つの領域が含まれる。また、上記「第4の領域」には、第2の注目部分上の任意の2点を通る直線を境に互いに逆方向に位置する2つの領域が含まれる。   The change event detection unit 28b detects an event indicating that the target portion determined by the target portion determination unit 28a has changed in any of a plurality of comparison images subsequent to the reference image. Here, the “comparison image” needs to be close in time (for example, about 1 to 2 seconds from the imaging time of the reference image), but does not have to be the next image immediately after the reference image. For example, the change event detection unit 28b detects that the target portion is located in a second region located in a perpendicular direction of a straight line passing through any two points on the target portion from the first region including at least a part of the target portion. An event indicating that the displacement (that is, the position of the target portion has changed) is detected. The attention portion in the comparison image is specified by detecting the straight edge of the board card 1 appearing in the comparison image, as in the reference image. In the present embodiment, the edge of the board card 1 is detected in each of the reference image and the comparison image without depending on the information appearing on the surface of the board card 1. In addition, when there are two attention parts determined as described above, the change event detection unit 28b determines the first attention from the first region including at least a part of the determined first attention part. A first event indicating that the first part of interest is displaced in a second region located in the direction of the normal of the part (that is, the direction of the perpendicular of a straight line passing through any two points on the first part of interest); , A perpendicular direction of the second target portion from the third region including at least a part of the determined second target portion (that is, a normal direction of a straight line passing through two arbitrary points on the second target portion) And a second event indicating that the second portion of interest has been displaced in the fourth region located at). The “second region” includes two regions located in opposite directions with respect to a straight line passing through two arbitrary points on the first target portion. The “fourth region” includes two regions located in opposite directions with respect to a straight line passing through two arbitrary points on the second target portion.

以下の説明では、注目部分が変位したことを示す事象を「注目部分の変位事象」といい、このうち、特に、第1の注目部分が変位したことを示す第1の事象を「注目部分の第1変位事象」と、第2の注目部分が変位したことを示す第2の事象を「注目部分の第2変位事象」と、それぞれいうものとする。   In the following description, an event indicating that the attention portion has been displaced is referred to as a “displacement event of the attention portion”. Among these, in particular, the first event indicating that the first attention portion has been displaced is referred to as the The “first displacement event” and the second event indicating that the second portion of interest has been displaced are referred to as the “second displacement event of the portion of interest”, respectively.

ここで、注目部分の変位事象の例について、図3〜図9を用いて説明する。図3〜図9は、注目部分の変位事象の例を示す図である。なお、図3〜図9の例では、基準画像と比較画像には、それぞれ、略長方形状の縁を有する板カード1が表れている。なお、図3及び図4の例に示される領域A1aは、上記「第1の領域」の一例であり、領域A1b及び領域A1cは、それぞれ、上記「第2の領域」の一例である。また、図5〜図9に示される領域A2aは、上記「第3の領域」の一例であり、領域A2b及び領域A2cは、それぞれ、上記「第4の領域」の一例である。これらの領域の位置(つまり、基準画像と比較画像に対応する画像フレームにおける座標)は、例えば予め設定される。なお、図3〜図9に示す領域の位置及び数は、あくまで例示にすぎず、図3〜図9に示される領域より多い数の領域が設定される場合もある。   Here, an example of the displacement event of the target portion will be described with reference to FIGS. 3-9 is a figure which shows the example of the displacement event of an attention part. In the example of FIGS. 3 to 9, the board card 1 having a substantially rectangular edge appears in the reference image and the comparative image, respectively. The area A1a shown in the examples of FIGS. 3 and 4 is an example of the “first area”, and the area A1b and the area A1c are examples of the “second area”. 5 to 9 are examples of the “third area”, and the areas A2b and A2c are examples of the “fourth area”. The positions of these regions (that is, the coordinates in the image frame corresponding to the reference image and the comparison image) are set in advance, for example. Note that the positions and numbers of the areas illustrated in FIGS. 3 to 9 are merely examples, and a larger number of areas than the areas illustrated in FIGS. 3 to 9 may be set.

図3(A)の例では、基準画像に表れた板カード1の縁のうち、領域A1aに含まれる直線状の縁が注目部分P1として決定されている。そして、図3(A)に示す状態から、ユーザが板カード1又は携帯端末2を横方向に平行移動(例えば、図面の右方向に板カード1を平行移動)させた後の比較画像(例えば、数フレーム後)では、図3(B)に示すように、注目部分P1は領域A1aから領域A1bに変位している。一方、図3(A)に示す状態から、ユーザが板カード1又は携帯端末2を、図3(B)とは逆の方向に平行移動(例えば、図面の左方向に板カード1を平行移動)させた後の比較画像では、図3(C)に示すように、注目部分P1は領域A1aから領域A1cに変位している。図3(B)に示す注目部分P1の変位事象と、図3(C)に示す注目部分P1の変位事象とは、変化事象検出部28bにより区別して検出される。これにより、空間内における携帯端末2と板カード1との相対的な位置関係の変化を、一方向における注目部分の変位事象により検出することができる。   In the example of FIG. 3A, a straight edge included in the area A1a is determined as the target portion P1 among the edges of the board card 1 appearing in the reference image. Then, from the state shown in FIG. 3A, the comparison image (for example, after the user has translated the board card 1 or the portable terminal 2 in the horizontal direction (for example, the board card 1 is translated in the right direction in the drawing)). After several frames), as shown in FIG. 3B, the target portion P1 is displaced from the region A1a to the region A1b. On the other hand, from the state shown in FIG. 3A, the user translates the board card 1 or the portable terminal 2 in the direction opposite to that in FIG. 3B (for example, the board card 1 is translated in the left direction of the drawing). )), The target portion P1 is displaced from the region A1a to the region A1c as shown in FIG. 3C. The displacement event of the target portion P1 shown in FIG. 3 (B) and the displacement event of the target portion P1 shown in FIG. 3 (C) are detected separately by the change event detection unit 28b. Thereby, the change of the relative positional relationship of the portable terminal 2 and the board card 1 in space can be detected by the displacement event of the attention part in one direction.

次に、図4(A)の例でも、図3(A)と同様、領域A1aに含まれる直線状の縁が注目部分P1として決定されている。そして、図4(A)に示す状態から、ユーザが板カード1と携帯端末2とを遠ざけた(図面の垂直方向に遠ざけた)後の比較画像では、図4(B)に示すように、注目部分P1は領域A1aから領域A1bに変位している。一方、図4(A)に示す状態から、ユーザが板カード1と携帯端末2とを近づけた(図面の垂直方向に近づけた)後の比較画像では、図4(C)に示すように、注目部分P1は領域A1aから領域A1cに変位している。この場合も、図4(B)に示す注目部分P1の変位事象と、図4(C)に示す注目部分P1の変位事象とは、変化事象検出部28bにより区別して検出される。   Next, also in the example of FIG. 4A, the straight edge included in the region A1a is determined as the attention portion P1, as in FIG. 3A. And in the comparative image after the user moved away the board card 1 and the portable terminal 2 from the state shown in FIG. 4 (A), as shown in FIG. 4 (B), The attention portion P1 is displaced from the region A1a to the region A1b. On the other hand, in the comparative image after the user brings the board card 1 and the portable terminal 2 closer (closer to the vertical direction of the drawing) from the state shown in FIG. 4A, as shown in FIG. The attention portion P1 is displaced from the region A1a to the region A1c. Also in this case, the displacement event of the target portion P1 shown in FIG. 4B and the displacement event of the target portion P1 shown in FIG.

次に、図5(A)の例では、基準画像に表れた板カード1の縁のうち、領域A1aに含まれる直線状の縁が第1の注目部分P1として決定され、かつ、領域A2aに一部が含まれる直線状の縁が第2の注目部分P2として決定されている。そして、図5(A)に示す状態から、ユーザが板カード1又は携帯端末2を斜方向に平行移動(例えば、図面の斜右下方向に板カード1を平行移動)させた後の比較画像では、図5(B)に示すように、注目部分P1は領域A1aから領域A1bに変位し、かつ、注目部分P2は領域A2aから領域A2bに変位している。一方、図5(A)に示す状態から、ユーザが板カード1又は携帯端末2を、図5(B)とは逆の方向に平行移動(例えば、図面の斜左上方向に板カード1を平行移動)させた後の比較画像では、図5(C)に示すように、注目部分P1は領域A1aから領域A1cに変位し、かつ、注目部分P2は領域A2aから領域A2cに変位している。図5(B)に示す注目部分P1の第1変位事象と、図5(B)に示す注目部分P2の第2変位事象と、図5(C)に示す注目部分P1の第1変位事象と、図5(C)に示す注目部分P2の第2変位事象とは、変化事象検出部28bにより区別して検出される。このように、図5に示す例では、直交する二方向の変位事象を検出することが可能となる。これにより、空間内における携帯端末2と板カード1との相対的な位置関係の変化を、直交する二方向における注目部分の変位事象により検出することができる。   Next, in the example of FIG. 5A, among the edges of the board card 1 appearing in the reference image, the linear edge included in the area A1a is determined as the first target portion P1, and the area A2a A straight edge including a part is determined as the second target portion P2. Then, the comparison image after the user has translated the board card 1 or the portable terminal 2 in the oblique direction from the state shown in FIG. 5A (for example, the board card 1 is translated in the diagonally lower right direction in the drawing). Then, as shown in FIG. 5B, the target portion P1 is displaced from the region A1a to the region A1b, and the target portion P2 is displaced from the region A2a to the region A2b. On the other hand, from the state shown in FIG. 5A, the user translates the board card 1 or the portable terminal 2 in the direction opposite to that in FIG. 5B (for example, the board card 1 is parallel to the diagonally upper left direction in the drawing). In the comparative image after the movement), as shown in FIG. 5C, the target portion P1 is displaced from the region A1a to the region A1c, and the target portion P2 is displaced from the region A2a to the region A2c. The first displacement event of the target portion P1 shown in FIG. 5 (B), the second displacement event of the target portion P2 shown in FIG. 5 (B), and the first displacement event of the target portion P1 shown in FIG. 5 (C). The second displacement event of the target portion P2 shown in FIG. 5C is detected by being distinguished by the change event detection unit 28b. As described above, in the example shown in FIG. 5, it is possible to detect displacement events in two orthogonal directions. Thereby, the change in the relative positional relationship between the mobile terminal 2 and the board card 1 in the space can be detected by the displacement event of the target portion in two orthogonal directions.

次に、図6(A)の例では、図5(A)と同様、基準画像に表れた板カード1の縁のうち、領域A1aに含まれる直線状の縁が第1の注目部分P1として決定され、かつ、領域A2aに一部が含まれる直線状の縁が第2の注目部分P2として決定されている。そして、図6(A)に示す状態から、ユーザが板カード1と携帯端末2とを遠ざけた後の比較画像では、図6(B)に示すように、注目部分P1は領域A1aから領域A1bに変位し、かつ、注目部分P2は領域A2aから領域A2bに変位している。一方、図6(A)に示す状態から、ユーザが板カード1と携帯端末2とを近づけた後の比較画像では、図6(C)に示すように、注目部分P1は領域A1aから領域A1cに変位し、かつ、注目部分P2は領域A2aから領域A2cに変位している。図6(B)に示す注目部分P1の第1変位事象と、図6(B)に示す注目部分P2の第2変位事象と、図6(C)に示す注目部分P1の第1変位事象と、図6(C)に示す注目部分P2の第2変位事象とは、変化事象検出部28bにより区別して検出される。このように、図6に示す例では、直交する二方向の変位事象を検出することが可能となる。また、図6に示す例では、図6(B)に示す注目部分P1の第1変位事象と、図6(B)に示す注目部分P2の第2変位事象とは、ほぼ同時に(所定閾値以内の時間差で)検出される。同様に、図6(C)に示す注目部分P1の第1変位事象と、図6(C)に示す注目部分P2の第2変位事象とは、ほぼ同時に(所定閾値以内の時間差で)検出される。   Next, in the example of FIG. 6A, as in FIG. 5A, the straight edge included in the area A1a among the edges of the board card 1 appearing in the reference image is the first target portion P1. A straight edge that is determined and partly included in the region A2a is determined as the second target portion P2. Then, in the comparative image after the user moves the board card 1 and the portable terminal 2 away from the state shown in FIG. 6A, as shown in FIG. 6B, the attention portion P1 is changed from the area A1a to the area A1b. And the target portion P2 is displaced from the region A2a to the region A2b. On the other hand, in the comparative image after the user brings the board card 1 and the portable terminal 2 closer to each other from the state shown in FIG. 6A, as shown in FIG. And the target portion P2 is displaced from the region A2a to the region A2c. The first displacement event of the target portion P1 shown in FIG. 6 (B), the second displacement event of the target portion P2 shown in FIG. 6 (B), and the first displacement event of the target portion P1 shown in FIG. 6 (C). The second displacement event of the target portion P2 shown in FIG. 6C is detected by being distinguished by the change event detecting unit 28b. Thus, in the example shown in FIG. 6, it becomes possible to detect displacement events in two orthogonal directions. In the example shown in FIG. 6, the first displacement event of the target portion P1 shown in FIG. 6B and the second displacement event of the target portion P2 shown in FIG. 6B are almost simultaneously (within a predetermined threshold). Is detected). Similarly, the first displacement event of the target portion P1 shown in FIG. 6C and the second displacement event of the target portion P2 shown in FIG. 6C are detected almost simultaneously (with a time difference within a predetermined threshold). The

なお、図3〜図6の例では、横向きにされた板カード1の縁と、横向きにされた携帯端末2の縁とが平行な状態で、当該板カード1が撮像された場合を想定しているが、板カード1の縁と携帯端末2の縁とが非平行な状態で板カード1が撮像される場合が想定される。この場合、情報通知部28cが、板カード1の直線状の縁の少なくとも一部が領域A1aに収まり、かつ、領域A1aと領域A1b(又は領域A1c)の境界が当該直線状の縁に平行になるように、携帯端末2と板カード1との相対的な位置関係の調整を促す情報をユーザへ通知するように構成してもよい。これにより、変化事象検出部28bが一方向における注目部分の変位事象を確実に検出することができるように、携帯端末2と板カード1との相対的な位置関係をユーザに調整させることができる。そして、ユーザが携帯端末2と板カード1との相対的な位置関係を調整することで、例えば図3(A)に示す状態になった後に、注目部分決定部28aは、板カード1の直線状の縁の少なくとも一部が領域A1aに収まる基準画像において当該直線状の縁を注目部分P1として決定する。例えば、情報通知部28cは、当該調整を促す情報をディスプレイDに表示させたり、スピーカ23から音声として出力することでユーザへ通知する。   In the example of FIGS. 3 to 6, it is assumed that the board card 1 is imaged in a state where the edge of the board card 1 turned sideways and the edge of the portable terminal 2 turned sideways are parallel. However, the case where the board card 1 is imaged in the state where the edge of the board card 1 and the edge of the portable terminal 2 are non-parallel is assumed. In this case, the information notification unit 28c has at least a part of the straight edge of the board card 1 within the area A1a, and the boundary between the area A1a and the area A1b (or the area A1c) is parallel to the straight edge. As such, the user may be notified of information that prompts the user to adjust the relative positional relationship between the mobile terminal 2 and the board card 1. Thereby, a user can adjust the relative positional relationship of the portable terminal 2 and the board card 1 so that the change event detection part 28b can detect the displacement event of the attention part in one direction reliably. . Then, after the user adjusts the relative positional relationship between the portable terminal 2 and the board card 1, for example, the state shown in FIG. In the reference image in which at least a part of the edge is within the area A1a, the straight edge is determined as the target portion P1. For example, the information notification unit 28c notifies the user by displaying information for prompting the adjustment on the display D or outputting the information from the speaker 23 as sound.

また、板カード1の縁と携帯端末2の縁とが非平行な状態で板カード1が撮像される場合、情報通知部28cが、板カード1の直線状の第1の縁の少なくとも一部が領域A1aに収まり、かつ、領域A1aと領域A1b(又は領域A1c)の境界が当該第1の縁に平行になり、かつ、当該第1の縁に直交する直線状の第2の縁の少なくとも一部が領域A2aに収まり、かつ、領域A2aと領域A2b(又は領域A2c)の境界が当該第2の縁に平行になるように、携帯端末2と板カード1との相対的な位置関係の調整を促す情報をユーザへ通知するように構成してもよい。これにより、変化事象検出部28bが直交する二方向における注目部分の変位事象を確実に検出することができるように、携帯端末2と板カード1との相対的な位置関係をユーザに調整させることができる。そして、ユーザが携帯端末2と板カード1との相対的な位置関係を調整することで、例えば図5(A)に示す状態になった後に、注目部分決定部28aは、上記第1の縁の少なくとも一部が領域A1aに収まり、かつ、上記第2の縁の少なくとも一部が領域A2aに収まる基準画像において、当該第1の縁を第1の注目部分P1として決定し、かつ、当該第2の縁を第2の注目部分P2として決定する。   Further, when the board card 1 is imaged in a state where the edge of the board card 1 and the edge of the mobile terminal 2 are non-parallel, the information notification unit 28c is configured to at least part of the linear first edge of the board card 1. Is within the region A1a, and the boundary between the region A1a and the region A1b (or the region A1c) is parallel to the first edge, and at least a second linear edge perpendicular to the first edge The relative positional relationship between the mobile terminal 2 and the board card 1 is such that a part of the mobile terminal 2 is within the area A2a and the boundary between the area A2a and the area A2b (or the area A2c) is parallel to the second edge. Information that prompts adjustment may be notified to the user. This allows the user to adjust the relative positional relationship between the portable terminal 2 and the board card 1 so that the change event detection unit 28b can reliably detect the displacement event of the target portion in two orthogonal directions. Can do. Then, after the user adjusts the relative positional relationship between the mobile terminal 2 and the board card 1, for example, the state shown in FIG. In the reference image in which at least a part of the second edge falls within the area A1a and at least a part of the second edge falls within the area A2a, the first edge is determined as the first target part P1, and the first The second edge is determined as the second target portion P2.

一方、板カード1の縁と携帯端末2の縁とが非平行な状態で板カード1が撮像される場合、領域配置部28dが、板カード1の物体の直線状の縁の少なくとも一部が第1の領域に収まり、かつ、第1の領域と第2の領域の境界が当該直線状の縁に平行になるように、当該第1の領域と当該第2の領域とを配置(つまり、基準画像及び比較画像に対応する画像フレーム上に当該領域の位置を設定)するように構成してもよい。これにより、ユーザが携帯端末2と板カード1との相対的な位置関係を調整しなくとも、一方向における注目部分の変位事象を確実に検出することができるように、領域配置部28dが第1及び第2の領域を配置することができる。また、領域配置部28dは、板カード1の直線状の第1の縁の少なくとも一部が第1の領域に収まり、かつ、第1の領域と第2の領域の境界が当該第1の縁に平行になり、かつ、当該第1の縁に直交する直線状の第2の縁の少なくとも一部が第3の領域に収まり、かつ、第3の領域と第4の領域の境界が当該第2の縁に平行になるように、当該第1から第4の領域をそれぞれ配置するように構成してもよい。これにより、ユーザが携帯端末2と板カード1との相対的な位置関係を調整しなくとも、直交する二方向における注目部分の変位事象を確実に検出することができるように、領域配置部28dが第1〜第4の領域を配置することができる。   On the other hand, when the board card 1 is imaged in a state in which the edge of the board card 1 and the edge of the mobile terminal 2 are non-parallel, the region placement unit 28d has at least a part of the straight edge of the object of the board card 1. Arrange the first region and the second region so that they fit in the first region and the boundary between the first region and the second region is parallel to the linear edge (that is, You may comprise so that the position of the said area | region may be set on the image frame corresponding to a reference | standard image and a comparison image. Thus, the region placement unit 28d can change the position of the target portion in one direction without detecting the relative positional relationship between the portable terminal 2 and the board card 1 so that the user can reliably detect the displacement event in the one direction. The first and second regions can be arranged. In addition, the area arranging portion 28d has at least a part of the linear first edge of the board card 1 within the first area, and the boundary between the first area and the second area is the first edge. At least a portion of the linear second edge perpendicular to the first edge is within the third region, and the boundary between the third region and the fourth region is the first region. You may comprise so that the said 1st-4th area | region may each be arrange | positioned so that it may become parallel to 2 edges. Thus, the region placement unit 28d can reliably detect the displacement event of the target portion in the two orthogonal directions without adjusting the relative positional relationship between the mobile terminal 2 and the board card 1. Can arrange | position the 1st-4th area | region.

図7は、領域配置部28dにより配置された領域A1a、A1b、A1c、A2a、A2b、及びA2cが用いられた場合における注目部分の変位事象の例を示す図である。図7(A)に示すように、上記領域が配置された後に、注目部分決定部28aは、上記第1の縁の少なくとも一部が領域A1aに収まり、かつ、上記第2の縁の少なくとも一部が領域A2aに収まる基準画像において、当該第1の縁を第1の注目部分P1として決定し、かつ、当該第2の縁を第2の注目部分P2として決定する。そして、この場合も、図7(B)に示す注目部分P1の第1変位事象と、図7(B)に示す注目部分P2の第2変位事象と、図7(C)に示す注目部分P1の第1変位事象と、図7(C)に示す注目部分P2の第2変位事象とは、変化事象検出部28bにより区別して検出される。   FIG. 7 is a diagram illustrating an example of the displacement event of the target portion when the regions A1a, A1b, A1c, A2a, A2b, and A2c arranged by the region arranging unit 28d are used. As shown in FIG. 7A, after the region is arranged, the attention portion determination unit 28a has at least a part of the first edge within the region A1a and at least one of the second edge. In the reference image in which the portion falls within the region A2a, the first edge is determined as the first target portion P1, and the second edge is determined as the second target portion P2. Also in this case, the first displacement event of the target portion P1 shown in FIG. 7B, the second displacement event of the target portion P2 shown in FIG. 7B, and the target portion P1 shown in FIG. 7C. The first displacement event and the second displacement event of the target portion P2 shown in FIG. 7C are detected by being distinguished by the change event detection unit 28b.

ところで、例えば図5に示す注目部分P1の第1変位事象と、注目部分P2の第2変位事象とが、ある時間をあけて発生する場合がある。図8の例は、ユーザが板カード1または携帯端末2を横方向に平行移動(図8(B))させた後、縦方向に平行移動((図8(C))させた場合を示しており、この場合、注目部分P1の第1変位事象の方が注目部分P2の第2変位事象よりも検出順序が先になる。一方、図9の例は、ユーザが板カード1または携帯端末2を縦方向に平行移動(図9(B))させた後、横方向に平行移動(図9(C))させた場合を示しており、この場合、注目部分P2の第2変位事象の方が注目部分P1の第1変位事象よりも検出順序が先になる。例えば、第1変位事象と第2変位事象の検出時間は、それぞれの変位事象に対応付けられてRAM等に一時的に記憶される。これにより、例えば、信号出力部28cは、第1変位事象と第2変位事象との検出の時間差、及び第1変位事象と第2変位事象との検出順序を特定することができる。   Incidentally, for example, the first displacement event of the target portion P1 and the second displacement event of the target portion P2 shown in FIG. 5 may occur after a certain period of time. The example of FIG. 8 shows a case where the user translates the board card 1 or the portable terminal 2 in the horizontal direction (FIG. 8B) and then translates in the vertical direction (FIG. 8C). In this case, the detection order of the first displacement event of the target portion P1 is earlier than the second displacement event of the target portion P2. On the other hand, in the example of FIG. 2 is translated in the vertical direction (FIG. 9B) and then translated in the horizontal direction (FIG. 9C). In this case, the second displacement event of the target portion P2 is shown. However, the detection order of the first displacement event and the second displacement event is temporarily associated with each displacement event in the RAM or the like. Thereby, for example, the signal output unit 28c detects the first displacement event and the second displacement event. Time difference, and the detection order of the first displacement event and the second displacement event can be specified.

図10(A)は、横向きにされた板カード1の縁と、縦向きにされた携帯端末2の縁とが平行な状態で、当該板カード1が撮像された場合における注目部分P1及び注目部分P2を示す。この場合でも、変化事象検出部28bにより直交する二方向の変位事象を検出することができる。   FIG. 10A shows the attention portion P1 and the attention when the board card 1 is imaged in a state in which the edge of the board card 1 turned sideways is parallel to the edge of the portable terminal 2 turned vertically. Part P2 is shown. Even in this case, it is possible to detect a displacement event in two orthogonal directions by the change event detection unit 28b.

また、図10(B)は、注目部分P1を包含する領域A1aと当該注目部分P1の垂線方向に位置する領域A1b,A1cとの間の該垂線方向の距離d1と、注目部分P2の一部を包含する領域A2aと当該注目部分P2の垂線方向に位置する領域A2b,A2cとの間の該垂線方向の距離d2とが、それぞれ閾値以上に設定された例を示す。なお、距離d1と距離d2との何れか一方が閾値以上に設定されてもよい。例えば注目部分P1を包含する領域A1aからの距離が閾値以上の領域A1bまでの間に位置する領域をバッファ領域BAという。注目部分が比較画像においてバッファ領域BAに変位したとしても、変化事象検出部28bにより当該注目部分の変位事象は検出されない。これにより、板カード1と携帯端末2の少なくとも一方を持つユーザの手振れにより注目部分がバッファ領域BAに変位したとしても、その変位事象が検出されることを防ぎ、検出精度を向上させることができる。   FIG. 10B shows the perpendicular direction distance d1 between the region A1a including the target portion P1 and the regions A1b and A1c located in the vertical direction of the target portion P1, and a part of the target portion P2. The vertical direction distance d2 between the region A2a including the region A2a and the regions A2b and A2c located in the vertical direction of the target portion P2 is set to be equal to or more than a threshold value. Note that either one of the distance d1 and the distance d2 may be set to a threshold value or more. For example, a region located between the region A1b including the attention portion P1 and the region A1b whose distance from the region A1a is equal to or greater than a threshold is referred to as a buffer region BA. Even if the target portion is displaced to the buffer area BA in the comparison image, the change event detecting unit 28b does not detect the displacement event of the target portion. Accordingly, even if the attention portion is displaced to the buffer area BA due to the hand shake of the user who has at least one of the board card 1 and the portable terminal 2, the displacement event can be prevented from being detected, and the detection accuracy can be improved. .

また、別の例として、変化事象検出部28bは、カメラ21による所定の撮像間隔と注目部分の基準画像における位置からの変位量とに基づく加速度が所定パターンで変化するように当該注目部分が変位したことを示す変位事象を検出するように構成してもよい。例えば、カメラ21による所定の撮像間隔と注目部分の基準画像における位置からの変位量とに基づいて加速度が時系列的に制御部28により算出される。そして、注目部分の移動方向を正方向とした場合に、変化事象検出部28bは、注目部分が変位する初期の加速度(>0)が第1の閾値以上で、かつ、当該注目部分が変位する終期の加速度(<0)が第2の閾値以下である場合に、加速度が所定パターンで変化するとして、当該注目部分の変位事象を検出する。ここで、加速度は、注目部分の移動方向と同一方向の加速度である。初期の加速度(>0)が第1の閾値より小さい場合、または終期の加速度(<0)が第2の閾値より大きい場合、手振れと見做し、当該注目部分の変位事象は検出されない。これにより、加速度センサーを用いなくても、画像処理だけで、板カード1と携帯端末2との少なくとも何れか一方を持つユーザの手振れにより注目部分の変位事象が検出されることを防ぎ、検出精度を向上させることができる。   As another example, the change event detection unit 28b displaces the target portion so that the acceleration based on the predetermined imaging interval by the camera 21 and the amount of displacement of the target portion from the position in the reference image changes in a predetermined pattern. You may comprise so that the displacement event which shows having performed may be detected. For example, the acceleration is calculated by the control unit 28 in time series based on a predetermined imaging interval by the camera 21 and the amount of displacement from the position of the target portion in the reference image. When the moving direction of the target portion is set to the positive direction, the change event detection unit 28b has an initial acceleration (> 0) at which the target portion is displaced being equal to or greater than the first threshold value, and the target portion is displaced. When the final acceleration (<0) is less than or equal to the second threshold value, the acceleration is detected to change in a predetermined pattern, and the displacement event of the target portion is detected. Here, the acceleration is an acceleration in the same direction as the moving direction of the target portion. When the initial acceleration (> 0) is smaller than the first threshold value, or when the final acceleration (<0) is larger than the second threshold value, it is regarded as a camera shake, and the displacement event of the target portion is not detected. Thus, even without using an acceleration sensor, it is possible to prevent the displacement event of the attention portion from being detected due to the hand shake of the user who has at least one of the board card 1 and the portable terminal 2 only by image processing. Can be improved.

次に、信号出力部28eは、変化事象検出部28bにより検出された変位事象又は当該検出された変位事象に関連する他の事象(以下、「関連事象」という)に対応する信号を例えば処理部28fへ出力する。ここで、関連事象の例として、上記第1変位事象と上記第2変位事象との合成事象が挙げられる。上述した各変位事象又は関連事象と、出力される信号との対応関係は、本発明の情報処理プログラム上で規定されていてもよいし、記憶部25に記憶されたテーブル上で規定されていてもよい。例えば、図3〜図7の例において、注目部分P1の変位事象(第1変位事象でもある)が検出された場合、信号SG1が出力される。また、図5〜図7の例において、注目部分P2の第2変位事象が検出された場合、信号SG1とは異なる信号SG2が出力される。また、信号出力部28eは、上述した第2又は第4の領域に含まれる2つの領域のうち注目部分が変位した先の領域に応じて異なる上記信号を出力するように構成してもよい。これにより、注目部分が第1または第3の領域を境に変位する方向に応じて異なる信号を出力することができる。例えば、図3〜図7の例において、注目部分P1が変位した先の領域が領域A1bであった場合、信号SG11が出力される。一方、注目部分P1が変位した先の領域が領域A1cであった場合、信号SG11とは異なる信号SG12が出力される。また、図5〜図7の例において、注目部分P2が変位した先の領域が領域A2bであった場合、信号SG21が出力される。一方、注目部分P2が変位した先の領域が領域A3cであった場合、信号SG21とは異なる信号SG22が出力される。   Next, the signal output unit 28e outputs, for example, a signal corresponding to the displacement event detected by the change event detection unit 28b or another event related to the detected displacement event (hereinafter referred to as “related event”). Output to 28f. Here, as an example of the related event, a combined event of the first displacement event and the second displacement event can be cited. The correspondence relationship between each displacement event or related event described above and an output signal may be defined on the information processing program of the present invention, or may be defined on a table stored in the storage unit 25. Also good. For example, in the example of FIGS. 3 to 7, when a displacement event (also a first displacement event) of the target portion P <b> 1 is detected, the signal SG <b> 1 is output. In the example of FIGS. 5 to 7, when the second displacement event of the target portion P2 is detected, a signal SG2 different from the signal SG1 is output. Further, the signal output unit 28e may be configured to output different signals depending on the previous region where the target portion is displaced among the two regions included in the second or fourth region. Thereby, a different signal can be output according to the direction in which the target portion is displaced from the first or third region. For example, in the example of FIGS. 3 to 7, the signal SG <b> 11 is output when the area where the target portion P <b> 1 is displaced is the area A <b> 1 b. On the other hand, when the region where the target portion P1 is displaced is the region A1c, a signal SG12 different from the signal SG11 is output. In the example of FIGS. 5 to 7, the signal SG <b> 21 is output when the region where the target portion P <b> 2 is displaced is the region A <b> 2 b. On the other hand, when the region where the target portion P2 is displaced is the region A3c, a signal SG22 different from the signal SG21 is output.

また、信号出力部28eは、注目部分P1の第1変位事象と注目部分P2の第2変位事象とが所定閾値以内の時間差で検出された(例えば、図5〜図7の例において、ほぼ同時に検出された)場合に、当該第1変位事象と当該第2変位事象との合成事象(関連事象の一例)に対応する信号SG3(信号SG1と信号SG2とは異なる)を出力するように構成してもよい。これにより、注目部分P1,P2が直交する二方向にほぼ同時に変位したことに応じた信号を出力することができる。特に、図5及び図7の例において、当該第1変位事象と当該第2変位事象とが所定閾値を超えた時間差で検出された場合に、当該第1変位事象に対応する信号SG1(又は、信号SG11又は信号SG12)が出力され、かつ、当該第2変位事象に対応する信号SG2(又は、信号SG21又は信号SG22)が出力される。つまり、信号出力部28eは、上記第1変位事象と上記第2変位事象との検出の時間差に応じて、当該第1変位事象のみに対応する第1の信号(SG1、SG11、又はSG12)と、当該第2変位事象のみに対応する第2の信号(SG2、SG21、又はSG22)と、当該第1変位事象と当該第2変位事象との合成事象に対応する第3の信号SG3と、のうちいずれかを選択的に出力する。これにより、上記第1変位事象と上記第2変位事象との検出の時間差に応じて、3つの信号を使い分けることができる。また、当該第1変位事象と当該第2変位事象とが所定閾値を超えた時間差で検出される場合において、信号出力部28eは、当該第1変位事象と当該第2変位事象との検出順序に応じて異なる第3の信号を出力するように構成してもよい。例えば、図8の例に示す検出順序の場合、信号SG31が出力される。一方、図9に示す検出順序の場合、信号SG31とは異なる信号SG32が出力される。これにより、当該第1変位事象と当該第2変位事象との検出順序に応じて、2つの信号を使い分けることができる。なお、図6の例では、注目部分P1の第1変位事象と注目部分P2の第2変位事象とが所定閾値を超えた時間差で検出されることはない(ほぼ同時に検出される)ように設定される。そのため、当該第1変位事象と当該第2変位事象との合成事象に対応する第3の信号SG3の出力に限られる。   Further, the signal output unit 28e detects the first displacement event of the target portion P1 and the second displacement event of the target portion P2 with a time difference within a predetermined threshold (for example, in the examples of FIGS. If detected, a signal SG3 (different from signal SG1 and signal SG2) corresponding to a composite event (an example of a related event) of the first displacement event and the second displacement event is output. May be. As a result, it is possible to output a signal corresponding to the fact that the target portions P1 and P2 are displaced substantially simultaneously in two orthogonal directions. In particular, in the example of FIGS. 5 and 7, when the first displacement event and the second displacement event are detected with a time difference exceeding a predetermined threshold value, the signal SG1 corresponding to the first displacement event (or The signal SG11 or the signal SG12) is output, and the signal SG2 (or the signal SG21 or the signal SG22) corresponding to the second displacement event is output. That is, the signal output unit 28e has a first signal (SG1, SG11, or SG12) corresponding to only the first displacement event according to the detection time difference between the first displacement event and the second displacement event. , A second signal (SG2, SG21, or SG22) corresponding only to the second displacement event, and a third signal SG3 corresponding to a composite event of the first displacement event and the second displacement event, One of them is selectively output. As a result, the three signals can be used properly according to the detection time difference between the first displacement event and the second displacement event. In addition, when the first displacement event and the second displacement event are detected with a time difference exceeding a predetermined threshold, the signal output unit 28e determines the detection order of the first displacement event and the second displacement event. A different third signal may be output accordingly. For example, in the case of the detection order shown in the example of FIG. 8, the signal SG31 is output. On the other hand, in the detection order shown in FIG. 9, a signal SG32 different from the signal SG31 is output. Thereby, two signals can be properly used according to the detection order of the first displacement event and the second displacement event. In the example of FIG. 6, the first displacement event of the target portion P1 and the second displacement event of the target portion P2 are set so as not to be detected with a time difference exceeding a predetermined threshold (detected almost simultaneously). Is done. Therefore, the output is limited to the output of the third signal SG3 corresponding to the combined event of the first displacement event and the second displacement event.

処理部28fは、信号出力部28eにより出力された信号に応じて、所定の処理を実行する。所定の処理の例として、所定の情報(パラメータを含む)を外部から入力する処理、所定の情報(パラメータを含む)を外部へ出力する処理、所定のパラメータを設定する処理、所定の情報をディスプレイDに表示する処理などが挙げられる。信号出力部28eにより出力された信号に応じて、これらの処理うちから実行される処理が決定される。また、所定の情報を外部から入力する処理の例として、例えば板カード1に内蔵される非接触型ICチップから「readコマンド」により情報を入力(取得)する処理、または移動体無線通信部27を通じて所定のサーバへ所定の情報を要求することで当該情報を取得する処理等が挙げられる。所定の情報を外部へ出力する処理の例として、例えば板カード1に内蔵される非接触型ICチップへ「writeコマンド」により所定の情報を出力する処理、または移動体無線通信部27を通じて所定の装置(例えば、サーバ)へ所定の情報を出力(送信)する処理等が挙げられる。所定のパラメータを設定する処理の例として、板カード1に内蔵される非接触型ICチップが近距離無線通信可能な距離範囲内にある携帯端末2からの要求に応じてデータ(記憶部に記憶されたデータ)に対して実行する所定の処理に用いられるパラメータを設定する処理がある。これにより、当該処理に用いられるパラメータを、板カード1と携帯端末2との相対的な位置関係を変化させることにより設定させることができる。   The processing unit 28f performs a predetermined process according to the signal output from the signal output unit 28e. Examples of predetermined processing include processing for inputting predetermined information (including parameters) from the outside, processing for outputting predetermined information (including parameters) to the outside, processing for setting predetermined parameters, and displaying predetermined information For example, a process of displaying on D. The process to be executed is determined from these processes according to the signal output from the signal output unit 28e. Further, as an example of processing for inputting predetermined information from the outside, for example, processing for inputting (acquiring) information by a “read command” from a non-contact IC chip built in the board card 1, or the mobile wireless communication unit 27 For example, a process of acquiring the information by requesting the predetermined information to the predetermined server through the server. As an example of processing for outputting predetermined information to the outside, for example, processing for outputting predetermined information by a “write command” to a non-contact type IC chip built in the board card 1, or predetermined processing through the mobile radio communication unit 27 For example, a process of outputting (transmitting) predetermined information to a device (for example, a server). As an example of processing for setting the predetermined parameter, data (stored in the storage unit) is received in response to a request from the portable terminal 2 within a distance range in which the non-contact type IC chip built in the board card 1 is capable of short-range wireless communication. There is a process for setting parameters used for a predetermined process to be executed on the data). Thereby, the parameter used for the said process can be set by changing the relative positional relationship of the board card 1 and the portable terminal 2. FIG.

図11は、注目部分の変位事象検出及び信号出力処理の一例を示すフローチャートである。図11に示す処理は、例えば、ユーザから操作部24を介して開始指示が入力された場合に開始される。図9に示す処理が開始されると、制御部28は、カメラ21により連続的に撮像される一連の画像の取り込みを開始する(ステップS1)。次いで、制御部28は、注目部分の決定処理を実行する(ステップS2)。注目部分の決定処理は、注目部分決定部28aが、上記一連の画像を構成する基準画像において当該基準画像に表れる板カード1の縁を基準として特定可能な注目部分を決定する処理である。次いで、制御部28は、基準画像において注目部分を決定できたか否かを判定する(ステップS3)。そして、基準画像において注目部分を決定できないと判定された場合(ステップS3:NO)、ステップS4へ進む。ここでのステップS4では、注目部分が決定できるように、情報通知部28cが、板カード1と携帯端末2の相対的な位置関係の調整を促す情報をユーザへ通知する。ここで、領域配置部28dが、板カード1の物体の直線状の縁の少なくとも一部が第1の領域に収まり、かつ、第1の領域と第2の領域の境界が当該直線状の縁に平行になるように、当該第1の領域と当該第2の領域とを配置するように構成してもよい。   FIG. 11 is a flowchart illustrating an example of the displacement event detection and signal output processing of the target portion. The process illustrated in FIG. 11 is started when a start instruction is input from the user via the operation unit 24, for example. When the process shown in FIG. 9 is started, the control unit 28 starts capturing a series of images continuously captured by the camera 21 (step S1). Next, the control unit 28 performs a target part determination process (step S2). The attention part determination process is a process in which the attention part determination unit 28a determines an attention part that can be specified with reference to the edge of the board card 1 appearing in the reference image in the reference image constituting the series of images. Next, the control unit 28 determines whether or not the target portion has been determined in the reference image (step S3). If it is determined that the target portion cannot be determined in the reference image (step S3: NO), the process proceeds to step S4. In step S4 here, the information notification unit 28c notifies the user of information for urging adjustment of the relative positional relationship between the board card 1 and the portable terminal 2 so that the target portion can be determined. Here, the area arranging portion 28d has at least a part of the linear edge of the object of the board card 1 within the first area, and the boundary between the first area and the second area is the linear edge. The first region and the second region may be arranged so as to be parallel to each other.

一方、基準画像において注目部分を決定できたと判定された場合(ステップS3:YES)、ステップS5へ進む。ステップS5では、制御部28は、注目部分の変位事象の検出処理を実行する。注目部分の変位事象の検出処理は、変化事象検出部28bが注目部分が基準画像に後続する複数の比較画像のいずれかにおいて変位したことを示す事象を検出する処理である。次いで、制御部28は、注目部分の変位事象を検出できたか否かを判定する(ステップS6)。そして、注目部分の変位事象を検出できないと判定された場合(ステップS6:NO)、ステップS4へ進む。ここでのステップS4では、注目部分の変位事象が検出できるように、情報通知部28cが、板カード1と携帯端末2の相対的な位置関係の調整を促す情報をユーザへ通知する。   On the other hand, when it is determined that the target portion can be determined in the reference image (step S3: YES), the process proceeds to step S5. In step S <b> 5, the control unit 28 executes a detection process for the displacement event of the target portion. The attention part displacement event detection process is a process in which the change event detection unit 28b detects an event indicating that the attention part is displaced in any of a plurality of comparison images subsequent to the reference image. Next, the control unit 28 determines whether or not the displacement event of the target portion has been detected (step S6). And when it determines with the displacement event of an attention part not being detectable (step S6: NO), it progresses to step S4. In step S4 here, the information notification unit 28c notifies the user of information for urging adjustment of the relative positional relationship between the board card 1 and the portable terminal 2 so that the displacement event of the target portion can be detected.

一方、注目部分の変位事象を検出できたと判定された場合(ステップS6:YES)、ステップS7へ進む。ステップS7では、信号出力部28eは、検出された変位事象又は関連事象に対応する信号を処理部28fへ出力する。これにより処理部28fは、出力された信号に応じて、所定の処理を実行することになる。次いで、制御部28は、終了指示があったか否かを判定する(ステップS8)。例えば、ユーザから操作部24を介して終了指示が入力された場合、終了指示があったと判定され(ステップS8:YES)、図11に示す処理が終了する。一方、終了指示がないと判定された場合(ステップS8:NO)、ステップS2に戻り、上記処理が繰り返される。   On the other hand, when it is determined that the displacement event of the target portion has been detected (step S6: YES), the process proceeds to step S7. In step S7, the signal output unit 28e outputs a signal corresponding to the detected displacement event or related event to the processing unit 28f. Thus, the processing unit 28f performs a predetermined process according to the output signal. Next, the control unit 28 determines whether or not there is an end instruction (step S8). For example, when an end instruction is input from the user via the operation unit 24, it is determined that there is an end instruction (step S8: YES), and the process illustrated in FIG. 11 ends. On the other hand, when it is determined that there is no termination instruction (step S8: NO), the process returns to step S2 and the above process is repeated.

以上説明したように、本発明の実施形態によれば、空間内における板カード1と携帯端末2との相対的な位置関係の変化を、板カード1の表面に表れている情報に依存せずに、板カード1の縁を基準として特定可能な注目部分の変化により検出することができ、当該変化したことに応じた信号を出力することができる。   As described above, according to the embodiment of the present invention, the change in the relative positional relationship between the board card 1 and the mobile terminal 2 in the space does not depend on the information appearing on the surface of the board card 1. In addition, it can be detected by a change in the portion of interest that can be specified with the edge of the board card 1 as a reference, and a signal corresponding to the change can be output.

なお、上記実施形態において、注目部分決定部28aは、物体の直線状の縁を注目部分として決定するように構成したが、その他にも物体の曲線状の縁、当該縁上の点(例えば角)、当該縁に囲まれる面、当該縁に接する接線または接線上の点を注目部分として決定するように構成してもよい。また、上記実施形態において、変化事象検出部28bは、注目部分が変位(つまり、注目部分の位置が変化)したことを示す事象を検出するように構成したが、注目部分である面(物体の縁に囲まれる面)の面積が変化したことを示す事象を検出してもよい。面の面積の変化は、画像フレーム又は画像フレーム内の特定の領域における当該面の占有率の変化を意味する。
[2.実施例]
次に、本発明を電子マネーシステムSに適用した場合の実施例について、図12〜図17を用いて説明する。図12は、本発明が適用される電子マネーシステムSの概要構成例を示す図である。図12に示すように、電子マネーシステムSは、電子マネーカード1、携帯端末2、電子マネーサーバ3、及びデータベースDB等を用いて構成される。電子マネーカード1は、上述した板カード1の一例である。電子マネーサーバ3は、残高変更装置の一例である。
In the above-described embodiment, the target portion determination unit 28a is configured to determine the straight edge of the object as the target portion. ), A surface surrounded by the edge, a tangent line that touches the edge, or a point on the tangent line may be determined as a target portion. Further, in the above embodiment, the change event detection unit 28b is configured to detect an event indicating that the target portion has been displaced (that is, the position of the target portion has changed). An event indicating that the area of the surface surrounded by the edge has changed may be detected. A change in the area of a surface means a change in the occupation ratio of the surface in an image frame or a specific region in the image frame.
[2. Example]
Next, an embodiment in which the present invention is applied to the electronic money system S will be described with reference to FIGS. FIG. 12 is a diagram showing a schematic configuration example of an electronic money system S to which the present invention is applied. As shown in FIG. 12, the electronic money system S is configured using an electronic money card 1, a portable terminal 2, an electronic money server 3, a database DB, and the like. The electronic money card 1 is an example of the board card 1 described above. The electronic money server 3 is an example of a balance change device.

電子マネーカード1は、記憶部と処理部とを有する非接触型ICチップ1a(ICモジュール)、及びアンテナを備える。電子マネーカード1の記憶部(例えば、不揮発性メモリ)には、電子バリューの残高を示す残高データ、ログデータ、及び電子マネー番号等が記憶される。電子バリューとは、貨幣価値に対応させた電子情報である。電子マネー番号は、例えば電子バリューの残高を他の電子マネーカードの電子バリューの残高から識別するための識別情報である。ログデータは、取引時またはチャージ時にリアルタイムで非接触ICチップ1a内に記憶される。ただし、非接触ICチップ1aの記憶部におけるデータ記憶容量は小さいので、記憶部に記憶可能なログデータの件数は数件分に制限されている。そのため、制限された件数を超えるログデータが記憶される場合、処理部により、最も古いログデータが削除され、最も新しいログデータが記憶されることになる。これにより、非接触ICチップ1aの記憶部には、制限された件数分の最新のログデータが記憶されることになる。また、ログデータには、例えば、取引履歴データとチャージ履歴データとが該当する。取引履歴データは、例えば店舗において電子マネーカードが決済(支払い)に利用された取引に関して生成される情報である。取引履歴データには、例えば、電子マネー番号、取引日時、取引金額、及び取引した店舗の店舗ID等のデータが含まれる。店舗IDは、店舗ごとに固有に付与された識別情報である。チャージ履歴データは、例えば電子マネーサーバ3が利用されたチャージに関して生成される情報である。ここで、チャージとは、非接触ICチップ1aの記憶部に記憶される電子バリューの残高を増額することをいう。チャージ履歴データには、例えば電子マネー番号、チャージ日時、及びチャージ金額等のデータが含まれる。また、電子マネーカードへのチャージは、店舗に設置された決済端末からも行うことができる。この場合のチャージ履歴データには、例えば電子マネー番号、チャージ日時、チャージ金額、及びチャージした店舗の店舗ID等のデータが含まれる。電子マネーカード1の処理部(例えば、CPU)は、近距離無線通信可能な距離範囲内にある装置(例えば、携帯端末2)から入力される残高変更情報を用いて、記憶部に記憶される残高データを変更する残高変更処理を実行し、この処理結果を応答するようになっている。   The electronic money card 1 includes a non-contact type IC chip 1a (IC module) having a storage unit and a processing unit, and an antenna. In a storage unit (for example, a non-volatile memory) of the electronic money card 1, balance data indicating a balance of electronic value, log data, an electronic money number, and the like are stored. Electronic value is electronic information corresponding to monetary value. The electronic money number is, for example, identification information for identifying the balance of electronic value from the balance of electronic value of another electronic money card. Log data is stored in the non-contact IC chip 1a in real time at the time of transaction or charging. However, since the data storage capacity of the storage unit of the non-contact IC chip 1a is small, the number of log data that can be stored in the storage unit is limited to several. For this reason, when log data exceeding the limited number is stored, the processing unit deletes the oldest log data and stores the newest log data. Thereby, the latest log data for the limited number of cases is stored in the storage unit of the non-contact IC chip 1a. The log data corresponds to, for example, transaction history data and charge history data. The transaction history data is information generated with respect to a transaction in which an electronic money card is used for settlement (payment) at a store, for example. The transaction history data includes, for example, data such as an electronic money number, transaction date and time, transaction amount, and store ID of the store where the transaction was made. The store ID is identification information uniquely assigned to each store. The charge history data is information that is generated with respect to a charge in which the electronic money server 3 is used, for example. Here, charging means increasing the balance of the electronic value stored in the storage unit of the non-contact IC chip 1a. The charge history data includes data such as an electronic money number, a charge date and time, and a charge amount. In addition, the electronic money card can be charged from a payment terminal installed in the store. In this case, the charge history data includes, for example, data such as an electronic money number, a charge date and time, a charge amount, and a store ID of the charged store. The processing unit (for example, CPU) of the electronic money card 1 is stored in the storage unit using balance change information input from a device (for example, the portable terminal 2) within a distance range in which near field communication is possible. A balance change process for changing the balance data is executed, and the result of the process is returned.

電子マネーサーバ3は、電子バリューによる貨幣価値の移動を管理するサーバであり、通信部、記憶部、及び制御部等を備えて構成される。電子バリューの残高を変更(増加又は減少)することにより貨幣価値の移動が行われる。電子マネーサーバ3の通信部は、移動体通信ネットワーク及びインターネット等から構成されるネットワークNWに接続され、通信状態の制御を行う。電子マネーサーバ3の記憶部は、例えばハードディスクドライブなどにより構成されており、オペレーティングシステム、及び電子バリューによる決済処理や電子バリューのチャージ処理を行うための電子マネー管理プログラムを記憶する。電子マネーサーバ3の制御部は、CPU、ROM、RAM等により構成され、電子マネー管理プログラムにしたがって電子バリューによる決済処理や電子バリューのチャージ処理を行う。   The electronic money server 3 is a server that manages the movement of monetary value by electronic value, and includes a communication unit, a storage unit, a control unit, and the like. The monetary value is transferred by changing (increasing or decreasing) the balance of electronic value. The communication unit of the electronic money server 3 is connected to a network NW composed of a mobile communication network and the Internet, and controls the communication state. The storage unit of the electronic money server 3 is configured by, for example, a hard disk drive, and stores an operating system and an electronic money management program for performing settlement processing using electronic value and electronic value charging processing. The control unit of the electronic money server 3 includes a CPU, a ROM, a RAM, and the like, and performs a payment process using an electronic value and a charge process using an electronic value according to an electronic money management program.

データベースDBは、電子マネーサーバ3内又は電子マネーサーバ3外に設置されたデータベースサーバに備えられる。データベースDBには、ユーザ情報データベース、店舗情報データベース、ログデータベース、及び電子バリューデータベースが設けられる。ユーザ情報データベースには、電子マネーカードのユーザ(会員)のユーザ情報がユーザごとに登録される。ここで、ユーザ情報には、例えば、ユーザID、パスワード、ユーザ名、住所、電話番号、電子メールアドレス、及び電子マネー番号が含まれる。ユーザIDは、ユーザごとに固有に付与された識別情報である。店舗情報データベース、電子マネーカードの取扱可能な店舗(加盟店)の店舗情報が店舗ごとに登録される。店舗情報には、例えば、店舗ID、パスワード、店舗名、住所、電話番号、及び電子メールアドレス等が含まれる。ログデータベースには、例えば店舗の決済端末から例えばバッチ処理で所定時間ごとにネットワークNWを介して電子マネーサーバ3に送信されるログデータが登録される。電子バリューデータベースには、電子バリューの残高の管理値が電子マネー番号等に対応付けられて登録される。電子バリューの残高の管理値は、電子マネー番号により特定される電子バリューの残高を示す。なお、電子マネーサーバ3は、ログデータベースに登録されたログデータに基づいて取引またはチャージを行ったユーザに対して、特典情報の発行条件を満たすことで特典情報(例えば、クーポン)を発行する。特典情報とは、例えば、商品又はサービスに対する決済に際して割引などの特別な恩恵や待遇を店舗から受けられることを示す情報である。特典情報の発行条件として、例えば、「直近xヶ月以内に(期間)、店舗xxで(またはx店以上の数の店舗で)(場所)、x回取引があった(またはx回チャージがあった)(回数)」という条件、或いは、「直近xヶ月以内に(期間)、店舗xxで(またはx店以上の数の店舗で)(場所)、x円分の取引があった(またはx円分のチャージがあった)(金額)」という条件が設定される。   The database DB is provided in a database server installed in the electronic money server 3 or outside the electronic money server 3. The database DB is provided with a user information database, a store information database, a log database, and an electronic value database. User information of users (members) of electronic money cards is registered for each user in the user information database. Here, the user information includes, for example, a user ID, a password, a user name, an address, a telephone number, an e-mail address, and an electronic money number. The user ID is identification information uniquely assigned to each user. Store information database and store information of stores (member stores) that can handle electronic money cards are registered for each store. The store information includes, for example, a store ID, a password, a store name, an address, a telephone number, and an e-mail address. In the log database, for example, log data transmitted from the payment terminal of the store to the electronic money server 3 via the network NW every predetermined time, for example, in batch processing is registered. In the electronic value database, the management value of the electronic value balance is registered in association with the electronic money number or the like. The management value of the electronic value balance indicates the balance of the electronic value specified by the electronic money number. The electronic money server 3 issues privilege information (for example, a coupon) to a user who has made a transaction or charge based on the log data registered in the log database by satisfying the privilege information issue condition. The privilege information is, for example, information indicating that a special benefit or treatment such as a discount can be received from a store when a payment is made for a product or service. As a condition for issuing privilege information, for example, “within the last x months (period), at store xx (or at more than x stores) (location), there were x transactions (or x charges). ) (Number of times) "or" within the last x months (period), at the store xx (or at more than x stores) (location), there was a transaction for x yen (or x The condition “(Yen charged) (amount)” is set.

図13は、電子バリューのチャージ動作の一例を示すシーケンス図である。図14及び図15は、電子マネーカード1と携帯端末2との相対的な位置関係の変化によりチャージ金額が設定される様子を示す図である。図13の例では、先ず、ユーザが電子マネーカード1と携帯端末2とを近距離無線通信可能な距離範囲内に近接させ、操作部24から所定の指示(例えば、電子マネーカード1の残高の確認指示)を行うと、携帯端末2は、カメラ21を起動させ、且つ、近距離無線通信部26を介して電子マネーカード1に残高データを要求(以下、「残高要求」という。本実施例では、readコマンドによる)する(ステップS11)。電子マネーカード1の非接触型ICチップ1aは、当該残高要求に応じて、記憶部に記憶された残高データと共に電子マネー番号を読み出し携帯端末2へ送信する(ステップS12)。   FIG. 13 is a sequence diagram illustrating an example of an electronic value charging operation. 14 and 15 are diagrams showing how the charge amount is set by the change in the relative positional relationship between the electronic money card 1 and the portable terminal 2. In the example of FIG. 13, first, the user brings the electronic money card 1 and the portable terminal 2 close to each other within a distance range in which short-range wireless communication is possible, and a predetermined instruction (for example, the balance of the electronic money card 1 is displayed). When the confirmation instruction is performed, the mobile terminal 2 activates the camera 21 and requests balance data from the electronic money card 1 via the short-range wireless communication unit 26 (hereinafter referred to as “balance request”). Then, by a read command) (step S11). In response to the balance request, the non-contact IC chip 1a of the electronic money card 1 reads the electronic money number together with the balance data stored in the storage unit and transmits it to the portable terminal 2 (step S12).

携帯端末2は、電子マネーカード1からの残高データと共に電子マネー番号を取得し、図11に示す処理を開始する(ステップS13)。次いで、携帯端末2は、所望のチャージ金額を決定することをユーザに促す情報をディスプレイD上に表示する(ステップS14)。図14の例では、図14(B)に示す基本ポジションに合せるため、ユーザは、例えば、電子マネーカード1の縁が、ディスプレイDに表示された枠aと枠bとの間の領域に収まるように、電子マネーカード1と携帯端末2との相対的位置関係を調整する。なお、枠aと枠bとの間の一部領域は、図6に示す領域A1a及び領域A2aに対応する。次に、ユーザは、所望のチャージ金額に対応するように、電子マネーカード1と携帯端末2との相対的位置関係を変化させる。例えば、ユーザは、¥1,000分だけチャージしたい場合、電子マネーカード1の縁が基本ポジションから枠a内の領域に収まるように(図14(A))、電子マネーカード1と携帯端末2とを垂直方向に遠ざける。なお、枠a内の一部領域は、図6に示す領域A1b及び領域A2bに対応する。一方、例えば、ユーザは、¥5,000分だけチャージしたい場合、電子マネーカード1の縁が基本ポジションから枠bと枠cとの間の領域に収まるように(図14(C))、電子マネーカード1と携帯端末2とを垂直方向に近づける。なお、枠bと枠cとの間の一部領域は、図6に示す領域A1c及び領域A2cに対応する。一方、例えば、ユーザは、¥3,000分だけチャージしたい場合、例えば、電子マネーカード1の縁が枠a内にある状態から、枠aと枠bとの間の領域に収まるように、電子マネーカード1と携帯端末2との相対的位置関係を調整する。このように、電子マネーカード1と携帯端末2との相対的位置関係が変更されると、図11に示す注目部分の変位事象検出及び信号出力処理において、変化事象検出部28bにより検出された変位事象に対応する信号が信号出力部28eから処理部28fへ出力される。これにより、携帯端末2の処理部28fは、出力された信号に応じて、当該信号に対応するチャージ金額をディスプレイDに表示する(ステップS15)。例えば、図14(A)〜(C)に示すように、「¥1,000チャージ」と、「¥3,000チャージ」と、「¥5,000チャージ」とが切り換え表示される。さらに、携帯端末2の処理部28fは、例えばユーザによりディスプレイDの画面がタップされると、出力された信号に対応するチャージ金額(電子バリューの残高に加算されるべき金額)を設定する(ステップS16)。   The portable terminal 2 acquires the electronic money number together with the balance data from the electronic money card 1, and starts the process shown in FIG. 11 (step S13). Next, the portable terminal 2 displays information prompting the user to determine a desired charge amount on the display D (step S14). In the example of FIG. 14, in order to match the basic position shown in FIG. 14B, the user fits the edge of the electronic money card 1 in the area between the frame a and the frame b displayed on the display D, for example. As described above, the relative positional relationship between the electronic money card 1 and the portable terminal 2 is adjusted. Note that a partial region between the frame a and the frame b corresponds to the region A1a and the region A2a illustrated in FIG. Next, the user changes the relative positional relationship between the electronic money card 1 and the portable terminal 2 so as to correspond to a desired charge amount. For example, when the user wants to charge only ¥ 1,000, the electronic money card 1 and the portable terminal 2 are arranged so that the edge of the electronic money card 1 fits in the area within the frame a from the basic position (FIG. 14A). And keep them away vertically. In addition, the partial area | region in the frame a respond | corresponds to area | region A1b and area | region A2b shown in FIG. On the other hand, for example, when the user wants to charge for ¥ 5,000, the electronic money card 1 is placed in an area between the frame b and the frame c from the basic position (FIG. 14C). The money card 1 and the portable terminal 2 are brought close to each other in the vertical direction. A partial region between the frame b and the frame c corresponds to the region A1c and the region A2c illustrated in FIG. On the other hand, for example, when the user wants to charge for ¥ 3,000, for example, the electronic money card 1 is placed in an area between the frame a and the frame b from the state where the edge of the electronic money card 1 is in the frame a. The relative positional relationship between the money card 1 and the portable terminal 2 is adjusted. Thus, when the relative positional relationship between the electronic money card 1 and the portable terminal 2 is changed, the displacement detected by the change event detection unit 28b in the displacement event detection and signal output processing of the target portion shown in FIG. A signal corresponding to the event is output from the signal output unit 28e to the processing unit 28f. Thereby, the processing unit 28f of the portable terminal 2 displays the charge amount corresponding to the signal on the display D according to the output signal (step S15). For example, as shown in FIGS. 14A to 14C, “¥ 1,000 charge”, “¥ 3,000 charge”, and “¥ 5,000 charge” are switched and displayed. Further, the processing unit 28f of the portable terminal 2 sets a charge amount (amount to be added to the balance of the electronic value) corresponding to the output signal when the screen of the display D is tapped by the user, for example (Step S28). S16).

一方、図15の例では、ユーザは、所望のチャージ金額に対応するように、例えば電子マネーカード1が図中右方向(或いは、携帯端末2を図中左方向)に移動させることで、電子マネーカード1と携帯端末2との相対的位置関係を変化させる。なお、図15の例において、例えば、¥3,000の金額線と¥5,000の金額線の間の一部領域が、上述した図3に示す領域A1cに対応し、¥5,000の金額線と¥7,000の金額線の間の一部領域が、図3に示す領域A1aに対応し、¥7,000の金額線と¥10,000の金額線の間の一部領域が、図3に示す領域A1bに対応する。ユーザは、電子マネーカード1と携帯端末2との相対的な位置関係を調整することで最終的に所望のチャージ金額に対応する金額線間に電子マネーカード1の縁を合わせる。これに応じ、図11に示す注目部分の変位事象検出及び信号出力処理において、変化事象検出部28bにより検出された変位事象に対応する信号が信号出力部28eから処理部28fへ出力される。これにより、携帯端末2の処理部28fは、出力された信号に応じて、当該信号に対応するチャージ金額をディスプレイDに表示する(ステップS15)。例えば、図15(A)〜(C)に示すように、「¥3,000チャージ」と、「¥5,000チャージ」と、「¥7,000チャージ」とが切り換え表示される。さらに、携帯端末2の処理部28fは、例えばユーザによりディスプレイDの画面がタップされると、出力された信号に対応するチャージ金額(電子バリューの残高に加算されるべき金額)を設定する(ステップS16)。   On the other hand, in the example of FIG. 15, the user moves the electronic money card 1 in the right direction in the figure (or the mobile terminal 2 in the left direction in the figure), for example, so as to correspond to the desired charge amount. The relative positional relationship between the money card 1 and the portable terminal 2 is changed. In the example of FIG. 15, for example, a partial area between the amount line of ¥ 3,000 and the amount line of ¥ 5,000 corresponds to the area A1c shown in FIG. The partial area between the amount line and the amount line of ¥ 7,000 corresponds to the area A1a shown in FIG. 3, and the partial area between the amount line of ¥ 7,000 and the amount line of ¥ 10,000 is , Corresponding to the region A1b shown in FIG. The user adjusts the relative positional relationship between the electronic money card 1 and the portable terminal 2 to finally align the edge of the electronic money card 1 between the amount lines corresponding to the desired charge amount. In response to this, in the displacement event detection and signal output processing of the target portion shown in FIG. 11, a signal corresponding to the displacement event detected by the change event detection unit 28b is output from the signal output unit 28e to the processing unit 28f. Thereby, the processing unit 28f of the portable terminal 2 displays the charge amount corresponding to the signal on the display D according to the output signal (step S15). For example, as shown in FIGS. 15A to 15C, “¥ 3,000 charge”, “¥ 5,000 charge”, and “¥ 7,000 charge” are switched and displayed. Further, the processing unit 28f of the portable terminal 2 sets a charge amount (amount to be added to the balance of the electronic value) corresponding to the output signal when the screen of the display D is tapped by the user, for example (Step S28). S16).

次いで、携帯端末2の処理部28fは、例えばユーザからの送信指示に応じて、上記設定したチャージ金額と、電子マネーカード1の非接触型ICチップ1aから取得された残高データ及び電子マネー番号とを移動体無線通信部27を介して電子マネーサーバ3へ送信する(ステップS17)。なお、電子マネー番号は、例えば電子マネーカード1の表面の印字から画像を通じて取得されてもよい。次いで、電子マネーサーバ3は、チャージ金額、残高データ、及び電子マネー番号を受信すると、電子マネー番号をキーとしてデータベースDBを検索する(ステップS18)。次いで、電子マネーサーバ3は、データベースDBの検索により必要な情報を取得した後、ユーザの認証処理を行う(ステップS19)。当該認証処理の結果が良好である場合、電子マネーサーバ3は、電子バリューデータベースにおいて電子マネー番号に対応付けられた電子バリューの残高の管理値を参照して、チャージ金額分だけ残高データを変更させるための残高変更情報(本実施例では、writeコマンド)を生成し、該残高変更情報を携帯端末2へ送信する(ステップS20)。ここで、例えば、残高¥1,000のところに¥2,000をチャージする場合、writeコマンドは、例えば「残高を¥3,000に上書きせよ」というコマンドであり、この場合、このコマンドに付加されるパラメータは「¥3,000」になる。残高変更情報の別の例として、加算コマンドを適用してもよい。この加算コマンドは、例えば「残高に¥2,000を加算せよ」というコマンドであり、この場合、このコマンドに付加されるパラメータは「¥2,000」になる。   Next, the processing unit 28 f of the mobile terminal 2, for example, in accordance with a transmission instruction from the user, the set charge amount, balance data and electronic money number acquired from the non-contact IC chip 1 a of the electronic money card 1, Is transmitted to the electronic money server 3 via the mobile wireless communication unit 27 (step S17). The electronic money number may be acquired through an image from, for example, printing on the surface of the electronic money card 1. Next, when receiving the charge amount, balance data, and electronic money number, the electronic money server 3 searches the database DB using the electronic money number as a key (step S18). Next, the electronic money server 3 acquires necessary information by searching the database DB, and then performs user authentication processing (step S19). When the result of the authentication process is good, the electronic money server 3 refers to the management value of the balance of the electronic value associated with the electronic money number in the electronic value database and changes the balance data by the charge amount. Balance change information (write command in this embodiment) is generated, and the balance change information is transmitted to the portable terminal 2 (step S20). Here, for example, when charging ¥ 2,000 at a balance of ¥ 1,000, the write command is, for example, a command “overwrite the balance to ¥ 3,000”. In this case, the command is added to this command. The parameter to be set is “¥ 3,000”. As another example of the balance change information, an addition command may be applied. This addition command is, for example, a command “Add 2,000 to the balance”. In this case, the parameter added to this command is “¥ 2,000”.

次いで、携帯端末2の処理部28fは、電子マネーサーバ3から送信された残高変更情報を取得し、これを電子マネーカード1の非接触型ICチップ1aに入力(転送)する(ステップS21)。次いで、電子マネーカード1の非接触型ICチップ1aは、携帯端末2から入力された残高変更情報を用いて、記憶部に記憶される残高データを変更する残高変更処理を実行し(ステップS22)、処理結果を応答する(ステップS23)。次いで、携帯端末2は、非接触型ICチップ1aから取得した処理結果を電子マネーサーバ3へ転送する(ステップS24)。電子マネーサーバ3は、携帯端末2から送信された処理結果を受信すると、完了通知を携帯端末2へ送信する(ステップS25)。   Next, the processing unit 28f of the portable terminal 2 acquires the balance change information transmitted from the electronic money server 3 and inputs (transfers) the balance change information to the non-contact type IC chip 1a of the electronic money card 1 (step S21). Next, the non-contact IC chip 1a of the electronic money card 1 executes balance change processing for changing balance data stored in the storage unit using the balance change information input from the mobile terminal 2 (step S22). The processing result is returned (step S23). Next, the portable terminal 2 transfers the processing result acquired from the non-contact type IC chip 1a to the electronic money server 3 (step S24). When the electronic money server 3 receives the processing result transmitted from the mobile terminal 2, the electronic money server 3 transmits a completion notification to the mobile terminal 2 (step S25).

なお、図13に示す電子バリューのチャージ動作において、携帯端末2の処理部28fは、出力された信号に応じてチャージ金額を設定すると、当該チャージ金額、及び非接触型ICチップ1aから取得された電子マネー番号を電子マネーサーバ3へ送信する(つまり、この時点で残高データの送信は行わない)ように構成してもよい。この場合、電子マネーサーバ3は、携帯端末2を介して非接触型ICチップ1aから残高データを取得(readコマンドによる)する。次いで、電子マネーサーバ3は、上記ステップS18及びS19の処理を行い、携帯端末2を介して残高変更情報を非接触型ICチップ1aに入力(writeコマンドによる)する。そして、電子マネーカード1の非接触型ICチップ1aは、携帯端末2から入力された残高変更情報を用いて、記憶部に記憶される残高データを変更する残高変更処理を実行し、処理結果を携帯端末2を介して応答する。そして、電子マネーサーバ3は、携帯端末2から送信された処理結果を受信すると、完了通知を携帯端末2へ送信する。   In the electronic value charging operation shown in FIG. 13, when the processing unit 28f of the mobile terminal 2 sets the charge amount according to the output signal, the charge amount and the non-contact type IC chip 1a are acquired. The electronic money number may be transmitted to the electronic money server 3 (that is, balance data is not transmitted at this time). In this case, the electronic money server 3 acquires balance data from the non-contact type IC chip 1a via the portable terminal 2 (by a read command). Next, the electronic money server 3 performs the processes of steps S18 and S19, and inputs balance change information to the non-contact type IC chip 1a via the portable terminal 2 (by a write command). Then, the contactless IC chip 1a of the electronic money card 1 executes balance change processing for changing balance data stored in the storage unit using the balance change information input from the mobile terminal 2, and obtains the processing result. It responds via the portable terminal 2. When the electronic money server 3 receives the processing result transmitted from the mobile terminal 2, the electronic money server 3 transmits a completion notification to the mobile terminal 2.

以上説明したように、図13に示す電子バリューのチャージ動作によれば、電子マネーカード1と携帯端末2との相対的位置関係を変化させることにより、電子マネーカード1の非接触ICチップ1aの記憶部に記憶された残高データを変更させることができる。   As described above, according to the electronic value charging operation shown in FIG. 13, by changing the relative positional relationship between the electronic money card 1 and the portable terminal 2, the contactless IC chip 1 a of the electronic money card 1 is changed. The balance data stored in the storage unit can be changed.

図16は、携帯端末2による情報取得動作の一例を示すシーケンス図である。図17は、電子マネーカード1と携帯端末2との相対的な位置関係の変化により情報種別が設定される様子を示す図である。この情報種別は、電子マネーサーバ3へ要求する情報の種別である。この情報種別は、例えば、クーポン等の特典情報であるか、またはログであるかを示す。図16の例では、先ず、ユーザが電子マネーカード1と携帯端末2とを近距離無線通信可能な距離範囲内に近接させ、操作部24から所定の指示(例えば、電子マネーカード1の残高の確認指示)を行うと、携帯端末2は、カメラ21を起動させ、且つ、近距離無線通信部26を介して電子マネーカード1にログデータを要求(本実施例では、readコマンドによる)する(ステップS31)。電子マネーカード1の非接触ICチップ1aは、ログデータ要求に応じて、記憶部に記憶されたログデータと共に電子マネー番号を読み出し携帯端末2へ送信する(ステップS32)。   FIG. 16 is a sequence diagram illustrating an example of an information acquisition operation performed by the mobile terminal 2. FIG. 17 is a diagram illustrating a state in which the information type is set by a change in the relative positional relationship between the electronic money card 1 and the mobile terminal 2. This information type is the type of information requested to the electronic money server 3. This information type indicates, for example, privilege information such as a coupon or a log. In the example of FIG. 16, first, the user brings the electronic money card 1 and the portable terminal 2 close to each other within a distance range in which short-range wireless communication is possible, and a predetermined instruction (for example, the balance of the electronic money card 1 is displayed). When the confirmation instruction is performed, the portable terminal 2 activates the camera 21 and requests log data from the electronic money card 1 via the short-range wireless communication unit 26 (in this embodiment, by a read command) ( Step S31). In response to the log data request, the non-contact IC chip 1a of the electronic money card 1 reads the electronic money number together with the log data stored in the storage unit and transmits it to the mobile terminal 2 (step S32).

携帯端末2は、電子マネーカード1からのログデータと共に電子マネー番号を取得し、図11に示す処理を開始する(ステップS33)。次いで、携帯端末2は、取得したログデータに含まれる残高と、所望の情報種別を決定することをユーザに促す情報とをディスプレイD上に表示する(ステップS34)。なお、携帯端末2は、ログデータ要求とは別に、電子マネーカード1に残高データを要求し、当該残高データを電子マネーカード1から取得してもよい。この場合、残高データが示す残高が表示されてもよい。図17の例では、図17(B)に示す基本ポジションに合せるため、ユーザは、例えば、電子マネーカード1の縁が、ディスプレイDに表示された枠aと枠bとの間の領域に収まるように、電子マネーカード1と携帯端末2との相対的位置関係を調整する。次に、ユーザは、所望の情報種別に対応するように、電子マネーカード1と携帯端末2との相対的位置関係を変化させる。例えば、ユーザは、クーポン等の特典情報を表示させたい場合、電子マネーカード1の縁が、ディスプレイDに表示された枠a内の領域に収まるように(図17(A))、電子マネーカード1と携帯端末2とを垂直方向に遠ざける。一方、例えば、ユーザは、ログデータの内容を表示させたい場合、電子マネーカード1の縁が、ディスプレイDに表示された枠bと枠cとの間の領域に収まるように(図8(C))、電子マネーカード1と携帯端末2とを垂直方向に近づける。このように、電子マネーカード1と携帯端末2との相対的位置関係が変更されると、図11に示す注目部分の変位事象検出及び信号出力処理において、変化事象検出部28bにより検出された変位事象に対応する信号が信号出力部28eから処理部28fへ出力される。これにより、携帯端末2の処理部28fは、出力された信号に応じて、当該信号に対応する情報種別をディスプレイDに表示する(ステップS35)。例えば、図17(A)〜(C)に示すように、「クーポン」と、「残高¥3,000」と、「ログ」とが切り換え表示される。さらに、携帯端末2の処理部28fは、例えばユーザによりディスプレイDの画面がタップされると、出力された信号に対応する情報種別を設定する(ステップS36)。   The portable terminal 2 acquires the electronic money number together with the log data from the electronic money card 1 and starts the process shown in FIG. 11 (step S33). Next, the portable terminal 2 displays the balance included in the acquired log data and information prompting the user to determine a desired information type on the display D (step S34). The mobile terminal 2 may request balance data from the electronic money card 1 separately from the log data request, and acquire the balance data from the electronic money card 1. In this case, the balance indicated by the balance data may be displayed. In the example of FIG. 17, in order to match the basic position shown in FIG. 17B, the user fits the edge of the electronic money card 1 in an area between the frame a and the frame b displayed on the display D, for example. As described above, the relative positional relationship between the electronic money card 1 and the portable terminal 2 is adjusted. Next, the user changes the relative positional relationship between the electronic money card 1 and the portable terminal 2 so as to correspond to a desired information type. For example, when the user wants to display privilege information such as a coupon, the electronic money card 1 is arranged so that the edge of the electronic money card 1 fits in the area within the frame a displayed on the display D (FIG. 17A). 1 and the portable terminal 2 are moved away from each other in the vertical direction. On the other hand, for example, when the user wants to display the contents of the log data, the edge of the electronic money card 1 fits in an area between the frame b and the frame c displayed on the display D (FIG. 8C )) The electronic money card 1 and the portable terminal 2 are brought close to each other in the vertical direction. Thus, when the relative positional relationship between the electronic money card 1 and the portable terminal 2 is changed, the displacement detected by the change event detection unit 28b in the displacement event detection and signal output processing of the target portion shown in FIG. A signal corresponding to the event is output from the signal output unit 28e to the processing unit 28f. Thereby, the processing unit 28f of the mobile terminal 2 displays the information type corresponding to the signal on the display D in accordance with the output signal (step S35). For example, as shown in FIGS. 17A to 17C, “coupon”, “balance ¥ 3,000”, and “log” are switched and displayed. Furthermore, when the screen of the display D is tapped by the user, for example, the processing unit 28f of the mobile terminal 2 sets an information type corresponding to the output signal (step S36).

次いで、携帯端末2の処理部28fは、ユーザからの送信指示に応じて、上記設定した情報種別を示す情報と、電子マネーカード1の非接触型ICチップ1aから取得された電子マネー番号とを移動体無線通信部27を介して電子マネーサーバ3へ送信する(ステップS37)。次いで、電子マネーサーバ3は、情報種別及び電子マネー番号を受信すると、電子マネー番号をキーとしてデータベースDBを検索する(ステップS38)。次いで、電子マネーサーバ3は、データベースDBの検索により必要な情報を取得した後、ユーザの認証処理を行う(ステップS39)。当該認証処理の結果が良好である場合、電子マネーサーバ3は、受信された情報種別に対応する情報を取得し、携帯端末2へ送信する(ステップS40)。例えば情報種別が特典情報を示す場合において、ユーザが特典情報の発行条件を満たす場合、当該ユーザに対する特典情報が発行され、当該特典情報が情報種別に対応する情報として携帯端末2へ送信される。一方、情報種別がログを示す場合、上記取得された電子マネー番号が含まれるログデータがログデータベースから取得され、当該ログデータが情報種別に対応する情報として携帯端末2へ送信される。   Next, the processing unit 28f of the portable terminal 2 receives the information indicating the set information type and the electronic money number acquired from the non-contact type IC chip 1a of the electronic money card 1 in response to a transmission instruction from the user. It transmits to the electronic money server 3 via the mobile radio | wireless communication part 27 (step S37). Next, when receiving the information type and the electronic money number, the electronic money server 3 searches the database DB using the electronic money number as a key (step S38). Next, the electronic money server 3 obtains necessary information by searching the database DB, and then performs user authentication processing (step S39). If the result of the authentication process is good, the electronic money server 3 acquires information corresponding to the received information type and transmits it to the mobile terminal 2 (step S40). For example, when the information type indicates privilege information and the user satisfies the privilege information issuance condition, privilege information for the user is issued, and the privilege information is transmitted to the mobile terminal 2 as information corresponding to the information type. On the other hand, when the information type indicates a log, log data including the acquired electronic money number is acquired from the log database, and the log data is transmitted to the mobile terminal 2 as information corresponding to the information type.

次いで、携帯端末2の処理部28fは、電子マネーサーバ3から送信された情報(特典情報、またはログデータ)を取得し、これを表示部22のディスプレイDにおいて設定された情報種別に対応する位置に表示させる(ステップS41)。ところで、ログデータが電子マネーサーバ3から取得された場合、当該ログデータと、電子マネーカード1から取得されたログデータとが統合されて、ディスプレイD上に表示される。   Next, the processing unit 28 f of the mobile terminal 2 acquires information (privilege information or log data) transmitted from the electronic money server 3, and uses the information corresponding to the information type set on the display D of the display unit 22. (Step S41). By the way, when the log data is acquired from the electronic money server 3, the log data and the log data acquired from the electronic money card 1 are integrated and displayed on the display D.

以上説明したように、図16に示す情報取得動作によれば、電子マネーカード1と携帯端末2との相対的位置関係を変化させることにより、特典情報の表示とログデータの表示とを切り替えさせることができる。   As described above, according to the information acquisition operation illustrated in FIG. 16, the privilege information display and the log data display are switched by changing the relative positional relationship between the electronic money card 1 and the mobile terminal 2. be able to.

なお、上記実施例では、電子マネーシステムSに対して本発明を適用した場合の例について説明したが、その他の情報処理システムに対して本発明を適用可能である。例えば、クレジットカードによる決済処理システム、又はオンラインでの取引等の決済処理システムなどに対して本発明を適用可能である。   In the above embodiment, an example in which the present invention is applied to the electronic money system S has been described. However, the present invention can be applied to other information processing systems. For example, the present invention can be applied to a payment processing system using a credit card or a payment processing system such as an online transaction.

1 板カード
2 携帯端末
3 電子マネーサーバ
21 カメラ
22 表示部
23 スピーカ
24 操作部
25 記憶部
26 近距離無線通信部
27 移動体無線通信部
28 制御部
DESCRIPTION OF SYMBOLS 1 Board card 2 Portable terminal 3 Electronic money server 21 Camera 22 Display part 23 Speaker 24 Operation part 25 Memory | storage part 26 Short-distance wireless communication part 27 Mobile radio | wireless communication part 28 Control part

Claims (13)

情報処理プログラムが情報処理装置に行わせる情報処理方法であって、
前記情報処理方法は、
撮像手段により連続的に撮像される一連の画像を構成する基準画像において当該基準画像に表れる物体の縁を基準として特定可能な注目部分を決定する決定ステップと、
前記決定された注目部分が前記基準画像に後続する複数の比較画像のいずれかにおいて変化したことを示す事象を検出する検出ステップと、
前記検出された事象又は当該事象に関連する他の事象に対応する信号を出力する出力ステップと、
を含み、
前記物体は、データを記憶する記憶部と、当該物体と通信可能な装置からの要求に応じて前記データにアクセスする処理部と、を有するICモジュールを備え、
前記情報処理方法は、前記出力ステップにより出力された信号と、前記記憶部のデータとに基づいて所定の処理を行うことを特徴とする情報処理方法。
An information processing method that an information processing program causes an information processing apparatus to perform,
The information processing method includes:
A determination step of determining a target portion that can be identified with reference to an edge of an object appearing in the reference image in a reference image constituting a series of images continuously captured by the imaging means;
A detection step of detecting an event indicating that the determined portion of interest has changed in any of a plurality of comparison images subsequent to the reference image;
Outputting a signal corresponding to the detected event or other event related to the event;
Including
The object includes an IC module having a storage unit for storing data, and a processing unit for accessing the data in response to a request from a device capable of communicating with the object,
The information processing method performs predetermined processing based on the signal output in the output step and the data in the storage unit.
前記物体は、前記記憶部と前記処理部とを有するICモジュールを備えるカードであり、
前記記憶部は、電子バリューの残高を示す残高データを記憶し、
前記処理部は、近距離無線通信可能な距離範囲内にある装置から入力される残高変更情報を用いて前記記憶される残高データを変更する残高変更処理を実行し、処理結果を応答するものであり、
前記情報処理方法は、
前記出力された信号に応じて前記残高に加算されるべき金額を示すチャージ金額を設定する設定ステップと、
前記チャージ金額分だけ前記記憶される残高データを変更させるための残高変更情報を、外部の残高変更装置から取得し前記ICモジュールに入力する入力ステップと、
を更に含む、
ことを特徴とする請求項に記載の情報処理方法。
The object is a card including an IC module having the storage unit and the processing unit,
The storage unit stores balance data indicating a balance of electronic value,
The processing unit executes balance change processing for changing the stored balance data using balance change information input from a device within a short range wireless communication range, and responds with a processing result. Yes,
The information processing method includes:
A setting step of setting a charge amount indicating an amount to be added to the balance according to the output signal;
An input step of acquiring balance change information for changing the stored balance data by the amount of the charge from an external balance change device and inputting the balance change information to the IC module;
Further including
The information processing method according to claim 1 .
前記処理部は、近距離無線通信可能な距離範囲内にある装置からの要求に応じて前記データに対して所定の処理を実行し処理結果を応答するものであり、
前記情報処理方法は、前記出力ステップにより出力された信号に応じて、前記所定の処理に用いられるパラメータを設定する設定ステップを更に含む、
ことを特徴とする請求項に記載の情報処理方法。
The processing unit performs a predetermined process on the data in response to a request from a device within a distance range in which short-range wireless communication is possible, and returns a processing result.
The information processing method further includes a setting step of setting a parameter used for the predetermined processing according to the signal output by the output step.
The information processing method according to claim 1 .
前記決定ステップは、前記撮像手段により連続的に撮像される一連の画像を構成する基準画像において当該基準画像に表れる物体の直線状の第1の縁を第1の注目部分として決定し、かつ、当該第1の縁に直交する直線状の第2の縁を第2の注目部分として決定し、
前記検出ステップは、前記決定された第1の注目部分と第2の注目部分が前記基準画像に後続する複数の比較画像のいずれかにおいて変化したことを示す事象を検出する検出ステップであって、前記決定された第1の注目部分の少なくとも一部を包含する第1の領域から当該第1の注目部分の垂線方向に位置する第2の領域に当該第1の注目部分が変位したことを示す第1の事象と、前記決定された第2の注目部分の少なくとも一部を包含する第3の領域から当該第2の注目部分の垂線方向に位置する第4の領域に当該第2の注目部分が変位したことを示す第2の事象と、をそれぞれ検出し、
前記出力ステップは、前記第1の事象と前記第2の事象とが所定閾値以内の時間差で検出された場合に、当該第1の事象と当該第2の事象との合成事象に対応する信号を出力することを特徴とする請求項1乃至3の何れか一項に記載の情報処理方法。
The determining step determines, as a first portion of interest, a linear first edge of an object appearing in the reference image in a reference image constituting a series of images continuously captured by the imaging means; and Determining a linear second edge perpendicular to the first edge as a second portion of interest;
The detection step is a detection step of detecting an event indicating that the determined first target portion and second target portion have changed in any of a plurality of comparison images subsequent to the reference image, Indicates that the first target portion has been displaced from a first region including at least a part of the determined first target portion to a second region located in a direction perpendicular to the first target portion. The second target portion from the third region including at least a part of the first event and the determined second target portion to the fourth region located in the direction perpendicular to the second target portion. Each detecting a second event indicating that is displaced,
In the output step, when the first event and the second event are detected with a time difference within a predetermined threshold, a signal corresponding to a composite event of the first event and the second event is output. The information processing method according to any one of claims 1 to 3, wherein the information is output .
前記第2の領域には、前記第1の領域を境に互いに逆方向に位置する2つの領域が含まれ、
前記出力ステップは、前記第2の領域に含まれる2つの領域のうち前記注目部分が変位した先の領域に応じて異なる前記信号を出力する、
ことを特徴とする請求項に記載の情報処理方法。
The second region includes two regions located in opposite directions with respect to the first region,
The output step outputs the signal different depending on a previous region where the target portion is displaced among two regions included in the second region.
The information processing method according to claim 4 .
前記第1の縁の少なくとも一部が前記第1の領域に収まり、かつ、前記第1の領域と前記第2の領域の境界が当該第1の縁に平行になり、かつ、前記第2の縁の少なくとも一部が前記第3の領域に収まり、かつ、前記第3の領域と前記第4の領域の境界が当該第2の縁に平行になるように、前記情報処理装置と前記物体との相対的な位置関係の調整を促す情報をユーザへ通知する通知ステップを更に含み、
前記決定ステップは、前記第1の縁の少なくとも一部が前記第1の領域に収まり、かつ、前記第2の縁の少なくとも一部が前記第3の領域に収まる前記基準画像において、当該第1の縁を前記第1の注目部分として決定し、かつ、当該第2の縁を前記第2の注目部分として決定する、
ことを特徴とする請求項4または5に記載の情報処理方法。
At least a portion of the first edge fits in the first region, and a boundary between the first region and the second region is parallel to the first edge, and the second region The information processing apparatus, the object, and the object are arranged such that at least a part of an edge fits in the third area and a boundary between the third area and the fourth area is parallel to the second edge. A notification step of notifying the user of information prompting adjustment of the relative positional relationship of
In the reference image, at least a part of the first edge fits in the first area and at least a part of the second edge fits in the third area. And the second edge as the second portion of interest.
6. The information processing method according to claim 4 or 5 , wherein:
前記第1の縁の少なくとも一部が前記第1の領域に収まり、かつ、前記第1の領域と前記第2の領域の境界が当該第1の縁に平行になり、かつ、前記第2の縁の少なくとも一部が前記第3の領域に収まり、かつ、前記第3の領域と前記第4の領域の境界が当該第2の縁に平行になるように、当該第1から第4の領域をそれぞれ配置する配置ステップを更に含み、
前記決定ステップは、前記第1の縁の少なくとも一部が前記第1の領域に収まり、かつ、前記第2の縁の少なくとも一部が前記第3の領域に収まる前記基準画像において、当該第1の縁を前記第1の注目部分として決定し、かつ、当該第2の縁を前記第2の注目部分として決定する、
ことを特徴とする請求項4または5に記載の情報処理方法。
At least a portion of the first edge fits in the first region, and a boundary between the first region and the second region is parallel to the first edge, and the second region The first to fourth regions so that at least a part of the edge fits in the third region and the boundary between the third region and the fourth region is parallel to the second edge. Further comprising an arrangement step of arranging each of
In the reference image, at least a part of the first edge fits in the first area and at least a part of the second edge fits in the third area. And the second edge as the second portion of interest.
6. The information processing method according to claim 4 or 5 , wherein:
前記出力ステップは、前記第1の事象と前記第2の事象との検出の時間差に応じて、前記第1の事象のみに対応する第1の信号と、前記第2の事象のみに対応する第2の信号と、当該第1の事象と当該第2の事象との合成事象に対応する第3の信号と、のうちいずれかを選択的に出力する、
ことを特徴とする請求項4乃至7の何れか一項に記載の情報処理方法。
The output step includes a first signal corresponding only to the first event and a first signal corresponding only to the second event according to a time difference in detection between the first event and the second event. One of a second signal and a third signal corresponding to a composite event of the first event and the second event,
The information processing method according to any one of claims 4 to 7 .
前記出力ステップは、前記第1の事象と前記第2の事象との検出順序に応じて異なる前記第3の信号を出力する、
ことを特徴とする請求項に記載の情報処理方法。
The output step outputs the third signal that differs depending on the detection order of the first event and the second event.
The information processing method according to claim 8 .
前記注目部分の少なくとも一部を包含する前記領域と当該注目部分の垂線方向に位置する前記領域との間の該垂線方向の距離が閾値以上に設定されていることを特徴とする請求項4乃至9の何れか一項に記載の情報処理方法。 It claims 4 to wherein the distance said vertical line direction between the region located perpendicular direction of the region and the portion of interest includes at least a portion of said target portion is set above the threshold the information processing method according to any one of 9. 前記撮像手段は、所定の撮像間隔で連続的に撮像し、
前記検出ステップは、前記所定の撮像間隔と前記注目部分の前記基準画像における位置からの変位量とに基づく加速度が所定パターンで変化するように当該注目部分が変位したことを示す前記事象を検出する、
ことを特徴とする請求項4乃至10の何れか一項に記載の情報処理方法。
The imaging means continuously images at a predetermined imaging interval,
The detecting step detects the event indicating that the target portion is displaced such that an acceleration based on the predetermined imaging interval and a displacement amount of the target portion from a position in the reference image changes in a predetermined pattern. To
The information processing method according to any one of claims 4 to 10 , wherein:
撮像手段により連続的に撮像される一連の画像を構成する基準画像において当該基準画像に表れる物体の縁を基準として特定可能な注目部分を決定する決定手段と、
前記決定された注目部分が前記基準画像に後続する複数の比較画像のいずれかにおいて変化したことを示す事象を検出する検出手段と、
前記検出された事象又は当該事象に関連する他の事象に対応する信号を出力する出力手段と、
を備える情報処理装置であって、
前記物体は、データを記憶する記憶部と、当該物体と通信可能な装置からの要求に応じて前記データにアクセスする処理部と、を有するICモジュールを備え、
前記情報処理装置は、前記出力手段により出力された信号と、前記記憶部のデータとに基づいて所定の処理を行うことを特徴とする情報処理装置。
A determination unit that determines a target portion that can be identified with reference to an edge of an object appearing in the reference image in a reference image that constitutes a series of images continuously captured by the imaging unit;
Detecting means for detecting an event indicating that the determined portion of interest has changed in any of a plurality of comparison images subsequent to the reference image;
Output means for outputting a signal corresponding to the detected event or another event related to the event;
An information processing apparatus comprising:
The object includes an IC module having a storage unit for storing data, and a processing unit for accessing the data in response to a request from a device capable of communicating with the object,
The information processing apparatus performs predetermined processing based on a signal output from the output unit and data in the storage unit.
撮像手段により連続的に撮像される一連の画像を構成する基準画像において当該基準画像に表れる物体の縁を基準として特定可能な注目部分を決定する決定ステップと、
前記決定された注目部分が前記基準画像に後続する複数の比較画像のいずれかにおいて変化したことを示す事象を検出する検出ステップと、
前記検出された事象又は当該事象に関連する他の事象に対応する信号を出力する出力ステップと、
をコンピュータに実行させる情報処理プログラムであって、
前記物体は、データを記憶する記憶部と、当該物体と通信可能な装置からの要求に応じて前記データにアクセスする処理部と、を有するICモジュールを備え、
前記情報処理プログラムは、前記コンピュータに、前記出力ステップにより出力された信号と、前記記憶部のデータとに基づいて所定の処理を行わせることを特徴とする情報処理プログラム。
A determination step of determining a target portion that can be identified with reference to an edge of an object appearing in the reference image in a reference image constituting a series of images continuously captured by the imaging means;
A detection step of detecting an event indicating that the determined portion of interest has changed in any of a plurality of comparison images subsequent to the reference image;
Outputting a signal corresponding to the detected event or other event related to the event;
An information processing program for causing a computer to execute
The object includes an IC module having a storage unit for storing data, and a processing unit for accessing the data in response to a request from a device capable of communicating with the object,
The information processing program causes the computer to perform predetermined processing based on the signal output in the output step and the data in the storage unit.
JP2015523718A 2013-06-26 2013-06-26 Information processing method, information processing apparatus, and information processing program Active JP6033431B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2013/067548 WO2014207844A1 (en) 2013-06-26 2013-06-26 Information processing method, information processing device, information processing program, and storage medium storing information processing program

Publications (2)

Publication Number Publication Date
JP6033431B2 true JP6033431B2 (en) 2016-11-30
JPWO2014207844A1 JPWO2014207844A1 (en) 2017-02-23

Family

ID=52141250

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015523718A Active JP6033431B2 (en) 2013-06-26 2013-06-26 Information processing method, information processing apparatus, and information processing program

Country Status (2)

Country Link
JP (1) JP6033431B2 (en)
WO (1) WO2014207844A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020021504A (en) * 2019-10-09 2020-02-06 Necプラットフォームズ株式会社 Information processing device, information processing method and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005128999A (en) * 2003-05-16 2005-05-19 Hitachi Kokusai Electric Inc Change detecting apparatus
JP2008244670A (en) * 2007-03-26 2008-10-09 Funai Electric Co Ltd Imaging apparatus
JP2010045501A (en) * 2008-08-11 2010-02-25 Secom Co Ltd Image monitoring device
JP2010079771A (en) * 2008-09-29 2010-04-08 Hitachi Ltd Input device
JP2011215914A (en) * 2010-03-31 2011-10-27 Ntt Docomo Inc Device and method for generating evaluation information

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005128999A (en) * 2003-05-16 2005-05-19 Hitachi Kokusai Electric Inc Change detecting apparatus
JP2008244670A (en) * 2007-03-26 2008-10-09 Funai Electric Co Ltd Imaging apparatus
JP2010045501A (en) * 2008-08-11 2010-02-25 Secom Co Ltd Image monitoring device
JP2010079771A (en) * 2008-09-29 2010-04-08 Hitachi Ltd Input device
JP2011215914A (en) * 2010-03-31 2011-10-27 Ntt Docomo Inc Device and method for generating evaluation information

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JPN6016023811; 'EF LENS SPECIAL EFレンズテクノロジー' [online] , 20130522, キヤノンマーケティングジャパン株式会社 *

Also Published As

Publication number Publication date
JPWO2014207844A1 (en) 2017-02-23
WO2014207844A1 (en) 2014-12-31

Similar Documents

Publication Publication Date Title
US11521201B2 (en) Mobile device and control method thereof
US20210224785A1 (en) User interface for payments
US11284251B2 (en) Mobile device and control method thereof
EP3839857B1 (en) User interface for loyalty accounts and private label accounts for a wearable device
EP3731169A1 (en) User interface for loyalty accounts and private label accounts
US11176526B2 (en) Mobile electronic device and method for electronic payment
EP3239913A1 (en) Method and device for controlling information transmission, and smart terminal
CN105706127A (en) Provisioning and authenticating credentials on an electronic device
JP5985632B2 (en) Information processing apparatus, information processing method, and information processing program
EP3285219A1 (en) Resource transfer method and apparatus, computer program and recording medium
CN105447694A (en) Receiving fingerprints through touch screen of ce device
DK202070633A1 (en) User interfaces for enabling an activity
US11095331B2 (en) Electronic device, protective case for electronic device, and displaying method thereof
JP6182527B2 (en) Payment terminal, information processing server, payment terminal control method, and program
KR20160147340A (en) Display apparatus and controlling method thereof
JP6033431B2 (en) Information processing method, information processing apparatus, and information processing program
EP4028869B1 (en) User interfaces for enabling an activity

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160829

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161025

R150 Certificate of patent or registration of utility model

Ref document number: 6033431

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250