JP2021163423A - Information processing device, information processing method and program - Google Patents
Information processing device, information processing method and program Download PDFInfo
- Publication number
- JP2021163423A JP2021163423A JP2020067799A JP2020067799A JP2021163423A JP 2021163423 A JP2021163423 A JP 2021163423A JP 2020067799 A JP2020067799 A JP 2020067799A JP 2020067799 A JP2020067799 A JP 2020067799A JP 2021163423 A JP2021163423 A JP 2021163423A
- Authority
- JP
- Japan
- Prior art keywords
- user
- authentication
- information
- related information
- context
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims description 41
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000012545 processing Methods 0.000 claims description 7
- 238000000034 method Methods 0.000 description 37
- 230000008569 process Effects 0.000 description 26
- 230000009471 action Effects 0.000 description 20
- 230000006399 behavior Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 9
- 230000004044 response Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000007613 environmental effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000008921 facial expression Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000008451 emotion Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241000700605 Viruses Species 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 210000000577 adipose tissue Anatomy 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 230000037237 body shape Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
Images
Landscapes
- Time Recorders, Dirve Recorders, Access Control (AREA)
Abstract
Description
本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.
従来より、認証手法としての顔認証は利用されている。また、顔認証に関連する技術も提案されている(例えば特許文献1参照)。 Conventionally, face recognition has been used as an authentication method. Further, a technique related to face recognition has also been proposed (see, for example, Patent Document 1).
しかしながら、現段階における技術水準では、顔認証のみによる抜け目の無い完全な認証は困難である。例えば、顔の撮像画像のデータの解像度の違いや、ピントのズレ、カメラと認証の対象との距離の違いなどによって認証結果に差異が生じることがある。 However, at the current state of the art, it is difficult to perform astute and complete authentication using only face recognition. For example, the authentication result may differ due to the difference in the resolution of the captured image data of the face, the out-of-focus, the difference in the distance between the camera and the authentication target, and the like.
本発明は、このような状況に鑑みてなされたものであり、顔認証に用いられる情報と、それ以外の情報とを用いた総合的な認証を行うことで、より抜け目のない認証を行うことを目的とする。 The present invention has been made in view of such a situation, and more astute authentication can be performed by performing comprehensive authentication using information used for face authentication and other information. With the goal.
上記目的を達成するため、本発明の一態様の情報処理装置は、
ユーザの顔の撮像画像に基づく第1情報を取得する第1取得手段と、
当該ユーザの1以上のコンテクストデータに基づく第2情報を取得する第2取得手段と、
前記第1取得手段により取得された前記第1情報と、前記第2取得手段により取得された前記第2情報とに基づく判断結果に基づいて、前記ユーザの認証を行う認証手段と、
を備える。
In order to achieve the above object, the information processing device of one aspect of the present invention is
The first acquisition means for acquiring the first information based on the captured image of the user's face, and
A second acquisition means for acquiring second information based on one or more context data of the user, and
An authentication means that authenticates the user based on a determination result based on the first information acquired by the first acquisition means and the second information acquired by the second acquisition means.
To be equipped.
本発明の一態様の情報処理方法及びプログラムは、上述の本発明の一態様の情報処理装置に対応する情報処理方法及びプログラムである。 The information processing method and program according to one aspect of the present invention are the information processing methods and programs corresponding to the above-mentioned information processing device according to one aspect of the present invention.
本発明によれば、顔認証に用いられる情報と、それ以外の情報とを用いた総合的な認証を行うことで、より抜け目のない認証を行うことができる。 According to the present invention, more astute authentication can be performed by performing comprehensive authentication using information used for face authentication and other information.
以下、本発明の実施形態について、図面を用いて説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
まず、図1乃至図5を参照して、本発明の情報処理装置の一実施形態に係るサーバ1が適用される情報処理システム(後述する図6参照)の適用対象となるサービス(以下、「本サービス」と呼ぶ)の概要について説明する。
First, with reference to FIGS. 1 to 5, a service to which the information processing system (see FIG. 6 described later) to which the
図1は、本発明の情報処理装置の一実施形態に係るサーバが適用される情報処理システムの適用対象となる本サービスの概要を示す図である。 FIG. 1 is a diagram showing an outline of the present service to which the information processing system to which the server according to the embodiment of the information processing apparatus of the present invention is applied is applied.
本サービスは、ユーザUの認証が行われる際に提供されるサービスである。ユーザUは特に限定されず、本サービスによる認証の対象となり得るすべての人間が含まれる。
ユーザUの認証を行う者(図示せず)は、本サービスを利用することで、ユーザUの顔関連情報と、ユーザUのコンテクスト関連情報とに基づいて総合的に行われる精度の高い認証(以下、「総合認証」と呼ぶ)を行うことができる。
This service is a service provided when user U is authenticated. User U is not particularly limited, and includes all human beings who can be authenticated by this service.
A person who authenticates user U (not shown) uses this service to comprehensively perform highly accurate authentication based on user U's face-related information and user U's context-related information (not shown). Hereinafter referred to as "comprehensive certification") can be performed.
「顔関連情報」とは、ユーザUの顔に関する情報のことをいう。顔関連情報には、ユーザUの顔の撮像画像のデータ自体、ユーザUの顔認証に用いるための特徴量等に変換されたデータ、ユーザUの顔認証の結果を示す情報等が含まれる。 "Face-related information" refers to information related to the face of user U. The face-related information includes the data itself of the captured image of the face of the user U, the data converted into the feature amount for use in the face recognition of the user U, the information indicating the result of the face recognition of the user U, and the like.
「コンテクスト関連情報」とは、ユーザUのコンテクストデータに基づく情報のことをいう。「コンテクストデータ」とは、ユーザUの内的状態と外的状態とのうち少なくとも1以上の状態を示すデータのことをいう。即ち、1つのコンテクストデータは、ユーザUの「内的状態」と「外的状態」とのうちいずれか1つ以上の状態を示すデータとなる。ここで、「内的状態」とは、ユーザU自体をセンシングの対象とすることで得られた各種のデータにより示される、ユーザUの状態のことをいう。「内的状態」を示すデータには、例えば、測定や調査等により得られた、身長、体重、体温、脈拍、体脂肪率、体型、指紋、声紋、年齢などユーザUの身体的特徴を示す客観的なデータが含まれる。また、アンケートや問診等により得られた体調や感情等の主観的なデータや、ユーザUの行動履歴もユーザUの内的状態を示すデータに含まれる。また、「外的状態」とは、ユーザUの周囲の環境をセンシングの対象とすることで得られた各種のデータにより示される、ユーザUの状態のことをいう。「外的状態」を示すデータには、例えば、ユーザUが、過去に存在した、現在存在する、又は将来存在し得る場所における、気象(天気、気温、湿度等)の履歴や予報、室温等に関するデータが含まれる。また、外的状態を示すデータには、ユーザUの空間的又は時間的な配置の位置を示すデータ、ユーザUの周囲の空間的方向と時間的方向のうち、少なくとも1の方向に分布する所定の状態を示すデータ等も含まれる。
なお、本明細書において「時間」とは、本来的な概念である「幅」を示すものに限らず、「そのとき」を示す概念として、「時刻」や「タイミング」も含まれるものとする。このため、「時間的な配置の位置を示すデータ」には、例えば過去の所定タイミングにおける時刻や、現在時刻等が含まれる。
The "context-related information" refers to information based on the context data of the user U. The "context data" refers to data indicating at least one or more states of the internal state and the external state of the user U. That is, one context data is data indicating one or more of the "internal state" and the "external state" of the user U. Here, the "internal state" refers to the state of the user U, which is indicated by various data obtained by targeting the user U itself for sensing. The data indicating the "internal state" indicates the physical characteristics of the user U such as height, weight, body temperature, pulse, body fat percentage, body shape, fingerprint, voice print, and age obtained by measurement or investigation, for example. Contains objective data. In addition, subjective data such as physical condition and emotion obtained by questionnaires and interviews, and user U's behavior history are also included in the data showing the internal state of user U. Further, the "external state" refers to the state of the user U indicated by various data obtained by targeting the environment around the user U for sensing. The data indicating the "external state" includes, for example, the history and forecast of the weather (weather, temperature, humidity, etc.), the room temperature, etc. in the place where the user U existed in the past, exists now, or may exist in the future. Contains data about. Further, the data indicating the external state includes data indicating the position of the spatial or temporal arrangement of the user U, and predetermined data distributed in at least one of the spatial direction and the temporal direction around the user U. Data indicating the state of is also included.
In addition, in this specification, "time" is not limited to the original concept of "width", but also includes "time" and "timing" as a concept of "at that time". .. Therefore, the "data indicating the position of the temporal arrangement" includes, for example, the time at a predetermined timing in the past, the current time, and the like.
なお、本サービスを利用してユーザUの総合認証を行う者は特に限定されない。例えばイベント会場のセキュリティを管理するイベント管理会社、ATM(Automatic Teller Machine)を管理する金融機関、宿泊者を管理するホテル等の宿泊施設、EC(Electronic Commerce)サイト管理会社などが総合認証を行う者として挙げられる。 The person who performs comprehensive authentication of user U using this service is not particularly limited. For example, an event management company that manages the security of event venues, a financial institution that manages ATMs (Autummatic Teller Machines), accommodation facilities such as hotels that manage guests, and persons who perform comprehensive certification by EC (Electronic Commerce) site management companies. Is listed as.
上述したように、ユーザUの顔認証の結果を示す情報は、顔関連情報として取得される。また、コンテクストデータを用いて行われた各種の認証の結果は、コンテクストデータに基づく情報としての「コンテクスト関連情報」として取得される。例えば、ユーザUが金融機関のATMで預金の引き出しを行う際、ATMによる認証(例えばキャッシュカードの識別情報と暗証番号との組み合わせによる認証)の結果は、ユーザUのコンテクスト関連情報として取得される。 As described above, the information indicating the result of the face authentication of the user U is acquired as the face-related information. In addition, the results of various authentications performed using the context data are acquired as "context-related information" as information based on the context data. For example, when the user U withdraws a deposit at an ATM of a financial institution, the result of the ATM authentication (for example, the authentication by the combination of the identification information of the cash card and the PIN code) is acquired as the context-related information of the user U. ..
このように、ユーザUの顔関連情報及びコンテクスト関連情報は、総合認証が行われるタイミングのみならず、ユーザUの生活上のあらゆる場面で取得される。
図2は、ユーザの顔関連情報及びコンテクスト関連情報が取得されるタイミングの具体例を示す図である。
In this way, the face-related information and the context-related information of the user U are acquired not only at the timing when the comprehensive authentication is performed but also at every scene in the life of the user U.
FIG. 2 is a diagram showing a specific example of the timing at which the user's face-related information and context-related information are acquired.
図2には、東京に住むユーザUが、大阪で開催されるイベントに参加するために出張した場合の流れが示されている。
ユーザUは、東京駅の自動改札機(外部装置4)に自分のスマートフォン等の情報処理装置(ユーザ端末3)をかざして、所定情報を読取らせることでプラットホーム内に入場した(ステップSS1)。
ここで、ユーザUが東京駅の自動改札機を通過したという行動履歴(コンテクストデータ)がコンテクスト関連情報として記録される。具体的には、東京駅の自動改札機に、「東京駅の改札を通過した」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。また、ユーザ端末3にも、「東京駅の改札を通過した」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。なお、東京駅の自動改札機やユーザ端末3に記録されているコンテクスト関連情報は、逐次サーバ1に送信され、サーバ1において記憶されて履歴が管理される。具体的には例えば、MACアドレス(Media Access Control address)、スマートフォン等の端末ID、WiFiのアクセスポイント等からユーザ端末3とユーザUとを特定することで、ユーザUの行動履歴が管理される。
FIG. 2 shows a flow when a user U living in Tokyo travels to participate in an event held in Osaka.
User U entered the platform by holding an information processing device (user terminal 3) such as his / her smartphone over an automatic ticket gate (external device 4) at Tokyo Station and reading predetermined information (step SS1). ..
Here, the action history (context data) that the user U has passed through the automatic ticket gate at Tokyo Station is recorded as context-related information. Specifically, the action history of "passing the ticket gate of Tokyo Station" is recorded on the automatic ticket gate of Tokyo Station as context-related information together with a time stamp indicating the timing. In addition, the action history of "passing the ticket gate of Tokyo Station" is recorded on the
新幹線で新大阪駅に到着したユーザUは、新大阪駅の自動改札機(外部装置4)にユーザ端末3をかざして、所定情報を読取らせることでプラットホームから退出した(ステップSS2)。
ここで、ユーザUが新大阪駅の自動改札機を通過したという行動履歴(コンテクストデータ)がコンテクスト関連情報として記録される。具体的には、新大阪駅の自動改札機に、「新大阪駅の改札を通過した」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。また、ユーザUが所持するユーザ端末3にも、「新大阪駅の改札を通過した」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。なお、新大阪駅の自動改札機やユーザ端末3に記録されているコンテクスト関連情報は、逐次サーバ1に送信され、サーバ1において記憶されて履歴が管理される。
User U, who arrived at Shin-Osaka Station on the Shinkansen, exited the platform by holding the
Here, the action history (context data) that the user U has passed the automatic ticket gate at Shin-Osaka Station is recorded as context-related information. Specifically, the action history of "passing the ticket gate of Shin-Osaka Station" is recorded on the automatic ticket gate of Shin-Osaka Station as context-related information together with a time stamp indicating the timing. Further, on the
新大阪駅を出たユーザUは、駅前の銀行に設置されたATMから現金を引き出した(ステップSS3)。ここで、ATMは、本サービスを利用して総合認証を行う総合認証装置2として機能するものとする。
ユーザUが新大阪駅の駅前の銀行のATMで現金を引き出したという行動履歴(コンテクストデータ)は、コンテクスト関連情報として記録される。さらに、ユーザUがATMを利用する際、ATMにより実行された総合認証の結果も、コンテクスト関連情報として記録される。
具体的には、駅前の銀行に設置されたATMに、「新大阪駅の駅前の銀行のATMで現金が引き出された」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。また、ユーザUが所持するユーザ端末3にも、「新大阪駅の駅前の銀行のATMで現金が引き出された」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。なお、銀行のATMやユーザ端末3に記録されているコンテクスト関連情報は、逐次サーバ1に送信され、サーバ1において記憶されて管理される。
User U, who left Shin-Osaka Station, withdrew cash from an ATM installed at a bank in front of the station (step SS3). Here, the ATM shall function as a
The action history (context data) that the user U withdrew cash at the ATM of the bank in front of Shin-Osaka station is recorded as context-related information. Further, when the user U uses the ATM, the result of the comprehensive authentication executed by the ATM is also recorded as the context-related information.
Specifically, at the ATM installed at the bank in front of the station, the action history that "cash was withdrawn at the ATM of the bank in front of Shin-Osaka Station" is recorded as context-related information along with a time stamp indicating the timing. Will be done. In addition, the action history that "cash was withdrawn at the ATM of the bank in front of Shin-Osaka Station" is recorded on the
さらに、ATMの総合認証における顔認証の結果は、顔関連情報として記録される。ATMに記録されている顔関連情報は、逐次サーバ1に送信され、サーバ1において記憶されて履歴が管理される。
なお、図2の例においてATMは、総合認証を行う総合認証装置2としているが、従来の認証のみを行うATMであってもよい。この場合にも、認証結果はコンテクスト関連情報として記録される。
Further, the result of face recognition in the comprehensive ATM authentication is recorded as face-related information. The face-related information recorded in the ATM is sequentially transmitted to the
In the example of FIG. 2, the ATM is a
駅前の銀行のATMで現金を引き出したユーザUは、宿泊先である大阪市内のホテルに向かい、エントランスに設置された自動チェックイン受付装置(外部装置4)を操作してチェックインを行った(ステップSS4)。
ここで、ユーザUが大阪市内のホテルにチェックインしたという行動履歴(コンテクストデータ)がコンテクスト関連情報として記録される。さらに、ユーザUがホテルにチェックインする際、自動チェックイン受付装置により実行された認証の結果も、コンテクスト関連情報として記録される。具体的には、ホテルに設置された自動チェックイン受付装置に、「大阪市内の〇〇ホテルにチェックインした」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。また、ユーザ端末3にも、「大阪市内の〇〇ホテルにチェックインした」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。なお、自動チェックイン受付装置やユーザ端末3に記録されているコンテクスト関連情報は、逐次サーバ1に送信され、サーバ1において記憶されて管理される。
User U, who withdrew cash at the ATM of the bank in front of the station, headed to the hotel in Osaka city where he was staying and checked in by operating the automatic check-in reception device (external device 4) installed at the entrance. (Step SS4).
Here, the action history (context data) that the user U has checked in to a hotel in Osaka city is recorded as context-related information. Further, when the user U checks in to the hotel, the result of the authentication executed by the automatic check-in reception device is also recorded as context-related information. Specifically, the action history of "checking in to a hotel in Osaka City" is recorded as context-related information along with a time stamp indicating the timing on the automatic check-in reception device installed in the hotel. .. In addition, the action history of "checking in to a hotel in Osaka City" is recorded on the
大阪市内のホテルで一泊したユーザUは、その日の午後から開催されるイベントに参加する前にレストランで昼食をとった。そして、ユーザUは、POS(Point of sales)端末(外部装置4)に設けられた所定の受信機にユーザ端末3をかざすことで、代金の決済処理を済ませた(ステップSS5)。
ここで、ユーザUがレストランで決済を行ったという行動履歴(コンテクストデータ)がコンテクスト関連情報として記録される。具体的には、レストランに設置されたPOS端末に、「大阪市内の〇〇レストランで〇〇円の決済を行った」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。また、ユーザ端末3にも、「大阪市内の〇〇レストランで〇〇円の決済を行った」という行動履歴が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。なお、POS端末やユーザ端末3に記録されているコンテクスト関連情報は、逐次サーバ1に送信され、サーバ1において記憶されて履歴が管理される。
User U, who stayed overnight at a hotel in Osaka, had lunch at a restaurant before attending an event to be held from that afternoon. Then, the user U completes the payment process by holding the
Here, the action history (context data) that the user U made a payment at the restaurant is recorded as the context-related information. Specifically, on the POS terminal installed in the restaurant, the action history that "the payment of XX yen was made at the XX restaurant in Osaka city" is recorded as context-related information together with the time stamp indicating the timing. Will be done. In addition, the action history of "payment of XX yen at XX restaurant in Osaka city" is recorded on the
レストランで昼食を済ませたユーザUは、自身が参加するイベントが開催されるイベント会場に向かった(ステップSS6)。
ユーザUが参加するイベントが開催されるイベント会場の出入口(セキュリティゲート)には、総合認証装置2が設置されている。総合認証装置2は、ユーザUがイベント会場の出入口(セキュリティゲート)を通過しようとすると、そのユーザUの顔関連情報及びコンテクスト関連情報を、サーバ1を介して取得する。
また、総合認証装置2は、カメラ等の撮像装置に、イベント会場の出入口(セキュリティゲート)を通過しようとするユーザUの顔を含むユーザUの身体の少なくとも一部を撮像させる。そして、ユーザUの顔の撮像画像のデータは顔関連情報として取得され、それ以外の撮像画像のデータはコンテクスト関連情報として取得される。
After having lunch at the restaurant, User U headed to the event venue where the event he participated in was held (step SS6).
A
Further, the
総合認証装置2は、顔関連情報とコンテクスト関連情報に基づくサーバ1による総合的な判断(以下、「総合判断」と呼ぶ)の結果に基づいて、ユーザUの総合認証を行う。総合認証装置2による総合認証の結果は、情報の種類に応じて、顔関連情報又はコンテクスト関連情報として総合認証装置2に記録される。また、総合認証装置2に記録されている総合認証の結果は、逐次サーバ1に送信され、サーバ1において記憶されて履歴が管理される。
なお、サーバ1により行われる、総合認証の具体例については、図3及び図4を参照して後述する。
The
A specific example of the comprehensive authentication performed by the
大阪で開催されたイベントに参加したユーザUは、仕事を終えてイベント会場を出ると、休憩のためにカフェ(喫茶店)に入店した(ステップSS7)。
ユーザUは、オーダー後、客席でユーザ端末3を操作して、ECサイトにアクセスして、インターネットショッピングを行った。その後、ユーザUは、レストランと同様にPOS端末(外部装置4)による決済処理を済ませて退店した。
ここで、ユーザUがECサイトにアクセスしてインターネットショッピングを行ったという行動履歴(コンテクストデータ)がコンテクスト関連情報として記録される。さらに、ユーザUがECサイトにログインする際、ECサイトにより実行された認証の結果も、コンテクスト関連情報として記録される。具体的には、ECサイトの運営を行う運営サーバ(外部装置4)に、インターネットショッピングの購入履歴(行動履歴)が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。また、ユーザ端末3にも、インターネットショッピングの購入履歴(行動履歴)が、そのタイミングを示すタイムスタンプとともに、コンテクスト関連情報として記録される。なお、ECサイトの運営サーバやユーザ端末3に記録されているコンテクスト関連情報は、逐次サーバ1に送信され、サーバ1において記憶されて履歴が管理される。
User U, who participated in the event held in Osaka, entered a cafe (coffee shop) for a break after finishing work and leaving the event venue (step SS7).
After ordering, the user U operates the
Here, the behavior history (context data) that the user U has accessed the EC site and performed Internet shopping is recorded as context-related information. Further, when the user U logs in to the EC site, the result of the authentication executed by the EC site is also recorded as context-related information. Specifically, the purchase history (behavior history) of Internet shopping is recorded as context-related information together with a time stamp indicating the timing on the operation server (external device 4) that operates the EC site. Further, the purchase history (behavior history) of Internet shopping is also recorded on the
図3乃至図5は、サーバによる総合認証の具体例を示す図である。 3 to 5 are diagrams showing specific examples of comprehensive authentication by the server.
図3には、図2の大阪市内のイベント会場のセキュリティゲートに設置された総合認証装置2によるユーザUの総合認証が、2020年2月20日の午後2時に行われた場合の例が示されている。
ここで、サーバ1が、ユーザUのコンテクスト関連情報として、「2020年2月20日の午後12時30分に大阪市内のレストランで決済処理が行われた」という情報を取得したとする。この場合、サーバ1は、取得したコンテクスト関連情報に基づいて、「辻褄が合うかどうか」についての判断を行う。即ち、サーバは、大阪市内のレストランで決済処理が行われた時刻と、大阪市内のイベント会場で総合認証が行われている時刻との時間差(1時間30分)と位置関係とを考慮して、「辻褄が合うかどうか」についての判断を行う。サーバ1による判断の結果、「辻褄が合う」と判断された場合には、総合認証装置2は、顔認証の結果と、サーバ1の判断結果とに基づいて、ユーザUの総合認証を行う。
FIG. 3 shows an example in which the comprehensive authentication of the user U by the
Here, it is assumed that the
このように、サーバ1がユーザUのコンテクスト関連情報のうち、「時間」と「行動履歴」に基づく判断を行うことで、その判断結果を利用する総合認証装置2におけるより正確な判断が可能となる。これにより、仮にユーザUの顔認証が正確に行われなかった場合であっても、サーバ1の総合判断の結果に基づいた総合認証が可能となる。具体的には例えば、ユーザUを偽って大阪のイベント会場に入場しようとする者が、たとえ顔認証を潜り抜けることができる変装の達人であったとしても、サーバ1による判断結果が「辻褄が合わない」というものであれば認証されない。例えば、図3に示すように、総合認証が行われるタイミングにおいて、本物のユーザUが東京に存在することを示すコンテクスト関連情報(東京都内の某銀行のATMを利用したという行動履歴)が取得された場合には、サーバ1による判断結果は「辻褄が合わない」というものになり、認証されない。
In this way, when the
図4には、図3と同様に、大阪市内のイベント会場のセキュリティゲートに設置された総合認証装置2により、ユーザUの総合認証が行われた場合の例が示されている。
ここで、サーバ1が、ユーザUのコンテクスト関連情報として、「身長が185cm」、「体重が65kg」、「性別が男性」、「黒色のセーターを着用」という情報を取得したとする。また、セキュリティゲートに設置されたカメラ等の撮像装置から、ユーザUの全身の撮像画像のデータがコンテクスト関連情報として取得されたものとする。
この場合も、図3の例と同様に、サーバ1は、取得したコンテクスト関連情報に基づいて、「辻褄が合うかどうか」についての判断を行う。即ち、サーバ1は、客観的に示されるユーザUの身体的特徴に関する情報(例えば身長、体重、服装、性別等)と、撮像装置により撮像されたユーザUの全身の撮像画像のデータとを比較して、「辻褄が合うかどうか」についての判断を行う。サーバ1による判断の結果、「辻褄が合う」と判断された場合には、総合認証装置2は認証を行う。
FIG. 4 shows an example in which the comprehensive authentication of the user U is performed by the
Here, it is assumed that the
In this case as well, the
このように、サーバ1がユーザUのコンテクスト関連情報のうち、「特徴」と「撮像画像」に基づく判断を行うことで、その判断結果を利用する総合認証装置2は、より正確な判断を行うことができる。これにより、図3の例と同様に、仮にユーザUの顔認証が正確に行われなかった場合であっても、サーバ1の判断結果に基づいた認証が可能となる。具体的には例えば、ユーザUを偽って大阪のイベント会場に入場しようとする者が、たとえ顔認証を潜り抜けることができる変装の達人であったとても、サーバ1による判断結果が「辻褄が合わない」というものであれば認証されない。例えば、本物のユーザUは「身長が185cm」、「体重が65kg」である。このため、ユーザUの骨格は、いわゆる「細身の長身」となるが、ユーザUを偽って大阪のイベント会場に入場しようとする者の全身の撮像画像のデータから「細身の長身」が見出せない場合がある。この場合、サーバ1による判断結果は「辻褄が合わない」というものになるので、総合認証装置2は認証しない。
In this way, the
図5には、銀行に設置されたATMを総合認証装置2とする総合認証の具体例が示されている。
ここで、サーバ1は、ユーザUのコンテクスト関連情報として、「名前」及び「声紋」を予め取得しているものとする。
この場合、サーバ1は、予め取得しているコンテクスト関連情報と、総合認証装置2により取得された「名前」及び「声紋(生体情報)」を示すコンテクスト関連情報とに基づいて、「辻褄が合うかどうか」についての判断を行う。サーバ1による判断の結果、「辻褄が合う」と判断された場合には、総合認証装置2は、顔認証の結果と、サーバ1の総合判断の結果とに基づいて、ユーザUの総合認証を行う。
具体的には例えば、ATMを利用して現金を引き出そうとする者が、顔認証を潜り抜けることができるいわゆる変装の達人であったとしても、スピーカから出力される「お名前は?」という質問に対する応答が的確なものでなければ認証されない。即ち、予め記憶されている本物のユーザUの名前と声紋との一致が認められなければ認証されない。
FIG. 5 shows a specific example of comprehensive authentication using an ATM installed in a bank as the
Here, it is assumed that the
In this case, the
Specifically, for example, even if a person trying to withdraw cash using an ATM is a so-called master of disguise who can escape face recognition, the question "What is your name?" Output from the speaker. If the response to is not accurate, it will not be authenticated. That is, if the name of the real user U stored in advance and the voiceprint are not matched, the authentication is not performed.
このように、図5の例では、ATMからの質問(「お名前は?」)に対するユーザUの応答が的確なもの(「名前」と「声紋」とが夫々一致)である場合に認証される。このような、総合認証装置2からユーザUに対するアクションに対する応答が的確である場合に認証する手法と同様の手法として、例えば以下のような手法がある。
即ち、図示はしないが、ATM(総合認証装置2)からユーザUに対する何等かの「指示」がランダムで出され、その指示に対するユーザUの応答が的確である場合に認証される手法がある。具体的には例えば、「右手の人差し指と中指とを立てて、カメラに向かってピースサインを出してください」といったジェスチャーを求める指示や、「カメラに向かって笑顔を見せてください」といった指示が出される。これらの指示に対してユーザUが的確に応答すると認証される。
また例えば、「タッチパネルにタッチペンでお名前を書いてください」といった指示を出し、その応答が的確なものである場合に認証する手法がある。このような認証は、例えば筆跡のパターン認識や空間認識等の技術を用いて実現させることができる。
また例えば、ATMが、ユーザUの仕草(例えばタッチパネルを操作する手が左右どちらなのか等)、くせ、話し方のパターンを予め学習したうえで指示を出す手法もある。この場合、ユーザUの応答が統計的に不自然でなければ認証される。
このように、ATM(総合認証装置2)からユーザUに対する何等かの「指示」がランダムで出される態様とすることにより、例えばユーザUを偽って認証を受けようとする者がいたとしても、認証のための準備を行うことができなくなる。これにより、不正行為による認証を容易に防ぐことが可能となる。
As described above, in the example of FIG. 5, the user U is authenticated when the response of the user U to the question from the ATM (“What is your name?”) Is accurate (the “name” and the “voiceprint” match each other). NS. As a method similar to the method of authenticating when the response to the action from the
That is, although not shown, there is a method in which an ATM (Comprehensive Authentication Device 2) randomly issues some "instruction" to the user U, and the user U is authenticated when the response of the user U to the instruction is accurate. Specifically, for example, there are instructions such as "Please raise the index finger and middle finger of your right hand and give a peace sign to the camera" or "Please smile at the camera". Is done. When the user U responds appropriately to these instructions, the user U is authenticated.
Also, for example, there is a method of issuing an instruction such as "write your name on the touch panel with a touch pen" and authenticating when the response is accurate. Such authentication can be realized by using techniques such as handwriting pattern recognition and spatial recognition.
Further, for example, there is also a method in which the ATM gives instructions after learning in advance the gestures of the user U (for example, whether the hand operating the touch panel is left or right), habits, and speaking patterns. In this case, the user U's response is authenticated if it is not statistically unnatural.
In this way, by making some "instructions" randomly issued from the ATM (general authentication device 2) to the user U, for example, even if there is a person who falsely tries to authenticate the user U. You will not be able to prepare for authentication. This makes it possible to easily prevent authentication due to fraudulent activity.
また、本サービスにおける総合認証の要素となる顔認証は、従来から行われている、ユーザUの顔を正面から撮像した1枚の静止画像のデータによるものに限定されない。例えば、複数枚(例えば3枚)の静止画像のデータや、多数枚の静止画像のデータからなる動画像によるものも含まれる。これにより、1枚の静止画像のデータでは実現できないユーザUの表情の変化(例えば頬の筋肉の動きの変化)に基づいた認証が可能となる。 Further, the face recognition, which is an element of the comprehensive authentication in this service, is not limited to the conventional data of one still image obtained by capturing the face of the user U from the front. For example, the data of a plurality of (for example, three) still images and the data of a moving image composed of the data of a large number of still images are also included. This enables authentication based on changes in the facial expression of the user U (for example, changes in the movement of the cheek muscles), which cannot be realized with the data of one still image.
具体的には例えば、ユーザUの表情の変化を撮像した動画像のデータを集積し、ディープラーニング等の技術を用いて特徴量の解析等を行うことで、動画像による顔認証が実現可能となる。ユーザUの表情の変化は、そのユーザUの感情が表出したものである。このため、ユーザUの表情と感情との関連性を示す感情特徴量を抽出した解析等を行うことも可能となる。また、ユーザUを撮像した動画像には、ユーザUの正面の顔、横顔、及び後ろ姿の動画像のデータが含まれ得るため、ユーザUの正面の顔と、横顔と、後ろ姿との関係を対応付けて管理することもできる。これにより、従来から行われているユーザUの正面の顔の静止画像のデータを用いた顔認証のみならず、ユーザUの横顔の静止画像や後ろ姿の静止画像のデータを用いた認証も可能となる。さらに、多数のユーザUの正面の顔と、横顔と、後ろ姿とを対応付けたデータを集積し、ディープラーニング等の技術を用いて特徴量の抽出及び解析等を行うことができる。その結果、ユーザUの正面の顔の静止画像のデータから、横顔や後ろ姿を推測することも可能となる。またさらに、推測の精度を向上させていくことで、マスクやサングラスをした状態のユーザUの顔の静止画像のデータから、マスクやサングラスを外した状態を推測することもできる。また、マスクで隠れない部分(目やその周りの皮膚)の動き(まばたきや皮膚の振幅)に基づく認証を行うことも可能となる。 Specifically, for example, face recognition using moving images can be realized by accumulating moving image data that captures changes in the facial expression of user U and analyzing feature quantities using techniques such as deep learning. Become. The change in the facial expression of the user U is an expression of the emotion of the user U. Therefore, it is also possible to perform an analysis or the like by extracting an emotional feature amount indicating the relationship between the facial expression of the user U and the emotion. Further, since the moving image of the user U may include data of the moving image of the front face, the profile, and the back view of the user U, the relationship between the front face, the profile, and the back view of the user U can be determined. It can also be managed in association with each other. As a result, it is possible to perform not only the conventional face authentication using the data of the still image of the front face of the user U, but also the authentication using the data of the still image of the profile of the user U and the still image of the back view. Become. Further, it is possible to collect data in which the front face, the profile, and the back of a large number of users U are associated with each other, and extract and analyze the feature amount by using a technique such as deep learning. As a result, it is possible to infer the profile and the back view from the still image data of the front face of the user U. Furthermore, by improving the accuracy of estimation, it is possible to infer the state in which the mask or sunglasses are removed from the data of the still image of the face of the user U in the state of wearing the mask or sunglasses. It is also possible to perform authentication based on the movement (blinking and skin amplitude) of the part (eyes and the skin around them) that is not hidden by the mask.
また、本サービスによれば、例えば求められるセキュリティの高さ、予算等に応じて、柔軟に認証のレベルやパターンに差異を設けることもできる。 In addition, according to this service, it is possible to flexibly set different authentication levels and patterns according to, for example, the required level of security, budget, and the like.
また例えば、本サービスによれば、パスワードによるログイン操作が不要になるので、パスワードの失念や入力ミス等が生じることがなくなる。また、他人の「なりすまし」によるログイン操作が行われることがなくなる。 Further, for example, according to this service, since the login operation using a password is not required, the password is not forgotten or an input error is not caused. In addition, the login operation by another person's "spoofing" will not be performed.
また例えば、本サービスによれば、ユーザUを容易に特定することができるので、戸籍管理が不十分な国や地域における国民等の管理を容易に行うことができるようになる。また、未知のウイルス等の感染ルートの特定することも可能となる。 Further, for example, according to this service, since the user U can be easily identified, it becomes possible to easily manage the people and the like in a country or region where the family register management is insufficient. It is also possible to identify the infection route of an unknown virus or the like.
また例えば、本サービスによれば、ユーザUがどの程度エネルギー(例えば電力)を消費しているのかを容易に管理することもできる。このため、エネルギーの消費量に応じたスコアリングを行うこともできる。具体的には例えば、「環境スコア」という指標を設けて、エネルギー消費量の削減に貢献しているユーザUに付与することもできる。エネルギー消費量のみならず、例えばルールを守ってゴミ出しを行ったり、森林を守るための具体的な行動を行ったりした場合にも環境スコアが付与されてもよい。
また、本サービスによれば、ユーザUがどの程度の信用を有してるのかを容易に管理することできるので、ユーザUの信用度に応じたスコアリングを行うこともできる。具体的には例えば、「信用スコア」という指標を設けて、ユーザUに付与することもできる。これにより、例えば環境スコアや信用スコアが高いユーザUは、環境スコアや信用スコアが低いユーザUよりも認証を簡素化させて、認証を効率化させることもできる。その結果、環境スコアや信用スコアを高めようとするユーザUが増えることが期待できるので、本サービスが地球環境の保護に寄与することも可能となる。
Further, for example, according to this service, it is possible to easily manage how much energy (for example, electric power) the user U is consuming. Therefore, scoring can be performed according to the amount of energy consumed. Specifically, for example, an index called "environmental score" can be provided to the user U who contributes to the reduction of energy consumption. An environmental score may be given not only to energy consumption but also to, for example, observing rules to dispose of garbage or taking specific actions to protect forests.
Further, according to this service, it is possible to easily manage how much credit the user U has, so that scoring can be performed according to the credit rating of the user U. Specifically, for example, an index called "credit score" can be provided and given to the user U. Thereby, for example, the user U having a high environmental score or credit score can simplify the authentication as compared with the user U having a low environmental score or credit score, and the authentication can be made more efficient. As a result, it is expected that the number of users U who try to increase the environmental score and the credit score will increase, so that this service can also contribute to the protection of the global environment.
図6は、本発明の一実施形態に係るサーバが適用される情報処理システムの構成の一例を示すブロック図である。 FIG. 6 is a block diagram showing an example of the configuration of an information processing system to which the server according to the embodiment of the present invention is applied.
図6に示す情報処理システムは、サーバ1と、総合認証装置2−1乃至2−n(nは1以上の整数値)と、ユーザ端末3−1乃至3−m(mは1以上の整数値)と、外部装置4−1乃至4−k(kは1以上の整数値)とを含む。
サーバ1と、総合認証装置2−1乃至2−nと、ユーザ端末3−1乃至3−mと、外部装置4−1乃至4−kとは、インターネット(Internet)等のネットワークNを介して相互に接続されている。なお、ネットワークNは、その形態は特に限定されず、例えば、Bluetooth(登録商標)、Wi−Fi、LAN(Local Area Network)、インターネット等を採用することができる。
以下、総合認証装置2−1乃至2−n、ユーザ端末3−1乃至3−m、外部装置4−1乃至4−kの夫々を個々に区別する必要がない場合、これらをまとめて、「総合認証装置2」、「ユーザ端末3」、「外部装置4」の夫々と呼ぶ。
The information processing system shown in FIG. 6 includes a
The
Hereinafter, when it is not necessary to individually distinguish each of the comprehensive authentication devices 2-1 to 2-n, the user terminals 3-1 to 3-m, and the external devices 4-1 to 4-k, these are collectively referred to as " They are called "
サーバ1は、サービス提供者(図示せず)により管理される情報処理装置である。サーバ1は、総合認証装置2、ユーザ端末3、及び外部装置4の夫々からユーザUの顔関連情報又はコンテクスト関連情報を取得する。
また、サーバ1は、取得した顔関連情報及びコンテクスト関連情報に基づいて、総合判断を行う。
The
In addition, the
総合認証装置2は、ユーザUの総合認証を行う装置である。総合認証装置2は、例えば図2に示すイベント会場に来場したユーザUの認証を行ったり、銀行のATMとして設置されたりする。総合認証装置2による総合認証の結果は、コンテクスト関連情報としてサーバ1に送信され、サーバ1において記憶されて管理される。
The
ユーザ端末3は、ユーザUにより操作される情報処理装置である。ユーザ端末3は、例えばスマートフォンやタブレット等で構成される。
The
外部装置4は、ユーザUのコンテクスト関連情報を取得する装置である。外部装置4は様々な場所に設置される。具体的には例えば、図2の例では、東京駅に設置された自動改札機、新大阪駅に設置された自動改札機、ホテルに設置された自動チェックイン受付装置、レストランに設置されたPOS端末は、いずれも外部装置4の一例である。また、図2の例でユーザUがアクセスしたECサイトの運営を行う運営サーバや、セキュリティゲートに設置されたカメラ等の撮像装置も外部装置4の一例である。
The
図7は、図6の情報処理システムのうち、サーバのハードウェア構成の一例を示すブロック図である。 FIG. 7 is a block diagram showing an example of the hardware configuration of the server in the information processing system of FIG.
サーバ1は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memoy)13と、バス14と、入出力インターフェース15と、入力部16と、出力部17と、記憶部18と、通信部19と、ドライブ20と、を備えている。
The
CPU11は、ROM12に記録されているプログラム、又は記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
The
Data and the like necessary for the
CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、入力部16、出力部17、記憶部18、通信部19及びドライブ20が接続されている。
The
入力部16は、各種ハードウェア釦等で構成され、操作者の指示操作に応じて各種情報を入力する。
出力部17は、液晶等のディスプレイにより構成され、各種画像を表示する。
The
The
記憶部18は、DRAM(Dynamic Random Access Memory)等で構成され、各種データを記憶する。
通信部19は、インターネットを含むネットワークNを介して他の装置(総合認証装置2、ユーザ端末3、及び外部装置4等)との間で行う通信を制御する。
The
The
ドライブ20は、必要に応じて設けられる。ドライブ20には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア40が適宜装着される。ドライブ20によってリムーバブルメディア40から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。また、リムーバブルメディア40は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。
The
このような図7のサーバ1の各種ハードウェアと各種ソフトウェアとの協働により、後述する各種処理の実行が可能になる。
なお、図示はしないが、図6の情報処理システムのうち、総合認証装置2、及びユーザ端末3、及び外部装置4も、図7に示すハードウェア構成を有している。このため、総合認証装置2、及びユーザ端末3、及び外部装置4のハードウェア構成についての説明は省略する。ただし、ユーザ端末3がスマートフォンやタブレットで構成される場合には、入力部16及び出力部17として、タッチパネルを有している。
By collaborating with the various hardware of the
Although not shown, among the information processing systems of FIG. 6, the
図8は、図7のサーバにより実行が制御される処理のうち、総合認証処理を実現させる機能的構成の一例を示す機能ブロック図である。 FIG. 8 is a functional block diagram showing an example of a functional configuration that realizes a comprehensive authentication process among the processes whose execution is controlled by the server of FIG. 7.
「総合認証処理」とは、上述の総合認証が行われる際に実行が制御される処理のことをいう。総合認証処理の実行が制御されることで、ユーザUの顔関連情報と、ユーザUのコンテクスト関連情報とに基づく精度の高い認証が可能となる。 The "comprehensive authentication process" refers to a process whose execution is controlled when the above-mentioned comprehensive authentication is performed. By controlling the execution of the comprehensive authentication process, highly accurate authentication based on the face-related information of the user U and the context-related information of the user U becomes possible.
図8に示すように、サーバ1のCPU11においては、総合認証処理の実行が制御される場合には、顔関連情報取得部101と、コンテクスト関連情報取得部102と、判断部103と、認証部104とが機能する。また、サーバ1の記憶部18の一領域には、ユーザDB181が設けられている。
As shown in FIG. 8, in the
顔関連情報取得部101は、ユーザUの顔の撮像画像に基づく顔関連情報を取得する。顔関連情報取得部101により取得された顔関連情報は、ユーザDB181に記憶されて管理される。
The face-related
コンテクスト関連情報取得部102は、ユーザUの1以上のコンテクストデータに基づくコンテクスト関連情報を取得する。コンテクスト関連情報取得部102により取得されたコンテクスト関連情報は、ユーザDB181に記憶されて管理される。
また、コンテクスト関連情報取得部102は、後述する認証部104による総合認証が行われるタイミング、及び当該タイミングよりも前の1以上のタイミングでコンテクスト関連情報を取得する。
また、コンテクスト関連情報取得部102は、コンテクスト関連情報として、コンテクストデータに含まれる、時間、ユーザUの行動、特徴、及び撮像画像の夫々を示すデータうち、少なくとも1のデータを取得する。
The context-related
Further, the context-related
Further, the context-related
判断部103は、顔関連情報取得部101により取得された顔関連情報と、コンテクスト関連情報取得部102により取得されたコンテクスト関連情報とに基づいて、総合認証に必要となる各種の判断を行う。この「判断」の一例として、判断部103は、顔関連情報及びコンテクスト関連情報を構成する複数の情報を総合的に考慮して、例えば情報間の「辻褄が合うかどうか」についての判断を行う。
The
認証部104は、判断部103による判断の結果に基づいて、ユーザUの総合認証を行う。認証部104による認証の結果は、顔関連情報あるいはコンテクスト関連情報としてユーザDB181に記憶されて管理される。
ここで、総合認証の根拠となる「判断部103による判断の結果」には、顔関連情報と、コンテクスト関連情報取得部102により複数のタイミングで夫々取得されたコンテクスト関連情報とに基づく判断結果が含まれる。
即ち、認証部104は、総合認証を行うタイミング、及びそれよりも前の1以上のタイミングの夫々で取得されたコンテクスト関連情報の夫々に含まれるユーザUの位置を示す情報に基づく判断結果に基づいて、ユーザUの認証を行う。
The
Here, the "judgment result by the
That is, the
次に、図9を参照して、図8の機能的構成を有するサーバ1により実行が制御される総合認証処理の流れについて説明する。
図9は、図8の機能的構成を有するサーバにより実行が制御される処理のうち、総合認証処理の流れを示すフローチャートである。
Next, with reference to FIG. 9, the flow of the comprehensive authentication process whose execution is controlled by the
FIG. 9 is a flowchart showing the flow of the comprehensive authentication process among the processes whose execution is controlled by the server having the functional configuration of FIG.
図9に示すように、サーバ1において総合認証処理の実行が制御される場合、ステップS1において、サーバ1の判断部103は、顔関連情報取得部101により顔関連情報が取得されたか否かの判定を行う。顔関連情報が取得されている場合、判断部103が「YES」と判定し、処理はステップS2に進む。これに対して、顔関連情報が取得されていない場合、判断部103は、「NO」と判定して、顔関連情報が取得されるまでステップS1の処理を繰り返す。
As shown in FIG. 9, when the execution of the comprehensive authentication process is controlled by the
ステップS2において、判断部103は、コンテクスト関連情報取得部102によりコンテクスト関連情報が取得されたか否かの判定を行う。コンテクスト関連情報が取得されている場合、判断部103が「YES」と判定し、処理はステップS3に進む。これに対して、コンテクスト関連情報が取得されていない場合、判断部103は、「NO」と判定して、コンテクスト関連情報が取得されるまでステップS2の処理を繰り返す。
In step S2, the
ステップS3において、判断部103は、顔関連情報取得部101により取得された顔関連情報と、コンテクスト関連情報取得部102により取得されたコンテクスト関連情報とに基づいて、総合認証のために必要となる総合判断を行う。
In step S3, the
ステップS4において、認証部104は、ステップS3の判断結果に基づいて、ユーザUの総合認証を行う。総合認証の結果は総合認証端末に出力される。これにより、処理は終了する。
In step S4, the
以上、本発明の情報処理装置の一実施形態について説明したが、本発明は上述した本実施形態に限るものではない。また、本実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙に過ぎず、本発明による効果は、本実施形態に記載されたものに限定されるものではない。 Although one embodiment of the information processing apparatus of the present invention has been described above, the present invention is not limited to the above-described embodiment. Further, the effects described in the present embodiment are merely a list of the most preferable effects arising from the present invention, and the effects according to the present invention are not limited to those described in the present embodiment.
例えば、上述の実施形態では、1人のユーザUが所持するユーザ端末3で管理されているコンテクストデータが取得されて、総合判断及び総合認証に利用されるが、これに限定されない。複数のユーザUの夫々のユーザ端末3に記憶されたコンテクストデータに基づく総合判断及び総合認証を行うこともできる。これにより、例えばユーザU間の関連性(例えば友人関係、恋人関係、同僚等)に基づいた総合判断及び総合認証も可能となる。
For example, in the above-described embodiment, the context data managed by the
また例えば、上述の実施形態では、ユーザUがホテルにチェックインする際、自動チェックイン受付装置(外部装置4)がコンテクスト関連情報を記録してサーバ1に送信しているが、これに限定されない。例えば、ホテルのフロントの担当者によるチェックイン処理の操作を受付けた所定の情報処理端末(外部装置4)がコンテクスト関連情報を記録してサーバ1に送信してもよい。
Further, for example, in the above-described embodiment, when the user U checks in to the hotel, the automatic check-in reception device (external device 4) records the context-related information and transmits it to the
また例えば、上述の実施形態では、認証のためにユーザUを撮像するカメラ等の撮像装置は、固定式であることを前提としているが、特に固定式に限定されない。例えばドローン等の小型飛行体にカメラ等の撮像装置を搭載させて、ユーザUを撮像させてもよい。この場合、その撮像画像のデータを重ねていくことで、撮像対象の高低差を認識することができる。その結果、ユーザUの顔認証も可能となる。 Further, for example, in the above-described embodiment, it is assumed that the imaging device such as a camera that images the user U for authentication is a fixed type, but the present invention is not particularly limited to the fixed type. For example, a small flying object such as a drone may be equipped with an imaging device such as a camera to image the user U. In this case, the height difference of the imaged object can be recognized by superimposing the data of the captured images. As a result, the face authentication of the user U is also possible.
また例えば、図9に示すフローチャートにおいて、ステップS1とステップS2とは順不同である。即ち、顔関連情報とコンテクスト関連情報が取得されるタイミングはどちらが先であってもよい。 Further, for example, in the flowchart shown in FIG. 9, steps S1 and S2 are in no particular order. That is, it does not matter which comes first when the face-related information and the context-related information are acquired.
また、図6に示すシステム構成、図7に示すハードウェア構成、及び図8に示す機能的構成は、本発明の目的を達成するための例示に過ぎず、特に限定されない。 Further, the system configuration shown in FIG. 6, the hardware configuration shown in FIG. 7, and the functional configuration shown in FIG. 8 are merely examples for achieving the object of the present invention, and are not particularly limited.
換言すると、図8に示す機能的構成は例示に過ぎず、特に限定されない。
即ち、上述した一連の処理を全体として実行できる機能が、図6に示す情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図8の例に限定されない。また、機能ブロックの存在場所も、図8に特に限定されず、任意でよい。例えば、サーバ1の機能ブロックを、総合認証装置2、ユーザ端末3、又は外部装置4、あるいは図示せぬ他の情報処理装置等に移譲してもよい。即ち、サーバ1による総合認証処理を総合認証装置2が行えるようにすることもできる。
また、1つの機能ブロックは、ハードウェア単体で構成してもよいし、ソフトウェア単体で構成してもよいし、それらの組み合わせで構成してもよい。
In other words, the functional configuration shown in FIG. 8 is merely an example and is not particularly limited.
That is, it is sufficient that the information processing system shown in FIG. 6 has a function capable of executing the above-mentioned series of processes as a whole, and what kind of functional block is used to realize this function is particularly determined in FIG. Not limited to examples. Further, the location of the functional block is not particularly limited to FIG. 8, and may be arbitrary. For example, the functional block of the
Further, one functional block may be configured by a single piece of hardware, a single piece of software, or a combination thereof.
また例えば、一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。
また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
Further, for example, when a series of processes are executed by software, a program constituting the software is installed on a computer or the like from a network or a recording medium.
The computer may be a computer embedded in dedicated hardware.
Further, the computer may be a computer capable of executing various functions by installing various programs, for example, a general-purpose smartphone or a personal computer in addition to a server.
また例えば、このようなプログラムを含む記録媒体は、利用者にプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態で利用者に提供される記録媒体等で構成される。 Further, for example, a recording medium containing such a program is not only composed of a removable medium (not shown) distributed separately from the main body of the device in order to provide the program to the user, but is also preliminarily incorporated in the main body of the device. It is composed of a recording medium or the like provided to the user in the state.
このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図7のリムーバブルメディア40により構成されるだけでなく、装置本体に予め組み込まれた状態で各ユーザに提供される記録媒体等で構成される。リムーバブルメディア40は、例えば、磁気ディスク(フロッピディスクを含む)、光ディスク、又は光磁気ディスク等により構成される。光ディスクは、例えば、CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)等により構成される。光磁気ディスクは、MD(Mini−Disk)等により構成される。また、装置本体に予め組み込まれた状態でユーザに提供される記録媒体は、例えば、プログラムが記録されている図7のROM12や、図7の記憶部18に含まれるハードディスク等で構成される。
The recording medium including such a program is not only composed of the
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
In the present specification, the steps for describing a program recorded on a recording medium are not necessarily processed in chronological order, but also in parallel or individually, even if they are not necessarily processed in chronological order. It also includes the processing to be executed.
Further, in the present specification, the term of the system means an overall device composed of a plurality of devices, a plurality of means, and the like.
以上まとめると、本発明が適用される情報処理装置は、次のような構成を取れば足り、各種各様な実施形態を取ることができる。
即ち、本発明が適用される情報処理装置(例えば図8のサーバ1)は、
ユーザ(例えば上述のユーザU)の顔の撮像画像に基づく第1情報(例えば上述の顔関連情報)を取得する第1取得手段(例えば図8の顔関連情報取得部101)と、
当該ユーザの1以上のコンテクストデータに基づく第2情報(例えば上述のコンテクスト関連情報)を取得する第2取得手段(例えば図8のコンテクスト関連情報取得部102)と、
前記第1取得手段により取得された前記第1情報と、前記第2取得手段により取得された前記第2情報とに基づく判断結果(例えば図8の判断部103による判断)に基づいて、前記ユーザの認証(例えば上述の総合認証)を行う認証手段(例えば図8の認証部104)と、
を備える。
Summarizing the above, the information processing apparatus to which the present invention is applied need only have the following configuration, and various various embodiments can be taken.
That is, the information processing device to which the present invention is applied (for example, the
A first acquisition means (for example, the face-related
A second acquisition means (for example, the context-related
Based on the determination result (for example, the determination by the
To be equipped.
また、前記第2取得手段は、
前記認証が行われるタイミング(例えば図2のセキュリティゲートで認証が行われるタイミング)、及び当該タイミングよりも前の1以上のタイミング(例えば図2のレストランで精算処理が行われるタイミング)、で前記第2情報を取得し、
前記認証手段は、前記第1取得手段により取得された前記第1情報と、前記第2取得手段により複数のタイミングで夫々取得された前記第2情報とに基づく判断結果(例えば辻褄が合うかどうかについての判断結果)に基づいて、前記ユーザの認証を行うことができる。
Further, the second acquisition means is
The first at the timing when the authentication is performed (for example, the timing when the authentication is performed at the security gate in FIG. 2) and one or more timings before the timing (for example, the timing when the settlement process is performed at the restaurant in FIG. 2). 2 Get information and
The authentication means has a determination result (for example, whether or not the Tsuji 褄 matches) based on the first information acquired by the first acquisition means and the second information acquired by the second acquisition means at a plurality of timings. The user can be authenticated based on the determination result).
これにより、認証が行われるタイミングと、それよりも前の1以上のタイミングとの夫々で取得された第2情報に基づく判断がなされ、その判断の結果に基づいてユーザの認証が行われる。
その結果、時間軸が考慮された信憑性の高い認証が実現される。
As a result, a judgment is made based on the second information acquired at the timing at which the authentication is performed and at one or more timings prior to the timing, and the user is authenticated based on the result of the judgment.
As a result, highly credible authentication considering the time axis is realized.
また、前記認証手段は、
前記認証を行うタイミング、及び当該タイミングよりも前の1以上のタイミングの夫々で取得された前記第2情報の夫々に含まれる前記ユーザの位置を示す情報に基づく判断結果に基づいて、前記ユーザの認証を行うことができる。
In addition, the authentication means is
Based on the determination result based on the information indicating the position of the user included in each of the timing of performing the authentication and the timing of one or more prior to the timing, the second information of the user. Authentication can be performed.
これにより、認証が行われるタイミングと、それよりも前の1以上のタイミングの夫々で取得された第2情報の夫々に含まれるユーザの位置を示す情報に基づいた判断がなされ、その判断の結果に基づいて、ユーザの認証が行われる。
その結果、同じタイミングで同一人物が異なる場所に存在することはないという事実に基づいた、いわゆる生存認証が可能となる。
As a result, a judgment is made based on the information indicating the position of the user included in each of the second information acquired at each of the timing at which the authentication is performed and the timing of one or more prior to that, and the result of the judgment is made. The user is authenticated based on the above.
As a result, so-called survival authentication based on the fact that the same person does not exist in different places at the same timing becomes possible.
また、前記第2取得手段は、
前記第2情報として、前記コンテクストデータに含まれる、時間、前記ユーザの行動、前記ユーザの特徴、及び前記ユーザの撮像画像の夫々を示すデータうち、少なくとも1のデータを取得することができる。
Further, the second acquisition means is
As the second information, at least one of the data including the time, the behavior of the user, the characteristics of the user, and the captured image of the user, which are included in the context data, can be acquired.
これにより、時間、ユーザの行動、ユーザの特徴、及びユーザの撮像画像の夫々を示すコンテクストデータに基づく認証がなされる。
その結果、より抜け目のない認証を行うことが可能となる。
As a result, authentication is performed based on context data indicating time, user behavior, user characteristics, and user captured images, respectively.
As a result, more astute authentication can be performed.
また、前記コンテクストデータに含まれる前記ユーザの行動を示すデータは、
当該ユーザが保有する所定の情報処理端末(例えばユーザ端末3)により管理されているデータとすることができる。
In addition, the data indicating the behavior of the user included in the context data is
The data can be data managed by a predetermined information processing terminal (for example, user terminal 3) owned by the user.
これにより、例えばユーザが保有する情報処理端末のMACアドレス等により特定される、ユーザの行動履歴に基づいた認証が可能となる。 This enables authentication based on the user's action history, which is specified by, for example, the MAC address of the information processing terminal owned by the user.
1・・・サーバ、2・・・総合認証装置、3・・・ユーザ端末、4・・・外部装置、11・・・CPU、12・・・ROM、13・・・RAM、14・・・バス、15・・・入出力インターフェース、16・・・入力部、17・・・出力部、18・・・記憶部、19・・・通信部、20・・・ドライブ、40・・・リムーバブルメディア、101・・・顔関連情報取得部、102・・・コンテクスト関連情報取得部、103・・・判断部、104・・・認証部、181・・・ユーザDB、U・・・ユーザ、N・・・ネットワーク 1 ... Server, 2 ... Comprehensive authentication device, 3 ... User terminal, 4 ... External device, 11 ... CPU, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 ... Input / output interface, 16 ... Input section, 17 ... Output section, 18 ... Storage section, 19 ... Communication section, 20 ... Drive, 40 ... Removable media , 101 ... Face-related information acquisition unit, 102 ... Context-related information acquisition unit, 103 ... Judgment unit, 104 ... Authentication unit, 181 ... User DB, U ... User, N. ··network
Claims (7)
当該ユーザの1以上のコンテクストデータに基づく第2情報を取得する第2取得手段と、
前記第1取得手段により取得された前記第1情報と、前記第2取得手段により取得された前記第2情報とに基づく判断結果に基づいて、前記ユーザの認証を行う認証手段と、
を備える情報処理装置。 The first acquisition means for acquiring the first information based on the captured image of the user's face, and
A second acquisition means for acquiring second information based on one or more context data of the user, and
An authentication means that authenticates the user based on a determination result based on the first information acquired by the first acquisition means and the second information acquired by the second acquisition means.
Information processing device equipped with.
前記認証が行われるタイミング、及び当該タイミングよりも前の1以上のタイミングで前記第2情報を取得し、
前記認証手段は、前記第1取得手段により取得された前記第1情報と、前記第2取得手段により複数のタイミングで夫々取得された前記第2情報とに基づく判断結果に基づいて、前記ユーザの認証を行う、
請求項1に記載の情報処理装置。 The second acquisition means is
The second information is acquired at the timing at which the authentication is performed and at one or more timings prior to the timing.
The authentication means of the user is based on a determination result based on the first information acquired by the first acquisition means and the second information acquired by the second acquisition means at a plurality of timings. Authenticate,
The information processing device according to claim 1.
前記認証を行うタイミング、及び当該タイミングよりも前の1以上のタイミングの夫々で取得された前記第2情報の夫々に含まれる前記ユーザの位置を示す情報に基づく判断結果に基づいて、前記ユーザの認証を行う、
請求項2に記載の情報処理装置。 The authentication means is
Based on the determination result based on the information indicating the position of the user included in each of the timing of performing the authentication and the timing of one or more prior to the timing, the second information of the user. Authenticate,
The information processing device according to claim 2.
前記第2情報として、前記コンテクストデータに含まれる、時間、前記ユーザの行動、前記ユーザの特徴、及び前記ユーザの撮像画像の夫々を示すデータうち、少なくとも1のデータを取得する、
請求項1に記載の情報処理装置。 The second acquisition means is
As the second information, at least one of the data including the time, the behavior of the user, the characteristics of the user, and the captured image of the user, which are included in the context data, is acquired.
The information processing device according to claim 1.
当該ユーザが保有する所定の情報処理端末により管理されているデータである、
請求項4に記載の情報処理装置。 The data indicating the behavior of the user included in the context data is
Data managed by a predetermined information processing terminal owned by the user,
The information processing device according to claim 4.
ユーザの顔の撮像画像に基づく第1情報を取得する第1取得ステップと、
当該ユーザの1以上のコンテクストデータに基づく第2情報を取得する第2取得ステップと、
前記第1取得ステップで取得された前記第1情報と、前記第2取得ステップで取得された前記第2情報とに基づく判断結果に基づいて、前記ユーザの認証を行う認証ステップと、
を含む情報処理方法。 It is an information processing method executed by an information processing device.
The first acquisition step of acquiring the first information based on the captured image of the user's face, and
The second acquisition step of acquiring the second information based on one or more context data of the user, and
An authentication step for authenticating the user based on a determination result based on the first information acquired in the first acquisition step and the second information acquired in the second acquisition step.
Information processing methods including.
ユーザの顔の撮像画像に基づく第1情報を取得する第1取得ステップと、
当該ユーザの1以上のコンテクストデータに基づく第2情報を取得する第2取得ステップと、
前記第1取得ステップで取得された前記第1情報と、前記第2取得ステップで取得された前記第2情報とに基づく判断結果に基づいて、前記ユーザの認証を行う認証ステップと、
を含む制御処理を実行させるプログラム。 For computers that control information processing devices
The first acquisition step of acquiring the first information based on the captured image of the user's face, and
The second acquisition step of acquiring the second information based on one or more context data of the user, and
An authentication step for authenticating the user based on a determination result based on the first information acquired in the first acquisition step and the second information acquired in the second acquisition step.
A program that executes control processing including.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020067799A JP7008352B2 (en) | 2020-04-03 | 2020-04-03 | Information processing equipment, information processing methods, and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020067799A JP7008352B2 (en) | 2020-04-03 | 2020-04-03 | Information processing equipment, information processing methods, and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021163423A true JP2021163423A (en) | 2021-10-11 |
JP7008352B2 JP7008352B2 (en) | 2022-01-25 |
Family
ID=78005053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020067799A Active JP7008352B2 (en) | 2020-04-03 | 2020-04-03 | Information processing equipment, information processing methods, and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7008352B2 (en) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003030154A (en) * | 2001-04-17 | 2003-01-31 | Matsushita Electric Ind Co Ltd | Personal authentication method and device |
JP2005141319A (en) * | 2003-11-04 | 2005-06-02 | Mitsubishi Electric Corp | Abnormal behavior detection apparatus |
KR20070119463A (en) * | 2006-06-15 | 2007-12-20 | 가부시끼가이샤 도시바 | Face authentication apparatus, face authentication method, and entrance and exit management apparatus |
WO2016175333A1 (en) * | 2015-04-30 | 2016-11-03 | 真旭 徳山 | Terminal device and computer program |
JP2018045340A (en) * | 2016-09-13 | 2018-03-22 | 株式会社日立製作所 | Immigration inspection system and method |
JP2018060354A (en) * | 2016-10-05 | 2018-04-12 | テックファーム株式会社 | Mobile terminal, authentication system, authentication method, and authentication program |
JP2018151838A (en) * | 2017-03-13 | 2018-09-27 | 株式会社A−スタイル | Entrance management system |
US20180285544A1 (en) * | 2017-03-28 | 2018-10-04 | Samsung Electronics Co., Ltd. | Method for adaptive authentication and electronic device supporting the same |
-
2020
- 2020-04-03 JP JP2020067799A patent/JP7008352B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003030154A (en) * | 2001-04-17 | 2003-01-31 | Matsushita Electric Ind Co Ltd | Personal authentication method and device |
JP2005141319A (en) * | 2003-11-04 | 2005-06-02 | Mitsubishi Electric Corp | Abnormal behavior detection apparatus |
KR20070119463A (en) * | 2006-06-15 | 2007-12-20 | 가부시끼가이샤 도시바 | Face authentication apparatus, face authentication method, and entrance and exit management apparatus |
WO2016175333A1 (en) * | 2015-04-30 | 2016-11-03 | 真旭 徳山 | Terminal device and computer program |
JP2018045340A (en) * | 2016-09-13 | 2018-03-22 | 株式会社日立製作所 | Immigration inspection system and method |
JP2018060354A (en) * | 2016-10-05 | 2018-04-12 | テックファーム株式会社 | Mobile terminal, authentication system, authentication method, and authentication program |
JP2018151838A (en) * | 2017-03-13 | 2018-09-27 | 株式会社A−スタイル | Entrance management system |
US20180285544A1 (en) * | 2017-03-28 | 2018-10-04 | Samsung Electronics Co., Ltd. | Method for adaptive authentication and electronic device supporting the same |
Also Published As
Publication number | Publication date |
---|---|
JP7008352B2 (en) | 2022-01-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200226612A1 (en) | Biometric, behavioral-metric, knowledge-metric, and electronic-metric directed authentication and transaction method and system | |
Mason et al. | An investigation of biometric authentication in the healthcare environment | |
US10841301B2 (en) | System and method to authenticate electronics using electronic-metrics | |
CN113283883B (en) | Service realization method and device | |
Ciftci et al. | Let’s face it: are customers ready for facial recognition technology at quick-service restaurants? | |
JP6897953B2 (en) | Admission terminal, admission method, admission program, and admission system | |
US11755868B2 (en) | Methods and systems for a combined transaction by an assignee on behalf of one or more users | |
BR112021011349A2 (en) | SYSTEM AND METHODS FOR CONTEXTUAL, USER-DEFINED AND DYNAMICALLY DETERMINED ADAPTIVE AUTHENTICATION | |
US9619634B2 (en) | Identification system | |
JP2020525964A (en) | Face biometrics card emulation for in-store payment authorization | |
JP7509216B2 (en) | Input control device, input system, input control method and input control program | |
JP2018018481A (en) | Server system for electronic authentication, program, electronic authentication method and electronic authentication system | |
Cabana et al. | Mono and multi-modal biometric systems assessment by a common black box testing framework | |
WO2017078080A1 (en) | Server system for electronic authentication, electronic authentication method, and electronic authentication system | |
Kumar et al. | A brief introduction of biometrics and fingerprint payment technology | |
JP7008352B2 (en) | Information processing equipment, information processing methods, and programs | |
WO2021230123A1 (en) | Store system, information processing device, information processing method, and program | |
JP7036300B1 (en) | System, authentication method, authentication terminal, authentication terminal control method and program | |
Perez | Patchwork: Addressing Inconsistencies in Biometric Privacy Regulation | |
Bhat et al. | Consumers’ attitude toward biometric banking services: an empirical evaluation of determinants and outcomes | |
JP7363982B2 (en) | Authentication terminal, authentication terminal control method and program | |
WO2018066511A1 (en) | Information processing device, information processing method, and program recording medium | |
Wójtowicz et al. | Analysis of Factors Improving Accuracy of Passive User Identification with Streams of Face Images for Ubiquitous Commerce | |
JP7533723B1 (en) | Server device, server device control method and program | |
Erastus et al. | Exploring challenges of biometric technology adoption: A namibian review |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20201221 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20201221 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20210125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210401 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210420 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210621 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20210625 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210824 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211119 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20211119 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20211129 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20211130 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211221 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211228 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7008352 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |