JP7019223B1 - Information processing equipment, information processing system and information processing method - Google Patents

Information processing equipment, information processing system and information processing method Download PDF

Info

Publication number
JP7019223B1
JP7019223B1 JP2021027019A JP2021027019A JP7019223B1 JP 7019223 B1 JP7019223 B1 JP 7019223B1 JP 2021027019 A JP2021027019 A JP 2021027019A JP 2021027019 A JP2021027019 A JP 2021027019A JP 7019223 B1 JP7019223 B1 JP 7019223B1
Authority
JP
Japan
Prior art keywords
image data
dimensionality
dimensional image
information processing
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021027019A
Other languages
Japanese (ja)
Other versions
JP2022128671A (en
Inventor
岳洋 磯田
義仁 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GARAGEBANK CORPORATION
Original Assignee
GARAGEBANK CORPORATION
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GARAGEBANK CORPORATION filed Critical GARAGEBANK CORPORATION
Priority to JP2021027019A priority Critical patent/JP7019223B1/en
Application granted granted Critical
Publication of JP7019223B1 publication Critical patent/JP7019223B1/en
Publication of JP2022128671A publication Critical patent/JP2022128671A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】立体的な物体が撮影されるという想定の下で行われた撮影によって生成された2次元画像データをネットワーク経由で情報処理装置が取得するシステムにおいて、立体的な物体が撮影されるという想定が守られていないときに、2次元画像データを処理対象とする不適切な処理が行われてしまうことを防止する。【解決手段】サーバ3は、カメラ5による撮影と同時に実行されたLiDARスキャナ6によるスキャンにより生成された3次元画像データをネットワークN経由で端末から取得し、3次元画像データを少なくとも利用して撮影対象の立体性の有無を判別する立体性判別部13を備えており、立体的な物体が撮影されるという想定が守られているか否かを判定する。【選択図】図2PROBLEM TO BE SOLVED: To capture a three-dimensional object in a system in which an information processing apparatus acquires two-dimensional image data generated by photographing under the assumption that a three-dimensional object is photographed. It prevents inappropriate processing for 2D image data from being performed when the assumption is not observed. SOLUTION: A server 3 acquires 3D image data generated by scanning by a LiDAR scanner 6 executed at the same time as shooting by a camera 5 from a terminal via a network N, and shoots using at least the 3D image data. A three-dimensionality determining unit 13 for determining the presence or absence of three-dimensionality of an object is provided, and it is determined whether or not the assumption that a three-dimensional object is photographed is observed. [Selection diagram] Fig. 2

Description

本発明は、撮影されて生成されたデータを処理する情報処理装置、当該情報処理装置と端末とを備える情報処理システム、および、当該情報処理装置による情報処理方法に関する。 The present invention relates to an information processing device for processing captured and generated data, an information processing system including the information processing device and a terminal, and an information processing method by the information processing device.

従来、立体的な物体が撮影されるという想定の下、撮影によって生成された2次元画像データ(撮影画像データ)をネットワーク経由で情報処理装置が取得し、その2次元画像データに基づく処理を実行するシステムが知られている。例えば特許文献1には、中古車が撮影されて生成されたパノラマ写真(2次元画像データ)をネットワーク経由でサーバ(情報処理装置)が取得した後、パノラマ写真を保管し、事後的に中古車の傷の状況等をパノラマ写真によって確認できるようにしたシステムが記載されている。 Conventionally, under the assumption that a three-dimensional object is photographed, an information processing device acquires two-dimensional image data (photographed image data) generated by photography via a network and executes processing based on the two-dimensional image data. The system to do is known. For example, in Patent Document 1, a panoramic photograph (two-dimensional image data) generated by taking a used car is acquired by a server (information processing device) via a network, and then the panoramic photograph is stored, and the used car is ex post facto. A system that allows you to check the status of scratches on a panoramic photograph is described.

特開2018-97679号公報Japanese Unexamined Patent Publication No. 2018-97679

しかしながら特許文献1のシステムでは、以下の問題があった。すなわちサーバに保管されたパノラマ写真は、中古車の傷の状況を確認するために用いられるものであるが、サーバに送られてきたパノラマ写真が、傷のない中古車の画像が表示された別の写真や、傷のない中古車の画像が表示されたディスプレイ画面が撮影されることによって生成されたものである可能性がある。このような場合、パノラマ写真を傷の状況の確認用のデータとして保管してしまうと、不正なパノラマ写真から中古車の傷の状況の確認を行う事態が発生することになる。このため、上記の場合にパノラマ写真を保管することは適切でないものの、特許文献1のシステムではこれを回避する手段がなかった。 However, the system of Patent Document 1 has the following problems. That is, the panoramic photo stored in the server is used to check the condition of the used car's scratches, but the panoramic photo sent to the server is different from the one in which the image of the used car without scratches is displayed. It may have been generated by taking a picture of the car or a display screen showing an image of a used car without scratches. In such a case, if the panoramic photograph is stored as data for confirming the scratch condition, a situation may occur in which the scratch condition of the used car is confirmed from the illegal panoramic photograph. Therefore, although it is not appropriate to store the panoramic photograph in the above case, the system of Patent Document 1 has no means for avoiding this.

本発明は、このような問題を解決するために成されたものであり、立体的な物体が撮影されるという想定の下で行われた撮影によって生成された2次元画像データをネットワーク経由で情報処理装置が取得するシステムにおいて、立体的な物体が撮影されるという想定が守られていないときに、2次元画像データを処理対象とする不適切な処理が行われてしまうことを防止することを目的とする。 The present invention has been made to solve such a problem, and information on two-dimensional image data generated by photography performed under the assumption that a three-dimensional object is photographed via a network. In the system acquired by the processing device, it is possible to prevent inappropriate processing for 2D image data from being performed when the assumption that a three-dimensional object is photographed is not observed. The purpose.

上記した課題を解決するために、本発明は、カメラの撮影結果に基づく2次元画像データだけではなく、カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で端末から取得し、3次元画像データを少なくとも利用して撮影対象の立体性の有無を判別するようにしている。 In order to solve the above-mentioned problems, the present invention networks not only the two-dimensional image data based on the shooting result of the camera but also the three-dimensional image data generated by the scanning by the ranging sensor executed at the same time as the shooting by the camera. It is acquired from the terminal via the terminal, and at least the three-dimensional image data is used to determine the presence or absence of the three-dimensionality of the shooting target.

上記のように構成した本発明によれば、2次元画像データだけでなく、このデータと同時に生成された3次元画像データが取得された上で、3次元画像データを利用して撮影対象の立体性の有無が判別されるため、カメラによる撮影が立体性のある物体を撮影対象として行われたか否かを判別することができる。このため立体性のある物体を撮影対象として撮影が行われていないときに、上記判別を通してそのことを検知でき、例えば立体性のある物体が撮影されて生成された2次元画像データを処理対象とする通常の処理を行わず、これに代えて立体性のある物体が撮影されていないことに対処する処理を実行する、といったことが可能となる。これにより立体的な物体が撮影されるという想定が守られていないときに、2次元画像データを処理対象とする不適切な処理が行われてしまうことを防止できる。 According to the present invention configured as described above, not only the two-dimensional image data but also the three-dimensional image data generated at the same time as this data is acquired, and then the three-dimensional image data is used to capture the three-dimensional object. Since the presence or absence of sex is determined, it is possible to determine whether or not the image taken by the camera is performed on a three-dimensional object. Therefore, when shooting is not performed with a three-dimensional object as the shooting target, that can be detected through the above discrimination. For example, the two-dimensional image data generated by shooting a three-dimensional object is used as the processing target. Instead of performing the usual processing, it is possible to perform processing for dealing with the fact that a three-dimensional object has not been photographed. As a result, it is possible to prevent inappropriate processing for the two-dimensional image data from being performed when the assumption that a three-dimensional object is photographed is not observed.

本発明の一実施形態に係る情報処理システムの構成例を示す図である。It is a figure which shows the structural example of the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る端末およびサーバの機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the terminal and the server which concerns on one Embodiment of this invention. 撮影用画面を示す図である。It is a figure which shows the screen for shooting. 立体性判別部の処理の説明に利用する図である。It is a figure used for the explanation of the process of a three-dimensionality discriminating part. 本発明の一実施形態に係る情報処理システムの動作例を示すフローチャートである。It is a flowchart which shows the operation example of the information processing system which concerns on one Embodiment of this invention.

以下、本発明の一実施形態を図面に基づいて説明する。図1は、本実施形態に係る情報処理システム1の構成例を示す図である。図1で示すように情報処理システム1は、端末2とサーバ3とを備えている。端末2およびサーバ3は共に、インターネットを含むネットワークNに接続可能である。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a configuration example of the information processing system 1 according to the present embodiment. As shown in FIG. 1, the information processing system 1 includes a terminal 2 and a server 3. Both the terminal 2 and the server 3 can be connected to the network N including the Internet.

サーバ3は、端末2をクライアントの1つとするサーバ装置である。図1では、サーバ3を1つのブロックで表しているが、サーバ3は単一のサーバ装置である必要はなく、例えば複数のサーバ装置により構成されてもよく、また、所定のシステムの一部であってもよい。サーバ3は、運営会社によって管理、運営されており、後述するサービスを提供する。サーバ3は、特許請求の範囲の「情報処理装置」に相当する。 The server 3 is a server device having the terminal 2 as one of the clients. In FIG. 1, the server 3 is represented by one block, but the server 3 does not have to be a single server device, and may be configured by, for example, a plurality of server devices, or is a part of a predetermined system. It may be. The server 3 is managed and operated by an operating company, and provides services described later. The server 3 corresponds to the "information processing device" in the claims.

端末2は、タブレット型の筐体の全面の広い領域にタッチスクリーン4(表示パネル+タッチパネル)が設けられたスマートフォンである。特に本実施形態に係る端末2は、カメラ5およびLiDARスキャナ6が搭載されており、カメラ5による撮影の結果に基づいて2次元画像データを生成する機能を備えると共に、LiDARスキャナ6によるスキャンの結果に基づいて3次元画像データを生成する機能を備えている。LiDARスキャナ6は、特許請求の範囲の「測距センサ」に相当する。 The terminal 2 is a smartphone in which a touch screen 4 (display panel + touch panel) is provided in a wide area on the entire surface of a tablet-type housing. In particular, the terminal 2 according to the present embodiment is equipped with a camera 5 and a LiDAR scanner 6, has a function of generating two-dimensional image data based on the result of shooting by the camera 5, and has a scan result by the LiDAR scanner 6. It has a function to generate 3D image data based on. The LiDAR scanner 6 corresponds to the "distance measuring sensor" in the claims.

2次元画像データは、2次元の画像データ(いわゆる写真)であり、マトリックス状に配置された各画素について色に関する情報を保持している。また3次元画像データは、LiDARスキャナ6により距離が測定された画素が三次元直交座標系に配置された点群データである。三次元画像データでは、LiDARスキャナ6によるスキャン範囲内の各物体の表面(LiDARスキャナ6により距離の測定の対象となる表面)が三次元直交座標系における点の集合として表現される。 The two-dimensional image data is two-dimensional image data (so-called photograph), and holds information about colors for each pixel arranged in a matrix. The three-dimensional image data is point cloud data in which pixels whose distances have been measured by the LiDAR scanner 6 are arranged in a three-dimensional Cartesian coordinate system. In the three-dimensional image data, the surface of each object within the scanning range of the LiDAR scanner 6 (the surface whose distance is to be measured by the LiDAR scanner 6) is represented as a set of points in the three-dimensional Cartesian coordinate system.

なお本実施形態では、端末2がLiDARスキャナ6を搭載している構成であるが、三次元画像データの生成に用いられる他の機構(例えばステレオカメラや、LiDARとは異なる方式の光学的測距センサ等)を備える構成でもよい。本実施形態に係る端末2のような3次元画像データを生成する機能を有する端末(スマートフォンや、携帯電話機能を有さないタブレット端末、ノートパソコン等)は、現時点で広く普及しており、今後もますます普及していくと想定される。 In the present embodiment, the terminal 2 is equipped with the LiDAR scanner 6, but other mechanisms used for generating three-dimensional image data (for example, a stereo camera or an optical distance measurement different from the LiDAR method). It may be configured to include a sensor or the like). Terminals having a function of generating three-dimensional image data (smartphones, tablet terminals not having a mobile phone function, notebook computers, etc.) such as the terminal 2 according to the present embodiment are widely used at present and will be used in the future. It is expected that it will become more and more popular.

端末2には事前に、所定のアプリケーション(以下「専用アプリ」という)が、アプリケーションダウンロードシステムを利用してインストールされている。専用アプリの機能については後述する。以下、端末2の所有者を「ユーザ」と表現する。 A predetermined application (hereinafter referred to as "dedicated application") is installed in the terminal 2 in advance by using the application download system. The function of the dedicated application will be described later. Hereinafter, the owner of the terminal 2 is referred to as a "user".

図2は、端末2およびサーバ3の機能構成例を示すブロック図である。図2で示すように端末2は機能構成として、端末側制御部10および端末側通信部11を備えている。またサーバ3は機能構成として、サーバ側通信部12、立体性判別部13および処理部14を備えている。上記各機能ブロック10~14は、コンピュータのCPU、RAM、ROM等を備えて構成され、CPUがROM、ハードディスクまたは半導体メモリ等の記憶媒体に記憶されたプログラムをRAMに読み出して実行することによって実現される。特に端末側制御部10は、CPUが、記憶媒体に記憶された専用アプリ(ただしOS、OSが提供するAPI、その他の付随するプログラムを含む)を読み出して実行することにより実行される。ただし、上記各機能ブロック10~14の実現方法は本実施形態で例示する方法に限られず、他の方法でソフトウェアとハードウェアとが協働することによって実現されてもよく、また、DSP等のハードウェアのみにより実現されてもよい。またサーバ3は記憶手段として、サーバ側記憶部16を備えている。 FIG. 2 is a block diagram showing a functional configuration example of the terminal 2 and the server 3. As shown in FIG. 2, the terminal 2 includes a terminal-side control unit 10 and a terminal-side communication unit 11 as a functional configuration. Further, the server 3 includes a server-side communication unit 12, a three-dimensionality determination unit 13, and a processing unit 14 as functional configurations. Each of the above functional blocks 10 to 14 is configured to include a CPU, RAM, ROM, etc. of a computer, and is realized by the CPU reading a program stored in a storage medium such as a ROM, a hard disk, or a semiconductor memory into the RAM and executing the program. Will be done. In particular, the terminal-side control unit 10 is executed by the CPU reading and executing a dedicated application (however, including an OS, an API provided by the OS, and other accompanying programs) stored in a storage medium. However, the method of realizing each of the above functional blocks 10 to 14 is not limited to the method exemplified in this embodiment, and may be realized by the cooperation of software and hardware by another method, or a DSP or the like. It may be realized only by hardware. Further, the server 3 includes a server-side storage unit 16 as a storage means.

端末側通信部11は、ネットワークNに接続された機器と所定のプロトコルに従って通信する。以下の説明では端末2とネットワークNに接続された機器とでの通信は、端末側通信部11により適切に行われるものとして詳細な説明を省略する。またサーバ側通信部12は、ネットワークNに接続された機器と所定のプロトコルに従って通信する。以下の説明ではサーバ3とネットワークNに接続された機器とでの通信は、サーバ側通信部12により適切に行われるものとして詳細な説明を省略する。 The terminal-side communication unit 11 communicates with a device connected to the network N according to a predetermined protocol. In the following description, it is assumed that the communication between the terminal 2 and the device connected to the network N is appropriately performed by the terminal-side communication unit 11, and detailed description thereof will be omitted. Further, the server-side communication unit 12 communicates with the device connected to the network N according to a predetermined protocol. In the following description, it is assumed that the communication between the server 3 and the device connected to the network N is appropriately performed by the server-side communication unit 12, and detailed description thereof will be omitted.

以下、評価シーンと本人確認シーンとの2つのシーンにおける本実施形態に係る情報処理システム1の動作例について説明する。 Hereinafter, an operation example of the information processing system 1 according to the present embodiment in two scenes, an evaluation scene and an identity verification scene, will be described.

<評価シーン>
まず評価シーンにおける情報処理システム1の動作例について説明する。評価シーンではまず、ユーザが所有する物品が端末2のカメラ5によって撮影されることが想定されている。ユーザが所有する物品とは、立体的な物体であって、ユーザが評価される(評価の具体的な内容については後述)ことを望むものあり、一例としてブランド物のバック、ブランド物のアクセサリ、その他のブランド品であり、また一例としてノートパソコン、スマートフォン、ゲーム機、その他の電子機器である。以下、ユーザが所有する物品を対象物品という。対象物品は、特許請求の範囲の「評価対象の立体的な物体」に相当する。
<Evaluation scene>
First, an operation example of the information processing system 1 in the evaluation scene will be described. In the evaluation scene, it is assumed that the article owned by the user is first photographed by the camera 5 of the terminal 2. The goods owned by the user are three-dimensional objects that the user wants to be evaluated (the specific contents of the evaluation will be described later), for example, a branded bag, a branded accessory, and the like. Other brand products, such as laptops, smartphones, game consoles, and other electronic devices. Hereinafter, the goods owned by the user are referred to as target goods. The target article corresponds to the "three-dimensional object to be evaluated" in the claims.

ユーザによる対象物品の撮影後、撮影結果に基づく2次元画像データがサーバ3に送信される。サーバ3は、2次元画像データに基づいて対象物品を評価する。本実施形態において「評価」とは、対象物品の価値を評価し、買取り価格(値段)をつけることを意味する。詳細な説明は省略するが、対象物品に買取り価格がつけられた後、ユーザによる同意があれば、その買取り価格で対象物品が運営会社によって買い取られると共に、その買取り価格に相当する金銭がユーザに支払われる。特に本実施形態では運営会社によって買い取られた対象物品は、ユーザにリースされる。このためユーザは、対象物品を運営会社に引き渡すことなく手元に置いたまま、買取り価格相当の金銭を得ることができる(ただし、リース料の支払い義務等が生じる)。 After the user takes a picture of the target article, the two-dimensional image data based on the pictured result is transmitted to the server 3. The server 3 evaluates the target article based on the two-dimensional image data. In the present embodiment, "evaluation" means evaluating the value of the target article and attaching a purchase price (price). Although detailed explanation is omitted, after the purchase price is attached to the target goods, if the user consents, the target goods are purchased by the operating company at the purchase price, and the money corresponding to the purchase price is given to the user. Will be paid. In particular, in the present embodiment, the target goods purchased by the operating company are leased to the user. Therefore, the user can obtain money equivalent to the purchase price without handing over the target item to the operating company (however, the obligation to pay the lease fee, etc. arises).

以上の通り評価シーンにおいては、ユーザが、自身が所有する対象物品(立体的な物体)を撮影することが想定されていると共に、対象物品が撮影されて生成された2次元画像データがサーバ3に送信されることが想定されている。しかしながらユーザが、対象物品を撮影するのではなく、物品の画像が表示された写真や、物品の画像が表示されたディスプレイ画面(例えばパソコンのディプレイに映る画面や、テレビの画面等)を撮影し、その撮影の結果に基づく2次元画像データがサーバ3に送られてくる可能性がある。以下、物品の2次元的な画像が表示された平面的な媒体(上述した写真やディスプレイ画面のほか、例えば、写真以外の紙媒体がある)を「平面媒体」という。 As described above, in the evaluation scene, it is assumed that the user photographs the target article (three-dimensional object) owned by the user, and the two-dimensional image data generated by photographing the target article is the server 3. It is expected to be sent to. However, instead of taking a picture of the target article, the user takes a picture showing an image of the article or a display screen (for example, a screen displayed on a display of a personal computer, a screen of a television, etc.) displaying an image of the article. However, there is a possibility that two-dimensional image data based on the result of the shooting will be sent to the server 3. Hereinafter, a flat medium on which a two-dimensional image of an article is displayed (in addition to the above-mentioned photographs and display screens, for example, there are paper media other than photographs) is referred to as a "flat medium".

一例としてユーザが、実際にはブランド物のバッグを所有していないのにもかかわらず、ブランド物のバッグの画像が表示された写真が掲載されたカタログの、その写真部分を撮影したり、ブランド物のバッグの画像が表示されたウェブページの該当部分を撮影したりし、その撮影の結果に基づく2次元画像データがサーバ3に送られてくる可能性がある。 As an example, a user may take a picture of a photo of a catalog with an image of a branded bag, even though they do not actually own the branded bag, or the brand. There is a possibility that the corresponding part of the web page on which the image of the bag of the object is displayed is photographed, and the two-dimensional image data based on the result of the photographing is sent to the server 3.

以上のユーザの行動は、ユーザにより以下の事項が期待されて行われるものである。すなわち上述の通り情報処理システム1では、2次元画像データに基づいて対象物品の評価が行われ、対象物品に買取り価格が設定され、買取り価格に相当する金銭がユーザに支払われることになる。これを踏まえ、上記のユーザの行動は、2次元画像データに記録されたブランド物のバッグの画像(立体的な物体の撮影結果に基づく画像ではなく、カタログ或いはウェブページ等の撮影結果に基づく画像)に基づいて物品(本来はユーザが所有していない物品)の評価が行われ、買取り価格に相当する金銭が運営会社から支払われることが期待して行われる。 The above user actions are expected to be performed by the user as follows. That is, as described above, in the information processing system 1, the target article is evaluated based on the two-dimensional image data, the purchase price is set for the target article, and the money corresponding to the purchase price is paid to the user. Based on this, the above user behavior is an image of a branded bag recorded in two-dimensional image data (an image based on the shooting result of a catalog or a web page, not an image based on the shooting result of a three-dimensional object). ) Is evaluated for goods (goods that are not originally owned by the user), and it is expected that money equivalent to the purchase price will be paid by the operating company.

この他、ユーザが対象物品を所有しているものの、少しでも高い買取り価格となることを企図して、その対象物品と同モデルの物品であって、新品状態のものが表示された写真等を撮影することも考えられる。そして本実施形態に係る情報処理装システム1は、ユーザが以上のような行動をとる可能性があることを踏まえ、以下の処理を実行する。 In addition, although the user owns the target item, in order to make the purchase price as high as possible, a photograph showing an item of the same model as the target item and in a new state is displayed. It is also possible to shoot. Then, the information processing system 1 according to the present embodiment executes the following processing based on the possibility that the user takes the above actions.

まず2次元画像データの生成に先立って、ユーザは、端末2の専用アプリを起動し、物品種別選択画面をタッチスクリーン4に表示することを指示する。当該指示があると、そのことが立体性判別部13に通知され、立体性判別部13は、当該通知に応じて、端末側制御部10に物品種別選択画面をタッチスクリーン4に表示させる。物品種別選択画面は、物品種別のそれぞれが選択可能に一覧表示された画面である。物品種別とは、評価の対象となり得る物品について、機能や用途によって大きく区分したときの各種別のことを意味する。本実施形態では物品種別として、ノートパソコンや、スマートフォン、ゲーム機、バッグ、時計等が事前に用意されている。ユーザは、所定の操作を行って、物品種別選択画面に一覧表示された物品種別から1つの物品種別を選択する。以下、ユーザにより選択された物品種別のことを「選択物品種別」という。 First, prior to the generation of the two-dimensional image data, the user activates the dedicated application of the terminal 2 and instructs the touch screen 4 to display the article type selection screen. When the instruction is given, the three-dimensionality determination unit 13 is notified, and the three-dimensionality determination unit 13 causes the terminal side control unit 10 to display the article type selection screen on the touch screen 4 in response to the notification. The article type selection screen is a screen in which each of the article types is displayed in a list so that they can be selected. The article type means the types of articles that can be evaluated when they are roughly classified according to their functions and uses. In the present embodiment, a notebook computer, a smartphone, a game machine, a bag, a watch, and the like are prepared in advance as the item type. The user performs a predetermined operation to select one article type from the article types listed on the article type selection screen. Hereinafter, the product type selected by the user is referred to as "selected product type".

ユーザにより物品種別が選択されると、立体性判別部13は端末側制御部10を制御して、選択物品種別に応じた方法による対象物品の撮影を案内すると共に、カメラ5による撮影の実行を指示するための種々の撮影用画面G3(図3)を表示する。ユーザは、撮影用画面G3の案内に従ってカメラ5による撮影の実行を指示する。この指示に応じて、カメラ5による撮影が実行されると共に、更にLiDARスキャナ6によるスキャンが実行され、カメラ5の撮影結果に基づく2次元画像データ、および、LiDARスキャナ6のスキャン結果に基づく3次元画像データが生成される。端末側制御部10は、2次元画像データと3次元画像データとの組合せを取得する。 When the article type is selected by the user, the three-dimensionality determination unit 13 controls the terminal side control unit 10 to guide the shooting of the target article by a method according to the selected article type, and to execute the shooting by the camera 5. Various shooting screens G3 (FIG. 3) for instructing are displayed. The user instructs the execution of shooting by the camera 5 according to the guidance of the shooting screen G3. In response to this instruction, shooting by the camera 5 is executed, and further scanning by the LiDAR scanner 6 is executed, two-dimensional image data based on the shooting result of the camera 5 and three-dimensional based on the scan result of the LiDAR scanner 6. Image data is generated. The terminal side control unit 10 acquires a combination of the two-dimensional image data and the three-dimensional image data.

図3の各図は、選択物品種別がノートパソコンである場合に表示される撮影用画面G3の一例を示す図である。以下、図3を用いて撮影用画面G3の内容の具体例と共に、情報処理システム1の動作について説明する。立体性判別部13は、端末側制御部10を制御して、図3(A)の撮影用画面G3Aをタッチスクリーン4に表示させる。図3(A)の撮影用画面G3Aでは、閉じた状態のノートパソコンを撮影する様子が描かれたイラストと共に、ノートパソコンを閉じた状態で上面を撮影することを指示する文章が表示されている。 Each figure of FIG. 3 is a diagram showing an example of a shooting screen G3 displayed when the selected article type is a notebook computer. Hereinafter, the operation of the information processing system 1 will be described with reference to FIG. 3 with a specific example of the contents of the photographing screen G3. The three-dimensionality determination unit 13 controls the terminal-side control unit 10 to display the shooting screen G3A of FIG. 3A on the touch screen 4. On the shooting screen G3A of FIG. 3A, a sentence instructing to shoot the upper surface with the notebook computer closed is displayed along with an illustration depicting the shooting of the notebook computer in the closed state. ..

また図3(A)の撮影用画面G3Aには撮影の開始を指示するボタンB3Aが表示されており、ユーザは、撮影の準備が整ったらボタンB3Aを操作する。ボタンB3Aの操作に応じて端末側制御部10は、OSが提供するAPIを利用して端末2のカメラ5およびLiDARスキャナ6を有効にし、更に図3(B)の撮影用画面G3Bをタッチスクリーン4に表示する。図3(B)の撮影用画面G3Bでは、端末2のカメラによる撮影画像上に、枠線と、対象物品たるノートパソコンの上面が枠線内に収まった状態で撮影を行うことを指示する文章とが重ねて表示される。また図3(B)の撮影用画面G3Bには、撮影の実行を指示するボタンB3Bが表示されている。 Further, a button B3A instructing the start of shooting is displayed on the shooting screen G3A of FIG. 3A, and the user operates the button B3A when the shooting is ready. In response to the operation of the button B3A, the terminal side control unit 10 enables the camera 5 and the LiDAR scanner 6 of the terminal 2 by using the API provided by the OS, and further touches the shooting screen G3B of FIG. 3B as a touch screen. Display in 4. In the shooting screen G3B of FIG. 3B, a sentence instructing that the frame line and the upper surface of the notebook computer, which is the target article, are within the frame line on the image shot by the camera of the terminal 2 to be shot. Is displayed on top of each other. Further, on the shooting screen G3B of FIG. 3B, a button B3B instructing execution of shooting is displayed.

基本的にはユーザは、対象物品を机等に載置し、対象物品の画像が枠線内に収まった状態でボタンB3Bを操作する。するとカメラ5により撮影が実行されて2次元画像データが生成され、更にLiDARスキャナ6によりスキャンが実行さて3次元画像データが生成される。以上の通り本来であれば、この段階では、ユーザにより立体的な物体であるノートパソコンが撮影されることが想定されている。一方、この段階でユーザにより、閉じた状態のノートパソコンの(2次元的な)画像が表示された平面媒体(写真や、ディスプレイ画面等)が撮影される可能性がある。 Basically, the user places the target article on a desk or the like, and operates the button B3B in a state where the image of the target article is within the frame line. Then, shooting is executed by the camera 5 to generate two-dimensional image data, and further scanning is executed by the LiDAR scanner 6 to generate three-dimensional image data. As described above, it is assumed that a notebook computer, which is a three-dimensional object, is photographed by the user at this stage. On the other hand, at this stage, the user may take a flat medium (photograph, display screen, etc.) on which a (two-dimensional) image of a closed notebook computer is displayed.

ユーザの指示に応じて撮影(およびスキャン)が実行されると、立体性判別部13は、端末側制御部10と協働して、図3(C)の撮影用画面G3Cをタッチスクリーン4に表示する。図3(C)の撮影用画面G3Cは、開いた状態のノートパソコンの撮影を促す画面である。撮影用画面G3CのボタンB3Cが操作されると、端末側制御部10は、カメラ5およびLiDARスキャナ6を有効にした上で、図3(B)の撮影用画面G3Bに対応する画面を表示する。ユーザは、撮影用画面G3Bに対応する画面で所定のボタンを操作し、カメラ5による撮影およびLiDARスキャナ6によるスキャンを実行させる。これにより2次元画像データおよび3次元画像データが生成される。 When shooting (and scanning) is executed according to the user's instruction, the stereoscopic determination unit 13 cooperates with the terminal side control unit 10 to convert the shooting screen G3C of FIG. 3C into the touch screen 4. indicate. The shooting screen G3C of FIG. 3C is a screen that encourages shooting of a notebook computer in an open state. When the button B3C of the shooting screen G3C is operated, the terminal side control unit 10 enables the camera 5 and the LiDAR scanner 6 and then displays the screen corresponding to the shooting screen G3B of FIG. 3 (B). .. The user operates a predetermined button on the screen corresponding to the shooting screen G3B to execute shooting by the camera 5 and scanning by the LiDAR scanner 6. As a result, two-dimensional image data and three-dimensional image data are generated.

以上、図3を用いて例示したように、立体性判別部13は、端末側制御部10を制御して、選択物品種別に応じた方法による対象物品の撮影を案内する。また端末側制御部10は、カメラ5による撮影およびLiDARスキャナ6によるスキャンに応じて生成された2次元画像データと3次元画像データとの組合せ(以下、「データ組合せ」という)を取得する。なお図3の例のように、データ組合せは複数、生成されるケースもある。 As described above, as illustrated with reference to FIG. 3, the three-dimensionality determination unit 13 controls the terminal side control unit 10 to guide the shooting of the target article by a method according to the selected article type. Further, the terminal side control unit 10 acquires a combination of the two-dimensional image data and the three-dimensional image data (hereinafter, referred to as “data combination”) generated in response to the shooting by the camera 5 and the scanning by the LiDAR scanner 6. As in the example of FIG. 3, there are cases where a plurality of data combinations are generated.

端末側制御部10は、1つ以上のデータ組合せを取得した後、全てのデータ組合せをサーバ3の立体性判別部13に送信する。立体性判別部13は、全てのデータ組合せを受信し、各データ組合せを対象として以下の立体性有無判別処理を実行する。以下、ある1つのデータ組合せについて立体性判別部13が実行する立体性有無判別処理について説明する。 After acquiring one or more data combinations, the terminal-side control unit 10 transmits all the data combinations to the three-dimensionality determination unit 13 of the server 3. The three-dimensionality determination unit 13 receives all the data combinations and executes the following three-dimensionality determination processing for each data combination. Hereinafter, the three-dimensionality determination process executed by the three-dimensionality determination unit 13 for a certain data combination will be described.

まず立体性判別部13は、データ組合せに含まれる2次元画像データを取得する。次いで立体性判別部13は、2次元画像データを分析し、2次元画像データにおける選択物品種別の物品の画像の位置を認識する。2次元画像データにおける選択物品種別の物品の画像の位置は、例えば、選択物品種別ごとに予め用意されたテンプレートデータを用いたパターンマッチングや、その他の画像処理技術(画像認識技術)により行われる。この他、ディープラーニングその他の機械学習手法により学習されたモデルが用いられて行われてもよい。 First, the stereoscopic determination unit 13 acquires the two-dimensional image data included in the data combination. Next, the stereoscopic determination unit 13 analyzes the two-dimensional image data and recognizes the position of the image of the article of the selected article type in the two-dimensional image data. The position of the image of the article of the selected article type in the two-dimensional image data is performed by, for example, pattern matching using template data prepared in advance for each selected article type, or other image processing technology (image recognition technology). In addition, a model learned by deep learning or other machine learning method may be used.

上述の通り、2次元画像データにおける選択物品種別の物品の画像は、立体的な対象物品が撮影されることによって形成された画像とは限らず、物品の画像が表示された平面媒体が撮影されることによって形成された画像である可能性がある。 As described above, the image of the article of the selected article type in the two-dimensional image data is not limited to the image formed by photographing the three-dimensional target article, but the flat medium on which the image of the article is displayed is photographed. It may be an image formed by this.

次いで立体性判別部13は、2次元画像データに写る空間と3次元画像データに写る空間とが一致するように、2次元画像データと3次元画像データとを重ね合わせ、3次元画像データにおいて、「2次元画像データにおける選択物品種別の物品の画像の領域」に対応する領域を特定する。以下、特定した領域を「特定領域」という。次いで立体性判別部13は、3次元画像データにおいて特定領域に属する像が、周囲の像と平面的に連続する(平面上で連続する)、平らな像(凹凸のない或いは限定的にしか凹凸がない像)であるか否かを判別する。この判別は、特許請求の範囲の「撮影対象の立体性の有無を判別する」処理に相当する。 Next, the three-dimensionality determination unit 13 superimposes the two-dimensional image data and the three-dimensional image data so that the space reflected in the two-dimensional image data and the space reflected in the three-dimensional image data match, and in the three-dimensional image data, The area corresponding to the "area of the image of the article of the selected article type in the two-dimensional image data" is specified. Hereinafter, the specified area is referred to as a "specific area". Next, in the stereoscopic determination unit 13, the image belonging to the specific region in the three-dimensional image data is planarly continuous with the surrounding image (continuous on the plane), and is a flat image (unevenness or only limited unevenness). It is determined whether or not it is an image without. This determination corresponds to the process of "determining the presence or absence of three-dimensionality of the object to be photographed" in the claims.

図4の各図は、立体性判別部13の処理の説明に利用する図である。図4の各図は、3次元画像データを説明に適した態様で模式的に示している。図4の各図において符号20は、光学中心を示し、符号21は、LiDARスキャナ6によりスキャンされる放射状の領域を示し、符号22は、特定領域を示している。ユーザが立体的な対象物品を撮影およびスキャンした場合には、図4(A)で示すように、特定領域には、周囲の像から独立した立体的な像J1(点群)が形成されることになる。一方、物品の画像が表示された平面媒体をユーザが撮影およびスキャンした場合には、図4(B)で示すように、特定領域には、周囲の像と平面的に連続する平らな像J2(点群)が形成されることになる。 Each figure of FIG. 4 is a diagram used for explaining the process of the three-dimensionality determination unit 13. Each figure of FIG. 4 schematically shows three-dimensional image data in an embodiment suitable for explanation. In each of the drawings of FIG. 4, reference numeral 20 indicates an optical center, reference numeral 21 indicates a radial region scanned by the LiDAR scanner 6, and reference numeral 22 indicates a specific region. When the user photographs and scans a three-dimensional object, as shown in FIG. 4A, a three-dimensional image J1 (point cloud) independent of the surrounding image is formed in the specific area. It will be. On the other hand, when the user photographs and scans a flat medium on which an image of an article is displayed, as shown in FIG. 4B, a flat image J2 that is planarly continuous with the surrounding image in a specific area. (Point cloud) will be formed.

以上を踏まえ立体性判別部13は、特定領域に、周囲の像と平面的に連続する平らな像が形成されている場合には、撮影対象について立体性がないと判定する。一方、それ以外の場合、立体性判別部13は、撮影対象について立体性があると判定する。ここで撮影対象とは、立体的な対象物品が撮影された場合のその対象物品と、物品の画像が表示された平面媒体が撮影された場合のその物品の画像とを含む概念である。 Based on the above, the stereoscopic determination unit 13 determines that the object to be photographed has no stereoscopic effect when a flat image that is planarly continuous with the surrounding image is formed in the specific region. On the other hand, in other cases, the three-dimensionality determination unit 13 determines that the object to be photographed has three-dimensionality. Here, the imaged object is a concept including an object article when a three-dimensional object article is photographed and an image of the article when a flat medium on which an image of the article is displayed is photographed.

なお立体性判別部13が、立体性の有無を判別するときの方法は、上記方法に限られない。例えば立体性判別部13が、特定領域に、周囲の像から独立した立体的な像(点群)が形成されている場合に撮影対象について立体性があると判定し、それ以外の場合に立体性がないと判定する構成でもよい。その他の例については後述する。 The method for determining the presence or absence of three-dimensionality by the three-dimensionality determining unit 13 is not limited to the above method. For example, the three-dimensionality determination unit 13 determines that the object to be photographed has three-dimensionality when a three-dimensional image (point cloud) independent of the surrounding image is formed in the specific region, and in other cases, the three-dimensional object is three-dimensional. It may be configured to determine that there is no sex. Other examples will be described later.

以上の処理が立体性有無判別処理である。以上の立体性有無判別処理が実行されることにより、あるデータ組合せが、立体的な対象物体が撮影されて生成されたものではなく、平面媒体が撮影されて生成されたものである場合には、そのデータ組合せについての立体性有無判別処理において、撮影対象の立体性がないと判定される。 The above processing is the three-dimensional presence / absence determination processing. By executing the above three-dimensional presence / absence determination process, when a certain data combination is not generated by photographing a three-dimensional target object but is generated by photographing a flat medium. , In the three-dimensional presence / absence determination process for the data combination, it is determined that there is no three-dimensionality of the object to be photographed.

処理部14は、立体性判別部13により撮影対象の立体性がないと判定された場合(データ組合せが複数存在するときは、撮影対象の立体性がないと判定されたデータ組合せが1つでも存在する場合)、以下の処理を実行する。すなわち処理部14は、端末側制御部10を制御して、立体的な物品が撮影されておらず、写真やディスプレイ画面が撮影された可能性があるため、再度、撮影を行うべき旨の情報をタッチスクリーン4に表示させ、その旨をユーザに伝える。この場合、処理部14は物体評価関連処理(後述)を実行しない。 When the processing unit 14 determines that the image capture target does not have three-dimensionality by the three-dimensionality determination unit 13 (when there are a plurality of data combinations, even one data combination determined that the image capture target does not have three-dimensionality) If it exists), execute the following processing. That is, the processing unit 14 controls the terminal-side control unit 10 to indicate that a three-dimensional article has not been photographed and a photograph or a display screen may have been photographed, so that the image should be photographed again. Is displayed on the touch screen 4 to inform the user to that effect. In this case, the processing unit 14 does not execute the object evaluation-related processing (described later).

なお立体性判別部13により、撮影対象の立体性がないと判定された場合に処理部14が実行する処理は上述した処理に限られない(ただし、物体評価関連処理は実行されない)。例えば運営会社の担当者に対して通知する構成としてもよい。通知は、サーバ3に接続された表示装置への情報の表示や、担当者へのメール等どのような方法で行われてもよい。担当者は、当該通知に応じて、例えば、2次元画像データおよび3次元画像データを目視、その他の手段により確認し、立体的な物品が撮影されているかどうかを再検証する等の処置を行うことができる。 The process executed by the processing unit 14 when the three-dimensionality determining unit 13 determines that the object to be photographed does not have three-dimensionality is not limited to the above-mentioned processing (however, the object evaluation-related processing is not executed). For example, it may be configured to notify the person in charge of the operating company. The notification may be performed by any method such as displaying information on a display device connected to the server 3 or sending an e-mail to a person in charge. In response to the notification, the person in charge takes measures such as visually confirming the two-dimensional image data and the three-dimensional image data by other means, and re-verifying whether or not the three-dimensional article is photographed. be able to.

一方、処理部14は、立体性判別部13により撮影対象の立体性があると判定された場合(データ組合せが複数存在するときは、全てのデータ組合せについて撮影対象の立体性があると判定された場合)、以下の処理を実行する。すなわち処理部14は、物体評価関連処理を実行する。 On the other hand, when the processing unit 14 determines that the image shooting target has three-dimensionality by the three-dimensionality determination unit 13 (when there are a plurality of data combinations, it is determined that all the data combinations have the three-dimensionality of the image shooting target. If), execute the following processing. That is, the processing unit 14 executes the object evaluation-related processing.

物体評価関連処理において処理部14は、撮影された対象物品の価値を評価し、買取り価格を決定する。より詳細には処理部14は、画像処理技術(画像認識技術)により2次元画像データを分析し、対象物品について最深種別(例えば、ノートパソコンであればモデル、ブランド物のバッグであれば型番というように、対象物品を最も細かく区分した種別)を特定する。更に処理部14は、所定のデータベースにアクセスし、特定した最深種別の物品の相場価格を取得する。更に処理部14や、画像処理技術(画像認識技術)により2次元画像データを分析し、傷や汚れ、摩耗、凹み、部品の欠損等による見た目の劣化の状況の判別や、物品の真贋判別等を行う。その際、最深種別ごとにテンプレートデータを用意しておき、特定した最深種別に対応するテンプレートデータを用いたパターンマッチングを行うことができる。 In the object evaluation-related processing, the processing unit 14 evaluates the value of the photographed target article and determines the purchase price. More specifically, the processing unit 14 analyzes the two-dimensional image data by the image processing technology (image recognition technology), and refers to the target article as the deepest type (for example, a model for a notebook computer and a model number for a branded bag). (Type in which the target article is most finely classified) is specified. Further, the processing unit 14 accesses a predetermined database and acquires the market price of the specified deepest type of article. Furthermore, the two-dimensional image data is analyzed by the processing unit 14 and the image processing technology (image recognition technology), and the state of appearance deterioration due to scratches, stains, wear, dents, missing parts, etc. can be determined, and the authenticity of the article can be determined. I do. At that time, template data can be prepared for each deepest type, and pattern matching can be performed using the template data corresponding to the specified deepest type.

そして処理部14は、対象物品の相場価格や、劣化の状況、真贋を反映して対象物品の価値を評価し、買取り価格を決定する。以上が物体評価関連処理である。なお2次元画像データの分析に、所定の機械学習手法(例えばディープラーニング)で機械学習されたモデルを用いてもよい。また処理部14による物体評価関連処理は、外部装置と協働して行われてもよく、また一部に人間による判断が含まれてもよく、また2次元画像データに加えて3次元画像データが用いられて行われてもよい。また本実施形態では説明の便宜のため、簡略化しているが、物体評価関連処理で対象物品の価値を評価し、買取り価格を決定するにあたって必要な情報およびデータは、ユーザや運営会社の者から適切に提供される。 Then, the processing unit 14 evaluates the value of the target article by reflecting the market price of the target article, the state of deterioration, and the authenticity, and determines the purchase price. The above is the object evaluation related processing. A model machine-learned by a predetermined machine learning method (for example, deep learning) may be used for the analysis of the two-dimensional image data. Further, the object evaluation-related processing by the processing unit 14 may be performed in cooperation with an external device, may include a judgment by a human being in a part thereof, and may include 3D image data in addition to 2D image data. May be used. Further, in this embodiment, although simplified for convenience of explanation, the information and data necessary for evaluating the value of the target article in the object evaluation-related processing and determining the purchase price are provided by the user or the operating company. Properly provided.

評価シーンにおいて以上の処理が行われることにより、以下の効果を奏する。すなわち立体性判別部13は、2次元画像データだけでなく、このデータと同時に生成された3次元画像データを取得し、2次元画像データを利用して撮影対象の立体性の有無を判別する。そして立体性のある物体を撮影対象として撮影が行われていないとき、つまりユーザが対象物品を撮影したのではなく平面媒体を撮影しているときには、これを検知して物体評価関連処理が実行されず、これに代えて立体性のある物体が撮影されていないことに対処する処理が実行される。これにより立体的な物体が撮影されるという想定が守られていないときに、平面媒体が撮影されて生成された2次元画像データに基づいて買取り価格を決定するという不適切な処理が行われてしまうことを防止でき、ひいてはユーザに対して金銭が引き渡されることを防止できる。 By performing the above processing in the evaluation scene, the following effects are obtained. That is, the three-dimensionality determination unit 13 acquires not only the two-dimensional image data but also the three-dimensional image data generated at the same time as this data, and determines the presence or absence of the three-dimensionality of the object to be photographed by using the two-dimensional image data. Then, when shooting is not performed with a three-dimensional object as the shooting target, that is, when the user is shooting a flat medium instead of shooting the target article, this is detected and the object evaluation related processing is executed. Instead of this, a process for dealing with the fact that a three-dimensional object is not photographed is executed. As a result, when the assumption that a three-dimensional object is photographed is not kept, an inappropriate process is performed in which the purchase price is determined based on the two-dimensional image data generated by photographing the planar medium. It is possible to prevent it from being stored, and by extension, it is possible to prevent money from being handed over to the user.

<本人確認シーン>
次に本人確認シーンにおける情報処理システム1の動作例について説明する。本人確認シーンでは、ユーザが所有する立体的な本人確認資料が端末2のカメラ5によって撮影され、その撮影の結果に基づく2次元画像データがサーバ3に送信され、サーバ3において2次元画像データに基づいて本人確認関連処理(処理の内容については後述)が実行される。本人確認資料は、例えば、運転免許証や、パスポート、マイナンバーカード等である。本人確認資料は、特許請求の範囲の「本人確認用の情報が記録された物体」に相当する。
<Identity verification scene>
Next, an operation example of the information processing system 1 in the identity verification scene will be described. In the identity verification scene, a three-dimensional identity verification material owned by the user is photographed by the camera 5 of the terminal 2, two-dimensional image data based on the photographed result is transmitted to the server 3, and the server 3 converts the three-dimensional image data into two-dimensional image data. Based on this, identity verification related processing (details of the processing will be described later) is executed. Identity verification materials are, for example, a driver's license, passport, My Number card, and the like. The identity verification material corresponds to "an object in which information for identity verification is recorded" in the claims.

本人確認資料についても、ユーザが、自身が所有する本人確認資料ではなく、他人の本人確認資料の画像が表示された写真や、他人の本人確認資料の画像が表示されたディスプレイ画面を撮影する可能性がある。一例として、他人の本人確認資料をカメラによって不正に撮影し、他人の本人確認資料の画像が表示された写真をプリントアウトし或いはディスプレイ画面に映し、写真或いはディスプレイ画面を撮影する可能性がある。これを踏まえ、情報処理システム1は、以下の処理を実行する。 As for the identity verification material, the user can take a picture showing an image of another person's identity verification material or a display screen displaying an image of another person's identity verification material instead of the identity verification material owned by the user. There is sex. As an example, there is a possibility that an identity verification material of another person is illegally photographed by a camera, a photograph displaying an image of the identity verification material of another person is printed out or displayed on a display screen, and the photograph or the display screen is photographed. Based on this, the information processing system 1 executes the following processing.

すなわち本人確認シーンにおいてユーザにより撮影が指示されると、端末側制御部10は、端末2のカメラ5およびLiDARスキャナ6を有効にして、カメラ5による撮影およびLiDARスキャナ6によるスキャンを実行し、2次元画像データおよび3次元画像データを取得する。端末側制御部10は、取得した2次元画像データおよび3次元画像データを立体性判別部13に送信する。 That is, when the user instructs to take a picture in the identity verification scene, the terminal side control unit 10 enables the camera 5 and the LiDAR scanner 6 of the terminal 2 to take a picture with the camera 5 and scan with the LiDAR scanner 6. Acquire 3D image data and 3D image data. The terminal side control unit 10 transmits the acquired two-dimensional image data and the three-dimensional image data to the three-dimensionality discrimination unit 13.

立体性判別部13は、2次元画像データおよび3次元画像データ(データ組合せ)を受信する。次いで立体性判別部13は、データ組合せについて立体性有無判別処理を実行し、撮影対象の立体性の有無を判別する。立体性有無判別処理では、評価シーンのときと同等の処理が実行される。 The stereoscopic determination unit 13 receives two-dimensional image data and three-dimensional image data (data combination). Next, the three-dimensionality determination unit 13 executes a three-dimensionality determination process for the data combination to determine the presence or absence of the three-dimensionality of the image shooting target. In the three-dimensional presence / absence determination process, the same process as in the evaluation scene is executed.

簡単に説明すると立体性判別部13は、2次元画像データを分析し、2次元画像データにおける本人確認資料の画像の領域を特定する。例えば本人確認資料が運転免許証であれば、立体性判別部13は、2次元画像データを分析し、2次元画像データにおける運転免許証の画像の領域を特定する。例えば立体性判別部13は、ユーザの入力、その他の手段により本人確認資料の種類(運転免許証や、パスポート、マイナンバーカード等)を認識し、種類に応じたテンプレートデータを取得し(本人確認資料の種類ごとのテンプレートデータは事前に用意される)、テンプレートデータを用いたパターンマッチングを行って画像の領域を特定する。 Briefly, the stereoscopic determination unit 13 analyzes the two-dimensional image data and identifies the area of the image of the identity verification material in the two-dimensional image data. For example, if the identity verification material is a driver's license, the stereoscopic determination unit 13 analyzes the two-dimensional image data and identifies the area of the driver's license image in the two-dimensional image data. For example, the three-dimensionality determination unit 13 recognizes the type of identity verification material (driver's license, passport, My Number card, etc.) by user input or other means, and acquires template data according to the type (identity verification material). Template data for each type is prepared in advance), and pattern matching using the template data is performed to specify the area of the image.

次いで立体性判別部13は、2次元画像データと3次元画像データとを重ね合わせ、3次元画像データにおいて、「2次元画像データにおける本人確認資料の画像の領域」に対応する領域(特定領域)を特定する。次いで立体性判別部13は、3次元画像データの特定領域に属する像が、周囲の像と平面的に連続する(平面上で連続する)、平らな像(凹凸のない或いは限定的にしか凹凸がない像)であるか否かを判別する(=撮影対象の立体性の有無を判別する)。立体性判別部13は、特定領域に、周囲の像と平面的に連続する平らな像が形成されている場合には、撮影対象について立体性がないと判定する。一方、それ以外の場合、立体性判別部13は、撮影対象について立体性があると判定する。 Next, the three-dimensionality determination unit 13 superimposes the two-dimensional image data and the three-dimensional image data, and in the three-dimensional image data, the area (specific area) corresponding to the "image area of the identity verification material in the two-dimensional image data". To identify. Next, in the stereoscopic determination unit 13, the image belonging to the specific region of the three-dimensional image data is planarly continuous with the surrounding image (continuous on the plane), and is a flat image (unevenness or only limited unevenness). It is determined whether or not the image is (= the presence or absence of three-dimensionality of the object to be photographed). When the three-dimensionality determination unit 13 forms a flat image that is planarly continuous with the surrounding image in the specific region, the three-dimensionality determination unit 13 determines that the object to be photographed has no three-dimensionality. On the other hand, in other cases, the three-dimensionality determination unit 13 determines that the object to be photographed has three-dimensionality.

処理部14は、立体性判別部13により撮影対象に立体性がないと判定された場合、本人確認関連処理を実行することなく、対応する処理を実行する。本実施形態では処理部14は、撮影対象に立体性がないと判定されたことを運営会社の担当者に通知する。当該担当者は、この通知に基づいて、例えば、2次元画像データおよび3次元画像データを目視その他の手段により確認し、立体的な本人確認書類が撮影されているかどうかを再検証する等の処置を行う。 When the three-dimensionality determination unit 13 determines that the object to be photographed does not have three-dimensionality, the processing unit 14 executes the corresponding processing without executing the identification-related processing. In the present embodiment, the processing unit 14 notifies the person in charge of the operating company that it is determined that the object to be photographed does not have three-dimensionality. Based on this notification, the person in charge confirms the 2D image data and the 3D image data by visual inspection or other means, and re-verifies whether or not the three-dimensional identity verification document has been taken. I do.

一方、処理部14は、立体性判別部13により撮影対象に立体性があると判定された場合、本人確認関連処理を実行する。本実施形態では処理部14は本人確認関連処理として、2次元画像データをユーザの識別情報と対応付けて所定のデータベースに登録する処理を実行する。データベースは、サーバ側記憶部16に記憶されている。ただし上記の本人確認関連処理は、あくまで一例であり、処理部14が本人確認関連処理として異なる処理を実行する構成でもよい。一例として処理部14は、本人確認関連処理として、2次元画像データの本人確認書類の画像を光学文字認識し、氏名や住所のテキストを抽出し、氏名や住所のテキストをデータベースに登録したり、氏名や住所のテキストに基づいて、事前に登録された情報との整合性を確認したりする。 On the other hand, when the three-dimensionality determination unit 13 determines that the object to be photographed has three-dimensionality, the processing unit 14 executes the identification-related processing. In the present embodiment, the processing unit 14 executes a process of registering the two-dimensional image data in a predetermined database in association with the user's identification information as the identity verification related process. The database is stored in the server-side storage unit 16. However, the above-mentioned identity verification-related processing is merely an example, and the processing unit 14 may be configured to execute different processing as the identity verification-related processing. As an example, the processing unit 14 performs optical character recognition of the image of the identity verification document of the two-dimensional image data, extracts the text of the name and address, and registers the text of the name and address in the database as the identity verification related processing. Check the consistency with the pre-registered information based on the text of the name and address.

本人確認シーンにおいて以上の処理が行われることにより、本人確認シーンのときと同様、立体的な物体が撮影されるという想定が守られていないときに、平面媒体が撮影されて生成された2次元画像データがデータベースに登録されるという不適切な処理が実行されることを防止できる。 By performing the above processing in the identity verification scene, as in the case of the identity verification scene, when the assumption that a three-dimensional object is photographed is not kept, the two-dimensional medium is photographed and generated. It is possible to prevent the improper process of registering the image data in the database from being executed.

次に情報処理システム1の動作例についてフローチャートを用いて説明する。以下の説明において、サーバ3の動作は、サーバ3(情報処理装置)による情報処理方法の一例を表している。図5は、評価シーンにおける情報処理システム1の動作例を示すフローチャートである。図5において(A)は端末2の動作を示し、(B)はサーバ3の動作を示している。 Next, an operation example of the information processing system 1 will be described using a flowchart. In the following description, the operation of the server 3 represents an example of an information processing method by the server 3 (information processing device). FIG. 5 is a flowchart showing an operation example of the information processing system 1 in the evaluation scene. In FIG. 5, (A) shows the operation of the terminal 2, and (B) shows the operation of the server 3.

図5(A)で示すようにユーザは、端末2の専用アプリを起動し、物品種別選択画面をタッチスクリーン4に表示することを指示する(ステップSX1)。当該指示に応じて端末側制御部10および立体性判別部13は協働して、物品種別選択画面をタッチスクリーン4に表示する(ステップSA1、SB1)。ユーザにより物品種別が選択されると(ステップSX2)、端末側制御部10および立体性判別部13は協働して、選択物品種別に応じた方法による対象物品の撮影を案内すると共に、カメラ5による撮影の実行を指示するための種々の撮影用画面G3(図3)を表示する(ステップSA2、SB2)。 As shown in FIG. 5A, the user activates the dedicated application of the terminal 2 and instructs the touch screen 4 to display the article type selection screen (step SX1). In response to the instruction, the terminal-side control unit 10 and the three-dimensionality determination unit 13 cooperate to display the article type selection screen on the touch screen 4 (steps SA1 and SB1). When the article type is selected by the user (step SX2), the terminal side control unit 10 and the three-dimensionality determination unit 13 cooperate to guide the shooting of the target article by a method according to the selected article type, and the camera 5 Various shooting screens G3 (FIG. 3) for instructing the execution of shooting by the camera are displayed (steps SA2 and SB2).

ユーザにより撮影(およびスキャン)が指示され(ステップSX3)、2次元画像データおよび3次元画像データ(データ組合せ)が生成されると、端末側制御部10は、1つ以上のデータ組合せを取得する(ステップSA3)。次いで端末側制御部10は、ステップSA3で取得した全てのデータ組合せを立体性判別部13に送信する(ステップSA4)。 When shooting (and scanning) is instructed by the user (step SX3) and two-dimensional image data and three-dimensional image data (data combination) are generated, the terminal side control unit 10 acquires one or more data combinations. (Step SA3). Next, the terminal-side control unit 10 transmits all the data combinations acquired in step SA3 to the three-dimensionality determination unit 13 (step SA4).

立体性判別部13は、全てのデータ組合せを受信し(ステップSB3)、各データ組合せを対象として以下の立体性有無判別処理を実行する(ステップSB4)。上述の通り立体性有無判別処理では、撮影対象に立体性があるか否かが判別される。 The three-dimensionality determination unit 13 receives all the data combinations (step SB3), and executes the following three-dimensionality determination process for each data combination (step SB4). As described above, in the three-dimensional presence / absence determination process, it is determined whether or not the object to be photographed has three-dimensionality.

処理部14は、立体性判別部13により撮影対象の立体性があると判定されたか否かを判別する(ステップSB5)。処理部14は、立体性判別部13により撮影対象の立体性があると判定された場合(ステップSB5:YES)、物体評価関連処理を実行する(ステップSB6)。一方、処理部14は、立体性判別部13により撮影対象の立体性がないと判定された場合(ステップSB6:NO)、物体評価関連処理を実行することなく、立体性のある物体が撮影されていないことに対応する処理を実行する(ステップSB7)。 The processing unit 14 determines whether or not the three-dimensionality determination unit 13 determines that the object to be photographed has three-dimensionality (step SB5). When the three-dimensionality determination unit 13 determines that the object to be photographed has three-dimensionality (step SB5: YES), the processing unit 14 executes object evaluation-related processing (step SB6). On the other hand, when the processing unit 14 determines that the object to be imaged does not have three-dimensionality (step SB6: NO), the three-dimensional object is photographed without executing the object evaluation-related processing. The process corresponding to the fact that the object has not been executed is executed (step SB7).

以上詳しく説明したように、本実施形態に係るサーバ3は、カメラ5の撮影結果に基づく2次元画像データだけではなく、カメラ5による撮影と同時に実行されたLiDARスキャナ6によるスキャンにより生成された3次元画像データをネットワークN経由で端末2から取得し、3次元画像データを少なくとも利用して撮影対象の立体性の有無を判別するようにしている。 As described in detail above, the server 3 according to the present embodiment is generated not only by the two-dimensional image data based on the shooting result of the camera 5, but also by the scanning by the LiDAR scanner 6 executed at the same time as the shooting by the camera 5. The three-dimensional image data is acquired from the terminal 2 via the network N, and at least the three-dimensional image data is used to determine the presence or absence of the three-dimensionality of the image shooting target.

この構成によれば、2次元画像データだけでなく、このデータと同時に生成された3次元画像データが取得された上で、3次元画像データを利用して撮影対象の立体性の有無が判別されるため、カメラによる撮影が立体性のある物体を撮影対象として行われたか否かを判別することができる。このため立体性のある物体を撮影対象として撮影が行われていないときに、上記判別を通してそのことを検知でき、例えば立体性のある物体が撮影されて生成された2次元画像データを処理対象とする通常の処理を行わず、これに代えて立体性のある物体が撮影されていないことに対処する処理を実行する、といったことが可能となる。これにより立体的な物体が撮影されるという想定が守られていないときに、2次元画像データを処理対象とする不適切な処理が行われてしまうことを防止できる。 According to this configuration, not only the two-dimensional image data but also the three-dimensional image data generated at the same time as this data is acquired, and then the presence or absence of the three-dimensionality of the object to be photographed is determined using the three-dimensional image data. Therefore, it is possible to determine whether or not the image taken by the camera is performed on a three-dimensional object. Therefore, when shooting is not performed with a three-dimensional object as the shooting target, that can be detected through the above discrimination. For example, the two-dimensional image data generated by shooting a three-dimensional object is used as the processing target. Instead of performing the usual processing, it is possible to perform processing for dealing with the fact that a three-dimensional object has not been photographed. As a result, it is possible to prevent inappropriate processing for the two-dimensional image data from being performed when the assumption that a three-dimensional object is photographed is not observed.

以上、本発明の一実施形態について説明したが、上記実施形態は、本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。 Although one embodiment of the present invention has been described above, the above-described embodiment is merely an example of the embodiment of the present invention, whereby the technical scope of the present invention is limitedly interpreted. It should not be done. That is, the present invention can be implemented in various forms without departing from its gist or its main features.

例えば上記実施形態では、サーバ3が2次元画像データに基づいて物体評価関連処理を行うシステム、および、サーバ3が2次元画像データに基づいて本人確認関連処理を行うシステムに本発明を適用する場合を説明した。しかしながら、本発明が適用されるシステムは上記実施形態で例示したシステムに限られない。すなわち、本発明は、立体的な物体が撮影されるという前提の下で撮影対象に対する撮影により生成された2次元画像データをネットワーク経由で端末から取得し、2次元画像データを処理する機能を有する情報処理装置、或いは、このような端末と情報処理装置とを含んで構成されるシステムに広く適用可能である。特に物体評価関連処理或いは本人確認関連処理に代えて異なる処理を実行するシステムに本発明を広く適用可能である。 For example, in the above embodiment, the present invention is applied to a system in which the server 3 performs object evaluation-related processing based on two-dimensional image data, and a system in which the server 3 performs identity verification-related processing based on two-dimensional image data. Explained. However, the system to which the present invention is applied is not limited to the system exemplified in the above embodiment. That is, the present invention has a function of acquiring two-dimensional image data generated by shooting a three-dimensional object from a terminal via a network and processing the two-dimensional image data on the premise that a three-dimensional object is shot. It can be widely applied to an information processing device or a system including such a terminal and an information processing device. In particular, the present invention can be widely applied to a system that executes different processes in place of object evaluation-related processes or identity verification-related processes.

例えば、物体評価関連処理で決定された買取り価格に相当する金銭を支払うのではなく、単に買取り価格を査定額として提示するシステムに本発明を適用可能である。また例えば、運営会社が買い取った物品をリースによりユーザの手元に置いておけるようにするのではなく、所定の手段でユーザから運営会社に引き渡されるシステムに本発明を適用可能である。また2次元画像データに基づいて対象物品を評価するのではなく、撮影対象の立体性が確認された場合に2次元画像データを単に保管したり、公開したりするシステムに本発明を適用可能である。 For example, the present invention can be applied to a system in which the purchase price is simply presented as an assessed amount instead of paying money corresponding to the purchase price determined in the object evaluation-related processing. Further, for example, the present invention can be applied to a system in which an article purchased by an operating company is delivered from the user to the operating company by a predetermined means, instead of being kept in the hands of the user by leasing. Further, the present invention can be applied to a system that simply stores or publishes two-dimensional image data when the three-dimensionality of the object to be photographed is confirmed, instead of evaluating the target article based on the two-dimensional image data. be.

また例えば立体性判別部13による立体性有無判別処理は、上記実施形態で示した方法以外の方法で行われてもよい。一例として、上記実施形態では2次元画像データに基づいて特定領域を定めたが、このような処理を行わず、特定領域を予め定められた領域としてもよい。すなわち、評価シーンや、本人確認シーンにおいて、カメラ5による撮影(およびLiDARスキャナ6によるスキャン)時の端末2に対する撮影対象の相対的な位置は、ある程度、固定的であることが想定される。具体的には、図3(B)の枠線内の中央部に撮影対象が位置した状態で、30~90センチ程度、端末2と撮影対象とが離間した状態で撮影が行われることが想定される。これを踏まえ、特定領域として、通常の態様で撮影が行われた場合に3次元画像データにおいて撮影対象が位置する領域を予め定めておき、立体性判別部13が、予め定められた特定領域に出現する像について、周囲の像と平面的に連続する、平らな像であるか否かを判別する構成でもよい。 Further, for example, the three-dimensionality determination process by the three-dimensionality determination unit 13 may be performed by a method other than the method shown in the above embodiment. As an example, in the above embodiment, the specific area is defined based on the two-dimensional image data, but such a process may not be performed and the specific area may be a predetermined area. That is, in the evaluation scene and the identity verification scene, it is assumed that the relative position of the shooting target with respect to the terminal 2 at the time of shooting by the camera 5 (and scanning by the LiDAR scanner 6) is fixed to some extent. Specifically, it is assumed that the shooting is performed with the shooting target located in the center of the frame line of FIG. 3B, and the terminal 2 and the shooting target are separated from each other by about 30 to 90 cm. Will be done. Based on this, as a specific area, a region in which the shooting target is located in the three-dimensional image data when shooting is performed in a normal manner is predetermined, and the stereoscopic determination unit 13 is set to the predetermined specific region. It may be configured to determine whether or not the appearing image is a flat image that is two-dimensionally continuous with the surrounding image.

別の例として、以下の構成でもよい(ただしシーンは説明の便宜のため、評価シーンであるものとする)。すなわち物品種別ごとに3次元的なテンプレートデータ(点群データ)が用意される。そして立体性判別部13は、立体性判別処理において、選択物品種別に対応するテンプレートデータを用いたパターンマッチングを行って、テンプレートデータと類似度が一定以上である像(点群)が3次元画像データ中に存在するか否かを判定する。立体性判別部13は、このような像が存在する場合には、撮影対象が立体的であると判定し、存在しない場合には、撮影対象が立体的でないと判定する。なお後述するように選択物品種別は、より細かく区分することができ(例えばパソコンであればモデルや、ブランド物のバッグであれば型番とすることができる)、本構成は、このように選択物品種別がより細かく区分されている場合に、有効である。なぜなら細かく区分された選択物品種別ごとにテンプレートデータが用意されることになり、より高い精度で撮影対象が立体的であるか否かの判別を行うことができるからである。 As another example, the following configuration may be used (however, the scene is assumed to be an evaluation scene for convenience of explanation). That is, three-dimensional template data (point cloud data) is prepared for each article type. Then, the three-dimensionality discrimination unit 13 performs pattern matching using the template data corresponding to the selected article type in the three-dimensionality discrimination processing, and an image (point cloud) having a degree of similarity with the template data of a certain degree or more is a three-dimensional image. Determine if it exists in the data. When such an image exists, the stereoscopic determination unit 13 determines that the photographing target is three-dimensional, and when it does not exist, it determines that the photographing target is not three-dimensional. As will be described later, the selection item type can be further subdivided (for example, a model can be used for a personal computer or a model number for a branded bag), and this configuration can be used as a selection item in this way. This is effective when the types are classified more finely. This is because the template data is prepared for each of the selected article types that are finely divided, and it is possible to determine with higher accuracy whether or not the object to be photographed is three-dimensional.

更に別の例として、以下の構成でもよい。すなわち、「2次元画像データおよび3次元画像データの双方」と、選択物品種別とを入力とし、撮影対象の立体性がある確率を出力とするモデルが事前に用意される。このモデルは、ディープラーニングその他の機械学習手法により学習されたモデルである。そして立体性判別部13が、このモデルに「2次元画像データおよび3次元画像データの双方」と、選択物品種別とを入力し、その出力を得ることによって、撮影対象が立体的であるか否かの判別を行う構成でもよい。ただし、モデルの入力は上記に限られず、3次元画像データおよび選択物品種別が入力であってもよく、選択物品種別が入力に含まれなくてもよい。また出力についても、立体性がない確率や、立体性の有無が出力されてもよい。 As yet another example, the following configuration may be used. That is, a model is prepared in advance in which "both two-dimensional image data and three-dimensional image data" and the selected article type are input and the probability that the imaged object has three-dimensionality is output. This model is a model learned by deep learning and other machine learning methods. Then, the three-dimensionality determination unit 13 inputs "both two-dimensional image data and three-dimensional image data" and the selected article type into this model, and obtains the output to determine whether or not the object to be imaged is three-dimensional. It may be configured to determine whether or not. However, the input of the model is not limited to the above, and the three-dimensional image data and the selected article type may be input, and the selected article type may not be included in the input. As for the output, the probability of no three-dimensionality and the presence or absence of three-dimensionality may be output.

また上記実施形態では、物品種別は、ノートパソコンや、スマートフォン、ゲーム機、バッグ、時計といった、物品を機能や用途によって大きく区分したときの各種別であった。しかしながら、物品種別がより細かく区分されていてもよい。例えばノートパソコンやスマートフォン、その他の電子機器についてはモデル(型番と呼ばれる場合もある)を物品種別としてもよい。また例えばブランド品のバッグや小物、洋服、アクセサリについては型番を物品種別としてもよい。物品種別は、ユーザに選択させ或いは入力させる構成でもよく、また、立体性判別部13が、2次元画像データを分析し、認識する構成でもよい。 Further, in the above embodiment, the article types are classified into various types such as notebook computers, smartphones, game machines, bags, watches, etc., when the articles are broadly classified according to their functions and uses. However, the article types may be further subdivided. For example, for notebook computers, smartphones, and other electronic devices, a model (sometimes called a model number) may be used as the item type. Further, for example, for brand-name bags, accessories, clothes, and accessories, the model number may be used as the item type. The article type may be configured to be selected or input by the user, or may be configured in which the stereoscopic determination unit 13 analyzes and recognizes the two-dimensional image data.

また上記実施形態では、端末2はスマートフォンであったが、端末2がスマートフォンに限られず、例えば、端末2は、端末機能を有さないタブレット端末やノートパソコンであってもよい。 Further, in the above embodiment, the terminal 2 is a smartphone, but the terminal 2 is not limited to a smartphone. For example, the terminal 2 may be a tablet terminal or a notebook computer having no terminal function.

1 情報処理システム
2 端末
3 サーバ(情報処理装置)
5 カメラ
6 LiDARスキャナ(測距センサ)
10 端末側制御部
13 立体性判別部
14 処理部
1 Information processing system 2 Terminal 3 Server (information processing device)
5 Camera 6 LiDAR Scanner (distance measuring sensor)
10 Terminal side control unit 13 Three-dimensionality discrimination unit 14 Processing unit

Claims (12)

本人確認用の情報が記録された立体的な物体が撮影されるという想定の下で撮影対象に対するカメラによる撮影により生成された2次元画像データをネットワーク経由で端末から取得する情報処理装置であって、
前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記端末から取得し、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する立体性判別部と、
前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない処理部とを備え、
前記立体性判別部は、前記2次元画像データを分析し、前記2次元画像データにおける前記撮影対象の画像の位置を認識し、前記2次元画像データにおける前記撮影対象の画像の位置に基づいて、前記3次元画像データにおける前記撮影対象の像の領域である特定領域を特定し、前記特定領域に属する像の立体性を判別することによって、前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理装置。
It is an information processing device that acquires two-dimensional image data generated by shooting with a camera for a shooting target from a terminal via a network under the assumption that a three-dimensional object on which information for identity verification is recorded is shot. ,
The presence or absence of the three-dimensionality of the imaged object is obtained by acquiring the three-dimensional image data generated by the scan by the distance measuring sensor executed at the same time as the image taken by the camera from the terminal via the network and using at least the three-dimensional image data. A three-dimensionality discriminator that discriminates between
When it is determined by the three-dimensionality determination unit that the object to be photographed has three-dimensionality, it is determined that there is no three-dimensionality while performing the identification-related processing related to the identification of the person based on the two-dimensional image data. If so, it is provided with a processing unit that does not execute the above-mentioned identity verification related processing.
The three-dimensionality discriminating unit analyzes the two-dimensional image data, recognizes the position of the image to be photographed in the two-dimensional image data, and is based on the position of the image to be photographed in the two-dimensional image data. It is characterized in that the presence or absence of the three-dimensionality of the imaged object is determined by specifying a specific area which is an area of the image of the imaged object in the three-dimensional image data and determining the three-dimensionality of the image belonging to the specific area. Information processing device.
前記立体性判別部は、前記3次元画像データにおいて前記特定領域に属する像が、周囲の像と平面的に連続する平らな像であるか否かを判別し、平らな像である場合に前記撮影対象について立体性がないと判定する一方、それ以外の場合に立体性があると判定する
ことを特徴とする請求項1に記載の情報処理装置。
The three-dimensionality determination unit determines whether or not the image belonging to the specific region in the three-dimensional image data is a flat image that is planarly continuous with the surrounding image, and if it is a flat image, the three-dimensional image is described. The information processing apparatus according to claim 1, wherein it is determined that the object to be imaged has no three-dimensionality, while it is determined that the object to be imaged has three-dimensionality in other cases.
前記立体性判別部は、前記特定領域に、周囲の像から独立した立体的な像が形成されている場合に前記撮影対象について立体性があると判定する一方、それ以外の場合に立体性がないと判定する
ことを特徴とする請求項1に記載の情報処理装置。
The three-dimensionality determining unit determines that the imaged object has three-dimensionality when a three-dimensional image independent of the surrounding image is formed in the specific region, while the three-dimensionality is determined in other cases. The information processing apparatus according to claim 1, wherein the information processing apparatus is determined not to be present.
前記立体性判別部は、前記撮影対象の種別を認識し、画像処理技術による処理、或いは、機械学習されたモデルを用いた処理により前記2次元画像データにおける前記撮影対象の種別の物体の画像の位置を認識し、前記2次元画像データにおける前記撮影対象の種別の物体の画像の位置を、前記2次元画像データにおける前記撮影対象の画像の位置として認識する
ことを特徴とする請求項1から3の何れか1項に記載の情報処理装置。
The three-dimensionality discriminating unit recognizes the type of the object to be photographed, and processes the image of the object of the type to be photographed in the two-dimensional image data by processing by an image processing technique or processing using a machine-learned model. Claims 1 to 3 are characterized in that the position is recognized and the position of the image of the object of the type to be photographed in the two-dimensional image data is recognized as the position of the image of the image to be photographed in the two-dimensional image data. The information processing apparatus according to any one of the above items.
本人確認用の情報が記録された立体的な物体が撮影されるという想定の下で撮影対象に対するカメラによる撮影により生成された2次元画像データをネットワーク経由で端末から取得する情報処理装置であって、
前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記端末から取得し、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する立体性判別部と、
前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない処理部とを備え、
前記立体性判別部は、前記撮影対象の種別を認識し、前記撮影対象の種別に対応する3次元的なテンプレートデータを用いたパターンマッチングを行い、パターンマッチングの結果に基づいて前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理装置。
It is an information processing device that acquires two-dimensional image data generated by shooting with a camera for a shooting target from a terminal via a network under the assumption that a three-dimensional object on which information for identity verification is recorded is shot. ,
The presence or absence of the three-dimensionality of the imaged object is obtained by acquiring the three-dimensional image data generated by the scan by the distance measuring sensor executed at the same time as the image taken by the camera from the terminal via the network and using at least the three-dimensional image data. A three-dimensionality discriminator that discriminates between
When it is determined by the three-dimensionality determination unit that the object to be photographed has three-dimensionality, it is determined that there is no three-dimensionality while performing the identification-related processing related to the identification of the person based on the two-dimensional image data. If so, it is provided with a processing unit that does not execute the above-mentioned identity verification related processing.
The three-dimensionality determination unit recognizes the type of the shooting target, performs pattern matching using the three-dimensional template data corresponding to the type of the shooting target, and based on the result of the pattern matching, the three-dimensional image of the shooting target. An information processing device characterized by determining the presence or absence of sex.
本人確認用の情報が記録された立体的な物体が撮影されるという想定の下で撮影対象に対するカメラによる撮影により生成された2次元画像データをネットワーク経由で端末から取得する情報処理装置であって、
前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記端末から取得し、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する立体性判別部と、
前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない処理部とを備え、
前記立体性判別部は、
2次元画像データと3次元画像データと前記撮影対象の種別とを入力とするか、3次元画像データと前記撮影対象の種別とを入力とするか、または、2次元画像データと3次元画像データとを入力とし、前記撮影対象の立体性の有無の判別に利用可能な情報を出力とする機械学習されたモデルに対して必要な入力値を入力し、その出力を得ることによって前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理装置。
It is an information processing device that acquires two-dimensional image data generated by shooting with a camera for a shooting target from a terminal via a network under the assumption that a three-dimensional object on which information for identity verification is recorded is shot. ,
The presence or absence of the three-dimensionality of the imaged object is obtained by acquiring the three-dimensional image data generated by the scan by the distance measuring sensor executed at the same time as the image taken by the camera from the terminal via the network and using at least the three-dimensional image data. A three-dimensionality discriminator that discriminates between
When it is determined by the three-dimensionality determination unit that the object to be photographed has three-dimensionality, it is determined that there is no three-dimensionality while performing the identification-related processing related to the identification of the person based on the two-dimensional image data. If so, it is provided with a processing unit that does not execute the above-mentioned identity verification related processing.
The three-dimensionality discriminating unit is
Two-dimensional image data, three-dimensional image data, and the type of the shooting target are input, three-dimensional image data and the type of the shooting target are input, or two-dimensional image data and three-dimensional image data. The input value required for the machine-learned model that outputs the information that can be used to determine the presence or absence of the three-dimensionality of the imaged object is input, and the output is obtained to obtain the output of the imaged object. An information processing device characterized by determining the presence or absence of three-dimensionality.
端末と、前記端末とネットワークを介して通信可能な情報処理装置とを備える情報処理システムであって、
前記端末は、
本人確認用の情報が記録された立体的な物体が撮影されるという想定の下で撮影対象に対するカメラによる撮影により生成された2次元画像データ、および、前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記情報処理装置に送信する端末側制御部を有し、
前記情報処理装置は、
前記端末からネットワーク経由で前記2次元画像データおよび前記3次元画像データを取得し、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する立体性判別部と、
前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない処理部とを有し、
前記立体性判別部は、前記2次元画像データを分析し、前記2次元画像データにおける前記撮影対象の画像の位置を認識し、前記2次元画像データにおける前記撮影対象の画像の位置に基づいて、前記3次元画像データにおける前記撮影対象の像の領域である特定領域を特定し、前記特定領域に属する像の立体性を判別することによって、前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理システム。
An information processing system including a terminal and an information processing device capable of communicating with the terminal via a network.
The terminal is
Two-dimensional image data generated by shooting with a camera for the shooting target under the assumption that a three-dimensional object on which information for identity verification is recorded is shot, and distance measurement performed at the same time as shooting with the camera. It has a terminal-side control unit that transmits 3D image data generated by scanning by a sensor to the information processing device via a network.
The information processing device is
A three-dimensionality determining unit that acquires the two-dimensional image data and the three-dimensional image data from the terminal via a network and determines the presence or absence of the three-dimensionality of the imaged object by using at least the three-dimensional image data .
When it is determined by the three-dimensionality determination unit that the object to be photographed has three-dimensionality, it is determined that there is no three-dimensionality while performing the identification-related processing related to the identification of the person based on the two-dimensional image data. If so, it has a processing unit that does not execute the identity verification related processing.
The three-dimensionality discriminating unit analyzes the two-dimensional image data, recognizes the position of the image to be photographed in the two-dimensional image data, and is based on the position of the image to be photographed in the two-dimensional image data. It is characterized in that the presence or absence of the three-dimensionality of the imaged object is determined by specifying a specific area which is an area of the image of the imaged object in the three-dimensional image data and determining the three-dimensionality of the image belonging to the specific area. Information processing system.
端末と、前記端末とネットワークを介して通信可能な情報処理装置とを備える情報処理システムであって、
前記端末は、
本人確認用の情報が記録された立体的な物体が撮影されるという想定の下で撮影対象に対するカメラによる撮影により生成された2次元画像データ、および、前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記情報処理装置に送信する端末側制御部を有し、
前記情報処理装置は、
前記端末からネットワーク経由で前記2次元画像データおよび前記3次元画像データを取得し、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する立体性判別部と、
前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない処理部とを有し、
前記立体性判別部は、前記撮影対象の種別を認識し、前記撮影対象の種別に対応する3次元的なテンプレートデータを用いたパターンマッチングを行い、パターンマッチングの結果に基づいて前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理システム。
An information processing system including a terminal and an information processing device capable of communicating with the terminal via a network.
The terminal is
Two-dimensional image data generated by shooting with a camera for the shooting target under the assumption that a three-dimensional object on which information for identity verification is recorded is shot, and distance measurement performed at the same time as shooting with the camera. It has a terminal-side control unit that transmits 3D image data generated by scanning by a sensor to the information processing device via a network.
The information processing device is
A three-dimensionality determining unit that acquires the two-dimensional image data and the three-dimensional image data from the terminal via a network and determines the presence or absence of the three-dimensionality of the imaged object by using at least the three-dimensional image data .
When it is determined by the three-dimensionality determination unit that the object to be photographed has three-dimensionality, it is determined that there is no three-dimensionality while performing the identification-related processing related to the identification of the person based on the two-dimensional image data. If so, it has a processing unit that does not execute the identity verification related processing.
The three-dimensionality determination unit recognizes the type of the shooting target, performs pattern matching using the three-dimensional template data corresponding to the type of the shooting target, and based on the result of the pattern matching, the three-dimensional shape of the shooting target. An information processing system characterized by determining the presence or absence of sex.
端末と、前記端末とネットワークを介して通信可能な情報処理装置とを備える情報処理システムであって、
前記端末は、
本人確認用の情報が記録された立体的な物体が撮影されるという想定の下で撮影対象に対するカメラによる撮影により生成された2次元画像データ、および、前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記情報処理装置に送信する端末側制御部を有し、
前記情報処理装置は、
前記端末からネットワーク経由で前記2次元画像データおよび前記3次元画像データを取得し、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する立体性判別部と、
前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない処理部とを有し、
前記立体性判別部は、
2次元画像データと3次元画像データと前記撮影対象の種別とを入力とするか、3次元画像データと前記撮影対象の種別とを入力とするか、または、2次元画像データと3次元画像データとを入力とし、前記撮影対象の立体性の有無の判別に利用可能な情報を出力とする機械学習されたモデルに対して必要な入力値を入力し、その出力を得ることによって前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理システム。
An information processing system including a terminal and an information processing device capable of communicating with the terminal via a network.
The terminal is
Two-dimensional image data generated by shooting with a camera for the shooting target under the assumption that a three-dimensional object on which information for identity verification is recorded is shot, and distance measurement performed at the same time as shooting with the camera. It has a terminal-side control unit that transmits 3D image data generated by scanning by a sensor to the information processing device via a network.
The information processing device is
A three-dimensionality determining unit that acquires the two-dimensional image data and the three-dimensional image data from the terminal via a network and determines the presence or absence of the three-dimensionality of the imaged object by using at least the three-dimensional image data .
When it is determined by the three-dimensionality determination unit that the object to be photographed has three-dimensionality, it is determined that there is no three-dimensionality while performing the identification-related processing related to the identification of the person based on the two-dimensional image data. If so, it has a processing unit that does not execute the identity verification related processing.
The three-dimensionality discriminating unit is
Input 2D image data, 3D image data, and the type of the shooting target, input 3D image data and the type of the shooting target, or input 2D image data and 3D image data. Is input, and the input value required for the machine-learned model that outputs the information that can be used to determine the presence or absence of the three-dimensionality of the imaged object is input, and the output is obtained to obtain the output of the imaged object. An information processing system characterized by determining the presence or absence of three-dimensionality.
本人確認用の情報が記録された立体的な物体が撮影されるという想定の下で撮影対象に対するカメラによる撮影により生成された2次元画像データをネットワーク経由で端末から取得する情報処理装置による情報処理方法であって、
前記情報処理装置の立体性判別部が、前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記端末から取得する第1ステップと、
前記情報処理装置の前記立体性判別部が、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する第2ステップと
前記情報処理装置の処理部が、前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない第3ステップとを含み、
前記第2ステップにおいて前記立体性判別部は、前記2次元画像データを分析し、前記2次元画像データにおける前記撮影対象の画像の位置を認識し、前記2次元画像データにおける前記撮影対象の画像の位置に基づいて、前記3次元画像データにおける前記撮影対象の像の領域である特定領域を特定し、前記特定領域に属する像の立体性を判別することによって、前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理方法。
Information processing by an information processing device that acquires two-dimensional image data generated by shooting with a camera for the shooting target from a terminal on the assumption that a three-dimensional object on which information for identity verification is recorded is shot. It ’s a method,
The first step in which the three-dimensionality discrimination unit of the information processing apparatus acquires three-dimensional image data generated by scanning by a distance measuring sensor executed at the same time as shooting by the camera from the terminal via a network.
A second step in which the three-dimensionality determining unit of the information processing apparatus determines the presence or absence of three-dimensionality of the photographing target by using at least the three-dimensional image data
When the processing unit of the information processing apparatus determines that the imaging target has three-dimensionality by the three-dimensionality determination unit, the identification-related processing related to the identification of the person is executed based on the two-dimensional image data. On the other hand, if it is determined that there is no three-dimensionality, the third step of not executing the identity verification related process is included.
In the second step, the stereoscopic determination unit analyzes the two-dimensional image data, recognizes the position of the image to be photographed in the two-dimensional image data, and recognizes the position of the image to be photographed in the two-dimensional image data. By identifying a specific area that is a region of the image to be photographed in the three-dimensional image data based on the position and determining the three-dimensionality of the image belonging to the specific area, the presence or absence of the three-dimensionality of the image to be photographed is determined. An information processing method characterized by discrimination.
本人確認用の情報が記録された立体的な物体が撮影されるという想定の下で撮影対象に対するカメラによる撮影により生成された2次元画像データをネットワーク経由で端末から取得する情報処理装置による情報処理方法であって、
前記情報処理装置の立体性判別部が、前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記端末から取得する第1ステップと、
前記情報処理装置の前記立体性判別部が、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する第2ステップと
前記情報処理装置の処理部が、前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない第3ステップとを含み、
前記立体性判別部は、前記撮影対象の種別を認識し、前記撮影対象の種別に対応する3次元的なテンプレートデータを用いたパターンマッチングを行い、パターンマッチングの結果に基づいて前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理方法。
Information processing by an information processing device that acquires two-dimensional image data generated by shooting with a camera for the shooting target from a terminal on the assumption that a three-dimensional object on which information for identity verification is recorded is shot. It ’s a method,
The first step in which the three-dimensionality discrimination unit of the information processing apparatus acquires three-dimensional image data generated by scanning by a distance measuring sensor executed at the same time as shooting by the camera from the terminal via a network.
A second step in which the three-dimensionality determining unit of the information processing apparatus determines the presence or absence of the three-dimensionality of the imaged object by using at least the three-dimensional image data.
When the processing unit of the information processing apparatus determines that the photographing target has three-dimensionality by the three-dimensionality determination unit, the identification-related processing related to the identification of the person is executed based on the two-dimensional image data. On the other hand, if it is determined that there is no three-dimensionality, the third step of not executing the identity verification related process is included.
The three-dimensionality discrimination unit recognizes the type of the shooting target, performs pattern matching using the three-dimensional template data corresponding to the type of the shooting target, and based on the result of the pattern matching, the three-dimensional shape of the shooting target. An information processing method characterized by determining the presence or absence of sex.
本人確認用の情報が記録された立体的な物体が撮影されるという想定の下で撮影対象に対するカメラによる撮影により生成された2次元画像データをネットワーク経由で端末から取得する情報処理装置による情報処理方法であって、
前記情報処理装置の立体性判別部が、前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記端末から取得する第1ステップと、
前記情報処理装置の前記立体性判別部が、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する第2ステップと
前記情報処理装置の処理部が、前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない第3ステップとを含み、
前記第2ステップにおいて前記立体性判別部は、2次元画像データと3次元画像データと前記撮影対象の種別とを入力とするか、3次元画像データと前記撮影対象の種別とを入力とするか、または、2次元画像データと3次元画像データとを入力とし、前記撮影対象の立体性の有無の判別に利用可能な情報を出力とする機械学習されたモデルに対して必要な入力値を入力し、その出力を得ることによって前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理方法。
Information processing by an information processing device that acquires two-dimensional image data generated by shooting with a camera for the shooting target from a terminal on the assumption that a three-dimensional object on which information for identity verification is recorded is shot. It ’s a method,
The first step in which the three-dimensionality discrimination unit of the information processing apparatus acquires three-dimensional image data generated by scanning by a distance measuring sensor executed at the same time as shooting by the camera from the terminal via a network.
A second step in which the three-dimensionality determining unit of the information processing apparatus determines the presence or absence of three-dimensionality of the photographing target by using at least the three-dimensional image data
When the processing unit of the information processing apparatus determines that the imaging target has three-dimensionality by the three-dimensionality determination unit, the identification-related processing related to the identification of the person is executed based on the two-dimensional image data. On the other hand, if it is determined that there is no three-dimensionality, the third step of not executing the identity verification related process is included.
In the second step, the stereoscopic determination unit inputs two-dimensional image data, three-dimensional image data, and the type of the shooting target, or three-dimensional image data and the type of the shooting target. , Or input the input value required for the machine-learned model that inputs 2D image data and 3D image data and outputs information that can be used to determine the presence or absence of the three-dimensionality of the object to be photographed. However, an information processing method characterized in that the presence or absence of three-dimensionality of the object to be photographed is determined by obtaining the output.
JP2021027019A 2021-02-24 2021-02-24 Information processing equipment, information processing system and information processing method Active JP7019223B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021027019A JP7019223B1 (en) 2021-02-24 2021-02-24 Information processing equipment, information processing system and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021027019A JP7019223B1 (en) 2021-02-24 2021-02-24 Information processing equipment, information processing system and information processing method

Publications (2)

Publication Number Publication Date
JP7019223B1 true JP7019223B1 (en) 2022-02-15
JP2022128671A JP2022128671A (en) 2022-09-05

Family

ID=80929748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021027019A Active JP7019223B1 (en) 2021-02-24 2021-02-24 Information processing equipment, information processing system and information processing method

Country Status (1)

Country Link
JP (1) JP7019223B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006040151A (en) 2004-07-29 2006-02-09 Toshiba Corp Face authentication device, face authentication method, and passage control device
WO2009110323A1 (en) 2008-03-03 2009-09-11 日本電気株式会社 Living body judgment system, method for judging living body and program for judging living body
JP2018173731A (en) 2017-03-31 2018-11-08 ミツミ電機株式会社 Face authentication device and face authentication method
JP2019091322A (en) 2017-11-15 2019-06-13 株式会社メルカリ Support apparatus, support method, support program, and support system
WO2019188123A1 (en) 2018-03-27 2019-10-03 ソニーセミコンダクタソリューションズ株式会社 Imaging device and image processing system
JP2019215651A (en) 2018-06-12 2019-12-19 株式会社ソフマップ Item purchase system and item transfer application software
JP2020151542A (en) 2020-06-23 2020-09-24 佐藤長八商事株式会社 Free gift safe keeping system, terminal device, free gift safe keeping method, and computer program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006040151A (en) 2004-07-29 2006-02-09 Toshiba Corp Face authentication device, face authentication method, and passage control device
WO2009110323A1 (en) 2008-03-03 2009-09-11 日本電気株式会社 Living body judgment system, method for judging living body and program for judging living body
JP2018173731A (en) 2017-03-31 2018-11-08 ミツミ電機株式会社 Face authentication device and face authentication method
JP2019091322A (en) 2017-11-15 2019-06-13 株式会社メルカリ Support apparatus, support method, support program, and support system
WO2019188123A1 (en) 2018-03-27 2019-10-03 ソニーセミコンダクタソリューションズ株式会社 Imaging device and image processing system
JP2019215651A (en) 2018-06-12 2019-12-19 株式会社ソフマップ Item purchase system and item transfer application software
JP2020151542A (en) 2020-06-23 2020-09-24 佐藤長八商事株式会社 Free gift safe keeping system, terminal device, free gift safe keeping method, and computer program

Also Published As

Publication number Publication date
JP2022128671A (en) 2022-09-05

Similar Documents

Publication Publication Date Title
US10803438B2 (en) Reading apparatus
CN106203225B (en) Pictorial element based on depth is deleted
US11281908B2 (en) System, server, program, and method for confirming acquisition of target object
US10445714B2 (en) Gesture-based signature capture
KR101849633B1 (en) Id photo forgery preventing method and system
JP7019223B1 (en) Information processing equipment, information processing system and information processing method
JP6898123B2 (en) Information processing equipment and programs
JP2013258583A (en) Captured image display, captured image display method, and program
US10116830B2 (en) Document data processing including image-based tokenization
JP6558145B2 (en) Information processing terminal, information processing system, processing method thereof, and program
JP6390247B2 (en) Photography apparatus, skin diagnosis method, program, and skin diagnosis system
CN107066218A (en) Image processing system and print control program
JP7061326B1 (en) Information processing equipment, information processing system and information processing method
JP6913309B2 (en) Computer programs, information processing methods, and information processing equipment
KR20090121580A (en) Method for displaying size recognizable product image in internet shopping mall
KR102469244B1 (en) Method of collecting results of offline advertisement based on image processing
KR20180027024A (en) System for providing music album contents using music card and method thereof
JP6103025B2 (en) Information processing apparatus, control method thereof, and program
JP6779798B2 (en) Information processing equipment, information processing methods and programs
JP2019125394A (en) System, server, program and method for object acquisition confirmation
CN115715401A (en) Information processing device and program
JP2023181293A (en) Image storage device, image storage method, and program
CN107003714A (en) Contextual information is developed from image
KR20230064372A (en) Method and apparatus managing biometric information for animal health authentication
TW201405336A (en) System and method for displaying specified contents of operation manual on handheld device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210315

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210721

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211022

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220118

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220126

R150 Certificate of patent or registration of utility model

Ref document number: 7019223

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350