JP7019223B1 - Information processing equipment, information processing system and information processing method - Google Patents
Information processing equipment, information processing system and information processing method Download PDFInfo
- Publication number
- JP7019223B1 JP7019223B1 JP2021027019A JP2021027019A JP7019223B1 JP 7019223 B1 JP7019223 B1 JP 7019223B1 JP 2021027019 A JP2021027019 A JP 2021027019A JP 2021027019 A JP2021027019 A JP 2021027019A JP 7019223 B1 JP7019223 B1 JP 7019223B1
- Authority
- JP
- Japan
- Prior art keywords
- image data
- dimensionality
- dimensional image
- information processing
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 74
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000012545 processing Methods 0.000 claims abstract description 100
- 238000012795 verification Methods 0.000 claims description 50
- 238000000034 method Methods 0.000 claims description 43
- 230000008569 process Effects 0.000 claims description 27
- 238000005259 measurement Methods 0.000 claims description 4
- 238000003384 imaging method Methods 0.000 claims 2
- 238000010586 diagram Methods 0.000 abstract description 6
- 238000011156 evaluation Methods 0.000 description 25
- 239000000463 material Substances 0.000 description 14
- 230000006870 function Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012015 optical character recognition Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】立体的な物体が撮影されるという想定の下で行われた撮影によって生成された2次元画像データをネットワーク経由で情報処理装置が取得するシステムにおいて、立体的な物体が撮影されるという想定が守られていないときに、2次元画像データを処理対象とする不適切な処理が行われてしまうことを防止する。【解決手段】サーバ3は、カメラ5による撮影と同時に実行されたLiDARスキャナ6によるスキャンにより生成された3次元画像データをネットワークN経由で端末から取得し、3次元画像データを少なくとも利用して撮影対象の立体性の有無を判別する立体性判別部13を備えており、立体的な物体が撮影されるという想定が守られているか否かを判定する。【選択図】図2PROBLEM TO BE SOLVED: To capture a three-dimensional object in a system in which an information processing apparatus acquires two-dimensional image data generated by photographing under the assumption that a three-dimensional object is photographed. It prevents inappropriate processing for 2D image data from being performed when the assumption is not observed. SOLUTION: A server 3 acquires 3D image data generated by scanning by a LiDAR scanner 6 executed at the same time as shooting by a camera 5 from a terminal via a network N, and shoots using at least the 3D image data. A three-dimensionality determining unit 13 for determining the presence or absence of three-dimensionality of an object is provided, and it is determined whether or not the assumption that a three-dimensional object is photographed is observed. [Selection diagram] Fig. 2
Description
本発明は、撮影されて生成されたデータを処理する情報処理装置、当該情報処理装置と端末とを備える情報処理システム、および、当該情報処理装置による情報処理方法に関する。 The present invention relates to an information processing device for processing captured and generated data, an information processing system including the information processing device and a terminal, and an information processing method by the information processing device.
従来、立体的な物体が撮影されるという想定の下、撮影によって生成された2次元画像データ(撮影画像データ)をネットワーク経由で情報処理装置が取得し、その2次元画像データに基づく処理を実行するシステムが知られている。例えば特許文献1には、中古車が撮影されて生成されたパノラマ写真(2次元画像データ)をネットワーク経由でサーバ(情報処理装置)が取得した後、パノラマ写真を保管し、事後的に中古車の傷の状況等をパノラマ写真によって確認できるようにしたシステムが記載されている。
Conventionally, under the assumption that a three-dimensional object is photographed, an information processing device acquires two-dimensional image data (photographed image data) generated by photography via a network and executes processing based on the two-dimensional image data. The system to do is known. For example, in
しかしながら特許文献1のシステムでは、以下の問題があった。すなわちサーバに保管されたパノラマ写真は、中古車の傷の状況を確認するために用いられるものであるが、サーバに送られてきたパノラマ写真が、傷のない中古車の画像が表示された別の写真や、傷のない中古車の画像が表示されたディスプレイ画面が撮影されることによって生成されたものである可能性がある。このような場合、パノラマ写真を傷の状況の確認用のデータとして保管してしまうと、不正なパノラマ写真から中古車の傷の状況の確認を行う事態が発生することになる。このため、上記の場合にパノラマ写真を保管することは適切でないものの、特許文献1のシステムではこれを回避する手段がなかった。
However, the system of
本発明は、このような問題を解決するために成されたものであり、立体的な物体が撮影されるという想定の下で行われた撮影によって生成された2次元画像データをネットワーク経由で情報処理装置が取得するシステムにおいて、立体的な物体が撮影されるという想定が守られていないときに、2次元画像データを処理対象とする不適切な処理が行われてしまうことを防止することを目的とする。 The present invention has been made to solve such a problem, and information on two-dimensional image data generated by photography performed under the assumption that a three-dimensional object is photographed via a network. In the system acquired by the processing device, it is possible to prevent inappropriate processing for 2D image data from being performed when the assumption that a three-dimensional object is photographed is not observed. The purpose.
上記した課題を解決するために、本発明は、カメラの撮影結果に基づく2次元画像データだけではなく、カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で端末から取得し、3次元画像データを少なくとも利用して撮影対象の立体性の有無を判別するようにしている。 In order to solve the above-mentioned problems, the present invention networks not only the two-dimensional image data based on the shooting result of the camera but also the three-dimensional image data generated by the scanning by the ranging sensor executed at the same time as the shooting by the camera. It is acquired from the terminal via the terminal, and at least the three-dimensional image data is used to determine the presence or absence of the three-dimensionality of the shooting target.
上記のように構成した本発明によれば、2次元画像データだけでなく、このデータと同時に生成された3次元画像データが取得された上で、3次元画像データを利用して撮影対象の立体性の有無が判別されるため、カメラによる撮影が立体性のある物体を撮影対象として行われたか否かを判別することができる。このため立体性のある物体を撮影対象として撮影が行われていないときに、上記判別を通してそのことを検知でき、例えば立体性のある物体が撮影されて生成された2次元画像データを処理対象とする通常の処理を行わず、これに代えて立体性のある物体が撮影されていないことに対処する処理を実行する、といったことが可能となる。これにより立体的な物体が撮影されるという想定が守られていないときに、2次元画像データを処理対象とする不適切な処理が行われてしまうことを防止できる。 According to the present invention configured as described above, not only the two-dimensional image data but also the three-dimensional image data generated at the same time as this data is acquired, and then the three-dimensional image data is used to capture the three-dimensional object. Since the presence or absence of sex is determined, it is possible to determine whether or not the image taken by the camera is performed on a three-dimensional object. Therefore, when shooting is not performed with a three-dimensional object as the shooting target, that can be detected through the above discrimination. For example, the two-dimensional image data generated by shooting a three-dimensional object is used as the processing target. Instead of performing the usual processing, it is possible to perform processing for dealing with the fact that a three-dimensional object has not been photographed. As a result, it is possible to prevent inappropriate processing for the two-dimensional image data from being performed when the assumption that a three-dimensional object is photographed is not observed.
以下、本発明の一実施形態を図面に基づいて説明する。図1は、本実施形態に係る情報処理システム1の構成例を示す図である。図1で示すように情報処理システム1は、端末2とサーバ3とを備えている。端末2およびサーバ3は共に、インターネットを含むネットワークNに接続可能である。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a configuration example of the
サーバ3は、端末2をクライアントの1つとするサーバ装置である。図1では、サーバ3を1つのブロックで表しているが、サーバ3は単一のサーバ装置である必要はなく、例えば複数のサーバ装置により構成されてもよく、また、所定のシステムの一部であってもよい。サーバ3は、運営会社によって管理、運営されており、後述するサービスを提供する。サーバ3は、特許請求の範囲の「情報処理装置」に相当する。
The
端末2は、タブレット型の筐体の全面の広い領域にタッチスクリーン4(表示パネル+タッチパネル)が設けられたスマートフォンである。特に本実施形態に係る端末2は、カメラ5およびLiDARスキャナ6が搭載されており、カメラ5による撮影の結果に基づいて2次元画像データを生成する機能を備えると共に、LiDARスキャナ6によるスキャンの結果に基づいて3次元画像データを生成する機能を備えている。LiDARスキャナ6は、特許請求の範囲の「測距センサ」に相当する。
The
2次元画像データは、2次元の画像データ(いわゆる写真)であり、マトリックス状に配置された各画素について色に関する情報を保持している。また3次元画像データは、LiDARスキャナ6により距離が測定された画素が三次元直交座標系に配置された点群データである。三次元画像データでは、LiDARスキャナ6によるスキャン範囲内の各物体の表面(LiDARスキャナ6により距離の測定の対象となる表面)が三次元直交座標系における点の集合として表現される。
The two-dimensional image data is two-dimensional image data (so-called photograph), and holds information about colors for each pixel arranged in a matrix. The three-dimensional image data is point cloud data in which pixels whose distances have been measured by the LiDAR
なお本実施形態では、端末2がLiDARスキャナ6を搭載している構成であるが、三次元画像データの生成に用いられる他の機構(例えばステレオカメラや、LiDARとは異なる方式の光学的測距センサ等)を備える構成でもよい。本実施形態に係る端末2のような3次元画像データを生成する機能を有する端末(スマートフォンや、携帯電話機能を有さないタブレット端末、ノートパソコン等)は、現時点で広く普及しており、今後もますます普及していくと想定される。
In the present embodiment, the
端末2には事前に、所定のアプリケーション(以下「専用アプリ」という)が、アプリケーションダウンロードシステムを利用してインストールされている。専用アプリの機能については後述する。以下、端末2の所有者を「ユーザ」と表現する。
A predetermined application (hereinafter referred to as "dedicated application") is installed in the
図2は、端末2およびサーバ3の機能構成例を示すブロック図である。図2で示すように端末2は機能構成として、端末側制御部10および端末側通信部11を備えている。またサーバ3は機能構成として、サーバ側通信部12、立体性判別部13および処理部14を備えている。上記各機能ブロック10~14は、コンピュータのCPU、RAM、ROM等を備えて構成され、CPUがROM、ハードディスクまたは半導体メモリ等の記憶媒体に記憶されたプログラムをRAMに読み出して実行することによって実現される。特に端末側制御部10は、CPUが、記憶媒体に記憶された専用アプリ(ただしOS、OSが提供するAPI、その他の付随するプログラムを含む)を読み出して実行することにより実行される。ただし、上記各機能ブロック10~14の実現方法は本実施形態で例示する方法に限られず、他の方法でソフトウェアとハードウェアとが協働することによって実現されてもよく、また、DSP等のハードウェアのみにより実現されてもよい。またサーバ3は記憶手段として、サーバ側記憶部16を備えている。
FIG. 2 is a block diagram showing a functional configuration example of the
端末側通信部11は、ネットワークNに接続された機器と所定のプロトコルに従って通信する。以下の説明では端末2とネットワークNに接続された機器とでの通信は、端末側通信部11により適切に行われるものとして詳細な説明を省略する。またサーバ側通信部12は、ネットワークNに接続された機器と所定のプロトコルに従って通信する。以下の説明ではサーバ3とネットワークNに接続された機器とでの通信は、サーバ側通信部12により適切に行われるものとして詳細な説明を省略する。
The terminal-
以下、評価シーンと本人確認シーンとの2つのシーンにおける本実施形態に係る情報処理システム1の動作例について説明する。
Hereinafter, an operation example of the
<評価シーン>
まず評価シーンにおける情報処理システム1の動作例について説明する。評価シーンではまず、ユーザが所有する物品が端末2のカメラ5によって撮影されることが想定されている。ユーザが所有する物品とは、立体的な物体であって、ユーザが評価される(評価の具体的な内容については後述)ことを望むものあり、一例としてブランド物のバック、ブランド物のアクセサリ、その他のブランド品であり、また一例としてノートパソコン、スマートフォン、ゲーム機、その他の電子機器である。以下、ユーザが所有する物品を対象物品という。対象物品は、特許請求の範囲の「評価対象の立体的な物体」に相当する。
<Evaluation scene>
First, an operation example of the
ユーザによる対象物品の撮影後、撮影結果に基づく2次元画像データがサーバ3に送信される。サーバ3は、2次元画像データに基づいて対象物品を評価する。本実施形態において「評価」とは、対象物品の価値を評価し、買取り価格(値段)をつけることを意味する。詳細な説明は省略するが、対象物品に買取り価格がつけられた後、ユーザによる同意があれば、その買取り価格で対象物品が運営会社によって買い取られると共に、その買取り価格に相当する金銭がユーザに支払われる。特に本実施形態では運営会社によって買い取られた対象物品は、ユーザにリースされる。このためユーザは、対象物品を運営会社に引き渡すことなく手元に置いたまま、買取り価格相当の金銭を得ることができる(ただし、リース料の支払い義務等が生じる)。
After the user takes a picture of the target article, the two-dimensional image data based on the pictured result is transmitted to the
以上の通り評価シーンにおいては、ユーザが、自身が所有する対象物品(立体的な物体)を撮影することが想定されていると共に、対象物品が撮影されて生成された2次元画像データがサーバ3に送信されることが想定されている。しかしながらユーザが、対象物品を撮影するのではなく、物品の画像が表示された写真や、物品の画像が表示されたディスプレイ画面(例えばパソコンのディプレイに映る画面や、テレビの画面等)を撮影し、その撮影の結果に基づく2次元画像データがサーバ3に送られてくる可能性がある。以下、物品の2次元的な画像が表示された平面的な媒体(上述した写真やディスプレイ画面のほか、例えば、写真以外の紙媒体がある)を「平面媒体」という。
As described above, in the evaluation scene, it is assumed that the user photographs the target article (three-dimensional object) owned by the user, and the two-dimensional image data generated by photographing the target article is the
一例としてユーザが、実際にはブランド物のバッグを所有していないのにもかかわらず、ブランド物のバッグの画像が表示された写真が掲載されたカタログの、その写真部分を撮影したり、ブランド物のバッグの画像が表示されたウェブページの該当部分を撮影したりし、その撮影の結果に基づく2次元画像データがサーバ3に送られてくる可能性がある。
As an example, a user may take a picture of a photo of a catalog with an image of a branded bag, even though they do not actually own the branded bag, or the brand. There is a possibility that the corresponding part of the web page on which the image of the bag of the object is displayed is photographed, and the two-dimensional image data based on the result of the photographing is sent to the
以上のユーザの行動は、ユーザにより以下の事項が期待されて行われるものである。すなわち上述の通り情報処理システム1では、2次元画像データに基づいて対象物品の評価が行われ、対象物品に買取り価格が設定され、買取り価格に相当する金銭がユーザに支払われることになる。これを踏まえ、上記のユーザの行動は、2次元画像データに記録されたブランド物のバッグの画像(立体的な物体の撮影結果に基づく画像ではなく、カタログ或いはウェブページ等の撮影結果に基づく画像)に基づいて物品(本来はユーザが所有していない物品)の評価が行われ、買取り価格に相当する金銭が運営会社から支払われることが期待して行われる。
The above user actions are expected to be performed by the user as follows. That is, as described above, in the
この他、ユーザが対象物品を所有しているものの、少しでも高い買取り価格となることを企図して、その対象物品と同モデルの物品であって、新品状態のものが表示された写真等を撮影することも考えられる。そして本実施形態に係る情報処理装システム1は、ユーザが以上のような行動をとる可能性があることを踏まえ、以下の処理を実行する。
In addition, although the user owns the target item, in order to make the purchase price as high as possible, a photograph showing an item of the same model as the target item and in a new state is displayed. It is also possible to shoot. Then, the
まず2次元画像データの生成に先立って、ユーザは、端末2の専用アプリを起動し、物品種別選択画面をタッチスクリーン4に表示することを指示する。当該指示があると、そのことが立体性判別部13に通知され、立体性判別部13は、当該通知に応じて、端末側制御部10に物品種別選択画面をタッチスクリーン4に表示させる。物品種別選択画面は、物品種別のそれぞれが選択可能に一覧表示された画面である。物品種別とは、評価の対象となり得る物品について、機能や用途によって大きく区分したときの各種別のことを意味する。本実施形態では物品種別として、ノートパソコンや、スマートフォン、ゲーム機、バッグ、時計等が事前に用意されている。ユーザは、所定の操作を行って、物品種別選択画面に一覧表示された物品種別から1つの物品種別を選択する。以下、ユーザにより選択された物品種別のことを「選択物品種別」という。
First, prior to the generation of the two-dimensional image data, the user activates the dedicated application of the
ユーザにより物品種別が選択されると、立体性判別部13は端末側制御部10を制御して、選択物品種別に応じた方法による対象物品の撮影を案内すると共に、カメラ5による撮影の実行を指示するための種々の撮影用画面G3(図3)を表示する。ユーザは、撮影用画面G3の案内に従ってカメラ5による撮影の実行を指示する。この指示に応じて、カメラ5による撮影が実行されると共に、更にLiDARスキャナ6によるスキャンが実行され、カメラ5の撮影結果に基づく2次元画像データ、および、LiDARスキャナ6のスキャン結果に基づく3次元画像データが生成される。端末側制御部10は、2次元画像データと3次元画像データとの組合せを取得する。
When the article type is selected by the user, the three-
図3の各図は、選択物品種別がノートパソコンである場合に表示される撮影用画面G3の一例を示す図である。以下、図3を用いて撮影用画面G3の内容の具体例と共に、情報処理システム1の動作について説明する。立体性判別部13は、端末側制御部10を制御して、図3(A)の撮影用画面G3Aをタッチスクリーン4に表示させる。図3(A)の撮影用画面G3Aでは、閉じた状態のノートパソコンを撮影する様子が描かれたイラストと共に、ノートパソコンを閉じた状態で上面を撮影することを指示する文章が表示されている。
Each figure of FIG. 3 is a diagram showing an example of a shooting screen G3 displayed when the selected article type is a notebook computer. Hereinafter, the operation of the
また図3(A)の撮影用画面G3Aには撮影の開始を指示するボタンB3Aが表示されており、ユーザは、撮影の準備が整ったらボタンB3Aを操作する。ボタンB3Aの操作に応じて端末側制御部10は、OSが提供するAPIを利用して端末2のカメラ5およびLiDARスキャナ6を有効にし、更に図3(B)の撮影用画面G3Bをタッチスクリーン4に表示する。図3(B)の撮影用画面G3Bでは、端末2のカメラによる撮影画像上に、枠線と、対象物品たるノートパソコンの上面が枠線内に収まった状態で撮影を行うことを指示する文章とが重ねて表示される。また図3(B)の撮影用画面G3Bには、撮影の実行を指示するボタンB3Bが表示されている。
Further, a button B3A instructing the start of shooting is displayed on the shooting screen G3A of FIG. 3A, and the user operates the button B3A when the shooting is ready. In response to the operation of the button B3A, the terminal
基本的にはユーザは、対象物品を机等に載置し、対象物品の画像が枠線内に収まった状態でボタンB3Bを操作する。するとカメラ5により撮影が実行されて2次元画像データが生成され、更にLiDARスキャナ6によりスキャンが実行さて3次元画像データが生成される。以上の通り本来であれば、この段階では、ユーザにより立体的な物体であるノートパソコンが撮影されることが想定されている。一方、この段階でユーザにより、閉じた状態のノートパソコンの(2次元的な)画像が表示された平面媒体(写真や、ディスプレイ画面等)が撮影される可能性がある。
Basically, the user places the target article on a desk or the like, and operates the button B3B in a state where the image of the target article is within the frame line. Then, shooting is executed by the
ユーザの指示に応じて撮影(およびスキャン)が実行されると、立体性判別部13は、端末側制御部10と協働して、図3(C)の撮影用画面G3Cをタッチスクリーン4に表示する。図3(C)の撮影用画面G3Cは、開いた状態のノートパソコンの撮影を促す画面である。撮影用画面G3CのボタンB3Cが操作されると、端末側制御部10は、カメラ5およびLiDARスキャナ6を有効にした上で、図3(B)の撮影用画面G3Bに対応する画面を表示する。ユーザは、撮影用画面G3Bに対応する画面で所定のボタンを操作し、カメラ5による撮影およびLiDARスキャナ6によるスキャンを実行させる。これにより2次元画像データおよび3次元画像データが生成される。
When shooting (and scanning) is executed according to the user's instruction, the
以上、図3を用いて例示したように、立体性判別部13は、端末側制御部10を制御して、選択物品種別に応じた方法による対象物品の撮影を案内する。また端末側制御部10は、カメラ5による撮影およびLiDARスキャナ6によるスキャンに応じて生成された2次元画像データと3次元画像データとの組合せ(以下、「データ組合せ」という)を取得する。なお図3の例のように、データ組合せは複数、生成されるケースもある。
As described above, as illustrated with reference to FIG. 3, the three-
端末側制御部10は、1つ以上のデータ組合せを取得した後、全てのデータ組合せをサーバ3の立体性判別部13に送信する。立体性判別部13は、全てのデータ組合せを受信し、各データ組合せを対象として以下の立体性有無判別処理を実行する。以下、ある1つのデータ組合せについて立体性判別部13が実行する立体性有無判別処理について説明する。
After acquiring one or more data combinations, the terminal-
まず立体性判別部13は、データ組合せに含まれる2次元画像データを取得する。次いで立体性判別部13は、2次元画像データを分析し、2次元画像データにおける選択物品種別の物品の画像の位置を認識する。2次元画像データにおける選択物品種別の物品の画像の位置は、例えば、選択物品種別ごとに予め用意されたテンプレートデータを用いたパターンマッチングや、その他の画像処理技術(画像認識技術)により行われる。この他、ディープラーニングその他の機械学習手法により学習されたモデルが用いられて行われてもよい。
First, the
上述の通り、2次元画像データにおける選択物品種別の物品の画像は、立体的な対象物品が撮影されることによって形成された画像とは限らず、物品の画像が表示された平面媒体が撮影されることによって形成された画像である可能性がある。 As described above, the image of the article of the selected article type in the two-dimensional image data is not limited to the image formed by photographing the three-dimensional target article, but the flat medium on which the image of the article is displayed is photographed. It may be an image formed by this.
次いで立体性判別部13は、2次元画像データに写る空間と3次元画像データに写る空間とが一致するように、2次元画像データと3次元画像データとを重ね合わせ、3次元画像データにおいて、「2次元画像データにおける選択物品種別の物品の画像の領域」に対応する領域を特定する。以下、特定した領域を「特定領域」という。次いで立体性判別部13は、3次元画像データにおいて特定領域に属する像が、周囲の像と平面的に連続する(平面上で連続する)、平らな像(凹凸のない或いは限定的にしか凹凸がない像)であるか否かを判別する。この判別は、特許請求の範囲の「撮影対象の立体性の有無を判別する」処理に相当する。
Next, the three-
図4の各図は、立体性判別部13の処理の説明に利用する図である。図4の各図は、3次元画像データを説明に適した態様で模式的に示している。図4の各図において符号20は、光学中心を示し、符号21は、LiDARスキャナ6によりスキャンされる放射状の領域を示し、符号22は、特定領域を示している。ユーザが立体的な対象物品を撮影およびスキャンした場合には、図4(A)で示すように、特定領域には、周囲の像から独立した立体的な像J1(点群)が形成されることになる。一方、物品の画像が表示された平面媒体をユーザが撮影およびスキャンした場合には、図4(B)で示すように、特定領域には、周囲の像と平面的に連続する平らな像J2(点群)が形成されることになる。
Each figure of FIG. 4 is a diagram used for explaining the process of the three-
以上を踏まえ立体性判別部13は、特定領域に、周囲の像と平面的に連続する平らな像が形成されている場合には、撮影対象について立体性がないと判定する。一方、それ以外の場合、立体性判別部13は、撮影対象について立体性があると判定する。ここで撮影対象とは、立体的な対象物品が撮影された場合のその対象物品と、物品の画像が表示された平面媒体が撮影された場合のその物品の画像とを含む概念である。
Based on the above, the
なお立体性判別部13が、立体性の有無を判別するときの方法は、上記方法に限られない。例えば立体性判別部13が、特定領域に、周囲の像から独立した立体的な像(点群)が形成されている場合に撮影対象について立体性があると判定し、それ以外の場合に立体性がないと判定する構成でもよい。その他の例については後述する。
The method for determining the presence or absence of three-dimensionality by the three-
以上の処理が立体性有無判別処理である。以上の立体性有無判別処理が実行されることにより、あるデータ組合せが、立体的な対象物体が撮影されて生成されたものではなく、平面媒体が撮影されて生成されたものである場合には、そのデータ組合せについての立体性有無判別処理において、撮影対象の立体性がないと判定される。 The above processing is the three-dimensional presence / absence determination processing. By executing the above three-dimensional presence / absence determination process, when a certain data combination is not generated by photographing a three-dimensional target object but is generated by photographing a flat medium. , In the three-dimensional presence / absence determination process for the data combination, it is determined that there is no three-dimensionality of the object to be photographed.
処理部14は、立体性判別部13により撮影対象の立体性がないと判定された場合(データ組合せが複数存在するときは、撮影対象の立体性がないと判定されたデータ組合せが1つでも存在する場合)、以下の処理を実行する。すなわち処理部14は、端末側制御部10を制御して、立体的な物品が撮影されておらず、写真やディスプレイ画面が撮影された可能性があるため、再度、撮影を行うべき旨の情報をタッチスクリーン4に表示させ、その旨をユーザに伝える。この場合、処理部14は物体評価関連処理(後述)を実行しない。
When the
なお立体性判別部13により、撮影対象の立体性がないと判定された場合に処理部14が実行する処理は上述した処理に限られない(ただし、物体評価関連処理は実行されない)。例えば運営会社の担当者に対して通知する構成としてもよい。通知は、サーバ3に接続された表示装置への情報の表示や、担当者へのメール等どのような方法で行われてもよい。担当者は、当該通知に応じて、例えば、2次元画像データおよび3次元画像データを目視、その他の手段により確認し、立体的な物品が撮影されているかどうかを再検証する等の処置を行うことができる。
The process executed by the
一方、処理部14は、立体性判別部13により撮影対象の立体性があると判定された場合(データ組合せが複数存在するときは、全てのデータ組合せについて撮影対象の立体性があると判定された場合)、以下の処理を実行する。すなわち処理部14は、物体評価関連処理を実行する。
On the other hand, when the
物体評価関連処理において処理部14は、撮影された対象物品の価値を評価し、買取り価格を決定する。より詳細には処理部14は、画像処理技術(画像認識技術)により2次元画像データを分析し、対象物品について最深種別(例えば、ノートパソコンであればモデル、ブランド物のバッグであれば型番というように、対象物品を最も細かく区分した種別)を特定する。更に処理部14は、所定のデータベースにアクセスし、特定した最深種別の物品の相場価格を取得する。更に処理部14や、画像処理技術(画像認識技術)により2次元画像データを分析し、傷や汚れ、摩耗、凹み、部品の欠損等による見た目の劣化の状況の判別や、物品の真贋判別等を行う。その際、最深種別ごとにテンプレートデータを用意しておき、特定した最深種別に対応するテンプレートデータを用いたパターンマッチングを行うことができる。
In the object evaluation-related processing, the
そして処理部14は、対象物品の相場価格や、劣化の状況、真贋を反映して対象物品の価値を評価し、買取り価格を決定する。以上が物体評価関連処理である。なお2次元画像データの分析に、所定の機械学習手法(例えばディープラーニング)で機械学習されたモデルを用いてもよい。また処理部14による物体評価関連処理は、外部装置と協働して行われてもよく、また一部に人間による判断が含まれてもよく、また2次元画像データに加えて3次元画像データが用いられて行われてもよい。また本実施形態では説明の便宜のため、簡略化しているが、物体評価関連処理で対象物品の価値を評価し、買取り価格を決定するにあたって必要な情報およびデータは、ユーザや運営会社の者から適切に提供される。
Then, the
評価シーンにおいて以上の処理が行われることにより、以下の効果を奏する。すなわち立体性判別部13は、2次元画像データだけでなく、このデータと同時に生成された3次元画像データを取得し、2次元画像データを利用して撮影対象の立体性の有無を判別する。そして立体性のある物体を撮影対象として撮影が行われていないとき、つまりユーザが対象物品を撮影したのではなく平面媒体を撮影しているときには、これを検知して物体評価関連処理が実行されず、これに代えて立体性のある物体が撮影されていないことに対処する処理が実行される。これにより立体的な物体が撮影されるという想定が守られていないときに、平面媒体が撮影されて生成された2次元画像データに基づいて買取り価格を決定するという不適切な処理が行われてしまうことを防止でき、ひいてはユーザに対して金銭が引き渡されることを防止できる。
By performing the above processing in the evaluation scene, the following effects are obtained. That is, the three-
<本人確認シーン>
次に本人確認シーンにおける情報処理システム1の動作例について説明する。本人確認シーンでは、ユーザが所有する立体的な本人確認資料が端末2のカメラ5によって撮影され、その撮影の結果に基づく2次元画像データがサーバ3に送信され、サーバ3において2次元画像データに基づいて本人確認関連処理(処理の内容については後述)が実行される。本人確認資料は、例えば、運転免許証や、パスポート、マイナンバーカード等である。本人確認資料は、特許請求の範囲の「本人確認用の情報が記録された物体」に相当する。
<Identity verification scene>
Next, an operation example of the
本人確認資料についても、ユーザが、自身が所有する本人確認資料ではなく、他人の本人確認資料の画像が表示された写真や、他人の本人確認資料の画像が表示されたディスプレイ画面を撮影する可能性がある。一例として、他人の本人確認資料をカメラによって不正に撮影し、他人の本人確認資料の画像が表示された写真をプリントアウトし或いはディスプレイ画面に映し、写真或いはディスプレイ画面を撮影する可能性がある。これを踏まえ、情報処理システム1は、以下の処理を実行する。
As for the identity verification material, the user can take a picture showing an image of another person's identity verification material or a display screen displaying an image of another person's identity verification material instead of the identity verification material owned by the user. There is sex. As an example, there is a possibility that an identity verification material of another person is illegally photographed by a camera, a photograph displaying an image of the identity verification material of another person is printed out or displayed on a display screen, and the photograph or the display screen is photographed. Based on this, the
すなわち本人確認シーンにおいてユーザにより撮影が指示されると、端末側制御部10は、端末2のカメラ5およびLiDARスキャナ6を有効にして、カメラ5による撮影およびLiDARスキャナ6によるスキャンを実行し、2次元画像データおよび3次元画像データを取得する。端末側制御部10は、取得した2次元画像データおよび3次元画像データを立体性判別部13に送信する。
That is, when the user instructs to take a picture in the identity verification scene, the terminal
立体性判別部13は、2次元画像データおよび3次元画像データ(データ組合せ)を受信する。次いで立体性判別部13は、データ組合せについて立体性有無判別処理を実行し、撮影対象の立体性の有無を判別する。立体性有無判別処理では、評価シーンのときと同等の処理が実行される。
The
簡単に説明すると立体性判別部13は、2次元画像データを分析し、2次元画像データにおける本人確認資料の画像の領域を特定する。例えば本人確認資料が運転免許証であれば、立体性判別部13は、2次元画像データを分析し、2次元画像データにおける運転免許証の画像の領域を特定する。例えば立体性判別部13は、ユーザの入力、その他の手段により本人確認資料の種類(運転免許証や、パスポート、マイナンバーカード等)を認識し、種類に応じたテンプレートデータを取得し(本人確認資料の種類ごとのテンプレートデータは事前に用意される)、テンプレートデータを用いたパターンマッチングを行って画像の領域を特定する。
Briefly, the
次いで立体性判別部13は、2次元画像データと3次元画像データとを重ね合わせ、3次元画像データにおいて、「2次元画像データにおける本人確認資料の画像の領域」に対応する領域(特定領域)を特定する。次いで立体性判別部13は、3次元画像データの特定領域に属する像が、周囲の像と平面的に連続する(平面上で連続する)、平らな像(凹凸のない或いは限定的にしか凹凸がない像)であるか否かを判別する(=撮影対象の立体性の有無を判別する)。立体性判別部13は、特定領域に、周囲の像と平面的に連続する平らな像が形成されている場合には、撮影対象について立体性がないと判定する。一方、それ以外の場合、立体性判別部13は、撮影対象について立体性があると判定する。
Next, the three-
処理部14は、立体性判別部13により撮影対象に立体性がないと判定された場合、本人確認関連処理を実行することなく、対応する処理を実行する。本実施形態では処理部14は、撮影対象に立体性がないと判定されたことを運営会社の担当者に通知する。当該担当者は、この通知に基づいて、例えば、2次元画像データおよび3次元画像データを目視その他の手段により確認し、立体的な本人確認書類が撮影されているかどうかを再検証する等の処置を行う。
When the three-
一方、処理部14は、立体性判別部13により撮影対象に立体性があると判定された場合、本人確認関連処理を実行する。本実施形態では処理部14は本人確認関連処理として、2次元画像データをユーザの識別情報と対応付けて所定のデータベースに登録する処理を実行する。データベースは、サーバ側記憶部16に記憶されている。ただし上記の本人確認関連処理は、あくまで一例であり、処理部14が本人確認関連処理として異なる処理を実行する構成でもよい。一例として処理部14は、本人確認関連処理として、2次元画像データの本人確認書類の画像を光学文字認識し、氏名や住所のテキストを抽出し、氏名や住所のテキストをデータベースに登録したり、氏名や住所のテキストに基づいて、事前に登録された情報との整合性を確認したりする。
On the other hand, when the three-
本人確認シーンにおいて以上の処理が行われることにより、本人確認シーンのときと同様、立体的な物体が撮影されるという想定が守られていないときに、平面媒体が撮影されて生成された2次元画像データがデータベースに登録されるという不適切な処理が実行されることを防止できる。 By performing the above processing in the identity verification scene, as in the case of the identity verification scene, when the assumption that a three-dimensional object is photographed is not kept, the two-dimensional medium is photographed and generated. It is possible to prevent the improper process of registering the image data in the database from being executed.
次に情報処理システム1の動作例についてフローチャートを用いて説明する。以下の説明において、サーバ3の動作は、サーバ3(情報処理装置)による情報処理方法の一例を表している。図5は、評価シーンにおける情報処理システム1の動作例を示すフローチャートである。図5において(A)は端末2の動作を示し、(B)はサーバ3の動作を示している。
Next, an operation example of the
図5(A)で示すようにユーザは、端末2の専用アプリを起動し、物品種別選択画面をタッチスクリーン4に表示することを指示する(ステップSX1)。当該指示に応じて端末側制御部10および立体性判別部13は協働して、物品種別選択画面をタッチスクリーン4に表示する(ステップSA1、SB1)。ユーザにより物品種別が選択されると(ステップSX2)、端末側制御部10および立体性判別部13は協働して、選択物品種別に応じた方法による対象物品の撮影を案内すると共に、カメラ5による撮影の実行を指示するための種々の撮影用画面G3(図3)を表示する(ステップSA2、SB2)。
As shown in FIG. 5A, the user activates the dedicated application of the
ユーザにより撮影(およびスキャン)が指示され(ステップSX3)、2次元画像データおよび3次元画像データ(データ組合せ)が生成されると、端末側制御部10は、1つ以上のデータ組合せを取得する(ステップSA3)。次いで端末側制御部10は、ステップSA3で取得した全てのデータ組合せを立体性判別部13に送信する(ステップSA4)。
When shooting (and scanning) is instructed by the user (step SX3) and two-dimensional image data and three-dimensional image data (data combination) are generated, the terminal
立体性判別部13は、全てのデータ組合せを受信し(ステップSB3)、各データ組合せを対象として以下の立体性有無判別処理を実行する(ステップSB4)。上述の通り立体性有無判別処理では、撮影対象に立体性があるか否かが判別される。
The three-
処理部14は、立体性判別部13により撮影対象の立体性があると判定されたか否かを判別する(ステップSB5)。処理部14は、立体性判別部13により撮影対象の立体性があると判定された場合(ステップSB5:YES)、物体評価関連処理を実行する(ステップSB6)。一方、処理部14は、立体性判別部13により撮影対象の立体性がないと判定された場合(ステップSB6:NO)、物体評価関連処理を実行することなく、立体性のある物体が撮影されていないことに対応する処理を実行する(ステップSB7)。
The
以上詳しく説明したように、本実施形態に係るサーバ3は、カメラ5の撮影結果に基づく2次元画像データだけではなく、カメラ5による撮影と同時に実行されたLiDARスキャナ6によるスキャンにより生成された3次元画像データをネットワークN経由で端末2から取得し、3次元画像データを少なくとも利用して撮影対象の立体性の有無を判別するようにしている。
As described in detail above, the
この構成によれば、2次元画像データだけでなく、このデータと同時に生成された3次元画像データが取得された上で、3次元画像データを利用して撮影対象の立体性の有無が判別されるため、カメラによる撮影が立体性のある物体を撮影対象として行われたか否かを判別することができる。このため立体性のある物体を撮影対象として撮影が行われていないときに、上記判別を通してそのことを検知でき、例えば立体性のある物体が撮影されて生成された2次元画像データを処理対象とする通常の処理を行わず、これに代えて立体性のある物体が撮影されていないことに対処する処理を実行する、といったことが可能となる。これにより立体的な物体が撮影されるという想定が守られていないときに、2次元画像データを処理対象とする不適切な処理が行われてしまうことを防止できる。 According to this configuration, not only the two-dimensional image data but also the three-dimensional image data generated at the same time as this data is acquired, and then the presence or absence of the three-dimensionality of the object to be photographed is determined using the three-dimensional image data. Therefore, it is possible to determine whether or not the image taken by the camera is performed on a three-dimensional object. Therefore, when shooting is not performed with a three-dimensional object as the shooting target, that can be detected through the above discrimination. For example, the two-dimensional image data generated by shooting a three-dimensional object is used as the processing target. Instead of performing the usual processing, it is possible to perform processing for dealing with the fact that a three-dimensional object has not been photographed. As a result, it is possible to prevent inappropriate processing for the two-dimensional image data from being performed when the assumption that a three-dimensional object is photographed is not observed.
以上、本発明の一実施形態について説明したが、上記実施形態は、本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。 Although one embodiment of the present invention has been described above, the above-described embodiment is merely an example of the embodiment of the present invention, whereby the technical scope of the present invention is limitedly interpreted. It should not be done. That is, the present invention can be implemented in various forms without departing from its gist or its main features.
例えば上記実施形態では、サーバ3が2次元画像データに基づいて物体評価関連処理を行うシステム、および、サーバ3が2次元画像データに基づいて本人確認関連処理を行うシステムに本発明を適用する場合を説明した。しかしながら、本発明が適用されるシステムは上記実施形態で例示したシステムに限られない。すなわち、本発明は、立体的な物体が撮影されるという前提の下で撮影対象に対する撮影により生成された2次元画像データをネットワーク経由で端末から取得し、2次元画像データを処理する機能を有する情報処理装置、或いは、このような端末と情報処理装置とを含んで構成されるシステムに広く適用可能である。特に物体評価関連処理或いは本人確認関連処理に代えて異なる処理を実行するシステムに本発明を広く適用可能である。
For example, in the above embodiment, the present invention is applied to a system in which the
例えば、物体評価関連処理で決定された買取り価格に相当する金銭を支払うのではなく、単に買取り価格を査定額として提示するシステムに本発明を適用可能である。また例えば、運営会社が買い取った物品をリースによりユーザの手元に置いておけるようにするのではなく、所定の手段でユーザから運営会社に引き渡されるシステムに本発明を適用可能である。また2次元画像データに基づいて対象物品を評価するのではなく、撮影対象の立体性が確認された場合に2次元画像データを単に保管したり、公開したりするシステムに本発明を適用可能である。 For example, the present invention can be applied to a system in which the purchase price is simply presented as an assessed amount instead of paying money corresponding to the purchase price determined in the object evaluation-related processing. Further, for example, the present invention can be applied to a system in which an article purchased by an operating company is delivered from the user to the operating company by a predetermined means, instead of being kept in the hands of the user by leasing. Further, the present invention can be applied to a system that simply stores or publishes two-dimensional image data when the three-dimensionality of the object to be photographed is confirmed, instead of evaluating the target article based on the two-dimensional image data. be.
また例えば立体性判別部13による立体性有無判別処理は、上記実施形態で示した方法以外の方法で行われてもよい。一例として、上記実施形態では2次元画像データに基づいて特定領域を定めたが、このような処理を行わず、特定領域を予め定められた領域としてもよい。すなわち、評価シーンや、本人確認シーンにおいて、カメラ5による撮影(およびLiDARスキャナ6によるスキャン)時の端末2に対する撮影対象の相対的な位置は、ある程度、固定的であることが想定される。具体的には、図3(B)の枠線内の中央部に撮影対象が位置した状態で、30~90センチ程度、端末2と撮影対象とが離間した状態で撮影が行われることが想定される。これを踏まえ、特定領域として、通常の態様で撮影が行われた場合に3次元画像データにおいて撮影対象が位置する領域を予め定めておき、立体性判別部13が、予め定められた特定領域に出現する像について、周囲の像と平面的に連続する、平らな像であるか否かを判別する構成でもよい。
Further, for example, the three-dimensionality determination process by the three-
別の例として、以下の構成でもよい(ただしシーンは説明の便宜のため、評価シーンであるものとする)。すなわち物品種別ごとに3次元的なテンプレートデータ(点群データ)が用意される。そして立体性判別部13は、立体性判別処理において、選択物品種別に対応するテンプレートデータを用いたパターンマッチングを行って、テンプレートデータと類似度が一定以上である像(点群)が3次元画像データ中に存在するか否かを判定する。立体性判別部13は、このような像が存在する場合には、撮影対象が立体的であると判定し、存在しない場合には、撮影対象が立体的でないと判定する。なお後述するように選択物品種別は、より細かく区分することができ(例えばパソコンであればモデルや、ブランド物のバッグであれば型番とすることができる)、本構成は、このように選択物品種別がより細かく区分されている場合に、有効である。なぜなら細かく区分された選択物品種別ごとにテンプレートデータが用意されることになり、より高い精度で撮影対象が立体的であるか否かの判別を行うことができるからである。
As another example, the following configuration may be used (however, the scene is assumed to be an evaluation scene for convenience of explanation). That is, three-dimensional template data (point cloud data) is prepared for each article type. Then, the three-
更に別の例として、以下の構成でもよい。すなわち、「2次元画像データおよび3次元画像データの双方」と、選択物品種別とを入力とし、撮影対象の立体性がある確率を出力とするモデルが事前に用意される。このモデルは、ディープラーニングその他の機械学習手法により学習されたモデルである。そして立体性判別部13が、このモデルに「2次元画像データおよび3次元画像データの双方」と、選択物品種別とを入力し、その出力を得ることによって、撮影対象が立体的であるか否かの判別を行う構成でもよい。ただし、モデルの入力は上記に限られず、3次元画像データおよび選択物品種別が入力であってもよく、選択物品種別が入力に含まれなくてもよい。また出力についても、立体性がない確率や、立体性の有無が出力されてもよい。
As yet another example, the following configuration may be used. That is, a model is prepared in advance in which "both two-dimensional image data and three-dimensional image data" and the selected article type are input and the probability that the imaged object has three-dimensionality is output. This model is a model learned by deep learning and other machine learning methods. Then, the three-
また上記実施形態では、物品種別は、ノートパソコンや、スマートフォン、ゲーム機、バッグ、時計といった、物品を機能や用途によって大きく区分したときの各種別であった。しかしながら、物品種別がより細かく区分されていてもよい。例えばノートパソコンやスマートフォン、その他の電子機器についてはモデル(型番と呼ばれる場合もある)を物品種別としてもよい。また例えばブランド品のバッグや小物、洋服、アクセサリについては型番を物品種別としてもよい。物品種別は、ユーザに選択させ或いは入力させる構成でもよく、また、立体性判別部13が、2次元画像データを分析し、認識する構成でもよい。
Further, in the above embodiment, the article types are classified into various types such as notebook computers, smartphones, game machines, bags, watches, etc., when the articles are broadly classified according to their functions and uses. However, the article types may be further subdivided. For example, for notebook computers, smartphones, and other electronic devices, a model (sometimes called a model number) may be used as the item type. Further, for example, for brand-name bags, accessories, clothes, and accessories, the model number may be used as the item type. The article type may be configured to be selected or input by the user, or may be configured in which the
また上記実施形態では、端末2はスマートフォンであったが、端末2がスマートフォンに限られず、例えば、端末2は、端末機能を有さないタブレット端末やノートパソコンであってもよい。
Further, in the above embodiment, the
1 情報処理システム
2 端末
3 サーバ(情報処理装置)
5 カメラ
6 LiDARスキャナ(測距センサ)
10 端末側制御部
13 立体性判別部
14 処理部
1
5
10 Terminal
Claims (12)
前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記端末から取得し、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する立体性判別部と、
前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない処理部とを備え、
前記立体性判別部は、前記2次元画像データを分析し、前記2次元画像データにおける前記撮影対象の画像の位置を認識し、前記2次元画像データにおける前記撮影対象の画像の位置に基づいて、前記3次元画像データにおける前記撮影対象の像の領域である特定領域を特定し、前記特定領域に属する像の立体性を判別することによって、前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理装置。 It is an information processing device that acquires two-dimensional image data generated by shooting with a camera for a shooting target from a terminal via a network under the assumption that a three-dimensional object on which information for identity verification is recorded is shot. ,
The presence or absence of the three-dimensionality of the imaged object is obtained by acquiring the three-dimensional image data generated by the scan by the distance measuring sensor executed at the same time as the image taken by the camera from the terminal via the network and using at least the three-dimensional image data. A three-dimensionality discriminator that discriminates between
When it is determined by the three-dimensionality determination unit that the object to be photographed has three-dimensionality, it is determined that there is no three-dimensionality while performing the identification-related processing related to the identification of the person based on the two-dimensional image data. If so, it is provided with a processing unit that does not execute the above-mentioned identity verification related processing.
The three-dimensionality discriminating unit analyzes the two-dimensional image data, recognizes the position of the image to be photographed in the two-dimensional image data, and is based on the position of the image to be photographed in the two-dimensional image data. It is characterized in that the presence or absence of the three-dimensionality of the imaged object is determined by specifying a specific area which is an area of the image of the imaged object in the three-dimensional image data and determining the three-dimensionality of the image belonging to the specific area. Information processing device.
ことを特徴とする請求項1に記載の情報処理装置。 The three-dimensionality determination unit determines whether or not the image belonging to the specific region in the three-dimensional image data is a flat image that is planarly continuous with the surrounding image, and if it is a flat image, the three-dimensional image is described. The information processing apparatus according to claim 1, wherein it is determined that the object to be imaged has no three-dimensionality, while it is determined that the object to be imaged has three-dimensionality in other cases.
ことを特徴とする請求項1に記載の情報処理装置。 The three-dimensionality determining unit determines that the imaged object has three-dimensionality when a three-dimensional image independent of the surrounding image is formed in the specific region, while the three-dimensionality is determined in other cases. The information processing apparatus according to claim 1, wherein the information processing apparatus is determined not to be present.
ことを特徴とする請求項1から3の何れか1項に記載の情報処理装置。 The three-dimensionality discriminating unit recognizes the type of the object to be photographed, and processes the image of the object of the type to be photographed in the two-dimensional image data by processing by an image processing technique or processing using a machine-learned model. Claims 1 to 3 are characterized in that the position is recognized and the position of the image of the object of the type to be photographed in the two-dimensional image data is recognized as the position of the image of the image to be photographed in the two-dimensional image data. The information processing apparatus according to any one of the above items.
前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記端末から取得し、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する立体性判別部と、
前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない処理部とを備え、
前記立体性判別部は、前記撮影対象の種別を認識し、前記撮影対象の種別に対応する3次元的なテンプレートデータを用いたパターンマッチングを行い、パターンマッチングの結果に基づいて前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理装置。 It is an information processing device that acquires two-dimensional image data generated by shooting with a camera for a shooting target from a terminal via a network under the assumption that a three-dimensional object on which information for identity verification is recorded is shot. ,
The presence or absence of the three-dimensionality of the imaged object is obtained by acquiring the three-dimensional image data generated by the scan by the distance measuring sensor executed at the same time as the image taken by the camera from the terminal via the network and using at least the three-dimensional image data. A three-dimensionality discriminator that discriminates between
When it is determined by the three-dimensionality determination unit that the object to be photographed has three-dimensionality, it is determined that there is no three-dimensionality while performing the identification-related processing related to the identification of the person based on the two-dimensional image data. If so, it is provided with a processing unit that does not execute the above-mentioned identity verification related processing.
The three-dimensionality determination unit recognizes the type of the shooting target, performs pattern matching using the three-dimensional template data corresponding to the type of the shooting target, and based on the result of the pattern matching, the three-dimensional image of the shooting target. An information processing device characterized by determining the presence or absence of sex.
前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記端末から取得し、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する立体性判別部と、
前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない処理部とを備え、
前記立体性判別部は、
2次元画像データと3次元画像データと前記撮影対象の種別とを入力とするか、3次元画像データと前記撮影対象の種別とを入力とするか、または、2次元画像データと3次元画像データとを入力とし、前記撮影対象の立体性の有無の判別に利用可能な情報を出力とする機械学習されたモデルに対して必要な入力値を入力し、その出力を得ることによって前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理装置。 It is an information processing device that acquires two-dimensional image data generated by shooting with a camera for a shooting target from a terminal via a network under the assumption that a three-dimensional object on which information for identity verification is recorded is shot. ,
The presence or absence of the three-dimensionality of the imaged object is obtained by acquiring the three-dimensional image data generated by the scan by the distance measuring sensor executed at the same time as the image taken by the camera from the terminal via the network and using at least the three-dimensional image data. A three-dimensionality discriminator that discriminates between
When it is determined by the three-dimensionality determination unit that the object to be photographed has three-dimensionality, it is determined that there is no three-dimensionality while performing the identification-related processing related to the identification of the person based on the two-dimensional image data. If so, it is provided with a processing unit that does not execute the above-mentioned identity verification related processing.
The three-dimensionality discriminating unit is
Two-dimensional image data, three-dimensional image data, and the type of the shooting target are input, three-dimensional image data and the type of the shooting target are input, or two-dimensional image data and three-dimensional image data. The input value required for the machine-learned model that outputs the information that can be used to determine the presence or absence of the three-dimensionality of the imaged object is input, and the output is obtained to obtain the output of the imaged object. An information processing device characterized by determining the presence or absence of three-dimensionality.
前記端末は、
本人確認用の情報が記録された立体的な物体が撮影されるという想定の下で撮影対象に対するカメラによる撮影により生成された2次元画像データ、および、前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記情報処理装置に送信する端末側制御部を有し、
前記情報処理装置は、
前記端末からネットワーク経由で前記2次元画像データおよび前記3次元画像データを取得し、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する立体性判別部と、
前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない処理部とを有し、
前記立体性判別部は、前記2次元画像データを分析し、前記2次元画像データにおける前記撮影対象の画像の位置を認識し、前記2次元画像データにおける前記撮影対象の画像の位置に基づいて、前記3次元画像データにおける前記撮影対象の像の領域である特定領域を特定し、前記特定領域に属する像の立体性を判別することによって、前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理システム。 An information processing system including a terminal and an information processing device capable of communicating with the terminal via a network.
The terminal is
Two-dimensional image data generated by shooting with a camera for the shooting target under the assumption that a three-dimensional object on which information for identity verification is recorded is shot, and distance measurement performed at the same time as shooting with the camera. It has a terminal-side control unit that transmits 3D image data generated by scanning by a sensor to the information processing device via a network.
The information processing device is
A three-dimensionality determining unit that acquires the two-dimensional image data and the three-dimensional image data from the terminal via a network and determines the presence or absence of the three-dimensionality of the imaged object by using at least the three-dimensional image data .
When it is determined by the three-dimensionality determination unit that the object to be photographed has three-dimensionality, it is determined that there is no three-dimensionality while performing the identification-related processing related to the identification of the person based on the two-dimensional image data. If so, it has a processing unit that does not execute the identity verification related processing.
The three-dimensionality discriminating unit analyzes the two-dimensional image data, recognizes the position of the image to be photographed in the two-dimensional image data, and is based on the position of the image to be photographed in the two-dimensional image data. It is characterized in that the presence or absence of the three-dimensionality of the imaged object is determined by specifying a specific area which is an area of the image of the imaged object in the three-dimensional image data and determining the three-dimensionality of the image belonging to the specific area. Information processing system.
前記端末は、
本人確認用の情報が記録された立体的な物体が撮影されるという想定の下で撮影対象に対するカメラによる撮影により生成された2次元画像データ、および、前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記情報処理装置に送信する端末側制御部を有し、
前記情報処理装置は、
前記端末からネットワーク経由で前記2次元画像データおよび前記3次元画像データを取得し、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する立体性判別部と、
前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない処理部とを有し、
前記立体性判別部は、前記撮影対象の種別を認識し、前記撮影対象の種別に対応する3次元的なテンプレートデータを用いたパターンマッチングを行い、パターンマッチングの結果に基づいて前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理システム。 An information processing system including a terminal and an information processing device capable of communicating with the terminal via a network.
The terminal is
Two-dimensional image data generated by shooting with a camera for the shooting target under the assumption that a three-dimensional object on which information for identity verification is recorded is shot, and distance measurement performed at the same time as shooting with the camera. It has a terminal-side control unit that transmits 3D image data generated by scanning by a sensor to the information processing device via a network.
The information processing device is
A three-dimensionality determining unit that acquires the two-dimensional image data and the three-dimensional image data from the terminal via a network and determines the presence or absence of the three-dimensionality of the imaged object by using at least the three-dimensional image data .
When it is determined by the three-dimensionality determination unit that the object to be photographed has three-dimensionality, it is determined that there is no three-dimensionality while performing the identification-related processing related to the identification of the person based on the two-dimensional image data. If so, it has a processing unit that does not execute the identity verification related processing.
The three-dimensionality determination unit recognizes the type of the shooting target, performs pattern matching using the three-dimensional template data corresponding to the type of the shooting target, and based on the result of the pattern matching, the three-dimensional shape of the shooting target. An information processing system characterized by determining the presence or absence of sex.
前記端末は、
本人確認用の情報が記録された立体的な物体が撮影されるという想定の下で撮影対象に対するカメラによる撮影により生成された2次元画像データ、および、前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記情報処理装置に送信する端末側制御部を有し、
前記情報処理装置は、
前記端末からネットワーク経由で前記2次元画像データおよび前記3次元画像データを取得し、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する立体性判別部と、
前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない処理部とを有し、
前記立体性判別部は、
2次元画像データと3次元画像データと前記撮影対象の種別とを入力とするか、3次元画像データと前記撮影対象の種別とを入力とするか、または、2次元画像データと3次元画像データとを入力とし、前記撮影対象の立体性の有無の判別に利用可能な情報を出力とする機械学習されたモデルに対して必要な入力値を入力し、その出力を得ることによって前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理システム。 An information processing system including a terminal and an information processing device capable of communicating with the terminal via a network.
The terminal is
Two-dimensional image data generated by shooting with a camera for the shooting target under the assumption that a three-dimensional object on which information for identity verification is recorded is shot, and distance measurement performed at the same time as shooting with the camera. It has a terminal-side control unit that transmits 3D image data generated by scanning by a sensor to the information processing device via a network.
The information processing device is
A three-dimensionality determining unit that acquires the two-dimensional image data and the three-dimensional image data from the terminal via a network and determines the presence or absence of the three-dimensionality of the imaged object by using at least the three-dimensional image data .
When it is determined by the three-dimensionality determination unit that the object to be photographed has three-dimensionality, it is determined that there is no three-dimensionality while performing the identification-related processing related to the identification of the person based on the two-dimensional image data. If so, it has a processing unit that does not execute the identity verification related processing.
The three-dimensionality discriminating unit is
Input 2D image data, 3D image data, and the type of the shooting target, input 3D image data and the type of the shooting target, or input 2D image data and 3D image data. Is input, and the input value required for the machine-learned model that outputs the information that can be used to determine the presence or absence of the three-dimensionality of the imaged object is input, and the output is obtained to obtain the output of the imaged object. An information processing system characterized by determining the presence or absence of three-dimensionality.
前記情報処理装置の立体性判別部が、前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記端末から取得する第1ステップと、
前記情報処理装置の前記立体性判別部が、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する第2ステップと、
前記情報処理装置の処理部が、前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない第3ステップとを含み、
前記第2ステップにおいて前記立体性判別部は、前記2次元画像データを分析し、前記2次元画像データにおける前記撮影対象の画像の位置を認識し、前記2次元画像データにおける前記撮影対象の画像の位置に基づいて、前記3次元画像データにおける前記撮影対象の像の領域である特定領域を特定し、前記特定領域に属する像の立体性を判別することによって、前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理方法。 Information processing by an information processing device that acquires two-dimensional image data generated by shooting with a camera for the shooting target from a terminal on the assumption that a three-dimensional object on which information for identity verification is recorded is shot. It ’s a method,
The first step in which the three-dimensionality discrimination unit of the information processing apparatus acquires three-dimensional image data generated by scanning by a distance measuring sensor executed at the same time as shooting by the camera from the terminal via a network.
A second step in which the three-dimensionality determining unit of the information processing apparatus determines the presence or absence of three-dimensionality of the photographing target by using at least the three-dimensional image data
When the processing unit of the information processing apparatus determines that the imaging target has three-dimensionality by the three-dimensionality determination unit, the identification-related processing related to the identification of the person is executed based on the two-dimensional image data. On the other hand, if it is determined that there is no three-dimensionality, the third step of not executing the identity verification related process is included.
In the second step, the stereoscopic determination unit analyzes the two-dimensional image data, recognizes the position of the image to be photographed in the two-dimensional image data, and recognizes the position of the image to be photographed in the two-dimensional image data. By identifying a specific area that is a region of the image to be photographed in the three-dimensional image data based on the position and determining the three-dimensionality of the image belonging to the specific area, the presence or absence of the three-dimensionality of the image to be photographed is determined. An information processing method characterized by discrimination.
前記情報処理装置の立体性判別部が、前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記端末から取得する第1ステップと、
前記情報処理装置の前記立体性判別部が、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する第2ステップと、
前記情報処理装置の処理部が、前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない第3ステップとを含み、
前記立体性判別部は、前記撮影対象の種別を認識し、前記撮影対象の種別に対応する3次元的なテンプレートデータを用いたパターンマッチングを行い、パターンマッチングの結果に基づいて前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理方法。 Information processing by an information processing device that acquires two-dimensional image data generated by shooting with a camera for the shooting target from a terminal on the assumption that a three-dimensional object on which information for identity verification is recorded is shot. It ’s a method,
The first step in which the three-dimensionality discrimination unit of the information processing apparatus acquires three-dimensional image data generated by scanning by a distance measuring sensor executed at the same time as shooting by the camera from the terminal via a network.
A second step in which the three-dimensionality determining unit of the information processing apparatus determines the presence or absence of the three-dimensionality of the imaged object by using at least the three-dimensional image data.
When the processing unit of the information processing apparatus determines that the photographing target has three-dimensionality by the three-dimensionality determination unit, the identification-related processing related to the identification of the person is executed based on the two-dimensional image data. On the other hand, if it is determined that there is no three-dimensionality, the third step of not executing the identity verification related process is included.
The three-dimensionality discrimination unit recognizes the type of the shooting target, performs pattern matching using the three-dimensional template data corresponding to the type of the shooting target, and based on the result of the pattern matching, the three-dimensional shape of the shooting target. An information processing method characterized by determining the presence or absence of sex.
前記情報処理装置の立体性判別部が、前記カメラによる撮影と同時に実行された測距センサによるスキャンにより生成された3次元画像データをネットワーク経由で前記端末から取得する第1ステップと、
前記情報処理装置の前記立体性判別部が、前記3次元画像データを少なくとも利用して前記撮影対象の立体性の有無を判別する第2ステップと、
前記情報処理装置の処理部が、前記立体性判別部により前記撮影対象に立体性があると判定された場合、前記2次元画像データに基づいて、本人の確認に関連する本人確認関連処理を実行する一方、立体性がないと判定された場合、前記本人確認関連処理を実行しない第3ステップとを含み、
前記第2ステップにおいて前記立体性判別部は、2次元画像データと3次元画像データと前記撮影対象の種別とを入力とするか、3次元画像データと前記撮影対象の種別とを入力とするか、または、2次元画像データと3次元画像データとを入力とし、前記撮影対象の立体性の有無の判別に利用可能な情報を出力とする機械学習されたモデルに対して必要な入力値を入力し、その出力を得ることによって前記撮影対象の立体性の有無を判別する
ことを特徴とする情報処理方法。 Information processing by an information processing device that acquires two-dimensional image data generated by shooting with a camera for the shooting target from a terminal on the assumption that a three-dimensional object on which information for identity verification is recorded is shot. It ’s a method,
The first step in which the three-dimensionality discrimination unit of the information processing apparatus acquires three-dimensional image data generated by scanning by a distance measuring sensor executed at the same time as shooting by the camera from the terminal via a network.
A second step in which the three-dimensionality determining unit of the information processing apparatus determines the presence or absence of three-dimensionality of the photographing target by using at least the three-dimensional image data
When the processing unit of the information processing apparatus determines that the imaging target has three-dimensionality by the three-dimensionality determination unit, the identification-related processing related to the identification of the person is executed based on the two-dimensional image data. On the other hand, if it is determined that there is no three-dimensionality, the third step of not executing the identity verification related process is included.
In the second step, the stereoscopic determination unit inputs two-dimensional image data, three-dimensional image data, and the type of the shooting target, or three-dimensional image data and the type of the shooting target. , Or input the input value required for the machine-learned model that inputs 2D image data and 3D image data and outputs information that can be used to determine the presence or absence of the three-dimensionality of the object to be photographed. However, an information processing method characterized in that the presence or absence of three-dimensionality of the object to be photographed is determined by obtaining the output.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021027019A JP7019223B1 (en) | 2021-02-24 | 2021-02-24 | Information processing equipment, information processing system and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021027019A JP7019223B1 (en) | 2021-02-24 | 2021-02-24 | Information processing equipment, information processing system and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7019223B1 true JP7019223B1 (en) | 2022-02-15 |
JP2022128671A JP2022128671A (en) | 2022-09-05 |
Family
ID=80929748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021027019A Active JP7019223B1 (en) | 2021-02-24 | 2021-02-24 | Information processing equipment, information processing system and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7019223B1 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006040151A (en) | 2004-07-29 | 2006-02-09 | Toshiba Corp | Face authentication device, face authentication method, and passage control device |
WO2009110323A1 (en) | 2008-03-03 | 2009-09-11 | 日本電気株式会社 | Living body judgment system, method for judging living body and program for judging living body |
JP2018173731A (en) | 2017-03-31 | 2018-11-08 | ミツミ電機株式会社 | Face authentication device and face authentication method |
JP2019091322A (en) | 2017-11-15 | 2019-06-13 | 株式会社メルカリ | Support apparatus, support method, support program, and support system |
WO2019188123A1 (en) | 2018-03-27 | 2019-10-03 | ソニーセミコンダクタソリューションズ株式会社 | Imaging device and image processing system |
JP2019215651A (en) | 2018-06-12 | 2019-12-19 | 株式会社ソフマップ | Item purchase system and item transfer application software |
JP2020151542A (en) | 2020-06-23 | 2020-09-24 | 佐藤長八商事株式会社 | Free gift safe keeping system, terminal device, free gift safe keeping method, and computer program |
-
2021
- 2021-02-24 JP JP2021027019A patent/JP7019223B1/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006040151A (en) | 2004-07-29 | 2006-02-09 | Toshiba Corp | Face authentication device, face authentication method, and passage control device |
WO2009110323A1 (en) | 2008-03-03 | 2009-09-11 | 日本電気株式会社 | Living body judgment system, method for judging living body and program for judging living body |
JP2018173731A (en) | 2017-03-31 | 2018-11-08 | ミツミ電機株式会社 | Face authentication device and face authentication method |
JP2019091322A (en) | 2017-11-15 | 2019-06-13 | 株式会社メルカリ | Support apparatus, support method, support program, and support system |
WO2019188123A1 (en) | 2018-03-27 | 2019-10-03 | ソニーセミコンダクタソリューションズ株式会社 | Imaging device and image processing system |
JP2019215651A (en) | 2018-06-12 | 2019-12-19 | 株式会社ソフマップ | Item purchase system and item transfer application software |
JP2020151542A (en) | 2020-06-23 | 2020-09-24 | 佐藤長八商事株式会社 | Free gift safe keeping system, terminal device, free gift safe keeping method, and computer program |
Also Published As
Publication number | Publication date |
---|---|
JP2022128671A (en) | 2022-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10803438B2 (en) | Reading apparatus | |
CN106203225B (en) | Pictorial element based on depth is deleted | |
US11281908B2 (en) | System, server, program, and method for confirming acquisition of target object | |
US10445714B2 (en) | Gesture-based signature capture | |
KR101849633B1 (en) | Id photo forgery preventing method and system | |
JP7019223B1 (en) | Information processing equipment, information processing system and information processing method | |
JP6898123B2 (en) | Information processing equipment and programs | |
JP2013258583A (en) | Captured image display, captured image display method, and program | |
US10116830B2 (en) | Document data processing including image-based tokenization | |
JP6558145B2 (en) | Information processing terminal, information processing system, processing method thereof, and program | |
JP6390247B2 (en) | Photography apparatus, skin diagnosis method, program, and skin diagnosis system | |
CN107066218A (en) | Image processing system and print control program | |
JP7061326B1 (en) | Information processing equipment, information processing system and information processing method | |
JP6913309B2 (en) | Computer programs, information processing methods, and information processing equipment | |
KR20090121580A (en) | Method for displaying size recognizable product image in internet shopping mall | |
KR102469244B1 (en) | Method of collecting results of offline advertisement based on image processing | |
KR20180027024A (en) | System for providing music album contents using music card and method thereof | |
JP6103025B2 (en) | Information processing apparatus, control method thereof, and program | |
JP6779798B2 (en) | Information processing equipment, information processing methods and programs | |
JP2019125394A (en) | System, server, program and method for object acquisition confirmation | |
CN115715401A (en) | Information processing device and program | |
JP2023181293A (en) | Image storage device, image storage method, and program | |
CN107003714A (en) | Contextual information is developed from image | |
KR20230064372A (en) | Method and apparatus managing biometric information for animal health authentication | |
TW201405336A (en) | System and method for displaying specified contents of operation manual on handheld device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210315 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210315 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210615 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210721 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211022 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220118 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220126 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7019223 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |