JP7061326B1 - Information processing equipment, information processing system and information processing method - Google Patents
Information processing equipment, information processing system and information processing method Download PDFInfo
- Publication number
- JP7061326B1 JP7061326B1 JP2021079630A JP2021079630A JP7061326B1 JP 7061326 B1 JP7061326 B1 JP 7061326B1 JP 2021079630 A JP2021079630 A JP 2021079630A JP 2021079630 A JP2021079630 A JP 2021079630A JP 7061326 B1 JP7061326 B1 JP 7061326B1
- Authority
- JP
- Japan
- Prior art keywords
- target article
- article
- target
- image
- recognized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 50
- 238000003672 processing method Methods 0.000 title claims description 6
- 238000000034 method Methods 0.000 claims abstract description 217
- 238000011156 evaluation Methods 0.000 claims abstract description 207
- 230000008569 process Effects 0.000 claims abstract description 173
- 238000010191 image analysis Methods 0.000 claims abstract description 35
- 238000012545 processing Methods 0.000 claims description 49
- 230000006866 deterioration Effects 0.000 claims description 28
- 238000009795 derivation Methods 0.000 claims description 9
- 230000003111 delayed effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 abstract description 7
- 230000015654 memory Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 9
- 238000011835 investigation Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 230000008685 targeting Effects 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000007639 printing Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012015 optical character recognition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 238000011410 subtraction method Methods 0.000 description 1
Images
Abstract
【課題】撮影画像データに基づいて物品を評価する情報処理装置について、ユーザの作業を減らしつつ、複数の異なる観点で物品を評価できるようにする。【解決手段】サーバ3は、対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で端末から取得し、撮影画像データに記録された対象物品の画像を画像分析して対象物品の外観に関する状態を認識すると共に、対象物品の画像に含まれる文字の画像を対象として文字認識する処理、対象物品の画像を画像分析して対象物品の型番を認識する処理、および、対象物品の画像を画像分析して対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、認識した対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して対象物品を評価する評価部13を備える。【選択図】図2PROBLEM TO BE SOLVED: To make it possible to evaluate an article from a plurality of different viewpoints while reducing the work of a user for an information processing device for evaluating an article based on captured image data. SOLUTION: A server 3 acquires photographed image data generated by a target article photographed by a target user from a terminal via a network, analyzes an image of the target article recorded in the photographed image data, and analyzes the target article. A process of recognizing the state of the appearance of the target article, a process of recognizing the character image of the character included in the image of the target article, a process of image analysis of the image of the target article to recognize the model number of the target article, and a process of recognizing the model number of the target article. At least one of the processes of analyzing the image to determine the authenticity of the target article is executed, and among the recognized state of the appearance of the target article, the recognized character, the recognized model number, and the result of the determination of the authenticity. The evaluation unit 13 for evaluating the target article by reflecting at least one is provided. [Selection diagram] Fig. 2
Description
本発明は、撮影画像データに基づいて物品を評価する情報処理装置、当該情報処理装置と端末とを備える情報処理システム、および、当該情報処理装置による情報処理方法に関する。 The present invention relates to an information processing device that evaluates an article based on captured image data, an information processing system including the information processing device and a terminal, and an information processing method by the information processing device.
従来、ある物品が撮影されて生成された撮影画像データを利用して、その物品を評価するシステムが知られている。この種のシステムに関して例えば特許文献1には、中古車が撮影されて生成されたパノラマ写真(撮影画像)をサーバが取得した後、パノラマ写真を保管し、事後的に中古車の傷の状況等をパノラマ写真によって確認できるようにしたシステムが記載されている。
Conventionally, there is known a system for evaluating an article by using photographed image data generated by photographing the article. Regarding this type of system, for example, in
ここで一般に物品の評価にあたっては、単一の観点からだけではなく、複数の異なる観点で物品の評価をすることが求められる。通常、評価に影響する物品の要素は1つだけではなく、複数の異なる観点で物品を評価することにより複数の要素を加味して物品を評価することが可能となり、評価結果の妥当性が高くなるからである。また従来のシステムでは物品の評価に先立って、ユーザが物品の撮影を行ったり、物品の評価に必要な情報を提供したりする(例えば、評価に利用する情報を与えられたユーザインタフェイスに入力する)等の作業を行っていたが、この作業はユーザにとって煩雑であった。以上を踏まえ、ユーザの作業を減らしつつ、複数の異なる観点で物品が評価できるようにしたいとするニーズがあった。 Here, in general, when evaluating an article, it is required to evaluate the article not only from a single viewpoint but also from a plurality of different viewpoints. Normally, not only one element of an article affects the evaluation, but by evaluating the article from a plurality of different viewpoints, it is possible to evaluate the article by adding multiple elements, and the validity of the evaluation result is high. Because it becomes. Further, in the conventional system, prior to the evaluation of the article, the user takes a picture of the article or provides the information necessary for the evaluation of the article (for example, the information used for the evaluation is input to the given user interface). However, this work was complicated for the user. Based on the above, there was a need to be able to evaluate goods from a plurality of different viewpoints while reducing the work of the user.
本発明は、このような問題を解決するために成されたものであり、ユーザの作業を減らしつつ、複数の異なる観点で物品を評価できるようにすることを目的とする。 The present invention has been made to solve such a problem, and an object of the present invention is to make it possible to evaluate an article from a plurality of different viewpoints while reducing the work of a user.
上記した課題を解決するために、本発明は、対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で端末から取得する。そして撮影画像データに記録された対象物品の画像を画像分析して対象物品の外観に関する状態を認識すると共に、対象物品の画像に含まれる文字の画像を対象として文字認識する処理、対象物品の画像を画像分析して対象物品の型番を認識する処理、および、対象物品の画像を画像分析して対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行する。そして認識した対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して対象物品を評価するようにしている。 In order to solve the above-mentioned problems, the present invention acquires photographed image data generated by photographing the target article by the target user from the terminal via the network. Then, the image of the target article recorded in the captured image data is image-analyzed to recognize the state related to the appearance of the target article, and the character recognition process for the image of the character included in the image of the target article is performed. At least one of a process of recognizing the model number of the target article by image analysis and a process of determining the authenticity of the target article by image analysis of the image of the target article is executed. Then, the target article is evaluated by reflecting the state regarding the appearance of the recognized target article and at least one of the recognized characters, the recognized model number, and the result of the determination of authenticity.
上記のように構成した本発明によれば、物品の外観に関する状態に加えて、文字の画像を対象とする文字認識により認識された文字、物品の画像を対象とする画像分析により認識された型番、および、物品の画像を対象として行われた真贋の判定の結果のうち少なくとも1つが反映されて物品の評価が行われるため、複数の異なる観点で物品を評価できる。その際に物品の外観に関する状態の認識と、文字認識による文字の認識、画像分析による型番の認識および真贋の判定のうち少なくとも1つとは、共通する撮影画像データに基づいて行われる。従ってユーザは、物品の評価にあたって対象物品を撮影すればよく、認識させるべき文字を入力する作業や、型番を入力する作業、真贋の判定に利用する情報を提供する作業等を別途、行う必要がない。すなわち本発明によれば、ユーザの作業を減らしつつ、複数の異なる観点で物品を評価できる。 According to the present invention configured as described above, in addition to the state relating to the appearance of the article, the character recognized by the character recognition targeting the image of the character and the model number recognized by the image analysis targeting the image of the article. , And, since the article is evaluated by reflecting at least one of the results of the authenticity determination performed on the image of the article, the article can be evaluated from a plurality of different viewpoints. At that time, at least one of recognition of the state regarding the appearance of the article, recognition of characters by character recognition, recognition of model number by image analysis, and determination of authenticity is performed based on common photographed image data. Therefore, the user only needs to take a picture of the target article when evaluating the article, and needs to separately perform the work of inputting characters to be recognized, the work of inputting the model number, the work of providing information used for authenticity determination, and the like. not. That is, according to the present invention, it is possible to evaluate an article from a plurality of different viewpoints while reducing the work of the user.
以下、本発明の一実施形態を図面に基づいて説明する。図1は、本実施形態に係る情報処理システム1の構成例を示す図である。図1で示すように情報処理システム1は、端末2とサーバ3とを備えている。端末2およびサーバ3は共に、インターネット、電話網、その他の通信網を含むネットワークNに接続可能である。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a configuration example of the
サーバ3は、端末2をクライアントの1つとするサーバ装置である。図1では、サーバ3を1つのブロックで表しているが、サーバ3は単一のサーバ装置である必要はなく、例えば複数のサーバ装置により構成されてもよく、また所定のシステムの一部であってもよい。サーバ3は、サービス提供会社(所定主体)によって管理、運営されており、後述するサービスを提供する。サーバ3は、特許請求の範囲の「情報処理装置」に相当する。
The
端末2は、タブレット型の筐体の全面の広い領域にタッチスクリーン4(表示パネル+タッチパネル)が設けられたスマートフォンである。特に本実施形態に係る端末2は、カメラ5が搭載されており、カメラ5による撮影の結果に基づいて撮影画像データを生成する機能を備えている。端末2には事前に、所定のアプリケーション(以下「専用アプリ」という)が、アプリケーションダウンロードシステムを利用してインストールされている。専用アプリの機能については後述する。なお図1では、ネットワークNに接続された無数の端末2のうちの1つを例示的に示している。
The
図2は、端末2およびサーバ3の機能構成例を示すブロック図である。図2で示すように、端末2は機能構成として、端末側制御部10および端末側通信部11を備えている。またサーバ3は機能構成として、サーバ側通信部12および評価部13を備えている。上記各機能ブロック10~12は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック10~12は、実際にはコンピュータのCPU、RAM、ROM等を備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。特に端末側制御部10は、CPU等のハードウェアが、記憶媒体に記憶された専用アプリ(ただしOS、OSが提供するAPI、その他の付随するプログラムを含む)を読み出して実行することにより各種処理を実行可能である。またサーバ3は記憶媒体として、サーバ側記憶部14を備えている。
FIG. 2 is a block diagram showing a functional configuration example of the
端末側通信部11は、ネットワークNに接続された機器と所定のプロトコルに従って通信する。以下の説明では端末2とネットワークNに接続された機器との間での通信は、端末側通信部11により適切に行われるものとして詳細な説明を省略する。またサーバ側通信部12は、ネットワークNに接続された機器と所定のプロトコルに従って通信する。以下の説明ではサーバ3とネットワークNに接続された機器との間での通信は、サーバ側通信部12により適切に行われるものとして詳細な説明を省略する。
The terminal-
ここでサーバ3は、ユーザに対して以下のサービス(以下「本サービス」という)を提供する。すなわち自身が所有する物品に基づいて資金を得たいと考えているユーザを想定する。ユーザが所有する物品は一例として、ブランド物のバック、ブランド物のアクセサリ、その他のブランド品であり、また一例としてノートパソコン、スマートフォン、ゲーム機、デジタルカメラ、その他の電子機器である(ただし、これらはあくまで一例である)。ユーザは、端末2により物品の撮影を行い、撮影結果に基づく撮影画像データが端末2からサーバ3に送信される。サーバ3は、撮影画像データに基づいて物品の査定額を導出し、査定額を示す情報をユーザに提供する。なお以下の説明では、種々の処理を行って最終的に査定額を導出することを適宜、「査定する」と表現する場合がある。
Here, the
詳細な説明は省略するが、物品の査定額が導出された後、ユーザによる同意があれば、その査定額で物品がサービス提供会社によって買い取られると共に、その査定額に相当する金銭がユーザに提供される。その上でサービス提供会社によって買い取られた物品は、リース料の支払いを条件としてユーザにリースされる。リースの際にはユーザとサービス提供会社との間でリースに関する契約が結ばれ、ユーザはリースに関する契約に従ってリース料を支払う義務が生じる。このためユーザは、物品をサービス提供会社に引き渡すことなく手元に置いたまま、査定額相当の資金を得ることができる。 Although detailed explanation is omitted, after the valuation amount of the goods is derived, if the user consents, the goods are purchased by the service provider at the valuation amount and the money equivalent to the valuation amount is provided to the user. Will be done. The goods purchased by the service provider are then leased to the user subject to payment of the lease fee. At the time of leasing, a lease contract is concluded between the user and the service provider, and the user is obliged to pay the lease fee in accordance with the lease contract. Therefore, the user can obtain funds equivalent to the assessed amount while keeping the goods at hand without handing them over to the service provider.
サーバ3は、以上の本サービスの提供を端末2と協働してシステム的に実現する。特に本実施形態に係るサーバ3は、以下で説明する独自の構成により、ユーザの作業を減らしつつ、複数の異なる観点で査定を行って査定額を導出する。以下、本サービスの提供時におけるサーバ3および端末2の動作について説明する。
The
ここでサーバ3および端末2の処理の説明に先立って、本実施形態における「物品分類」および「最深分類」について説明する。本実施形態では本サービスにおいて査定の対象となり得る物品に関し、ツリー構造の物品分類のツリー(以下「物品分類ツリー」という)が事前に定義されている。図3は、物品分類ツリーの一例を示す図である。以下、図3を用いて物品分類ツリーについて説明する。ただし図3で例示する物品分類ツリーは、説明の便宜のため、非常に単純化したものである。図3の例ではルートノードの1つ下の階層で、物品を大まかに分類する目的で、ノートパソコン(物品分類)とスマートフォンとバッグ(物品分類)との3つの物品分類が定義されている。以下の説明において、物品分類の階層状態を表現する際に、ルートノードは当然に存在するものとして、ルートノードを省略する場合がある。また本実施形態ではバッグは、ブランド品を想定しているものとする。
Here, prior to the description of the processing of the
ノートパソコン(物品分類)の1つ下の階層ではOSに着目して、Windows(物品分類)とMacOS(物品分類)との2つの物品分類が定義されている(ただしWindowsおよびMacOSは共に登録商標)。更にWindows(物品分類)の1つ下の層ではメーカに着目してメーカMK1(物品分類)とメーカMK2(物品分類)との2つの物品分類が定義されている。またスマートフォン(物品分類)の1つ下の階層ではOSに着目して、iOS(物品分類)とAndroid(物品分類)との2つの物品分類が定義されている(ただしiOSおよびAndroidは共に登録商標)。またバッグ(物品分類)の1つ下の階層では、バッグのブランドに着目して、ブランドB1(物品分類)とブランドB2(物品分類)とブランドB3(物品分類)との3つの物品分類が定義されている。 At the next level below the laptop computer (article classification), two article classifications, Windows (article classification) and MacOS (article classification), are defined focusing on the OS (however, Windows and MacOS are both registered trademarks). ). Further, in the layer immediately below Windows (article classification), two article classifications, maker MK1 (article classification) and maker MK2 (article classification), are defined focusing on the manufacturer. Also, in the hierarchy one level below the smartphone (article classification), two article classifications, iOS (article classification) and Android (article classification), are defined focusing on the OS (however, iOS and Android are both registered trademarks). ). At the next level below the bag (article classification), three article classifications, brand B1 (article classification), brand B2 (article classification), and brand B3 (article classification), are defined, focusing on the brand of the bag. Has been done.
以上の図3の例において、物品分類ツリーの葉ノードに対応する物品分類が「最深分類」に相当する。例えば「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」は独立した1つの「最深分類」であり、「バッグ(物品分類)>ブランドB3(物品分類)」も独立した1つの「最深分類」である。最深分類は、特許請求の範囲の「分類」に相当する。また以上の説明から明らかな通り、「物品分類」は、ある階層において、その上位の階層を2つ以上に分類するときの各々の分類のことを意味する。 In the above example of FIG. 3, the article classification corresponding to the leaf node of the article classification tree corresponds to the "deepest classification". For example, "laptop (article classification)> Windows (article classification)> maker MK1 (article classification)" is one independent "deepest classification", and "bag (article classification)> brand B3 (article classification)" is also independent. It is one of the "deepest classifications". The deepest classification corresponds to the "classification" of the claims. Further, as is clear from the above description, the "article classification" means each classification when the upper hierarchy is classified into two or more in a certain hierarchy.
さて本サービスの利用に際してユーザは、端末2の専用アプリを起動する。専用アプリの起動に応じて、端末2の端末側制御部10とサーバ3の評価部13とが協働して適切にユーザ認証を行い、評価部13は、ユーザを識別するためのユーザ識別情報を認識する。以下、端末2のユーザ(本サービスを利用しようとしているユーザ)を特に「対象ユーザ」といい、対象ユーザが査定の対象とする物品を特に「対象物品」という。
Now, when using this service, the user activates the dedicated application of the
次いで対象ユーザは、専用アプリの機能により提供されるユーザインタフェイスに所定の操作を行って第2層物品分類選択画面G4A(図4(A))を端末2のタッチスクリーン4に表示することを指示する。当該指示に応じて、端末2の端末側制御部10およびサーバ3の評価部13は協働して最深分類認識処理を実行する。以下、最深分類認識処理について詳述する。
Next, the target user performs a predetermined operation on the user interface provided by the function of the dedicated application to display the second layer article classification selection screen G4A (FIG. 4A) on the
最深分類認識処理において端末2の端末側制御部10は、第2層物品分類選択画面G4Aを表示するための描画データをサーバ3に要求する。当該要求は例えばHTTPリクエストとして行われる。当該要求に応じてサーバ3の評価部13は、描画データを生成し、端末2の端末側制御部10に応答する。端末2の端末側制御部10は描画データを受信し、描画データに基づいて第2層物品分類選択画面G4Aをタッチスクリーン4に表示する。
In the deepest classification recognition process, the terminal
以下サーバ3の評価部13による描画データの生成/送信、描画データに基づいて表示された各種画面への入力の検出、各種画面へ入力された情報の取得、各種画面の動的な変更、その他の画面に関する各種処理は、CGI、JavaScript(登録商標)、Ajax、DHTML、その他の既存の技術を用いて適切に実行されるものとし、詳しい説明は行わない。またサーバ3の評価部13が描画データを端末2の端末側制御部10に送信し、描画データに基づく画面を端末2のタッチスクリーン4に表示させることを単に「評価部13が、端末側制御部10に、○○画面をタッチスクリーン4に表示させる」或いは単に「評価部13が○○画面を表示させる」のように表現することがある。
Below, generation / transmission of drawing data by the
図4(A)は第2層物品分類選択画面G4Aの一例である。第2層物品分類選択画面G4Aは、物品分類ツリーにおける第2層の物品分類のそれぞれを示すアイコンが一覧的に表示された画面である。各アイコンはタッチ操作により選択可能である。第2層の物品分類は、本サービスで査定の対象となり得る物品を大まかに分類するものであり、本サービスで査定の対象となり得る物品が何れかの物品分類に属するように十分な種類が用意されている。対象ユーザは、対象物品の物品分類に対応するアイコンをタッチ操作することによって、物品分類を選択する。 FIG. 4A is an example of the second layer article classification selection screen G4A. The second layer article classification selection screen G4A is a screen in which icons indicating each of the second layer article classifications in the article classification tree are displayed in a list. Each icon can be selected by touch operation. The second layer of article classification roughly classifies the articles that can be assessed by this service, and sufficient types are prepared so that the articles that can be assessed by this service belong to any of the article categories. Has been done. The target user selects the article classification by touching the icon corresponding to the article classification of the target article.
第2層物品分類選択画面G4Aで何れかの物品分類が選択されると評価部13は、端末側制御部10に、選択された物品分類の1つ下の階層の物品分類のそれぞれを示すアイコンが表示された画面をタッチスクリーン4に表示させる。対象ユーザは、画面に表示されたアイコンのうち、何れか1つのアイコンをタッチ操作することによって物品分類を選択する。以上のようにして、ある画面において対象ユーザが物品分類を選択すると、選択された物品分類の1つ下の階層の物品分類が一覧表示された画面がタッチスクリーン4に表示され、再び対象ユーザが物品分類を選択すると、選択された物品分類の1つ下の階層の物品分類が一覧表示された画面がタッチスクリーン4に表示される、という処理が対象ユーザにより最深分類が選択されるまで繰り返し実行される。
When any of the article classifications is selected on the second layer article classification selection screen G4A, the
例えば物品分類の階層構造が図3で例示する物品分類ツリーに従っており、対象物品が「OSがiOSであるスマートフォン」であったとする。この場合、図4を参照し、対象ユーザは第2層物品分類選択画面G4A(図4(A))においてスマートフォン(物品分類)を示すアイコンB4Aを選択し、これに応じてOSに係る物品分類を選択するための画面G4B(図4(B))が表示され、対象ユーザはこの画面G4BにおいてiOS(物品分類)を示すアイコンB4Bを選択する。以上により、対象ユーザにより最深分類として「スマートフォン(物品分類)>iOS(物品分類)」が選択される。 For example, it is assumed that the hierarchical structure of the article classification follows the article classification tree exemplified in FIG. 3, and the target article is a “smartphone whose OS is iOS”. In this case, referring to FIG. 4, the target user selects the icon B4A indicating the smartphone (article classification) on the second layer article classification selection screen G4A (FIG. 4A), and the article classification related to the OS is correspondingly selected. The screen G4B (FIG. 4 (B)) for selecting is displayed, and the target user selects the icon B4B indicating iOS (article classification) on this screen G4B. As described above, "smartphone (article classification)> iOS (article classification)" is selected as the deepest classification by the target user.
評価部13は、以上のようにして対象ユーザにより選択された最深分類(対象物品の最深分類)を認識する。以下、対象物品の最深分類を「対象最深分類」という。以上の処理が最深分類認識処理である。
The
最深分類認識処理の後、評価部13および端末側制御部10は協働して、撮影画像データ取得処理を実行する。以下、撮影画像データ取得処理について詳述する。
After the deepest classification recognition process, the
上述の通り本実施形態では、物品分類ツリーに従って最深分類が定義されており、物品は何れかの最深分類に属することになる。そして本実施形態では最深分類ごとに、どのような方法で撮影されて生成された撮影画像データが必要であるかが事前に定められており、これに応じて最深分類ごとに、撮影画像データ取得処理の態様が異なっている。以下、物品を撮影するときの方法を「物品撮影方法」という。後に明らかとなるように撮影画像データは、対象物品の査定額を導出する際に利用されるものである。そして、ある最深分類についての物品撮影方法は、その最深分類に属する物品の査定額を導出する際に利用する撮影画像データとして適切な内容のデータが用意されるようにするという観点の下で定められている。 As described above, in the present embodiment, the deepest classification is defined according to the article classification tree, and the article belongs to any of the deepest classifications. In the present embodiment, it is determined in advance by what method the photographed image data is required for each deepest classification, and the photographed image data is acquired for each deepest classification accordingly. The mode of processing is different. Hereinafter, the method for photographing an article is referred to as an "article photography method". As will become clear later, the photographed image data is used when deriving the assessed amount of the target article. Then, the article photographing method for a certain deepest classification is determined from the viewpoint of preparing data having appropriate contents as photographed image data to be used when deriving the assessed amount of the article belonging to the deepest classification. Has been done.
以下、物品分類ツリーが図3で示すツリーに従っているものとして、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1」の場合、「スマートフォン(物品分類)>iOS(物品分類)」の場合、および、「バッグ(物品分類)>ブランドB1」の場合のそれぞれを例として、撮影画像データ取得処理について説明する。 Hereinafter, assuming that the article classification tree follows the tree shown in FIG. 3, when the target deepest classification is "notebook computer (article classification)> Windows (article classification)> maker MK1", "smartphone (article classification)> iOS (article classification)". The photographed image data acquisition process will be described by taking each of the case of "classification)" and the case of "bag (article classification)> brand B1" as examples.
なお以下の説明において、「型番」とは、物品の型、型式、種類或いは機種を識別する情報を意味する。型番は、メーカ型番や、品番、製品番号、型名、型式、型式番号、形式、形式番号、モデル(Model)、タイプ(Type)、プロダクト(product)等と呼ばれることがある。また「固有番号」とは、物品ごとに一意な情報を意味する。固有番号は、製造番号や、製番、シリアルナンバ、シリアル番号等と呼ばれることがある。当然、型番が同じ物品についても、固有番号は必ず異なる。特にスマートフォンに関し、IMEIは固有番号に相当する。 In the following description, the "model number" means information for identifying the type, model, type or model of the article. The model number may be referred to as a manufacturer's model number, a product number, a product number, a model name, a model, a model number, a model, a model number, a model, a type, a product, or the like. Further, the "unique number" means information unique to each article. The unique number may be called a serial number, a serial number, a serial number, a serial number, or the like. Of course, even if the items have the same model number, the unique numbers will always be different. Especially for smartphones, IMEI corresponds to a unique number.
<対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合>
まず対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合における撮影画像データ取得処理について説明する。この場合、対象物品は、大きな分類としてはノートパソコンに属することになるが、ノートパソコンには一般に以下の特徴がある。
(1)ディスプレイを有し、型番および所定の要素についてのスペックを少なくとも含むシステム関連情報をディスプレイに表示可能である。
(2)同じ型番であっても、スペックが異なる場合がある。
(3)ディスプレイの正面を含む部位に生じた劣化が査定(評価)に影響を与える。
つまりノートパソコンは、ディスプレイを有し、型番および所定の要素についてのスペックを少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、同じ型番であってもスペックが異なる場合があるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の3つの特徴を備える電子機器である。
<When the target deepest classification is "notebook computer (article classification)> Windows (article classification)> manufacturer MK1 (article classification)">
First, the captured image data acquisition process when the target deepest classification is "notebook computer (article classification)> Windows (article classification)> maker MK1 (article classification)" will be described. In this case, the target article belongs to a notebook computer as a major category, but the notebook computer generally has the following characteristics.
(1) Having a display, it is possible to display system-related information including at least specifications for a model number and a predetermined element on the display.
(2) Even if the model number is the same, the specifications may differ.
(3) Deterioration that occurs in the part including the front of the display affects the assessment (evaluation).
That is, a laptop computer has a display and can display system-related information including at least specifications for a model number and a predetermined element on the display, and even if the model number is the same, the specifications may be different. , It is an electronic device having three characteristics that deterioration occurring in a part including the front surface of a display affects the evaluation.
(1)に関し、システム関連情報とは、ハードウェアおよびソフトウェアに関するスペックや、仕様、設定、ステータス、属性等の、電子機器に関する種々の情報である。システム関連情報は、Windows系システムでは、システム情報と呼ばれるものである。一般にスマートフォン、汎用ノートパソコン、汎用タブレット端末、汎用ラップトップ端末および汎用デスクトップ端末は、搭載されたOSに応じた所定の操作を行うことによって、システム関連情報をディスプレイに表示することが可能に構成されている。この他、デジタルウォッチ等の専用機についても、ディスプレイにシステム関連情報を表示可能に構成されたものが存在する。 Regarding (1), the system-related information is various information related to electronic devices such as specifications, specifications, settings, statuses, attributes, etc. related to hardware and software. System-related information is called system information in a Windows system. Generally, smartphones, general-purpose laptop computers, general-purpose tablet terminals, general-purpose laptop terminals, and general-purpose desktop terminals are configured to be able to display system-related information on a display by performing predetermined operations according to the installed OS. ing. In addition, there are also dedicated devices such as digital watches that are configured to be able to display system-related information on the display.
図5は、ノートパソコンに表示可能なシステム関連情報の典型例を示す図である。図5で示すようにノートパソコンに係るシステム関連情報には通常、型番、固有番号、プロセッサ種類および総メモリ数が含まれている。プロセッサ種類および総メモリ数は、特許請求の範囲の「所定の要素についてのスペック」に相当する。なお図5の型番、固有番号、プロセッサ種類および総メモリ数については、同じ意味で他の文言が使用されている場合がある。例えばプロセッサ種類についてはプロセッサ名と表現されている場合があり、総メモリ数については単にメモリと表現されている場合がある。 FIG. 5 is a diagram showing a typical example of system-related information that can be displayed on a notebook computer. As shown in FIG. 5, system-related information relating to a notebook computer usually includes a model number, a unique number, a processor type, and a total number of memories. The processor type and the total number of memories correspond to the "specs for a predetermined element" in the claims. Note that other terms may be used with the same meaning for the model number, unique number, processor type, and total number of memories in FIG. For example, the processor type may be expressed as a processor name, and the total number of memories may be simply expressed as memory.
(2)に関し例えばノートパソコンは、購入時にプロセッサの種類を選べるようになっている場合があり、同じ型番のノートパソコンであってもプロセッサの種類が異なる(=スペックが異なる)ことがある。また例えばノートパソコンは、メモリ(主記憶)を後から増設可能となっている場合があり、同じ型番のノートパソコンであっても総メモリ数(主記憶の容量)が異なる(=スペックが異なる)ことがある。ノートパソコンに関し、スペックの相違は、査定に影響を与える。 Regarding (2), for example, a notebook computer may have a processor type that can be selected at the time of purchase, and even notebook computers of the same model number may have different processor types (= different specifications). Also, for example, in a notebook computer, memory (main memory) may be added later, and even if the notebook computer has the same model number, the total number of memories (main memory capacity) is different (= specifications are different). Sometimes. For laptops, differences in specifications affect the assessment.
(3)に関し、ディスプレイの正面を含む部位は、ノートパソコンに関しては具体的には、ノートパソコンを開いたときに同時に露出するディスプレイおよびキーボードである。ディスプレイの正面を含む部位に生じた劣化に関し、ディスプレイの劣化とは、割れや、傷、汚れ、凹み等である。また、キーボードの劣化とは、部品の欠損や、傷、汚れ、摩耗等である。ディスプレイおよびキーボードの劣化は、ノートパソコンの使い勝手に影響を与えるため、他の部位における劣化と比較して査定により強い影響を与える。 Regarding (3), the portion including the front of the display is, specifically, the display and the keyboard that are exposed at the same time when the notebook computer is opened. Regarding the deterioration that occurs in the portion including the front surface of the display, the deterioration of the display is cracks, scratches, stains, dents, and the like. Deterioration of the keyboard includes missing parts, scratches, dirt, wear, and the like. Deterioration of the display and keyboard affects the usability of the laptop computer, and therefore has a stronger impact on the assessment than deterioration in other parts.
さて対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合、まず評価部13は、サーバ側記憶部14に記憶された物品撮影方法データベースを参照し、対象最深分類に対応する物品撮影方法関連データを取得する。物品撮影方法データベースとは、最深分類ごとに物品撮影方法関連データが登録されたデータベースである。物品撮影方法関連データには、撮影画像データ取得処理において評価部13が端末側制御部10に表示させる各種画面の描画データが含まれている。以下で説明する撮影画像データ取得処理における評価部13の処理は、対象最深分類に対応する物品撮影方法関連データに基づいて実行される。
When the target deepest classification is "notebook computer (article classification)> Windows (article classification)> maker MK1 (article classification)", the
評価部13は、端末側制御部10に、図6(A)の画面G6Aをタッチスクリーン4に表示させる。画面G6Aは、ノートパソコンを開き、システム関連情報をディスプレイに表示させた状態でディスプレイおよびキーボードの全域(ディスプレイの正面を含む部位)が写るように撮影を行うことを指示すると共に、撮影の手順を案内(説明)する画面である。特に画面6Aでは、システム関連情報に含まれる型番、固有番号、プロセッサ種類および総メモリ数がディスプレイに表示された状態となるよう指示される。後に明らかとなるように、査定にあたってこれらの情報が利用されるからである。
The
図6(A)で示すように画面6Aの上部には、ノートパソコンを開き、システム関連情報(図6(A)では「システム情報」と表現)をディスプレイに表示させた状態で、ディスプレイとキーボードとが写るように撮影を行うことを指示する文章が表示されている。また画面G6Aにおいて、当該文章の下方には、開いた状態のノートパソコンを表す画像が表示されている。この画像は、どのような方法で撮影すればよいかを対象ユーザにイメージさせるための画像であり当然、図6(A)で例示する内容に限られない。 As shown in FIG. 6A, a laptop computer is opened at the upper part of the screen 6A, and system-related information (expressed as "system information" in FIG. 6A) is displayed on the display, and the display and keyboard are displayed. A sentence is displayed instructing the photographer to take a picture. Further, on the screen G6A, an image showing an open notebook computer is displayed below the text. This image is an image for allowing the target user to imagine how to take the image, and is not limited to the content illustrated in FIG. 6A.
画面G6Aにおいて、この画像の下方には撮影の手順を説明する説明文が表示されている。図6(A)では省略されているものの、当該説明文には、システム関連情報(特にシステム関連情報に含まれる型番、固有番号、プロセッサ種類および総メモリ数)をディスプレイに表示させた状態でディスプレイおよびキーボードの全域が写るように撮影を行うために対象ユーザが認識し、留意すべき情報が含まれている。例えば当該説明文には、システム関連情報をディスプレイに表示する手順を示す情報が含まれている。当該手順を示す情報には、例えばOSのバージョンごとに手順が異なる場合には、OSのバージョンごとの手順が示される。また当該説明文は、ノートパソコンのOSがWindowsであること、および、ノートパソコンのメーカがMK1であることを反映した内容とされている。 On the screen G6A, an explanatory text explaining the shooting procedure is displayed below this image. Although omitted in FIG. 6A, the description shows system-related information (particularly the model number, unique number, processor type, and total number of memories included in the system-related information) displayed on the display. It also contains information that the target user should be aware of and keep in mind in order to capture the entire area of the keyboard. For example, the description includes information indicating a procedure for displaying system-related information on a display. The information indicating the procedure indicates, for example, the procedure for each OS version when the procedure differs for each OS version. Further, the description reflects that the OS of the notebook computer is Windows and that the manufacturer of the notebook computer is MK1.
画面G6Aは、特許請求の範囲の「対象物品の文字が対象物品の外観と共に撮影されるよう案内する画面」および「システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面」に相当する。すなわち評価部13は、対象ユーザにより対象物品を対象とする撮影が行われる際に、撮影に先立って対象物品の分類を認識し、認識した分類が上述した3つの特徴を備える電子機器が属する分類である場合には、システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を端末2に表示させる。
The screen G6A is a portion of the claims, including the front of the display, in which the characters of the target article are photographed together with the appearance of the object and the system-related information is displayed on the display. It corresponds to "a screen that guides you to be done". That is, the
図6(A)の画面G6Aには撮影の開始を指示するボタンB6Aが表示されており対象ユーザは、撮影の準備が整ったらボタンB6Aを操作する。ボタンB6Aの操作に応じて、端末側制御部10は、端末2のカメラ機能を有効にし、評価部13と協働して、図6(B)で示すように撮影時に対象物品を収めるべき枠線と撮影時の注意事項とが表示された画面G6Bを表示する。対象ユーザは、画面G6Bが表示された状態で撮影を実行し、撮影に応じて撮影画像データが生成される。端末側制御部10は、撮影画像データを評価部13に送信し、評価部13は、撮影画像データを取得する。
A button B6A instructing the start of shooting is displayed on the screen G6A of FIG. 6A, and the target user operates the button B6A when the shooting is ready. In response to the operation of the button B6A, the terminal
以上の通り撮影画像データ取得処理について、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」のときは、システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位(より具体的にはディスプレイ+キーボード)が撮影されるように評価部13により案内される。そして対象ユーザが案内に従って撮影を行った場合は、ディスプレイにシステム関連情報が写った状態のノートパソコン(対象物品)の画像が記録された1つの撮影画像データが生成され、評価部13はこの1つの撮影画像データを取得する。
As described above, regarding the captured image data acquisition process, when the target deepest classification is "notebook computer (article classification)> Windows (article classification)> manufacturer MK1 (article classification)", the system-related information is displayed on the display. , The
以上、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」であるときの撮影画像データ取得処理について説明したが、ノートパソコンと同様の特徴をもつ物品については、同様の方法で撮影画像データ取得処理が実行される。ノートパソコンと同様の特徴を持つかどうかは、最深分類に基づいて判断される。ノートパソコンと同様の特徴をもつ物品は例えば、ラップトップパソコンである。 The shooting image data acquisition process when the target deepest classification is "notebook computer (article classification)> Windows (article classification)> maker MK1 (article classification)" has been described above, but the article has the same characteristics as the notebook computer. The captured image data acquisition process is executed in the same manner. Whether or not it has the same characteristics as a laptop computer is determined based on the deepest classification. An article having the same characteristics as a laptop computer is, for example, a laptop computer.
<対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合>
次に対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合における撮影画像データ取得処理について説明する。この場合、対象物品は、大きな分類としてはスマートフォンに属することになるが、スマートフォンには一般に以下の特徴がある。
(1)前面の広い領域にタッチスクリーン(ディスプレイ)が設けられ、型番およびIMEI(固有番号)を少なくとも含むシステム関連情報をディスプレイに表示可能である。
(2)割賦(分割払い)により端末が購入される場合がある。
(3)筐体の前面のタッチスクリーン(ディスプレイ)に生じた劣化が、査定に影響を与える。
つまりスマートフォンは、前面の広い領域にディスプレイが設けられ、型番および固有番号を少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、割賦により購入される場合があるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の3つの特徴を備えるタブレット端末である。
<When the target deepest classification is "smartphone (article classification)> iOS (article classification)">
Next, the captured image data acquisition process when the target deepest classification is "smartphone (article classification)> iOS (article classification)" will be described. In this case, the target article belongs to the smartphone as a major category, but the smartphone generally has the following characteristics.
(1) A touch screen (display) is provided in a wide area on the front surface, and system-related information including at least a model number and an IMEI (unique number) can be displayed on the display.
(2) The terminal may be purchased by installment payment (installment payment).
(3) Deterioration of the touch screen (display) on the front of the housing affects the assessment.
In other words, smartphones are characterized by having a display in a large area on the front and being able to display system-related information including at least the model number and unique number on the display, the feature that they may be purchased by installment payment, and the front of the display. It is a tablet terminal having three characteristics that the deterioration caused in the portion including the above affects the evaluation.
(1)に関して図7は、スマートフォンに表示可能なシステム関連情報の典型例を示す図である。図7で示すようにスマートフォンに係るシステム関連情報には典型的には、型番(図7ではモデル番号と表現されている)およびIMEI(固有番号)が含まれている。(2)に関し、スマートフォンについて割賦により購入できるようにしたサービスが広く行われており、このサービスを通して端末が割賦により購入される場合がある。(3)に関し、タッチスクリーンの劣化はスマートフォンの使い勝手に影響を与えるため、他の部位における劣化と比較して査定により強い影響を与える。特にスマートフォンに関しては、タッチスクリーンに割れが生じることがあり、一般にタッチスクリーンに割れが生じている場合、スマートフォンの査定額は相当に低くなる。 Regarding (1), FIG. 7 is a diagram showing a typical example of system-related information that can be displayed on a smartphone. As shown in FIG. 7, the system-related information relating to the smartphone typically includes a model number (expressed as a model number in FIG. 7) and an IMEI (unique number). Regarding (2), a service that allows smartphones to be purchased by installment payment is widely used, and terminals may be purchased by installment payment through this service. Regarding (3), since the deterioration of the touch screen affects the usability of the smartphone, it has a stronger influence on the assessment than the deterioration in other parts. Especially for smartphones, the touch screen may crack, and in general, if the touch screen is cracked, the assessed amount of the smartphone will be considerably low.
さて対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合、評価部13は、物品撮影方法データベースから対象最深分類に対応する物品撮影方法関連データを取得し、取得した物品撮影方法関連データに基づいて以下の処理を実行する。すなわち評価部13は、端末側制御部10に、図6(A)の画面G6Aに代えて図8の画面G8をタッチスクリーン4に表示させる。画面G8は、システム関連情報をタッチスクリーンに表示させた状態で筐体の前面の全域が写るように撮影を行うことを指示すると共に、撮影の手順を案内(説明)する画面である。特に画面G8では、システム関連情報に含まれる型番およびIMEI(固有番号)がタッチスクリーンに表示された状態となるよう指示される。後に明らかとなるように、査定にあたってこれらの情報が利用されるからである。
When the target deepest classification is "smartphone (article classification)> iOS (article classification)", the
図8で示すように画面G8の上部には、システム関連情報(図8では「システム情報」と表現)をタッチスクリーンに表示させた状態で、筐体の前面の全域が写るように撮影を行うことを指示する文章が表示されている。また画面G8において、当該文章の下方には、スマートフォンを正面から見た様子を表す画像が表示されている。この画像は、どのような方法で撮影すればよいかを対象ユーザにイメージさせるための画像であり当然、図8で例示する内容に限られない。 As shown in FIG. 8, the system-related information (expressed as “system information” in FIG. 8) is displayed on the touch screen at the upper part of the screen G8, and the entire front surface of the housing is photographed so as to be captured. A sentence instructing that is displayed. Further, on the screen G8, an image showing a state in which the smartphone is viewed from the front is displayed below the text. This image is an image for making the target user imagine what kind of method should be taken, and is not limited to the content illustrated in FIG. 8 as a matter of course.
画面G8において、この画像の下方には撮影の手順を説明する説明文が表示されている。図8では省略されているものの、当該説明文には、システム関連情報(特に型番およびIMEI)をタッチスクリーンに表示させた状態で筐体の前面の全域が写るように撮影を行うために対象ユーザが認識し、留意すべき情報が含まれている。例えば当該説明文には、システム関連情報をタッチスクリーンに表示する手順を示す情報が含まれている。当該手順を示す情報には、例えばOSのバージョンごとに手順が異なる場合には、OSのバージョンごとの手順が示される。また当該説明文は、スマートフォンのOSがiOSであることを反映した内容とされている。 On the screen G8, an explanatory text explaining the shooting procedure is displayed below this image. Although omitted in FIG. 8, the description includes the target user in order to capture the entire front surface of the housing with the system-related information (particularly the model number and IMEI) displayed on the touch screen. Contains information that should be recognized and noted. For example, the description contains information indicating a procedure for displaying system-related information on a touch screen. The information indicating the procedure indicates, for example, the procedure for each OS version when the procedure differs for each OS version. In addition, the description reflects that the OS of the smartphone is iOS.
画面G8は、特許請求の範囲の「対象物品の文字が対象物品の外観と共に撮影されるよう案内する画面」および「システム関連情報がディスプレイに表示された状態で、筐体が正面から撮影されるよう案内する画面」に相当する。すなわち評価部13は、対象ユーザにより対象物品を対象とする撮影が行われる際に、撮影に先立って対象物品の分類を認識し、認識した分類が上述した3つの特徴を備えるタブレット端末が属する分類である場合には、システム関連情報がディスプレイに表示された状態で、筐体が正面から撮影されるよう案内する画面を端末2に表示させる。
The screen G8 is a front view of the housing with the claims "a screen that guides the characters of the target article to be photographed together with the appearance of the target article" and "a system-related information is displayed on the display". It corresponds to the "screen that guides you". That is, the
画面G8のボタンB8が操作されると、図6(B)に相当する画面が表示され、対象ユーザにより撮影が行われる。撮影に応じて撮影画像データが生成され、端末側制御部10から評価部13に撮影画像データが送信され、評価部13は、撮影画像データを取得する。
When the button B8 on the screen G8 is operated, the screen corresponding to FIG. 6B is displayed, and the target user takes a picture. The captured image data is generated according to the shooting, the captured image data is transmitted from the terminal
以上の通り、撮影画像データ取得処理において、対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」のときは、システム関連情報がタッチスクリーンに表示された状態で、筐体が正面から撮影されるよう案内される。そして対象ユーザが指示に従って撮影を行った場合は、タッチスクリーンにシステム関連情報が写った状態のスマートフォン(対象物品)の画像が記録された1枚の撮影画像データが生成され、評価部13はこれを取得する。
As described above, in the captured image data acquisition process, when the target deepest classification is "smartphone (article classification)> iOS (article classification)", the system-related information is displayed on the touch screen and the housing is viewed from the front. You will be guided to be photographed. Then, when the target user takes a picture according to the instruction, one shot image data in which the image of the smartphone (target article) in which the system-related information is reflected on the touch screen is generated, and the
以上、対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」であるときの撮影画像データ取得処理について説明したが、スマートフォンと同様の特徴をもつ物品については、同様の方法で撮影画像データ取得処理が実行される。スマートフォンと同様の特徴をもつ物品は例えば、スマートフォンを除くタブレット端末(ただし、割賦により購入できるもの)である。 The captured image data acquisition process when the target deepest classification is "smartphone (article classification)> iOS (article classification)" has been described above, but for articles with the same characteristics as smartphones, captured images are captured by the same method. Data acquisition process is executed. Goods having the same characteristics as smartphones are, for example, tablet terminals excluding smartphones (however, those that can be purchased by installment payment).
<対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合>
次に対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合における撮影画像データ取得処理について説明する。この場合、対象物品は、大きな分類としてはバッグに属することになるが、バッグには一般に以下の特徴がある。
(1)物品に文字としての型番が記録されていない場合がある一方、型番を物品の外観から判定可能である。
(2)偽物である場合があり、査定にあたって物品が本物であるかどうかが重要である。
つまりバッグは、物品に文字としての型番が記録されていない場合がある一方、型番を物品の外観から判定可能であるという特徴、および、偽物である場合があり、評価にあたって物品が本物であるかどうかが重要であるという特徴の2つの特徴を備える物品である。
<When the target deepest classification is "bag (article classification)> brand B1 (article classification)">
Next, the captured image data acquisition process when the target deepest classification is "bag (article classification)> brand B1 (article classification)" will be described. In this case, the target article belongs to the bag as a major category, but the bag generally has the following characteristics.
(1) While the model number as characters may not be recorded on the article, the model number can be determined from the appearance of the article.
(2) It may be fake, and it is important whether the article is genuine or not in the assessment.
In other words, the bag may not have the model number as characters recorded on the article, but the model number can be determined from the appearance of the article, and it may be fake, so whether the article is genuine or not for evaluation. It is an article that has two characteristics: what is important.
(1)に関しバッグには、刻印、印刷、その他の手段で型番が記録されることもあるが、型番が記録されない場合もある。特にブランドによっては、そのブランドが提供するバッグに統一的に型番を記録しないようにしているケースがある。一方、バッグについては一般に、バッグを正面から見たときの外観的な特徴によって型番を判別することができる。(2)に関しバッグに関しては、偽物であるケースがあり、査定に際しては真贋を見極めることが重要であり、通常、査定にあたっては真贋判定が行われる。一般に真贋判定は、バッグに表された真贋判定対象を利用して行われる。真贋判定対象は例えば、物品に記録されたロゴや、模様、マーク、特徴的な平面的或いは立体的な形状等である。物品の部分ではなく物品全体(例えば、物品全体の3次元的な形状)が真贋判定対象となる場合もある。 Regarding (1), the model number may be recorded on the bag by engraving, printing, or other means, but the model number may not be recorded. In particular, depending on the brand, there are cases where the model number is not recorded uniformly on the bags provided by that brand. On the other hand, with respect to a bag, the model number can generally be determined by the appearance characteristics when the bag is viewed from the front. Regarding (2), there are cases where the bag is fake, and it is important to determine the authenticity at the time of assessment. Normally, the authenticity is judged at the time of assessment. In general, the authenticity determination is performed by using the authenticity determination target displayed on the bag. The authenticity determination target is, for example, a logo recorded on an article, a pattern, a mark, a characteristic planar or three-dimensional shape, or the like. In some cases, the entire article (for example, the three-dimensional shape of the entire article) is subject to authenticity determination instead of the portion of the article.
さて対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合、評価部13は、物品撮影方法データベースから対象最深分類に対応する物品撮影方法関連データを取得し、取得した物品撮影方法関連データに基づいて以下の処理を実行する。すなわち評価部13は、端末側制御部10に、図6(A)の画面G6Aに代えて図9の画面G9をタッチスクリーン4に表示させる。画面G9は、バッグの正面の全域が写るように撮影を行うことを指示すると共に、撮影の手順を案内(説明)する画面である。バッグの正面の全域が写るように対象ユーザに撮影を行わせる理由は、バッグを正面から撮影したときの外観がバッグの型番を特定するのに最も有効利用でき、また、バッグを正面から撮影したときに写る、バッグに関する要素がバッグの真贋判定に最も有効利用できるからである。
When the target deepest classification is "bag (article classification)> brand B1 (article classification)", the
図9で示すように画面G9の上部には、バッグの正面の全域が写るように撮影を行うことを指示する文章が表示されている。また画面G9において、当該文章の下方には、バッグを正面から見た様子を表す画像が表示されている。この画像は、どのような方法で撮影すればよいかをユーザにイメージさせるための画像であり当然、図9で例示する内容に限られない。 As shown in FIG. 9, at the upper part of the screen G9, a sentence instructing to take a picture so that the entire front surface of the bag is captured is displayed. Further, on the screen G9, an image showing the appearance of the bag as viewed from the front is displayed below the text. This image is an image for the user to imagine what kind of method should be taken, and is not limited to the content illustrated in FIG. 9 as a matter of course.
画面G9において、この画像の下方には撮影の手順を説明する説明文が表示されている。図9では省略されているものの、当該説明文には、バッグの正面の全域が写るように撮影を行うためにユーザが認識し、留意すべき情報が含まれている。また当該説明文は、バッグのブランドがブランドB1であることを反映した内容とされている。 On the screen G9, an explanatory text explaining the shooting procedure is displayed below this image. Although omitted in FIG. 9, the description contains information that the user should be aware of and should be aware of in order to capture the entire front surface of the bag. In addition, the description reflects that the brand of the bag is brand B1.
画面G9は、特許請求の範囲の「生成される撮影画像データが型番の認識に利用可能なデータとなるように対象物品の外観が撮影されるよう案内する画面」、「生成される撮影画像データが対象物品の真贋の判定に利用可能なデータとなるように対象物品の外観が撮影されるよう案内する画面」および「生成される撮影画像データが型番の認識に利用可能かつ真贋の判定に利用可能なデータとなるように対象物品の外観が撮影されるよう案内する画面」に相当する。すなわち評価部13は、対象ユーザにより対象物品を対象とする撮影が行われる際に、撮影に先立って対象物品の分類を認識し、認識した分類が2つの特徴を備える物品が属する分類である場合には、生成される撮影画像データが型番の認識に利用可能かつ真贋の判定に利用可能なデータとなるように対象物品の外観が撮影されるよう案内する画面を端末2に表示させる。
The screen G9 is a "screen that guides the appearance of the target article to be photographed so that the generated photographed image data can be used for recognizing the model number" and "generated photographed image data" in the scope of the patent claim. "Screen that guides the appearance of the target article to be photographed so that the data can be used to determine the authenticity of the target article" and "The generated photographed image data can be used to recognize the model number and is used to determine the authenticity. It corresponds to "a screen that guides the appearance of the target article to be photographed so that the data becomes possible". That is, when the target user takes a picture of the target article, the
画面G9のボタンB9が操作されると、図6(B)に相当する画面が表示され、ユーザにより撮影が行われる。撮影に応じて撮影画像データが生成され、端末側制御部10から評価部13に撮影画像データが送信され、評価部13は、撮影画像データを取得する。
When the button B9 on the screen G9 is operated, the screen corresponding to FIG. 6B is displayed, and the user takes a picture. The captured image data is generated according to the shooting, the captured image data is transmitted from the terminal
以上の通り撮影画像データ取得処理において、対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」のときは、バッグの正面の全域が撮影されるように評価部13により案内される。そして、対象ユーザが指示に従って撮影を行った場合は、バッグの正面の画像が記録された1枚の撮影画像データが生成され、評価部13はこれを取得する。以上、対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」であるときの撮影画像データ取得処理について説明したが、バッグと同様の特徴をもつ物品については、同様の方法で撮影画像データ取得処理が実行される。バッグと同様の特徴をもつ物品は例えば、靴、その他のバッグ以外のブランド品である。
As described above, in the captured image data acquisition process, when the target deepest classification is "bag (article classification)> brand B1 (article classification)", the
以上が評価部13および端末側制御部10により実行される撮影画像データ取得処理である。以上の通り、撮影画像データ取得処理の結果、対象最深分類に応じた物品撮影方法が案内されると共に、(理想的には)対象最深分類に応じた方法で対象物品の撮影が行われて撮影画像データが生成され、評価部13は、生成された撮影画像データを取得する。
The above is the captured image data acquisition process executed by the
撮影画像データ取得処理の後、評価部13は、査定処理を実行する。以下、査定処理について詳述する。査定処理に関し評価部13は、対象最深分類に応じた査定処理を実行する。これを踏まえ、以下、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合と、対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合と、対象最深分類が「バッグ(物品分類)>ブランドB1」の場合とに分けて評価部13の処理について説明する。
After the captured image data acquisition process, the
<対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合>
まず対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」である場合の評価部13の処理について説明する。上述の通り、この場合、評価部13は、ディスプレイにシステム関連情報が表示された状態でディスプレイおよびキーボードの全域が撮影されて生成された撮影画像データを取得している。
<When the target deepest classification is "notebook computer (article classification)> Windows (article classification)> manufacturer MK1 (article classification)">
First, the processing of the
まず評価部13は、期待画像判定処理を実行する。期待画像判定処理とは、評価部13が取得した撮影画像データについて、その内容が後続の撮影画像データを利用して行われる処理を正常に行うために適切な内容となっているか否かを判別する処理である。例えば評価部13は、期待された態様で対象物品が撮影されていない場合(例えば、期待されている視点で対象物品が撮影されていない場合や、対象物品の画像が異常に小さい場合)に撮影画像データの内容が適切でないと判定する。また例えば評価部13は、後続する処理が正常に実行できない程度に撮影画像データの画像がブレている場合に撮影画像データの内容が適切でないと判定する。
First, the
期待画像判定処理は例えば、最深分類の種類ごとに用意された以下のモデルを利用して行われる。モデルは、撮影画像データを入力し、入力した撮影画像データを対象として各種画像処理を行い、入力した撮影画像データの内容が正常内容かどうかを示す値(正常内容である可能性を示す値でもよい)を出力するものである。モデルには既存の全ての画像処理技術を応用可能であり、また、モデルは所定の機械学習手法(例えばディープラーニング)で学習されたものであってもよい。 The expected image determination process is performed using, for example, the following model prepared for each type of deepest classification. The model inputs the captured image data, performs various image processing on the input captured image data, and indicates whether the content of the input captured image data is normal (even a value indicating the possibility of normal content). Good) is output. All existing image processing techniques can be applied to the model, and the model may be learned by a predetermined machine learning method (for example, deep learning).
撮影画像データの内容が適切でないと判定した場合、評価部13は、対応する処理を実行する。例えば評価部13は対応する処理として、端末側制御部10に、対象物品の撮影をやり直すことを促す画面をタッチスクリーン4に表示させる。
When it is determined that the content of the captured image data is not appropriate, the
一方、撮影画像データの内容が適切であると判定した場合、評価部13は、文字認識処理を実行する。文字認識処理とは、対象物品の画像に含まれる文字の画像(本例ではシステム関連情報の画像)を対象として文字認識する処理である。文字認識処理において評価部13は、撮影画像データを画像処理により分析し、撮影画像データに記録された画像から、対象物品の画像を特定する。次いで評価部13は、撮影画像データを画像処理により分析し、対象物品の画像から、システム関連情報の画像(撮影画像データに記録された対象物品の画像に含まれる文字の画像)を特定する。次いで評価部13は、システム関連情報の画像を光学文字認識処理により分析し、システム関連情報の画像が示す文字群を文字認識する。
On the other hand, when it is determined that the content of the captured image data is appropriate, the
次いで評価部13は、型番認識処理を実行する。型番認識処理は、システム関連情報の画像を対象として文字認識することによって型番を認識する処理である。型番認識処理において評価部13は、文字認識処理の結果に基づいて、システム関連情報の画像が示す文字群の中から、型番を示す文字列を特定し、型番を認識する。例えば通常、システム関連情報では、項目名と項目値との組み合わせが一覧的に並べて配置される。これを踏まえ評価部13は、システム関連情報の画像が示す文字群の中から、型番の項目名として利用される文字列(例えばシステムモデルや、モデル、機種等)を特定し、特定した文字列と対応付けられている項目値を型番として認識する。例えば文字列の特定は、テキストデータをキーとする文字列検索により行われる。
Next, the
次いで評価部13は、固有番号認識処理を実行する。固有番号認識処理は、システム関連情報の画像を対象として文字認識することによって型番を認識する処理である。固有番号認識処理において評価部13は、文字認識処理の結果に基づいて、システム関連情報の画像が示す文字群の中から、固有番号を示す文字列を特定し、固有番号を認識する。例えば評価部13は、システム関連情報の画像が示す文字群の中から、固有番号の項目名として利用される文字列(例えばシリアル番号や、シリアルナンバ)を特定し、特定した文字列と対応付けられている項目値を固有番号として認識する。
Next, the
次いで評価部13は、スペック認識処理を実行する。スペック認識処理は、システム関連情報の画像を対象として文字認識することによって所定の要素(本例ではプロセッサ種類および総メモリ数)についてのスペックを認識する処理である。スペック認識処理において評価部13は、文字認識処理の結果に基づいて、システム関連情報の画像が示す文字群の中から、プロセッサ種類および総メモリ数を示す文字列を特定し、これらを認識する。例えば評価部13は、システム関連情報の画像が示す文字群の中から、プロセッサ種類および総メモリ数の項目名として利用される文字列を特定し、特定した各文字列と対応付けられている各項目値をプロセッサ種類および総メモリ数として認識する。
Next, the
次いで評価部13は、状態認識処理を実行する。状態認識処理とは、撮影画像データに記録された対象物品の画像を画像分析して対象物品の外観に関する状態を認識する処理であり、より具体的には撮影画像データに記録された対象物品の画像を画像分析して対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理である。特に本実施形態では評価部13は、撮影画像データに基づいて対象物品の物品状態レベルを導出する(つまり、物品状態レベルを導出することが対象物品の外観に関する状態を認識することに相当する)。物品状態レベルとは、傷や、汚れ、凹み、摩耗、部品の欠損等の劣化に関連する要素の状況を考慮して、物品の外観に関する状態がどの程度、新品に近い状態か(どの程度、劣化が小さいか)を示すレベルのことである。本実施形態では物品状態レベルの値として、最も新品に近い状態(最も劣化が小さい状態)であることを示すレベルL5から、最も新品から遠い状態(最も劣化が大きい状態)であることを示すレベルL1までの5つの値が用意されている。
Next, the
特に本例では対象物品はノートパソコンであり、撮影画像データには、ノートパソコンのディスプレイの正面およびキーボードの画像が記録されている。評価部13は、ディスプレイおよびキーボードについて傷(ディスプレイの割れを含む)や、汚れ、凹み、摩耗、部品の欠損等の劣化に関連する要素の状況を反映して物品状態レベルを導出する。なお評価部13は、既存の画像処理により物品状態レベルを導出する。物品状態レベルの実行に必要なデータは事前に用意される。必要なデータは例えば、物品の型番に対応するテンプレートデータを用いたパターンマッチングが実行される場合において、型番ごとのテンプレートデータであり、また例えば型番に応じた背景差分法に基づく画像処理が実行される場合において、型番ごとの背景画像データである。また状態認識処理の少なくとも一部の処理が機械学習されたモデルを使用して行われる構成でもよい。
In particular, in this example, the target article is a notebook computer, and the photographed image data includes images of the front of the display of the notebook computer and the keyboard. The
次いで評価部13は、不正可能性調査処理を実行する。不正可能性調査処理とは、個別番号を利用して本サービスの不正利用の可能性を調査する処理である。不正可能性調査処理において評価部13は、利用履歴データベースを参照する。利用履歴データベースとは、本サービスの利用履歴(対象ユーザの利用履歴に限られない)を管理するデータベースであり、各レコードは少なくとも、本サービスを利用したユーザのユーザ識別情報と、査定の対象となった物品の固有番号とを含んでいる。つまり利用履歴データベースでは、過去に本サービスを利用したケースごとに、ユーザ識別情報と、固有番号とが対応付けて管理されている。利用履歴データベースは、特許請求の範囲の「物品の固有番号と少なくとも過去の一時点においてその物品を所有していたユーザのユーザ識別情報とを対応付けて管理するデータ」および「過去に評価した物品について、物品の固有番号と、評価を行ったときに物品を所有していたユーザのユーザ識別情報とを対応付けて管理するデータ」に相当する。
Next, the
不正可能性調査処理において利用履歴データベースを参照した後、評価部13は、利用履歴データベースに、対象物品の固有番号と同一の固有番号を有するレコードが存在するか否かを判別する。このようなレコードは1つも存在しない場合もあれば、1つ以上、存在する場合もある。利用履歴データベースにこのようなレコードが存在するということは、過去に対象物品を対象として本サービスが利用されたということである。利用履歴データベースにこのようなレコードが1つも存在しない場合、評価部13は、不正可能性調査処理を終了し、続く査定額導出処理を実行する。
After referring to the usage history database in the fraud possibility investigation process, the
一方、利用履歴データベースにこのようなレコードが1つ以上存在する場合、評価部13は、対象ユーザのユーザ識別情報と、各レコードが有するユーザ識別情報とが一致しているか否かを判別する。あるレコードが有するユーザ識別情報と、対象ユーザのユーザ識別情報とが異なる場合、過去に対象ユーザと異なるユーザが、対象物品を査定の対象として本サービスを利用したということであり、対象ユーザが、他人が所有する物品を対象として本サービスを利用しようとしている可能性がある。
On the other hand, when one or more such records exist in the usage history database, the
なお評価部13は、利用履歴データベースに、対象物品の固有番号と同一の固有番号を有するレコードが複数、存在する場合には、1つでも対象ユーザのユーザ識別情報と異なる値のユーザ識別情報を含むレコードがある場合には、対象ユーザのユーザ識別情報と、各レコードが有するユーザ識別情報とが一致していないと判定する。ただし直近で生成されたレコードに含まれるユーザ識別情報の値と、対象ユーザのユーザ識別情報の値とが異なる場合に、評価部13が対象ユーザのユーザ識別情報と、各レコードが有するユーザ識別情報とが一致していないと判定する構成でもよい。
If there are a plurality of records having the same unique number as the unique number of the target article in the usage history database, the
対象ユーザのユーザ識別情報と、各レコードが有するユーザ識別情報とが一致していない場合、評価部13は、対応する処理を実行する。例えば評価部13は、対応する処理としてオペレータに通知する処理を実行する。また例えば評価部13は、端末側制御部10を制御して、同一の物品について過去に対象ユーザ以外の者が本サービスを利用したことを通知し、対象物品が対象ユーザの所有物であるかどうかの確認をとる。ただし、例示した処理はあくまで一例であり、評価部13が他の処理を実行しても当然よい。
When the user identification information of the target user and the user identification information of each record do not match, the
なお本実施形態では、利用履歴データベースは、本サービスの利用履歴を管理するデータベースであったが、本サービス以外の類似するサービスの利用履歴も併せて管理するデータベースであってもよい。また、利用履歴データベースはサーバ3に記憶されている構成であったが、利用履歴データベースがサーバ3以外の装置に記憶されている構成でもよい。
In the present embodiment, the usage history database is a database that manages the usage history of this service, but it may also be a database that also manages the usage history of similar services other than this service. Further, although the usage history database is stored in the
次いで評価部13は、査定額導出処理を実行する。査定額導出処理とは、査定額を導出する処理である。査定額導出処理において評価部13は、対象最深分類(本例では「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」)に対応する査定額テーブルを参照する。対象最深分類に査定額テーブルは、型番がとり得る値と、物品状態レベルがとり得る値(本実施形態では、レベルL1~レベルL5)と、プロセッサ種類がとり得る値と、総メモリ数がとり得る値との組み合わせごとに参考査定額が対応付けられたテーブルである。
Next, the
以下、型番と物品状態レベルとプロセッサ名と総メモリ数との組合せを「評価用組合せ」という。査定額テーブルにおいて、ある評価用組み合わせと対応付けられた参考査定額の値は、その評価用組み合わせの各要素の値を反映した値とされる。参考査定額は基本的には、型番によって基準となる金額が定まり、この基準となる金額について、物品状態レベルが小さいほど(=対象物品の劣化が大きいほど)低く、プロセッサの性能が低いほど低く、総メモリ数が小さいほど低くなるように調整されることによって設定される。当然、基準となる金額について物品状態レベルが大きいほど(=対象物品の劣化が小さいほど)高く、プロセッサの性能が高いほど高く、総メモリ数が大きいほど高くなるように調整されてもよい。 Hereinafter, the combination of the model number, the article state level, the processor name, and the total number of memories is referred to as an "evaluation combination". In the valuation amount table, the value of the reference valuation amount associated with a certain valuation combination is a value that reflects the value of each element of the valuation combination. The reference assessment amount is basically determined by the model number, and the standard amount is lower as the article condition level is smaller (= the greater the deterioration of the target article) and lower as the processor performance is lower. , It is set by adjusting so that the smaller the total number of memories is, the lower it is. As a matter of course, the reference amount may be adjusted so that the larger the article state level (= the smaller the deterioration of the target article), the higher the processor performance, and the larger the total number of memories, the higher the value.
評価部13は、査定額テーブルにおいて、対象物品についての評価用組合せと対応付けられた参考査定額を取得し、これを査定額とする。
The
以上が、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合に評価部13が実行する査定処理である。なお査定処理における処理の順番は、本実施形態で例示した順番に限られない。以上の説明の通り本実施形態によれば、対象物品の外観に関する状態に加えて、システム関連情報の画像(文字の画像)を対象とする文字認識により認識された文字(型番、固有番号、スペック)が反映されて査定(物品の評価)が行われるため、複数の異なる観点で対象物品を査定できる。特に本実施形態では、スペックが査定額に影響を与える(評価に影響を与える)という点を鑑み、スペックが反映されて評価部13により対象物品の査定がなされるため、その点で、より的確に対象物品を査定できる。
The above is the assessment process executed by the
その際に対象物品の外観に関する状態の認識と、文字認識による文字(型番、スペック、固有番号)の認識とは、共通する撮影画像データに基づいて行われる。従って対象ユーザは、対象物品の評価にあたって対象物品を撮影すればよく、例えば所定のユーザインタフェイスにおいて型番、固有番号、スペックを入力したり、型番、固有番号、スペックを選択したりする作業を行う必要がない。特に本実施形態では、対象物品の外観に関する状態の認識と、文字認識による文字(型番、スペック、固有番号)の認識とが共通する撮影画像データに基づいて評価部13により行われる。このためユーザは、対象物品(ノートパソコン)の外観に関する状態の認識に利用する撮影画像データを生成するための撮影と、型番や、固有番号、スペックの認識に利用する撮影画像データを生成するための撮影とを分けて行う必要がなく、その点でもユーザの作業が少ない。すなわち本実施形態によれば、ユーザの作業を減らしつつ、複数の異なる観点で物品を評価できる。
At that time, the recognition of the state regarding the appearance of the target article and the recognition of the characters (model number, specifications, unique number) by the character recognition are performed based on the common photographed image data. Therefore, the target user may take a picture of the target article when evaluating the target article, for example, inputting a model number, a unique number, and a spec in a predetermined user interface, and selecting a model number, a unique number, and a spec. There is no need. In particular, in the present embodiment, the
<対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合>
次に対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」である場合の評価部13の処理について説明する。上述の通り、この場合、評価部13は、タッチスクリーンにシステム関連情報が表示された状態で筐体が正面から撮影されて生成された撮影画像データを取得している。
<When the target deepest classification is "smartphone (article classification)> iOS (article classification)">
Next, the processing of the
評価部13は、期待画像判定処理、文字認識処理、型番認識処理、固有番号認識処理、状態認識処理および不正可能性調査処理を順次、実行する。これらの処理は<対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合と同様の方法で行われる。特に固有番号取得処理では評価部13は固有番号としてIMEIを取得する。また状態認識処理に関し、本例では対象物品はスマートフォンであり、撮影画像データには、タッチスクリーンの全域を含む筐体の正面の画像が記録されている。評価部13は、筐体の正面について傷(タッチスクリーンの割れを含む)や、汚れ、凹み、摩耗、部品の欠損等の劣化に関連する要素の状況を反映して物品状態レベルを導出する。
The
本例において型番取得処理は、「システム関連情報の画像を対象として文字認識することによって型番を認識する処理」である。また固有番号認識処理は、「システム関連情報の画像を対象として文字認識することによって固有番号を認識する処理」である。また状態認識処理は、「撮影画像データに記録された対象物品の画像を画像分析して対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理」である。 In this example, the model number acquisition process is "a process of recognizing a model number by recognizing characters for an image of system-related information". Further, the unique number recognition process is "a process of recognizing a unique number by recognizing characters for an image of system-related information". Further, the state recognition process is "a process of image analysis of the image of the target article recorded in the captured image data to recognize the state regarding the appearance of the portion including the front surface of the display of the target article".
不正可能性調査処理の後、評価部13は、支払状況認識処理を実行する。支払状況認識処理は「認識した固有番号を用いた問い合わせを行って、対象物品についての支払状況を認識する処理」である。以下、支払状況確認処理について詳述する。以下の説明において、固有番号取得処理において取得したIMEI(固有番号)を特に「対象IMEI」という。
After the fraud possibility investigation process, the
支払状況認識処理において評価部13は、ネットワークNに接続された支払状況管理サーバに、対象IMEIについての支払状況の問い合わせを行う。問い合わせは、対象IMEIを含む所定フォーマットのデータ(例えば、対象IMEIをクエリに含むリクエストデータ)が送信されることにより行われる。本実施形態において「支払状況」とは、対象物品(本例では、スマートフォン)が割賦により購入されたかどうか、割賦により購入されている場合には現時点で支払い中かどうか、および、現時点で支払い中か否かにかかわらず過去に支払に遅延がなかったかどうかを意味する。支払状況管理サーバは、データベースでIMEIと共に支払状況を管理するサーバ装置であり、あるIMEIについての支払状況の問い合わせに応じて、そのIMEIについての支払状況を示す支払状況情報を応答する機能を有している。
In the payment status recognition process, the
評価部13は、対象IMEIについての支払状況の問い合わせ後、支払状況管理サーバから対象IMEIについての支払状況情報を取得し、支払状況を認識する。つまり評価部13は、対象物品としてのスマートフォンが割賦により購入されたかどうか、割賦により購入されている場合には現時点で支払い中かどうか、および、現時点で支払い中か否かにかかわらず過去に支払に遅延がなかったかどうかを認識する。
After inquiring about the payment status of the target IMEI, the
次に評価部13は、査定額導出処理を実行する。本例において評価部13は、対象最深分類に対応する査定額テーブルを参照する。対象最深分類に対応する査定額テーブルは、型番がとり得る値と、物品状態レベルがとり得る値との組み合わせごとに参考査定額が対応付けられたテーブルである。評価部13は、査定額テーブルにおいて対象物品についての型番と物品状態レベルとの組合せに対応する参考査定額を取得する。次いで評価部13は、取得した参考査定額を、対象物品についての支払状況に基づいて調整し、調整後の額を最終的な査定額とする。調整は、対象物品(本例では、スマートフォン)が割賦により購入されており、現時点で支払い中の場合には査定額が低くなるように、また、過去に支払に遅延があった場合には、査定額が低くなるように行われる。これは、リース料の支払いの遅延の可能性を考慮したものである。ただし、調整の方法は本実施形態で例示するものに限られず、例えば過去の支払の遅延のみを考慮して調整する構成でもよい。
Next, the
以上が、対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合に評価部13が実行する査定処理である。なお査定処理における処理の順番は、本実施形態で例示した順番に限られない。以上の説明の通り本実施形態によれば、対象物品の外観に関する状態に加えて、システム関連情報の画像(文字の画像)を対象とする文字認識により認識された文字(型番、IMEI)が反映されて査定(物品の評価)が行われるため、複数の異なる観点で対象物品を査定できる。特に本実施形態では、対象物品が割賦により購入された可能性があるという点を鑑み、支払状況が反映されて評価部13により対象物品の査定がなされるため、その点で、より的確に対象物品を査定できる。
The above is the assessment process executed by the
その際に対象物品の外観に関する状態の認識と、文字認識による文字(型番、固有番号)の認識とは、共通する撮影画像データに基づいて行われる。従って対象ユーザは、対象物品の評価にあたって対象物品を撮影すればよく、例えば所定のユーザインタフェイスにおいて型番やIMEIを入力したり、型番やIMEIを選択したりする作業を行う必要がない。特に本実施形態では、対象物品の外観に関する状態の認識と、文字認識による文字(型番、IMEI)の認識とが共通する撮影画像データに基づいて評価部13により行われる。このためユーザは、対象物品(スマートフォン)の外観に関する状態の認識に利用する撮影画像データを生成するための撮影と、型番や固有番号の認識に利用する撮影画像データを生成するための撮影とを分けて行う必要がなく、その点でもユーザの作業が少ない。すなわち本実施形態によれば、ユーザの作業を減らしつつ、複数の異なる観点で物品を評価できる。
At that time, the recognition of the state regarding the appearance of the target article and the recognition of the characters (model number, unique number) by the character recognition are performed based on the common photographed image data. Therefore, the target user may take a picture of the target article when evaluating the target article, and does not need to input a model number or IMEI or select a model number or IMEI in a predetermined user interface, for example. In particular, in the present embodiment, the
<対象最深分類が「バッグ(物品分類)>ブランドB1」の場合>
次に対象最深分類が「バッグ(物品分類)>ブランドB1」である場合の評価部13の処理について説明する。上述の通り、この場合、評価部13は、バッグの正面の全域が撮影されて生成された撮影画像データを取得している。
<When the target deepest classification is "bag (article classification)> brand B1">
Next, the processing of the
まず評価部13は、期待画像判定処理を実行する。次いで評価部13は、型番認識用画像分析処理を実行する。型番認識用画像分析処理は、「対象物品の画像を画像分析して対象物品の型番を認識する処理」に相当する。ここでの画像分析は、「文字の画像を対象とする文字認識」以外の画像処理を意味する。以下、型番認識用画像分析処理の一例について説明する。
First, the
まず評価部13は、対象最深分類(対象物品の最深分類)に基づいて、対象物品がバッグであること、および、バッグのブランドを認識する。サーバ側記憶部14には、バッグのブランドのそれぞれについて、型番ごとのテンプレートデータ(バッグを正面から見た様子を示す画像と比較対象となるテンプレートデータ)が登録されたデータベースが記憶されている。評価部13は、撮影画像データを対象として、対象物品のブランドに対応するテンプレートデータのそれぞれを用いたテンプレートマッチングを行って型番を特定し、認識する。
First, the
なおテンプレートマッチングは、撮影画像データに対するノイズの除去や、サイズ/角度の補正(ただし、サイズ/角度の補正はテンプレートデータに対して行ってもよい)を含む前処理が施された上で、既存の技術(例えば、画素値を保持するテンプレートデータを用いたテンプレートマッチングや、チャンファーマッチング、ヒストグラム情報を用いたアクティブ探索)に基づいて適切に実行される。ただし撮影画像データを利用して型番を特定する方法は例示した方法に限られない。例えば特徴量マッチング、或いは、テンプレートマッチングと特徴量マッチングとの組み合わせを利用する方法であってよい。また例えば撮影画像データを入力の1つとし、該当する型番(或いは、各型番に該当する可能性)を出力とするモデルを用いて行われてもよい。この場合において、モデルを、所定の機械学習手法(例えばディープラーニング)で機械学習されたモデルとすることができる。 Note that template matching is already performed after preprocessing including noise removal for captured image data and size / angle correction (however, size / angle correction may be performed on the template data). (For example, template matching using template data holding pixel values, chamfer matching, active search using histogram information) is appropriately executed. However, the method of specifying the model number using the photographed image data is not limited to the illustrated method. For example, it may be a method of using feature amount matching or a combination of template matching and feature amount matching. Further, for example, a model may be used in which the captured image data is used as one of the inputs and the corresponding model number (or the possibility of corresponding to each model number) is output. In this case, the model can be a machine-learned model by a predetermined machine learning method (for example, deep learning).
次いで評価部13は、真贋判定処理を実行する。真贋判定処理とは、「対象物品の画像を画像分析して対象物品の真贋を判定する処理」である。以下、真贋判定処理の一例について説明する。真贋判定処理において例えば評価部13は、以下の処理を実行する。例えば撮影画像データに記録されたバッグの正面の画像にロゴの画像が含まれる場合、評価部13は、撮影画像データに画像として記録されたロゴが、型番認識用画像分析処理で認識した型番(=対象物品の型番)のバッグのロゴとして本物か否かという観点で撮影画像データを分析し、対象物品が本物か否かを判定する。撮影画像データの分析は、種々の観点から実行される。例えば撮影画像データの分析は、ロゴの形状の妥当性、ロゴの色彩の妥当性およびロゴの位置の妥当性等が判定されることによって行われる。
Next, the
なおロゴの位置の妥当性とは、ロゴが付された位置が、本物のそれと一致しているかどうかを意味する。ロゴの形状および位置の妥当性の判定は例えば、事前に用意された本物のロゴに対応するテンプレートデータを用いたパターンマッチングや、特徴量マッチングにより行うことができる。またロゴの色彩の妥当性の判定は例えば、色成分のヒストグラムの分析や、画像における各色成分の分布の分析により行うことができる。なお撮影画像データの分析に基づく対象物品が本物か否かの判定は、実際の処理としては例えば、撮影画像データを入力の1つとし、本物か否かを示す情報(或いは本物である可能性を示す情報)を出力するモデルが用意され、このモデルが用いられて実行される。この場合において、モデルを、所定の機械学習手法(例えばディープラーニング)で機械学習されたモデルとすることができる。 The validity of the position of the logo means whether or not the position where the logo is attached matches the real one. The validity of the shape and position of the logo can be determined, for example, by pattern matching using template data corresponding to a real logo prepared in advance, or feature quantity matching. Further, the validity of the color of the logo can be determined by, for example, analysis of a histogram of color components or analysis of the distribution of each color component in an image. In the determination of whether or not the target article is genuine based on the analysis of the photographed image data, for example, the photographed image data is used as one of the inputs as an actual process, and the information indicating whether or not the object is genuine (or the possibility of being genuine). A model that outputs (information indicating) is prepared, and this model is used and executed. In this case, the model can be a machine-learned model by a predetermined machine learning method (for example, deep learning).
以上、ロゴを用いた真贋判定処理について説明したが、真贋判定には既存の種々の技術を利用できる。特にロゴに代えて或いはロゴに加えて、模様、マーク、特徴的な平面的或いは立体的な形状等を真贋判定の対象として真贋判定処理を行う構成でもよい。またバッグ以外の真贋判定処理についても、物品および真贋判定対象に応じた適切な方法で撮影画像データが画像分析され、本物か否かが判定される。 Although the authenticity determination process using the logo has been described above, various existing techniques can be used for the authenticity determination. In particular, instead of the logo or in addition to the logo, a pattern, a mark, a characteristic planar or three-dimensional shape, or the like may be used for authenticity determination processing. Also, regarding the authenticity determination processing other than the bag, the photographed image data is image-analyzed by an appropriate method according to the article and the authenticity determination target, and it is determined whether or not the image is genuine.
真贋判定処理において対象物品が本物でないと判定した場合、評価部13は、対応する処理を実行する。例えば評価部13は、対象物品が本物でない可能性があることをオペレータに通知する。これによればオペレータは、撮影画像データをより詳細に確認する等の処置を行うことができる。本実施形態では、真贋判定処理において対象物品が本物でないと判定した場合、評価部13は、以下の査定額の導出は行わない構成である。ただし、評価部13が偽物としての査定額を導出する構成でもよい。いずれの場合であっても、評価部13は、真贋の判定の結果を反映して対象物品を査定(評価)していることになる。
When it is determined in the authenticity determination process that the target article is not genuine, the
次いで評価部13は、状態認識処理を実行する。状態認識処理に関し、本例では対象物品はバッグであり、撮影画像データには、バッグの正面の全域の画像が記録されている。評価部13は、撮影画像データを画像処理し、バッグの正面について傷や、汚れ、凹み、摩耗、部品の欠損等の劣化に関連する要素の状況を反映して物品状態レベルを導出する。
Next, the
次いで評価部13は、査定額導出処理を実行する。本例に係る査定額導出処理において評価部13は、対象最深分類に対応する査定額テーブルを参照する。対象最深分類に対応する査定額テーブルは、型番がとり得る値と、物品状態レベルがとり得る値との組み合わせごとに参考査定額が対応付けられたテーブルである。評価部13は、査定額テーブルにおいて対象物品についての型番と物品状態レベルとの組合せと対応付けられた参考査定額を取得し、これを査定額とする。
Next, the
以上が、対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合に評価部13が実行する査定処理である。なお査定処理における処理の順番は、本実施形態で例示した順番に限られない。以上の説明の通り、本実施形態によれば、対象物品の外観に関する状態に加えて、対象物品の画像を対象とする画像分析により認識された型番、および、対象物品の画像を対象として行われた真贋の判定の結果が反映されて対象物品の査定(評価)が行われるため、複数の異なる観点で対象物品を査定できる。特に本実施形態では、査定にあたって本物かどうかが重要であるという点を鑑み、対象物品を対象とする真贋判定が行われ、真贋判定の結果が反映されて評価部13により対象物品の査定がなされるため、その点で、より的確に対象物品を査定できる。
The above is the assessment process executed by the
その際に対象物品の外観に関する状態の認識と、画像分析による型番の認識と、画像分析による真贋判定とは、共通する撮影画像データに基づいて行われる。従って対象ユーザは、対象物品の査定にあたって対象物品を撮影すればよく、例えば所定のユーザインタフェイスにおいて型番を入力したり、真贋判定のための情報を提供したりする作業を行う必要がない。特に本実施形態では、対象ユーザは、対象物品(バッグ)の外観に関する状態の認識に利用する撮影画像データを生成するための撮影と、型番の認識に利用する撮影画像データを生成するための撮影と、真贋判定に利用する撮影画像データを生成するための撮影とを分けて行う必要がなく、その点でもユーザの作業が少ない。すなわち本実施形態によれば、ユーザの作業を減らしつつ、複数の異なる観点で物品を評価できる。 At that time, the recognition of the state regarding the appearance of the target article, the recognition of the model number by the image analysis, and the authenticity determination by the image analysis are performed based on the common photographed image data. Therefore, the target user may take a picture of the target article when assessing the target article, and does not need to perform work such as inputting a model number or providing information for authenticity determination in a predetermined user interface. In particular, in the present embodiment, the target user takes a picture for generating a photographed image data used for recognizing a state regarding the appearance of the target article (bag) and a photograph for generating a photographed image data used for recognizing a model number. It is not necessary to perform the shooting separately for generating the shot image data used for the authenticity determination, and the user's work is also small in that respect. That is, according to the present embodiment, it is possible to evaluate an article from a plurality of different viewpoints while reducing the work of the user.
以上、複数のケースについて査定処理について説明した。査定処理により査定額が導出された後は、上述した通り、対象ユーザの同意の下、サービス提供会社によって査定額で対象物品が買い取られ、査定額相当の金銭が対象ユーザに提供されると共に、リース料の支払いを条件として対象物品が対象ユーザにリースされる。 The assessment process has been described above for a plurality of cases. After the valuation amount is derived by the valuation process, as described above, the service provider purchases the target goods at the valuation amount with the consent of the target user, and the money equivalent to the valuation amount is provided to the target user. The target goods are leased to the target user on condition that the lease fee is paid.
次に、サーバ3(情報処理装置)による情報処理方法について、フローチャートを用いて説明する。図10は、サーバ3の動作例を示すフローチャートである。図10で示すように、サーバ3の評価部13は、対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワークN経由で端末2から取得する(ステップSA1)。
Next, the information processing method by the server 3 (information processing device) will be described using a flowchart. FIG. 10 is a flowchart showing an operation example of the
次いでサーバ3の評価部13は、撮影画像データに記録された対象物品の画像を画像分析して対象物品の外観に関する状態を認識すると共に、対象物品の画像に含まれる文字の画像を対象として文字認識する処理、対象物品の画像を画像分析して対象物品の型番を認識する処理、および、対象物品の画像を画像分析して対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行する(ステップSA2)。次いでサーバ3の評価部13は、認識した対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して対象物品を評価する(ステップSA3)。
Next, the
以上、本発明の一実施形態について説明したが、上記実施形態は、本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。 Although one embodiment of the present invention has been described above, the above-described embodiment is merely an example of the embodiment of the present invention, whereby the technical scope of the present invention is limitedly interpreted. It should not be done. That is, the present invention can be implemented in various forms without departing from its gist or its main features.
例えば上記実施形態では、評価部13が導出した査定額で対象物品を買い取るシステムではなく、単に導出した査定額を提示するシステムに本発明を適用可能である。また例えば、サービス提供会社が買い取った対象物品をリースによりユーザの手元に置いておけるようにするのではなく、所定の手段で対象ユーザからサービス提供会社に引き渡されるシステムに本発明を適用可能である。
For example, in the above embodiment, the present invention can be applied to a system that simply presents the derived valuation amount, not a system that purchases the target article with the valuation amount derived by the
また対象物品の評価は、金銭的な価値を導出することに限られず、例えば、評価部13が、対象物品をランク付けする構成でもよい。
Further, the evaluation of the target article is not limited to deriving the monetary value, and for example, the
また撮影画像データから文字認識により文字として認識する情報は、本実施形態で例示するものに限られない。撮影画像データから文字認識により文字として認識する情報は、評価部13による対象物品の評価に影響を与えものであればよい。一例として、対象物品が製造された時期が分かる情報(製造年月日)や、対象物品がどのような方法で使用されたかが分かる情報、対象物品がどのような環境で使用されたかが分かる情報等であってもよい。
Further, the information recognized as characters by character recognition from the captured image data is not limited to those exemplified in this embodiment. The information recognized as characters by character recognition from the captured image data may affect the evaluation of the target article by the
また上記実施形態では、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合、「スマートフォン(物品分類)>iOS(物品分類)」の場合、および、「バッグ(物品分類)>ブランドB1(物品分類)」の場合のそれぞれの場合において、評価部13が撮影画像データ取得処理を通して取得する撮影画像データは1つであった。しかしながら、これは、評価部13が対象物品の評価(上記実施形態では査定)にあたって、取得する撮影画像データが「1つ」に限定されることを意味するものではない。
Further, in the above embodiment, when the target deepest classification is "notebook computer (article classification)> Windows (article classification)> maker MK1 (article classification)", or "smartphone (article classification)> iOS (article classification)", In each case of "bag (article classification)> brand B1 (article classification)", the
例えば対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合に、評価部13がノートパソコンを閉じたときの表面が撮影されて生成された撮影画像データを更に取得し、この撮影画像データを更に使用して状態認識処理を実行する構成でもよい。また例えば対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合に評価部13が、筐体の背面が撮影されて生成された撮影画像データを更に取得し、この撮影画像データを更に使用して状態認識処理を実行する構成でもよい。また例えば対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合に評価部13が、バッグの背面が撮影されて生成された撮影画像データを更に取得し、この撮影画像データを更に使用して状態認識処理、型番認識用画像分析処理および真贋判定処理のうち少なくとも1つを実行する構成でもよい。
For example, when the target deepest classification is "notebook computer (article classification)> Windows (article classification)> maker MK1 (article classification)", the surface when the
またシステム関連情報(当然、他の情報であってもよい)において、撮影されるべき情報が離間して配置されており、撮影されるべき情報を撮影するためには、2回以上撮影を行う必要がある場合には、当然、2回以上撮影が行われ、評価部13は、2つ以上の撮影画像データを取得する。
Further, in the system-related information (of course, other information may be used), the information to be photographed is arranged at a distance, and in order to photograph the information to be photographed, the image should be photographed twice or more. If necessary, of course, shooting is performed two or more times, and the
また、端末2のタッチスクリーン4に表示される各種画面を説明したが、各画面の内容は、説明した内容に限定されない。
Further, although various screens displayed on the
また対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合、および、「スマートフォン(物品分類)>iOS(物品分類)」の場合について、評価部13が不正可能性調査処理を実行しない構成でもよい。逆に対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合に、個別番号を取得可能な場合には、評価部13が不正可能性調査処理を実行する構成でもよい。
In addition, the evaluation unit is for cases where the deepest target classification is "notebook computer (article classification)> Windows (article classification)> manufacturer MK1 (article classification)" and "smartphone (article classification)> iOS (article classification)". The configuration may be such that 13 does not execute the fraud possibility investigation process. On the contrary, when the target deepest classification is "bag (article classification)> brand B1 (article classification)" and the individual number can be obtained, the
また上記実施形態において、評価部13が各種画面を表示させた媒体は端末2であった。この点について評価部13が、端末2以外のディスプレイを有する装置であって、対象ユーザがディスプレイを視認可能な装置に各種画面を表示させる構成でもよい。
Further, in the above embodiment, the medium on which the
また対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分離)」の場合(当然これと同等の場合を含む)について、評価部13がスペック認識処理を実行せず、スペックを反映せずに査定を行う構成でもよい。例えば対象物品が電子辞書のように型番が同じであればスペックが変わらないと想定される物品である場合には、評価部13がスペックに関する処理を実行する必要はない。また対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合(当然これと同等の場合を含む)について、評価部13が支払状況認識処理を実行せず、支払状況を反映せずに査定を行う構成でもよい。これらの場合、対象物品は、ディスプレイを有し、型番を少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の2つの特徴を備える電子機器である。そして評価部13は、システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む対象物品の外観が撮影されて生成された撮影画像データを取得する。評価部13は、撮影画像データに記録された対象物品の画像を画像分析して対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、および、撮影画像データに記録されたシステム関連情報の画像を対象として文字認識することによって型番を認識する処理を実行する。評価部13は、認識した対象物品のディスプレイの正面を含む部位についての外観に関する状態、および、認識した型番を反映して対象物品を評価する。更に評価部13は、対象ユーザにより対象物品を対象とする撮影が行われる際に、撮影に先立って対象物品の分類(最深分類)を認識し、認識した分類が上述した2つの特徴を備える電子機器が属する分類である場合には、システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を端末または対象ユーザが視認可能な装置に表示させる。
In addition, when the target deepest classification is "notebook computer (article classification)> Windows (article classification)> manufacturer MK1 (article separation)" (including cases equivalent to this, of course), the
また対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合(当然これと同等の場合を含む)について、評価部13が真贋判定処理を実行せずに査定を行う構成でもよい。この場合、対象物品は、物品に文字としての型番が記録されていない場合がある一方、型番を物品の外観から判定可能であるという1つの特徴を備える物品であり、評価部13は、対象物品の外観が撮影されて生成された撮影画像データを取得し、撮影画像データに記録された対象物品の画像を画像分析して対象物品の外観に関する状態を認識する処理、および、対象物品の画像を画像分析して対象物品の型番を認識する処理を実行し、認識した対象物品の外観に関する状態、および、認識した型番を反映して対象物品を評価する。更に評価部13は、対象ユーザにより対象物品を対象とする撮影が行われる際に、撮影に先立って対象物品の分類を認識し、認識した分類が1つの特徴を備える物品が属する分類である場合には、生成される撮影画像データが型番の認識に利用可能なデータとなるように対象物品の外観が撮影されるよう案内する画面を端末2または対象ユーザが視認可能な装置に表示させる。
In addition, when the deepest target classification is "bag (article classification)> brand B1 (article classification)" (including cases equivalent to this, of course), the
また上記実施形態では、評価部13が査定額テーブルを利用して査定額を導出する構成であったが、査定額の導出方法は例示した方法に限られない。一例として評価部13が、査定額の導出に利用する各種要素をパラメータとする計算式を利用して査定額を導出する構成でもよい。
Further, in the above embodiment, the
また上記実施形態では、文字認識の対象となるオブジェクトは基本的にはシステム関連情報であったが、文字認識の対象となるオブジェクトはシステム関連情報に限られない。例えば、電化製品等に貼付される銘板ラベル(銘板シールと呼ばれることもある)を文字認識の対象となるオブジェクトとしてもよい。この他、対象物品、或いは、対象物品に付随する物体に、刻印、印刷、媒体の頒布、その他の手段で記録された文字の情報を文字認識の対象となるオブジェクトとしてもよい。 Further, in the above embodiment, the object to be the target of character recognition is basically system-related information, but the object to be the target of character recognition is not limited to the system-related information. For example, a name plate label (sometimes called a name plate sticker) attached to an electric appliance or the like may be used as an object for character recognition. In addition, character information recorded on the target article or an object attached to the target article by engraving, printing, distribution of a medium, or other means may be used as an object for character recognition.
また上記実施形態では、端末2はスマートフォンであったが、端末2がスマートフォンに限られず、例えば、端末2は、端末機能を有さないタブレット端末やノートパソコンであってもよい。
Further, in the above embodiment, the
1 情報処理システム
2 端末
3 サーバ(情報処理装置)
13 評価部
1
13 Evaluation Department
Claims (15)
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、
前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、
認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品の査定額を導出する評価部を備え、
前記文字の画像には、前記対象物品の固有番号を示す文字の画像が含まれ、
前記評価部により査定額が導出された後、前記対象ユーザの同意の下、所定主体によって査定額で前記対象物品が買い取られ、査定額相当の金銭が前記対象ユーザに提供されると共に、リース料の支払いを条件として前記対象物品が前記対象ユーザにリースされ、
前記対象物品は、割賦により購入される可能性のある物品であり、
前記評価部は、前記対象物品の査定額の導出に際して、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、前記対象物品の画像に含まれる文字の画像を対象として文字認識を行って前記対象物品の固有番号を認識し、認識した固有番号を用いた問い合わせを行って、前記対象物品についての支払状況を認識し、
認識した前記対象物品の外観に関する状態、および、認識した支払状況を反映して前記対象物品の査定額を導出する
ことを特徴とする情報処理装置。 The photographed image data generated by the target article being photographed by the target user is acquired from the terminal via the network, and the target article is acquired from the terminal.
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and at the same time.
Character recognition processing for the image of characters included in the image of the target article, image analysis of the image of the target article to recognize the model number of the target article, and image analysis of the image of the target article. At least one of the processes for determining the authenticity of the target article is executed.
It is equipped with an evaluation unit that derives the assessed amount of the target article by reflecting the recognized state regarding the appearance of the target article and at least one of the recognized characters, the recognized model number, and the result of the determination of authenticity.
The image of the character includes an image of the character indicating the unique number of the target article.
After the valuation amount is derived by the evaluation unit, the target article is purchased by the predetermined entity at the valuation amount with the consent of the target user, money equivalent to the valuation amount is provided to the target user, and the lease fee is charged. The subject article is leased to the subject user on condition of payment of
The target article is an article that may be purchased by installment payment.
The evaluation unit is responsible for deriving the assessed amount of the target article.
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and the image of the characters included in the image of the target article is recognized as the target. Recognize the unique number of the article, make an inquiry using the recognized unique number, recognize the payment status of the target article, and
An information processing device for deriving an assessed amount of the target article by reflecting the recognized state of the appearance of the target article and the recognized payment status.
前記評価部は、
前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記3つの特徴を備えるタブレット端末が属する分類である場合には、前記システム関連情報がディスプレイに表示された状態で、筐体が正面から撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させ、
前記システム関連情報がディスプレイに表示された状態で、タブレット端末である前記対象物品の筐体が正面から撮影されて生成された撮影画像データを取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって型番を認識する処理、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって固有番号を認識する処理、および、認識した固有番号を用いた問い合わせを行って、前記対象物品についての支払状況を認識する処理を実行し、
認識した前記対象物品のディスプレイの正面を含む部位についての外観に関する状態、認識した型番、および、認識した支払状況を反映して前記対象物品の査定額を導出する
ことを特徴とする請求項1に記載の情報処理装置。 The target article has a feature that a display is provided in a wide area on the front surface and system-related information including at least a model number and a unique number can be displayed on the display, a feature that the target article may be purchased by installment, and a feature of the display. It is a tablet terminal that has three characteristics that the deterioration that occurs in the part including the front affects the evaluation.
The evaluation unit
When the target user takes a picture of the target article, the classification of the target article is recognized prior to the shooting, and the recognized classification is the classification to which the tablet terminal having the above three characteristics belongs. Displays a screen instructing the housing to be photographed from the front on the terminal or a device visible to the target user while the system-related information is displayed on the display.
With the system-related information displayed on the display, the housing of the target article, which is a tablet terminal, is photographed from the front and the generated image data is acquired.
A process of image-analyzing an image of the target article recorded in the captured image data to recognize a state regarding the appearance of a portion including the front of the display of the target article, and an image of the system-related information recorded in the captured image data. The process of recognizing the model number by recognizing the character of the target, the process of recognizing the unique number by recognizing the character of the image of the system-related information recorded in the captured image data, and the process of recognizing the unique number. Inquire about the item and execute the process of recognizing the payment status of the target item.
Claim 1 is characterized in that the valuation amount of the target article is derived by reflecting the state regarding the appearance of the recognized portion including the front of the display of the target article, the recognized model number, and the recognized payment status. The information processing device described.
ことを特徴とする請求項1または2に記載の情報処理装置。 The information processing apparatus according to claim 1 or 2.
ことを特徴とする請求項1から3の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 3.
ことを特徴とする請求項4に記載の情報処理装置。 The information processing apparatus according to claim 4.
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、
前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、
認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品を評価する評価部を備え、
前記対象物品は、ディスプレイを有し、型番を少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の2つの特徴を備える電子機器であり、
前記評価部は、
前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記2つの特徴を備える電子機器が属する分類である場合には、前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させ、
前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む前記対象物品の外観が撮影されて生成された撮影画像データを取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、および、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって型番を認識する処理を実行し、
認識した前記対象物品のディスプレイの正面を含む部位についての外観に関する状態、および、認識した型番を反映して前記対象物品を評価する
ことを特徴とする情報処理装置。 The photographed image data generated by the target article being photographed by the target user is acquired from the terminal via the network, and the target article is acquired from the terminal.
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and at the same time.
Character recognition processing for the image of characters included in the image of the target article, image analysis of the image of the target article to recognize the model number of the target article, and image analysis of the image of the target article. At least one of the processes for determining the authenticity of the target article is executed.
It is provided with an evaluation unit that evaluates the target article by reflecting at least one of the recognized state regarding the appearance of the target article, the recognized character, the recognized model number, and the result of authenticity determination.
The target article has two features: that it has a display and can display system-related information including at least a model number on the display, and that deterioration that occurs in a part including the front of the display affects the evaluation. It is an electronic device with features
The evaluation unit
When the target user takes a picture of the target article, the classification of the target article is recognized prior to the shooting, and the recognized classification is the classification to which the electronic device having the above two characteristics belongs. Displays a screen for guiding a part including the front of the display to be photographed on the terminal or a device visible to the target user while the system-related information is displayed on the display.
With the system-related information displayed on the display, the photographed image data generated by photographing the appearance of the object including the front of the display is acquired.
The process of image-analyzing the image of the target article recorded in the captured image data to recognize the state of the appearance of the portion including the front of the display of the target article, and the system-related information recorded in the captured image data. Executes the process of recognizing the model number by recognizing characters for the image of
An information processing device for evaluating the target article by reflecting the state regarding the appearance of the recognized portion including the front surface of the display of the target article and the recognized model number.
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、
前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、
認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品を評価する評価部を備え、
前記対象物品は、ディスプレイを有し、型番および所定の要素についてのスペックを少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、同じ型番であってもスペックが異なる場合があるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の3つの特徴を備える電子機器であり、
前記評価部は、
前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記3つの特徴を備える電子機器が属する分類である場合には、前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させ、
前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む前記対象物品の外観が撮影されて生成された撮影画像データを取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって型番を認識する処理、および、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって所定の要素についてのスペックを認識する処理を実行し、
認識した前記対象物品のディスプレイの正面を含む部位についての外観に関する状態、認識した型番、および、認識した所定の要素についてのスペックを反映して前記対象物品を評価する
ことを特徴とする情報処理装置。 The photographed image data generated by the target article being photographed by the target user is acquired from the terminal via the network, and the target article is acquired from the terminal.
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and at the same time.
Character recognition processing for the image of characters included in the image of the target article, image analysis of the image of the target article to recognize the model number of the target article, and image analysis of the image of the target article. At least one of the processes for determining the authenticity of the target article is executed.
It is provided with an evaluation unit that evaluates the target article by reflecting at least one of the recognized state regarding the appearance of the target article, the recognized character, the recognized model number, and the result of authenticity determination.
The target article has a display, and is capable of displaying system-related information including at least specifications for a model number and a predetermined element on the display, a feature that the specifications may be different even if the model number is the same, and a feature. It is an electronic device that has the three characteristics that deterioration that occurs in the part including the front of the display affects the evaluation.
The evaluation unit
When the target user takes a picture of the target article, the classification of the target article is recognized prior to the shooting, and the recognized classification is the classification to which the electronic device having the above three characteristics belongs. Displays a screen for guiding a part including the front of the display to be photographed on the terminal or a device visible to the target user while the system-related information is displayed on the display.
With the system-related information displayed on the display, the photographed image data generated by photographing the appearance of the object including the front of the display is acquired.
A process of image-analyzing an image of the target article recorded in the captured image data to recognize a state regarding the appearance of a portion including the front of the display of the target article, and an image of the system-related information recorded in the captured image data. A process of recognizing the model number by recognizing characters as a target, and a process of recognizing specifications for a predetermined element by recognizing characters of the image of the system-related information recorded in the captured image data are executed. ,
Information characterized by evaluating the target article by reflecting the state regarding the appearance of the recognized portion including the front of the display of the target article, the recognized model number, and the specifications for the recognized predetermined element. Processing device.
前記評価部は、 The evaluation unit
撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって固有番号を認識し、 The unique number is recognized by recognizing characters for the image of the system-related information recorded in the captured image data.
物品について、物品の固有番号と少なくとも過去の一時点においてその物品を所有していたユーザのユーザ識別情報とを対応付けて管理するデータを利用して、認識した固有番号に基づいて前記対象物品が前記対象ユーザの所有物でない可能性を調査する With respect to the article, the target article is based on the recognized unique number by using the data managed by associating the unique number of the article with the user identification information of the user who owned the article at least at one time in the past. Investigate the possibility that it is not the property of the target user
ことを特徴とする請求項6または7に記載の情報処理装置。 The information processing apparatus according to claim 6 or 7.
ことを特徴とする請求項8に記載の情報処理装置。 The information processing apparatus according to claim 8.
前記情報処理装置は、
対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で前記端末から取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、
前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、
認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品の査定額を導出する評価部を備え、
前記文字の画像には、前記対象物品の固有番号を示す文字の画像が含まれ、
前記評価部により査定額が導出された後、前記対象ユーザの同意の下、所定主体によって査定額で前記対象物品が買い取られ、査定額相当の金銭が前記対象ユーザに提供されると共に、リース料の支払いを条件として前記対象物品が前記対象ユーザにリースされ、
前記対象物品は、割賦により購入される可能性のある物品であり、
前記情報処理装置の前記評価部は、前記対象物品の査定額の導出に際して、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、前記対象物品の画像に含まれる文字の画像を対象として文字認識を行って前記対象物品の固有番号を認識し、認識した固有番号を用いた問い合わせを行って、前記対象物品についての支払状況を認識し、
認識した前記対象物品の外観に関する状態、および、認識した支払状況を反映して前記対象物品の査定額を導出する
ことを特徴とする情報処理システム。 An information processing system including a terminal and an information processing device connected to the terminal via a network.
The information processing device is
The photographed image data generated by the subject article being photographed by the target user is acquired from the terminal via the network.
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and at the same time.
Character recognition processing for the image of characters included in the image of the target article, image analysis of the image of the target article to recognize the model number of the target article, and image analysis of the image of the target article. At least one of the processes for determining the authenticity of the target article is executed.
It is equipped with an evaluation unit that derives the assessed amount of the target article by reflecting the recognized state regarding the appearance of the target article and at least one of the recognized characters, the recognized model number, and the result of the determination of authenticity .
The image of the character includes an image of the character indicating the unique number of the target article.
After the valuation amount is derived by the evaluation unit, the target article is purchased by the predetermined entity at the valuation amount with the consent of the target user, money equivalent to the valuation amount is provided to the target user, and the lease fee is charged. The subject article is leased to the subject user on condition of payment of
The target article is an article that may be purchased by installment payment.
The evaluation unit of the information processing apparatus determines the assessed amount of the target article when deriving the assessed amount.
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and the image of the characters included in the image of the target article is recognized as the target. Recognize the unique number of the article, make an inquiry using the recognized unique number, recognize the payment status of the target article, and
Derivation of the assessed amount of the target article reflecting the recognized state of the appearance of the target article and the recognized payment status.
An information processing system characterized by this.
前記情報処理装置は、
対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で前記端末から取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、
前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、
認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品を評価する評価部を備え、
前記対象物品は、ディスプレイを有し、型番を少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の2つの特徴を備える電子機器であり、
前記情報処理装置の前記評価部は、
前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記2つの特徴を備える電子機器が属する分類である場合には、前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させ、
前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む前記対象物品の外観が撮影されて生成された撮影画像データを取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、および、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって型番を認識する処理を実行し、
認識した前記対象物品のディスプレイの正面を含む部位についての外観に関する状態、および、認識した型番を反映して前記対象物品を評価する
ことを特徴とする情報処理システム。 An information processing system including a terminal and an information processing device connected to the terminal via a network.
The information processing device is
The photographed image data generated by the subject article being photographed by the target user is acquired from the terminal via the network.
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and at the same time.
Character recognition processing for the image of characters included in the image of the target article, image analysis of the image of the target article to recognize the model number of the target article, and image analysis of the image of the target article. At least one of the processes for determining the authenticity of the target article is executed.
It is provided with an evaluation unit that evaluates the target article by reflecting at least one of the recognized state regarding the appearance of the target article, the recognized character, the recognized model number, and the result of authenticity determination.
The target article has two features: that it has a display and can display system-related information including at least a model number on the display, and that deterioration that occurs in a part including the front of the display affects the evaluation. It is an electronic device with features
The evaluation unit of the information processing apparatus
When the target user takes a picture of the target article, the classification of the target article is recognized prior to the shooting, and the recognized classification is the classification to which the electronic device having the above two characteristics belongs. Displays a screen for guiding a part including the front of the display to be photographed on the terminal or a device visible to the target user while the system-related information is displayed on the display.
With the system-related information displayed on the display, the photographed image data generated by photographing the appearance of the object including the front of the display is acquired.
The process of image-analyzing the image of the target article recorded in the captured image data to recognize the state of the appearance of the portion including the front of the display of the target article, and the system-related information recorded in the captured image data. Executes the process of recognizing the model number by recognizing characters for the image of
The target article is evaluated by reflecting the state regarding the appearance of the recognized part including the front of the display of the target article and the recognized model number.
An information processing system characterized by this.
前記情報処理装置は、
対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で前記端末から取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、
前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、
認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品を評価する評価部を備え、
前記対象物品は、ディスプレイを有し、型番および所定の要素についてのスペックを少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、同じ型番であってもスペックが異なる場合があるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の3つの特徴を備える電子機器であり、
前記情報処理装置の前記評価部は、
前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記3つの特徴を備える電子機器が属する分類である場合には、前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させ、
前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む前記対象物品の外観が撮影されて生成された撮影画像データを取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって型番を認識する処理、および、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって所定の要素についてのスペックを認識する処理を実行し、
認識した前記対象物品のディスプレイの正面を含む部位についての外観に関する状態、認識した型番、および、認識した所定の要素についてのスペックを反映して前記対象物品を評価する
ことを特徴とする情報処理システム。 An information processing system including a terminal and an information processing device connected to the terminal via a network.
The information processing device is
The photographed image data generated by the subject article being photographed by the target user is acquired from the terminal via the network.
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and at the same time.
Character recognition processing for the image of characters included in the image of the target article, image analysis of the image of the target article to recognize the model number of the target article, and image analysis of the image of the target article. At least one of the processes for determining the authenticity of the target article is executed.
It is provided with an evaluation unit that evaluates the target article by reflecting at least one of the recognized state regarding the appearance of the target article, the recognized character, the recognized model number, and the result of authenticity determination.
The target article has a display, and is capable of displaying system-related information including at least specifications for a model number and a predetermined element on the display, a feature that the specifications may be different even if the model number is the same, and a feature. It is an electronic device that has the three characteristics that deterioration that occurs in the part including the front of the display affects the evaluation.
The evaluation unit of the information processing apparatus
When the target user takes a picture of the target article, the classification of the target article is recognized prior to the shooting, and the recognized classification is the classification to which the electronic device having the above three characteristics belongs. Displays a screen for guiding a part including the front of the display to be photographed on the terminal or a device visible to the target user while the system-related information is displayed on the display.
With the system-related information displayed on the display, the photographed image data generated by photographing the appearance of the object including the front of the display is acquired.
A process of image-analyzing an image of the target article recorded in the captured image data to recognize a state regarding the appearance of a portion including the front of the display of the target article, and an image of the system-related information recorded in the captured image data. A process of recognizing the model number by recognizing characters as a target, and a process of recognizing specifications for a predetermined element by recognizing characters of the image of the system-related information recorded in the captured image data are executed. ,
The target article is evaluated by reflecting the state regarding the appearance of the recognized part including the front of the display of the target article, the recognized model number, and the specifications for the recognized predetermined element.
An information processing system characterized by this.
前記情報処理装置の前記評価部が、撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品の査定額を導出する第2ステップとを含み、
前記文字の画像には、前記対象物品の固有番号を示す文字の画像が含まれ、
前記評価部により査定額が導出された後、前記対象ユーザの同意の下、所定主体によって査定額で前記対象物品が買い取られ、査定額相当の金銭が前記対象ユーザに提供されると共に、リース料の支払いを条件として前記対象物品が前記対象ユーザにリースされ、
前記対象物品は、割賦により購入される可能性のある物品であり、
前記第2ステップにおいて前記評価部は、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、前記対象物品の画像に含まれる文字の画像を対象として文字認識を行って前記対象物品の固有番号を認識し、認識した固有番号を用いた問い合わせを行って、前記対象物品についての支払状況を認識し、
認識した前記対象物品の外観に関する状態、および、認識した支払状況を反映して前記対象物品の査定額を導出する
ことを特徴とする情報処理方法。 The first step in which the evaluation unit of the information processing device acquires the photographed image data generated by the target article being photographed by the target user from the terminal via the network.
The evaluation unit of the information processing apparatus analyzes the image of the target article recorded in the photographed image data to recognize the state regarding the appearance of the target article, and at the same time, an image of characters included in the image of the target article. Character recognition processing, image analysis of the target article to recognize the model number of the target article, and image analysis of the target article image to determine the authenticity of the target article. At least one of the processes is executed , and the assessed amount of the target article is determined by reflecting at least one of the recognized state regarding the appearance of the target article, the recognized character, the recognized model number, and the result of the determination of authenticity. Including the second step to derive
The image of the character includes an image of the character indicating the unique number of the target article.
After the valuation amount is derived by the evaluation unit, the target article is purchased by the predetermined entity at the valuation amount with the consent of the target user, money equivalent to the valuation amount is provided to the target user, and the lease fee is charged. The subject article is leased to the subject user on condition of payment of
The target article is an article that may be purchased by installment payment.
In the second step, the evaluation unit
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and the image of the characters included in the image of the target article is recognized as the target. Recognize the unique number of the article, make an inquiry using the recognized unique number, recognize the payment status of the target article, and
Derivation of the assessed amount of the target article reflecting the recognized state of the appearance of the target article and the recognized payment status.
An information processing method characterized by that.
前記情報処理装置の前記評価部が、撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品を評価する第2ステップとを含み、 The evaluation unit of the information processing apparatus analyzes the image of the target article recorded in the photographed image data to recognize the state regarding the appearance of the target article, and at the same time, an image of characters included in the image of the target article. Character recognition processing, image analysis of the target article to recognize the model number of the target article, and image analysis of the target article image to determine the authenticity of the target article. At least one of the processes is executed, and the target article is evaluated by reflecting at least one of the recognized state regarding the appearance of the target article, the recognized character, the recognized model number, and the result of the determination of authenticity. Including 2 steps
前記対象物品は、ディスプレイを有し、型番を少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の2つの特徴を備える電子機器であり、 The target article has two features: that it has a display and can display system-related information including at least a model number on the display, and that deterioration that occurs in a part including the front of the display affects the evaluation. It is an electronic device with features
前記第2ステップにおいて前記評価部は、 In the second step, the evaluation unit
前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記2つの特徴を備える電子機器が属する分類である場合には、前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させ、 When the target user takes a picture of the target article, the classification of the target article is recognized prior to the shooting, and the recognized classification is the classification to which the electronic device having the above two characteristics belongs. Displays a screen for guiding a part including the front of the display to be photographed on the terminal or a device visible to the target user while the system-related information is displayed on the display.
前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む前記対象物品の外観が撮影されて生成された撮影画像データを取得し、 With the system-related information displayed on the display, the photographed image data generated by photographing the appearance of the object including the front of the display is acquired.
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、および、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって型番を認識する処理を実行し、 The process of image-analyzing the image of the target article recorded in the captured image data to recognize the state of the appearance of the portion including the front of the display of the target article, and the system-related information recorded in the captured image data. Executes the process of recognizing the model number by recognizing characters for the image of
認識した前記対象物品のディスプレイの正面を含む部位についての外観に関する状態、および、認識した型番を反映して前記対象物品を評価する The target article is evaluated by reflecting the state regarding the appearance of the recognized part including the front of the display of the target article and the recognized model number.
ことを特徴とする情報処理方法。 An information processing method characterized by that.
前記情報処理装置の前記評価部が、撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品を評価する第2ステップとを含み、 The evaluation unit of the information processing apparatus analyzes the image of the target article recorded in the photographed image data to recognize the state regarding the appearance of the target article, and at the same time, an image of characters included in the image of the target article. Character recognition processing, image analysis of the target article to recognize the model number of the target article, and image analysis of the target article image to determine the authenticity of the target article. At least one of the processes is executed, and the target article is evaluated by reflecting at least one of the recognized state regarding the appearance of the target article, the recognized character, the recognized model number, and the result of the determination of authenticity. Including 2 steps
前記対象物品は、ディスプレイを有し、型番および所定の要素についてのスペックを少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、同じ型番であってもスペックが異なる場合があるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の3つの特徴を備える電子機器であり、 The target article has a display, and is capable of displaying system-related information including at least specifications for a model number and a predetermined element on the display, a feature that the specifications may be different even if the model number is the same, and a feature. It is an electronic device that has the three characteristics that deterioration that occurs in the part including the front of the display affects the evaluation.
前記第2ステップにおいて前記評価部は、 In the second step, the evaluation unit
前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記3つの特徴を備える電子機器が属する分類である場合には、前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させ、 When the target user takes a picture of the target article, the classification of the target article is recognized prior to the shooting, and the recognized classification is the classification to which the electronic device having the above three characteristics belongs. Displays a screen for guiding a part including the front of the display to be photographed on the terminal or a device visible to the target user while the system-related information is displayed on the display.
前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む前記対象物品の外観が撮影されて生成された撮影画像データを取得し、 With the system-related information displayed on the display, the photographed image data generated by photographing the appearance of the object including the front of the display is acquired.
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって型番を認識する処理、および、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって所定の要素についてのスペックを認識する処理を実行し、 A process of image-analyzing an image of the target article recorded in the captured image data to recognize a state regarding the appearance of a portion including the front of the display of the target article, and an image of the system-related information recorded in the captured image data. A process of recognizing the model number by recognizing characters as a target, and a process of recognizing specifications for a predetermined element by recognizing characters of the image of the system-related information recorded in the captured image data are executed. ,
認識した前記対象物品のディスプレイの正面を含む部位についての外観に関する状態、認識した型番、および、認識した所定の要素についてのスペックを反映して前記対象物品を評価する The target article is evaluated by reflecting the state regarding the appearance of the recognized part including the front of the display of the target article, the recognized model number, and the specifications for the recognized predetermined element.
ことを特徴とする情報処理方法。 An information processing method characterized by that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021079630A JP7061326B1 (en) | 2021-05-10 | 2021-05-10 | Information processing equipment, information processing system and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021079630A JP7061326B1 (en) | 2021-05-10 | 2021-05-10 | Information processing equipment, information processing system and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP7061326B1 true JP7061326B1 (en) | 2022-04-28 |
JP2022173741A JP2022173741A (en) | 2022-11-22 |
Family
ID=81448180
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021079630A Active JP7061326B1 (en) | 2021-05-10 | 2021-05-10 | Information processing equipment, information processing system and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7061326B1 (en) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003098510A1 (en) | 2002-05-15 | 2003-11-27 | Elady Ltd. | Buying and selling intermediation system and buying and selling intermediation method |
JP2012142907A (en) | 2010-12-16 | 2012-07-26 | Shunji Sugaya | Portable terminal having changeable user interface, method, and program |
WO2015151182A1 (en) | 2014-03-31 | 2015-10-08 | 楽天株式会社 | Commercial product evaluation device, method, and program |
WO2016060200A1 (en) | 2014-10-16 | 2016-04-21 | 株式会社エコリング | Appraisal system and appraisal method |
JP2021043967A (en) | 2019-09-03 | 2021-03-18 | 株式会社携帯市場 | Information processing device |
-
2021
- 2021-05-10 JP JP2021079630A patent/JP7061326B1/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2003098510A1 (en) | 2002-05-15 | 2003-11-27 | Elady Ltd. | Buying and selling intermediation system and buying and selling intermediation method |
JP2012142907A (en) | 2010-12-16 | 2012-07-26 | Shunji Sugaya | Portable terminal having changeable user interface, method, and program |
WO2015151182A1 (en) | 2014-03-31 | 2015-10-08 | 楽天株式会社 | Commercial product evaluation device, method, and program |
WO2016060200A1 (en) | 2014-10-16 | 2016-04-21 | 株式会社エコリング | Appraisal system and appraisal method |
JP2021043967A (en) | 2019-09-03 | 2021-03-18 | 株式会社携帯市場 | Information processing device |
Also Published As
Publication number | Publication date |
---|---|
JP2022173741A (en) | 2022-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7430913B2 (en) | Low-cost computerized kiosk for remote collection of valuable electronic equipment | |
US20210110440A1 (en) | Systems and methods for enhanced evaluation of pre-owned electronic devices and provision of protection plans, repair, certifications, etc. | |
US9836726B2 (en) | Internet payment system using credit card imaging | |
KR102084125B1 (en) | Vending machine and method for providing online to offline based used goods marketplace platform using thereof | |
US11620635B2 (en) | Methods and systems for approving transactions | |
KR102358607B1 (en) | Artificial intelligence appraisal system, artificial intelligence appraisal method and storage medium | |
CN103718192A (en) | Image-based financial processing | |
JP6954741B2 (en) | Damage judgment device, period / schedule calculation device and repair / repair cost calculation device using this device. | |
JP7393002B2 (en) | Low-cost instruments and methods for distributed remote collection of valuable electronic devices | |
US20230082046A1 (en) | Information processing device, information processing system, information processing method, and program | |
WO2021019286A1 (en) | Systems and methods for enhanced evaluation of pre-owned electronic devices and provision of related services | |
CN110945552B (en) | Product sales reporting method, payment method and terminal equipment | |
CN109815039A (en) | Test method and device, storage medium, the computer equipment of business software | |
WO2020057305A1 (en) | Method and device for identifying risky merchant | |
WO2022007798A1 (en) | Data display method and apparatus, terminal device and storage medium | |
KR102051883B1 (en) | System and method for device valuation | |
JP7061326B1 (en) | Information processing equipment, information processing system and information processing method | |
CN109670929A (en) | Control method, device, equipment and the computer readable storage medium of loan early warning | |
JP7157015B2 (en) | Smart contract system and program | |
KR20190091706A (en) | Method for providing insurance service for old mobile phone and apparatus therefor | |
KR102210448B1 (en) | Method, apparatus and computer program for providing ownership registration and counterfeit judgment service for product using blockchain | |
WO2022090999A1 (en) | System for pre-owned electronic device diagnostics, with sales and operation facilitation features | |
JP2022173655A (en) | Information processor, information processing method and program | |
KR20210125197A (en) | Method, apparatus and computer program for providing ownership registration and counterfeit judgment service for product using blockchain | |
JP7019223B1 (en) | Information processing equipment, information processing system and information processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210811 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20210811 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220221 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220322 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7061326 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |