JP7061326B1 - Information processing equipment, information processing system and information processing method - Google Patents

Information processing equipment, information processing system and information processing method Download PDF

Info

Publication number
JP7061326B1
JP7061326B1 JP2021079630A JP2021079630A JP7061326B1 JP 7061326 B1 JP7061326 B1 JP 7061326B1 JP 2021079630 A JP2021079630 A JP 2021079630A JP 2021079630 A JP2021079630 A JP 2021079630A JP 7061326 B1 JP7061326 B1 JP 7061326B1
Authority
JP
Japan
Prior art keywords
target article
article
target
image
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021079630A
Other languages
Japanese (ja)
Other versions
JP2022173741A (en
Inventor
岳洋 磯田
義仁 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GARAGEBANK CORPORATION
Original Assignee
GARAGEBANK CORPORATION
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GARAGEBANK CORPORATION filed Critical GARAGEBANK CORPORATION
Priority to JP2021079630A priority Critical patent/JP7061326B1/en
Application granted granted Critical
Publication of JP7061326B1 publication Critical patent/JP7061326B1/en
Publication of JP2022173741A publication Critical patent/JP2022173741A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】撮影画像データに基づいて物品を評価する情報処理装置について、ユーザの作業を減らしつつ、複数の異なる観点で物品を評価できるようにする。【解決手段】サーバ3は、対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で端末から取得し、撮影画像データに記録された対象物品の画像を画像分析して対象物品の外観に関する状態を認識すると共に、対象物品の画像に含まれる文字の画像を対象として文字認識する処理、対象物品の画像を画像分析して対象物品の型番を認識する処理、および、対象物品の画像を画像分析して対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、認識した対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して対象物品を評価する評価部13を備える。【選択図】図2PROBLEM TO BE SOLVED: To make it possible to evaluate an article from a plurality of different viewpoints while reducing the work of a user for an information processing device for evaluating an article based on captured image data. SOLUTION: A server 3 acquires photographed image data generated by a target article photographed by a target user from a terminal via a network, analyzes an image of the target article recorded in the photographed image data, and analyzes the target article. A process of recognizing the state of the appearance of the target article, a process of recognizing the character image of the character included in the image of the target article, a process of image analysis of the image of the target article to recognize the model number of the target article, and a process of recognizing the model number of the target article. At least one of the processes of analyzing the image to determine the authenticity of the target article is executed, and among the recognized state of the appearance of the target article, the recognized character, the recognized model number, and the result of the determination of the authenticity. The evaluation unit 13 for evaluating the target article by reflecting at least one is provided. [Selection diagram] Fig. 2

Description

本発明は、撮影画像データに基づいて物品を評価する情報処理装置、当該情報処理装置と端末とを備える情報処理システム、および、当該情報処理装置による情報処理方法に関する。 The present invention relates to an information processing device that evaluates an article based on captured image data, an information processing system including the information processing device and a terminal, and an information processing method by the information processing device.

従来、ある物品が撮影されて生成された撮影画像データを利用して、その物品を評価するシステムが知られている。この種のシステムに関して例えば特許文献1には、中古車が撮影されて生成されたパノラマ写真(撮影画像)をサーバが取得した後、パノラマ写真を保管し、事後的に中古車の傷の状況等をパノラマ写真によって確認できるようにしたシステムが記載されている。 Conventionally, there is known a system for evaluating an article by using photographed image data generated by photographing the article. Regarding this type of system, for example, in Patent Document 1, after the server acquires a panoramic photograph (photographed image) generated by taking a used car, the panoramic photograph is stored, and the situation of scratches on the used car after the fact, etc. Is described as a system that allows you to check the image with a panoramic photograph.

特開2018-97679号公報Japanese Unexamined Patent Publication No. 2018-97679

ここで一般に物品の評価にあたっては、単一の観点からだけではなく、複数の異なる観点で物品の評価をすることが求められる。通常、評価に影響する物品の要素は1つだけではなく、複数の異なる観点で物品を評価することにより複数の要素を加味して物品を評価することが可能となり、評価結果の妥当性が高くなるからである。また従来のシステムでは物品の評価に先立って、ユーザが物品の撮影を行ったり、物品の評価に必要な情報を提供したりする(例えば、評価に利用する情報を与えられたユーザインタフェイスに入力する)等の作業を行っていたが、この作業はユーザにとって煩雑であった。以上を踏まえ、ユーザの作業を減らしつつ、複数の異なる観点で物品が評価できるようにしたいとするニーズがあった。 Here, in general, when evaluating an article, it is required to evaluate the article not only from a single viewpoint but also from a plurality of different viewpoints. Normally, not only one element of an article affects the evaluation, but by evaluating the article from a plurality of different viewpoints, it is possible to evaluate the article by adding multiple elements, and the validity of the evaluation result is high. Because it becomes. Further, in the conventional system, prior to the evaluation of the article, the user takes a picture of the article or provides the information necessary for the evaluation of the article (for example, the information used for the evaluation is input to the given user interface). However, this work was complicated for the user. Based on the above, there was a need to be able to evaluate goods from a plurality of different viewpoints while reducing the work of the user.

本発明は、このような問題を解決するために成されたものであり、ユーザの作業を減らしつつ、複数の異なる観点で物品を評価できるようにすることを目的とする。 The present invention has been made to solve such a problem, and an object of the present invention is to make it possible to evaluate an article from a plurality of different viewpoints while reducing the work of a user.

上記した課題を解決するために、本発明は、対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で端末から取得する。そして撮影画像データに記録された対象物品の画像を画像分析して対象物品の外観に関する状態を認識すると共に、対象物品の画像に含まれる文字の画像を対象として文字認識する処理、対象物品の画像を画像分析して対象物品の型番を認識する処理、および、対象物品の画像を画像分析して対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行する。そして認識した対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して対象物品を評価するようにしている。 In order to solve the above-mentioned problems, the present invention acquires photographed image data generated by photographing the target article by the target user from the terminal via the network. Then, the image of the target article recorded in the captured image data is image-analyzed to recognize the state related to the appearance of the target article, and the character recognition process for the image of the character included in the image of the target article is performed. At least one of a process of recognizing the model number of the target article by image analysis and a process of determining the authenticity of the target article by image analysis of the image of the target article is executed. Then, the target article is evaluated by reflecting the state regarding the appearance of the recognized target article and at least one of the recognized characters, the recognized model number, and the result of the determination of authenticity.

上記のように構成した本発明によれば、物品の外観に関する状態に加えて、文字の画像を対象とする文字認識により認識された文字、物品の画像を対象とする画像分析により認識された型番、および、物品の画像を対象として行われた真贋の判定の結果のうち少なくとも1つが反映されて物品の評価が行われるため、複数の異なる観点で物品を評価できる。その際に物品の外観に関する状態の認識と、文字認識による文字の認識、画像分析による型番の認識および真贋の判定のうち少なくとも1つとは、共通する撮影画像データに基づいて行われる。従ってユーザは、物品の評価にあたって対象物品を撮影すればよく、認識させるべき文字を入力する作業や、型番を入力する作業、真贋の判定に利用する情報を提供する作業等を別途、行う必要がない。すなわち本発明によれば、ユーザの作業を減らしつつ、複数の異なる観点で物品を評価できる。 According to the present invention configured as described above, in addition to the state relating to the appearance of the article, the character recognized by the character recognition targeting the image of the character and the model number recognized by the image analysis targeting the image of the article. , And, since the article is evaluated by reflecting at least one of the results of the authenticity determination performed on the image of the article, the article can be evaluated from a plurality of different viewpoints. At that time, at least one of recognition of the state regarding the appearance of the article, recognition of characters by character recognition, recognition of model number by image analysis, and determination of authenticity is performed based on common photographed image data. Therefore, the user only needs to take a picture of the target article when evaluating the article, and needs to separately perform the work of inputting characters to be recognized, the work of inputting the model number, the work of providing information used for authenticity determination, and the like. not. That is, according to the present invention, it is possible to evaluate an article from a plurality of different viewpoints while reducing the work of the user.

本発明の一実施形態に係る情報処理システムの構成例を示す図である。It is a figure which shows the structural example of the information processing system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る端末およびサーバの機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of the terminal and the server which concerns on one Embodiment of this invention. 物品分類ツリーの一例を示す図である。It is a figure which shows an example of the article classification tree. 端末に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal. ノートパソコンに係るシステム関連情報の一例を示す図である。It is a figure which shows an example of the system-related information which concerns on a notebook computer. 端末に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal. スマートフォンに係るシステム関連情報の一例を示す図である。It is a figure which shows an example of the system-related information which concerns on a smartphone. 端末に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal. 端末に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal. 本発明の一実施形態に係る情報処理装置の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the information processing apparatus which concerns on one Embodiment of this invention.

以下、本発明の一実施形態を図面に基づいて説明する。図1は、本実施形態に係る情報処理システム1の構成例を示す図である。図1で示すように情報処理システム1は、端末2とサーバ3とを備えている。端末2およびサーバ3は共に、インターネット、電話網、その他の通信網を含むネットワークNに接続可能である。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram showing a configuration example of the information processing system 1 according to the present embodiment. As shown in FIG. 1, the information processing system 1 includes a terminal 2 and a server 3. Both the terminal 2 and the server 3 can connect to the network N including the Internet, a telephone network, and other communication networks.

サーバ3は、端末2をクライアントの1つとするサーバ装置である。図1では、サーバ3を1つのブロックで表しているが、サーバ3は単一のサーバ装置である必要はなく、例えば複数のサーバ装置により構成されてもよく、また所定のシステムの一部であってもよい。サーバ3は、サービス提供会社(所定主体)によって管理、運営されており、後述するサービスを提供する。サーバ3は、特許請求の範囲の「情報処理装置」に相当する。 The server 3 is a server device having the terminal 2 as one of the clients. In FIG. 1, the server 3 is represented by one block, but the server 3 does not have to be a single server device, and may be configured by, for example, a plurality of server devices, or may be a part of a predetermined system. There may be. The server 3 is managed and operated by a service providing company (predetermined entity), and provides services described later. The server 3 corresponds to the "information processing device" in the claims.

端末2は、タブレット型の筐体の全面の広い領域にタッチスクリーン4(表示パネル+タッチパネル)が設けられたスマートフォンである。特に本実施形態に係る端末2は、カメラ5が搭載されており、カメラ5による撮影の結果に基づいて撮影画像データを生成する機能を備えている。端末2には事前に、所定のアプリケーション(以下「専用アプリ」という)が、アプリケーションダウンロードシステムを利用してインストールされている。専用アプリの機能については後述する。なお図1では、ネットワークNに接続された無数の端末2のうちの1つを例示的に示している。 The terminal 2 is a smartphone in which a touch screen 4 (display panel + touch panel) is provided in a wide area on the entire surface of a tablet-type housing. In particular, the terminal 2 according to the present embodiment is equipped with a camera 5 and has a function of generating captured image data based on the result of photographing by the camera 5. A predetermined application (hereinafter referred to as "dedicated application") is installed in the terminal 2 in advance by using the application download system. The function of the dedicated application will be described later. Note that FIG. 1 schematically shows one of the innumerable terminals 2 connected to the network N.

図2は、端末2およびサーバ3の機能構成例を示すブロック図である。図2で示すように、端末2は機能構成として、端末側制御部10および端末側通信部11を備えている。またサーバ3は機能構成として、サーバ側通信部12および評価部13を備えている。上記各機能ブロック10~12は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック10~12は、実際にはコンピュータのCPU、RAM、ROM等を備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。特に端末側制御部10は、CPU等のハードウェアが、記憶媒体に記憶された専用アプリ(ただしOS、OSが提供するAPI、その他の付随するプログラムを含む)を読み出して実行することにより各種処理を実行可能である。またサーバ3は記憶媒体として、サーバ側記憶部14を備えている。 FIG. 2 is a block diagram showing a functional configuration example of the terminal 2 and the server 3. As shown in FIG. 2, the terminal 2 includes a terminal-side control unit 10 and a terminal-side communication unit 11 as a functional configuration. Further, the server 3 includes a server-side communication unit 12 and an evaluation unit 13 as a functional configuration. Each of the above functional blocks 10 to 12 can be configured by any of hardware, DSP (Digital Signal Processor), and software. For example, when configured by software, each of the above functional blocks 10 to 12 is actually configured to include a computer CPU, RAM, ROM, etc., and is a program stored in a recording medium such as RAM, ROM, hard disk, or semiconductor memory. Is realized by the operation of. In particular, the terminal-side control unit 10 performs various processes by the hardware such as the CPU reading and executing the dedicated application (however, the OS, the API provided by the OS, and other accompanying programs) stored in the storage medium. Is feasible. Further, the server 3 includes a server-side storage unit 14 as a storage medium.

端末側通信部11は、ネットワークNに接続された機器と所定のプロトコルに従って通信する。以下の説明では端末2とネットワークNに接続された機器との間での通信は、端末側通信部11により適切に行われるものとして詳細な説明を省略する。またサーバ側通信部12は、ネットワークNに接続された機器と所定のプロトコルに従って通信する。以下の説明ではサーバ3とネットワークNに接続された機器との間での通信は、サーバ側通信部12により適切に行われるものとして詳細な説明を省略する。 The terminal-side communication unit 11 communicates with a device connected to the network N according to a predetermined protocol. In the following description, it is assumed that the communication between the terminal 2 and the device connected to the network N is appropriately performed by the terminal-side communication unit 11, and detailed description thereof will be omitted. Further, the server-side communication unit 12 communicates with the device connected to the network N according to a predetermined protocol. In the following description, it is assumed that the communication between the server 3 and the device connected to the network N is appropriately performed by the server-side communication unit 12, and detailed description thereof will be omitted.

ここでサーバ3は、ユーザに対して以下のサービス(以下「本サービス」という)を提供する。すなわち自身が所有する物品に基づいて資金を得たいと考えているユーザを想定する。ユーザが所有する物品は一例として、ブランド物のバック、ブランド物のアクセサリ、その他のブランド品であり、また一例としてノートパソコン、スマートフォン、ゲーム機、デジタルカメラ、その他の電子機器である(ただし、これらはあくまで一例である)。ユーザは、端末2により物品の撮影を行い、撮影結果に基づく撮影画像データが端末2からサーバ3に送信される。サーバ3は、撮影画像データに基づいて物品の査定額を導出し、査定額を示す情報をユーザに提供する。なお以下の説明では、種々の処理を行って最終的に査定額を導出することを適宜、「査定する」と表現する場合がある。 Here, the server 3 provides the following services (hereinafter referred to as "this service") to the user. That is, assume a user who wants to obtain funds based on the goods he / she owns. User-owned items are, for example, branded bags, branded accessories, and other branded items, and, for example, laptops, smartphones, game consoles, digital cameras, and other electronic devices (but these). Is just an example). The user takes a picture of the article by the terminal 2, and the photographed image data based on the photographed result is transmitted from the terminal 2 to the server 3. The server 3 derives the assessed amount of the article based on the captured image data, and provides the user with information indicating the assessed amount. In the following description, it may be appropriately expressed as "assessment" to finally derive the assessed amount by performing various processes.

詳細な説明は省略するが、物品の査定額が導出された後、ユーザによる同意があれば、その査定額で物品がサービス提供会社によって買い取られると共に、その査定額に相当する金銭がユーザに提供される。その上でサービス提供会社によって買い取られた物品は、リース料の支払いを条件としてユーザにリースされる。リースの際にはユーザとサービス提供会社との間でリースに関する契約が結ばれ、ユーザはリースに関する契約に従ってリース料を支払う義務が生じる。このためユーザは、物品をサービス提供会社に引き渡すことなく手元に置いたまま、査定額相当の資金を得ることができる。 Although detailed explanation is omitted, after the valuation amount of the goods is derived, if the user consents, the goods are purchased by the service provider at the valuation amount and the money equivalent to the valuation amount is provided to the user. Will be done. The goods purchased by the service provider are then leased to the user subject to payment of the lease fee. At the time of leasing, a lease contract is concluded between the user and the service provider, and the user is obliged to pay the lease fee in accordance with the lease contract. Therefore, the user can obtain funds equivalent to the assessed amount while keeping the goods at hand without handing them over to the service provider.

サーバ3は、以上の本サービスの提供を端末2と協働してシステム的に実現する。特に本実施形態に係るサーバ3は、以下で説明する独自の構成により、ユーザの作業を減らしつつ、複数の異なる観点で査定を行って査定額を導出する。以下、本サービスの提供時におけるサーバ3および端末2の動作について説明する。 The server 3 systematically realizes the above provision of this service in cooperation with the terminal 2. In particular, the server 3 according to the present embodiment has a unique configuration described below, and while reducing the work of the user, it makes an assessment from a plurality of different viewpoints and derives the assessed amount. Hereinafter, the operations of the server 3 and the terminal 2 at the time of providing this service will be described.

ここでサーバ3および端末2の処理の説明に先立って、本実施形態における「物品分類」および「最深分類」について説明する。本実施形態では本サービスにおいて査定の対象となり得る物品に関し、ツリー構造の物品分類のツリー(以下「物品分類ツリー」という)が事前に定義されている。図3は、物品分類ツリーの一例を示す図である。以下、図3を用いて物品分類ツリーについて説明する。ただし図3で例示する物品分類ツリーは、説明の便宜のため、非常に単純化したものである。図3の例ではルートノードの1つ下の階層で、物品を大まかに分類する目的で、ノートパソコン(物品分類)とスマートフォンとバッグ(物品分類)との3つの物品分類が定義されている。以下の説明において、物品分類の階層状態を表現する際に、ルートノードは当然に存在するものとして、ルートノードを省略する場合がある。また本実施形態ではバッグは、ブランド品を想定しているものとする。 Here, prior to the description of the processing of the server 3 and the terminal 2, the "article classification" and the "deepest classification" in the present embodiment will be described. In this embodiment, a tree-structured article classification tree (hereinafter referred to as “article classification tree”) is defined in advance for articles that can be assessed in this service. FIG. 3 is a diagram showing an example of an article classification tree. Hereinafter, the article classification tree will be described with reference to FIG. However, the article classification tree illustrated in FIG. 3 is very simplified for convenience of explanation. In the example of FIG. 3, in the hierarchy one level below the root node, three article classifications of a notebook computer (article classification), a smartphone, and a bag (article classification) are defined for the purpose of roughly classifying articles. In the following description, when expressing the hierarchical state of the article classification, the root node is assumed to exist as a matter of course, and the root node may be omitted. Further, in the present embodiment, the bag is assumed to be a brand product.

ノートパソコン(物品分類)の1つ下の階層ではOSに着目して、Windows(物品分類)とMacOS(物品分類)との2つの物品分類が定義されている(ただしWindowsおよびMacOSは共に登録商標)。更にWindows(物品分類)の1つ下の層ではメーカに着目してメーカMK1(物品分類)とメーカMK2(物品分類)との2つの物品分類が定義されている。またスマートフォン(物品分類)の1つ下の階層ではOSに着目して、iOS(物品分類)とAndroid(物品分類)との2つの物品分類が定義されている(ただしiOSおよびAndroidは共に登録商標)。またバッグ(物品分類)の1つ下の階層では、バッグのブランドに着目して、ブランドB1(物品分類)とブランドB2(物品分類)とブランドB3(物品分類)との3つの物品分類が定義されている。 At the next level below the laptop computer (article classification), two article classifications, Windows (article classification) and MacOS (article classification), are defined focusing on the OS (however, Windows and MacOS are both registered trademarks). ). Further, in the layer immediately below Windows (article classification), two article classifications, maker MK1 (article classification) and maker MK2 (article classification), are defined focusing on the manufacturer. Also, in the hierarchy one level below the smartphone (article classification), two article classifications, iOS (article classification) and Android (article classification), are defined focusing on the OS (however, iOS and Android are both registered trademarks). ). At the next level below the bag (article classification), three article classifications, brand B1 (article classification), brand B2 (article classification), and brand B3 (article classification), are defined, focusing on the brand of the bag. Has been done.

以上の図3の例において、物品分類ツリーの葉ノードに対応する物品分類が「最深分類」に相当する。例えば「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」は独立した1つの「最深分類」であり、「バッグ(物品分類)>ブランドB3(物品分類)」も独立した1つの「最深分類」である。最深分類は、特許請求の範囲の「分類」に相当する。また以上の説明から明らかな通り、「物品分類」は、ある階層において、その上位の階層を2つ以上に分類するときの各々の分類のことを意味する。 In the above example of FIG. 3, the article classification corresponding to the leaf node of the article classification tree corresponds to the "deepest classification". For example, "laptop (article classification)> Windows (article classification)> maker MK1 (article classification)" is one independent "deepest classification", and "bag (article classification)> brand B3 (article classification)" is also independent. It is one of the "deepest classifications". The deepest classification corresponds to the "classification" of the claims. Further, as is clear from the above description, the "article classification" means each classification when the upper hierarchy is classified into two or more in a certain hierarchy.

さて本サービスの利用に際してユーザは、端末2の専用アプリを起動する。専用アプリの起動に応じて、端末2の端末側制御部10とサーバ3の評価部13とが協働して適切にユーザ認証を行い、評価部13は、ユーザを識別するためのユーザ識別情報を認識する。以下、端末2のユーザ(本サービスを利用しようとしているユーザ)を特に「対象ユーザ」といい、対象ユーザが査定の対象とする物品を特に「対象物品」という。 Now, when using this service, the user activates the dedicated application of the terminal 2. In response to the activation of the dedicated application, the terminal side control unit 10 of the terminal 2 and the evaluation unit 13 of the server 3 cooperate to appropriately authenticate the user, and the evaluation unit 13 uses the user identification information for identifying the user. Recognize. Hereinafter, the user of the terminal 2 (the user who intends to use this service) is particularly referred to as a "target user", and the article targeted by the target user for assessment is particularly referred to as a "target article".

次いで対象ユーザは、専用アプリの機能により提供されるユーザインタフェイスに所定の操作を行って第2層物品分類選択画面G4A(図4(A))を端末2のタッチスクリーン4に表示することを指示する。当該指示に応じて、端末2の端末側制御部10およびサーバ3の評価部13は協働して最深分類認識処理を実行する。以下、最深分類認識処理について詳述する。 Next, the target user performs a predetermined operation on the user interface provided by the function of the dedicated application to display the second layer article classification selection screen G4A (FIG. 4A) on the touch screen 4 of the terminal 2. Instruct. In response to the instruction, the terminal side control unit 10 of the terminal 2 and the evaluation unit 13 of the server 3 cooperate to execute the deepest classification recognition process. Hereinafter, the deepest classification recognition process will be described in detail.

最深分類認識処理において端末2の端末側制御部10は、第2層物品分類選択画面G4Aを表示するための描画データをサーバ3に要求する。当該要求は例えばHTTPリクエストとして行われる。当該要求に応じてサーバ3の評価部13は、描画データを生成し、端末2の端末側制御部10に応答する。端末2の端末側制御部10は描画データを受信し、描画データに基づいて第2層物品分類選択画面G4Aをタッチスクリーン4に表示する。 In the deepest classification recognition process, the terminal side control unit 10 of the terminal 2 requests the server 3 for drawing data for displaying the second layer article classification selection screen G4A. The request is made, for example, as an HTTP request. In response to the request, the evaluation unit 13 of the server 3 generates drawing data and responds to the terminal side control unit 10 of the terminal 2. The terminal side control unit 10 of the terminal 2 receives the drawing data, and displays the second layer article classification selection screen G4A on the touch screen 4 based on the drawing data.

以下サーバ3の評価部13による描画データの生成/送信、描画データに基づいて表示された各種画面への入力の検出、各種画面へ入力された情報の取得、各種画面の動的な変更、その他の画面に関する各種処理は、CGI、JavaScript(登録商標)、Ajax、DHTML、その他の既存の技術を用いて適切に実行されるものとし、詳しい説明は行わない。またサーバ3の評価部13が描画データを端末2の端末側制御部10に送信し、描画データに基づく画面を端末2のタッチスクリーン4に表示させることを単に「評価部13が、端末側制御部10に、○○画面をタッチスクリーン4に表示させる」或いは単に「評価部13が○○画面を表示させる」のように表現することがある。 Below, generation / transmission of drawing data by the evaluation unit 13 of the server 3, detection of input to various screens displayed based on the drawing data, acquisition of information input to various screens, dynamic change of various screens, etc. Various processes related to the screen of the above shall be appropriately executed using CGI, Javascript (registered trademark), Ajax, DHCP, and other existing technologies, and detailed description will not be given. Further, the evaluation unit 13 of the server 3 transmits the drawing data to the terminal side control unit 10 of the terminal 2, and the screen based on the drawing data is displayed on the touch screen 4 of the terminal 2. The unit 10 may express such as "display the XX screen on the touch screen 4" or simply "display the XX screen by the evaluation unit 13.".

図4(A)は第2層物品分類選択画面G4Aの一例である。第2層物品分類選択画面G4Aは、物品分類ツリーにおける第2層の物品分類のそれぞれを示すアイコンが一覧的に表示された画面である。各アイコンはタッチ操作により選択可能である。第2層の物品分類は、本サービスで査定の対象となり得る物品を大まかに分類するものであり、本サービスで査定の対象となり得る物品が何れかの物品分類に属するように十分な種類が用意されている。対象ユーザは、対象物品の物品分類に対応するアイコンをタッチ操作することによって、物品分類を選択する。 FIG. 4A is an example of the second layer article classification selection screen G4A. The second layer article classification selection screen G4A is a screen in which icons indicating each of the second layer article classifications in the article classification tree are displayed in a list. Each icon can be selected by touch operation. The second layer of article classification roughly classifies the articles that can be assessed by this service, and sufficient types are prepared so that the articles that can be assessed by this service belong to any of the article categories. Has been done. The target user selects the article classification by touching the icon corresponding to the article classification of the target article.

第2層物品分類選択画面G4Aで何れかの物品分類が選択されると評価部13は、端末側制御部10に、選択された物品分類の1つ下の階層の物品分類のそれぞれを示すアイコンが表示された画面をタッチスクリーン4に表示させる。対象ユーザは、画面に表示されたアイコンのうち、何れか1つのアイコンをタッチ操作することによって物品分類を選択する。以上のようにして、ある画面において対象ユーザが物品分類を選択すると、選択された物品分類の1つ下の階層の物品分類が一覧表示された画面がタッチスクリーン4に表示され、再び対象ユーザが物品分類を選択すると、選択された物品分類の1つ下の階層の物品分類が一覧表示された画面がタッチスクリーン4に表示される、という処理が対象ユーザにより最深分類が選択されるまで繰り返し実行される。 When any of the article classifications is selected on the second layer article classification selection screen G4A, the evaluation unit 13 tells the terminal side control unit 10 an icon indicating each of the article classifications in the next lower layer of the selected article classification. Is displayed on the touch screen 4. The target user selects an article classification by touching any one of the icons displayed on the screen. As described above, when the target user selects an article classification on a certain screen, a screen displaying a list of article classifications in the next lower layer of the selected article classification is displayed on the touch screen 4, and the target user again displays the article classification. When the article classification is selected, the process that the screen displaying the list of the article classifications one level below the selected article classification is displayed on the touch screen 4 is repeatedly executed until the deepest classification is selected by the target user. Will be done.

例えば物品分類の階層構造が図3で例示する物品分類ツリーに従っており、対象物品が「OSがiOSであるスマートフォン」であったとする。この場合、図4を参照し、対象ユーザは第2層物品分類選択画面G4A(図4(A))においてスマートフォン(物品分類)を示すアイコンB4Aを選択し、これに応じてOSに係る物品分類を選択するための画面G4B(図4(B))が表示され、対象ユーザはこの画面G4BにおいてiOS(物品分類)を示すアイコンB4Bを選択する。以上により、対象ユーザにより最深分類として「スマートフォン(物品分類)>iOS(物品分類)」が選択される。 For example, it is assumed that the hierarchical structure of the article classification follows the article classification tree exemplified in FIG. 3, and the target article is a “smartphone whose OS is iOS”. In this case, referring to FIG. 4, the target user selects the icon B4A indicating the smartphone (article classification) on the second layer article classification selection screen G4A (FIG. 4A), and the article classification related to the OS is correspondingly selected. The screen G4B (FIG. 4 (B)) for selecting is displayed, and the target user selects the icon B4B indicating iOS (article classification) on this screen G4B. As described above, "smartphone (article classification)> iOS (article classification)" is selected as the deepest classification by the target user.

評価部13は、以上のようにして対象ユーザにより選択された最深分類(対象物品の最深分類)を認識する。以下、対象物品の最深分類を「対象最深分類」という。以上の処理が最深分類認識処理である。 The evaluation unit 13 recognizes the deepest classification (the deepest classification of the target article) selected by the target user as described above. Hereinafter, the deepest classification of the target article is referred to as "target deepest classification". The above processing is the deepest classification recognition processing.

最深分類認識処理の後、評価部13および端末側制御部10は協働して、撮影画像データ取得処理を実行する。以下、撮影画像データ取得処理について詳述する。 After the deepest classification recognition process, the evaluation unit 13 and the terminal side control unit 10 cooperate to execute the captured image data acquisition process. Hereinafter, the captured image data acquisition process will be described in detail.

上述の通り本実施形態では、物品分類ツリーに従って最深分類が定義されており、物品は何れかの最深分類に属することになる。そして本実施形態では最深分類ごとに、どのような方法で撮影されて生成された撮影画像データが必要であるかが事前に定められており、これに応じて最深分類ごとに、撮影画像データ取得処理の態様が異なっている。以下、物品を撮影するときの方法を「物品撮影方法」という。後に明らかとなるように撮影画像データは、対象物品の査定額を導出する際に利用されるものである。そして、ある最深分類についての物品撮影方法は、その最深分類に属する物品の査定額を導出する際に利用する撮影画像データとして適切な内容のデータが用意されるようにするという観点の下で定められている。 As described above, in the present embodiment, the deepest classification is defined according to the article classification tree, and the article belongs to any of the deepest classifications. In the present embodiment, it is determined in advance by what method the photographed image data is required for each deepest classification, and the photographed image data is acquired for each deepest classification accordingly. The mode of processing is different. Hereinafter, the method for photographing an article is referred to as an "article photography method". As will become clear later, the photographed image data is used when deriving the assessed amount of the target article. Then, the article photographing method for a certain deepest classification is determined from the viewpoint of preparing data having appropriate contents as photographed image data to be used when deriving the assessed amount of the article belonging to the deepest classification. Has been done.

以下、物品分類ツリーが図3で示すツリーに従っているものとして、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1」の場合、「スマートフォン(物品分類)>iOS(物品分類)」の場合、および、「バッグ(物品分類)>ブランドB1」の場合のそれぞれを例として、撮影画像データ取得処理について説明する。 Hereinafter, assuming that the article classification tree follows the tree shown in FIG. 3, when the target deepest classification is "notebook computer (article classification)> Windows (article classification)> maker MK1", "smartphone (article classification)> iOS (article classification)". The photographed image data acquisition process will be described by taking each of the case of "classification)" and the case of "bag (article classification)> brand B1" as examples.

なお以下の説明において、「型番」とは、物品の型、型式、種類或いは機種を識別する情報を意味する。型番は、メーカ型番や、品番、製品番号、型名、型式、型式番号、形式、形式番号、モデル(Model)、タイプ(Type)、プロダクト(product)等と呼ばれることがある。また「固有番号」とは、物品ごとに一意な情報を意味する。固有番号は、製造番号や、製番、シリアルナンバ、シリアル番号等と呼ばれることがある。当然、型番が同じ物品についても、固有番号は必ず異なる。特にスマートフォンに関し、IMEIは固有番号に相当する。 In the following description, the "model number" means information for identifying the type, model, type or model of the article. The model number may be referred to as a manufacturer's model number, a product number, a product number, a model name, a model, a model number, a model, a model number, a model, a type, a product, or the like. Further, the "unique number" means information unique to each article. The unique number may be called a serial number, a serial number, a serial number, a serial number, or the like. Of course, even if the items have the same model number, the unique numbers will always be different. Especially for smartphones, IMEI corresponds to a unique number.

<対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合>
まず対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合における撮影画像データ取得処理について説明する。この場合、対象物品は、大きな分類としてはノートパソコンに属することになるが、ノートパソコンには一般に以下の特徴がある。
(1)ディスプレイを有し、型番および所定の要素についてのスペックを少なくとも含むシステム関連情報をディスプレイに表示可能である。
(2)同じ型番であっても、スペックが異なる場合がある。
(3)ディスプレイの正面を含む部位に生じた劣化が査定(評価)に影響を与える。
つまりノートパソコンは、ディスプレイを有し、型番および所定の要素についてのスペックを少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、同じ型番であってもスペックが異なる場合があるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の3つの特徴を備える電子機器である。
<When the target deepest classification is "notebook computer (article classification)> Windows (article classification)> manufacturer MK1 (article classification)">
First, the captured image data acquisition process when the target deepest classification is "notebook computer (article classification)> Windows (article classification)> maker MK1 (article classification)" will be described. In this case, the target article belongs to a notebook computer as a major category, but the notebook computer generally has the following characteristics.
(1) Having a display, it is possible to display system-related information including at least specifications for a model number and a predetermined element on the display.
(2) Even if the model number is the same, the specifications may differ.
(3) Deterioration that occurs in the part including the front of the display affects the assessment (evaluation).
That is, a laptop computer has a display and can display system-related information including at least specifications for a model number and a predetermined element on the display, and even if the model number is the same, the specifications may be different. , It is an electronic device having three characteristics that deterioration occurring in a part including the front surface of a display affects the evaluation.

(1)に関し、システム関連情報とは、ハードウェアおよびソフトウェアに関するスペックや、仕様、設定、ステータス、属性等の、電子機器に関する種々の情報である。システム関連情報は、Windows系システムでは、システム情報と呼ばれるものである。一般にスマートフォン、汎用ノートパソコン、汎用タブレット端末、汎用ラップトップ端末および汎用デスクトップ端末は、搭載されたOSに応じた所定の操作を行うことによって、システム関連情報をディスプレイに表示することが可能に構成されている。この他、デジタルウォッチ等の専用機についても、ディスプレイにシステム関連情報を表示可能に構成されたものが存在する。 Regarding (1), the system-related information is various information related to electronic devices such as specifications, specifications, settings, statuses, attributes, etc. related to hardware and software. System-related information is called system information in a Windows system. Generally, smartphones, general-purpose laptop computers, general-purpose tablet terminals, general-purpose laptop terminals, and general-purpose desktop terminals are configured to be able to display system-related information on a display by performing predetermined operations according to the installed OS. ing. In addition, there are also dedicated devices such as digital watches that are configured to be able to display system-related information on the display.

図5は、ノートパソコンに表示可能なシステム関連情報の典型例を示す図である。図5で示すようにノートパソコンに係るシステム関連情報には通常、型番、固有番号、プロセッサ種類および総メモリ数が含まれている。プロセッサ種類および総メモリ数は、特許請求の範囲の「所定の要素についてのスペック」に相当する。なお図5の型番、固有番号、プロセッサ種類および総メモリ数については、同じ意味で他の文言が使用されている場合がある。例えばプロセッサ種類についてはプロセッサ名と表現されている場合があり、総メモリ数については単にメモリと表現されている場合がある。 FIG. 5 is a diagram showing a typical example of system-related information that can be displayed on a notebook computer. As shown in FIG. 5, system-related information relating to a notebook computer usually includes a model number, a unique number, a processor type, and a total number of memories. The processor type and the total number of memories correspond to the "specs for a predetermined element" in the claims. Note that other terms may be used with the same meaning for the model number, unique number, processor type, and total number of memories in FIG. For example, the processor type may be expressed as a processor name, and the total number of memories may be simply expressed as memory.

(2)に関し例えばノートパソコンは、購入時にプロセッサの種類を選べるようになっている場合があり、同じ型番のノートパソコンであってもプロセッサの種類が異なる(=スペックが異なる)ことがある。また例えばノートパソコンは、メモリ(主記憶)を後から増設可能となっている場合があり、同じ型番のノートパソコンであっても総メモリ数(主記憶の容量)が異なる(=スペックが異なる)ことがある。ノートパソコンに関し、スペックの相違は、査定に影響を与える。 Regarding (2), for example, a notebook computer may have a processor type that can be selected at the time of purchase, and even notebook computers of the same model number may have different processor types (= different specifications). Also, for example, in a notebook computer, memory (main memory) may be added later, and even if the notebook computer has the same model number, the total number of memories (main memory capacity) is different (= specifications are different). Sometimes. For laptops, differences in specifications affect the assessment.

(3)に関し、ディスプレイの正面を含む部位は、ノートパソコンに関しては具体的には、ノートパソコンを開いたときに同時に露出するディスプレイおよびキーボードである。ディスプレイの正面を含む部位に生じた劣化に関し、ディスプレイの劣化とは、割れや、傷、汚れ、凹み等である。また、キーボードの劣化とは、部品の欠損や、傷、汚れ、摩耗等である。ディスプレイおよびキーボードの劣化は、ノートパソコンの使い勝手に影響を与えるため、他の部位における劣化と比較して査定により強い影響を与える。 Regarding (3), the portion including the front of the display is, specifically, the display and the keyboard that are exposed at the same time when the notebook computer is opened. Regarding the deterioration that occurs in the portion including the front surface of the display, the deterioration of the display is cracks, scratches, stains, dents, and the like. Deterioration of the keyboard includes missing parts, scratches, dirt, wear, and the like. Deterioration of the display and keyboard affects the usability of the laptop computer, and therefore has a stronger impact on the assessment than deterioration in other parts.

さて対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合、まず評価部13は、サーバ側記憶部14に記憶された物品撮影方法データベースを参照し、対象最深分類に対応する物品撮影方法関連データを取得する。物品撮影方法データベースとは、最深分類ごとに物品撮影方法関連データが登録されたデータベースである。物品撮影方法関連データには、撮影画像データ取得処理において評価部13が端末側制御部10に表示させる各種画面の描画データが含まれている。以下で説明する撮影画像データ取得処理における評価部13の処理は、対象最深分類に対応する物品撮影方法関連データに基づいて実行される。 When the target deepest classification is "notebook computer (article classification)> Windows (article classification)> maker MK1 (article classification)", the evaluation unit 13 first refers to the article photographing method database stored in the server-side storage unit 14. Then, the data related to the article photography method corresponding to the deepest classification of the target is acquired. The article photography method database is a database in which data related to the article photography method is registered for each deepest classification. The article shooting method-related data includes drawing data of various screens displayed on the terminal side control unit 10 by the evaluation unit 13 in the shot image data acquisition process. The processing of the evaluation unit 13 in the captured image data acquisition processing described below is executed based on the article imaging method-related data corresponding to the target deepest classification.

評価部13は、端末側制御部10に、図6(A)の画面G6Aをタッチスクリーン4に表示させる。画面G6Aは、ノートパソコンを開き、システム関連情報をディスプレイに表示させた状態でディスプレイおよびキーボードの全域(ディスプレイの正面を含む部位)が写るように撮影を行うことを指示すると共に、撮影の手順を案内(説明)する画面である。特に画面6Aでは、システム関連情報に含まれる型番、固有番号、プロセッサ種類および総メモリ数がディスプレイに表示された状態となるよう指示される。後に明らかとなるように、査定にあたってこれらの情報が利用されるからである。 The evaluation unit 13 causes the terminal side control unit 10 to display the screen G6A of FIG. 6A on the touch screen 4. The screen G6A instructs the notebook computer to be opened and shoots so that the entire area of the display and keyboard (the part including the front of the display) can be captured while the system-related information is displayed on the display, and the shooting procedure is performed. It is a screen to guide (explain). In particular, on the screen 6A, the model number, the unique number, the processor type, and the total number of memories included in the system-related information are instructed to be displayed on the display. This is because this information will be used in the assessment, as will become clear later.

図6(A)で示すように画面6Aの上部には、ノートパソコンを開き、システム関連情報(図6(A)では「システム情報」と表現)をディスプレイに表示させた状態で、ディスプレイとキーボードとが写るように撮影を行うことを指示する文章が表示されている。また画面G6Aにおいて、当該文章の下方には、開いた状態のノートパソコンを表す画像が表示されている。この画像は、どのような方法で撮影すればよいかを対象ユーザにイメージさせるための画像であり当然、図6(A)で例示する内容に限られない。 As shown in FIG. 6A, a laptop computer is opened at the upper part of the screen 6A, and system-related information (expressed as "system information" in FIG. 6A) is displayed on the display, and the display and keyboard are displayed. A sentence is displayed instructing the photographer to take a picture. Further, on the screen G6A, an image showing an open notebook computer is displayed below the text. This image is an image for allowing the target user to imagine how to take the image, and is not limited to the content illustrated in FIG. 6A.

画面G6Aにおいて、この画像の下方には撮影の手順を説明する説明文が表示されている。図6(A)では省略されているものの、当該説明文には、システム関連情報(特にシステム関連情報に含まれる型番、固有番号、プロセッサ種類および総メモリ数)をディスプレイに表示させた状態でディスプレイおよびキーボードの全域が写るように撮影を行うために対象ユーザが認識し、留意すべき情報が含まれている。例えば当該説明文には、システム関連情報をディスプレイに表示する手順を示す情報が含まれている。当該手順を示す情報には、例えばOSのバージョンごとに手順が異なる場合には、OSのバージョンごとの手順が示される。また当該説明文は、ノートパソコンのOSがWindowsであること、および、ノートパソコンのメーカがMK1であることを反映した内容とされている。 On the screen G6A, an explanatory text explaining the shooting procedure is displayed below this image. Although omitted in FIG. 6A, the description shows system-related information (particularly the model number, unique number, processor type, and total number of memories included in the system-related information) displayed on the display. It also contains information that the target user should be aware of and keep in mind in order to capture the entire area of the keyboard. For example, the description includes information indicating a procedure for displaying system-related information on a display. The information indicating the procedure indicates, for example, the procedure for each OS version when the procedure differs for each OS version. Further, the description reflects that the OS of the notebook computer is Windows and that the manufacturer of the notebook computer is MK1.

画面G6Aは、特許請求の範囲の「対象物品の文字が対象物品の外観と共に撮影されるよう案内する画面」および「システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面」に相当する。すなわち評価部13は、対象ユーザにより対象物品を対象とする撮影が行われる際に、撮影に先立って対象物品の分類を認識し、認識した分類が上述した3つの特徴を備える電子機器が属する分類である場合には、システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を端末2に表示させる。 The screen G6A is a portion of the claims, including the front of the display, in which the characters of the target article are photographed together with the appearance of the object and the system-related information is displayed on the display. It corresponds to "a screen that guides you to be done". That is, the evaluation unit 13 recognizes the classification of the target article prior to the shooting when the target user takes a picture of the target article, and the recognized classification belongs to the electronic device having the above-mentioned three characteristics. If this is the case, the terminal 2 is displayed with a screen for guiding the portion including the front of the display to be photographed while the system-related information is displayed on the display.

図6(A)の画面G6Aには撮影の開始を指示するボタンB6Aが表示されており対象ユーザは、撮影の準備が整ったらボタンB6Aを操作する。ボタンB6Aの操作に応じて、端末側制御部10は、端末2のカメラ機能を有効にし、評価部13と協働して、図6(B)で示すように撮影時に対象物品を収めるべき枠線と撮影時の注意事項とが表示された画面G6Bを表示する。対象ユーザは、画面G6Bが表示された状態で撮影を実行し、撮影に応じて撮影画像データが生成される。端末側制御部10は、撮影画像データを評価部13に送信し、評価部13は、撮影画像データを取得する。 A button B6A instructing the start of shooting is displayed on the screen G6A of FIG. 6A, and the target user operates the button B6A when the shooting is ready. In response to the operation of the button B6A, the terminal side control unit 10 enables the camera function of the terminal 2 and cooperates with the evaluation unit 13 to accommodate the target article at the time of shooting as shown in FIG. 6B. The screen G6B on which the lines and precautions for shooting are displayed is displayed. The target user executes shooting while the screen G6B is displayed, and captured image data is generated according to the shooting. The terminal side control unit 10 transmits the captured image data to the evaluation unit 13, and the evaluation unit 13 acquires the captured image data.

以上の通り撮影画像データ取得処理について、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」のときは、システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位(より具体的にはディスプレイ+キーボード)が撮影されるように評価部13により案内される。そして対象ユーザが案内に従って撮影を行った場合は、ディスプレイにシステム関連情報が写った状態のノートパソコン(対象物品)の画像が記録された1つの撮影画像データが生成され、評価部13はこの1つの撮影画像データを取得する。 As described above, regarding the captured image data acquisition process, when the target deepest classification is "notebook computer (article classification)> Windows (article classification)> manufacturer MK1 (article classification)", the system-related information is displayed on the display. , The evaluation unit 13 guides the portion including the front surface of the display (more specifically, the display + keyboard) to be photographed. Then, when the target user takes a picture according to the guidance, one shot image data in which the image of the notebook computer (target article) in which the system-related information is shown on the display is recorded is generated, and the evaluation unit 13 generates this 1 Acquire one shot image data.

以上、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」であるときの撮影画像データ取得処理について説明したが、ノートパソコンと同様の特徴をもつ物品については、同様の方法で撮影画像データ取得処理が実行される。ノートパソコンと同様の特徴を持つかどうかは、最深分類に基づいて判断される。ノートパソコンと同様の特徴をもつ物品は例えば、ラップトップパソコンである。 The shooting image data acquisition process when the target deepest classification is "notebook computer (article classification)> Windows (article classification)> maker MK1 (article classification)" has been described above, but the article has the same characteristics as the notebook computer. The captured image data acquisition process is executed in the same manner. Whether or not it has the same characteristics as a laptop computer is determined based on the deepest classification. An article having the same characteristics as a laptop computer is, for example, a laptop computer.

<対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合>
次に対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合における撮影画像データ取得処理について説明する。この場合、対象物品は、大きな分類としてはスマートフォンに属することになるが、スマートフォンには一般に以下の特徴がある。
(1)前面の広い領域にタッチスクリーン(ディスプレイ)が設けられ、型番およびIMEI(固有番号)を少なくとも含むシステム関連情報をディスプレイに表示可能である。
(2)割賦(分割払い)により端末が購入される場合がある。
(3)筐体の前面のタッチスクリーン(ディスプレイ)に生じた劣化が、査定に影響を与える。
つまりスマートフォンは、前面の広い領域にディスプレイが設けられ、型番および固有番号を少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、割賦により購入される場合があるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の3つの特徴を備えるタブレット端末である。
<When the target deepest classification is "smartphone (article classification)> iOS (article classification)">
Next, the captured image data acquisition process when the target deepest classification is "smartphone (article classification)> iOS (article classification)" will be described. In this case, the target article belongs to the smartphone as a major category, but the smartphone generally has the following characteristics.
(1) A touch screen (display) is provided in a wide area on the front surface, and system-related information including at least a model number and an IMEI (unique number) can be displayed on the display.
(2) The terminal may be purchased by installment payment (installment payment).
(3) Deterioration of the touch screen (display) on the front of the housing affects the assessment.
In other words, smartphones are characterized by having a display in a large area on the front and being able to display system-related information including at least the model number and unique number on the display, the feature that they may be purchased by installment payment, and the front of the display. It is a tablet terminal having three characteristics that the deterioration caused in the portion including the above affects the evaluation.

(1)に関して図7は、スマートフォンに表示可能なシステム関連情報の典型例を示す図である。図7で示すようにスマートフォンに係るシステム関連情報には典型的には、型番(図7ではモデル番号と表現されている)およびIMEI(固有番号)が含まれている。(2)に関し、スマートフォンについて割賦により購入できるようにしたサービスが広く行われており、このサービスを通して端末が割賦により購入される場合がある。(3)に関し、タッチスクリーンの劣化はスマートフォンの使い勝手に影響を与えるため、他の部位における劣化と比較して査定により強い影響を与える。特にスマートフォンに関しては、タッチスクリーンに割れが生じることがあり、一般にタッチスクリーンに割れが生じている場合、スマートフォンの査定額は相当に低くなる。 Regarding (1), FIG. 7 is a diagram showing a typical example of system-related information that can be displayed on a smartphone. As shown in FIG. 7, the system-related information relating to the smartphone typically includes a model number (expressed as a model number in FIG. 7) and an IMEI (unique number). Regarding (2), a service that allows smartphones to be purchased by installment payment is widely used, and terminals may be purchased by installment payment through this service. Regarding (3), since the deterioration of the touch screen affects the usability of the smartphone, it has a stronger influence on the assessment than the deterioration in other parts. Especially for smartphones, the touch screen may crack, and in general, if the touch screen is cracked, the assessed amount of the smartphone will be considerably low.

さて対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合、評価部13は、物品撮影方法データベースから対象最深分類に対応する物品撮影方法関連データを取得し、取得した物品撮影方法関連データに基づいて以下の処理を実行する。すなわち評価部13は、端末側制御部10に、図6(A)の画面G6Aに代えて図8の画面G8をタッチスクリーン4に表示させる。画面G8は、システム関連情報をタッチスクリーンに表示させた状態で筐体の前面の全域が写るように撮影を行うことを指示すると共に、撮影の手順を案内(説明)する画面である。特に画面G8では、システム関連情報に含まれる型番およびIMEI(固有番号)がタッチスクリーンに表示された状態となるよう指示される。後に明らかとなるように、査定にあたってこれらの情報が利用されるからである。 When the target deepest classification is "smartphone (article classification)> iOS (article classification)", the evaluation unit 13 acquires the article shooting method-related data corresponding to the target deepest classification from the article photography method database, and acquires the acquired article photography. Perform the following processing based on the method-related data. That is, the evaluation unit 13 causes the terminal side control unit 10 to display the screen G8 of FIG. 8 on the touch screen 4 instead of the screen G6A of FIG. 6 (A). The screen G8 is a screen for instructing that the entire front surface of the housing is captured with the system-related information displayed on the touch screen, and for guiding (explaining) the shooting procedure. In particular, on the screen G8, the model number and IMEI (unique number) included in the system-related information are instructed to be displayed on the touch screen. This is because this information will be used in the assessment, as will become clear later.

図8で示すように画面G8の上部には、システム関連情報(図8では「システム情報」と表現)をタッチスクリーンに表示させた状態で、筐体の前面の全域が写るように撮影を行うことを指示する文章が表示されている。また画面G8において、当該文章の下方には、スマートフォンを正面から見た様子を表す画像が表示されている。この画像は、どのような方法で撮影すればよいかを対象ユーザにイメージさせるための画像であり当然、図8で例示する内容に限られない。 As shown in FIG. 8, the system-related information (expressed as “system information” in FIG. 8) is displayed on the touch screen at the upper part of the screen G8, and the entire front surface of the housing is photographed so as to be captured. A sentence instructing that is displayed. Further, on the screen G8, an image showing a state in which the smartphone is viewed from the front is displayed below the text. This image is an image for making the target user imagine what kind of method should be taken, and is not limited to the content illustrated in FIG. 8 as a matter of course.

画面G8において、この画像の下方には撮影の手順を説明する説明文が表示されている。図8では省略されているものの、当該説明文には、システム関連情報(特に型番およびIMEI)をタッチスクリーンに表示させた状態で筐体の前面の全域が写るように撮影を行うために対象ユーザが認識し、留意すべき情報が含まれている。例えば当該説明文には、システム関連情報をタッチスクリーンに表示する手順を示す情報が含まれている。当該手順を示す情報には、例えばOSのバージョンごとに手順が異なる場合には、OSのバージョンごとの手順が示される。また当該説明文は、スマートフォンのOSがiOSであることを反映した内容とされている。 On the screen G8, an explanatory text explaining the shooting procedure is displayed below this image. Although omitted in FIG. 8, the description includes the target user in order to capture the entire front surface of the housing with the system-related information (particularly the model number and IMEI) displayed on the touch screen. Contains information that should be recognized and noted. For example, the description contains information indicating a procedure for displaying system-related information on a touch screen. The information indicating the procedure indicates, for example, the procedure for each OS version when the procedure differs for each OS version. In addition, the description reflects that the OS of the smartphone is iOS.

画面G8は、特許請求の範囲の「対象物品の文字が対象物品の外観と共に撮影されるよう案内する画面」および「システム関連情報がディスプレイに表示された状態で、筐体が正面から撮影されるよう案内する画面」に相当する。すなわち評価部13は、対象ユーザにより対象物品を対象とする撮影が行われる際に、撮影に先立って対象物品の分類を認識し、認識した分類が上述した3つの特徴を備えるタブレット端末が属する分類である場合には、システム関連情報がディスプレイに表示された状態で、筐体が正面から撮影されるよう案内する画面を端末2に表示させる。 The screen G8 is a front view of the housing with the claims "a screen that guides the characters of the target article to be photographed together with the appearance of the target article" and "a system-related information is displayed on the display". It corresponds to the "screen that guides you". That is, the evaluation unit 13 recognizes the classification of the target article prior to the shooting when the target user takes a picture of the target article, and the recognized classification belongs to the tablet terminal having the above-mentioned three characteristics. If this is the case, the terminal 2 is displayed with a screen that guides the housing to be photographed from the front while the system-related information is displayed on the display.

画面G8のボタンB8が操作されると、図6(B)に相当する画面が表示され、対象ユーザにより撮影が行われる。撮影に応じて撮影画像データが生成され、端末側制御部10から評価部13に撮影画像データが送信され、評価部13は、撮影画像データを取得する。 When the button B8 on the screen G8 is operated, the screen corresponding to FIG. 6B is displayed, and the target user takes a picture. The captured image data is generated according to the shooting, the captured image data is transmitted from the terminal side control unit 10 to the evaluation unit 13, and the evaluation unit 13 acquires the captured image data.

以上の通り、撮影画像データ取得処理において、対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」のときは、システム関連情報がタッチスクリーンに表示された状態で、筐体が正面から撮影されるよう案内される。そして対象ユーザが指示に従って撮影を行った場合は、タッチスクリーンにシステム関連情報が写った状態のスマートフォン(対象物品)の画像が記録された1枚の撮影画像データが生成され、評価部13はこれを取得する。 As described above, in the captured image data acquisition process, when the target deepest classification is "smartphone (article classification)> iOS (article classification)", the system-related information is displayed on the touch screen and the housing is viewed from the front. You will be guided to be photographed. Then, when the target user takes a picture according to the instruction, one shot image data in which the image of the smartphone (target article) in which the system-related information is reflected on the touch screen is generated, and the evaluation unit 13 generates this. To get.

以上、対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」であるときの撮影画像データ取得処理について説明したが、スマートフォンと同様の特徴をもつ物品については、同様の方法で撮影画像データ取得処理が実行される。スマートフォンと同様の特徴をもつ物品は例えば、スマートフォンを除くタブレット端末(ただし、割賦により購入できるもの)である。 The captured image data acquisition process when the target deepest classification is "smartphone (article classification)> iOS (article classification)" has been described above, but for articles with the same characteristics as smartphones, captured images are captured by the same method. Data acquisition process is executed. Goods having the same characteristics as smartphones are, for example, tablet terminals excluding smartphones (however, those that can be purchased by installment payment).

<対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合>
次に対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合における撮影画像データ取得処理について説明する。この場合、対象物品は、大きな分類としてはバッグに属することになるが、バッグには一般に以下の特徴がある。
(1)物品に文字としての型番が記録されていない場合がある一方、型番を物品の外観から判定可能である。
(2)偽物である場合があり、査定にあたって物品が本物であるかどうかが重要である。
つまりバッグは、物品に文字としての型番が記録されていない場合がある一方、型番を物品の外観から判定可能であるという特徴、および、偽物である場合があり、評価にあたって物品が本物であるかどうかが重要であるという特徴の2つの特徴を備える物品である。
<When the target deepest classification is "bag (article classification)> brand B1 (article classification)">
Next, the captured image data acquisition process when the target deepest classification is "bag (article classification)> brand B1 (article classification)" will be described. In this case, the target article belongs to the bag as a major category, but the bag generally has the following characteristics.
(1) While the model number as characters may not be recorded on the article, the model number can be determined from the appearance of the article.
(2) It may be fake, and it is important whether the article is genuine or not in the assessment.
In other words, the bag may not have the model number as characters recorded on the article, but the model number can be determined from the appearance of the article, and it may be fake, so whether the article is genuine or not for evaluation. It is an article that has two characteristics: what is important.

(1)に関しバッグには、刻印、印刷、その他の手段で型番が記録されることもあるが、型番が記録されない場合もある。特にブランドによっては、そのブランドが提供するバッグに統一的に型番を記録しないようにしているケースがある。一方、バッグについては一般に、バッグを正面から見たときの外観的な特徴によって型番を判別することができる。(2)に関しバッグに関しては、偽物であるケースがあり、査定に際しては真贋を見極めることが重要であり、通常、査定にあたっては真贋判定が行われる。一般に真贋判定は、バッグに表された真贋判定対象を利用して行われる。真贋判定対象は例えば、物品に記録されたロゴや、模様、マーク、特徴的な平面的或いは立体的な形状等である。物品の部分ではなく物品全体(例えば、物品全体の3次元的な形状)が真贋判定対象となる場合もある。 Regarding (1), the model number may be recorded on the bag by engraving, printing, or other means, but the model number may not be recorded. In particular, depending on the brand, there are cases where the model number is not recorded uniformly on the bags provided by that brand. On the other hand, with respect to a bag, the model number can generally be determined by the appearance characteristics when the bag is viewed from the front. Regarding (2), there are cases where the bag is fake, and it is important to determine the authenticity at the time of assessment. Normally, the authenticity is judged at the time of assessment. In general, the authenticity determination is performed by using the authenticity determination target displayed on the bag. The authenticity determination target is, for example, a logo recorded on an article, a pattern, a mark, a characteristic planar or three-dimensional shape, or the like. In some cases, the entire article (for example, the three-dimensional shape of the entire article) is subject to authenticity determination instead of the portion of the article.

さて対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合、評価部13は、物品撮影方法データベースから対象最深分類に対応する物品撮影方法関連データを取得し、取得した物品撮影方法関連データに基づいて以下の処理を実行する。すなわち評価部13は、端末側制御部10に、図6(A)の画面G6Aに代えて図9の画面G9をタッチスクリーン4に表示させる。画面G9は、バッグの正面の全域が写るように撮影を行うことを指示すると共に、撮影の手順を案内(説明)する画面である。バッグの正面の全域が写るように対象ユーザに撮影を行わせる理由は、バッグを正面から撮影したときの外観がバッグの型番を特定するのに最も有効利用でき、また、バッグを正面から撮影したときに写る、バッグに関する要素がバッグの真贋判定に最も有効利用できるからである。 When the target deepest classification is "bag (article classification)> brand B1 (article classification)", the evaluation unit 13 acquires the article shooting method-related data corresponding to the target deepest classification from the article photography method database, and the acquired article. The following processing is executed based on the shooting method related data. That is, the evaluation unit 13 causes the terminal side control unit 10 to display the screen G9 of FIG. 9 on the touch screen 4 instead of the screen G6A of FIG. 6 (A). The screen G9 is a screen for instructing the shooting so that the entire front surface of the bag is captured and guiding (explaining) the shooting procedure. The reason for having the target user take a picture so that the entire front of the bag is taken is that the appearance when the bag is taken from the front can be most effectively used to identify the model number of the bag, and the bag is taken from the front. This is because the elements related to the bag, which are sometimes reflected, can be most effectively used to determine the authenticity of the bag.

図9で示すように画面G9の上部には、バッグの正面の全域が写るように撮影を行うことを指示する文章が表示されている。また画面G9において、当該文章の下方には、バッグを正面から見た様子を表す画像が表示されている。この画像は、どのような方法で撮影すればよいかをユーザにイメージさせるための画像であり当然、図9で例示する内容に限られない。 As shown in FIG. 9, at the upper part of the screen G9, a sentence instructing to take a picture so that the entire front surface of the bag is captured is displayed. Further, on the screen G9, an image showing the appearance of the bag as viewed from the front is displayed below the text. This image is an image for the user to imagine what kind of method should be taken, and is not limited to the content illustrated in FIG. 9 as a matter of course.

画面G9において、この画像の下方には撮影の手順を説明する説明文が表示されている。図9では省略されているものの、当該説明文には、バッグの正面の全域が写るように撮影を行うためにユーザが認識し、留意すべき情報が含まれている。また当該説明文は、バッグのブランドがブランドB1であることを反映した内容とされている。 On the screen G9, an explanatory text explaining the shooting procedure is displayed below this image. Although omitted in FIG. 9, the description contains information that the user should be aware of and should be aware of in order to capture the entire front surface of the bag. In addition, the description reflects that the brand of the bag is brand B1.

画面G9は、特許請求の範囲の「生成される撮影画像データが型番の認識に利用可能なデータとなるように対象物品の外観が撮影されるよう案内する画面」、「生成される撮影画像データが対象物品の真贋の判定に利用可能なデータとなるように対象物品の外観が撮影されるよう案内する画面」および「生成される撮影画像データが型番の認識に利用可能かつ真贋の判定に利用可能なデータとなるように対象物品の外観が撮影されるよう案内する画面」に相当する。すなわち評価部13は、対象ユーザにより対象物品を対象とする撮影が行われる際に、撮影に先立って対象物品の分類を認識し、認識した分類が2つの特徴を備える物品が属する分類である場合には、生成される撮影画像データが型番の認識に利用可能かつ真贋の判定に利用可能なデータとなるように対象物品の外観が撮影されるよう案内する画面を端末2に表示させる。 The screen G9 is a "screen that guides the appearance of the target article to be photographed so that the generated photographed image data can be used for recognizing the model number" and "generated photographed image data" in the scope of the patent claim. "Screen that guides the appearance of the target article to be photographed so that the data can be used to determine the authenticity of the target article" and "The generated photographed image data can be used to recognize the model number and is used to determine the authenticity. It corresponds to "a screen that guides the appearance of the target article to be photographed so that the data becomes possible". That is, when the target user takes a picture of the target article, the evaluation unit 13 recognizes the classification of the target article prior to the shooting, and the recognized classification is the classification to which the article having two characteristics belongs. A screen for guiding the appearance of the target article to be photographed is displayed on the terminal 2 so that the generated photographed image data can be used for recognizing the model number and for determining the authenticity.

画面G9のボタンB9が操作されると、図6(B)に相当する画面が表示され、ユーザにより撮影が行われる。撮影に応じて撮影画像データが生成され、端末側制御部10から評価部13に撮影画像データが送信され、評価部13は、撮影画像データを取得する。 When the button B9 on the screen G9 is operated, the screen corresponding to FIG. 6B is displayed, and the user takes a picture. The captured image data is generated according to the shooting, the captured image data is transmitted from the terminal side control unit 10 to the evaluation unit 13, and the evaluation unit 13 acquires the captured image data.

以上の通り撮影画像データ取得処理において、対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」のときは、バッグの正面の全域が撮影されるように評価部13により案内される。そして、対象ユーザが指示に従って撮影を行った場合は、バッグの正面の画像が記録された1枚の撮影画像データが生成され、評価部13はこれを取得する。以上、対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」であるときの撮影画像データ取得処理について説明したが、バッグと同様の特徴をもつ物品については、同様の方法で撮影画像データ取得処理が実行される。バッグと同様の特徴をもつ物品は例えば、靴、その他のバッグ以外のブランド品である。 As described above, in the captured image data acquisition process, when the target deepest classification is "bag (article classification)> brand B1 (article classification)", the evaluation unit 13 guides the entire front surface of the bag to be photographed. .. Then, when the target user takes a picture according to the instruction, one photographed image data in which the image of the front surface of the bag is recorded is generated, and the evaluation unit 13 acquires this. The shooting image data acquisition process when the target deepest classification is "bag (article classification)> brand B1 (article classification)" has been described above, but for articles with the same characteristics as the bag, the images are taken by the same method. Image data acquisition processing is executed. Articles having similar characteristics to bags are, for example, shoes and other branded products other than bags.

以上が評価部13および端末側制御部10により実行される撮影画像データ取得処理である。以上の通り、撮影画像データ取得処理の結果、対象最深分類に応じた物品撮影方法が案内されると共に、(理想的には)対象最深分類に応じた方法で対象物品の撮影が行われて撮影画像データが生成され、評価部13は、生成された撮影画像データを取得する。 The above is the captured image data acquisition process executed by the evaluation unit 13 and the terminal side control unit 10. As described above, as a result of the captured image data acquisition process, the article photographing method according to the target deepest classification is guided, and (ideally) the target article is photographed by the method according to the target deepest classification. Image data is generated, and the evaluation unit 13 acquires the generated captured image data.

撮影画像データ取得処理の後、評価部13は、査定処理を実行する。以下、査定処理について詳述する。査定処理に関し評価部13は、対象最深分類に応じた査定処理を実行する。これを踏まえ、以下、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合と、対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合と、対象最深分類が「バッグ(物品分類)>ブランドB1」の場合とに分けて評価部13の処理について説明する。 After the captured image data acquisition process, the evaluation unit 13 executes the assessment process. The assessment process will be described in detail below. Regarding the assessment process, the evaluation unit 13 executes the assessment process according to the deepest classification of the target. Based on this, below, the case where the target deepest classification is "notebook computer (article classification)> Windows (article classification)> maker MK1 (article classification)" and the target deepest classification is "smartphone (article classification)> iOS (article classification)". ) ”And the case where the target deepest classification is“ bag (article classification)> brand B1 ”, the processing of the evaluation unit 13 will be described.

<対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合>
まず対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」である場合の評価部13の処理について説明する。上述の通り、この場合、評価部13は、ディスプレイにシステム関連情報が表示された状態でディスプレイおよびキーボードの全域が撮影されて生成された撮影画像データを取得している。
<When the target deepest classification is "notebook computer (article classification)> Windows (article classification)> manufacturer MK1 (article classification)">
First, the processing of the evaluation unit 13 when the target deepest classification is "notebook computer (article classification)> Windows (article classification)> maker MK1 (article classification)" will be described. As described above, in this case, the evaluation unit 13 acquires the captured image data generated by photographing the entire area of the display and the keyboard with the system-related information displayed on the display.

まず評価部13は、期待画像判定処理を実行する。期待画像判定処理とは、評価部13が取得した撮影画像データについて、その内容が後続の撮影画像データを利用して行われる処理を正常に行うために適切な内容となっているか否かを判別する処理である。例えば評価部13は、期待された態様で対象物品が撮影されていない場合(例えば、期待されている視点で対象物品が撮影されていない場合や、対象物品の画像が異常に小さい場合)に撮影画像データの内容が適切でないと判定する。また例えば評価部13は、後続する処理が正常に実行できない程度に撮影画像データの画像がブレている場合に撮影画像データの内容が適切でないと判定する。 First, the evaluation unit 13 executes the expected image determination process. The expected image determination process determines whether or not the content of the captured image data acquired by the evaluation unit 13 is appropriate for normally performing the processing performed using the subsequent captured image data. It is a process to do. For example, the evaluation unit 13 photographs when the target article is not photographed in the expected manner (for example, when the target article is not photographed from the expected viewpoint or when the image of the target article is abnormally small). It is determined that the content of the image data is not appropriate. Further, for example, the evaluation unit 13 determines that the content of the captured image data is not appropriate when the image of the captured image data is blurred to the extent that the subsequent processing cannot be normally executed.

期待画像判定処理は例えば、最深分類の種類ごとに用意された以下のモデルを利用して行われる。モデルは、撮影画像データを入力し、入力した撮影画像データを対象として各種画像処理を行い、入力した撮影画像データの内容が正常内容かどうかを示す値(正常内容である可能性を示す値でもよい)を出力するものである。モデルには既存の全ての画像処理技術を応用可能であり、また、モデルは所定の機械学習手法(例えばディープラーニング)で学習されたものであってもよい。 The expected image determination process is performed using, for example, the following model prepared for each type of deepest classification. The model inputs the captured image data, performs various image processing on the input captured image data, and indicates whether the content of the input captured image data is normal (even a value indicating the possibility of normal content). Good) is output. All existing image processing techniques can be applied to the model, and the model may be learned by a predetermined machine learning method (for example, deep learning).

撮影画像データの内容が適切でないと判定した場合、評価部13は、対応する処理を実行する。例えば評価部13は対応する処理として、端末側制御部10に、対象物品の撮影をやり直すことを促す画面をタッチスクリーン4に表示させる。 When it is determined that the content of the captured image data is not appropriate, the evaluation unit 13 executes the corresponding process. For example, as a corresponding process, the evaluation unit 13 causes the terminal side control unit 10 to display a screen on the touch screen 4 for urging the photographing of the target article to be repeated.

一方、撮影画像データの内容が適切であると判定した場合、評価部13は、文字認識処理を実行する。文字認識処理とは、対象物品の画像に含まれる文字の画像(本例ではシステム関連情報の画像)を対象として文字認識する処理である。文字認識処理において評価部13は、撮影画像データを画像処理により分析し、撮影画像データに記録された画像から、対象物品の画像を特定する。次いで評価部13は、撮影画像データを画像処理により分析し、対象物品の画像から、システム関連情報の画像(撮影画像データに記録された対象物品の画像に含まれる文字の画像)を特定する。次いで評価部13は、システム関連情報の画像を光学文字認識処理により分析し、システム関連情報の画像が示す文字群を文字認識する。 On the other hand, when it is determined that the content of the captured image data is appropriate, the evaluation unit 13 executes the character recognition process. The character recognition process is a process of recognizing a character image (in this example, an image of system-related information) included in the image of the target article. In the character recognition process, the evaluation unit 13 analyzes the captured image data by image processing and identifies the image of the target article from the image recorded in the captured image data. Next, the evaluation unit 13 analyzes the captured image data by image processing, and identifies an image of system-related information (an image of characters included in the image of the target article recorded in the captured image data) from the image of the target article. Next, the evaluation unit 13 analyzes the image of the system-related information by the optical character recognition process, and recognizes the character group indicated by the image of the system-related information.

次いで評価部13は、型番認識処理を実行する。型番認識処理は、システム関連情報の画像を対象として文字認識することによって型番を認識する処理である。型番認識処理において評価部13は、文字認識処理の結果に基づいて、システム関連情報の画像が示す文字群の中から、型番を示す文字列を特定し、型番を認識する。例えば通常、システム関連情報では、項目名と項目値との組み合わせが一覧的に並べて配置される。これを踏まえ評価部13は、システム関連情報の画像が示す文字群の中から、型番の項目名として利用される文字列(例えばシステムモデルや、モデル、機種等)を特定し、特定した文字列と対応付けられている項目値を型番として認識する。例えば文字列の特定は、テキストデータをキーとする文字列検索により行われる。 Next, the evaluation unit 13 executes the model number recognition process. The model number recognition process is a process of recognizing a model number by recognizing characters on an image of system-related information. In the model number recognition process, the evaluation unit 13 identifies a character string indicating the model number from the character group indicated by the image of the system-related information based on the result of the character recognition process, and recognizes the model number. For example, in system-related information, for example, combinations of item names and item values are usually arranged side by side in a list. Based on this, the evaluation unit 13 identifies a character string (for example, a system model, a model, a model, etc.) used as an item name of a model number from the character group shown in the image of system-related information, and the specified character string. The item value associated with is recognized as a model number. For example, the character string is specified by a character string search using text data as a key.

次いで評価部13は、固有番号認識処理を実行する。固有番号認識処理は、システム関連情報の画像を対象として文字認識することによって型番を認識する処理である。固有番号認識処理において評価部13は、文字認識処理の結果に基づいて、システム関連情報の画像が示す文字群の中から、固有番号を示す文字列を特定し、固有番号を認識する。例えば評価部13は、システム関連情報の画像が示す文字群の中から、固有番号の項目名として利用される文字列(例えばシリアル番号や、シリアルナンバ)を特定し、特定した文字列と対応付けられている項目値を固有番号として認識する。 Next, the evaluation unit 13 executes the unique number recognition process. The unique number recognition process is a process of recognizing a model number by recognizing characters on an image of system-related information. In the unique number recognition process, the evaluation unit 13 identifies a character string indicating the unique number from the character group shown by the image of the system-related information based on the result of the character recognition process, and recognizes the unique number. For example, the evaluation unit 13 identifies a character string (for example, a serial number or a serial number) used as an item name of a unique number from a character group shown by an image of system-related information, and associates it with the specified character string. Recognize the item value as a unique number.

次いで評価部13は、スペック認識処理を実行する。スペック認識処理は、システム関連情報の画像を対象として文字認識することによって所定の要素(本例ではプロセッサ種類および総メモリ数)についてのスペックを認識する処理である。スペック認識処理において評価部13は、文字認識処理の結果に基づいて、システム関連情報の画像が示す文字群の中から、プロセッサ種類および総メモリ数を示す文字列を特定し、これらを認識する。例えば評価部13は、システム関連情報の画像が示す文字群の中から、プロセッサ種類および総メモリ数の項目名として利用される文字列を特定し、特定した各文字列と対応付けられている各項目値をプロセッサ種類および総メモリ数として認識する。 Next, the evaluation unit 13 executes the spec recognition process. The spec recognition process is a process of recognizing specifications for a predetermined element (processor type and total number of memories in this example) by recognizing characters for an image of system-related information. In the spec recognition process, the evaluation unit 13 identifies a character string indicating the processor type and the total number of memories from the character group indicated by the image of the system-related information based on the result of the character recognition process, and recognizes these. For example, the evaluation unit 13 identifies a character string used as an item name of the processor type and the total number of memories from the character group shown in the image of the system-related information, and each associated with each specified character string. Recognize the item value as the processor type and the total number of memories.

次いで評価部13は、状態認識処理を実行する。状態認識処理とは、撮影画像データに記録された対象物品の画像を画像分析して対象物品の外観に関する状態を認識する処理であり、より具体的には撮影画像データに記録された対象物品の画像を画像分析して対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理である。特に本実施形態では評価部13は、撮影画像データに基づいて対象物品の物品状態レベルを導出する(つまり、物品状態レベルを導出することが対象物品の外観に関する状態を認識することに相当する)。物品状態レベルとは、傷や、汚れ、凹み、摩耗、部品の欠損等の劣化に関連する要素の状況を考慮して、物品の外観に関する状態がどの程度、新品に近い状態か(どの程度、劣化が小さいか)を示すレベルのことである。本実施形態では物品状態レベルの値として、最も新品に近い状態(最も劣化が小さい状態)であることを示すレベルL5から、最も新品から遠い状態(最も劣化が大きい状態)であることを示すレベルL1までの5つの値が用意されている。 Next, the evaluation unit 13 executes the state recognition process. The state recognition process is a process of recognizing a state related to the appearance of the target article by image analysis of the image of the target article recorded in the photographed image data, and more specifically, the target article recorded in the photographed image data. This is a process of analyzing an image to recognize a state related to the appearance of a part including the front of the display of the target article. In particular, in the present embodiment, the evaluation unit 13 derives the article state level of the target article based on the photographed image data (that is, deriving the article state level corresponds to recognizing the state regarding the appearance of the target article). .. The article condition level is how close the appearance of the article is to new (how much, considering the condition of factors related to deterioration such as scratches, dirt, dents, wear, and missing parts. It is a level that indicates whether the deterioration is small). In the present embodiment, the value of the article state level is from the level L5 indicating that the state is the closest to the new item (the state with the smallest deterioration) to the level indicating the state farthest from the new item (the state with the largest deterioration). Five values up to L1 are prepared.

特に本例では対象物品はノートパソコンであり、撮影画像データには、ノートパソコンのディスプレイの正面およびキーボードの画像が記録されている。評価部13は、ディスプレイおよびキーボードについて傷(ディスプレイの割れを含む)や、汚れ、凹み、摩耗、部品の欠損等の劣化に関連する要素の状況を反映して物品状態レベルを導出する。なお評価部13は、既存の画像処理により物品状態レベルを導出する。物品状態レベルの実行に必要なデータは事前に用意される。必要なデータは例えば、物品の型番に対応するテンプレートデータを用いたパターンマッチングが実行される場合において、型番ごとのテンプレートデータであり、また例えば型番に応じた背景差分法に基づく画像処理が実行される場合において、型番ごとの背景画像データである。また状態認識処理の少なくとも一部の処理が機械学習されたモデルを使用して行われる構成でもよい。 In particular, in this example, the target article is a notebook computer, and the photographed image data includes images of the front of the display of the notebook computer and the keyboard. The evaluation unit 13 derives the article state level by reflecting the state of factors related to deterioration such as scratches (including cracks in the display), dirt, dents, wear, and defective parts of the display and keyboard. The evaluation unit 13 derives the article state level by the existing image processing. The data required to execute the article status level is prepared in advance. The necessary data is, for example, template data for each model number when pattern matching using template data corresponding to the model number of the article is executed, and image processing based on the background subtraction method according to the model number is executed, for example. In this case, it is the background image data for each model number. Further, at least a part of the state recognition processing may be performed using a machine-learned model.

次いで評価部13は、不正可能性調査処理を実行する。不正可能性調査処理とは、個別番号を利用して本サービスの不正利用の可能性を調査する処理である。不正可能性調査処理において評価部13は、利用履歴データベースを参照する。利用履歴データベースとは、本サービスの利用履歴(対象ユーザの利用履歴に限られない)を管理するデータベースであり、各レコードは少なくとも、本サービスを利用したユーザのユーザ識別情報と、査定の対象となった物品の固有番号とを含んでいる。つまり利用履歴データベースでは、過去に本サービスを利用したケースごとに、ユーザ識別情報と、固有番号とが対応付けて管理されている。利用履歴データベースは、特許請求の範囲の「物品の固有番号と少なくとも過去の一時点においてその物品を所有していたユーザのユーザ識別情報とを対応付けて管理するデータ」および「過去に評価した物品について、物品の固有番号と、評価を行ったときに物品を所有していたユーザのユーザ識別情報とを対応付けて管理するデータ」に相当する。 Next, the evaluation unit 13 executes the fraud possibility investigation process. The fraud possibility investigation process is a process of investigating the possibility of fraudulent use of this service by using an individual number. In the fraud possibility investigation process, the evaluation unit 13 refers to the usage history database. The usage history database is a database that manages the usage history of this service (not limited to the usage history of the target user), and each record is at least the user identification information of the user who used this service and the target of assessment. Includes the unique number of the item that has become. That is, in the usage history database, the user identification information and the unique number are managed in association with each case in which this service has been used in the past. The usage history database includes "data managed by associating the unique number of the article with the user identification information of the user who owned the article at least at one time in the past" and "the article evaluated in the past". Corresponds to "data that manages the unique number of the article in association with the user identification information of the user who owned the article at the time of evaluation".

不正可能性調査処理において利用履歴データベースを参照した後、評価部13は、利用履歴データベースに、対象物品の固有番号と同一の固有番号を有するレコードが存在するか否かを判別する。このようなレコードは1つも存在しない場合もあれば、1つ以上、存在する場合もある。利用履歴データベースにこのようなレコードが存在するということは、過去に対象物品を対象として本サービスが利用されたということである。利用履歴データベースにこのようなレコードが1つも存在しない場合、評価部13は、不正可能性調査処理を終了し、続く査定額導出処理を実行する。 After referring to the usage history database in the fraud possibility investigation process, the evaluation unit 13 determines whether or not there is a record having the same unique number as the unique number of the target article in the usage history database. There may be no such record, or one or more such records. The existence of such a record in the usage history database means that this service has been used for the target article in the past. If no such record exists in the usage history database, the evaluation unit 13 ends the fraud possibility investigation process and executes the subsequent valuation amount derivation process.

一方、利用履歴データベースにこのようなレコードが1つ以上存在する場合、評価部13は、対象ユーザのユーザ識別情報と、各レコードが有するユーザ識別情報とが一致しているか否かを判別する。あるレコードが有するユーザ識別情報と、対象ユーザのユーザ識別情報とが異なる場合、過去に対象ユーザと異なるユーザが、対象物品を査定の対象として本サービスを利用したということであり、対象ユーザが、他人が所有する物品を対象として本サービスを利用しようとしている可能性がある。 On the other hand, when one or more such records exist in the usage history database, the evaluation unit 13 determines whether or not the user identification information of the target user and the user identification information of each record match. When the user identification information of a certain record and the user identification information of the target user are different, it means that a user different from the target user has used this service for the target article as an assessment target in the past. There is a possibility that you are trying to use this service for goods owned by others.

なお評価部13は、利用履歴データベースに、対象物品の固有番号と同一の固有番号を有するレコードが複数、存在する場合には、1つでも対象ユーザのユーザ識別情報と異なる値のユーザ識別情報を含むレコードがある場合には、対象ユーザのユーザ識別情報と、各レコードが有するユーザ識別情報とが一致していないと判定する。ただし直近で生成されたレコードに含まれるユーザ識別情報の値と、対象ユーザのユーザ識別情報の値とが異なる場合に、評価部13が対象ユーザのユーザ識別情報と、各レコードが有するユーザ識別情報とが一致していないと判定する構成でもよい。 If there are a plurality of records having the same unique number as the unique number of the target article in the usage history database, the evaluation unit 13 inputs the user identification information having a value different from the user identification information of the target user. If there is a record including the record, it is determined that the user identification information of the target user and the user identification information of each record do not match. However, when the value of the user identification information included in the most recently generated record and the value of the user identification information of the target user are different, the evaluation unit 13 determines the user identification information of the target user and the user identification information of each record. It may be configured to determine that does not match.

対象ユーザのユーザ識別情報と、各レコードが有するユーザ識別情報とが一致していない場合、評価部13は、対応する処理を実行する。例えば評価部13は、対応する処理としてオペレータに通知する処理を実行する。また例えば評価部13は、端末側制御部10を制御して、同一の物品について過去に対象ユーザ以外の者が本サービスを利用したことを通知し、対象物品が対象ユーザの所有物であるかどうかの確認をとる。ただし、例示した処理はあくまで一例であり、評価部13が他の処理を実行しても当然よい。 When the user identification information of the target user and the user identification information of each record do not match, the evaluation unit 13 executes the corresponding process. For example, the evaluation unit 13 executes a process of notifying the operator as a corresponding process. Further, for example, the evaluation unit 13 controls the terminal side control unit 10 to notify that a person other than the target user has used this service in the past for the same article, and whether the target article is the property of the target user. Please confirm. However, the illustrated process is merely an example, and the evaluation unit 13 may naturally execute another process.

なお本実施形態では、利用履歴データベースは、本サービスの利用履歴を管理するデータベースであったが、本サービス以外の類似するサービスの利用履歴も併せて管理するデータベースであってもよい。また、利用履歴データベースはサーバ3に記憶されている構成であったが、利用履歴データベースがサーバ3以外の装置に記憶されている構成でもよい。 In the present embodiment, the usage history database is a database that manages the usage history of this service, but it may also be a database that also manages the usage history of similar services other than this service. Further, although the usage history database is stored in the server 3, the usage history database may be stored in a device other than the server 3.

次いで評価部13は、査定額導出処理を実行する。査定額導出処理とは、査定額を導出する処理である。査定額導出処理において評価部13は、対象最深分類(本例では「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」)に対応する査定額テーブルを参照する。対象最深分類に査定額テーブルは、型番がとり得る値と、物品状態レベルがとり得る値(本実施形態では、レベルL1~レベルL5)と、プロセッサ種類がとり得る値と、総メモリ数がとり得る値との組み合わせごとに参考査定額が対応付けられたテーブルである。 Next, the evaluation unit 13 executes the valuation amount derivation process. The valuation amount derivation process is a process for deriving the valuation amount. In the valuation amount derivation process, the evaluation unit 13 refers to the valuation amount table corresponding to the target deepest classification (in this example, "notebook computer (article classification)> Windows (article classification)> maker MK1 (article classification)"). The valuation amount table for the deepest classification of the target is the value that can be taken by the model number, the value that can be taken by the article state level (level L1 to level L5 in this embodiment), the value that can be taken by the processor type, and the total number of memories. It is a table in which the reference valuation amount is associated with each combination with the obtained value.

以下、型番と物品状態レベルとプロセッサ名と総メモリ数との組合せを「評価用組合せ」という。査定額テーブルにおいて、ある評価用組み合わせと対応付けられた参考査定額の値は、その評価用組み合わせの各要素の値を反映した値とされる。参考査定額は基本的には、型番によって基準となる金額が定まり、この基準となる金額について、物品状態レベルが小さいほど(=対象物品の劣化が大きいほど)低く、プロセッサの性能が低いほど低く、総メモリ数が小さいほど低くなるように調整されることによって設定される。当然、基準となる金額について物品状態レベルが大きいほど(=対象物品の劣化が小さいほど)高く、プロセッサの性能が高いほど高く、総メモリ数が大きいほど高くなるように調整されてもよい。 Hereinafter, the combination of the model number, the article state level, the processor name, and the total number of memories is referred to as an "evaluation combination". In the valuation amount table, the value of the reference valuation amount associated with a certain valuation combination is a value that reflects the value of each element of the valuation combination. The reference assessment amount is basically determined by the model number, and the standard amount is lower as the article condition level is smaller (= the greater the deterioration of the target article) and lower as the processor performance is lower. , It is set by adjusting so that the smaller the total number of memories is, the lower it is. As a matter of course, the reference amount may be adjusted so that the larger the article state level (= the smaller the deterioration of the target article), the higher the processor performance, and the larger the total number of memories, the higher the value.

評価部13は、査定額テーブルにおいて、対象物品についての評価用組合せと対応付けられた参考査定額を取得し、これを査定額とする。 The evaluation unit 13 acquires a reference valuation amount associated with the valuation combination for the target article in the valuation amount table, and uses this as the valuation amount.

以上が、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合に評価部13が実行する査定処理である。なお査定処理における処理の順番は、本実施形態で例示した順番に限られない。以上の説明の通り本実施形態によれば、対象物品の外観に関する状態に加えて、システム関連情報の画像(文字の画像)を対象とする文字認識により認識された文字(型番、固有番号、スペック)が反映されて査定(物品の評価)が行われるため、複数の異なる観点で対象物品を査定できる。特に本実施形態では、スペックが査定額に影響を与える(評価に影響を与える)という点を鑑み、スペックが反映されて評価部13により対象物品の査定がなされるため、その点で、より的確に対象物品を査定できる。 The above is the assessment process executed by the evaluation unit 13 when the target deepest classification is "notebook computer (article classification)> Windows (article classification)> manufacturer MK1 (article classification)". The order of processing in the assessment processing is not limited to the order exemplified in this embodiment. As described above, according to the present embodiment, in addition to the state related to the appearance of the target article, the characters (model number, unique number, specifications) recognized by the character recognition targeting the image of the system-related information (character image). ) Is reflected in the assessment (evaluation of the article), so the target article can be assessed from multiple different perspectives. In particular, in the present embodiment, in view of the fact that the specifications affect the assessed amount (affects the evaluation), the specifications are reflected and the evaluation unit 13 assesses the target article, so that it is more accurate in that respect. The target article can be assessed.

その際に対象物品の外観に関する状態の認識と、文字認識による文字(型番、スペック、固有番号)の認識とは、共通する撮影画像データに基づいて行われる。従って対象ユーザは、対象物品の評価にあたって対象物品を撮影すればよく、例えば所定のユーザインタフェイスにおいて型番、固有番号、スペックを入力したり、型番、固有番号、スペックを選択したりする作業を行う必要がない。特に本実施形態では、対象物品の外観に関する状態の認識と、文字認識による文字(型番、スペック、固有番号)の認識とが共通する撮影画像データに基づいて評価部13により行われる。このためユーザは、対象物品(ノートパソコン)の外観に関する状態の認識に利用する撮影画像データを生成するための撮影と、型番や、固有番号、スペックの認識に利用する撮影画像データを生成するための撮影とを分けて行う必要がなく、その点でもユーザの作業が少ない。すなわち本実施形態によれば、ユーザの作業を減らしつつ、複数の異なる観点で物品を評価できる。 At that time, the recognition of the state regarding the appearance of the target article and the recognition of the characters (model number, specifications, unique number) by the character recognition are performed based on the common photographed image data. Therefore, the target user may take a picture of the target article when evaluating the target article, for example, inputting a model number, a unique number, and a spec in a predetermined user interface, and selecting a model number, a unique number, and a spec. There is no need. In particular, in the present embodiment, the evaluation unit 13 performs the recognition of the state regarding the appearance of the target article and the recognition of the characters (model number, specifications, unique number) by the character recognition based on the captured image data common to them. For this reason, the user wants to generate shooting image data used for recognizing the appearance of the target article (notebook computer) and shooting image data used for recognizing the model number, unique number, and specifications. There is no need to separate the shooting from the shooting, and there is less work for the user in that respect as well. That is, according to the present embodiment, it is possible to evaluate an article from a plurality of different viewpoints while reducing the work of the user.

<対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合>
次に対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」である場合の評価部13の処理について説明する。上述の通り、この場合、評価部13は、タッチスクリーンにシステム関連情報が表示された状態で筐体が正面から撮影されて生成された撮影画像データを取得している。
<When the target deepest classification is "smartphone (article classification)> iOS (article classification)">
Next, the processing of the evaluation unit 13 when the target deepest classification is “smartphone (article classification)> iOS (article classification)” will be described. As described above, in this case, the evaluation unit 13 acquires the captured image data generated by photographing the housing from the front while the system-related information is displayed on the touch screen.

評価部13は、期待画像判定処理、文字認識処理、型番認識処理、固有番号認識処理、状態認識処理および不正可能性調査処理を順次、実行する。これらの処理は<対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合と同様の方法で行われる。特に固有番号取得処理では評価部13は固有番号としてIMEIを取得する。また状態認識処理に関し、本例では対象物品はスマートフォンであり、撮影画像データには、タッチスクリーンの全域を含む筐体の正面の画像が記録されている。評価部13は、筐体の正面について傷(タッチスクリーンの割れを含む)や、汚れ、凹み、摩耗、部品の欠損等の劣化に関連する要素の状況を反映して物品状態レベルを導出する。 The evaluation unit 13 sequentially executes expected image determination processing, character recognition processing, model number recognition processing, unique number recognition processing, state recognition processing, and fraud possibility investigation processing. These processes are performed in the same manner as in the case where the target deepest classification is "notebook computer (article classification)> Windows (article classification)> manufacturer MK1 (article classification)". In particular, in the unique number acquisition process, the evaluation unit 13 acquires the IMEI as a unique number. Regarding the state recognition process, in this example, the target article is a smartphone, and the captured image data includes an image of the front surface of the housing including the entire area of the touch screen. The evaluation unit 13 derives the article state level on the front surface of the housing by reflecting the state of elements related to deterioration such as scratches (including cracks on the touch screen), dirt, dents, wear, and missing parts.

本例において型番取得処理は、「システム関連情報の画像を対象として文字認識することによって型番を認識する処理」である。また固有番号認識処理は、「システム関連情報の画像を対象として文字認識することによって固有番号を認識する処理」である。また状態認識処理は、「撮影画像データに記録された対象物品の画像を画像分析して対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理」である。 In this example, the model number acquisition process is "a process of recognizing a model number by recognizing characters for an image of system-related information". Further, the unique number recognition process is "a process of recognizing a unique number by recognizing characters for an image of system-related information". Further, the state recognition process is "a process of image analysis of the image of the target article recorded in the captured image data to recognize the state regarding the appearance of the portion including the front surface of the display of the target article".

不正可能性調査処理の後、評価部13は、支払状況認識処理を実行する。支払状況認識処理は「認識した固有番号を用いた問い合わせを行って、対象物品についての支払状況を認識する処理」である。以下、支払状況確認処理について詳述する。以下の説明において、固有番号取得処理において取得したIMEI(固有番号)を特に「対象IMEI」という。 After the fraud possibility investigation process, the evaluation unit 13 executes the payment status recognition process. The payment status recognition process is "a process of making an inquiry using the recognized unique number and recognizing the payment status of the target article". The payment status confirmation process will be described in detail below. In the following description, the IMEI (unique number) acquired in the unique number acquisition process is particularly referred to as "target IMEI".

支払状況認識処理において評価部13は、ネットワークNに接続された支払状況管理サーバに、対象IMEIについての支払状況の問い合わせを行う。問い合わせは、対象IMEIを含む所定フォーマットのデータ(例えば、対象IMEIをクエリに含むリクエストデータ)が送信されることにより行われる。本実施形態において「支払状況」とは、対象物品(本例では、スマートフォン)が割賦により購入されたかどうか、割賦により購入されている場合には現時点で支払い中かどうか、および、現時点で支払い中か否かにかかわらず過去に支払に遅延がなかったかどうかを意味する。支払状況管理サーバは、データベースでIMEIと共に支払状況を管理するサーバ装置であり、あるIMEIについての支払状況の問い合わせに応じて、そのIMEIについての支払状況を示す支払状況情報を応答する機能を有している。 In the payment status recognition process, the evaluation unit 13 inquires about the payment status of the target IMEI to the payment status management server connected to the network N. The inquiry is made by transmitting data in a predetermined format including the target IMEI (for example, request data including the target IMEI in the query). In the present embodiment, the "payment status" refers to whether or not the target article (smartphone in this example) was purchased by installment, if it was purchased by installment, whether or not it is currently being paid, and whether or not it is currently being paid. It means whether or not there was a delay in payment in the past. The payment status management server is a server device that manages the payment status together with the IMEI in the database, and has a function of responding to the payment status information indicating the payment status for the IMEI in response to the payment status inquiry for the IMEI. ing.

評価部13は、対象IMEIについての支払状況の問い合わせ後、支払状況管理サーバから対象IMEIについての支払状況情報を取得し、支払状況を認識する。つまり評価部13は、対象物品としてのスマートフォンが割賦により購入されたかどうか、割賦により購入されている場合には現時点で支払い中かどうか、および、現時点で支払い中か否かにかかわらず過去に支払に遅延がなかったかどうかを認識する。 After inquiring about the payment status of the target IMEI, the evaluation unit 13 acquires the payment status information about the target IMEI from the payment status management server and recognizes the payment status. That is, the evaluation unit 13 pays in the past regardless of whether the smartphone as the target item was purchased by installment, whether it is currently being paid if it is purchased by installment, and whether it is currently being paid. Recognize if there was a delay in.

次に評価部13は、査定額導出処理を実行する。本例において評価部13は、対象最深分類に対応する査定額テーブルを参照する。対象最深分類に対応する査定額テーブルは、型番がとり得る値と、物品状態レベルがとり得る値との組み合わせごとに参考査定額が対応付けられたテーブルである。評価部13は、査定額テーブルにおいて対象物品についての型番と物品状態レベルとの組合せに対応する参考査定額を取得する。次いで評価部13は、取得した参考査定額を、対象物品についての支払状況に基づいて調整し、調整後の額を最終的な査定額とする。調整は、対象物品(本例では、スマートフォン)が割賦により購入されており、現時点で支払い中の場合には査定額が低くなるように、また、過去に支払に遅延があった場合には、査定額が低くなるように行われる。これは、リース料の支払いの遅延の可能性を考慮したものである。ただし、調整の方法は本実施形態で例示するものに限られず、例えば過去の支払の遅延のみを考慮して調整する構成でもよい。 Next, the evaluation unit 13 executes the valuation amount derivation process. In this example, the evaluation unit 13 refers to the valuation amount table corresponding to the target deepest classification. The valuation amount table corresponding to the target deepest classification is a table in which the reference valuation amount is associated with each combination of the value that can be taken by the model number and the value that can be taken by the article state level. The evaluation unit 13 acquires a reference assessment amount corresponding to the combination of the model number and the article condition level of the target article in the assessment amount table. Next, the evaluation unit 13 adjusts the acquired reference assessment amount based on the payment status of the target article, and sets the adjusted amount as the final assessment amount. Adjustments are made so that if the target item (smartphone in this example) is purchased by installment and payment is being made at this time, the assessed amount will be lower, and if payment has been delayed in the past, It is done so that the assessed amount is low. This takes into account the possibility of delays in payment of lease payments. However, the adjustment method is not limited to the one illustrated in the present embodiment, and for example, the adjustment may be made in consideration of only the delay of the past payment.

以上が、対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合に評価部13が実行する査定処理である。なお査定処理における処理の順番は、本実施形態で例示した順番に限られない。以上の説明の通り本実施形態によれば、対象物品の外観に関する状態に加えて、システム関連情報の画像(文字の画像)を対象とする文字認識により認識された文字(型番、IMEI)が反映されて査定(物品の評価)が行われるため、複数の異なる観点で対象物品を査定できる。特に本実施形態では、対象物品が割賦により購入された可能性があるという点を鑑み、支払状況が反映されて評価部13により対象物品の査定がなされるため、その点で、より的確に対象物品を査定できる。 The above is the assessment process executed by the evaluation unit 13 when the target deepest classification is “smartphone (article classification)> iOS (article classification)”. The order of processing in the assessment processing is not limited to the order exemplified in this embodiment. As described above, according to the present embodiment, in addition to the state related to the appearance of the target article, the characters (model number, IMEI) recognized by the character recognition targeting the image of the system-related information (character image) are reflected. Since the assessment (evaluation of the article) is performed, the target article can be assessed from a plurality of different viewpoints. In particular, in the present embodiment, in view of the possibility that the target article was purchased by installment payment, the evaluation unit 13 assesses the target article by reflecting the payment status, and therefore, in that respect, the target article is more accurately targeted. You can assess the goods.

その際に対象物品の外観に関する状態の認識と、文字認識による文字(型番、固有番号)の認識とは、共通する撮影画像データに基づいて行われる。従って対象ユーザは、対象物品の評価にあたって対象物品を撮影すればよく、例えば所定のユーザインタフェイスにおいて型番やIMEIを入力したり、型番やIMEIを選択したりする作業を行う必要がない。特に本実施形態では、対象物品の外観に関する状態の認識と、文字認識による文字(型番、IMEI)の認識とが共通する撮影画像データに基づいて評価部13により行われる。このためユーザは、対象物品(スマートフォン)の外観に関する状態の認識に利用する撮影画像データを生成するための撮影と、型番や固有番号の認識に利用する撮影画像データを生成するための撮影とを分けて行う必要がなく、その点でもユーザの作業が少ない。すなわち本実施形態によれば、ユーザの作業を減らしつつ、複数の異なる観点で物品を評価できる。 At that time, the recognition of the state regarding the appearance of the target article and the recognition of the characters (model number, unique number) by the character recognition are performed based on the common photographed image data. Therefore, the target user may take a picture of the target article when evaluating the target article, and does not need to input a model number or IMEI or select a model number or IMEI in a predetermined user interface, for example. In particular, in the present embodiment, the evaluation unit 13 performs the recognition of the state regarding the appearance of the target article and the recognition of the character (model number, IMEI) by the character recognition based on the captured image data in common. For this reason, the user performs shooting for generating captured image data used for recognizing the state of the target article (smartphone) and shooting for generating captured image data used for recognizing the model number and the unique number. There is no need to do it separately, and there is less work for the user in that respect as well. That is, according to the present embodiment, it is possible to evaluate an article from a plurality of different viewpoints while reducing the work of the user.

<対象最深分類が「バッグ(物品分類)>ブランドB1」の場合>
次に対象最深分類が「バッグ(物品分類)>ブランドB1」である場合の評価部13の処理について説明する。上述の通り、この場合、評価部13は、バッグの正面の全域が撮影されて生成された撮影画像データを取得している。
<When the target deepest classification is "bag (article classification)> brand B1">
Next, the processing of the evaluation unit 13 when the target deepest classification is “bag (article classification)> brand B1” will be described. As described above, in this case, the evaluation unit 13 has acquired the photographed image data generated by photographing the entire front surface of the bag.

まず評価部13は、期待画像判定処理を実行する。次いで評価部13は、型番認識用画像分析処理を実行する。型番認識用画像分析処理は、「対象物品の画像を画像分析して対象物品の型番を認識する処理」に相当する。ここでの画像分析は、「文字の画像を対象とする文字認識」以外の画像処理を意味する。以下、型番認識用画像分析処理の一例について説明する。 First, the evaluation unit 13 executes the expected image determination process. Next, the evaluation unit 13 executes an image analysis process for model number recognition. The model number recognition image analysis process corresponds to "a process of image-analyzing an image of a target article and recognizing the model number of the target article". The image analysis here means image processing other than "character recognition for a character image". Hereinafter, an example of the image analysis process for model number recognition will be described.

まず評価部13は、対象最深分類(対象物品の最深分類)に基づいて、対象物品がバッグであること、および、バッグのブランドを認識する。サーバ側記憶部14には、バッグのブランドのそれぞれについて、型番ごとのテンプレートデータ(バッグを正面から見た様子を示す画像と比較対象となるテンプレートデータ)が登録されたデータベースが記憶されている。評価部13は、撮影画像データを対象として、対象物品のブランドに対応するテンプレートデータのそれぞれを用いたテンプレートマッチングを行って型番を特定し、認識する。 First, the evaluation unit 13 recognizes that the target article is a bag and the brand of the bag based on the target deepest classification (the deepest classification of the target article). The server-side storage unit 14 stores a database in which template data (an image showing a front view of the bag and template data to be compared) for each model number are registered for each of the bag brands. The evaluation unit 13 identifies and recognizes the model number by performing template matching using each of the template data corresponding to the brand of the target article on the photographed image data.

なおテンプレートマッチングは、撮影画像データに対するノイズの除去や、サイズ/角度の補正(ただし、サイズ/角度の補正はテンプレートデータに対して行ってもよい)を含む前処理が施された上で、既存の技術(例えば、画素値を保持するテンプレートデータを用いたテンプレートマッチングや、チャンファーマッチング、ヒストグラム情報を用いたアクティブ探索)に基づいて適切に実行される。ただし撮影画像データを利用して型番を特定する方法は例示した方法に限られない。例えば特徴量マッチング、或いは、テンプレートマッチングと特徴量マッチングとの組み合わせを利用する方法であってよい。また例えば撮影画像データを入力の1つとし、該当する型番(或いは、各型番に該当する可能性)を出力とするモデルを用いて行われてもよい。この場合において、モデルを、所定の機械学習手法(例えばディープラーニング)で機械学習されたモデルとすることができる。 Note that template matching is already performed after preprocessing including noise removal for captured image data and size / angle correction (however, size / angle correction may be performed on the template data). (For example, template matching using template data holding pixel values, chamfer matching, active search using histogram information) is appropriately executed. However, the method of specifying the model number using the photographed image data is not limited to the illustrated method. For example, it may be a method of using feature amount matching or a combination of template matching and feature amount matching. Further, for example, a model may be used in which the captured image data is used as one of the inputs and the corresponding model number (or the possibility of corresponding to each model number) is output. In this case, the model can be a machine-learned model by a predetermined machine learning method (for example, deep learning).

次いで評価部13は、真贋判定処理を実行する。真贋判定処理とは、「対象物品の画像を画像分析して対象物品の真贋を判定する処理」である。以下、真贋判定処理の一例について説明する。真贋判定処理において例えば評価部13は、以下の処理を実行する。例えば撮影画像データに記録されたバッグの正面の画像にロゴの画像が含まれる場合、評価部13は、撮影画像データに画像として記録されたロゴが、型番認識用画像分析処理で認識した型番(=対象物品の型番)のバッグのロゴとして本物か否かという観点で撮影画像データを分析し、対象物品が本物か否かを判定する。撮影画像データの分析は、種々の観点から実行される。例えば撮影画像データの分析は、ロゴの形状の妥当性、ロゴの色彩の妥当性およびロゴの位置の妥当性等が判定されることによって行われる。 Next, the evaluation unit 13 executes the authenticity determination process. The authenticity determination process is "a process of image-analyzing an image of a target article to determine the authenticity of the target article". Hereinafter, an example of the authenticity determination process will be described. In the authenticity determination process, for example, the evaluation unit 13 executes the following process. For example, when the image of the front of the bag recorded in the captured image data includes an image of the logo, the evaluation unit 13 determines the model number (the model number recognized by the image number recognition processing for model number recognition) by the logo recorded as an image in the captured image data. = The photographed image data is analyzed from the viewpoint of whether or not the target article is genuine as the logo of the bag (model number of the target article), and it is determined whether or not the target article is genuine. The analysis of the captured image data is performed from various viewpoints. For example, the analysis of the captured image data is performed by determining the validity of the shape of the logo, the validity of the color of the logo, the validity of the position of the logo, and the like.

なおロゴの位置の妥当性とは、ロゴが付された位置が、本物のそれと一致しているかどうかを意味する。ロゴの形状および位置の妥当性の判定は例えば、事前に用意された本物のロゴに対応するテンプレートデータを用いたパターンマッチングや、特徴量マッチングにより行うことができる。またロゴの色彩の妥当性の判定は例えば、色成分のヒストグラムの分析や、画像における各色成分の分布の分析により行うことができる。なお撮影画像データの分析に基づく対象物品が本物か否かの判定は、実際の処理としては例えば、撮影画像データを入力の1つとし、本物か否かを示す情報(或いは本物である可能性を示す情報)を出力するモデルが用意され、このモデルが用いられて実行される。この場合において、モデルを、所定の機械学習手法(例えばディープラーニング)で機械学習されたモデルとすることができる。 The validity of the position of the logo means whether or not the position where the logo is attached matches the real one. The validity of the shape and position of the logo can be determined, for example, by pattern matching using template data corresponding to a real logo prepared in advance, or feature quantity matching. Further, the validity of the color of the logo can be determined by, for example, analysis of a histogram of color components or analysis of the distribution of each color component in an image. In the determination of whether or not the target article is genuine based on the analysis of the photographed image data, for example, the photographed image data is used as one of the inputs as an actual process, and the information indicating whether or not the object is genuine (or the possibility of being genuine). A model that outputs (information indicating) is prepared, and this model is used and executed. In this case, the model can be a machine-learned model by a predetermined machine learning method (for example, deep learning).

以上、ロゴを用いた真贋判定処理について説明したが、真贋判定には既存の種々の技術を利用できる。特にロゴに代えて或いはロゴに加えて、模様、マーク、特徴的な平面的或いは立体的な形状等を真贋判定の対象として真贋判定処理を行う構成でもよい。またバッグ以外の真贋判定処理についても、物品および真贋判定対象に応じた適切な方法で撮影画像データが画像分析され、本物か否かが判定される。 Although the authenticity determination process using the logo has been described above, various existing techniques can be used for the authenticity determination. In particular, instead of the logo or in addition to the logo, a pattern, a mark, a characteristic planar or three-dimensional shape, or the like may be used for authenticity determination processing. Also, regarding the authenticity determination processing other than the bag, the photographed image data is image-analyzed by an appropriate method according to the article and the authenticity determination target, and it is determined whether or not the image is genuine.

真贋判定処理において対象物品が本物でないと判定した場合、評価部13は、対応する処理を実行する。例えば評価部13は、対象物品が本物でない可能性があることをオペレータに通知する。これによればオペレータは、撮影画像データをより詳細に確認する等の処置を行うことができる。本実施形態では、真贋判定処理において対象物品が本物でないと判定した場合、評価部13は、以下の査定額の導出は行わない構成である。ただし、評価部13が偽物としての査定額を導出する構成でもよい。いずれの場合であっても、評価部13は、真贋の判定の結果を反映して対象物品を査定(評価)していることになる。 When it is determined in the authenticity determination process that the target article is not genuine, the evaluation unit 13 executes the corresponding process. For example, the evaluation unit 13 notifies the operator that the target article may not be genuine. According to this, the operator can take measures such as confirming the captured image data in more detail. In the present embodiment, when it is determined in the authenticity determination process that the target article is not genuine, the evaluation unit 13 does not derive the following assessed amount. However, the evaluation unit 13 may be configured to derive the assessed amount as a fake. In any case, the evaluation unit 13 assesses (evaluates) the target article by reflecting the result of the authenticity determination.

次いで評価部13は、状態認識処理を実行する。状態認識処理に関し、本例では対象物品はバッグであり、撮影画像データには、バッグの正面の全域の画像が記録されている。評価部13は、撮影画像データを画像処理し、バッグの正面について傷や、汚れ、凹み、摩耗、部品の欠損等の劣化に関連する要素の状況を反映して物品状態レベルを導出する。 Next, the evaluation unit 13 executes the state recognition process. Regarding the state recognition process, in this example, the target article is a bag, and the photographed image data records an image of the entire front surface of the bag. The evaluation unit 13 performs image processing on the photographed image data, and derives an article state level on the front surface of the bag by reflecting the state of elements related to deterioration such as scratches, stains, dents, wear, and missing parts.

次いで評価部13は、査定額導出処理を実行する。本例に係る査定額導出処理において評価部13は、対象最深分類に対応する査定額テーブルを参照する。対象最深分類に対応する査定額テーブルは、型番がとり得る値と、物品状態レベルがとり得る値との組み合わせごとに参考査定額が対応付けられたテーブルである。評価部13は、査定額テーブルにおいて対象物品についての型番と物品状態レベルとの組合せと対応付けられた参考査定額を取得し、これを査定額とする。 Next, the evaluation unit 13 executes the valuation amount derivation process. In the valuation amount derivation process according to this example, the evaluation unit 13 refers to the valuation amount table corresponding to the target deepest classification. The valuation amount table corresponding to the target deepest classification is a table in which the reference valuation amount is associated with each combination of the value that can be taken by the model number and the value that can be taken by the article state level. The evaluation unit 13 acquires a reference valuation amount associated with the combination of the model number and the article state level of the target article in the valuation amount table, and uses this as the valuation amount.

以上が、対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合に評価部13が実行する査定処理である。なお査定処理における処理の順番は、本実施形態で例示した順番に限られない。以上の説明の通り、本実施形態によれば、対象物品の外観に関する状態に加えて、対象物品の画像を対象とする画像分析により認識された型番、および、対象物品の画像を対象として行われた真贋の判定の結果が反映されて対象物品の査定(評価)が行われるため、複数の異なる観点で対象物品を査定できる。特に本実施形態では、査定にあたって本物かどうかが重要であるという点を鑑み、対象物品を対象とする真贋判定が行われ、真贋判定の結果が反映されて評価部13により対象物品の査定がなされるため、その点で、より的確に対象物品を査定できる。 The above is the assessment process executed by the evaluation unit 13 when the target deepest classification is "bag (article classification)> brand B1 (article classification)". The order of processing in the assessment processing is not limited to the order exemplified in this embodiment. As described above, according to the present embodiment, in addition to the state regarding the appearance of the target article, the model number recognized by the image analysis targeting the image of the target article and the image of the target article are targeted. Since the evaluation (evaluation) of the target article is performed by reflecting the result of the determination of authenticity, the target article can be assessed from a plurality of different viewpoints. In particular, in the present embodiment, in view of the fact that whether or not the product is genuine is important for the assessment, the authenticity of the target article is determined, and the result of the authenticity determination is reflected and the evaluation unit 13 assesses the target article. Therefore, in that respect, the target article can be assessed more accurately.

その際に対象物品の外観に関する状態の認識と、画像分析による型番の認識と、画像分析による真贋判定とは、共通する撮影画像データに基づいて行われる。従って対象ユーザは、対象物品の査定にあたって対象物品を撮影すればよく、例えば所定のユーザインタフェイスにおいて型番を入力したり、真贋判定のための情報を提供したりする作業を行う必要がない。特に本実施形態では、対象ユーザは、対象物品(バッグ)の外観に関する状態の認識に利用する撮影画像データを生成するための撮影と、型番の認識に利用する撮影画像データを生成するための撮影と、真贋判定に利用する撮影画像データを生成するための撮影とを分けて行う必要がなく、その点でもユーザの作業が少ない。すなわち本実施形態によれば、ユーザの作業を減らしつつ、複数の異なる観点で物品を評価できる。 At that time, the recognition of the state regarding the appearance of the target article, the recognition of the model number by the image analysis, and the authenticity determination by the image analysis are performed based on the common photographed image data. Therefore, the target user may take a picture of the target article when assessing the target article, and does not need to perform work such as inputting a model number or providing information for authenticity determination in a predetermined user interface. In particular, in the present embodiment, the target user takes a picture for generating a photographed image data used for recognizing a state regarding the appearance of the target article (bag) and a photograph for generating a photographed image data used for recognizing a model number. It is not necessary to perform the shooting separately for generating the shot image data used for the authenticity determination, and the user's work is also small in that respect. That is, according to the present embodiment, it is possible to evaluate an article from a plurality of different viewpoints while reducing the work of the user.

以上、複数のケースについて査定処理について説明した。査定処理により査定額が導出された後は、上述した通り、対象ユーザの同意の下、サービス提供会社によって査定額で対象物品が買い取られ、査定額相当の金銭が対象ユーザに提供されると共に、リース料の支払いを条件として対象物品が対象ユーザにリースされる。 The assessment process has been described above for a plurality of cases. After the valuation amount is derived by the valuation process, as described above, the service provider purchases the target goods at the valuation amount with the consent of the target user, and the money equivalent to the valuation amount is provided to the target user. The target goods are leased to the target user on condition that the lease fee is paid.

次に、サーバ3(情報処理装置)による情報処理方法について、フローチャートを用いて説明する。図10は、サーバ3の動作例を示すフローチャートである。図10で示すように、サーバ3の評価部13は、対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワークN経由で端末2から取得する(ステップSA1)。 Next, the information processing method by the server 3 (information processing device) will be described using a flowchart. FIG. 10 is a flowchart showing an operation example of the server 3. As shown in FIG. 10, the evaluation unit 13 of the server 3 acquires the photographed image data generated by the target article being photographed by the target user from the terminal 2 via the network N (step SA1).

次いでサーバ3の評価部13は、撮影画像データに記録された対象物品の画像を画像分析して対象物品の外観に関する状態を認識すると共に、対象物品の画像に含まれる文字の画像を対象として文字認識する処理、対象物品の画像を画像分析して対象物品の型番を認識する処理、および、対象物品の画像を画像分析して対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行する(ステップSA2)。次いでサーバ3の評価部13は、認識した対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して対象物品を評価する(ステップSA3)。 Next, the evaluation unit 13 of the server 3 analyzes the image of the target article recorded in the photographed image data to recognize the state regarding the appearance of the target article, and at the same time, characterizes the image of the character included in the image of the target article. At least one of a process of recognizing, a process of image-analyzing the image of the target article to recognize the model number of the target article, and a process of image-analyzing the image of the target article to determine the authenticity of the target article is executed. (Step SA2). Next, the evaluation unit 13 of the server 3 evaluates the target article by reflecting the state regarding the appearance of the recognized target article and at least one of the recognized character, the recognized model number, and the result of the determination of authenticity (step SA3). ..

以上、本発明の一実施形態について説明したが、上記実施形態は、本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。 Although one embodiment of the present invention has been described above, the above-described embodiment is merely an example of the embodiment of the present invention, whereby the technical scope of the present invention is limitedly interpreted. It should not be done. That is, the present invention can be implemented in various forms without departing from its gist or its main features.

例えば上記実施形態では、評価部13が導出した査定額で対象物品を買い取るシステムではなく、単に導出した査定額を提示するシステムに本発明を適用可能である。また例えば、サービス提供会社が買い取った対象物品をリースによりユーザの手元に置いておけるようにするのではなく、所定の手段で対象ユーザからサービス提供会社に引き渡されるシステムに本発明を適用可能である。 For example, in the above embodiment, the present invention can be applied to a system that simply presents the derived valuation amount, not a system that purchases the target article with the valuation amount derived by the evaluation unit 13. Further, for example, the present invention can be applied to a system in which the target goods purchased by the service provider are delivered from the target user to the service provider by a predetermined means, instead of being kept in the hands of the user by leasing. ..

また対象物品の評価は、金銭的な価値を導出することに限られず、例えば、評価部13が、対象物品をランク付けする構成でもよい。 Further, the evaluation of the target article is not limited to deriving the monetary value, and for example, the evaluation unit 13 may be configured to rank the target article.

また撮影画像データから文字認識により文字として認識する情報は、本実施形態で例示するものに限られない。撮影画像データから文字認識により文字として認識する情報は、評価部13による対象物品の評価に影響を与えものであればよい。一例として、対象物品が製造された時期が分かる情報(製造年月日)や、対象物品がどのような方法で使用されたかが分かる情報、対象物品がどのような環境で使用されたかが分かる情報等であってもよい。 Further, the information recognized as characters by character recognition from the captured image data is not limited to those exemplified in this embodiment. The information recognized as characters by character recognition from the captured image data may affect the evaluation of the target article by the evaluation unit 13. As an example, information that shows when the target article was manufactured (manufacturing date), information that shows how the target article was used, information that shows what kind of environment the target article was used in, etc. There may be.

また上記実施形態では、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合、「スマートフォン(物品分類)>iOS(物品分類)」の場合、および、「バッグ(物品分類)>ブランドB1(物品分類)」の場合のそれぞれの場合において、評価部13が撮影画像データ取得処理を通して取得する撮影画像データは1つであった。しかしながら、これは、評価部13が対象物品の評価(上記実施形態では査定)にあたって、取得する撮影画像データが「1つ」に限定されることを意味するものではない。 Further, in the above embodiment, when the target deepest classification is "notebook computer (article classification)> Windows (article classification)> maker MK1 (article classification)", or "smartphone (article classification)> iOS (article classification)", In each case of "bag (article classification)> brand B1 (article classification)", the evaluation unit 13 acquires one photographed image data through the photographed image data acquisition process. However, this does not mean that the photographed image data to be acquired by the evaluation unit 13 in the evaluation of the target article (assessment in the above embodiment) is limited to "one".

例えば対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合に、評価部13がノートパソコンを閉じたときの表面が撮影されて生成された撮影画像データを更に取得し、この撮影画像データを更に使用して状態認識処理を実行する構成でもよい。また例えば対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合に評価部13が、筐体の背面が撮影されて生成された撮影画像データを更に取得し、この撮影画像データを更に使用して状態認識処理を実行する構成でもよい。また例えば対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合に評価部13が、バッグの背面が撮影されて生成された撮影画像データを更に取得し、この撮影画像データを更に使用して状態認識処理、型番認識用画像分析処理および真贋判定処理のうち少なくとも1つを実行する構成でもよい。 For example, when the target deepest classification is "notebook computer (article classification)> Windows (article classification)> maker MK1 (article classification)", the surface when the evaluation unit 13 closes the notebook computer is photographed and generated. The image data may be further acquired, and the captured image data may be further used to execute the state recognition process. Further, for example, when the target deepest classification is "smartphone (article classification)> iOS (article classification)", the evaluation unit 13 further acquires the photographed image data generated by photographing the back surface of the housing, and this photographed image data. It may be configured to execute the state recognition process by further using. Further, for example, when the target deepest classification is "bag (article classification)> brand B1 (article classification)", the evaluation unit 13 further acquires the photographed image data generated by photographing the back surface of the bag, and this photographed image data. May be further used to execute at least one of the state recognition process, the model number recognition image analysis process, and the authenticity determination process.

またシステム関連情報(当然、他の情報であってもよい)において、撮影されるべき情報が離間して配置されており、撮影されるべき情報を撮影するためには、2回以上撮影を行う必要がある場合には、当然、2回以上撮影が行われ、評価部13は、2つ以上の撮影画像データを取得する。 Further, in the system-related information (of course, other information may be used), the information to be photographed is arranged at a distance, and in order to photograph the information to be photographed, the image should be photographed twice or more. If necessary, of course, shooting is performed two or more times, and the evaluation unit 13 acquires two or more shot image data.

また、端末2のタッチスクリーン4に表示される各種画面を説明したが、各画面の内容は、説明した内容に限定されない。 Further, although various screens displayed on the touch screen 4 of the terminal 2 have been described, the content of each screen is not limited to the described content.

また対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合、および、「スマートフォン(物品分類)>iOS(物品分類)」の場合について、評価部13が不正可能性調査処理を実行しない構成でもよい。逆に対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合に、個別番号を取得可能な場合には、評価部13が不正可能性調査処理を実行する構成でもよい。 In addition, the evaluation unit is for cases where the deepest target classification is "notebook computer (article classification)> Windows (article classification)> manufacturer MK1 (article classification)" and "smartphone (article classification)> iOS (article classification)". The configuration may be such that 13 does not execute the fraud possibility investigation process. On the contrary, when the target deepest classification is "bag (article classification)> brand B1 (article classification)" and the individual number can be obtained, the evaluation unit 13 may execute the fraud possibility investigation process.

また上記実施形態において、評価部13が各種画面を表示させた媒体は端末2であった。この点について評価部13が、端末2以外のディスプレイを有する装置であって、対象ユーザがディスプレイを視認可能な装置に各種画面を表示させる構成でもよい。 Further, in the above embodiment, the medium on which the evaluation unit 13 displays various screens is the terminal 2. Regarding this point, the evaluation unit 13 may be a device having a display other than the terminal 2 and may be configured to display various screens on a device in which the target user can visually recognize the display.

また対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分離)」の場合(当然これと同等の場合を含む)について、評価部13がスペック認識処理を実行せず、スペックを反映せずに査定を行う構成でもよい。例えば対象物品が電子辞書のように型番が同じであればスペックが変わらないと想定される物品である場合には、評価部13がスペックに関する処理を実行する必要はない。また対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合(当然これと同等の場合を含む)について、評価部13が支払状況認識処理を実行せず、支払状況を反映せずに査定を行う構成でもよい。これらの場合、対象物品は、ディスプレイを有し、型番を少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の2つの特徴を備える電子機器である。そして評価部13は、システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む対象物品の外観が撮影されて生成された撮影画像データを取得する。評価部13は、撮影画像データに記録された対象物品の画像を画像分析して対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、および、撮影画像データに記録されたシステム関連情報の画像を対象として文字認識することによって型番を認識する処理を実行する。評価部13は、認識した対象物品のディスプレイの正面を含む部位についての外観に関する状態、および、認識した型番を反映して対象物品を評価する。更に評価部13は、対象ユーザにより対象物品を対象とする撮影が行われる際に、撮影に先立って対象物品の分類(最深分類)を認識し、認識した分類が上述した2つの特徴を備える電子機器が属する分類である場合には、システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を端末または対象ユーザが視認可能な装置に表示させる。 In addition, when the target deepest classification is "notebook computer (article classification)> Windows (article classification)> manufacturer MK1 (article separation)" (including cases equivalent to this, of course), the evaluation unit 13 executes the spec recognition process. However, the assessment may be performed without reflecting the specifications. For example, when the target article is an article such as an electronic dictionary in which the specifications are not expected to change if the model numbers are the same, it is not necessary for the evaluation unit 13 to execute the process related to the specifications. In addition, when the target deepest classification is "smartphone (article classification)> iOS (article classification)" (including cases equivalent to this, of course), the evaluation unit 13 does not execute the payment status recognition process and reflects the payment status. It may be configured to make an assessment without doing so. In these cases, the target article has a display, and system-related information including at least the model number can be displayed on the display, and deterioration caused in a part including the front surface of the display affects the evaluation. It is an electronic device having the following two features. Then, the evaluation unit 13 acquires photographed image data generated by photographing the appearance of the target article including the front surface of the display while the system-related information is displayed on the display. The evaluation unit 13 performs an image analysis of the image of the target article recorded in the captured image data to recognize the state regarding the appearance of the portion including the front of the display of the target article, and the system recorded in the captured image data. The process of recognizing the model number is executed by recognizing characters for the image of the related information. The evaluation unit 13 evaluates the target article by reflecting the state regarding the appearance of the recognized portion including the front surface of the display of the target article and the recognized model number. Further, the evaluation unit 13 recognizes the classification (deepest classification) of the target article prior to the photographing when the target user takes a picture of the target article, and the recognized classification is an electron having the above-mentioned two characteristics. In the case of the classification to which the device belongs, the screen for guiding the part including the front of the display to be photographed is displayed on the terminal or the device visible to the target user while the system-related information is displayed on the display.

また対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合(当然これと同等の場合を含む)について、評価部13が真贋判定処理を実行せずに査定を行う構成でもよい。この場合、対象物品は、物品に文字としての型番が記録されていない場合がある一方、型番を物品の外観から判定可能であるという1つの特徴を備える物品であり、評価部13は、対象物品の外観が撮影されて生成された撮影画像データを取得し、撮影画像データに記録された対象物品の画像を画像分析して対象物品の外観に関する状態を認識する処理、および、対象物品の画像を画像分析して対象物品の型番を認識する処理を実行し、認識した対象物品の外観に関する状態、および、認識した型番を反映して対象物品を評価する。更に評価部13は、対象ユーザにより対象物品を対象とする撮影が行われる際に、撮影に先立って対象物品の分類を認識し、認識した分類が1つの特徴を備える物品が属する分類である場合には、生成される撮影画像データが型番の認識に利用可能なデータとなるように対象物品の外観が撮影されるよう案内する画面を端末2または対象ユーザが視認可能な装置に表示させる。 In addition, when the deepest target classification is "bag (article classification)> brand B1 (article classification)" (including cases equivalent to this, of course), the evaluation unit 13 makes an assessment without executing the authenticity determination process. good. In this case, the target article is an article having one feature that the model number as characters may not be recorded on the article, but the model number can be determined from the appearance of the article, and the evaluation unit 13 has the target article. The process of acquiring the photographed image data generated by photographing the appearance of the target article and analyzing the image of the target article recorded in the photographed image data to recognize the state regarding the appearance of the target article, and the image of the target article. The process of recognizing the model number of the target article by image analysis is executed, and the target article is evaluated by reflecting the state regarding the appearance of the recognized target article and the recognized model number. Further, the evaluation unit 13 recognizes the classification of the target article prior to the photographing when the target user takes a picture of the target article, and the recognized classification is the classification to which the article having one feature belongs. A screen for guiding the appearance of the target article to be photographed so that the generated photographed image data becomes data that can be used for recognizing the model number is displayed on the terminal 2 or a device that can be visually recognized by the target user.

また上記実施形態では、評価部13が査定額テーブルを利用して査定額を導出する構成であったが、査定額の導出方法は例示した方法に限られない。一例として評価部13が、査定額の導出に利用する各種要素をパラメータとする計算式を利用して査定額を導出する構成でもよい。 Further, in the above embodiment, the evaluation unit 13 is configured to derive the assessed amount using the assessed amount table, but the method for deriving the assessed amount is not limited to the illustrated method. As an example, the evaluation unit 13 may derive the assessed amount by using a calculation formula having various elements used for deriving the assessed amount as parameters.

また上記実施形態では、文字認識の対象となるオブジェクトは基本的にはシステム関連情報であったが、文字認識の対象となるオブジェクトはシステム関連情報に限られない。例えば、電化製品等に貼付される銘板ラベル(銘板シールと呼ばれることもある)を文字認識の対象となるオブジェクトとしてもよい。この他、対象物品、或いは、対象物品に付随する物体に、刻印、印刷、媒体の頒布、その他の手段で記録された文字の情報を文字認識の対象となるオブジェクトとしてもよい。 Further, in the above embodiment, the object to be the target of character recognition is basically system-related information, but the object to be the target of character recognition is not limited to the system-related information. For example, a name plate label (sometimes called a name plate sticker) attached to an electric appliance or the like may be used as an object for character recognition. In addition, character information recorded on the target article or an object attached to the target article by engraving, printing, distribution of a medium, or other means may be used as an object for character recognition.

また上記実施形態では、端末2はスマートフォンであったが、端末2がスマートフォンに限られず、例えば、端末2は、端末機能を有さないタブレット端末やノートパソコンであってもよい。 Further, in the above embodiment, the terminal 2 is a smartphone, but the terminal 2 is not limited to a smartphone. For example, the terminal 2 may be a tablet terminal or a notebook computer having no terminal function.

1 情報処理システム
2 端末
3 サーバ(情報処理装置)
13 評価部
1 Information processing system 2 Terminal 3 Server (information processing device)
13 Evaluation Department

Claims (15)

対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で端末から取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、
前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、
認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品の査定額を導出する評価部を備え、
前記文字の画像には、前記対象物品の固有番号を示す文字の画像が含まれ、
前記評価部により査定額が導出された後、前記対象ユーザの同意の下、所定主体によって査定額で前記対象物品が買い取られ、査定額相当の金銭が前記対象ユーザに提供されると共に、リース料の支払いを条件として前記対象物品が前記対象ユーザにリースされ、
前記対象物品は、割賦により購入される可能性のある物品であり、
前記評価部は、前記対象物品の査定額の導出に際して、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、前記対象物品の画像に含まれる文字の画像を対象として文字認識を行って前記対象物品の固有番号を認識し、認識した固有番号を用いた問い合わせを行って、前記対象物品についての支払状況を認識し、
認識した前記対象物品の外観に関する状態、および、認識した支払状況を反映して前記対象物品の査定額を導出する
ことを特徴とする情報処理装置。
The photographed image data generated by the target article being photographed by the target user is acquired from the terminal via the network, and the target article is acquired from the terminal.
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and at the same time.
Character recognition processing for the image of characters included in the image of the target article, image analysis of the image of the target article to recognize the model number of the target article, and image analysis of the image of the target article. At least one of the processes for determining the authenticity of the target article is executed.
It is equipped with an evaluation unit that derives the assessed amount of the target article by reflecting the recognized state regarding the appearance of the target article and at least one of the recognized characters, the recognized model number, and the result of the determination of authenticity.
The image of the character includes an image of the character indicating the unique number of the target article.
After the valuation amount is derived by the evaluation unit, the target article is purchased by the predetermined entity at the valuation amount with the consent of the target user, money equivalent to the valuation amount is provided to the target user, and the lease fee is charged. The subject article is leased to the subject user on condition of payment of
The target article is an article that may be purchased by installment payment.
The evaluation unit is responsible for deriving the assessed amount of the target article.
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and the image of the characters included in the image of the target article is recognized as the target. Recognize the unique number of the article, make an inquiry using the recognized unique number, recognize the payment status of the target article, and
An information processing device for deriving an assessed amount of the target article by reflecting the recognized state of the appearance of the target article and the recognized payment status.
前記対象物品は、前面の広い領域にディスプレイが設けられ、型番および固有番号を少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、割賦により購入される場合があるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の3つの特徴を備えるタブレット端末であり、
前記評価部は、
前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記3つの特徴を備えるタブレット端末が属する分類である場合には、前記システム関連情報がディスプレイに表示された状態で、筐体が正面から撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させ、
前記システム関連情報がディスプレイに表示された状態で、タブレット端末である前記対象物品の筐体が正面から撮影されて生成された撮影画像データを取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって型番を認識する処理、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって固有番号を認識する処理、および、認識した固有番号を用いた問い合わせを行って、前記対象物品についての支払状況を認識する処理を実行し、
認識した前記対象物品のディスプレイの正面を含む部位についての外観に関する状態、認識した型番、および、認識した支払状況を反映して前記対象物品の査定額を導出する
ことを特徴とする請求項1に記載の情報処理装置。
The target article has a feature that a display is provided in a wide area on the front surface and system-related information including at least a model number and a unique number can be displayed on the display, a feature that the target article may be purchased by installment, and a feature of the display. It is a tablet terminal that has three characteristics that the deterioration that occurs in the part including the front affects the evaluation.
The evaluation unit
When the target user takes a picture of the target article, the classification of the target article is recognized prior to the shooting, and the recognized classification is the classification to which the tablet terminal having the above three characteristics belongs. Displays a screen instructing the housing to be photographed from the front on the terminal or a device visible to the target user while the system-related information is displayed on the display.
With the system-related information displayed on the display, the housing of the target article, which is a tablet terminal, is photographed from the front and the generated image data is acquired.
A process of image-analyzing an image of the target article recorded in the captured image data to recognize a state regarding the appearance of a portion including the front of the display of the target article, and an image of the system-related information recorded in the captured image data. The process of recognizing the model number by recognizing the character of the target, the process of recognizing the unique number by recognizing the character of the image of the system-related information recorded in the captured image data, and the process of recognizing the unique number. Inquire about the item and execute the process of recognizing the payment status of the target item.
Claim 1 is characterized in that the valuation amount of the target article is derived by reflecting the state regarding the appearance of the recognized portion including the front of the display of the target article, the recognized model number, and the recognized payment status. The information processing device described.
前記評価部は、支払状況を反映して前記対象物品の査定額を導出する際に、前記対象物品が割賦により購入されている場合において過去に支払いの遅延があった場合には査定額が低くなるように調整する When the evaluation unit derives the valuation amount of the target article by reflecting the payment status, the valuation amount is low if the payment is delayed in the past when the target article is purchased by installment. Adjust to be
ことを特徴とする請求項1または2に記載の情報処理装置。 The information processing apparatus according to claim 1 or 2.
前記評価部は、物品について、物品の固有番号と少なくとも過去の一時点においてその物品を所有していたユーザのユーザ識別情報とを対応付けて管理するデータを利用して、認識した固有番号に基づいて前記対象物品が前記対象ユーザの所有物でない可能性を調査する The evaluation unit uses data for managing the unique number of the article in association with the user identification information of the user who owned the article at least at one time in the past, and is based on the recognized unique number. To investigate the possibility that the target article is not the property of the target user.
ことを特徴とする請求項1から3の何れか1項に記載の情報処理装置。 The information processing apparatus according to any one of claims 1 to 3.
前記評価部は、過去に評価した物品について、物品の固有番号と、評価を行ったときに物品を所有していたユーザのユーザ識別情報とを対応付けて管理するデータを利用して、認識した固有番号に基づいて前記対象物品が前記対象ユーザの所有物でない可能性を調査する The evaluation unit recognizes an article evaluated in the past by using data that manages the unique number of the article in association with the user identification information of the user who owned the article at the time of evaluation. Investigate the possibility that the target article is not the property of the target user based on the unique number.
ことを特徴とする請求項4に記載の情報処理装置。 The information processing apparatus according to claim 4.
対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で端末から取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、
前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、
認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品を評価する評価部を備え、
前記対象物品は、ディスプレイを有し、型番を少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の2つの特徴を備える電子機器であり、
前記評価部は、
前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記2つの特徴を備える電子機器が属する分類である場合には、前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させ、
前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む前記対象物品の外観が撮影されて生成された撮影画像データを取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、および、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって型番を認識する処理を実行し、
認識した前記対象物品のディスプレイの正面を含む部位についての外観に関する状態、および、認識した型番を反映して前記対象物品を評価する
ことを特徴とする情報処理装置。
The photographed image data generated by the target article being photographed by the target user is acquired from the terminal via the network, and the target article is acquired from the terminal.
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and at the same time.
Character recognition processing for the image of characters included in the image of the target article, image analysis of the image of the target article to recognize the model number of the target article, and image analysis of the image of the target article. At least one of the processes for determining the authenticity of the target article is executed.
It is provided with an evaluation unit that evaluates the target article by reflecting at least one of the recognized state regarding the appearance of the target article, the recognized character, the recognized model number, and the result of authenticity determination.
The target article has two features: that it has a display and can display system-related information including at least a model number on the display, and that deterioration that occurs in a part including the front of the display affects the evaluation. It is an electronic device with features
The evaluation unit
When the target user takes a picture of the target article, the classification of the target article is recognized prior to the shooting, and the recognized classification is the classification to which the electronic device having the above two characteristics belongs. Displays a screen for guiding a part including the front of the display to be photographed on the terminal or a device visible to the target user while the system-related information is displayed on the display.
With the system-related information displayed on the display, the photographed image data generated by photographing the appearance of the object including the front of the display is acquired.
The process of image-analyzing the image of the target article recorded in the captured image data to recognize the state of the appearance of the portion including the front of the display of the target article, and the system-related information recorded in the captured image data. Executes the process of recognizing the model number by recognizing characters for the image of
An information processing device for evaluating the target article by reflecting the state regarding the appearance of the recognized portion including the front surface of the display of the target article and the recognized model number.
対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で端末から取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、
前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、
認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品を評価する評価部を備え、
前記対象物品は、ディスプレイを有し、型番および所定の要素についてのスペックを少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、同じ型番であってもスペックが異なる場合があるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の3つの特徴を備える電子機器であり、
前記評価部は、
前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記3つの特徴を備える電子機器が属する分類である場合には、前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させ、
前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む前記対象物品の外観が撮影されて生成された撮影画像データを取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって型番を認識する処理、および、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって所定の要素についてのスペックを認識する処理を実行し、
認識した前記対象物品のディスプレイの正面を含む部位についての外観に関する状態、認識した型番、および、認識した所定の要素についてのスペックを反映して前記対象物品を評価する
ことを特徴とする情報処理装置。
The photographed image data generated by the target article being photographed by the target user is acquired from the terminal via the network, and the target article is acquired from the terminal.
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and at the same time.
Character recognition processing for the image of characters included in the image of the target article, image analysis of the image of the target article to recognize the model number of the target article, and image analysis of the image of the target article. At least one of the processes for determining the authenticity of the target article is executed.
It is provided with an evaluation unit that evaluates the target article by reflecting at least one of the recognized state regarding the appearance of the target article, the recognized character, the recognized model number, and the result of authenticity determination.
The target article has a display, and is capable of displaying system-related information including at least specifications for a model number and a predetermined element on the display, a feature that the specifications may be different even if the model number is the same, and a feature. It is an electronic device that has the three characteristics that deterioration that occurs in the part including the front of the display affects the evaluation.
The evaluation unit
When the target user takes a picture of the target article, the classification of the target article is recognized prior to the shooting, and the recognized classification is the classification to which the electronic device having the above three characteristics belongs. Displays a screen for guiding a part including the front of the display to be photographed on the terminal or a device visible to the target user while the system-related information is displayed on the display.
With the system-related information displayed on the display, the photographed image data generated by photographing the appearance of the object including the front of the display is acquired.
A process of image-analyzing an image of the target article recorded in the captured image data to recognize a state regarding the appearance of a portion including the front of the display of the target article, and an image of the system-related information recorded in the captured image data. A process of recognizing the model number by recognizing characters as a target, and a process of recognizing specifications for a predetermined element by recognizing characters of the image of the system-related information recorded in the captured image data are executed. ,
Information characterized by evaluating the target article by reflecting the state regarding the appearance of the recognized portion including the front of the display of the target article, the recognized model number, and the specifications for the recognized predetermined element. Processing device.
前記システム関連情報には固有番号が含まれ、 The system-related information includes a unique number and
前記評価部は、 The evaluation unit
撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって固有番号を認識し、 The unique number is recognized by recognizing characters for the image of the system-related information recorded in the captured image data.
物品について、物品の固有番号と少なくとも過去の一時点においてその物品を所有していたユーザのユーザ識別情報とを対応付けて管理するデータを利用して、認識した固有番号に基づいて前記対象物品が前記対象ユーザの所有物でない可能性を調査する With respect to the article, the target article is based on the recognized unique number by using the data managed by associating the unique number of the article with the user identification information of the user who owned the article at least at one time in the past. Investigate the possibility that it is not the property of the target user
ことを特徴とする請求項6または7に記載の情報処理装置。 The information processing apparatus according to claim 6 or 7.
前記評価部は、過去に評価した物品について、物品の固有番号と、評価を行ったときに物品を所有していたユーザのユーザ識別情報とを対応付けて管理するデータを利用して、認識した固有番号に基づいて前記対象物品が前記対象ユーザの所有物でない可能性を調査するThe evaluation unit recognizes an article evaluated in the past by using data that manages the unique number of the article in association with the user identification information of the user who owned the article at the time of evaluation. Investigate the possibility that the target article is not the property of the target user based on the unique number.
ことを特徴とする請求項8に記載の情報処理装置。 The information processing apparatus according to claim 8.
端末と、ネットワークを介して前記端末に接続された情報処理装置とを備える情報処理システムであって、
前記情報処理装置は、
対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で前記端末から取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、
前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、
認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品の査定額を導出する評価部を備え
前記文字の画像には、前記対象物品の固有番号を示す文字の画像が含まれ、
前記評価部により査定額が導出された後、前記対象ユーザの同意の下、所定主体によって査定額で前記対象物品が買い取られ、査定額相当の金銭が前記対象ユーザに提供されると共に、リース料の支払いを条件として前記対象物品が前記対象ユーザにリースされ、
前記対象物品は、割賦により購入される可能性のある物品であり、
前記情報処理装置の前記評価部は、前記対象物品の査定額の導出に際して、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、前記対象物品の画像に含まれる文字の画像を対象として文字認識を行って前記対象物品の固有番号を認識し、認識した固有番号を用いた問い合わせを行って、前記対象物品についての支払状況を認識し、
認識した前記対象物品の外観に関する状態、および、認識した支払状況を反映して前記対象物品の査定額を導出する
ことを特徴とする情報処理システム。
An information processing system including a terminal and an information processing device connected to the terminal via a network.
The information processing device is
The photographed image data generated by the subject article being photographed by the target user is acquired from the terminal via the network.
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and at the same time.
Character recognition processing for the image of characters included in the image of the target article, image analysis of the image of the target article to recognize the model number of the target article, and image analysis of the image of the target article. At least one of the processes for determining the authenticity of the target article is executed.
It is equipped with an evaluation unit that derives the assessed amount of the target article by reflecting the recognized state regarding the appearance of the target article and at least one of the recognized characters, the recognized model number, and the result of the determination of authenticity .
The image of the character includes an image of the character indicating the unique number of the target article.
After the valuation amount is derived by the evaluation unit, the target article is purchased by the predetermined entity at the valuation amount with the consent of the target user, money equivalent to the valuation amount is provided to the target user, and the lease fee is charged. The subject article is leased to the subject user on condition of payment of
The target article is an article that may be purchased by installment payment.
The evaluation unit of the information processing apparatus determines the assessed amount of the target article when deriving the assessed amount.
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and the image of the characters included in the image of the target article is recognized as the target. Recognize the unique number of the article, make an inquiry using the recognized unique number, recognize the payment status of the target article, and
Derivation of the assessed amount of the target article reflecting the recognized state of the appearance of the target article and the recognized payment status.
An information processing system characterized by this.
端末と、ネットワークを介して前記端末に接続された情報処理装置とを備える情報処理システムであって、
前記情報処理装置は、
対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で前記端末から取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、
前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、
認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品を評価する評価部を備え、
前記対象物品は、ディスプレイを有し、型番を少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の2つの特徴を備える電子機器であり、
前記情報処理装置の前記評価部は、
前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記2つの特徴を備える電子機器が属する分類である場合には、前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させ、
前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む前記対象物品の外観が撮影されて生成された撮影画像データを取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、および、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって型番を認識する処理を実行し、
認識した前記対象物品のディスプレイの正面を含む部位についての外観に関する状態、および、認識した型番を反映して前記対象物品を評価する
ことを特徴とする情報処理システム。
An information processing system including a terminal and an information processing device connected to the terminal via a network.
The information processing device is
The photographed image data generated by the subject article being photographed by the target user is acquired from the terminal via the network.
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and at the same time.
Character recognition processing for the image of characters included in the image of the target article, image analysis of the image of the target article to recognize the model number of the target article, and image analysis of the image of the target article. At least one of the processes for determining the authenticity of the target article is executed.
It is provided with an evaluation unit that evaluates the target article by reflecting at least one of the recognized state regarding the appearance of the target article, the recognized character, the recognized model number, and the result of authenticity determination.
The target article has two features: that it has a display and can display system-related information including at least a model number on the display, and that deterioration that occurs in a part including the front of the display affects the evaluation. It is an electronic device with features
The evaluation unit of the information processing apparatus
When the target user takes a picture of the target article, the classification of the target article is recognized prior to the shooting, and the recognized classification is the classification to which the electronic device having the above two characteristics belongs. Displays a screen for guiding a part including the front of the display to be photographed on the terminal or a device visible to the target user while the system-related information is displayed on the display.
With the system-related information displayed on the display, the photographed image data generated by photographing the appearance of the object including the front of the display is acquired.
The process of image-analyzing the image of the target article recorded in the captured image data to recognize the state of the appearance of the portion including the front of the display of the target article, and the system-related information recorded in the captured image data. Executes the process of recognizing the model number by recognizing characters for the image of
The target article is evaluated by reflecting the state regarding the appearance of the recognized part including the front of the display of the target article and the recognized model number.
An information processing system characterized by this.
端末と、ネットワークを介して前記端末に接続された情報処理装置とを備える情報処理システムであって、
前記情報処理装置は、
対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で前記端末から取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、
前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、
認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品を評価する評価部を備え、
前記対象物品は、ディスプレイを有し、型番および所定の要素についてのスペックを少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、同じ型番であってもスペックが異なる場合があるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の3つの特徴を備える電子機器であり、
前記情報処理装置の前記評価部は、
前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記3つの特徴を備える電子機器が属する分類である場合には、前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させ、
前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む前記対象物品の外観が撮影されて生成された撮影画像データを取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって型番を認識する処理、および、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって所定の要素についてのスペックを認識する処理を実行し、
認識した前記対象物品のディスプレイの正面を含む部位についての外観に関する状態、認識した型番、および、認識した所定の要素についてのスペックを反映して前記対象物品を評価する
ことを特徴とする情報処理システム。
An information processing system including a terminal and an information processing device connected to the terminal via a network.
The information processing device is
The photographed image data generated by the subject article being photographed by the target user is acquired from the terminal via the network.
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and at the same time.
Character recognition processing for the image of characters included in the image of the target article, image analysis of the image of the target article to recognize the model number of the target article, and image analysis of the image of the target article. At least one of the processes for determining the authenticity of the target article is executed.
It is provided with an evaluation unit that evaluates the target article by reflecting at least one of the recognized state regarding the appearance of the target article, the recognized character, the recognized model number, and the result of authenticity determination.
The target article has a display, and is capable of displaying system-related information including at least specifications for a model number and a predetermined element on the display, a feature that the specifications may be different even if the model number is the same, and a feature. It is an electronic device that has the three characteristics that deterioration that occurs in the part including the front of the display affects the evaluation.
The evaluation unit of the information processing apparatus
When the target user takes a picture of the target article, the classification of the target article is recognized prior to the shooting, and the recognized classification is the classification to which the electronic device having the above three characteristics belongs. Displays a screen for guiding a part including the front of the display to be photographed on the terminal or a device visible to the target user while the system-related information is displayed on the display.
With the system-related information displayed on the display, the photographed image data generated by photographing the appearance of the object including the front of the display is acquired.
A process of image-analyzing an image of the target article recorded in the captured image data to recognize a state regarding the appearance of a portion including the front of the display of the target article, and an image of the system-related information recorded in the captured image data. A process of recognizing the model number by recognizing characters as a target, and a process of recognizing specifications for a predetermined element by recognizing characters of the image of the system-related information recorded in the captured image data are executed. ,
The target article is evaluated by reflecting the state regarding the appearance of the recognized part including the front of the display of the target article, the recognized model number, and the specifications for the recognized predetermined element.
An information processing system characterized by this.
情報処理装置の評価部が、対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で端末から取得する第1ステップと、
前記情報処理装置の前記評価部が、撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品の査定額を導出する第2ステップとを含み、
前記文字の画像には、前記対象物品の固有番号を示す文字の画像が含まれ、
前記評価部により査定額が導出された後、前記対象ユーザの同意の下、所定主体によって査定額で前記対象物品が買い取られ、査定額相当の金銭が前記対象ユーザに提供されると共に、リース料の支払いを条件として前記対象物品が前記対象ユーザにリースされ、
前記対象物品は、割賦により購入される可能性のある物品であり、
前記第2ステップにおいて前記評価部は、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、前記対象物品の画像に含まれる文字の画像を対象として文字認識を行って前記対象物品の固有番号を認識し、認識した固有番号を用いた問い合わせを行って、前記対象物品についての支払状況を認識し、
認識した前記対象物品の外観に関する状態、および、認識した支払状況を反映して前記対象物品の査定額を導出する
ことを特徴とする情報処理方法。
The first step in which the evaluation unit of the information processing device acquires the photographed image data generated by the target article being photographed by the target user from the terminal via the network.
The evaluation unit of the information processing apparatus analyzes the image of the target article recorded in the photographed image data to recognize the state regarding the appearance of the target article, and at the same time, an image of characters included in the image of the target article. Character recognition processing, image analysis of the target article to recognize the model number of the target article, and image analysis of the target article image to determine the authenticity of the target article. At least one of the processes is executed , and the assessed amount of the target article is determined by reflecting at least one of the recognized state regarding the appearance of the target article, the recognized character, the recognized model number, and the result of the determination of authenticity. Including the second step to derive
The image of the character includes an image of the character indicating the unique number of the target article.
After the valuation amount is derived by the evaluation unit, the target article is purchased by the predetermined entity at the valuation amount with the consent of the target user, money equivalent to the valuation amount is provided to the target user, and the lease fee is charged. The subject article is leased to the subject user on condition of payment of
The target article is an article that may be purchased by installment payment.
In the second step, the evaluation unit
The image of the target article recorded in the captured image data is image-analyzed to recognize the state of the appearance of the target article, and the image of the characters included in the image of the target article is recognized as the target. Recognize the unique number of the article, make an inquiry using the recognized unique number, recognize the payment status of the target article, and
Derivation of the assessed amount of the target article reflecting the recognized state of the appearance of the target article and the recognized payment status.
An information processing method characterized by that.
情報処理装置の評価部が、対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で端末から取得する第1ステップと、 The first step in which the evaluation unit of the information processing device acquires the photographed image data generated by the target article being photographed by the target user from the terminal via the network.
前記情報処理装置の前記評価部が、撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品を評価する第2ステップとを含み、 The evaluation unit of the information processing apparatus analyzes the image of the target article recorded in the photographed image data to recognize the state regarding the appearance of the target article, and at the same time, an image of characters included in the image of the target article. Character recognition processing, image analysis of the target article to recognize the model number of the target article, and image analysis of the target article image to determine the authenticity of the target article. At least one of the processes is executed, and the target article is evaluated by reflecting at least one of the recognized state regarding the appearance of the target article, the recognized character, the recognized model number, and the result of the determination of authenticity. Including 2 steps
前記対象物品は、ディスプレイを有し、型番を少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の2つの特徴を備える電子機器であり、 The target article has two features: that it has a display and can display system-related information including at least a model number on the display, and that deterioration that occurs in a part including the front of the display affects the evaluation. It is an electronic device with features
前記第2ステップにおいて前記評価部は、 In the second step, the evaluation unit
前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記2つの特徴を備える電子機器が属する分類である場合には、前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させ、 When the target user takes a picture of the target article, the classification of the target article is recognized prior to the shooting, and the recognized classification is the classification to which the electronic device having the above two characteristics belongs. Displays a screen for guiding a part including the front of the display to be photographed on the terminal or a device visible to the target user while the system-related information is displayed on the display.
前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む前記対象物品の外観が撮影されて生成された撮影画像データを取得し、 With the system-related information displayed on the display, the photographed image data generated by photographing the appearance of the object including the front of the display is acquired.
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、および、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって型番を認識する処理を実行し、 The process of image-analyzing the image of the target article recorded in the captured image data to recognize the state of the appearance of the portion including the front of the display of the target article, and the system-related information recorded in the captured image data. Executes the process of recognizing the model number by recognizing characters for the image of
認識した前記対象物品のディスプレイの正面を含む部位についての外観に関する状態、および、認識した型番を反映して前記対象物品を評価する The target article is evaluated by reflecting the state regarding the appearance of the recognized part including the front of the display of the target article and the recognized model number.
ことを特徴とする情報処理方法。 An information processing method characterized by that.
情報処理装置の評価部が、対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で端末から取得する第1ステップと、 The first step in which the evaluation unit of the information processing device acquires the photographed image data generated by the target article being photographed by the target user from the terminal via the network.
前記情報処理装置の前記評価部が、撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品を評価する第2ステップとを含み、 The evaluation unit of the information processing apparatus analyzes the image of the target article recorded in the photographed image data to recognize the state regarding the appearance of the target article, and at the same time, an image of characters included in the image of the target article. Character recognition processing, image analysis of the target article to recognize the model number of the target article, and image analysis of the target article image to determine the authenticity of the target article. At least one of the processes is executed, and the target article is evaluated by reflecting at least one of the recognized state regarding the appearance of the target article, the recognized character, the recognized model number, and the result of the determination of authenticity. Including 2 steps
前記対象物品は、ディスプレイを有し、型番および所定の要素についてのスペックを少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、同じ型番であってもスペックが異なる場合があるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の3つの特徴を備える電子機器であり、 The target article has a display, and is capable of displaying system-related information including at least specifications for a model number and a predetermined element on the display, a feature that the specifications may be different even if the model number is the same, and a feature. It is an electronic device that has the three characteristics that deterioration that occurs in the part including the front of the display affects the evaluation.
前記第2ステップにおいて前記評価部は、 In the second step, the evaluation unit
前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記3つの特徴を備える電子機器が属する分類である場合には、前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させ、 When the target user takes a picture of the target article, the classification of the target article is recognized prior to the shooting, and the recognized classification is the classification to which the electronic device having the above three characteristics belongs. Displays a screen for guiding a part including the front of the display to be photographed on the terminal or a device visible to the target user while the system-related information is displayed on the display.
前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む前記対象物品の外観が撮影されて生成された撮影画像データを取得し、 With the system-related information displayed on the display, the photographed image data generated by photographing the appearance of the object including the front of the display is acquired.
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって型番を認識する処理、および、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって所定の要素についてのスペックを認識する処理を実行し、 A process of image-analyzing an image of the target article recorded in the captured image data to recognize a state regarding the appearance of a portion including the front of the display of the target article, and an image of the system-related information recorded in the captured image data. A process of recognizing the model number by recognizing characters as a target, and a process of recognizing specifications for a predetermined element by recognizing characters of the image of the system-related information recorded in the captured image data are executed. ,
認識した前記対象物品のディスプレイの正面を含む部位についての外観に関する状態、認識した型番、および、認識した所定の要素についてのスペックを反映して前記対象物品を評価する The target article is evaluated by reflecting the state regarding the appearance of the recognized part including the front of the display of the target article, the recognized model number, and the specifications for the recognized predetermined element.
ことを特徴とする情報処理方法。 An information processing method characterized by that.
JP2021079630A 2021-05-10 2021-05-10 Information processing equipment, information processing system and information processing method Active JP7061326B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021079630A JP7061326B1 (en) 2021-05-10 2021-05-10 Information processing equipment, information processing system and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021079630A JP7061326B1 (en) 2021-05-10 2021-05-10 Information processing equipment, information processing system and information processing method

Publications (2)

Publication Number Publication Date
JP7061326B1 true JP7061326B1 (en) 2022-04-28
JP2022173741A JP2022173741A (en) 2022-11-22

Family

ID=81448180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021079630A Active JP7061326B1 (en) 2021-05-10 2021-05-10 Information processing equipment, information processing system and information processing method

Country Status (1)

Country Link
JP (1) JP7061326B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003098510A1 (en) 2002-05-15 2003-11-27 Elady Ltd. Buying and selling intermediation system and buying and selling intermediation method
JP2012142907A (en) 2010-12-16 2012-07-26 Shunji Sugaya Portable terminal having changeable user interface, method, and program
WO2015151182A1 (en) 2014-03-31 2015-10-08 楽天株式会社 Commercial product evaluation device, method, and program
WO2016060200A1 (en) 2014-10-16 2016-04-21 株式会社エコリング Appraisal system and appraisal method
JP2021043967A (en) 2019-09-03 2021-03-18 株式会社携帯市場 Information processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003098510A1 (en) 2002-05-15 2003-11-27 Elady Ltd. Buying and selling intermediation system and buying and selling intermediation method
JP2012142907A (en) 2010-12-16 2012-07-26 Shunji Sugaya Portable terminal having changeable user interface, method, and program
WO2015151182A1 (en) 2014-03-31 2015-10-08 楽天株式会社 Commercial product evaluation device, method, and program
WO2016060200A1 (en) 2014-10-16 2016-04-21 株式会社エコリング Appraisal system and appraisal method
JP2021043967A (en) 2019-09-03 2021-03-18 株式会社携帯市場 Information processing device

Also Published As

Publication number Publication date
JP2022173741A (en) 2022-11-22

Similar Documents

Publication Publication Date Title
JP7430913B2 (en) Low-cost computerized kiosk for remote collection of valuable electronic equipment
US20210110440A1 (en) Systems and methods for enhanced evaluation of pre-owned electronic devices and provision of protection plans, repair, certifications, etc.
US9836726B2 (en) Internet payment system using credit card imaging
KR102084125B1 (en) Vending machine and method for providing online to offline based used goods marketplace platform using thereof
US11620635B2 (en) Methods and systems for approving transactions
KR102358607B1 (en) Artificial intelligence appraisal system, artificial intelligence appraisal method and storage medium
CN103718192A (en) Image-based financial processing
JP6954741B2 (en) Damage judgment device, period / schedule calculation device and repair / repair cost calculation device using this device.
JP7393002B2 (en) Low-cost instruments and methods for distributed remote collection of valuable electronic devices
US20230082046A1 (en) Information processing device, information processing system, information processing method, and program
WO2021019286A1 (en) Systems and methods for enhanced evaluation of pre-owned electronic devices and provision of related services
CN110945552B (en) Product sales reporting method, payment method and terminal equipment
CN109815039A (en) Test method and device, storage medium, the computer equipment of business software
WO2020057305A1 (en) Method and device for identifying risky merchant
WO2022007798A1 (en) Data display method and apparatus, terminal device and storage medium
KR102051883B1 (en) System and method for device valuation
JP7061326B1 (en) Information processing equipment, information processing system and information processing method
CN109670929A (en) Control method, device, equipment and the computer readable storage medium of loan early warning
JP7157015B2 (en) Smart contract system and program
KR20190091706A (en) Method for providing insurance service for old mobile phone and apparatus therefor
KR102210448B1 (en) Method, apparatus and computer program for providing ownership registration and counterfeit judgment service for product using blockchain
WO2022090999A1 (en) System for pre-owned electronic device diagnostics, with sales and operation facilitation features
JP2022173655A (en) Information processor, information processing method and program
KR20210125197A (en) Method, apparatus and computer program for providing ownership registration and counterfeit judgment service for product using blockchain
JP7019223B1 (en) Information processing equipment, information processing system and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210811

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220404

R150 Certificate of patent or registration of utility model

Ref document number: 7061326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350