JP2022173741A - Information processing device, information processing system and information processing method - Google Patents

Information processing device, information processing system and information processing method Download PDF

Info

Publication number
JP2022173741A
JP2022173741A JP2021079630A JP2021079630A JP2022173741A JP 2022173741 A JP2022173741 A JP 2022173741A JP 2021079630 A JP2021079630 A JP 2021079630A JP 2021079630 A JP2021079630 A JP 2021079630A JP 2022173741 A JP2022173741 A JP 2022173741A
Authority
JP
Japan
Prior art keywords
target
article
image
target article
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021079630A
Other languages
Japanese (ja)
Other versions
JP7061326B1 (en
Inventor
岳洋 磯田
Takehiro Isoda
義仁 山本
Yoshihito Yamamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Garagebank Corp
Original Assignee
Garagebank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Garagebank Corp filed Critical Garagebank Corp
Priority to JP2021079630A priority Critical patent/JP7061326B1/en
Application granted granted Critical
Publication of JP7061326B1 publication Critical patent/JP7061326B1/en
Publication of JP2022173741A publication Critical patent/JP2022173741A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To enable the evaluation of an article from a plurality of different viewpoints while reducing user's work about an information processing device for evaluating the article on the basis of photographed image data.SOLUTION: A server 3 includes an evaluation part 13 for acquiring photographed image data generated by photographing an object article by an object user, performing an image analysis of an image of the object article recorded in the photographed image data to recognize a state about the external appearance of the object article, executing at least any one of processing for performing character recognition of an image of characters included in the image of the object article as an object, processing for performing an image analysis of the image of the object image to recognize a model number of the object article, and processing for performing the image analysis of the image of the object article to determine the authenticity of the object article, and evaluating the object article by reflecting at least one of the recognized state about the external appearance of the object article, the recognized characters, the recognized model number and a result of authenticity determination.SELECTED DRAWING: Figure 2

Description

本発明は、撮影画像データに基づいて物品を評価する情報処理装置、当該情報処理装置と端末とを備える情報処理システム、および、当該情報処理装置による情報処理方法に関する。 The present invention relates to an information processing device that evaluates an article based on captured image data, an information processing system that includes the information processing device and a terminal, and an information processing method using the information processing device.

従来、ある物品が撮影されて生成された撮影画像データを利用して、その物品を評価するシステムが知られている。この種のシステムに関して例えば特許文献1には、中古車が撮影されて生成されたパノラマ写真(撮影画像)をサーバが取得した後、パノラマ写真を保管し、事後的に中古車の傷の状況等をパノラマ写真によって確認できるようにしたシステムが記載されている。 2. Description of the Related Art Conventionally, there is known a system for evaluating an article by using photographed image data generated by photographing the article. Regarding this type of system, for example, in Patent Document 1, after a server obtains a panorama photograph (photographed image) generated by photographing a used car, the panorama photograph is stored, and after the fact, the condition of the used car's scratches, etc. It describes a system that enables confirmation by panoramic photographs.

特開2018-97679号公報JP 2018-97679 A

ここで一般に物品の評価にあたっては、単一の観点からだけではなく、複数の異なる観点で物品の評価をすることが求められる。通常、評価に影響する物品の要素は1つだけではなく、複数の異なる観点で物品を評価することにより複数の要素を加味して物品を評価することが可能となり、評価結果の妥当性が高くなるからである。また従来のシステムでは物品の評価に先立って、ユーザが物品の撮影を行ったり、物品の評価に必要な情報を提供したりする(例えば、評価に利用する情報を与えられたユーザインタフェイスに入力する)等の作業を行っていたが、この作業はユーザにとって煩雑であった。以上を踏まえ、ユーザの作業を減らしつつ、複数の異なる観点で物品が評価できるようにしたいとするニーズがあった。 In general, when evaluating an article, it is required to evaluate the article not only from a single point of view but also from a plurality of different points of view. Normally, there is not only one element of a product that affects the evaluation, but by evaluating the product from multiple different perspectives, it becomes possible to evaluate the product by taking into account multiple factors, and the validity of the evaluation results is high. Because it becomes In addition, in conventional systems, prior to evaluating an article, the user takes a picture of the article and provides information necessary for evaluating the article (for example, inputting information used for evaluation into a given user interface). ), etc., but this work was troublesome for the user. Based on the above, there is a need to be able to evaluate articles from a plurality of different viewpoints while reducing the user's work.

本発明は、このような問題を解決するために成されたものであり、ユーザの作業を減らしつつ、複数の異なる観点で物品を評価できるようにすることを目的とする。 SUMMARY OF THE INVENTION The present invention has been made to solve such problems, and an object of the present invention is to enable evaluation of an article from a plurality of different points of view while reducing user's work.

上記した課題を解決するために、本発明は、対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で端末から取得する。そして撮影画像データに記録された対象物品の画像を画像分析して対象物品の外観に関する状態を認識すると共に、対象物品の画像に含まれる文字の画像を対象として文字認識する処理、対象物品の画像を画像分析して対象物品の型番を認識する処理、および、対象物品の画像を画像分析して対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行する。そして認識した対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して対象物品を評価するようにしている。 In order to solve the above-described problems, the present invention obtains, from a terminal via a network, photographed image data generated by photographing a target article by a target user. Then, the image of the target article recorded in the photographed image data is image-analyzed to recognize the state of the appearance of the target article, and the image of the character included in the image of the target article is processed for character recognition, and the image of the target article is processed. image analysis to recognize the model number of the target article, and image analysis of the image of the target article to determine the authenticity of the target article. Then, the target product is evaluated by reflecting at least one of the recognized appearance state of the target product, the recognized characters, the recognized model number, and the result of authenticity determination.

上記のように構成した本発明によれば、物品の外観に関する状態に加えて、文字の画像を対象とする文字認識により認識された文字、物品の画像を対象とする画像分析により認識された型番、および、物品の画像を対象として行われた真贋の判定の結果のうち少なくとも1つが反映されて物品の評価が行われるため、複数の異なる観点で物品を評価できる。その際に物品の外観に関する状態の認識と、文字認識による文字の認識、画像分析による型番の認識および真贋の判定のうち少なくとも1つとは、共通する撮影画像データに基づいて行われる。従ってユーザは、物品の評価にあたって対象物品を撮影すればよく、認識させるべき文字を入力する作業や、型番を入力する作業、真贋の判定に利用する情報を提供する作業等を別途、行う必要がない。すなわち本発明によれば、ユーザの作業を減らしつつ、複数の異なる観点で物品を評価できる。 According to the present invention configured as described above, in addition to the state related to the appearance of the article, characters recognized by character recognition targeting character images and model numbers recognized by image analysis targeting image images of articles , and at least one of the result of authenticity determination performed on the image of the product is reflected in the evaluation of the product, so the product can be evaluated from a plurality of different viewpoints. At this time, at least one of the recognition of the appearance of the article, the recognition of characters by character recognition, the recognition of the model number by image analysis, and the determination of authenticity is performed based on common photographed image data. Therefore, the user only needs to take a picture of the object to evaluate the object, and does not need to separately perform the work of inputting the characters to be recognized, the input of the model number, and the work of providing information to be used for authenticity determination. do not have. That is, according to the present invention, an article can be evaluated from a plurality of different viewpoints while reducing user's work.

本発明の一実施形態に係る情報処理システムの構成例を示す図である。1 is a diagram showing a configuration example of an information processing system according to an embodiment of the present invention; FIG. 本発明の一実施形態に係る端末およびサーバの機能構成例を示すブロック図である。1 is a block diagram showing an example of functional configurations of a terminal and a server according to one embodiment of the present invention; FIG. 物品分類ツリーの一例を示す図である。It is a figure which shows an example of an article classification tree. 端末に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal. ノートパソコンに係るシステム関連情報の一例を示す図である。It is a figure which shows an example of the system relevant information regarding a notebook computer. 端末に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal. スマートフォンに係るシステム関連情報の一例を示す図である。It is a figure which shows an example of the system relevant information which concerns on a smart phone. 端末に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal. 端末に表示される画面の一例を示す図である。It is a figure which shows an example of the screen displayed on a terminal. 本発明の一実施形態に係る情報処理装置の動作例を示すフローチャートである。4 is a flowchart showing an operation example of the information processing apparatus according to one embodiment of the present invention;

以下、本発明の一実施形態を図面に基づいて説明する。図1は、本実施形態に係る情報処理システム1の構成例を示す図である。図1で示すように情報処理システム1は、端末2とサーバ3とを備えている。端末2およびサーバ3は共に、インターネット、電話網、その他の通信網を含むネットワークNに接続可能である。 An embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing a configuration example of an information processing system 1 according to this embodiment. The information processing system 1 includes a terminal 2 and a server 3 as shown in FIG. Both the terminal 2 and the server 3 are connectable to a network N including the Internet, telephone networks and other communication networks.

サーバ3は、端末2をクライアントの1つとするサーバ装置である。図1では、サーバ3を1つのブロックで表しているが、サーバ3は単一のサーバ装置である必要はなく、例えば複数のサーバ装置により構成されてもよく、また所定のシステムの一部であってもよい。サーバ3は、サービス提供会社(所定主体)によって管理、運営されており、後述するサービスを提供する。サーバ3は、特許請求の範囲の「情報処理装置」に相当する。 The server 3 is a server device that uses the terminal 2 as one of its clients. In FIG. 1, the server 3 is represented by one block, but the server 3 does not have to be a single server device, and may be composed of, for example, a plurality of server devices. There may be. The server 3 is managed and operated by a service provider company (predetermined entity), and provides services to be described later. The server 3 corresponds to an "information processing device" in the claims.

端末2は、タブレット型の筐体の全面の広い領域にタッチスクリーン4(表示パネル+タッチパネル)が設けられたスマートフォンである。特に本実施形態に係る端末2は、カメラ5が搭載されており、カメラ5による撮影の結果に基づいて撮影画像データを生成する機能を備えている。端末2には事前に、所定のアプリケーション(以下「専用アプリ」という)が、アプリケーションダウンロードシステムを利用してインストールされている。専用アプリの機能については後述する。なお図1では、ネットワークNに接続された無数の端末2のうちの1つを例示的に示している。 The terminal 2 is a smart phone provided with a touch screen 4 (display panel + touch panel) over a wide area on the entire surface of a tablet-type housing. In particular, the terminal 2 according to the present embodiment is equipped with a camera 5 and has a function of generating captured image data based on the result of capturing by the camera 5 . A predetermined application (hereinafter referred to as “dedicated application”) is installed in the terminal 2 in advance using an application download system. Functions of the dedicated application will be described later. Note that FIG. 1 exemplarily shows one of the innumerable terminals 2 connected to the network N. As shown in FIG.

図2は、端末2およびサーバ3の機能構成例を示すブロック図である。図2で示すように、端末2は機能構成として、端末側制御部10および端末側通信部11を備えている。またサーバ3は機能構成として、サーバ側通信部12および評価部13を備えている。上記各機能ブロック10~12は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック10~12は、実際にはコンピュータのCPU、RAM、ROM等を備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。特に端末側制御部10は、CPU等のハードウェアが、記憶媒体に記憶された専用アプリ(ただしOS、OSが提供するAPI、その他の付随するプログラムを含む)を読み出して実行することにより各種処理を実行可能である。またサーバ3は記憶媒体として、サーバ側記憶部14を備えている。 FIG. 2 is a block diagram showing a functional configuration example of the terminal 2 and the server 3. As shown in FIG. As shown in FIG. 2, the terminal 2 includes a terminal-side control section 10 and a terminal-side communication section 11 as functional configurations. The server 3 also includes a server-side communication unit 12 and an evaluation unit 13 as functional configurations. Each of the functional blocks 10 to 12 can be configured by hardware, DSP (Digital Signal Processor), or software. For example, when configured by software, each of the functional blocks 10 to 12 is actually configured with a computer CPU, RAM, ROM, etc., and a program stored in a recording medium such as RAM, ROM, hard disk, or semiconductor memory. is realized by the operation of In particular, the terminal-side control unit 10 performs various processes by reading and executing a dedicated application (including an OS, an API provided by the OS, and other accompanying programs) stored in a storage medium by hardware such as a CPU. is executable. The server 3 also includes a server-side storage unit 14 as a storage medium.

端末側通信部11は、ネットワークNに接続された機器と所定のプロトコルに従って通信する。以下の説明では端末2とネットワークNに接続された機器との間での通信は、端末側通信部11により適切に行われるものとして詳細な説明を省略する。またサーバ側通信部12は、ネットワークNに接続された機器と所定のプロトコルに従って通信する。以下の説明ではサーバ3とネットワークNに接続された機器との間での通信は、サーバ側通信部12により適切に行われるものとして詳細な説明を省略する。 The terminal-side communication unit 11 communicates with devices connected to the network N according to a predetermined protocol. In the following description, communication between the terminal 2 and devices connected to the network N is assumed to be appropriately performed by the terminal-side communication unit 11, and detailed description thereof will be omitted. Also, the server-side communication unit 12 communicates with devices connected to the network N according to a predetermined protocol. In the following description, communication between the server 3 and devices connected to the network N is assumed to be properly performed by the server-side communication unit 12, and detailed description thereof will be omitted.

ここでサーバ3は、ユーザに対して以下のサービス(以下「本サービス」という)を提供する。すなわち自身が所有する物品に基づいて資金を得たいと考えているユーザを想定する。ユーザが所有する物品は一例として、ブランド物のバック、ブランド物のアクセサリ、その他のブランド品であり、また一例としてノートパソコン、スマートフォン、ゲーム機、デジタルカメラ、その他の電子機器である(ただし、これらはあくまで一例である)。ユーザは、端末2により物品の撮影を行い、撮影結果に基づく撮影画像データが端末2からサーバ3に送信される。サーバ3は、撮影画像データに基づいて物品の査定額を導出し、査定額を示す情報をユーザに提供する。なお以下の説明では、種々の処理を行って最終的に査定額を導出することを適宜、「査定する」と表現する場合がある。 Here, the server 3 provides the following services (hereinafter referred to as "this service") to the user. In other words, assume a user who wants to earn money based on the goods he/she owns. Examples of items owned by users include branded bags, branded accessories, and other branded items, and examples include notebook computers, smartphones, game consoles, digital cameras, and other electronic devices (however, these is just an example). The user takes a picture of the article using the terminal 2 , and the taken image data based on the photographed result is transmitted from the terminal 2 to the server 3 . The server 3 derives the assessed value of the article based on the photographed image data, and provides information indicating the assessed value to the user. Note that in the following description, the term "assess" may be used as appropriate to refer to performing various processes and finally deriving the assessed amount.

詳細な説明は省略するが、物品の査定額が導出された後、ユーザによる同意があれば、その査定額で物品がサービス提供会社によって買い取られると共に、その査定額に相当する金銭がユーザに提供される。その上でサービス提供会社によって買い取られた物品は、リース料の支払いを条件としてユーザにリースされる。リースの際にはユーザとサービス提供会社との間でリースに関する契約が結ばれ、ユーザはリースに関する契約に従ってリース料を支払う義務が生じる。このためユーザは、物品をサービス提供会社に引き渡すことなく手元に置いたまま、査定額相当の資金を得ることができる。 Although detailed explanation is omitted, after the appraisal value of the item is derived, if the user agrees, the service provider purchases the item at the appraisal value and provides the user with money equivalent to the appraisal value. be done. Articles purchased by the service provider are then leased to the user on the condition of payment of the lease fee. At the time of leasing, a lease contract is concluded between the user and the service provider company, and the user is obliged to pay the lease fee according to the lease contract. Therefore, the user can obtain funds equivalent to the appraisal value while keeping the goods at hand without handing over the goods to the service provider company.

サーバ3は、以上の本サービスの提供を端末2と協働してシステム的に実現する。特に本実施形態に係るサーバ3は、以下で説明する独自の構成により、ユーザの作業を減らしつつ、複数の異なる観点で査定を行って査定額を導出する。以下、本サービスの提供時におけるサーバ3および端末2の動作について説明する。 The server 3 cooperates with the terminal 2 to systematically implement the provision of the above services. In particular, the server 3 according to the present embodiment has a unique configuration that will be described below, and while reducing the user's work, performs assessment from a plurality of different viewpoints and derives the assessment amount. The operations of the server 3 and the terminal 2 when providing this service will be described below.

ここでサーバ3および端末2の処理の説明に先立って、本実施形態における「物品分類」および「最深分類」について説明する。本実施形態では本サービスにおいて査定の対象となり得る物品に関し、ツリー構造の物品分類のツリー(以下「物品分類ツリー」という)が事前に定義されている。図3は、物品分類ツリーの一例を示す図である。以下、図3を用いて物品分類ツリーについて説明する。ただし図3で例示する物品分類ツリーは、説明の便宜のため、非常に単純化したものである。図3の例ではルートノードの1つ下の階層で、物品を大まかに分類する目的で、ノートパソコン(物品分類)とスマートフォンとバッグ(物品分類)との3つの物品分類が定義されている。以下の説明において、物品分類の階層状態を表現する際に、ルートノードは当然に存在するものとして、ルートノードを省略する場合がある。また本実施形態ではバッグは、ブランド品を想定しているものとする。 Here, before explaining the processing of the server 3 and the terminal 2, the "article classification" and "the deepest classification" in this embodiment will be explained. In this embodiment, an item classification tree having a tree structure (hereinafter referred to as an "item classification tree") is defined in advance for items that can be assessed in this service. FIG. 3 is a diagram showing an example of an article classification tree. The article classification tree will be described below with reference to FIG. However, the article classification tree illustrated in FIG. 3 is a very simplified one for convenience of explanation. In the example of FIG. 3, three product categories are defined in the hierarchy one level below the root node for the purpose of roughly classifying products: notebook computers (product category), smartphones, and bags (product category). In the following description, when representing the hierarchical state of the product classification, the root node may be omitted, assuming that the root node naturally exists. Also, in this embodiment, the bag is assumed to be a brand-name product.

ノートパソコン(物品分類)の1つ下の階層ではOSに着目して、Windows(物品分類)とMacOS(物品分類)との2つの物品分類が定義されている(ただしWindowsおよびMacOSは共に登録商標)。更にWindows(物品分類)の1つ下の層ではメーカに着目してメーカMK1(物品分類)とメーカMK2(物品分類)との2つの物品分類が定義されている。またスマートフォン(物品分類)の1つ下の階層ではOSに着目して、iOS(物品分類)とAndroid(物品分類)との2つの物品分類が定義されている(ただしiOSおよびAndroidは共に登録商標)。またバッグ(物品分類)の1つ下の階層では、バッグのブランドに着目して、ブランドB1(物品分類)とブランドB2(物品分類)とブランドB3(物品分類)との3つの物品分類が定義されている。 Two product categories, Windows (product category) and MacOS (product category), are defined by focusing on the OS in the hierarchy one level below the notebook computer (product category) (both Windows and MacOS are registered trademarks). ). Further, in the layer one level below Windows (article classification), focusing on the manufacturer, two article classifications of maker MK1 (article classification) and maker MK2 (article classification) are defined. In addition, two product categories, iOS (product category) and Android (product category), are defined by focusing on the OS in the hierarchy one level below the smartphone (product category) (both iOS and Android are registered trademarks). ). Also, in the hierarchy one level below the bag (goods classification), focusing on the brand of the bag, three product classifications, brand B1 (goods classification), brand B2 (goods classification), and brand B3 (goods classification) are defined. It is

以上の図3の例において、物品分類ツリーの葉ノードに対応する物品分類が「最深分類」に相当する。例えば「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」は独立した1つの「最深分類」であり、「バッグ(物品分類)>ブランドB3(物品分類)」も独立した1つの「最深分類」である。最深分類は、特許請求の範囲の「分類」に相当する。また以上の説明から明らかな通り、「物品分類」は、ある階層において、その上位の階層を2つ以上に分類するときの各々の分類のことを意味する。 In the above example of FIG. 3, the product classification corresponding to the leaf node of the product classification tree corresponds to the "deepest classification". For example, "Laptop (product classification) > Windows (product classification) > Manufacturer MK1 (product classification)" is one independent "deepest classification", and "Bag (product classification) > Brand B3 (product classification)" is also independent. is one "deepest classification". The deepest classification corresponds to "classification" in claims. Further, as is clear from the above description, the "article classification" means each classification when classifying the upper hierarchy into two or more in a certain hierarchy.

さて本サービスの利用に際してユーザは、端末2の専用アプリを起動する。専用アプリの起動に応じて、端末2の端末側制御部10とサーバ3の評価部13とが協働して適切にユーザ認証を行い、評価部13は、ユーザを識別するためのユーザ識別情報を認識する。以下、端末2のユーザ(本サービスを利用しようとしているユーザ)を特に「対象ユーザ」といい、対象ユーザが査定の対象とする物品を特に「対象物品」という。 When using this service, the user activates a dedicated application on the terminal 2 . In response to activation of the dedicated application, the terminal-side control unit 10 of the terminal 2 and the evaluation unit 13 of the server 3 cooperate to appropriately perform user authentication. to recognize Hereinafter, the user of the terminal 2 (the user who intends to use this service) will be particularly referred to as the "target user", and the item that the target user will be subject to assessment will be particularly referred to as the "target item".

次いで対象ユーザは、専用アプリの機能により提供されるユーザインタフェイスに所定の操作を行って第2層物品分類選択画面G4A(図4(A))を端末2のタッチスクリーン4に表示することを指示する。当該指示に応じて、端末2の端末側制御部10およびサーバ3の評価部13は協働して最深分類認識処理を実行する。以下、最深分類認識処理について詳述する。 Next, the target user performs a predetermined operation on the user interface provided by the function of the dedicated application to display the second layer article classification selection screen G4A (FIG. 4A) on the touch screen 4 of the terminal 2. instruct. In response to the instruction, the terminal-side control unit 10 of the terminal 2 and the evaluation unit 13 of the server 3 cooperate to execute deepest classification recognition processing. The deepest classification recognition processing will be described in detail below.

最深分類認識処理において端末2の端末側制御部10は、第2層物品分類選択画面G4Aを表示するための描画データをサーバ3に要求する。当該要求は例えばHTTPリクエストとして行われる。当該要求に応じてサーバ3の評価部13は、描画データを生成し、端末2の端末側制御部10に応答する。端末2の端末側制御部10は描画データを受信し、描画データに基づいて第2層物品分類選択画面G4Aをタッチスクリーン4に表示する。 In the deepest classification recognition process, the terminal-side control unit 10 of the terminal 2 requests the server 3 for drawing data for displaying the second layer article classification selection screen G4A. The request is made, for example, as an HTTP request. In response to the request, the evaluation unit 13 of the server 3 generates drawing data and responds to the terminal-side control unit 10 of the terminal 2 . The terminal-side control unit 10 of the terminal 2 receives the drawing data, and displays the second layer article classification selection screen G4A on the touch screen 4 based on the drawing data.

以下サーバ3の評価部13による描画データの生成/送信、描画データに基づいて表示された各種画面への入力の検出、各種画面へ入力された情報の取得、各種画面の動的な変更、その他の画面に関する各種処理は、CGI、JavaScript(登録商標)、Ajax、DHTML、その他の既存の技術を用いて適切に実行されるものとし、詳しい説明は行わない。またサーバ3の評価部13が描画データを端末2の端末側制御部10に送信し、描画データに基づく画面を端末2のタッチスクリーン4に表示させることを単に「評価部13が、端末側制御部10に、○○画面をタッチスクリーン4に表示させる」或いは単に「評価部13が○○画面を表示させる」のように表現することがある。 Generation/transmission of drawing data by the evaluation unit 13 of the server 3, detection of input to various screens displayed based on the drawing data, acquisition of information input to various screens, dynamic change of various screens, etc. , are appropriately executed using CGI, JavaScript (registered trademark), Ajax, DHTML, and other existing technologies, and detailed description thereof will not be given. The evaluation unit 13 of the server 3 transmits drawing data to the terminal-side control unit 10 of the terminal 2 and displays a screen based on the drawing data on the touch screen 4 of the terminal 2. It may be expressed as "the unit 10 displays the XX screen on the touch screen 4" or simply "the evaluation unit 13 displays the XX screen".

図4(A)は第2層物品分類選択画面G4Aの一例である。第2層物品分類選択画面G4Aは、物品分類ツリーにおける第2層の物品分類のそれぞれを示すアイコンが一覧的に表示された画面である。各アイコンはタッチ操作により選択可能である。第2層の物品分類は、本サービスで査定の対象となり得る物品を大まかに分類するものであり、本サービスで査定の対象となり得る物品が何れかの物品分類に属するように十分な種類が用意されている。対象ユーザは、対象物品の物品分類に対応するアイコンをタッチ操作することによって、物品分類を選択する。 FIG. 4A is an example of the second layer article classification selection screen G4A. The second layer product classification selection screen G4A is a screen displaying a list of icons indicating each of the second layer product classifications in the product classification tree. Each icon can be selected by touch operation. The second layer of product classification roughly classifies the products that can be assessed by this service, and sufficient types are prepared so that the products that can be assessed by this service belong to any product category. It is The target user selects the product category by touching the icon corresponding to the product category of the target product.

第2層物品分類選択画面G4Aで何れかの物品分類が選択されると評価部13は、端末側制御部10に、選択された物品分類の1つ下の階層の物品分類のそれぞれを示すアイコンが表示された画面をタッチスクリーン4に表示させる。対象ユーザは、画面に表示されたアイコンのうち、何れか1つのアイコンをタッチ操作することによって物品分類を選択する。以上のようにして、ある画面において対象ユーザが物品分類を選択すると、選択された物品分類の1つ下の階層の物品分類が一覧表示された画面がタッチスクリーン4に表示され、再び対象ユーザが物品分類を選択すると、選択された物品分類の1つ下の階層の物品分類が一覧表示された画面がタッチスクリーン4に表示される、という処理が対象ユーザにより最深分類が選択されるまで繰り返し実行される。 When one of the product categories is selected on the second layer product category selection screen G4A, the evaluation unit 13 causes the terminal-side control unit 10 to display an icon indicating each of the product categories one level below the selected product category. is displayed on the touch screen 4. The target user selects an article classification by touching any one of the icons displayed on the screen. As described above, when the target user selects an article classification on a certain screen, a screen displaying a list of article classifications one level below the selected article classification is displayed on the touch screen 4, and the target user When an article classification is selected, a screen displaying a list of article classifications one level below the selected article classification is displayed on the touch screen 4. This process is repeatedly executed until the target user selects the deepest classification. be done.

例えば物品分類の階層構造が図3で例示する物品分類ツリーに従っており、対象物品が「OSがiOSであるスマートフォン」であったとする。この場合、図4を参照し、対象ユーザは第2層物品分類選択画面G4A(図4(A))においてスマートフォン(物品分類)を示すアイコンB4Aを選択し、これに応じてOSに係る物品分類を選択するための画面G4B(図4(B))が表示され、対象ユーザはこの画面G4BにおいてiOS(物品分類)を示すアイコンB4Bを選択する。以上により、対象ユーザにより最深分類として「スマートフォン(物品分類)>iOS(物品分類)」が選択される。 For example, assume that the hierarchical structure of the product classification conforms to the product classification tree illustrated in FIG. 3, and the target product is a “smartphone whose OS is iOS”. In this case, referring to FIG. 4, the target user selects the icon B4A indicating the smart phone (article classification) on the second layer article classification selection screen G4A (FIG. 4A), and according to this, the article classification related to the OS is selected. A screen G4B (FIG. 4B) for selecting is displayed, and the target user selects an icon B4B indicating iOS (item classification) on this screen G4B. As described above, the target user selects "smartphone (item classification)>iOS (item classification)" as the deepest classification.

評価部13は、以上のようにして対象ユーザにより選択された最深分類(対象物品の最深分類)を認識する。以下、対象物品の最深分類を「対象最深分類」という。以上の処理が最深分類認識処理である。 The evaluation unit 13 recognizes the deepest classification (the deepest classification of the target article) selected by the target user as described above. Hereinafter, the deepest classification of the target article will be referred to as "the deepest target classification". The above processing is the deepest classification recognition processing.

最深分類認識処理の後、評価部13および端末側制御部10は協働して、撮影画像データ取得処理を実行する。以下、撮影画像データ取得処理について詳述する。 After the deepest classification recognition processing, the evaluation unit 13 and the terminal-side control unit 10 cooperate to execute the captured image data acquisition processing. The photographed image data acquisition process will be described in detail below.

上述の通り本実施形態では、物品分類ツリーに従って最深分類が定義されており、物品は何れかの最深分類に属することになる。そして本実施形態では最深分類ごとに、どのような方法で撮影されて生成された撮影画像データが必要であるかが事前に定められており、これに応じて最深分類ごとに、撮影画像データ取得処理の態様が異なっている。以下、物品を撮影するときの方法を「物品撮影方法」という。後に明らかとなるように撮影画像データは、対象物品の査定額を導出する際に利用されるものである。そして、ある最深分類についての物品撮影方法は、その最深分類に属する物品の査定額を導出する際に利用する撮影画像データとして適切な内容のデータが用意されるようにするという観点の下で定められている。 As described above, in this embodiment, the deepest classification is defined according to the article classification tree, and an article belongs to any of the deepest classifications. In this embodiment, for each deepest classification, it is determined in advance by what method the photographed image data is required to be captured and generated. The mode of processing is different. Hereinafter, a method for photographing an article will be referred to as an "article photographing method". As will become clear later, the photographed image data is used when deriving the appraisal value of the target article. The method of photographing an article for a certain deepest classification shall be determined from the viewpoint of preparing data with appropriate content as photographed image data to be used when deriving the appraised value of an article belonging to the deepest classification. It is

以下、物品分類ツリーが図3で示すツリーに従っているものとして、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1」の場合、「スマートフォン(物品分類)>iOS(物品分類)」の場合、および、「バッグ(物品分類)>ブランドB1」の場合のそれぞれを例として、撮影画像データ取得処理について説明する。 Below, assuming that the product classification tree follows the tree shown in FIG. The photographed image data acquisition process will be described using the case of "bag (item classification)>brand B1" as an example.

なお以下の説明において、「型番」とは、物品の型、型式、種類或いは機種を識別する情報を意味する。型番は、メーカ型番や、品番、製品番号、型名、型式、型式番号、形式、形式番号、モデル(Model)、タイプ(Type)、プロダクト(product)等と呼ばれることがある。また「固有番号」とは、物品ごとに一意な情報を意味する。固有番号は、製造番号や、製番、シリアルナンバ、シリアル番号等と呼ばれることがある。当然、型番が同じ物品についても、固有番号は必ず異なる。特にスマートフォンに関し、IMEIは固有番号に相当する。 In the following description, "model number" means information for identifying the type, type, type, or model of an article. The model number is sometimes called a manufacturer's model number, part number, product number, model name, model, model number, model, model number, model, type, product, and the like. A "unique number" means unique information for each article. The unique number is sometimes called a manufacturing number, a manufacturing number, a serial number, a serial number, or the like. Naturally, even articles with the same model number always have different unique numbers. Particularly for smartphones, the IMEI corresponds to a unique number.

<対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合>
まず対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合における撮影画像データ取得処理について説明する。この場合、対象物品は、大きな分類としてはノートパソコンに属することになるが、ノートパソコンには一般に以下の特徴がある。
(1)ディスプレイを有し、型番および所定の要素についてのスペックを少なくとも含むシステム関連情報をディスプレイに表示可能である。
(2)同じ型番であっても、スペックが異なる場合がある。
(3)ディスプレイの正面を含む部位に生じた劣化が査定(評価)に影響を与える。
つまりノートパソコンは、ディスプレイを有し、型番および所定の要素についてのスペックを少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、同じ型番であってもスペックが異なる場合があるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の3つの特徴を備える電子機器である。
<When the target deepest classification is "Laptop PC (article classification) > Windows (article classification) > Maker MK1 (article classification)">
First, the photographed image data acquisition process when the target deepest classification is "notebook computer (article classification)>Windows (article classification)>manufacturer MK1 (article classification)" will be described. In this case, the target article belongs to notebook computers as a broad classification, and notebook computers generally have the following characteristics.
(1) It has a display on which system-related information including at least the model number and specs of a given element can be displayed.
(2) Even if the model number is the same, the specifications may differ.
(3) Degradation occurring in a portion including the front of the display affects assessment (evaluation).
In other words, the notebook computer has a display, and is capable of displaying system-related information including at least the model number and specs of predetermined elements on the display; , and deterioration occurring in a portion including the front of the display affects the evaluation.

(1)に関し、システム関連情報とは、ハードウェアおよびソフトウェアに関するスペックや、仕様、設定、ステータス、属性等の、電子機器に関する種々の情報である。システム関連情報は、Windows系システムでは、システム情報と呼ばれるものである。一般にスマートフォン、汎用ノートパソコン、汎用タブレット端末、汎用ラップトップ端末および汎用デスクトップ端末は、搭載されたOSに応じた所定の操作を行うことによって、システム関連情報をディスプレイに表示することが可能に構成されている。この他、デジタルウォッチ等の専用機についても、ディスプレイにシステム関連情報を表示可能に構成されたものが存在する。 Regarding (1), system-related information is various types of information related to electronic devices, such as hardware and software specs, specifications, settings, statuses, attributes, and the like. System-related information is what is called system information in Windows-based systems. In general, smartphones, general-purpose notebook computers, general-purpose tablet terminals, general-purpose laptop terminals, and general-purpose desktop terminals are configured so that system-related information can be displayed on the display by performing a predetermined operation according to the installed OS. ing. In addition, there are dedicated devices such as digital watches that are configured to display system-related information on their displays.

図5は、ノートパソコンに表示可能なシステム関連情報の典型例を示す図である。図5で示すようにノートパソコンに係るシステム関連情報には通常、型番、固有番号、プロセッサ種類および総メモリ数が含まれている。プロセッサ種類および総メモリ数は、特許請求の範囲の「所定の要素についてのスペック」に相当する。なお図5の型番、固有番号、プロセッサ種類および総メモリ数については、同じ意味で他の文言が使用されている場合がある。例えばプロセッサ種類についてはプロセッサ名と表現されている場合があり、総メモリ数については単にメモリと表現されている場合がある。 FIG. 5 is a diagram showing a typical example of system-related information that can be displayed on a notebook computer. As shown in FIG. 5, system-related information related to a notebook computer usually includes model number, unique number, processor type and total number of memories. The types of processors and the total number of memories correspond to "specifications of predetermined elements" in claims. Note that the model number, unique number, processor type, and total number of memories in FIG. For example, the processor type may be expressed as a processor name, and the total number of memories may be simply expressed as memory.

(2)に関し例えばノートパソコンは、購入時にプロセッサの種類を選べるようになっている場合があり、同じ型番のノートパソコンであってもプロセッサの種類が異なる(=スペックが異なる)ことがある。また例えばノートパソコンは、メモリ(主記憶)を後から増設可能となっている場合があり、同じ型番のノートパソコンであっても総メモリ数(主記憶の容量)が異なる(=スペックが異なる)ことがある。ノートパソコンに関し、スペックの相違は、査定に影響を与える。 Regarding (2), for example, notebook computers may allow users to choose the type of processor at the time of purchase, and even notebook computers with the same model number may have different processor types (=different specifications). Also, for example, in some notebook computers, memory (main memory) can be added later, and even notebook computers with the same model number have different total memory (capacity of main memory) (= different specifications). Sometimes. Regarding laptops, differences in specs affect the assessment.

(3)に関し、ディスプレイの正面を含む部位は、ノートパソコンに関しては具体的には、ノートパソコンを開いたときに同時に露出するディスプレイおよびキーボードである。ディスプレイの正面を含む部位に生じた劣化に関し、ディスプレイの劣化とは、割れや、傷、汚れ、凹み等である。また、キーボードの劣化とは、部品の欠損や、傷、汚れ、摩耗等である。ディスプレイおよびキーボードの劣化は、ノートパソコンの使い勝手に影響を与えるため、他の部位における劣化と比較して査定により強い影響を与える。 With respect to (3), the portion including the front of the display is specifically the display and keyboard that are exposed at the same time when the notebook computer is opened. Deterioration of the display includes cracks, scratches, stains, dents, and the like. Deterioration of the keyboard includes loss of parts, scratches, stains, wear, and the like. Deterioration of the display and keyboard affects usability of the notebook computer, so it has a stronger impact on the assessment compared to deterioration in other parts.

さて対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合、まず評価部13は、サーバ側記憶部14に記憶された物品撮影方法データベースを参照し、対象最深分類に対応する物品撮影方法関連データを取得する。物品撮影方法データベースとは、最深分類ごとに物品撮影方法関連データが登録されたデータベースである。物品撮影方法関連データには、撮影画像データ取得処理において評価部13が端末側制御部10に表示させる各種画面の描画データが含まれている。以下で説明する撮影画像データ取得処理における評価部13の処理は、対象最深分類に対応する物品撮影方法関連データに基づいて実行される。 Now, if the target deepest classification is "notebook computer (article classification) > Windows (article classification) > maker MK1 (article classification)", the evaluation unit 13 first refers to the article photography method database stored in the server-side storage unit 14. to obtain the article photographing method-related data corresponding to the object deepest classification. The article photographing method database is a database in which article photographing method-related data is registered for each deepest classification. The article photographing method-related data includes drawing data of various screens that the evaluation unit 13 causes the terminal-side control unit 10 to display in the photographed image data acquisition process. The processing of the evaluation unit 13 in the photographed image data acquisition processing described below is executed based on the article photographing method-related data corresponding to the object deepest classification.

評価部13は、端末側制御部10に、図6(A)の画面G6Aをタッチスクリーン4に表示させる。画面G6Aは、ノートパソコンを開き、システム関連情報をディスプレイに表示させた状態でディスプレイおよびキーボードの全域(ディスプレイの正面を含む部位)が写るように撮影を行うことを指示すると共に、撮影の手順を案内(説明)する画面である。特に画面6Aでは、システム関連情報に含まれる型番、固有番号、プロセッサ種類および総メモリ数がディスプレイに表示された状態となるよう指示される。後に明らかとなるように、査定にあたってこれらの情報が利用されるからである。 The evaluation unit 13 causes the terminal-side control unit 10 to display the screen G6A of FIG. 6(A) on the touch screen 4 . Screen G6A instructs the user to open the notebook computer, display system-related information on the display, and take a picture so that the entire area of the display and keyboard (including the front of the display) is photographed. This is a screen for guidance (explanation). In particular, on the screen 6A, the user is instructed to display the model number, unique number, processor type, and total number of memories included in the system-related information on the display. This is because, as will become clear later, this information will be used in the assessment.

図6(A)で示すように画面6Aの上部には、ノートパソコンを開き、システム関連情報(図6(A)では「システム情報」と表現)をディスプレイに表示させた状態で、ディスプレイとキーボードとが写るように撮影を行うことを指示する文章が表示されている。また画面G6Aにおいて、当該文章の下方には、開いた状態のノートパソコンを表す画像が表示されている。この画像は、どのような方法で撮影すればよいかを対象ユーザにイメージさせるための画像であり当然、図6(A)で例示する内容に限られない。 As shown in FIG. 6A, at the top of the screen 6A, the notebook computer is opened and system-related information (expressed as "system information" in FIG. 6A) is displayed on the display, and the display and keyboard are displayed. A text is displayed to instruct the user to take a picture so that the In the screen G6A, an image representing an open notebook computer is displayed below the text. This image is an image for giving the target user an image of what method should be taken, and is of course not limited to the content illustrated in FIG. 6(A).

画面G6Aにおいて、この画像の下方には撮影の手順を説明する説明文が表示されている。図6(A)では省略されているものの、当該説明文には、システム関連情報(特にシステム関連情報に含まれる型番、固有番号、プロセッサ種類および総メモリ数)をディスプレイに表示させた状態でディスプレイおよびキーボードの全域が写るように撮影を行うために対象ユーザが認識し、留意すべき情報が含まれている。例えば当該説明文には、システム関連情報をディスプレイに表示する手順を示す情報が含まれている。当該手順を示す情報には、例えばOSのバージョンごとに手順が異なる場合には、OSのバージョンごとの手順が示される。また当該説明文は、ノートパソコンのOSがWindowsであること、および、ノートパソコンのメーカがMK1であることを反映した内容とされている。 On the screen G6A, an explanation for explaining the photographing procedure is displayed below this image. Although omitted in FIG. 6(A), the explanation includes the system-related information (especially the model number, unique number, processor type and total memory number included in the system-related information) displayed on the display. and information that the target user should recognize and keep in mind in order to capture the entire keyboard. For example, the explanation includes information indicating a procedure for displaying system-related information on the display. For example, when the procedure differs for each OS version, the procedure for each OS version is shown in the information indicating the procedure. Also, the description reflects that the OS of the notebook computer is Windows and that the manufacturer of the notebook computer is MK1.

画面G6Aは、特許請求の範囲の「対象物品の文字が対象物品の外観と共に撮影されるよう案内する画面」および「システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面」に相当する。すなわち評価部13は、対象ユーザにより対象物品を対象とする撮影が行われる際に、撮影に先立って対象物品の分類を認識し、認識した分類が上述した3つの特徴を備える電子機器が属する分類である場合には、システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を端末2に表示させる。 The screen G6A is defined in the scope of claims as "a screen that guides the character of the target article to be photographed together with the appearance of the target article" and "a portion including the front of the display is photographed while system-related information is displayed on the display." It corresponds to the screen that guides you to That is, when the target user takes a picture of the target article, the evaluation unit 13 recognizes the classification of the target article prior to photographing, and the recognized classification is the classification to which the electronic device having the above-described three features belongs. In the case of , the terminal 2 displays a screen that guides the user to take an image of a part including the front of the display while the system-related information is displayed on the display.

図6(A)の画面G6Aには撮影の開始を指示するボタンB6Aが表示されており対象ユーザは、撮影の準備が整ったらボタンB6Aを操作する。ボタンB6Aの操作に応じて、端末側制御部10は、端末2のカメラ機能を有効にし、評価部13と協働して、図6(B)で示すように撮影時に対象物品を収めるべき枠線と撮影時の注意事項とが表示された画面G6Bを表示する。対象ユーザは、画面G6Bが表示された状態で撮影を実行し、撮影に応じて撮影画像データが生成される。端末側制御部10は、撮影画像データを評価部13に送信し、評価部13は、撮影画像データを取得する。 A button B6A for instructing the start of photographing is displayed on the screen G6A of FIG. 6A, and the target user operates the button B6A when preparation for photographing is completed. In response to the operation of the button B6A, the terminal-side control unit 10 activates the camera function of the terminal 2, cooperates with the evaluation unit 13, and selects a frame in which the target article should be placed when photographing, as shown in FIG. 6B. A screen G6B displaying a line and precautions for photographing is displayed. The target user takes a picture while the screen G6B is displayed, and the taken image data is generated according to the picture taken. The terminal-side control unit 10 transmits the captured image data to the evaluation unit 13, and the evaluation unit 13 acquires the captured image data.

以上の通り撮影画像データ取得処理について、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」のときは、システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位(より具体的にはディスプレイ+キーボード)が撮影されるように評価部13により案内される。そして対象ユーザが案内に従って撮影を行った場合は、ディスプレイにシステム関連情報が写った状態のノートパソコン(対象物品)の画像が記録された1つの撮影画像データが生成され、評価部13はこの1つの撮影画像データを取得する。 As described above, regarding the captured image data acquisition process, when the target deepest classification is "notebook computer (article classification) > Windows (article classification) > manufacturer MK1 (article classification)", the system-related information is displayed on the display. , and a portion including the front of the display (more specifically, display + keyboard) is guided by the evaluation unit 13 to be photographed. Then, when the target user takes a photograph according to the guidance, one photographed image data is generated in which an image of the notebook computer (target article) with system-related information shown on the display is recorded, and the evaluation unit 13 evaluates this one. Acquire two captured image data.

以上、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」であるときの撮影画像データ取得処理について説明したが、ノートパソコンと同様の特徴をもつ物品については、同様の方法で撮影画像データ取得処理が実行される。ノートパソコンと同様の特徴を持つかどうかは、最深分類に基づいて判断される。ノートパソコンと同様の特徴をもつ物品は例えば、ラップトップパソコンである。 In the above, the photographed image data acquisition processing when the target deepest classification is "notebook computer (article classification) > Windows (article classification) > maker MK1 (article classification)" has been described. , the photographed image data acquisition process is executed in a similar manner. Whether or not it has the same characteristics as a notebook computer is determined based on the deepest classification. An article having characteristics similar to a notebook computer is, for example, a laptop computer.

<対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合>
次に対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合における撮影画像データ取得処理について説明する。この場合、対象物品は、大きな分類としてはスマートフォンに属することになるが、スマートフォンには一般に以下の特徴がある。
(1)前面の広い領域にタッチスクリーン(ディスプレイ)が設けられ、型番およびIMEI(固有番号)を少なくとも含むシステム関連情報をディスプレイに表示可能である。
(2)割賦(分割払い)により端末が購入される場合がある。
(3)筐体の前面のタッチスクリーン(ディスプレイ)に生じた劣化が、査定に影響を与える。
つまりスマートフォンは、前面の広い領域にディスプレイが設けられ、型番および固有番号を少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、割賦により購入される場合があるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の3つの特徴を備えるタブレット端末である。
<When the target deepest classification is "smartphone (article classification) > iOS (article classification)">
Next, photographed image data acquisition processing in the case where the target deepest classification is "smartphone (item classification)>iOS (item classification)" will be described. In this case, the target article belongs to smartphones as a broad classification, and smartphones generally have the following characteristics.
(1) A touch screen (display) is provided in a large front area, and system-related information including at least the model number and IMEI (unique number) can be displayed on the display.
(2) A terminal may be purchased by installment (payment in installments).
(3) Deterioration of the touch screen (display) on the front of the housing affects the assessment.
In other words, the smartphone has a display in a large area on the front, and system-related information including at least the model number and unique number can be displayed on the display. It is a tablet terminal with three characteristics that the deterioration occurring in the part containing affects the evaluation.

(1)に関して図7は、スマートフォンに表示可能なシステム関連情報の典型例を示す図である。図7で示すようにスマートフォンに係るシステム関連情報には典型的には、型番(図7ではモデル番号と表現されている)およびIMEI(固有番号)が含まれている。(2)に関し、スマートフォンについて割賦により購入できるようにしたサービスが広く行われており、このサービスを通して端末が割賦により購入される場合がある。(3)に関し、タッチスクリーンの劣化はスマートフォンの使い勝手に影響を与えるため、他の部位における劣化と比較して査定により強い影響を与える。特にスマートフォンに関しては、タッチスクリーンに割れが生じることがあり、一般にタッチスクリーンに割れが生じている場合、スマートフォンの査定額は相当に低くなる。 Regarding (1), FIG. 7 is a diagram showing a typical example of system-related information that can be displayed on a smartphone. As shown in FIG. 7, system-related information relating to a smartphone typically includes a model number (expressed as a model number in FIG. 7) and an IMEI (unique number). Regarding (2), a service that enables smartphones to be purchased by installment payment is widely available, and terminals may be purchased by installment payment through this service. Regarding (3), the deterioration of the touch screen affects the usability of the smartphone, so it has a stronger impact on the assessment compared to the deterioration of other parts. With smartphones in particular, cracks can occur in the touchscreen, and in general, if the touchscreen is cracked, the smartphone's appraisal value will be significantly lower.

さて対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合、評価部13は、物品撮影方法データベースから対象最深分類に対応する物品撮影方法関連データを取得し、取得した物品撮影方法関連データに基づいて以下の処理を実行する。すなわち評価部13は、端末側制御部10に、図6(A)の画面G6Aに代えて図8の画面G8をタッチスクリーン4に表示させる。画面G8は、システム関連情報をタッチスクリーンに表示させた状態で筐体の前面の全域が写るように撮影を行うことを指示すると共に、撮影の手順を案内(説明)する画面である。特に画面G8では、システム関連情報に含まれる型番およびIMEI(固有番号)がタッチスクリーンに表示された状態となるよう指示される。後に明らかとなるように、査定にあたってこれらの情報が利用されるからである。 Now, when the target deepest classification is "smartphone (article classification)>iOS (article classification)", the evaluation unit 13 acquires the article photography method-related data corresponding to the target deepest classification from the article photography method database, Based on the method-related data, the following processes are performed. That is, the evaluation unit 13 causes the terminal-side control unit 10 to display the screen G8 of FIG. 8 on the touch screen 4 instead of the screen G6A of FIG. 6(A). The screen G8 is a screen for instructing shooting so as to capture the entire front surface of the housing with the system-related information displayed on the touch screen, and for guiding (explaining) the shooting procedure. In particular, on the screen G8, the user is instructed to display the model number and IMEI (unique number) included in the system-related information on the touch screen. This is because, as will become clear later, this information will be used in the assessment.

図8で示すように画面G8の上部には、システム関連情報(図8では「システム情報」と表現)をタッチスクリーンに表示させた状態で、筐体の前面の全域が写るように撮影を行うことを指示する文章が表示されている。また画面G8において、当該文章の下方には、スマートフォンを正面から見た様子を表す画像が表示されている。この画像は、どのような方法で撮影すればよいかを対象ユーザにイメージさせるための画像であり当然、図8で例示する内容に限られない。 As shown in FIG. 8, system-related information (expressed as "system information" in FIG. 8) is displayed on the touch screen at the top of the screen G8. There is a text indicating that Further, on the screen G8, below the text, an image showing the smartphone viewed from the front is displayed. This image is an image for giving the target user an image of what method should be taken, and of course the content is not limited to that illustrated in FIG. 8 .

画面G8において、この画像の下方には撮影の手順を説明する説明文が表示されている。図8では省略されているものの、当該説明文には、システム関連情報(特に型番およびIMEI)をタッチスクリーンに表示させた状態で筐体の前面の全域が写るように撮影を行うために対象ユーザが認識し、留意すべき情報が含まれている。例えば当該説明文には、システム関連情報をタッチスクリーンに表示する手順を示す情報が含まれている。当該手順を示す情報には、例えばOSのバージョンごとに手順が異なる場合には、OSのバージョンごとの手順が示される。また当該説明文は、スマートフォンのOSがiOSであることを反映した内容とされている。 On the screen G8, an explanation for explaining the photographing procedure is displayed below this image. Although it is omitted in FIG. 8, the description includes the system-related information (especially the model number and IMEI) displayed on the touch screen, and the target user to capture the entire front surface of the housing. contains information that should be recognized and heeded. For example, the explanation includes information indicating a procedure for displaying system-related information on the touch screen. For example, when the procedure differs for each OS version, the procedure for each OS version is shown in the information indicating the procedure. In addition, the description reflects that the OS of the smartphone is iOS.

画面G8は、特許請求の範囲の「対象物品の文字が対象物品の外観と共に撮影されるよう案内する画面」および「システム関連情報がディスプレイに表示された状態で、筐体が正面から撮影されるよう案内する画面」に相当する。すなわち評価部13は、対象ユーザにより対象物品を対象とする撮影が行われる際に、撮影に先立って対象物品の分類を認識し、認識した分類が上述した3つの特徴を備えるタブレット端末が属する分類である場合には、システム関連情報がディスプレイに表示された状態で、筐体が正面から撮影されるよう案内する画面を端末2に表示させる。 The screen G8 is "a screen that guides the character of the target article to be photographed together with the appearance of the target article" and "the housing is photographed from the front with the system-related information displayed on the display." It corresponds to the screen that guides you to That is, when the target user takes a picture of the target article, the evaluation unit 13 recognizes the classification of the target article prior to photographing, and the recognized classification is the classification to which the tablet terminal having the above-described three characteristics belongs. In the case of , the terminal 2 displays a screen that guides the user to photograph the housing from the front while the system-related information is displayed on the display.

画面G8のボタンB8が操作されると、図6(B)に相当する画面が表示され、対象ユーザにより撮影が行われる。撮影に応じて撮影画像データが生成され、端末側制御部10から評価部13に撮影画像データが送信され、評価部13は、撮影画像データを取得する。 When the button B8 on the screen G8 is operated, a screen corresponding to FIG. 6B is displayed, and the target user takes an image. Photographed image data is generated according to photographing, the photographed image data is transmitted from the terminal-side control unit 10 to the evaluation unit 13, and the evaluation unit 13 acquires the photographed image data.

以上の通り、撮影画像データ取得処理において、対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」のときは、システム関連情報がタッチスクリーンに表示された状態で、筐体が正面から撮影されるよう案内される。そして対象ユーザが指示に従って撮影を行った場合は、タッチスクリーンにシステム関連情報が写った状態のスマートフォン(対象物品)の画像が記録された1枚の撮影画像データが生成され、評価部13はこれを取得する。 As described above, in the captured image data acquisition process, when the target deepest classification is "smartphone (item classification) > iOS (item classification)", the system-related information is displayed on the touch screen, and the housing is viewed from the front. Guided to be photographed. Then, when the target user takes an image according to the instruction, a piece of captured image data is generated in which an image of the smartphone (target article) with the system-related information displayed on the touch screen is recorded, and the evaluation unit 13 to get

以上、対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」であるときの撮影画像データ取得処理について説明したが、スマートフォンと同様の特徴をもつ物品については、同様の方法で撮影画像データ取得処理が実行される。スマートフォンと同様の特徴をもつ物品は例えば、スマートフォンを除くタブレット端末(ただし、割賦により購入できるもの)である。 In the above, the photographed image data acquisition processing when the target deepest classification is "smartphone (item classification) > iOS (item classification)" has been described. Data acquisition processing is executed. An example of an article that has similar features to a smartphone is a tablet terminal other than a smartphone (however, it can be purchased on an installment basis).

<対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合>
次に対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合における撮影画像データ取得処理について説明する。この場合、対象物品は、大きな分類としてはバッグに属することになるが、バッグには一般に以下の特徴がある。
(1)物品に文字としての型番が記録されていない場合がある一方、型番を物品の外観から判定可能である。
(2)偽物である場合があり、査定にあたって物品が本物であるかどうかが重要である。
つまりバッグは、物品に文字としての型番が記録されていない場合がある一方、型番を物品の外観から判定可能であるという特徴、および、偽物である場合があり、評価にあたって物品が本物であるかどうかが重要であるという特徴の2つの特徴を備える物品である。
<When the target deepest classification is "Bag (article classification) > Brand B1 (article classification)">
Next, photographed image data acquisition processing in the case where the target deepest classification is "bag (item classification)>brand B1 (item classification)" will be described. In this case, the target article belongs to the bag as a broad classification, and the bag generally has the following features.
(1) While there are cases where the model number as text is not recorded on the article, the model number can be determined from the appearance of the article.
(2) It may be a counterfeit, and it is important to check whether the item is genuine.
In other words, while there are cases where the model number is not recorded as letters on the item, the bag has the characteristic that the model number can be determined from the appearance of the item, and there are cases where it is a counterfeit. It is an article that has two characteristics of what is important.

(1)に関しバッグには、刻印、印刷、その他の手段で型番が記録されることもあるが、型番が記録されない場合もある。特にブランドによっては、そのブランドが提供するバッグに統一的に型番を記録しないようにしているケースがある。一方、バッグについては一般に、バッグを正面から見たときの外観的な特徴によって型番を判別することができる。(2)に関しバッグに関しては、偽物であるケースがあり、査定に際しては真贋を見極めることが重要であり、通常、査定にあたっては真贋判定が行われる。一般に真贋判定は、バッグに表された真贋判定対象を利用して行われる。真贋判定対象は例えば、物品に記録されたロゴや、模様、マーク、特徴的な平面的或いは立体的な形状等である。物品の部分ではなく物品全体(例えば、物品全体の3次元的な形状)が真贋判定対象となる場合もある。 Regarding (1), the model number may be recorded on the bag by engraving, printing, or other means, but it may not be recorded. In particular, depending on the brand, there are cases where the model number is not uniformly recorded on the bags provided by the brand. On the other hand, in general, the model number of a bag can be identified by its external features when the bag is viewed from the front. With regard to (2), there are cases in which the bag is counterfeit, and it is important to ascertain the authenticity of the bag when making an assessment. In general, authenticity determination is performed using an authenticity determination object represented in a bag. The object of authenticity determination is, for example, a logo, pattern, mark, characteristic two-dimensional or three-dimensional shape, etc. recorded on the article. In some cases, not a part of the article but the entire article (for example, the three-dimensional shape of the entire article) is subject to authenticity determination.

さて対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合、評価部13は、物品撮影方法データベースから対象最深分類に対応する物品撮影方法関連データを取得し、取得した物品撮影方法関連データに基づいて以下の処理を実行する。すなわち評価部13は、端末側制御部10に、図6(A)の画面G6Aに代えて図9の画面G9をタッチスクリーン4に表示させる。画面G9は、バッグの正面の全域が写るように撮影を行うことを指示すると共に、撮影の手順を案内(説明)する画面である。バッグの正面の全域が写るように対象ユーザに撮影を行わせる理由は、バッグを正面から撮影したときの外観がバッグの型番を特定するのに最も有効利用でき、また、バッグを正面から撮影したときに写る、バッグに関する要素がバッグの真贋判定に最も有効利用できるからである。 When the target deepest classification is "bag (article classification)>brand B1 (article classification)", the evaluation unit 13 acquires article photography method-related data corresponding to the target deepest classification from the article photography method database, The following processing is executed based on the imaging method-related data. That is, the evaluation unit 13 causes the terminal-side control unit 10 to display the screen G9 of FIG. 9 on the touch screen 4 instead of the screen G6A of FIG. 6A. The screen G9 is a screen for instructing to shoot so that the entire front of the bag is captured, and for guiding (explaining) the procedure for shooting. The reason for asking the target user to photograph the entire front of the bag is that the appearance of the bag when photographed from the front can be most effectively used to identify the model number of the bag, and the bag is photographed from the front. This is because the elements related to the bag, which are sometimes photographed, can be most effectively used to determine the authenticity of the bag.

図9で示すように画面G9の上部には、バッグの正面の全域が写るように撮影を行うことを指示する文章が表示されている。また画面G9において、当該文章の下方には、バッグを正面から見た様子を表す画像が表示されている。この画像は、どのような方法で撮影すればよいかをユーザにイメージさせるための画像であり当然、図9で例示する内容に限られない。 As shown in FIG. 9, at the top of the screen G9 is displayed a text instructing to shoot so that the entire front of the bag is captured. Further, on the screen G9, below the text, an image showing the bag viewed from the front is displayed. This image is an image for giving the user an image of what method should be taken, and is of course not limited to the content illustrated in FIG. 9 .

画面G9において、この画像の下方には撮影の手順を説明する説明文が表示されている。図9では省略されているものの、当該説明文には、バッグの正面の全域が写るように撮影を行うためにユーザが認識し、留意すべき情報が含まれている。また当該説明文は、バッグのブランドがブランドB1であることを反映した内容とされている。 On the screen G9, an explanation for explaining the photographing procedure is displayed below this image. Although omitted in FIG. 9, the explanation contains information that the user should recognize and pay attention to in order to capture the entire front of the bag. In addition, the description reflects that the brand of the bag is brand B1.

画面G9は、特許請求の範囲の「生成される撮影画像データが型番の認識に利用可能なデータとなるように対象物品の外観が撮影されるよう案内する画面」、「生成される撮影画像データが対象物品の真贋の判定に利用可能なデータとなるように対象物品の外観が撮影されるよう案内する画面」および「生成される撮影画像データが型番の認識に利用可能かつ真贋の判定に利用可能なデータとなるように対象物品の外観が撮影されるよう案内する画面」に相当する。すなわち評価部13は、対象ユーザにより対象物品を対象とする撮影が行われる際に、撮影に先立って対象物品の分類を認識し、認識した分類が2つの特徴を備える物品が属する分類である場合には、生成される撮影画像データが型番の認識に利用可能かつ真贋の判定に利用可能なデータとなるように対象物品の外観が撮影されるよう案内する画面を端末2に表示させる。 The screen G9 is "a screen for guiding the appearance of the target article to be photographed so that the generated photographed image data can be used for recognition of the model number", "the generated photographed image data A screen that guides you to photograph the appearance of the target item so that the data can be used to determine the authenticity of the target item" and "The captured image data that is generated can be used to recognize the model number and to determine the authenticity of the target item. It corresponds to "a screen that guides you to photograph the appearance of the target article so that it can be used as possible data." That is, when the target user takes a picture of the target article, the evaluation unit 13 recognizes the classification of the target article prior to photographing. 2, the terminal 2 is caused to display a screen for guiding the external appearance of the target article to be photographed so that the generated photographed image data can be used for recognition of the model number and for judgment of authenticity.

画面G9のボタンB9が操作されると、図6(B)に相当する画面が表示され、ユーザにより撮影が行われる。撮影に応じて撮影画像データが生成され、端末側制御部10から評価部13に撮影画像データが送信され、評価部13は、撮影画像データを取得する。 When the button B9 on the screen G9 is operated, a screen corresponding to FIG. 6B is displayed, and the user takes an image. Photographed image data is generated according to photographing, the photographed image data is transmitted from the terminal-side control unit 10 to the evaluation unit 13, and the evaluation unit 13 acquires the photographed image data.

以上の通り撮影画像データ取得処理において、対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」のときは、バッグの正面の全域が撮影されるように評価部13により案内される。そして、対象ユーザが指示に従って撮影を行った場合は、バッグの正面の画像が記録された1枚の撮影画像データが生成され、評価部13はこれを取得する。以上、対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」であるときの撮影画像データ取得処理について説明したが、バッグと同様の特徴をもつ物品については、同様の方法で撮影画像データ取得処理が実行される。バッグと同様の特徴をもつ物品は例えば、靴、その他のバッグ以外のブランド品である。 As described above, in the photographed image data acquisition process, when the target deepest classification is "bag (item classification)>brand B1 (item classification)", the evaluation unit 13 guides so that the entire front of the bag is photographed. . Then, when the target user has taken a photograph according to the instruction, a piece of photographed image data in which an image of the front of the bag is recorded is generated, and the evaluation unit 13 acquires this. The photographed image data acquisition processing when the target deepest classification is "bag (item classification) > brand B1 (item classification)" has been described above. Image data acquisition processing is executed. Articles having features similar to bags are, for example, shoes and other branded items other than bags.

以上が評価部13および端末側制御部10により実行される撮影画像データ取得処理である。以上の通り、撮影画像データ取得処理の結果、対象最深分類に応じた物品撮影方法が案内されると共に、(理想的には)対象最深分類に応じた方法で対象物品の撮影が行われて撮影画像データが生成され、評価部13は、生成された撮影画像データを取得する。 The photographed image data acquisition processing executed by the evaluation unit 13 and the terminal-side control unit 10 has been described above. As described above, as a result of the photographed image data acquisition process, the article photographing method corresponding to the deepest target classification is guided, and (ideally) the target article is photographed by the method corresponding to the deepest target classification. Image data is generated, and the evaluation unit 13 acquires the generated photographed image data.

撮影画像データ取得処理の後、評価部13は、査定処理を実行する。以下、査定処理について詳述する。査定処理に関し評価部13は、対象最深分類に応じた査定処理を実行する。これを踏まえ、以下、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合と、対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合と、対象最深分類が「バッグ(物品分類)>ブランドB1」の場合とに分けて評価部13の処理について説明する。 After the photographed image data acquisition process, the evaluation unit 13 executes an assessment process. The assessment process will be described in detail below. Regarding assessment processing, the evaluation unit 13 executes assessment processing according to the target deepest classification. Based on this, below, the case where the deepest target classification is "Laptop PC (article classification) > Windows (article classification) > Manufacturer MK1 (article classification)" and the case where the target deepest classification is "Smartphone (article classification) > iOS (article classification) )” and the case where the deepest target classification is “bag (goods classification)>brand B1”.

<対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合>
まず対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」である場合の評価部13の処理について説明する。上述の通り、この場合、評価部13は、ディスプレイにシステム関連情報が表示された状態でディスプレイおよびキーボードの全域が撮影されて生成された撮影画像データを取得している。
<When the target deepest classification is "Laptop PC (article classification) > Windows (article classification) > Maker MK1 (article classification)">
First, the processing of the evaluation unit 13 when the target deepest classification is "notebook computer (article classification)>Windows (article classification)>manufacturer MK1 (article classification)" will be described. As described above, in this case, the evaluation unit 13 acquires captured image data generated by capturing an image of the entire display and keyboard while the system-related information is being displayed on the display.

まず評価部13は、期待画像判定処理を実行する。期待画像判定処理とは、評価部13が取得した撮影画像データについて、その内容が後続の撮影画像データを利用して行われる処理を正常に行うために適切な内容となっているか否かを判別する処理である。例えば評価部13は、期待された態様で対象物品が撮影されていない場合(例えば、期待されている視点で対象物品が撮影されていない場合や、対象物品の画像が異常に小さい場合)に撮影画像データの内容が適切でないと判定する。また例えば評価部13は、後続する処理が正常に実行できない程度に撮影画像データの画像がブレている場合に撮影画像データの内容が適切でないと判定する。 First, the evaluation unit 13 executes expected image determination processing. The expected image determination process determines whether or not the captured image data acquired by the evaluation unit 13 is appropriate for the normal execution of subsequent processes using the captured image data. It is a process to For example, when the target article is not captured in the expected manner (for example, when the target article is not captured from the expected viewpoint, or when the image of the target article is abnormally small) It is determined that the content of the image data is not appropriate. Further, for example, the evaluation unit 13 determines that the content of the captured image data is not appropriate when the image of the captured image data is blurred to such an extent that subsequent processing cannot be performed normally.

期待画像判定処理は例えば、最深分類の種類ごとに用意された以下のモデルを利用して行われる。モデルは、撮影画像データを入力し、入力した撮影画像データを対象として各種画像処理を行い、入力した撮影画像データの内容が正常内容かどうかを示す値(正常内容である可能性を示す値でもよい)を出力するものである。モデルには既存の全ての画像処理技術を応用可能であり、また、モデルは所定の機械学習手法(例えばディープラーニング)で学習されたものであってもよい。 The expected image determination process is performed using, for example, the following models prepared for each type of deepest classification. The model inputs captured image data, performs various image processing on the input captured image data, and determines whether the content of the input captured image data is normal or not. good). All existing image processing techniques can be applied to the model, and the model may be learned by a predetermined machine learning method (for example, deep learning).

撮影画像データの内容が適切でないと判定した場合、評価部13は、対応する処理を実行する。例えば評価部13は対応する処理として、端末側制御部10に、対象物品の撮影をやり直すことを促す画面をタッチスクリーン4に表示させる。 When determining that the content of the captured image data is not appropriate, the evaluation unit 13 executes corresponding processing. For example, as corresponding processing, the evaluation unit 13 causes the terminal-side control unit 10 to display a screen on the touch screen 4 prompting the user to retake the image of the target article.

一方、撮影画像データの内容が適切であると判定した場合、評価部13は、文字認識処理を実行する。文字認識処理とは、対象物品の画像に含まれる文字の画像(本例ではシステム関連情報の画像)を対象として文字認識する処理である。文字認識処理において評価部13は、撮影画像データを画像処理により分析し、撮影画像データに記録された画像から、対象物品の画像を特定する。次いで評価部13は、撮影画像データを画像処理により分析し、対象物品の画像から、システム関連情報の画像(撮影画像データに記録された対象物品の画像に含まれる文字の画像)を特定する。次いで評価部13は、システム関連情報の画像を光学文字認識処理により分析し、システム関連情報の画像が示す文字群を文字認識する。 On the other hand, when determining that the contents of the photographed image data are appropriate, the evaluation unit 13 executes character recognition processing. The character recognition process is a process of recognizing characters on an image of characters (image of system-related information in this example) included in an image of a target product. In the character recognition process, the evaluation unit 13 analyzes the photographed image data by image processing, and identifies the image of the target article from the images recorded in the photographed image data. Next, the evaluation unit 13 analyzes the photographed image data by image processing, and identifies an image of system-related information (an image of characters included in the image of the target article recorded in the photographed image data) from the image of the target article. Next, the evaluation unit 13 analyzes the image of the system-related information by optical character recognition processing, and performs character recognition on the character group indicated by the image of the system-related information.

次いで評価部13は、型番認識処理を実行する。型番認識処理は、システム関連情報の画像を対象として文字認識することによって型番を認識する処理である。型番認識処理において評価部13は、文字認識処理の結果に基づいて、システム関連情報の画像が示す文字群の中から、型番を示す文字列を特定し、型番を認識する。例えば通常、システム関連情報では、項目名と項目値との組み合わせが一覧的に並べて配置される。これを踏まえ評価部13は、システム関連情報の画像が示す文字群の中から、型番の項目名として利用される文字列(例えばシステムモデルや、モデル、機種等)を特定し、特定した文字列と対応付けられている項目値を型番として認識する。例えば文字列の特定は、テキストデータをキーとする文字列検索により行われる。 Next, the evaluation unit 13 executes model number recognition processing. The model number recognition process is a process of recognizing a model number by recognizing characters in an image of system-related information. In the model number recognition process, the evaluation unit 13 identifies a character string indicating the model number from the character group indicated by the image of the system-related information based on the result of the character recognition process, and recognizes the model number. For example, usually in system-related information, combinations of item names and item values are arranged in a list. Based on this, the evaluation unit 13 identifies a character string (for example, system model, model, model, etc.) used as the item name of the model number from the character group indicated by the image of the system-related information, and identifies the identified character string The item value associated with is recognized as the model number. For example, a character string is specified by character string search using text data as a key.

次いで評価部13は、固有番号認識処理を実行する。固有番号認識処理は、システム関連情報の画像を対象として文字認識することによって型番を認識する処理である。固有番号認識処理において評価部13は、文字認識処理の結果に基づいて、システム関連情報の画像が示す文字群の中から、固有番号を示す文字列を特定し、固有番号を認識する。例えば評価部13は、システム関連情報の画像が示す文字群の中から、固有番号の項目名として利用される文字列(例えばシリアル番号や、シリアルナンバ)を特定し、特定した文字列と対応付けられている項目値を固有番号として認識する。 Next, the evaluation unit 13 executes unique number recognition processing. The unique number recognition process is a process of recognizing a model number by performing character recognition on an image of system-related information. In the unique number recognition process, the evaluation unit 13 identifies a character string indicating the unique number from the character group indicated by the image of the system-related information based on the result of the character recognition process, and recognizes the unique number. For example, the evaluation unit 13 identifies a character string (for example, serial number or serial number) used as the item name of the unique number from among the character group indicated by the image of the system-related information, and associates it with the identified character string. Recognizes the item value that is specified as a unique number.

次いで評価部13は、スペック認識処理を実行する。スペック認識処理は、システム関連情報の画像を対象として文字認識することによって所定の要素(本例ではプロセッサ種類および総メモリ数)についてのスペックを認識する処理である。スペック認識処理において評価部13は、文字認識処理の結果に基づいて、システム関連情報の画像が示す文字群の中から、プロセッサ種類および総メモリ数を示す文字列を特定し、これらを認識する。例えば評価部13は、システム関連情報の画像が示す文字群の中から、プロセッサ種類および総メモリ数の項目名として利用される文字列を特定し、特定した各文字列と対応付けられている各項目値をプロセッサ種類および総メモリ数として認識する。 Next, the evaluation unit 13 executes spec recognition processing. The spec recognition process is a process of recognizing specs of predetermined elements (processor type and total number of memories in this example) by performing character recognition on an image of system-related information. In the specification recognition process, the evaluation unit 13 identifies character strings indicating the processor type and the total number of memories from among characters indicated by the image of the system-related information based on the result of the character recognition process, and recognizes them. For example, the evaluation unit 13 identifies character strings used as item names of the processor type and the total number of memories from among the character group indicated by the image of the system-related information, and each character string associated with each identified character string. Recognize item values as processor type and total memory count.

次いで評価部13は、状態認識処理を実行する。状態認識処理とは、撮影画像データに記録された対象物品の画像を画像分析して対象物品の外観に関する状態を認識する処理であり、より具体的には撮影画像データに記録された対象物品の画像を画像分析して対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理である。特に本実施形態では評価部13は、撮影画像データに基づいて対象物品の物品状態レベルを導出する(つまり、物品状態レベルを導出することが対象物品の外観に関する状態を認識することに相当する)。物品状態レベルとは、傷や、汚れ、凹み、摩耗、部品の欠損等の劣化に関連する要素の状況を考慮して、物品の外観に関する状態がどの程度、新品に近い状態か(どの程度、劣化が小さいか)を示すレベルのことである。本実施形態では物品状態レベルの値として、最も新品に近い状態(最も劣化が小さい状態)であることを示すレベルL5から、最も新品から遠い状態(最も劣化が大きい状態)であることを示すレベルL1までの5つの値が用意されている。 Next, the evaluation unit 13 executes state recognition processing. The state recognition processing is a process of recognizing the state of the appearance of the target article by image analysis of the image of the target article recorded in the photographed image data. This is a process of analyzing the image and recognizing the state of the appearance of the part including the front of the display of the target article. In particular, in this embodiment, the evaluation unit 13 derives the article condition level of the target article based on the photographed image data (that is, deriving the article condition level corresponds to recognizing the appearance state of the target article). . The item condition level refers to the degree to which the condition of the appearance of the item is close to new, taking into consideration the conditions of factors related to deterioration such as scratches, stains, dents, wear, and missing parts. It is a level indicating whether deterioration is small). In the present embodiment, the value of the article condition level ranges from level L5, which indicates the state closest to new (least deteriorated state), to level indicating the state farthest from new (state with the greatest deterioration). Five values up to L1 are prepared.

特に本例では対象物品はノートパソコンであり、撮影画像データには、ノートパソコンのディスプレイの正面およびキーボードの画像が記録されている。評価部13は、ディスプレイおよびキーボードについて傷(ディスプレイの割れを含む)や、汚れ、凹み、摩耗、部品の欠損等の劣化に関連する要素の状況を反映して物品状態レベルを導出する。なお評価部13は、既存の画像処理により物品状態レベルを導出する。物品状態レベルの実行に必要なデータは事前に用意される。必要なデータは例えば、物品の型番に対応するテンプレートデータを用いたパターンマッチングが実行される場合において、型番ごとのテンプレートデータであり、また例えば型番に応じた背景差分法に基づく画像処理が実行される場合において、型番ごとの背景画像データである。また状態認識処理の少なくとも一部の処理が機械学習されたモデルを使用して行われる構成でもよい。 In particular, in this example, the target article is a notebook computer, and the photographed image data includes images of the front of the display and the keyboard of the notebook computer. The evaluation unit 13 derives the article condition level by reflecting the status of elements related to deterioration such as scratches (including cracks in the display), dirt, dents, wear, missing parts, etc. for the display and keyboard. Note that the evaluation unit 13 derives the article condition level by existing image processing. The data necessary for performing the item condition level is prepared in advance. Necessary data is, for example, template data for each model number when pattern matching is executed using template data corresponding to the model number of an article, and image processing based on the background subtraction method corresponding to the model number is executed, for example. background image data for each model number. Also, at least part of the state recognition processing may be performed using a machine-learned model.

次いで評価部13は、不正可能性調査処理を実行する。不正可能性調査処理とは、個別番号を利用して本サービスの不正利用の可能性を調査する処理である。不正可能性調査処理において評価部13は、利用履歴データベースを参照する。利用履歴データベースとは、本サービスの利用履歴(対象ユーザの利用履歴に限られない)を管理するデータベースであり、各レコードは少なくとも、本サービスを利用したユーザのユーザ識別情報と、査定の対象となった物品の固有番号とを含んでいる。つまり利用履歴データベースでは、過去に本サービスを利用したケースごとに、ユーザ識別情報と、固有番号とが対応付けて管理されている。利用履歴データベースは、特許請求の範囲の「物品の固有番号と少なくとも過去の一時点においてその物品を所有していたユーザのユーザ識別情報とを対応付けて管理するデータ」および「過去に評価した物品について、物品の固有番号と、評価を行ったときに物品を所有していたユーザのユーザ識別情報とを対応付けて管理するデータ」に相当する。 Next, the evaluation unit 13 executes fraud possibility investigation processing. The fraud possibility investigation process is a process of investigating the possibility of fraudulent use of this service using individual numbers. In the fraud possibility investigation process, the evaluation unit 13 refers to the usage history database. The usage history database is a database that manages the usage history of this service (not limited to the usage history of the target user), and each record contains at least the user identification information of the user who used this service and the subject of assessment. and the unique number of the item that was purchased. That is, in the usage history database, user identification information and a unique number are associated and managed for each case of using this service in the past. The usage history database includes "data for managing the unique number of an article in association with user identification information of a user who owned the article at least at one time in the past" and "previously evaluated articles data for managing the unique number of the item and the user identification information of the user who owned the item when the evaluation was performed in association with each other.

不正可能性調査処理において利用履歴データベースを参照した後、評価部13は、利用履歴データベースに、対象物品の固有番号と同一の固有番号を有するレコードが存在するか否かを判別する。このようなレコードは1つも存在しない場合もあれば、1つ以上、存在する場合もある。利用履歴データベースにこのようなレコードが存在するということは、過去に対象物品を対象として本サービスが利用されたということである。利用履歴データベースにこのようなレコードが1つも存在しない場合、評価部13は、不正可能性調査処理を終了し、続く査定額導出処理を実行する。 After referring to the usage history database in the fraud possibility investigation process, the evaluation unit 13 determines whether or not a record having the same unique number as that of the target article exists in the usage history database. There may be no such records, or there may be one or more. The presence of such a record in the usage history database means that the service has been used for the target article in the past. If there is no such record in the usage history database, the evaluation unit 13 terminates the fraud possibility investigation process and executes the subsequent assessed amount derivation process.

一方、利用履歴データベースにこのようなレコードが1つ以上存在する場合、評価部13は、対象ユーザのユーザ識別情報と、各レコードが有するユーザ識別情報とが一致しているか否かを判別する。あるレコードが有するユーザ識別情報と、対象ユーザのユーザ識別情報とが異なる場合、過去に対象ユーザと異なるユーザが、対象物品を査定の対象として本サービスを利用したということであり、対象ユーザが、他人が所有する物品を対象として本サービスを利用しようとしている可能性がある。 On the other hand, if one or more such records exist in the usage history database, the evaluation unit 13 determines whether or not the user identification information of the target user matches the user identification information of each record. If the user identification information of a certain record is different from the user identification information of the target user, it means that a user different from the target user has used this service with the target product as the target of assessment in the past, and the target user You may be trying to use the Service for items owned by others.

なお評価部13は、利用履歴データベースに、対象物品の固有番号と同一の固有番号を有するレコードが複数、存在する場合には、1つでも対象ユーザのユーザ識別情報と異なる値のユーザ識別情報を含むレコードがある場合には、対象ユーザのユーザ識別情報と、各レコードが有するユーザ識別情報とが一致していないと判定する。ただし直近で生成されたレコードに含まれるユーザ識別情報の値と、対象ユーザのユーザ識別情報の値とが異なる場合に、評価部13が対象ユーザのユーザ識別情報と、各レコードが有するユーザ識別情報とが一致していないと判定する構成でもよい。 Note that if there are a plurality of records having the same unique number as the unique number of the target article in the usage history database, the evaluation unit 13 determines that even one of the records has a different value from the user identification information of the target user. If there is a record containing the target user, it is determined that the user identification information of the target user does not match the user identification information of each record. However, when the value of the user identification information included in the most recently generated record is different from the value of the user identification information of the target user, the evaluation unit 13 evaluates the user identification information of the target user and the user identification information of each record. may be determined as not matching.

対象ユーザのユーザ識別情報と、各レコードが有するユーザ識別情報とが一致していない場合、評価部13は、対応する処理を実行する。例えば評価部13は、対応する処理としてオペレータに通知する処理を実行する。また例えば評価部13は、端末側制御部10を制御して、同一の物品について過去に対象ユーザ以外の者が本サービスを利用したことを通知し、対象物品が対象ユーザの所有物であるかどうかの確認をとる。ただし、例示した処理はあくまで一例であり、評価部13が他の処理を実行しても当然よい。 When the user identification information of the target user and the user identification information of each record do not match, the evaluation unit 13 executes corresponding processing. For example, the evaluation unit 13 executes a process of notifying the operator as a corresponding process. Also, for example, the evaluation unit 13 controls the terminal-side control unit 10 to notify that a person other than the target user has used this service for the same item in the past, and determines whether the target item belongs to the target user. I will check what it is. However, the illustrated process is merely an example, and the evaluation unit 13 may naturally perform other processes.

なお本実施形態では、利用履歴データベースは、本サービスの利用履歴を管理するデータベースであったが、本サービス以外の類似するサービスの利用履歴も併せて管理するデータベースであってもよい。また、利用履歴データベースはサーバ3に記憶されている構成であったが、利用履歴データベースがサーバ3以外の装置に記憶されている構成でもよい。 In this embodiment, the usage history database is a database that manages the usage history of this service, but it may be a database that also manages the usage history of similar services other than this service. Further, although the usage history database is stored in the server 3, the usage history database may be stored in a device other than the server 3. FIG.

次いで評価部13は、査定額導出処理を実行する。査定額導出処理とは、査定額を導出する処理である。査定額導出処理において評価部13は、対象最深分類(本例では「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」)に対応する査定額テーブルを参照する。対象最深分類に査定額テーブルは、型番がとり得る値と、物品状態レベルがとり得る値(本実施形態では、レベルL1~レベルL5)と、プロセッサ種類がとり得る値と、総メモリ数がとり得る値との組み合わせごとに参考査定額が対応付けられたテーブルである。 Next, the evaluation unit 13 executes an assessment amount derivation process. The assessed amount derivation process is a process of deriving an assessed amount. In the assessed value derivation process, the evaluation unit 13 refers to the assessed value table corresponding to the target deepest classification (in this example, "notebook computer (article classification)>Windows (article classification)>maker MK1 (article classification)"). The appraisal value table for the target deepest classification includes values that model numbers can take, values that article condition levels can take (levels L1 to L5 in this embodiment), values that processor types can take, and the total number of memories. It is a table in which a reference appraisal amount is associated with each combination with a value to be obtained.

以下、型番と物品状態レベルとプロセッサ名と総メモリ数との組合せを「評価用組合せ」という。査定額テーブルにおいて、ある評価用組み合わせと対応付けられた参考査定額の値は、その評価用組み合わせの各要素の値を反映した値とされる。参考査定額は基本的には、型番によって基準となる金額が定まり、この基準となる金額について、物品状態レベルが小さいほど(=対象物品の劣化が大きいほど)低く、プロセッサの性能が低いほど低く、総メモリ数が小さいほど低くなるように調整されることによって設定される。当然、基準となる金額について物品状態レベルが大きいほど(=対象物品の劣化が小さいほど)高く、プロセッサの性能が高いほど高く、総メモリ数が大きいほど高くなるように調整されてもよい。 Hereinafter, the combination of the model number, article condition level, processor name and total number of memories will be referred to as "evaluation combination". In the assessment price table, the value of the reference assessment price associated with a certain combination for assessment is a value reflecting the value of each element of that combination for assessment. The reference assessment price is basically determined by the model number, and this reference amount is lower the lower the item condition level (= the greater the deterioration of the target item), and the lower the processor performance. , is adjusted so that it becomes lower as the total number of memories becomes smaller. Of course, the standard amount of money may be adjusted so that the higher the article condition level (=the smaller the deterioration of the target article), the higher the higher the processor performance, and the higher the total number of memories.

評価部13は、査定額テーブルにおいて、対象物品についての評価用組合せと対応付けられた参考査定額を取得し、これを査定額とする。 The evaluation unit 13 acquires the reference assessed value associated with the combination for evaluation of the target article in the assessed value table, and uses this as the assessed value.

以上が、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合に評価部13が実行する査定処理である。なお査定処理における処理の順番は、本実施形態で例示した順番に限られない。以上の説明の通り本実施形態によれば、対象物品の外観に関する状態に加えて、システム関連情報の画像(文字の画像)を対象とする文字認識により認識された文字(型番、固有番号、スペック)が反映されて査定(物品の評価)が行われるため、複数の異なる観点で対象物品を査定できる。特に本実施形態では、スペックが査定額に影響を与える(評価に影響を与える)という点を鑑み、スペックが反映されて評価部13により対象物品の査定がなされるため、その点で、より的確に対象物品を査定できる。 The above is the assessment process executed by the evaluation unit 13 when the target deepest classification is "notebook computer (article classification)>Windows (article classification)>maker MK1 (article classification)". Note that the order of processing in the assessment process is not limited to the order illustrated in this embodiment. As described above, according to the present embodiment, in addition to the state of the appearance of the target article, characters (model number, unique number, spec ) is reflected in the assessment (evaluation of the article), the target article can be assessed from a plurality of different viewpoints. In particular, in the present embodiment, considering that the specs affect the assessed value (affect the evaluation), the specs are reflected in the assessment of the target article by the evaluator 13. You can appraise the target goods at

その際に対象物品の外観に関する状態の認識と、文字認識による文字(型番、スペック、固有番号)の認識とは、共通する撮影画像データに基づいて行われる。従って対象ユーザは、対象物品の評価にあたって対象物品を撮影すればよく、例えば所定のユーザインタフェイスにおいて型番、固有番号、スペックを入力したり、型番、固有番号、スペックを選択したりする作業を行う必要がない。特に本実施形態では、対象物品の外観に関する状態の認識と、文字認識による文字(型番、スペック、固有番号)の認識とが共通する撮影画像データに基づいて評価部13により行われる。このためユーザは、対象物品(ノートパソコン)の外観に関する状態の認識に利用する撮影画像データを生成するための撮影と、型番や、固有番号、スペックの認識に利用する撮影画像データを生成するための撮影とを分けて行う必要がなく、その点でもユーザの作業が少ない。すなわち本実施形態によれば、ユーザの作業を減らしつつ、複数の異なる観点で物品を評価できる。 At that time, the recognition of the state of the appearance of the target article and the recognition of the characters (model number, spec, unique number) by character recognition are performed based on common photographed image data. Therefore, the target user can take a picture of the target product in order to evaluate the target product. For example, the user inputs the model number, the unique number, and the specifications, or selects the model number, the unique number, and the specifications in a predetermined user interface. No need. In particular, in this embodiment, the evaluation unit 13 performs recognition of the appearance state of the target article and recognition of characters (model number, spec, unique number) by character recognition based on the common photographed image data. For this reason, the user takes photographs to generate photographed image data used to recognize the state of the appearance of the target item (notebook computer), and to generate photographed image data used to recognize the model number, unique number, and specifications. Since there is no need to separate the image capturing from the image capturing, the user's work is reduced in this respect as well. That is, according to the present embodiment, it is possible to evaluate an article from a plurality of different viewpoints while reducing user's work.

<対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合>
次に対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」である場合の評価部13の処理について説明する。上述の通り、この場合、評価部13は、タッチスクリーンにシステム関連情報が表示された状態で筐体が正面から撮影されて生成された撮影画像データを取得している。
<When the target deepest classification is "smartphone (article classification) > iOS (article classification)">
Next, the processing of the evaluation unit 13 when the target deepest classification is "smartphone (item classification)>iOS (item classification)" will be described. As described above, in this case, the evaluation unit 13 acquires captured image data generated by capturing an image of the housing from the front while the system-related information is displayed on the touch screen.

評価部13は、期待画像判定処理、文字認識処理、型番認識処理、固有番号認識処理、状態認識処理および不正可能性調査処理を順次、実行する。これらの処理は<対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合と同様の方法で行われる。特に固有番号取得処理では評価部13は固有番号としてIMEIを取得する。また状態認識処理に関し、本例では対象物品はスマートフォンであり、撮影画像データには、タッチスクリーンの全域を含む筐体の正面の画像が記録されている。評価部13は、筐体の正面について傷(タッチスクリーンの割れを含む)や、汚れ、凹み、摩耗、部品の欠損等の劣化に関連する要素の状況を反映して物品状態レベルを導出する。 The evaluation unit 13 sequentially executes expected image determination processing, character recognition processing, model number recognition processing, unique number recognition processing, state recognition processing, and fraud possibility investigation processing. These processes are performed in the same manner as in the case where <target deepest classification is "notebook computer (article classification)>Windows (article classification)>maker MK1 (article classification)". Especially in the unique number acquisition process, the evaluation unit 13 acquires the IMEI as the unique number. In addition, regarding the state recognition processing, in this example, the target article is a smartphone, and the image of the front of the housing including the entire touch screen is recorded in the photographed image data. The evaluation unit 13 derives the article condition level by reflecting the conditions of elements related to deterioration such as scratches (including cracks in the touch screen), dirt, dents, wear, missing parts, etc. on the front of the housing.

本例において型番取得処理は、「システム関連情報の画像を対象として文字認識することによって型番を認識する処理」である。また固有番号認識処理は、「システム関連情報の画像を対象として文字認識することによって固有番号を認識する処理」である。また状態認識処理は、「撮影画像データに記録された対象物品の画像を画像分析して対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理」である。 In this example, the model number acquisition process is "a process of recognizing a model number by performing character recognition on an image of system-related information." Further, the unique number recognition processing is "a process of recognizing a unique number by performing character recognition on an image of system-related information". The state recognition processing is "a process of analyzing the image of the target article recorded in the photographed image data and recognizing the appearance state of the portion including the front of the display of the target article".

不正可能性調査処理の後、評価部13は、支払状況認識処理を実行する。支払状況認識処理は「認識した固有番号を用いた問い合わせを行って、対象物品についての支払状況を認識する処理」である。以下、支払状況確認処理について詳述する。以下の説明において、固有番号取得処理において取得したIMEI(固有番号)を特に「対象IMEI」という。 After the fraud possibility investigation process, the evaluation unit 13 executes the payment status recognition process. The payment status recognition process is "a process of making an inquiry using the recognized unique number and recognizing the payment status of the target product". The payment status confirmation process will be described in detail below. In the following description, the IMEI (unique number) acquired in the unique number acquisition process is particularly referred to as "target IMEI".

支払状況認識処理において評価部13は、ネットワークNに接続された支払状況管理サーバに、対象IMEIについての支払状況の問い合わせを行う。問い合わせは、対象IMEIを含む所定フォーマットのデータ(例えば、対象IMEIをクエリに含むリクエストデータ)が送信されることにより行われる。本実施形態において「支払状況」とは、対象物品(本例では、スマートフォン)が割賦により購入されたかどうか、割賦により購入されている場合には現時点で支払い中かどうか、および、現時点で支払い中か否かにかかわらず過去に支払に遅延がなかったかどうかを意味する。支払状況管理サーバは、データベースでIMEIと共に支払状況を管理するサーバ装置であり、あるIMEIについての支払状況の問い合わせに応じて、そのIMEIについての支払状況を示す支払状況情報を応答する機能を有している。 In the payment status recognition process, the evaluation unit 13 inquires of the payment status management server connected to the network N about the payment status of the target IMEI. The inquiry is made by transmitting data in a predetermined format including the target IMEI (for example, request data including the target IMEI in the query). In this embodiment, "payment status" means whether the target item (smartphone in this example) was purchased by installment payment, and if it was purchased by installment payment, whether payment is being made at this time, and whether payment is being made at this time. means whether there have been any past delays in payments, whether or not The payment status management server is a server device that manages the payment status together with the IMEI in a database, and has the function of responding to payment status information indicating the payment status of an IMEI in response to an inquiry about the payment status of an IMEI. ing.

評価部13は、対象IMEIについての支払状況の問い合わせ後、支払状況管理サーバから対象IMEIについての支払状況情報を取得し、支払状況を認識する。つまり評価部13は、対象物品としてのスマートフォンが割賦により購入されたかどうか、割賦により購入されている場合には現時点で支払い中かどうか、および、現時点で支払い中か否かにかかわらず過去に支払に遅延がなかったかどうかを認識する。 After inquiring about the payment status of the target IMEI, the evaluation unit 13 acquires payment status information about the target IMEI from the payment status management server and recognizes the payment status. That is, the evaluation unit 13 determines whether or not the smartphone as the target product was purchased by installment payment, if it was purchased by installment payment, whether payment is currently being made, and regardless of whether or not payment is being made at this time, the payment to recognize if there was a delay in

次に評価部13は、査定額導出処理を実行する。本例において評価部13は、対象最深分類に対応する査定額テーブルを参照する。対象最深分類に対応する査定額テーブルは、型番がとり得る値と、物品状態レベルがとり得る値との組み合わせごとに参考査定額が対応付けられたテーブルである。評価部13は、査定額テーブルにおいて対象物品についての型番と物品状態レベルとの組合せに対応する参考査定額を取得する。次いで評価部13は、取得した参考査定額を、対象物品についての支払状況に基づいて調整し、調整後の額を最終的な査定額とする。調整は、対象物品(本例では、スマートフォン)が割賦により購入されており、現時点で支払い中の場合には査定額が低くなるように、また、過去に支払に遅延があった場合には、査定額が低くなるように行われる。これは、リース料の支払いの遅延の可能性を考慮したものである。ただし、調整の方法は本実施形態で例示するものに限られず、例えば過去の支払の遅延のみを考慮して調整する構成でもよい。 Next, the evaluation unit 13 executes an assessment amount derivation process. In this example, the evaluation unit 13 refers to the assessed amount table corresponding to the target deepest classification. The assessed value table corresponding to the target deepest classification is a table in which a reference assessed value is associated with each combination of the value that the model number can take and the value that the item condition level can take. The evaluation unit 13 acquires the reference assessed value corresponding to the combination of the model number and the item condition level of the target item in the assessed value table. Next, the evaluation unit 13 adjusts the obtained reference appraisal value based on the payment status of the target article, and uses the adjusted amount as the final appraisal value. Adjustments are made so that if the target item (smartphone in this example) is purchased by installment payment and is currently being paid for, the assessed amount will be lower. It is done so that the assessment amount will be low. This takes into account the possibility of delays in the payment of lease payments. However, the adjustment method is not limited to the one exemplified in this embodiment, and for example, a configuration may be adopted in which adjustment is made in consideration of only past payment delays.

以上が、対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合に評価部13が実行する査定処理である。なお査定処理における処理の順番は、本実施形態で例示した順番に限られない。以上の説明の通り本実施形態によれば、対象物品の外観に関する状態に加えて、システム関連情報の画像(文字の画像)を対象とする文字認識により認識された文字(型番、IMEI)が反映されて査定(物品の評価)が行われるため、複数の異なる観点で対象物品を査定できる。特に本実施形態では、対象物品が割賦により購入された可能性があるという点を鑑み、支払状況が反映されて評価部13により対象物品の査定がなされるため、その点で、より的確に対象物品を査定できる。 The above is the assessment process executed by the evaluation unit 13 when the target deepest classification is "smartphone (item classification)>iOS (item classification)". Note that the order of processing in the assessment process is not limited to the order illustrated in this embodiment. As described above, according to the present embodiment, characters (model number, IMEI) recognized by character recognition targeting system-related information images (character images) are reflected in addition to the appearance of the target article. Since the assessment (assessment of the article) is performed after the evaluation, the target article can be assessed from a plurality of different viewpoints. In particular, in this embodiment, considering that the target product may have been purchased by installment payment, the evaluation unit 13 evaluates the target product by reflecting the payment status. Goods can be appraised.

その際に対象物品の外観に関する状態の認識と、文字認識による文字(型番、固有番号)の認識とは、共通する撮影画像データに基づいて行われる。従って対象ユーザは、対象物品の評価にあたって対象物品を撮影すればよく、例えば所定のユーザインタフェイスにおいて型番やIMEIを入力したり、型番やIMEIを選択したりする作業を行う必要がない。特に本実施形態では、対象物品の外観に関する状態の認識と、文字認識による文字(型番、IMEI)の認識とが共通する撮影画像データに基づいて評価部13により行われる。このためユーザは、対象物品(スマートフォン)の外観に関する状態の認識に利用する撮影画像データを生成するための撮影と、型番や固有番号の認識に利用する撮影画像データを生成するための撮影とを分けて行う必要がなく、その点でもユーザの作業が少ない。すなわち本実施形態によれば、ユーザの作業を減らしつつ、複数の異なる観点で物品を評価できる。 At that time, the recognition of the state of the appearance of the target article and the recognition of characters (model number, unique number) by character recognition are performed based on common photographed image data. Therefore, the target user only needs to take a picture of the target product when evaluating the target product, and does not need to input the model number and IMEI or select the model number and IMEI on a predetermined user interface, for example. In particular, in this embodiment, the evaluation unit 13 recognizes the state of the appearance of the target article and recognizes characters (model number, IMEI) by character recognition based on the common photographed image data. For this reason, the user needs to perform two types of photographing, one for generating photographed image data used for recognizing the state of the appearance of the target article (smartphone), and the other for generating photographed image data used for recognizing the model number and unique number. There is no need to do this separately, and the user's work is reduced in that respect as well. That is, according to the present embodiment, it is possible to evaluate an article from a plurality of different viewpoints while reducing user's work.

<対象最深分類が「バッグ(物品分類)>ブランドB1」の場合>
次に対象最深分類が「バッグ(物品分類)>ブランドB1」である場合の評価部13の処理について説明する。上述の通り、この場合、評価部13は、バッグの正面の全域が撮影されて生成された撮影画像データを取得している。
<When the target deepest classification is "Bag (article classification) > Brand B1">
Next, the processing of the evaluation unit 13 when the target deepest classification is "bag (item classification)>brand B1" will be described. As described above, in this case, the evaluation unit 13 acquires captured image data generated by capturing an image of the entire front surface of the bag.

まず評価部13は、期待画像判定処理を実行する。次いで評価部13は、型番認識用画像分析処理を実行する。型番認識用画像分析処理は、「対象物品の画像を画像分析して対象物品の型番を認識する処理」に相当する。ここでの画像分析は、「文字の画像を対象とする文字認識」以外の画像処理を意味する。以下、型番認識用画像分析処理の一例について説明する。 First, the evaluation unit 13 executes expected image determination processing. Next, the evaluation unit 13 executes image analysis processing for model number recognition. The image analysis processing for model number recognition corresponds to "process of analyzing the image of the target article and recognizing the model number of the target article". Image analysis here means image processing other than "character recognition for character images". An example of image analysis processing for model number recognition will be described below.

まず評価部13は、対象最深分類(対象物品の最深分類)に基づいて、対象物品がバッグであること、および、バッグのブランドを認識する。サーバ側記憶部14には、バッグのブランドのそれぞれについて、型番ごとのテンプレートデータ(バッグを正面から見た様子を示す画像と比較対象となるテンプレートデータ)が登録されたデータベースが記憶されている。評価部13は、撮影画像データを対象として、対象物品のブランドに対応するテンプレートデータのそれぞれを用いたテンプレートマッチングを行って型番を特定し、認識する。 First, the evaluation unit 13 recognizes that the target product is a bag and the brand of the bag based on the deepest target classification (the deepest target product classification). The server-side storage unit 14 stores a database in which template data for each model number (an image showing a bag viewed from the front and template data to be compared) is registered for each bag brand. The evaluation unit 13 performs template matching using each of the template data corresponding to the brand of the target article for the photographed image data to specify and recognize the model number.

なおテンプレートマッチングは、撮影画像データに対するノイズの除去や、サイズ/角度の補正(ただし、サイズ/角度の補正はテンプレートデータに対して行ってもよい)を含む前処理が施された上で、既存の技術(例えば、画素値を保持するテンプレートデータを用いたテンプレートマッチングや、チャンファーマッチング、ヒストグラム情報を用いたアクティブ探索)に基づいて適切に実行される。ただし撮影画像データを利用して型番を特定する方法は例示した方法に限られない。例えば特徴量マッチング、或いは、テンプレートマッチングと特徴量マッチングとの組み合わせを利用する方法であってよい。また例えば撮影画像データを入力の1つとし、該当する型番(或いは、各型番に該当する可能性)を出力とするモデルを用いて行われてもよい。この場合において、モデルを、所定の機械学習手法(例えばディープラーニング)で機械学習されたモデルとすることができる。 Note that template matching is performed after pre-processing including noise removal and size/angle correction for the captured image data (however, size/angle correction may be performed on the template data). (eg template matching using template data holding pixel values, chamfer matching, active search using histogram information). However, the method of identifying the model number using the photographed image data is not limited to the exemplified method. For example, a method using feature quantity matching or a combination of template matching and feature quantity matching may be used. Alternatively, for example, a model may be used in which photographed image data is used as one of inputs and a corresponding model number (or the possibility of corresponding to each model number) is output. In this case, the model can be a machine-learned model using a predetermined machine-learning technique (eg, deep learning).

次いで評価部13は、真贋判定処理を実行する。真贋判定処理とは、「対象物品の画像を画像分析して対象物品の真贋を判定する処理」である。以下、真贋判定処理の一例について説明する。真贋判定処理において例えば評価部13は、以下の処理を実行する。例えば撮影画像データに記録されたバッグの正面の画像にロゴの画像が含まれる場合、評価部13は、撮影画像データに画像として記録されたロゴが、型番認識用画像分析処理で認識した型番(=対象物品の型番)のバッグのロゴとして本物か否かという観点で撮影画像データを分析し、対象物品が本物か否かを判定する。撮影画像データの分析は、種々の観点から実行される。例えば撮影画像データの分析は、ロゴの形状の妥当性、ロゴの色彩の妥当性およびロゴの位置の妥当性等が判定されることによって行われる。 Next, the evaluation unit 13 executes authenticity determination processing. The authenticity determination process is "a process of image-analyzing the image of the target article to determine the authenticity of the target article". An example of the authenticity determination process will be described below. In the authenticity determination process, for example, the evaluation unit 13 executes the following processes. For example, when a logo image is included in the image of the front of the bag recorded in the photographed image data, the evaluation unit 13 determines that the logo recorded as an image in the photographed image data is the model number ( (model number of the target article) is analyzed from the viewpoint of authenticity as the logo of the bag, and it is determined whether or not the target article is genuine. Analysis of captured image data is performed from various points of view. For example, the analysis of the photographed image data is performed by determining the validity of the shape of the logo, the validity of the color of the logo, the validity of the position of the logo, and the like.

なおロゴの位置の妥当性とは、ロゴが付された位置が、本物のそれと一致しているかどうかを意味する。ロゴの形状および位置の妥当性の判定は例えば、事前に用意された本物のロゴに対応するテンプレートデータを用いたパターンマッチングや、特徴量マッチングにより行うことができる。またロゴの色彩の妥当性の判定は例えば、色成分のヒストグラムの分析や、画像における各色成分の分布の分析により行うことができる。なお撮影画像データの分析に基づく対象物品が本物か否かの判定は、実際の処理としては例えば、撮影画像データを入力の1つとし、本物か否かを示す情報(或いは本物である可能性を示す情報)を出力するモデルが用意され、このモデルが用いられて実行される。この場合において、モデルを、所定の機械学習手法(例えばディープラーニング)で機械学習されたモデルとすることができる。 The validity of the logo position means whether or not the position where the logo is attached matches that of the real product. The validity of the shape and position of the logo can be determined, for example, by pattern matching using template data corresponding to the real logo prepared in advance, or feature amount matching. Further, the validity of the color of the logo can be determined, for example, by analyzing the histogram of the color components or analyzing the distribution of each color component in the image. It should be noted that the determination of whether or not the target article is genuine based on the analysis of the photographed image data may be performed by, for example, taking the photographed image data as one of the inputs and providing information indicating whether or not the photographed image data is genuine (or the possibility that the article is genuine). A model for outputting the information indicating is prepared, and this model is used for execution. In this case, the model can be a machine-learned model using a predetermined machine-learning technique (eg, deep learning).

以上、ロゴを用いた真贋判定処理について説明したが、真贋判定には既存の種々の技術を利用できる。特にロゴに代えて或いはロゴに加えて、模様、マーク、特徴的な平面的或いは立体的な形状等を真贋判定の対象として真贋判定処理を行う構成でもよい。またバッグ以外の真贋判定処理についても、物品および真贋判定対象に応じた適切な方法で撮影画像データが画像分析され、本物か否かが判定される。 Although the authenticity determination process using the logo has been described above, various existing techniques can be used for authenticity determination. In particular, instead of or in addition to the logo, a pattern, a mark, a characteristic two-dimensional or three-dimensional shape, or the like may be used as an object of authenticity determination, and the authenticity determination process may be performed. In addition, in the authenticity determination process for items other than bags, image analysis is performed on the photographed image data by an appropriate method according to the article and the object to be authenticated, and it is determined whether or not the item is genuine.

真贋判定処理において対象物品が本物でないと判定した場合、評価部13は、対応する処理を実行する。例えば評価部13は、対象物品が本物でない可能性があることをオペレータに通知する。これによればオペレータは、撮影画像データをより詳細に確認する等の処置を行うことができる。本実施形態では、真贋判定処理において対象物品が本物でないと判定した場合、評価部13は、以下の査定額の導出は行わない構成である。ただし、評価部13が偽物としての査定額を導出する構成でもよい。いずれの場合であっても、評価部13は、真贋の判定の結果を反映して対象物品を査定(評価)していることになる。 When it is determined that the target article is not genuine in the authenticity determination process, the evaluation unit 13 executes the corresponding process. For example, the evaluation unit 13 notifies the operator that the target item may not be genuine. According to this, the operator can take measures such as confirming the photographed image data in more detail. In the present embodiment, when it is determined that the target article is not genuine in the authenticity determination process, the evaluation unit 13 does not derive the following assessment amount. However, the evaluation unit 13 may be configured to derive an appraisal value as a counterfeit. In either case, the evaluation unit 13 assesses (evaluates) the target product by reflecting the result of the authenticity determination.

次いで評価部13は、状態認識処理を実行する。状態認識処理に関し、本例では対象物品はバッグであり、撮影画像データには、バッグの正面の全域の画像が記録されている。評価部13は、撮影画像データを画像処理し、バッグの正面について傷や、汚れ、凹み、摩耗、部品の欠損等の劣化に関連する要素の状況を反映して物品状態レベルを導出する。 Next, the evaluation unit 13 executes state recognition processing. Regarding the state recognition processing, in this example, the target article is a bag, and an image of the entire front surface of the bag is recorded in the photographed image data. The evaluation unit 13 performs image processing on the photographed image data, and derives an article condition level by reflecting factors related to deterioration such as scratches, stains, dents, wear, missing parts, etc. on the front of the bag.

次いで評価部13は、査定額導出処理を実行する。本例に係る査定額導出処理において評価部13は、対象最深分類に対応する査定額テーブルを参照する。対象最深分類に対応する査定額テーブルは、型番がとり得る値と、物品状態レベルがとり得る値との組み合わせごとに参考査定額が対応付けられたテーブルである。評価部13は、査定額テーブルにおいて対象物品についての型番と物品状態レベルとの組合せと対応付けられた参考査定額を取得し、これを査定額とする。 Next, the evaluation unit 13 executes an assessment amount derivation process. In the assessed value derivation process according to this example, the evaluation unit 13 refers to the assessed value table corresponding to the target deepest classification. The assessed value table corresponding to the target deepest classification is a table in which a reference assessed value is associated with each combination of the value that the model number can take and the value that the item condition level can take. The evaluation unit 13 acquires the reference assessed value associated with the combination of the model number and the article condition level of the target article in the assessed value table, and uses this as the assessed value.

以上が、対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合に評価部13が実行する査定処理である。なお査定処理における処理の順番は、本実施形態で例示した順番に限られない。以上の説明の通り、本実施形態によれば、対象物品の外観に関する状態に加えて、対象物品の画像を対象とする画像分析により認識された型番、および、対象物品の画像を対象として行われた真贋の判定の結果が反映されて対象物品の査定(評価)が行われるため、複数の異なる観点で対象物品を査定できる。特に本実施形態では、査定にあたって本物かどうかが重要であるという点を鑑み、対象物品を対象とする真贋判定が行われ、真贋判定の結果が反映されて評価部13により対象物品の査定がなされるため、その点で、より的確に対象物品を査定できる。 The above is the assessment process executed by the evaluation unit 13 when the target deepest classification is "bag (article classification)>brand B1 (article classification)". Note that the order of processing in the assessment process is not limited to the order illustrated in this embodiment. As described above, according to the present embodiment, in addition to the state related to the appearance of the target article, the model number recognized by the image analysis targeting the image of the target article and the image of the target article are subjected to Since the target product is assessed (evaluated) by reflecting the result of the determination of authenticity, the target product can be assessed from a plurality of different viewpoints. In particular, in the present embodiment, in consideration of the fact that authenticity is important for assessment, the target article is subjected to authenticity determination, and the evaluation unit 13 assesses the target article based on the results of the authenticity determination. Therefore, in that respect, the target article can be assessed more accurately.

その際に対象物品の外観に関する状態の認識と、画像分析による型番の認識と、画像分析による真贋判定とは、共通する撮影画像データに基づいて行われる。従って対象ユーザは、対象物品の査定にあたって対象物品を撮影すればよく、例えば所定のユーザインタフェイスにおいて型番を入力したり、真贋判定のための情報を提供したりする作業を行う必要がない。特に本実施形態では、対象ユーザは、対象物品(バッグ)の外観に関する状態の認識に利用する撮影画像データを生成するための撮影と、型番の認識に利用する撮影画像データを生成するための撮影と、真贋判定に利用する撮影画像データを生成するための撮影とを分けて行う必要がなく、その点でもユーザの作業が少ない。すなわち本実施形態によれば、ユーザの作業を減らしつつ、複数の異なる観点で物品を評価できる。 At that time, the recognition of the state of the appearance of the target article, the recognition of the model number by image analysis, and the authenticity determination by image analysis are performed based on common photographed image data. Therefore, the target user only needs to take a picture of the target product when assessing the target product, and does not need to input the model number or provide information for authenticity determination in a predetermined user interface, for example. In particular, in this embodiment, the target user performs photography for generating photographed image data used for recognizing the state of the appearance of the target article (bag) and photographing for generating photographed image data used for recognizing the model number. There is no need to separately perform photographing for generating photographed image data used for authenticity determination, and the user's work is reduced in this respect as well. That is, according to the present embodiment, it is possible to evaluate an article from a plurality of different viewpoints while reducing user's work.

以上、複数のケースについて査定処理について説明した。査定処理により査定額が導出された後は、上述した通り、対象ユーザの同意の下、サービス提供会社によって査定額で対象物品が買い取られ、査定額相当の金銭が対象ユーザに提供されると共に、リース料の支払いを条件として対象物品が対象ユーザにリースされる。 The assessment process has been described above for a plurality of cases. After the appraisal amount is derived by the appraisal process, as described above, with the consent of the target user, the service provider purchases the target item at the appraised amount, and provides the target user with money equivalent to the appraisal amount. Subject to payment of a lease fee, the target item is leased to the target user.

次に、サーバ3(情報処理装置)による情報処理方法について、フローチャートを用いて説明する。図10は、サーバ3の動作例を示すフローチャートである。図10で示すように、サーバ3の評価部13は、対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワークN経由で端末2から取得する(ステップSA1)。 Next, an information processing method by the server 3 (information processing device) will be described using a flowchart. FIG. 10 is a flow chart showing an operation example of the server 3 . As shown in FIG. 10, the evaluation unit 13 of the server 3 acquires, from the terminal 2 via the network N, photographed image data generated by photographing the target article by the target user (step SA1).

次いでサーバ3の評価部13は、撮影画像データに記録された対象物品の画像を画像分析して対象物品の外観に関する状態を認識すると共に、対象物品の画像に含まれる文字の画像を対象として文字認識する処理、対象物品の画像を画像分析して対象物品の型番を認識する処理、および、対象物品の画像を画像分析して対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行する(ステップSA2)。次いでサーバ3の評価部13は、認識した対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して対象物品を評価する(ステップSA3)。 Next, the evaluation unit 13 of the server 3 performs image analysis on the image of the target article recorded in the photographed image data to recognize the state of the appearance of the target article, and the character image included in the image of the target article. At least one of a recognition process, a process of analyzing the image of the target article to recognize the model number of the target article, and a process of image-analyzing the image of the target article to determine the authenticity of the target article is executed. (step SA2). Next, the evaluation unit 13 of the server 3 evaluates the target article by reflecting at least one of the recognized appearance state of the target article, the recognized characters, the recognized model number, and the authentication result (step SA3). .

以上、本発明の一実施形態について説明したが、上記実施形態は、本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。 Although one embodiment of the present invention has been described above, the above-described embodiment merely shows an example of specific implementation of the present invention. It should not be done. Thus, the invention may be embodied in various forms without departing from its spirit or essential characteristics.

例えば上記実施形態では、評価部13が導出した査定額で対象物品を買い取るシステムではなく、単に導出した査定額を提示するシステムに本発明を適用可能である。また例えば、サービス提供会社が買い取った対象物品をリースによりユーザの手元に置いておけるようにするのではなく、所定の手段で対象ユーザからサービス提供会社に引き渡されるシステムに本発明を適用可能である。 For example, in the above-described embodiment, the present invention can be applied to a system that simply presents the derived valuation price instead of a system that purchases the target article with the valuation price derived by the evaluation unit 13 . Further, for example, the present invention can be applied to a system in which the target article purchased by the service provider company is handed over from the target user to the service provider company by a predetermined means, instead of being leased and kept at the user's hand. .

また対象物品の評価は、金銭的な価値を導出することに限られず、例えば、評価部13が、対象物品をランク付けする構成でもよい。 Moreover, the evaluation of the target product is not limited to deriving the monetary value, and for example, the evaluation unit 13 may rank the target product.

また撮影画像データから文字認識により文字として認識する情報は、本実施形態で例示するものに限られない。撮影画像データから文字認識により文字として認識する情報は、評価部13による対象物品の評価に影響を与えものであればよい。一例として、対象物品が製造された時期が分かる情報(製造年月日)や、対象物品がどのような方法で使用されたかが分かる情報、対象物品がどのような環境で使用されたかが分かる情報等であってもよい。 Further, the information to be recognized as characters by character recognition from the photographed image data is not limited to the one exemplified in this embodiment. The information to be recognized as characters from the photographed image data by character recognition may be anything as long as it affects the evaluation of the target article by the evaluation unit 13 . For example, information that shows when the target goods were manufactured (manufacturing date), information that shows how the target goods were used, information that shows the environment in which the target goods were used, etc. There may be.

また上記実施形態では、対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合、「スマートフォン(物品分類)>iOS(物品分類)」の場合、および、「バッグ(物品分類)>ブランドB1(物品分類)」の場合のそれぞれの場合において、評価部13が撮影画像データ取得処理を通して取得する撮影画像データは1つであった。しかしながら、これは、評価部13が対象物品の評価(上記実施形態では査定)にあたって、取得する撮影画像データが「1つ」に限定されることを意味するものではない。 Further, in the above embodiment, if the target deepest classification is "notebook computer (article classification) > Windows (article classification) > manufacturer MK1 (article classification)", if "smartphone (article classification) > iOS (article classification)", In addition, in each case of "bag (item classification)>brand B1 (item classification)", the evaluation unit 13 acquires one shot image data through the shot image data acquisition process. However, this does not mean that the evaluation unit 13 is limited to acquiring "one" photographed image data when evaluating (assessing in the above embodiment) the target article.

例えば対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合に、評価部13がノートパソコンを閉じたときの表面が撮影されて生成された撮影画像データを更に取得し、この撮影画像データを更に使用して状態認識処理を実行する構成でもよい。また例えば対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合に評価部13が、筐体の背面が撮影されて生成された撮影画像データを更に取得し、この撮影画像データを更に使用して状態認識処理を実行する構成でもよい。また例えば対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合に評価部13が、バッグの背面が撮影されて生成された撮影画像データを更に取得し、この撮影画像データを更に使用して状態認識処理、型番認識用画像分析処理および真贋判定処理のうち少なくとも1つを実行する構成でもよい。 For example, when the target deepest classification is "laptop (article classification) > Windows (article classification) > maker MK1 (article classification)", the evaluation unit 13 captures the surface of the notebook computer when it is closed. Image data may be further acquired, and the captured image data may be further used to execute the state recognition processing. Further, for example, when the target deepest classification is "smartphone (item classification)>iOS (item classification)", the evaluation unit 13 further acquires captured image data generated by capturing an image of the rear surface of the housing, and this captured image data may be used to execute the state recognition process. Further, for example, when the target deepest classification is "bag (item classification)>brand B1 (item classification)", the evaluation unit 13 further acquires photographed image data generated by photographing the back of the bag, and this photographed image data may be used to perform at least one of the state recognition process, image analysis process for model number recognition, and authenticity determination process.

またシステム関連情報(当然、他の情報であってもよい)において、撮影されるべき情報が離間して配置されており、撮影されるべき情報を撮影するためには、2回以上撮影を行う必要がある場合には、当然、2回以上撮影が行われ、評価部13は、2つ以上の撮影画像データを取得する。 In addition, in the system-related information (which may of course be other information), the information to be photographed is spaced apart, and in order to photograph the information to be photographed, photographing must be performed two or more times. If necessary, two or more shots are naturally taken, and the evaluation unit 13 acquires two or more pieces of shot image data.

また、端末2のタッチスクリーン4に表示される各種画面を説明したが、各画面の内容は、説明した内容に限定されない。 Various screens displayed on the touch screen 4 of the terminal 2 have been described, but the contents of each screen are not limited to the contents described.

また対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分類)」の場合、および、「スマートフォン(物品分類)>iOS(物品分類)」の場合について、評価部13が不正可能性調査処理を実行しない構成でもよい。逆に対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合に、個別番号を取得可能な場合には、評価部13が不正可能性調査処理を実行する構成でもよい。 Also, when the target deepest classification is "Laptop PC (article classification) > Windows (article classification) > Maker MK1 (article classification)" and "Smartphone (article classification) > iOS (article classification)", the evaluation department 13 may not execute the fraud possibility investigation process. Conversely, if the target deepest classification is "bag (item classification)>brand B1 (item classification)" and the individual number can be obtained, the evaluation unit 13 may be configured to execute the fraud possibility investigation process.

また上記実施形態において、評価部13が各種画面を表示させた媒体は端末2であった。この点について評価部13が、端末2以外のディスプレイを有する装置であって、対象ユーザがディスプレイを視認可能な装置に各種画面を表示させる構成でもよい。 In the above-described embodiment, the terminal 2 is the medium on which the evaluation unit 13 displays various screens. In this respect, the evaluation unit 13 may be configured to display various screens on a device having a display other than the terminal 2, the display being visible to the target user.

また対象最深分類が「ノートパソコン(物品分類)>Windows(物品分類)>メーカMK1(物品分離)」の場合(当然これと同等の場合を含む)について、評価部13がスペック認識処理を実行せず、スペックを反映せずに査定を行う構成でもよい。例えば対象物品が電子辞書のように型番が同じであればスペックが変わらないと想定される物品である場合には、評価部13がスペックに関する処理を実行する必要はない。また対象最深分類が「スマートフォン(物品分類)>iOS(物品分類)」の場合(当然これと同等の場合を含む)について、評価部13が支払状況認識処理を実行せず、支払状況を反映せずに査定を行う構成でもよい。これらの場合、対象物品は、ディスプレイを有し、型番を少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の2つの特徴を備える電子機器である。そして評価部13は、システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む対象物品の外観が撮影されて生成された撮影画像データを取得する。評価部13は、撮影画像データに記録された対象物品の画像を画像分析して対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、および、撮影画像データに記録されたシステム関連情報の画像を対象として文字認識することによって型番を認識する処理を実行する。評価部13は、認識した対象物品のディスプレイの正面を含む部位についての外観に関する状態、および、認識した型番を反映して対象物品を評価する。更に評価部13は、対象ユーザにより対象物品を対象とする撮影が行われる際に、撮影に先立って対象物品の分類(最深分類)を認識し、認識した分類が上述した2つの特徴を備える電子機器が属する分類である場合には、システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を端末または対象ユーザが視認可能な装置に表示させる。 Also, when the target deepest classification is "notebook computer (article classification)>Windows (article classification)>maker MK1 (article separation)" (including, of course, equivalent cases), the evaluation unit 13 cannot execute the specification recognition process. A configuration may be adopted in which the assessment is performed without reflecting the specifications. For example, if the target product is an electronic dictionary whose specifications are assumed to be the same as long as the model number is the same, the evaluation unit 13 does not need to perform the processing related to the specifications. In addition, when the target deepest classification is "smartphone (item classification)>iOS (item classification)" (including, of course, equivalent cases), the evaluation unit 13 does not execute the payment status recognition process and reflects the payment status. The configuration may be such that the assessment is performed without In these cases, the target article has a display, and is characterized in that system-related information including at least the model number can be displayed on the display, and in which deterioration occurring in a part including the front of the display affects the evaluation. It is an electronic device having the following two characteristics. Then, the evaluation unit 13 acquires photographed image data generated by photographing the appearance of the target article including the front of the display while the system-related information is displayed on the display. The evaluation unit 13 analyzes the image of the target article recorded in the photographed image data to recognize the state of the appearance of the part including the front of the display of the target article, and the system recorded in the photographed image data. A processing for recognizing the model number is executed by performing character recognition on the image of the related information. The evaluation unit 13 evaluates the target product by reflecting the appearance state of the recognized target product including the front of the display and the recognized model number. Furthermore, when the target user takes a picture of the target article, the evaluation unit 13 recognizes the classification of the target article (the deepest classification) prior to the photographing, and the electronic If the equipment belongs to the category, the terminal or a device that can be visually recognized by the target user displays a screen that guides a part including the front of the display to be photographed while the system-related information is displayed on the display.

また対象最深分類が「バッグ(物品分類)>ブランドB1(物品分類)」の場合(当然これと同等の場合を含む)について、評価部13が真贋判定処理を実行せずに査定を行う構成でもよい。この場合、対象物品は、物品に文字としての型番が記録されていない場合がある一方、型番を物品の外観から判定可能であるという1つの特徴を備える物品であり、評価部13は、対象物品の外観が撮影されて生成された撮影画像データを取得し、撮影画像データに記録された対象物品の画像を画像分析して対象物品の外観に関する状態を認識する処理、および、対象物品の画像を画像分析して対象物品の型番を認識する処理を実行し、認識した対象物品の外観に関する状態、および、認識した型番を反映して対象物品を評価する。更に評価部13は、対象ユーザにより対象物品を対象とする撮影が行われる際に、撮影に先立って対象物品の分類を認識し、認識した分類が1つの特徴を備える物品が属する分類である場合には、生成される撮影画像データが型番の認識に利用可能なデータとなるように対象物品の外観が撮影されるよう案内する画面を端末2または対象ユーザが視認可能な装置に表示させる。 Also, when the target deepest classification is "bag (item classification) > brand B1 (item classification)" (including, of course, equivalent cases), the evaluation unit 13 may perform assessment without executing the authenticity determination process. good. In this case, the target product is a product having one feature that the model number can be determined from the appearance of the product, while the model number may not be recorded as characters on the product. acquisition of photographed image data generated by photographing the appearance of the object, image analysis of the image of the target article recorded in the photographed image data, processing to recognize the state of the appearance of the target article, and processing of recognizing the image of the target article A process of analyzing the image and recognizing the model number of the target article is executed, and the target article is evaluated by reflecting the recognized appearance state of the target article and the recognized model number. Furthermore, when the target user takes a picture of the target article, the evaluation unit 13 recognizes the classification of the target article prior to the photographing, and if the recognized classification is the classification to which the article having one feature belongs. 2, a screen is displayed on the terminal 2 or a device visible to the target user so that the appearance of the target article is captured so that the generated captured image data can be used for recognizing the model number.

また上記実施形態では、評価部13が査定額テーブルを利用して査定額を導出する構成であったが、査定額の導出方法は例示した方法に限られない。一例として評価部13が、査定額の導出に利用する各種要素をパラメータとする計算式を利用して査定額を導出する構成でもよい。 Further, in the above-described embodiment, the evaluation unit 13 is configured to derive the assessed amount using the assessed amount table, but the method for deriving the assessed amount is not limited to the exemplified method. As an example, the evaluation unit 13 may be configured to derive the assessed value using a calculation formula in which various elements used for deriving the assessed value are used as parameters.

また上記実施形態では、文字認識の対象となるオブジェクトは基本的にはシステム関連情報であったが、文字認識の対象となるオブジェクトはシステム関連情報に限られない。例えば、電化製品等に貼付される銘板ラベル(銘板シールと呼ばれることもある)を文字認識の対象となるオブジェクトとしてもよい。この他、対象物品、或いは、対象物品に付随する物体に、刻印、印刷、媒体の頒布、その他の手段で記録された文字の情報を文字認識の対象となるオブジェクトとしてもよい。 Further, in the above embodiment, the object to be subjected to character recognition is basically system-related information, but the object to be subjected to character recognition is not limited to system-related information. For example, a nameplate label (sometimes called a nameplate sticker) attached to an electric appliance or the like may be an object to be subjected to character recognition. In addition, character information recorded on a target article or an object attached to the target article by engraving, printing, distribution of a medium, or other means may be used as an object to be subjected to character recognition.

また上記実施形態では、端末2はスマートフォンであったが、端末2がスマートフォンに限られず、例えば、端末2は、端末機能を有さないタブレット端末やノートパソコンであってもよい。 In the above embodiment, the terminal 2 is a smart phone, but the terminal 2 is not limited to a smart phone. For example, the terminal 2 may be a tablet terminal or a notebook computer that does not have terminal functions.

1 情報処理システム
2 端末
3 サーバ(情報処理装置)
13 評価部
1 information processing system 2 terminal 3 server (information processing device)
13 Evaluation Department

Claims (19)

対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で端末から取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、
前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、
認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品を評価する評価部を備える
ことを特徴とする情報処理装置。
Acquiring from a terminal via a network photographed image data generated by photographing the target article by the target user,
image analysis of the image of the target article recorded in the photographed image data to recognize the state of the appearance of the target article;
Character recognition processing for an image of characters included in the image of the target product, processing for image analysis of the image of the target product to recognize the model number of the target product, and image analysis of the image of the target product performing at least one of the processes for determining the authenticity of the target article,
an evaluation unit that evaluates the target article by reflecting at least one of the recognized appearance state of the target article, the recognized characters, the recognized model number, and the result of authenticity determination. Device.
前記文字の画像には、前記対象物品の型番を示す文字の画像が含まれ、
前記評価部は、撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、前記対象物品の画像に含まれる文字の画像を対象として文字認識を行って前記対象物品の型番を認識し、認識した前記対象物品の外観に関する状態、および、認識した型番を反映して前記対象物品を評価する
ことを特徴とする請求項1に記載の情報処理装置。
the image of characters includes an image of characters indicating the model number of the target product;
The evaluation unit analyzes the image of the target article recorded in the photographed image data to recognize the appearance state of the target article, and performs character recognition on the image of characters included in the image of the target article. 2. The information processing according to claim 1, wherein the model number of the target product is recognized by performing the above-mentioned processing, and the target product is evaluated by reflecting the recognized state of the appearance of the target product and the recognized model number. Device.
前記文字の画像には、前記対象物品の固有番号を示す文字の画像が含まれ、
前記評価部は、撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、前記対象物品の画像に含まれる文字の画像を対象として文字認識を行って前記対象物品の固有番号を認識し、認識した前記対象物品の外観に関する状態、および、認識した固有番号を反映して前記対象物品を評価する
ことを特徴とする請求項1または2に記載の情報処理装置。
The image of characters includes an image of characters indicating a unique number of the target article,
The evaluation unit analyzes the image of the target article recorded in the photographed image data to recognize the appearance state of the target article, and performs character recognition on the image of characters included in the image of the target article. to recognize the unique number of the target product, and evaluate the target product by reflecting the recognized state of the appearance of the target product and the recognized unique number. The information processing device described.
前記評価部は、前記対象物品を評価する処理として、前記対象物品の査定額を導出する処理を実行し、
前記評価部により査定額が導出された後、前記対象ユーザの同意の下、所定主体によって査定額で前記対象物品が買い取られ、査定額相当の金銭が前記対象ユーザに提供されると共に、リース料の支払いを条件として前記対象物品が前記対象ユーザにリースされ、
前記対象物品は、割賦により購入される可能性のある物品であり、
前記評価部は、前記対象物品の査定額の導出に際して、認識した固有番号を用いた問い合わせを行って、前記対象物品についての支払状況を認識し、認識した前記対象物品の外観に関する状態、および、認識した支払状況を反映して前記対象物品の査定額を導出する
ことを特徴とする請求項3に記載の情報処理装置。
The evaluation unit executes a process of deriving an assessed value of the target item as a process of evaluating the target item,
After the appraisal amount is derived by the evaluation unit, the subject article is purchased at the appraisal amount by a predetermined entity with the consent of the target user, and money equivalent to the appraisal amount is provided to the target user, and a lease fee is paid. said subject item is leased to said subject user subject to payment of
The target goods are goods that may be purchased by installment,
When deriving the appraisal value of the target product, the evaluation unit performs an inquiry using the recognized unique number, recognizes the payment status of the target product, recognizes the appearance status of the target product, and 4. The information processing apparatus according to claim 3, wherein the assessed value of the target article is derived by reflecting the recognized payment status.
前記評価部は、物品について、物品の固有番号と少なくとも過去の一時点においてその物品を所有していたユーザのユーザ識別情報とを対応付けて管理するデータを利用して、認識した固有番号に基づいて前記対象物品が前記対象ユーザの所有物でない可能性を調査する
ことを特徴とする請求項3に記載の情報処理装置。
With respect to the item, the evaluation unit utilizes data for managing the item's unique number in association with user identification information of a user who owned the item at least at one time in the past, based on the recognized unique number. 4. The information processing apparatus according to claim 3, wherein the possibility that the target article is not the property of the target user is investigated by using the method.
前記評価部は、過去に評価した物品について、物品の固有番号と、評価を行ったときに物品を所有していたユーザのユーザ識別情報とを対応付けて管理するデータを利用して、認識した固有番号に基づいて前記対象物品が前記対象ユーザの所有物でない可能性を調査する
ことを特徴とする請求項5に記載の情報処理装置。
The evaluation unit recognizes an item that has been evaluated in the past by using data managed by associating the unique number of the item with the user identification information of the user who owned the item when the evaluation was performed. 6. The information processing apparatus according to claim 5, wherein a possibility that the target article is not owned by the target user is investigated based on the unique number.
前記評価部は、
ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、前記対象物品の分類に応じて、
前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理を実行する場合には、前記対象物品の文字が前記対象物品の外観と共に撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させ、
前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理を実行する場合には、生成される撮影画像データが型番の認識に利用可能なデータとなるように前記対象物品の外観が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させ、
前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理を実行する場合には、生成される撮影画像データが前記対象物品の真贋の判定に利用可能なデータとなるように前記対象物品の外観が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させる
ことを特徴とする請求項1から6の何れか1項に記載の情報処理装置。
The evaluation unit
When the user takes a picture of the target article, the classification of the target article is recognized prior to photographing, and according to the classification of the target article,
When performing character recognition processing on an image of characters included in the image of the target article, a screen guiding the character of the target article to be photographed together with the appearance of the target article is displayed on the terminal or the target. displayed on a device visible to the user,
When performing image analysis of the image of the target article to recognize the model number of the target article, the external appearance of the target article is adjusted so that the generated photographed image data becomes data that can be used for model number recognition. is displayed on the terminal or a device visible to the target user,
When the image of the target article is subjected to image analysis to determine the authenticity of the target article, the photographed image data to be generated is data that can be used to determine the authenticity of the target article. 7. The information processing apparatus according to any one of claims 1 to 6, wherein the terminal or a device that can be viewed by the target user displays a screen that guides the user to photograph the appearance of the target article.
前記対象物品は、ディスプレイを有し、型番を少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の2つの特徴を備える電子機器であり、
前記評価部は、
前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む前記対象物品の外観が撮影されて生成された撮影画像データを取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、および、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって型番を認識する処理を実行し、
認識した前記対象物品のディスプレイの正面を含む部位についての外観に関する状態、および、認識した型番を反映して前記対象物品を評価する
ことを特徴とする請求項1に記載の情報処理装置。
The target article has a display, and has two features: the feature that system-related information including at least the model number can be displayed on the display, and the degradation that occurs in the part including the front of the display affects the evaluation. It is an electronic device with characteristics,
The evaluation unit
Acquiring photographed image data generated by photographing the appearance of the target article including the front of the display while the system-related information is displayed on the display;
A process of image analysis of the image of the target article recorded in the photographed image data to recognize the appearance state of the portion including the front of the display of the target article, and the system-related information recorded in the photographed image data. Executes the process of recognizing the model number by character recognition for the image of
2. The information processing apparatus according to claim 1, wherein the target article is evaluated by reflecting the appearance state of the recognized part including the front of the display of the target article and the recognized model number.
前記評価部は、前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記2つの特徴を備える電子機器が属する分類である場合には、前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させる
ことを特徴とする請求項8に記載の情報処理装置。
The evaluation unit recognizes a classification of the target article prior to photographing when the target user takes an image of the target article, and the electronic device having the two characteristics belongs to the recognized classification. In the case of classification, displaying a screen on the terminal or a device visible to the target user while the system-related information is displayed on the display, and guides the user to take an image of a part including the front of the display. 9. The information processing apparatus according to claim 8, characterized by:
前記対象物品は、ディスプレイを有し、型番および所定の要素についてのスペックを少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、同じ型番であってもスペックが異なる場合があるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の3つの特徴を備える電子機器であり、
前記評価部は、
前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む前記対象物品の外観が撮影されて生成された撮影画像データを取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって型番を認識する処理、および、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって所定の要素についてのスペックを認識する処理を実行し、
認識した前記対象物品のディスプレイの正面を含む部位についての外観に関する状態、認識した型番、および、認識した所定の要素についてのスペックを反映して前記対象物品を評価する
ことを特徴とする請求項1に記載の情報処理装置。
The target article has a display, and is capable of displaying system-related information including at least the model number and specs of a predetermined element on the display; , an electronic device having three characteristics that deterioration occurring in a part including the front of the display affects the evaluation,
The evaluation unit
Acquiring photographed image data generated by photographing the appearance of the target article including the front of the display while the system-related information is displayed on the display;
Image analysis of the image of the target article recorded in the photographed image data to recognize the appearance state of the part including the front of the display of the target article, and the image of the system-related information recorded in the photographed image data and a process of recognizing the specifications of a predetermined element by performing character recognition on the image of the system-related information recorded in the photographed image data. ,
1. The target product is evaluated by reflecting the appearance state of the recognized part including the front of the display of the target product, the recognized model number, and the specifications of the recognized predetermined elements. The information processing device according to .
前記評価部は、前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記3つの特徴を備える電子機器が属する分類である場合には、前記システム関連情報がディスプレイに表示された状態で、ディスプレイの正面を含む部位が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させる
ことを特徴とする請求項10に記載の情報処理装置。
The evaluation unit recognizes the classification of the target article prior to photographing when the target user takes a photograph of the target article, and the electronic device having the three characteristics belongs to the recognized classification. In the case of classification, displaying a screen on the terminal or a device visible to the target user while the system-related information is displayed on the display, and guides the user to take an image of a part including the front of the display. 11. The information processing apparatus according to claim 10, characterized by:
前記評価部は、前記対象物品を評価する処理として、前記対象物品の査定額を導出する処理を実行し、
前記評価部により査定額が導出された後、前記対象ユーザの同意の下、所定主体によって査定額で前記対象物品が買い取られ、査定額相当の金銭が前記対象ユーザに提供されると共に、リース料の支払いを条件として前記対象物品が前記対象ユーザにリースされ、
前記対象物品は、前面の広い領域にディスプレイが設けられ、型番および固有番号を少なくとも含むシステム関連情報をディスプレイに表示可能であるという特徴、割賦により購入される場合があるという特徴、及び、ディスプレイの正面を含む部位に生じた劣化が評価に影響を与えるという特徴の3つの特徴を備えるタブレット端末であり、
前記評価部は、
前記システム関連情報がディスプレイに表示された状態で、タブレット端末である前記対象物品の筐体が正面から撮影されて生成された撮影画像データを取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品のディスプレイの正面を含む部位についての外観に関する状態を認識する処理、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって型番を認識する処理、撮影画像データに記録された前記システム関連情報の画像を対象として文字認識することによって固有番号を認識する処理、および、認識した固有番号を用いた問い合わせを行って、前記対象物品についての支払状況を認識する処理を実行し、
認識した前記対象物品のディスプレイの正面を含む部位についての外観に関する状態、認識した型番、および、認識した支払状況を反映して前記対象物品の査定額を導出する
ことを特徴とする請求項1に記載の情報処理装置。
The evaluation unit executes a process of deriving an assessed value of the target item as a process of evaluating the target item,
After the appraisal amount is derived by the evaluation unit, the subject article is purchased at the appraisal amount by a predetermined entity with the consent of the target user, and money equivalent to the appraisal amount is provided to the target user, and a lease fee is paid. said subject item is leased to said subject user subject to payment of
The target product is provided with a display in a wide area on the front surface, and has the feature that system-related information including at least the model number and the unique number can be displayed on the display, the feature that it may be purchased by installment, and the display A tablet terminal with three characteristics that deterioration occurring in parts including the front affects the evaluation,
The evaluation unit
Acquiring photographed image data generated by photographing the casing of the target article, which is a tablet terminal, from the front while the system-related information is displayed on the display;
Image analysis of the image of the target article recorded in the photographed image data to recognize the appearance state of the part including the front of the display of the target article, and the image of the system-related information recorded in the photographed image data processing for recognizing the model number by character recognition for the target, processing for recognizing the unique number by subjecting the image of the system-related information recorded in the captured image data to character recognition, and using the recognized unique number perform a process of recognizing the payment status of the target goods by making an inquiry,
The appraisal value of the target product is derived by reflecting the appearance status of the recognized part including the front of the display of the target product, the recognized model number, and the recognized payment status. The information processing device described.
前記評価部は、前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記3つの特徴を備えるタブレット端末が属する分類である場合には、前記システム関連情報がディスプレイに表示された状態で、筐体が正面から撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させる
ことを特徴とする請求項12に記載の情報処理装置。
When the target user takes a picture of the target article, the evaluation unit recognizes the classification of the target article prior to photographing, and the tablet terminal having the three features belongs to the recognized classification. In the case of classification, displaying a screen on the terminal or a device that can be visually recognized by the target user while the system-related information is displayed on the display, and guides the user to take a picture of the housing from the front. 13. The information processing apparatus according to claim 12.
前記対象物品は、物品に文字としての型番が記録されていない場合がある一方、型番を物品の外観から判定可能であるという1つの特徴を備える物品であり、
前記評価部は、
前記対象物品の外観が撮影されて生成された撮影画像データを取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理を実行し、
認識した前記対象物品の外観に関する状態、および、認識した型番を反映して前記対象物品を評価する
ことを特徴とする請求項1に記載の情報処理装置。
The target article is an article having one feature that the model number as a character may not be recorded on the article, but the model number can be determined from the appearance of the article,
The evaluation unit
Acquiring photographed image data generated by photographing the appearance of the target article,
A process of image-analyzing the image of the target article recorded in the photographed image data to recognize the appearance state of the target article, and a process of image-analyzing the image of the target article and recognizing the model number of the target article. and run
2. The information processing apparatus according to claim 1, wherein the target product is evaluated by reflecting the recognized appearance state of the target product and the recognized model number.
前記評価部は、前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記1つの特徴を備える物品が属する分類である場合には、生成される撮影画像データが型番の認識に利用可能なデータとなるように前記対象物品の外観が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させる
ことを特徴とする請求項14に記載の情報処理装置。
The evaluation unit recognizes a classification of the target article prior to photographing when the target user takes an image of the target article, and the recognized classification is the classification to which the article having the one feature belongs. In the case of , the terminal or the target user can visually recognize a screen that guides the appearance of the target article to be captured so that the generated captured image data becomes data that can be used for model number recognition. 15. The information processing apparatus according to claim 14, wherein the display is performed on the .
前記対象物品は、物品に文字としての型番が記録されていない場合がある一方、型番を物品の外観から判定可能であるという特徴、および、偽物である場合があり、評価にあたって物品が本物であるかどうかが重要であるという特徴の2つの特徴を備える物品であり、
前記評価部は、
前記対象物品の外観が撮影されて生成された撮影画像データを取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理を実行し、
認識した前記対象物品の外観に関する状態、認識した型番、および、真贋の判定の結果を反映して前記対象物品を評価する
ことを特徴とする請求項1に記載の情報処理装置。
The target product may not have a model number recorded as characters, but may have the feature that the model number can be determined from the appearance of the product, and may be a counterfeit, and the product is genuine in the evaluation. An article with two characteristics, the characteristic being that it is important whether
The evaluation unit
Acquiring photographed image data generated by photographing the appearance of the target article,
a process of image-analyzing the image of the target article recorded in the photographed image data to recognize the appearance state of the target article, a process of image-analyzing the image of the target article and recognizing the model number of the target article, and , performing image analysis of the image of the target product to determine the authenticity of the target product;
2. The information processing apparatus according to claim 1, wherein the target article is evaluated by reflecting the recognized appearance state of the target article, the recognized model number, and the result of authenticity determination.
前記評価部は、前記対象ユーザにより前記対象物品を対象とする撮影が行われる際に、撮影に先立って前記対象物品の分類を認識し、認識した分類が前記2つの特徴を備える物品が属する分類である場合には、生成される撮影画像データが型番の認識に利用可能かつ真贋の判定に利用可能なデータとなるように前記対象物品の外観が撮影されるよう案内する画面を前記端末または前記対象ユーザが視認可能な装置に表示させる
ことを特徴とする請求項16に記載の情報処理装置。
The evaluation unit recognizes the classification of the target article prior to photographing when the target user takes an image of the target article, and the recognized classification is the classification to which the article having the two characteristics belongs. In this case, the terminal or the said 17. The information processing apparatus according to claim 16, wherein the information is displayed on a device that can be viewed by the target user.
端末と、ネットワークを介して前記端末に接続された情報処理装置とを備える情報処理システムであって、
前記情報処理装置は、
対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で前記端末から取得し、
撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、
前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行し、
認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品を評価する評価部を備える
ことを特徴とする情報処理システム。
An information processing system comprising a terminal and an information processing device connected to the terminal via a network,
The information processing device is
Acquiring photographed image data generated by photographing a target article by a target user from the terminal via a network;
image analysis of the image of the target article recorded in the photographed image data to recognize the state of the appearance of the target article;
Character recognition processing for an image of characters included in the image of the target product, processing for image analysis of the image of the target product to recognize the model number of the target product, and image analysis of the image of the target product performing at least one of the processes for determining the authenticity of the target article,
an evaluation unit that evaluates the target article by reflecting at least one of the recognized appearance state of the target article, the recognized characters, the recognized model number, and the result of authenticity determination. system.
情報処理装置の評価部が、対象物品が対象ユーザにより撮影されて生成された撮影画像データをネットワーク経由で端末から取得するステップと、
前記情報処理装置の前記評価部が、撮影画像データに記録された前記対象物品の画像を画像分析して前記対象物品の外観に関する状態を認識すると共に、前記対象物品の画像に含まれる文字の画像を対象として文字認識する処理、前記対象物品の画像を画像分析して前記対象物品の型番を認識する処理、および、前記対象物品の画像を画像分析して前記対象物品の真贋を判定する処理の何れか1つの処理を少なくとも実行するステップと、
前記情報処理装置の前記評価部が、認識した前記対象物品の外観に関する状態と、認識した文字、認識した型番および真贋の判定の結果のうち少なくとも1つとを反映して前記対象物品を評価するステップとを含む
ことを特徴とする情報処理方法。
a step in which an evaluation unit of an information processing device acquires captured image data generated by capturing a target article by a target user from a terminal via a network;
The evaluation unit of the information processing device analyzes the image of the target article recorded in the photographed image data to recognize the appearance state of the target article, and the image of characters included in the image of the target article. character recognition processing, image analysis of the image of the target product to recognize the model number of the target product, and image analysis of the image of the target product to determine the authenticity of the target product. performing at least any one process;
the evaluation unit of the information processing device evaluating the target product by reflecting at least one of the recognized appearance state of the target product, the recognized characters, the recognized model number, and the authentication result; An information processing method comprising:
JP2021079630A 2021-05-10 2021-05-10 Information processing equipment, information processing system and information processing method Active JP7061326B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021079630A JP7061326B1 (en) 2021-05-10 2021-05-10 Information processing equipment, information processing system and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021079630A JP7061326B1 (en) 2021-05-10 2021-05-10 Information processing equipment, information processing system and information processing method

Publications (2)

Publication Number Publication Date
JP7061326B1 JP7061326B1 (en) 2022-04-28
JP2022173741A true JP2022173741A (en) 2022-11-22

Family

ID=81448180

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021079630A Active JP7061326B1 (en) 2021-05-10 2021-05-10 Information processing equipment, information processing system and information processing method

Country Status (1)

Country Link
JP (1) JP7061326B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003098510A1 (en) * 2002-05-15 2003-11-27 Elady Ltd. Buying and selling intermediation system and buying and selling intermediation method
JP2012142907A (en) * 2010-12-16 2012-07-26 Shunji Sugaya Portable terminal having changeable user interface, method, and program
WO2015151182A1 (en) * 2014-03-31 2015-10-08 楽天株式会社 Commercial product evaluation device, method, and program
WO2016060200A1 (en) * 2014-10-16 2016-04-21 株式会社エコリング Appraisal system and appraisal method
JP2021043967A (en) * 2019-09-03 2021-03-18 株式会社携帯市場 Information processing device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003098510A1 (en) * 2002-05-15 2003-11-27 Elady Ltd. Buying and selling intermediation system and buying and selling intermediation method
JP2012142907A (en) * 2010-12-16 2012-07-26 Shunji Sugaya Portable terminal having changeable user interface, method, and program
WO2015151182A1 (en) * 2014-03-31 2015-10-08 楽天株式会社 Commercial product evaluation device, method, and program
WO2016060200A1 (en) * 2014-10-16 2016-04-21 株式会社エコリング Appraisal system and appraisal method
JP2021043967A (en) * 2019-09-03 2021-03-18 株式会社携帯市場 Information processing device

Also Published As

Publication number Publication date
JP7061326B1 (en) 2022-04-28

Similar Documents

Publication Publication Date Title
US20230368170A1 (en) Kiosks for remote collection of electronic devices for value, and associated mobile application for enhanced diagnostics and services
JP7430913B2 (en) Low-cost computerized kiosk for remote collection of valuable electronic equipment
US9836726B2 (en) Internet payment system using credit card imaging
KR102358607B1 (en) Artificial intelligence appraisal system, artificial intelligence appraisal method and storage medium
US20210110440A1 (en) Systems and methods for enhanced evaluation of pre-owned electronic devices and provision of protection plans, repair, certifications, etc.
JP7393002B2 (en) Low-cost instruments and methods for distributed remote collection of valuable electronic devices
CN103718192A (en) Image-based financial processing
CA3034821A1 (en) Trigger peer to peer payment with financial cards and phone camera
WO2021019286A1 (en) Systems and methods for enhanced evaluation of pre-owned electronic devices and provision of related services
KR20190021245A (en) Automated method of image verification
US20230082046A1 (en) Information processing device, information processing system, information processing method, and program
WO2020057305A1 (en) Method and device for identifying risky merchant
CN108090206A (en) Sort method and device, the electronic equipment of comment information
CN107038619B (en) Virtual resource management method and device
US8639577B1 (en) Use of sound to authenticate and enable a return with an electronic receipt
CN110945552A (en) Product sales reporting method, payment method and terminal equipment
CN104616183B (en) Network trading identification system, client and discrimination method
CN112712494B (en) System and method for providing product image suggestions
JP6159696B2 (en) Campaign application system
JP7061326B1 (en) Information processing equipment, information processing system and information processing method
CN116091234A (en) Precious metal intelligent exchange method and system based on Internet
KR102210448B1 (en) Method, apparatus and computer program for providing ownership registration and counterfeit judgment service for product using blockchain
WO2022090999A1 (en) System for pre-owned electronic device diagnostics, with sales and operation facilitation features
CN107066218A (en) Image processing system and print control program
CN112700235A (en) Method and device for identifying offline payment user and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210811

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220404

R150 Certificate of patent or registration of utility model

Ref document number: 7061326

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350