JP2023082359A - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
JP2023082359A
JP2023082359A JP2021196078A JP2021196078A JP2023082359A JP 2023082359 A JP2023082359 A JP 2023082359A JP 2021196078 A JP2021196078 A JP 2021196078A JP 2021196078 A JP2021196078 A JP 2021196078A JP 2023082359 A JP2023082359 A JP 2023082359A
Authority
JP
Japan
Prior art keywords
vehicle
information
user terminal
data
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021196078A
Other languages
English (en)
Inventor
優介 前田
Yusuke Maeda
陽介 森内
Yosuke Moriuchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021196078A priority Critical patent/JP2023082359A/ja
Publication of JP2023082359A publication Critical patent/JP2023082359A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】車両をより簡単に査定する。【解決手段】LiDARを用いて車両の形状を測定した情報と、記憶部に記憶されている車両に関する情報であってLiDARを用いて車両の形状を測定した情報に対応する情報と、の比較により、車両の状態を判定する制御部を備える。【選択図】図6

Description

本開示は、情報処理装置に関する。
車両の内装のパノラマ写真を、ネットワーク経由でデータベースに保管し、その写真に基づいて査定担当者が査定を行うことが知られている(例えば、特許文献1参照。)。
特開2018-097679号公報
本開示の目的は、車両をより簡単に査定することにある。
本開示の態様の一つは、
LiDARを用いて車両の形状を測定した情報と、記憶部に記憶されている前記車両に関する情報であって前記LiDARを用いて前記車両の形状を測定した情報に対応する情報と、の比較により、前記車両の状態を判定する制御部を備える、
情報処理装置である。
また、本開示の他の態様は、上記の情報処理装置における処理をコンピュータが実行する情報処理方法、その情報処理方法をコンピュータに実行させるためのプログラム、または、そのプログラムを非一時的に記憶した記憶媒体である。
本開示によれば、車両をより簡単に査定することができる。
実施形態に係るシステムの概略構成を示す図である。 実施形態に係るシステムを構成するユーザ端末、及び、サーバのそれぞれの構成の一例を概略的に示すブロック図である。 サーバの機能構成を例示した図である。 ユーザ端末の機能構成を示した図である。 実施形態に係るシステム全体の処理のシーケンス図である。 実施形態に係るサーバにおける車両の状態を判定する処理のフローチャートである。
中古車両の価値は、車両の状態に依存する。例えば、内外装に磨き傷などの細かい傷、または、変形若しくは凹凸が発生した場合には、中古車両の価値が低下し得る。また、車両にオプション部品が装着されている場合には、中古車両の価値が上がり得る。例えば、ホイール、マフラーなどを性能の高いものに交換したり、エアロパーツを取り付けたりすることが行われている。
ここで、車両を撮像して画像データを用いて中古車両を査定することも考えられる。し
かし、画像では、細かい傷を判定することが困難な場合もある。また、車両の製造時の状態が分からないと、車両部品の交換が行われたか否か判断できない。本開示の態様の一つである情報処理装置は、このような問題を解決する。
本開示の態様の一つである情報処理装置は、制御部を有する。制御部は、LiDARを用いて車両の形状を測定した情報と、記憶部に記憶されている前記車両に関する情報であって前記LiDARを用いて車両の形状を測定した情報に対応する情報と、の比較により、前記車両の状態を判定する。
LiDAR(Light Detection and Ranging)では、対象物にレーザ光を照射し、その
反射光を光センサで捉えるまでの時間に基づいて距離を測定する。なお、LiDARは、レーザレーダ (Laser radar)としてもよい。LiDARは、分解能が高いために、車両の細かい傷を含む車両の3D形状を取得することができる。LiDARは、例えば、ユーザが所持する端末(例えば、スマートフォン)が有する機能であってもよく、ディーラなどの設備が有する機能であってもよく、車両が有する機能であってもよい。なお、LiDARを用いて車両の形状を測定した情報には、車両の塗装の状態(例えば、細かい傷の状態、劣化の状態、塗装の剥がれなど)、車両の内外装の凹凸(例えば、内外装の凹みなど)、または、車両に取り付けられている部品の形状(例えば、マフラー、ホイール、または、バンパーの形状など)などに関する情報が含まれる。
また、記憶部には、車両に関する情報であってLiDARを用いて車両の形状を測定した情報に対応する情報が記憶されている。この情報は、例えば、車両の製造時の情報、車両の販売時の情報、車両の新品時の情報(新車時の情報)、または、オプション部品の装着時の情報としてもよい。LiDARを用いて車両の形状を測定した情報と、記憶部に予め記憶されている情報とを比較することにより、例えば新車時からの車両の状態の変化を検出することができる。これにより、現時点での車両の状態を判定することができる。なお、車両の状態の判定は、人工知能(artificial intelligence: 以下、AIともいう。
)を用いて行ってもよい。
以下、図面に基づいて、本開示の実施の形態を説明する。以下の実施形態の構成は例示であり、本開示は実施形態の構成に限定されない。また、以下の実施形態は可能な限り組み合わせることができる。
<第1実施形態>
図1は、実施形態に係るシステム1の概略構成を示す図である。図1の例では、システム1は、ユーザが利用するユーザ端末20、及び、サーバ30を含む。
ユーザ端末20は、車両10をLiDARでスキャンする端末、及び、車両の状態の判定結果をサーバ30から受信して表示する端末である。ユーザは、車両10の所有者であってもよいが、車両10を販売したディーラ、車両10を買い取る中古車販売店などの車両10に関連付けられた場所(以下、単にディーラ等という。)の従業員または作業員などであってもよい。ユーザ端末20には、例えば、車両を査定するための専用のアプリケーションソフトウェアがインストールされる。ユーザ端末20は、LiDARで車両10をスキャンしたデータを、3Dデータとしてサーバ30へ送信する。
サーバ30は、車両10の状態を判定するために、車両10に関する情報を記憶するデータベースを管理するサーバ装置である。車両10に関する情報には、車両10の形状に関する情報(3Dデータ)、車両のオプション部品に関する情報、及び、車両の塗装色に関する情報などが含まれる。サーバ30は、ユーザ端末20から受信した3Dデータを、データベースに記憶されている情報と比較して車両10の状態を判定し、判定結果をユー
ザ端末20へ送信する。
ユーザ端末20、及び、サーバ30は、ネットワークN1によって相互に接続されている。なお、ネットワークN1は、例えば、インターネット等の世界規模の公衆通信網でありWAN(Wide Area Network)やその他の通信網が採用されてもよい。また、ネットワークN1は、携帯電話等の電話通信網、Wi-Fi(登録商標)等の無線通信網を含んでもよい。なお、図1には、例示的に1台の車両10及び一つのユーザ端末20を図示しているが、車両10及びユーザ端末20は複数存在し得る。
次に、図2に基づいて、ユーザ端末20、及び、サーバ30のハードウェア構成について説明する。図2は、実施形態に係るシステム1を構成するユーザ端末20、及び、サーバ30のそれぞれの構成の一例を概略的に示すブロック図である。
サーバ30は、コンピュータの構成を有している。サーバ30は、プロセッサ31、主記憶部32、補助記憶部33、及び、通信部34を有する。これらは、バスにより相互に接続される。プロセッサ31は、制御部の一例である。主記憶部32及び補助記憶部33は、記憶部の一例である。
プロセッサ31は、CPU(Central Processing Unit)やDSP(Digital Signal Processor)等である。プロセッサ31は、サーバ30を制御し、様々な情報処理の演算を
行う。主記憶部32は、RAM(Random Access Memory)、ROM(Read Only Memory)等である。補助記憶部33は、EPROM(Erasable Programmable ROM)、ハードディ
スクドライブ(HDD、Hard Disk Drive)、リムーバブルメディア等である。補助記憶
部33には、オペレーティングシステム(Operating System :OS)、各種プログラム、各種テーブル等が格納される。補助記憶部33に格納されたプログラムをプロセッサ31が主記憶部32の作業領域にロードして実行し、このプログラムの実行を通じて各構成部等が制御される。これにより、所定の目的に合致した機能をサーバ30が実現する。主記憶部32および補助記憶部33は、コンピュータで読み取り可能な記録媒体である。なお、サーバ30は、単一のコンピュータであってもよいし、複数台のコンピュータが連携したものであってもよい。また、補助記憶部33に格納される情報は、主記憶部32に格納されてもよい。また、主記憶部32に格納される情報は、補助記憶部33に格納されてもよい。
通信部34は、ネットワークN1経由で、ユーザ端末20と通信を行う手段である。通信部34は、例えば、LAN(Local Area Network)インターフェースボード、移動体通信サービス(例えば、5G(5th Generation)、4G(4th Generation)、3G(3rd Generation)、LTE(Long Term Evolution)等の電話通信網)、Wi-Fi(登録商標
)、Bluetooth(登録商標)LowEnergy、NFC(Near Field Communication)、UWB(Ultra Wideband)、等の無線通信網を利用して、ネットワークN1経由で他の装置と通信を行うための回路である。LANインターフェースボードや無線通信回路は、ネットワークN1に接続される。
次に、ユーザ端末20について説明する。ユーザ端末20は、例えば、スマートフォン、携帯電話、タブレット端末、個人情報端末、ウェアラブルコンピュータ(スマートウォッチ等)、パーソナルコンピュータ(Personal Computer、PC)といった小型のコンピュータである。ユーザ端末20は、プロセッサ21、主記憶部22、補助記憶部23、入力部24、ディスプレイ25、通信部26、及び、LiDAR装置27を有する。これらは、バスにより相互に接続される。プロセッサ21、主記憶部22、補助記憶部23、及び、通信部26については、サーバ30のプロセッサ31、主記憶部32、補助記憶部33、及び、通信部36と同様であるため、説明を省略する。
入力部24は、ユーザが行った入力操作を受け付ける手段であり、例えば、タッチパネル、マウス、キーボード、または、押しボタン等である。ディスプレイ25は、ユーザに対して情報を提示する手段であり、例えば、LCD(Liquid Crystal Display)、または、EL(Electroluminescence)パネル等である。入力部24及びディスプレイ25は、
1つのタッチパネルディスプレイとして構成してもよい。
LiDAR装置27は、光による検出と測距を行う装置であり、光源であるレーザを照射するレーザダイオード、反射光をセンシングする光センサ、レーザを照射してから反射光をセンシングするまでの時間差を計測し、対象物の三次元形状のデータ(3Dデータ)を生成する回路などを有する。LiDAR装置27には、公知の技術を用いることができる。
次に、サーバ30の機能について説明する。図3は、サーバ30の機能構成を例示した図である。サーバ30は、機能構成要素として、制御部301、及び、車両情報DB311を備える。サーバ30のプロセッサ31は、主記憶部32上のコンピュータプログラムにより、制御部301の処理を実行する。
車両情報DB311は、プロセッサ31によって実行されるデータベース管理システム(Database Management System、DBMS)のプログラムが、補助記憶部33に記憶されるデータを管理することで構築される。車両情報DB311は、例えば、リレーショナルデータベースである。車両情報DB311には、例えば、車種ごとの3Dデータ、車種ごとのオプション部品を装着した状態での3Dデータ、及び、塗装色見本などの塗装に関するデータが記憶されている。
制御部301は、ユーザ端末20とインタラクションを行うことで、車両10の3Dデータを取得する。制御部301は、取得した3Dデータから、車両10の車種を特定する。例えば、車両情報DB311に記憶されている3Dデータの特徴部分に基づいて車種を特定してもよい。車種の特定は、例えば、車両型式の特定であってもよいし、車両10の名称、年式、及びグレードの特定であってもよい。特徴部分は、例えば、グリル、バンパー、フロントウィンドウ、サイドミラー、ルーフ、または、エンジンフードであり、これらの1つまたは複数を抽出して、車両情報DB311に記憶させておいたこれらの3Dデータと比較することで車種を特定する。なお、本実施形態では、制御部301が3Dデータに基づいて車種を特定しているが、これに代えて、ユーザがユーザ端末20に入力した車種に関する情報を取得して、車種を特定してもよい。この特定には、例えば、AIを用いてもよい。
また、制御部301は、ユーザ端末20から取得した3Dデータと、車両情報DB311に記憶されている車種ごとの3Dデータとを比較することで、塗装の剥がれ、塗装の劣化、傷、または、製造後にできた凹凸がないか判定する。両3Dデータに所定の差があった場合に、制御部301は、塗装の剥がれ、塗装の劣化、傷、または、製造後にできた凹凸があると判定する。この判定には、例えば、AIを用いてもよい。
また、制御部301は、ユーザ端末20から取得した3Dデータと、車両情報DB311に記憶されている車種ごとの3Dデータとを比較することで、オプション部品が装着されているか判定する。両3Dデータに所定の差があった場合に、制御部301は、オプション部品が装着されていると判定する。この判定には、例えば、AIを用いてもよい。
なお、制御部301は、ユーザ端末20または車両10のECUなどから、車両10の走行履歴、故障履歴、修理履歴、または、部品の交換履歴などを取得してもよい。
制御部301は、車両10の状態を判定した結果をユーザ端末20に送信する。このときには、例えば、塗装の剥がれ、劣化、傷または凹みがある箇所が分かるような情報、及び、装着されたオプション部品が分かるような情報、車両10の走行履歴、故障履歴、修理履歴、または、部品の交換履歴が分かるような情報を送信してもよい。また、これらの情報から車両10の状態を点数にして表してユーザ端末20に送信してもよい。この場合、例えば100点を満点として、車両10の状態が何点であるかを表す情報として送信してもよい。また、別法として、中古車両の価格の相場を取得し、この相場と車両10の状態とから車両10の買取価格を算出して、この買取価格をユーザ端末20へ送信してもよい。上記の点数および買取価格の算出には、例えばAIを利用することができる。
次に、ユーザ端末20の機能について説明する。図4は、ユーザ端末20の機能構成を示した図である。ユーザ端末20は、機能構成要素として、制御部201を有する。ユーザ端末20のプロセッサ21は、主記憶部22上のコンピュータプログラムにより、制御部201の処理を実行する。
制御部201は、所定のアプリケーションソフトウェアを実行することにより、LiDAR装置27によって車両10をスキャンして3Dデータを生成してサーバ30へ送信する。このときには、ユーザIDなどのユーザに関する情報も含めてサーバ30へ送信する。さらに、車種に関する情報を含めてサーバ30へ送信してもよい。また、制御部201は、サーバ30から受信した判定結果をディスプレイ25に表示させる。
制御部201は、ユーザが入力部24に所定の入力をすると、LiDAR装置27によって車両10をスキャンする。そして、LiDAR装置27によって生成される3Dデータを、通信部26を介してサーバ30へ送信する。また、制御部201は、サーバ30から受信した判定結果をディスプレイ25に表示させる。
次に、車両10の状態を判定するときのシステム全体の処理について説明する。図5は、実施形態に係るシステム1全体の処理のシーケンス図である。なお、車両情報DB311には必要な情報が格納されているものとして説明する。
ユーザ端末20において、所定のアプリケーションソフトウェアが起動され、LiDAR装置27で車両10がスキャンされる(S11)。そうすると、LiDAR装置27において、3Dデータが生成される(S12)。生成された3Dデータは、サーバ30へ送信される(S13)。サーバ30は、受信した3Dデータと、車両情報DB311に記憶されている情報とを比較することにより車両10の状態を判定する(S14)。これについては、後述する。そして、サーバ30からユーザ端末20へ判定結果が送信される(S15)。判定結果を受信したユーザ端末20では、ディスプレイ25に判定結果に応じた情報が表示される。
次に、サーバ30における車両10の状態を判定する処理について説明する。図6は、実施形態に係るサーバ30における車両10の状態を判定する処理のフローチャートである。図6に示した処理は、サーバ30において、所定の時間毎に実行される。なお、車両情報DB311には必要な情報が格納されているものとして説明する。
ステップS101では、制御部301が、ユーザ端末20から3Dデータを受信したか否か判定する。ステップS101で肯定判定された場合にはステップS102へ進み、否定判定された場合には本ルーチンを終了させる。ステップS102では、制御部301が、車種を特定する。制御部301は、ユーザ端末20から取得した3Dデータと、車両情報DB311に記憶されている車種ごとの3Dデータとを比較することにより、車種を特
定する。具体的には、3Dデータの1または複数の特徴部分を比較し、特徴部分が一致するレコードを抽出することにより車種を特定する。
ステップS103では、制御部301が、ユーザ端末20から取得した3Dデータと、特定された車種に対応したオプション部品を装着した状態の3Dデータとを比較して、オプション部品を装着しているか否か判定する。制御部301は、車両情報DB311に記憶されている車種ごとのオプションを装着した3Dデータを記憶しており、その3Dデータと、ユーザ端末20から取得した3Dデータとを比較し、一致する3Dデータを抽出することにより、車両10に装着されているオプション部品を特定する。なお、該当する3Dデータが車両情報DB311に記憶されていない場合には、社外品が装着されているものと判定してもよい。
ステップS104では、制御部301が、傷および凹凸などがあるか否か、または、傷および凹凸の程度を判定する。制御部301は、ユーザ端末20から取得した3Dデータと、車両情報DB311に記憶されている3Dデータとを比較して、内外装にどの程度の傷または凹凸があるか否か判定する。このときには、たとえば、傷の深さ、傷の長さ、傷の幅、凹凸の大きさ、凹凸の高さ若しくは深さなどを判定してもよい。検出するのは、車両の査定にかかわる部位における傷または凹凸としてもよい。
ステップS105では、制御部301が、車両10の状態の判定結果に関する情報を生成する。判定結果に関する情報には、オプション部品の装着の有無、及び、傷または凹凸の程度などについての情報が含まれる。なお、車両10のECUに記憶されている情報、または、ディーラ等で扱った故障修理などに関する情報についても、判定結果に関する情報に含んでもよい。
また、制御部301は、3Dデータの比較に基づいて、車両の値段、または、車両の評価などに関する情報を、判定結果に関する情報として生成してもよい。車両10の値段は、例えば、装着されているオプション部品、車両10の傷若しくは凹凸の程度、中古車両の市場価格に応じて決定する。装着されているオプション部品の新品時の値段が高いほど、または、傷若しくは凹凸の程度が小さいほど、車両10の値段が高くなるように、制御部301は車両10の値段を決定する。また、車両10の評価は、装着されているオプション部品の新品時の値段が高いほど、または、傷若しくは凹凸の程度が小さいほど、車両10の評価が高くなるように、制御部301は車両10の評価を決定する。車両10の評価は点数で表してもよい。車両10の値段または車両10の評価は、AIを利用して決定してもよい。
ステップS106では、制御部301が、車両10の状態の判定結果に関する情報をユーザ端末20へ送信する。なお、このときには、ユーザ端末20のディスプレイ25に判定結果を表示させる指令が含まれていてもよい。
以上説明したように実施形態によれば、LiDARを利用して車両10の状態を判定することができる。この判定結果によって、車両10を査定することができる。
<その他の実施形態>
上記の実施形態はあくまでも一例であって、本開示はその要旨を逸脱しない範囲内で適宜変更して実施し得る。
本開示において説明した処理や手段は、技術的な矛盾が生じない限りにおいて、自由に組み合わせて実施することができる。
また、1つの装置が行うものとして説明した処理が、複数の装置によって分担して実行されてもよい。あるいは、異なる装置が行うものとして説明した処理が、1つの装置によって実行されても構わない。コンピュータシステムにおいて、各機能をどのようなハードウェア構成(サーバ構成)によって実現するかは柔軟に変更可能である。
また、第1実施形態では、ユーザ端末20がLiDAR装置27を備えているが、別法として、車両10がLiDAR装置を備えることもできる。例えば、車両10の安全機能を実現するために車両10にLiDAR装置が備わることがある。この場合、車両10のLiDAR装置で車両10が自ら3Dデータを生成してもよい。この3Dデータは、ユーザ端末20またはサーバ30からの指示により生成する。また、生成した3Dデータは、車両10から直接サーバ30へ送信してもよく、ユーザ端末20を介して送信してもよい。車両10からサーバ30へ3Dデータを送信する場合には、車両10に通信部26と同等の機能を有する通信部を備える。
本開示は、上記の実施形態で説明した機能を実装したコンピュータプログラムをコンピュータに供給し、当該コンピュータが有する1つ以上のプロセッサがプログラムを読み出して実行することによっても実現可能である。このようなコンピュータプログラムは、コンピュータのシステムバスに接続可能な非一時的なコンピュータ可読記憶媒体によってコンピュータに提供されてもよいし、ネットワークを介してコンピュータに提供されてもよい。非一時的なコンピュータ可読記憶媒体は、例えば、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスクドライブ(HDD)等)、光ディスク(CD-ROM、DVDディスク、ブルーレイディスク等)など任意のタイプのディスク、読み込み専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、フラッシュメモリ、光学式カード、電子的命令を格納するために適した任意のタイプの媒体を含む。
1 システム
10 車両
20 ユーザ端末
27 LiDAR装置
30 サーバ
31 プロセッサ
32 主記憶部
33 補助記憶部
34 通信部

Claims (1)

  1. LiDARを用いて車両の形状を測定した情報と、記憶部に記憶されている前記車両に関する情報であって前記LiDARを用いて前記車両の形状を測定した情報に対応する情報と、の比較により、前記車両の状態を判定する制御部を備える、
    情報処理装置。
JP2021196078A 2021-12-02 2021-12-02 情報処理装置 Pending JP2023082359A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021196078A JP2023082359A (ja) 2021-12-02 2021-12-02 情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021196078A JP2023082359A (ja) 2021-12-02 2021-12-02 情報処理装置

Publications (1)

Publication Number Publication Date
JP2023082359A true JP2023082359A (ja) 2023-06-14

Family

ID=86728591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021196078A Pending JP2023082359A (ja) 2021-12-02 2021-12-02 情報処理装置

Country Status (1)

Country Link
JP (1) JP2023082359A (ja)

Similar Documents

Publication Publication Date Title
JP7110414B2 (ja) 画像に基づく車両損傷判定方法、装置および電子デバイス
US20240029168A1 (en) Automated Damage Assessment and Claims Processing
US10373260B1 (en) Imaging processing system for identifying parts for repairing a vehicle
US10573012B1 (en) Three dimensional image scan for vehicle
US20200111041A1 (en) System and method for generating and managing workflows
US10373262B1 (en) Image processing system for vehicle damage
US20150213556A1 (en) Systems and Methods of Predicting Vehicle Claim Re-Inspections
CN204945256U (zh) 一种用于电子设备回收的零售台式检测仪器
US10380696B1 (en) Image processing system for vehicle damage
KR20190139938A (ko) 픽쳐 기반의 차량 손해 평가 방법 및 장치, 및 전자 디바이스
US20140201022A1 (en) Vehicle damage processing and information system
JP2021193629A (ja) 損傷判断装置、並びにこれを用いた期間・スケジュール演算装置及び修理・補修費用演算装置。
KR102080462B1 (ko) 딥러닝에 기반한 도로 안전 진단과 관리 방법 및 시스템
US10402957B2 (en) Examining defects
US20160239922A1 (en) System and method of real-time imaging and analysis of real-world objects
US11514483B2 (en) Systems and methods for automated trade-in with limited human interaction
CA2920405A1 (en) Detection system
WO2019144604A1 (zh) 车损测量方法与装置
US20190244282A1 (en) Computerized exchange network
JP6883494B2 (ja) 中古車査定システム
US10783792B1 (en) Systems and methods for automated vehicle tracking for readiness with limited human interaction
JP5596827B1 (ja) 車両査定支援装置、および車両査定支援システム
JP2024036375A (ja) カード、およびプログラム
JP2023082359A (ja) 情報処理装置
KR102451148B1 (ko) 중고 자동차 가치 평가 솔루션 서비스 제공 방법 및 장치