JP7439519B2 - Processing equipment, processing method and program - Google Patents

Processing equipment, processing method and program Download PDF

Info

Publication number
JP7439519B2
JP7439519B2 JP2020002640A JP2020002640A JP7439519B2 JP 7439519 B2 JP7439519 B2 JP 7439519B2 JP 2020002640 A JP2020002640 A JP 2020002640A JP 2020002640 A JP2020002640 A JP 2020002640A JP 7439519 B2 JP7439519 B2 JP 7439519B2
Authority
JP
Japan
Prior art keywords
processing
image
identification information
vehicle
inspector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020002640A
Other languages
Japanese (ja)
Other versions
JP2021110633A (en
Inventor
哉 藤谷
真二 丹羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2020002640A priority Critical patent/JP7439519B2/en
Publication of JP2021110633A publication Critical patent/JP2021110633A/en
Application granted granted Critical
Publication of JP7439519B2 publication Critical patent/JP7439519B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、処理装置、処理方法及びプログラムに関する。 The present invention relates to a processing device, a processing method, and a program.

特許文献1は、検査等の支援を行うシステムを開示している。検査員は、ヘッドマウントディスプレイ、ヘッドマウントカメラ、ヘッドフォン、マイク等を有する装置を装着する。この装置は、現在の状況や手元資料などをサーバに送信する。また、この装置は、検査項目の指示等をサーバから受信し、表示する。 Patent Document 1 discloses a system that supports inspections and the like. Inspectors wear equipment that includes a head-mounted display, head-mounted camera, headphones, microphone, etc. This device sends information such as the current situation and documents on hand to the server. Additionally, this device receives instructions for inspection items and the like from the server and displays them.

特許文献2は、車両を撮影した画像に基づき車両識別情報を認識する技術を開示している。 Patent Document 2 discloses a technique for recognizing vehicle identification information based on an image taken of a vehicle.

特許文献3は、虹彩情報を用いて認証処理を行うメガネ型ウェアラブラルデバイスを開示している。 Patent Document 3 discloses a glasses-type wearable device that performs authentication processing using iris information.

特開2002-287815号公報Japanese Patent Application Publication No. 2002-287815 特開2018-92629号公報Unexamined Japanese Patent Publication No. 2018-92629 国際公開第2016/080031号International Publication No. 2016/080031

特許文献1に開示の技術を車両の検査に適用すれば、検査効率の向上や、検査ミスの抑制等が実現される。しかし、検査項目や各検査時に行う処理内容等は車種ごとに異なり得る。これを考慮しなければ、検査中の車両の車種に関わらず同じ処理を行い、同じ情報を検査員に提供する使い勝手の悪いシステムとなってしまう。例えば、検査項目Aを含まない車種の車両を検査している検査員に対して、検査項目Aの指示をしてしまう等の不都合が発生し得る。特許文献1乃至3はいずれも、当該課題及びその解決手段を記載も示唆もしていない。 If the technology disclosed in Patent Document 1 is applied to vehicle inspection, inspection efficiency can be improved, inspection errors can be suppressed, and the like. However, inspection items and processing details performed during each inspection may differ depending on the vehicle model. If this is not taken into account, the system will be inconvenient to use, performing the same processing and providing the same information to inspectors regardless of the type of vehicle being inspected. For example, inconveniences may occur, such as instructing an inspector who is inspecting a vehicle type that does not include inspection item A. None of Patent Documents 1 to 3 describes or suggests the problem and its solution.

本発明は、検査中の車両の車種に応じた適切な処理を実行する処理装置を提供することを課題とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide a processing device that performs appropriate processing depending on the type of vehicle being inspected.

本発明によれば、
画像を取得する取得手段と、
前記画像の中から車両識別情報表示物を検出する検出手段と、
前記車両識別情報表示物が示す車両識別情報を認識する認識手段と、
認識された前記車両識別情報に基づき、前記車両識別情報表示物を付された検査対象の車両の車種を判別する判別手段と、
判別された前記車種に対応した処理エンジンを選択する選択手段と、
選択された前記処理エンジンに基づき、前記画像を処理する処理手段と、
を有する処理装置が提供される。
According to the invention,
an acquisition means for acquiring an image;
detection means for detecting a vehicle identification information display object from the image;
Recognition means for recognizing vehicle identification information indicated by the vehicle identification information display object;
a determining means for determining the vehicle type of the vehicle to be inspected to which the vehicle identification information display object is attached based on the recognized vehicle identification information;
selection means for selecting a processing engine corresponding to the determined vehicle type;
processing means for processing the image based on the selected processing engine;
A processing device is provided.

また、本発明によれば、
コンピュータが、
画像を取得し、
前記画像の中から車両識別情報表示物を検出し、
前記車両識別情報表示物が示す車両識別情報を認識し、
認識された前記車両識別情報に基づき、前記車両識別情報表示物を付された検査対象の車両の車種を判別し、
判別された前記車種に対応した処理エンジンを選択し、
選択された前記処理エンジンに基づき、前記画像を処理する処理方法が提供される。
Further, according to the present invention,
The computer is
Get the image and
Detecting a vehicle identification information display object from the image,
Recognizing vehicle identification information indicated by the vehicle identification information display object,
Based on the recognized vehicle identification information, determine the model of the vehicle to be inspected that has the vehicle identification information display attached thereto;
Select a processing engine that corresponds to the determined vehicle model,
A processing method is provided for processing the image based on the selected processing engine.

また、本発明によれば、
コンピュータを、
画像を取得する取得手段、
前記画像の中から車両識別情報表示物を検出する検出手段、
前記車両識別情報表示物が示す車両識別情報を認識する認識手段、
認識された前記車両識別情報に基づき、前記車両識別情報表示物を付された検査対象の車両の車種を判別する判別手段、
判別された前記車種に対応した処理エンジンを選択する選択手段、
選択された前記処理エンジンに基づき、前記画像を処理する処理手段、
として機能させるプログラムが提供される。
Further, according to the present invention,
computer,
an acquisition means for acquiring images;
detection means for detecting a vehicle identification information display object from the image;
Recognition means for recognizing vehicle identification information indicated by the vehicle identification information display object;
determination means for determining the vehicle type of the vehicle to be inspected to which the vehicle identification information display object is attached, based on the recognized vehicle identification information;
selection means for selecting a processing engine corresponding to the determined vehicle type;
processing means for processing the image based on the selected processing engine;
A program is provided to enable this function.

本発明によれば、検査中の車両の車種に応じた適切な処理を実行する処理装置が実現される。 According to the present invention, a processing device that executes appropriate processing according to the type of vehicle under inspection is realized.

本実施形態の検査支援システムの機能ブロック図の一例である。It is an example of the functional block diagram of the test|inspection support system of this embodiment. 本実施形態の装置のハードウエア構成の一例を示す図である。1 is a diagram illustrating an example of the hardware configuration of a device according to the present embodiment. 本実施形態の処理装置、中継装置及び装着装置の機能ブロック図の一例である。It is an example of a functional block diagram of a processing device, a relay device, and a mounting device of this embodiment. 本実施形態の装着装置の一例を示す図である。It is a figure showing an example of a mounting device of this embodiment. 本実施形態の処理装置が処理する情報の一例を模式的に示す図である。FIG. 3 is a diagram schematically showing an example of information processed by the processing device of the present embodiment. 本実施形態の処理装置が処理する情報の一例を模式的に示す図である。FIG. 3 is a diagram schematically showing an example of information processed by the processing device of the present embodiment. 本実施形態の装着装置が生成する画像の一例を模式的に示す図である。It is a figure which shows typically an example of the image which the mounting device of this embodiment produces|generates. 本実施形態の検査支援システムの処理の流れの一例を示すシーケンス図である。It is a sequence diagram which shows an example of the flow of processing of the test|inspection support system of this embodiment. 本実施形態の検査支援ステムの変形例を説明するための図である。It is a figure for explaining the modification of the inspection support stem of this embodiment. 本実施形態の処理装置、中継装置及び装着装置の機能ブロック図の一例である。It is an example of a functional block diagram of a processing device, a relay device, and a mounting device of this embodiment. 本実施形態の検査支援システムの処理の流れの一例を示すシーケンス図である。It is a sequence diagram which shows an example of the flow of processing of the test|inspection support system of this embodiment. 本実施形態の処理装置、中継装置及び装着装置の機能ブロック図の一例である。It is an example of a functional block diagram of a processing device, a relay device, and a mounting device of this embodiment. 本実施形態の検査支援システムの処理の流れの一例を示すシーケンス図である。It is a sequence diagram which shows an example of the flow of processing of the test|inspection support system of this embodiment.

<第1の実施形態>
本実施形態の検査支援システムは、検査員による車両の検査を支援するシステムである。支援対象の検査は、販売前の新品の車両に対する検査であってもよいし、販売後に定期的に行われる検査であってもよい。
<First embodiment>
The inspection support system of this embodiment is a system that supports inspection of a vehicle by an inspector. The inspection to be supported may be an inspection of a new vehicle before sale, or an inspection performed periodically after sale.

まず、図1を用いて本実施形態の検査支援システムの全体像及び概要を説明する。検査支援システムは、処理装置10と、中継装置20と、装着装置30とを有する。処理装置10と中継装置20とは、インターネット等の通信ネットワーク40を介して互いに通信可能に構成される。中継装置20と装着装置30とは、無線LAN、Bluetooth(登録商標)等の近距離無線通信で互いに通信可能に構成される。 First, the overall image and outline of the inspection support system of this embodiment will be explained using FIG. The inspection support system includes a processing device 10, a relay device 20, and a mounting device 30. The processing device 10 and the relay device 20 are configured to be able to communicate with each other via a communication network 40 such as the Internet. The relay device 20 and the mounting device 30 are configured to be able to communicate with each other through short-range wireless communication such as wireless LAN and Bluetooth (registered trademark).

装着装置30は、検査員が装着する装置である。装着装置30は、カメラ、マイク、認証情報等の入力を受付ける入力装置、ディスプレイ等を有する。装着装置30は、カメラ及びマイクが生成したデータや、入力装置が入力を受付けたデータを、中継装置20に送信する。また、装着装置30は、中継装置20から各種データを受信し、ディスプレイに表示する。 The mounting device 30 is a device worn by an inspector. The mounting device 30 includes a camera, a microphone, an input device that accepts input of authentication information, etc., a display, and the like. The mounting device 30 transmits data generated by the camera and microphone and data input by the input device to the relay device 20 . The mounting device 30 also receives various data from the relay device 20 and displays it on the display.

中継装置20は、例えば車両の検査を行う敷地内に設置される。中継装置20は、近距離無線通信で装着装置30からデータを受信し、装着装置30から受信したデータをインターネット等の通信ネットワーク40を介して処理装置10に送信する。そして、中継装置20は、インターネット等の通信ネットワーク40を介して処理装置10からデータを受信し、近距離無線通信でそのデータを装着装置30に送信する。中継装置20は、複数の装着装置30と通信可能になっていてもよい。 The relay device 20 is installed, for example, in a site where vehicles are inspected. The relay device 20 receives data from the mounting device 30 by short-range wireless communication, and transmits the data received from the mounting device 30 to the processing device 10 via a communication network 40 such as the Internet. Then, the relay device 20 receives data from the processing device 10 via a communication network 40 such as the Internet, and transmits the data to the mounting device 30 by short-range wireless communication. The relay device 20 may be able to communicate with a plurality of mounting devices 30.

処理装置10は、サーバであり、任意の位置に設置される。処理装置10は、クラウトサーバであってもよい。処理装置10は、中継装置20から受信した認証情報に基づき認証処理を行う。また、処理装置10は、中継装置20から受信したカメラ及びマイクが生成したデータを解析することで、検査の支援を行う。例えば、処理装置10は、上記解析により現在の検査の状況などを認識し、検査員に提供する情報(アドバイス等)を決定する。そして処理装置10は、中継装置20を介して、決定した情報を装着装置30に送信する。また、処理装置10は、カメラ及びマイクが生成したデータを解析し、車両の検査を行う。そして、処理装置10は、その検査結果を、補助的検査結果として記憶部に蓄積する。 The processing device 10 is a server and is installed at an arbitrary location. The processing device 10 may be a cloud server. The processing device 10 performs authentication processing based on the authentication information received from the relay device 20. Furthermore, the processing device 10 supports the inspection by analyzing data generated by the camera and microphone received from the relay device 20. For example, the processing device 10 recognizes the current inspection status through the above analysis, and determines information (advice, etc.) to be provided to the inspector. The processing device 10 then transmits the determined information to the mounting device 30 via the relay device 20. Furthermore, the processing device 10 analyzes data generated by the camera and microphone and performs vehicle inspection. Then, the processing device 10 stores the test results in the storage unit as auxiliary test results.

なお、処理装置10は、上述のような解析を行うための処理エンジンを、車種ごとに有する。そして、処理装置10は、カメラが生成したデータに基づき検査対象の車両の車種を判別し、判別した車種に対応した処理エンジンで画像を処理して、上述のような各種検査の支援を行う。 Note that the processing device 10 has a processing engine for each vehicle type to perform the above-described analysis. Then, the processing device 10 determines the model of the vehicle to be inspected based on the data generated by the camera, processes the image with a processing engine corresponding to the determined vehicle model, and supports various inspections as described above.

このような検査支援システムによれば、検査中の車両の車種に応じた適切な処理を実行し、適切な支援を行うことが可能となる。 According to such an inspection support system, it is possible to perform appropriate processing according to the type of vehicle under inspection and provide appropriate support.

以下、検査支援システムの構成を詳細に説明する。 The configuration of the inspection support system will be explained in detail below.

まず、各装置のハードウエア構成の一例を説明する。本実施形態の処理装置10、中継装置20及び装着装置30各々が備える機能部は、任意のコンピュータのCPU(Central Processing Unit)、メモリ、メモリにロードされるプログラム、そのプログラムを格納するハードディスク等の記憶ユニット(あらかじめ装置を出荷する段階から格納されているプログラムのほか、CD(Compact Disc)等の記憶媒体やインターネット上のサーバ等からダウンロードされたプログラムをも格納できる)、ネットワーク接続用インターフェイスを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。 First, an example of the hardware configuration of each device will be explained. The functional units included in each of the processing device 10, relay device 20, and mounting device 30 of this embodiment include a CPU (Central Processing Unit) of an arbitrary computer, a memory, a program loaded into the memory, a hard disk that stores the program, etc. Mainly storage unit (in addition to programs stored in advance when the device is shipped, it can also store programs downloaded from storage media such as CDs (Compact Discs) or servers on the Internet), and network connection interfaces. can be realized by any combination of hardware and software. It will be understood by those skilled in the art that there are various modifications to the implementation method and device.

図2は、本実施形態の処理装置10、中継装置20及び装着装置30各々のハードウエア構成を例示するブロック図である。図1に示すように、各装置は、プロセッサ1A、メモリ2A、入出力インターフェイス3A、周辺回路4A、バス5Aを有する。周辺回路4Aには、様々なモジュールが含まれる。なお、周辺回路4Aは有さなくてもよい。なお、各装置は物理的及び/又は論理的に一体となった1つの装置で構成されてもよいし、物理的及び/又は論理的に分かれた複数の装置で構成されてもよい。物理的及び/又は論理的に分かれた複数の装置で構成される場合、複数の装置各々が上記ハードウエア構成を備えることができる。 FIG. 2 is a block diagram illustrating the hardware configuration of each of the processing device 10, relay device 20, and mounting device 30 of this embodiment. As shown in FIG. 1, each device has a processor 1A, a memory 2A, an input/output interface 3A, a peripheral circuit 4A, and a bus 5A. The peripheral circuit 4A includes various modules. Note that the peripheral circuit 4A may not be provided. Note that each device may be composed of one physically and/or logically integrated device, or may be composed of a plurality of physically and/or logically separated devices. When configured with a plurality of physically and/or logically separated devices, each of the plurality of devices can be provided with the above hardware configuration.

バス5Aは、プロセッサ1A、メモリ2A、周辺回路4A及び入出力インターフェイス3Aが相互にデータを送受信するためのデータ伝送路である。プロセッサ1Aは、例えばCPU、GPU(Graphics Processing Unit)等の演算処理装置である。メモリ2Aは、例えばRAM(Random Access Memory)やROM(Read Only Memory)等のメモリである。入出力インターフェイス3Aは、入力装置、外部装置、外部サーバ、外部センサ、カメラ等から情報を取得するためのインターフェイスや、出力装置、外部装置、外部サーバ等に情報を出力するためのインターフェイス等を含む。入力装置は、例えばキーボード、マウス、マイク、タッチパネル、物理ボタン、カメラ、センサ等である。出力装置は、例えばディスプレイ、スピーカ、プリンター、メーラ等である。プロセッサ1Aは、各モジュールに指令を出し、それらの演算結果をもとに演算を行うことができる。 The bus 5A is a data transmission path through which the processor 1A, memory 2A, peripheral circuit 4A, and input/output interface 3A exchange data with each other. The processor 1A is, for example, an arithmetic processing device such as a CPU or a GPU (Graphics Processing Unit). The memory 2A is, for example, a RAM (Random Access Memory) or a ROM (Read Only Memory). The input/output interface 3A includes an interface for acquiring information from an input device, an external device, an external server, an external sensor, a camera, etc., an interface for outputting information to an output device, an external device, an external server, etc. . Input devices include, for example, a keyboard, mouse, microphone, touch panel, physical button, camera, sensor, and the like. Examples of the output device include a display, a speaker, a printer, and a mailer. The processor 1A can issue commands to each module and perform calculations based on the results of those calculations.

次に、各装置の機能構成を説明する。 Next, the functional configuration of each device will be explained.

「装着装置30」
まず、装着装置30の機能構成を説明する。図3の機能ブロック図に示すように、装着装置30は、認証処理部31と、データ収集部32と、通信部33とを有する。
“Mounting device 30”
First, the functional configuration of the mounting device 30 will be explained. As shown in the functional block diagram of FIG. 3, the mounting device 30 includes an authentication processing section 31, a data collection section 32, and a communication section 33.

通信部33は、近距離無線通信で中継装置20と通信する。通信規格は特段制限されず、あらゆる技術を採用できる。 The communication unit 33 communicates with the relay device 20 by short-range wireless communication. There are no particular restrictions on communication standards, and any technology can be adopted.

認証処理部31は、装着装置30を装着した人物が正当な検査員であることを認証するための処理を行う。 The authentication processing unit 31 performs processing to authenticate that the person wearing the mounting device 30 is a legitimate inspector.

具体的には、認証処理部31は、認証情報の入力を受付ける。認証情報は、生体情報であってもよい。例えば、認証処理部31は、装着装置30が備えるカメラを介して顔情報(顔画像やその特徴量等)の入力を受付けてもよいし、装着装置30が備えるカメラを介して虹彩情報(虹彩画像やその特徴量等)の入力を受付けてもよいし、装着装置30が備える指紋センサを介して指紋情報(指紋データやその特徴量等)の入力を受付けてもよいし、イヤフォンを介して耳情報(耳穴の形状を表す音響特性)の入力を受付けてもよいし、その他の生体情報の入力を受付けてもよい。また、認証情報は、ユーザIDとパスワード等の生体情報以外の情報であってもよい。認証処理部31は、任意の入力装置を介して、このような生体情報以外の認証情報の入力を受付けてもよい。しかし、正当な検査員でないもののなりすましを効果的に排除する観点から、生体情報を認証情報とするのが好ましい。 Specifically, the authentication processing unit 31 receives input of authentication information. The authentication information may be biometric information. For example, the authentication processing unit 31 may receive input of facial information (a face image, its feature amount, etc.) via a camera included in the mounting device 30, or may receive input of iris information (iris information) via a camera included in the mounting device 30. It is also possible to accept the input of fingerprint information (fingerprint data, its characteristic values, etc.) through a fingerprint sensor included in the wearing device 30, or to accept the input of fingerprint information (fingerprint data, its characteristic values, etc.) through an earphone. Input of ear information (acoustic characteristics representing the shape of the ear canal) may be accepted, or input of other biological information may be accepted. Further, the authentication information may be information other than biometric information such as a user ID and password. The authentication processing unit 31 may accept input of such authentication information other than biometric information via an arbitrary input device. However, from the viewpoint of effectively eliminating impersonation by someone who is not a legitimate inspector, it is preferable to use biometric information as the authentication information.

認証情報の入力を受付けた後、認証処理部31は、受付けた認証情報を中継装置20に送信し、その後、中継装置20から認証結果を受信する。そして、認証結果が成功である場合、装着装置30は、検査支援機能を利用可能な状態となる。例えば、装着装置30は、認証成功に応じて、検査を開始する入力を受付けることができる状態になってもよい。この入力に応じて、装着装置30は、検査支援機能(カメラやマイクによるデータの収集、中継装置20への送信など)を開始する。一方、認証結果が失敗である場合、装着装置30はエラー処理を行う。例えば、装着装置30は、ディスプレイ、スピーカ、警告ランプ等の出力装置を介して、認証に失敗した旨を示す情報を出力する。 After receiving the input of the authentication information, the authentication processing unit 31 transmits the received authentication information to the relay device 20, and then receives the authentication result from the relay device 20. Then, if the authentication result is successful, the mounting device 30 is in a state where the inspection support function can be used. For example, the mounting device 30 may be in a state where it can accept an input to start an examination in response to successful authentication. In response to this input, the mounting device 30 starts an inspection support function (data collection using a camera or microphone, transmission to the relay device 20, etc.). On the other hand, if the authentication result is failure, the mounting device 30 performs error processing. For example, the mounting device 30 outputs information indicating that authentication has failed via an output device such as a display, a speaker, a warning lamp, or the like.

なお、上述の通り、装着装置30は、検査員が装着する装置であるが、その形態は特段制限されない。例えば、図4に示すようなメガネ型の装置が例示される。図示する装着装置30は、カメラ、マイク、ライト、ディスプレイ(AR画像表示部)、イヤフォン/スピーカ、本体部、その他構成要素を有する。カメラは、装着装置30を装着した検査員の視線方向を撮影する位置及び向きで設置されている。ディスプレイは、眼鏡のグラス部分に設けられており、AR画像等を表示できる。本体部は、有線及び/又は無線で、充電器や入力ユニット等のその他構成要素と通信可能になっている。当該装着装置30は、入力ユニットを介した入力や、カメラの前でのジェスチャー入力や、マイクを介した音声入力等の入力を受け付けることができる。 Note that, as described above, the mounting device 30 is a device that is worn by an inspector, but its form is not particularly limited. For example, a glasses-type device as shown in FIG. 4 is exemplified. The illustrated mounting device 30 includes a camera, a microphone, a light, a display (AR image display section), earphones/speakers, a main body, and other components. The camera is installed at a position and in a direction to photograph the line of sight of the inspector wearing the mounting device 30. The display is provided in the glass portion of the glasses and can display AR images and the like. The main body can communicate with other components such as a charger and an input unit by wire and/or wirelessly. The mounting device 30 can receive inputs such as input via an input unit, gesture input in front of a camera, and voice input via a microphone.

なお、その他、装着装置30は、ヘルメット型の装置であってもよいし、ヘッドバンド型の装置であってもよいし、リストバンド型の装置であってもよいし、腕時計型の装置であってもよい。しかし、装着装置30を装着した検査員の視線方向が撮影可能となる観点から、装着装置30は頭部や顔に装着するものであることが好ましい。 In addition, the mounting device 30 may be a helmet-type device, a headband-type device, a wristband-type device, or a wristwatch-type device. It's okay. However, from the viewpoint of being able to photograph the line of sight of the inspector wearing the mounting device 30, it is preferable that the mounting device 30 be worn on the head or face.

図3に戻り、データ収集部32は、装着装置30を装着した検査員の周辺の状況を示すデータを収集する。 Returning to FIG. 3, the data collection unit 32 collects data indicating the surrounding situation of the inspector wearing the mounting device 30.

例えば、データ収集部32は、装着装置30が備えるカメラを介して、検査員の周辺を撮影したデータを収集してもよい。カメラは、装着装置30を装着した検査員の視線方向を撮影するように装着装置30に設置されているのが好ましい。カメラは動画像を撮影してもよいし、検査員から所定の入力があったタイミングで静止画像を撮影してもよい。 For example, the data collection unit 32 may collect data obtained by photographing the area around the inspector via a camera included in the mounting device 30. Preferably, the camera is installed on the mounting device 30 so as to photograph the line of sight of the inspector wearing the mounting device 30. The camera may take moving images, or may take still images at the timing of a predetermined input from the inspector.

また、データ収集部32は、装着装置30が備えるマイクを介して、検査員の周辺の音声データを収集してもよい。 Further, the data collection unit 32 may collect audio data around the inspector via a microphone included in the mounting device 30.

データ収集部32は、認証処理部31による認証に成功したことに応じてデータ収集を開始してもよいし、認証処理部31による認証に成功した後、検査を開始する入力がなされたことに応じてデータ収集を開始してもよいし、その他のタイミングでデータ収集を開始してもよい。データ収集部32が収集したデータ(画像データ、音声データ等)は、通信部33を介して中継装置20に送信される。 The data collection unit 32 may start data collection in response to successful authentication by the authentication processing unit 31, or may start data collection in response to successful authentication by the authentication processing unit 31, or in response to input to start an inspection after successful authentication by the authentication processing unit 31. Data collection may be started accordingly, or data collection may be started at other timings. The data (image data, audio data, etc.) collected by the data collection unit 32 is transmitted to the relay device 20 via the communication unit 33.

「中継装置20」
次に、中継装置20の機能構成を説明する。図3の機能ブロック図に示すように、中継装置20は、第1の通信部21と、中継部22と、第2の通信部23とを有する。
"Relay device 20"
Next, the functional configuration of the relay device 20 will be explained. As shown in the functional block diagram of FIG. 3, the relay device 20 includes a first communication section 21, a relay section 22, and a second communication section 23.

第1の通信部21は、近距離無線通信で装着装置30と通信する。通信規格は特段制限されず、あらゆる技術を採用できる。 The first communication unit 21 communicates with the mounting device 30 by short-range wireless communication. There are no particular restrictions on communication standards, and any technology can be adopted.

第2の通信部23は、WAN(wide area network)、LAN(local area network)等の通信ネットワーク40を介して処理装置10と通信する。 The second communication unit 23 communicates with the processing device 10 via a communication network 40 such as a wide area network (WAN) or a local area network (LAN).

中継部22は、処理装置10と装着装置30との間のデータの送受信の中継を行う。すなわち、中継部22は、装着装置30から受信したデータを処理装置10に送信する。また、中継部22は、処理装置10から受信したデータを装着装置30に送信する。装着装置30から受信するデータは、認証情報、画像、音声データ等が例示される。処理装置10から受信するデータは、認証結果、検査支援に関する情報等が例示される。 The relay unit 22 relays data transmission and reception between the processing device 10 and the mounting device 30. That is, the relay unit 22 transmits the data received from the mounting device 30 to the processing device 10. Further, the relay unit 22 transmits the data received from the processing device 10 to the mounting device 30. Examples of data received from the mounting device 30 include authentication information, images, audio data, and the like. Examples of data received from the processing device 10 include authentication results, information regarding inspection support, and the like.

「処理装置10」
次に、処理装置10の機能構成を説明する。図3の機能ブロック図に示すように、処理装置10は、通信部11と、取得部12と、検出部13と、認識部14と、判別部15と、選択部16と、処理部17と、認証部18と、記憶部19とを有する。なお、処理装置10は、記憶部19を有さなくてもよい。この場合、処理装置10と通信可能に構成された外部装置が記憶部19を備える。
"Processing device 10"
Next, the functional configuration of the processing device 10 will be explained. As shown in the functional block diagram of FIG. 3, the processing device 10 includes a communication section 11, an acquisition section 12, a detection section 13, a recognition section 14, a discrimination section 15, a selection section 16, and a processing section 17. , an authentication section 18, and a storage section 19. Note that the processing device 10 does not need to include the storage unit 19. In this case, an external device configured to be able to communicate with the processing device 10 includes the storage section 19 .

通信部11は、WAN、LAN等の通信ネットワーク40を介して中継装置20と通信する。 The communication unit 11 communicates with the relay device 20 via a communication network 40 such as a WAN or LAN.

認証部18は、中継装置20から送信されてきた認証情報を、通信部11を介して取得する。そして、認証部18は、取得した認証情報に基づき、認証処理を行う。そして、認証部18は、認証結果(認証成功/認証失敗)を、通信部11を介して中継装置20に送信する。 The authentication unit 18 acquires the authentication information transmitted from the relay device 20 via the communication unit 11. The authentication unit 18 then performs authentication processing based on the acquired authentication information. Then, the authentication unit 18 transmits the authentication result (authentication success/authentication failure) to the relay device 20 via the communication unit 11.

ここで、認証処理の一例を説明する。例えば、予め記憶部19に、正当な資格を有する正当な検査員の認証情報が登録されていてもよい。そして、認証部18は、記憶部19に記憶されている正当な検査員の認証情報と、装着装置30から送信された認証情報との照合により、認証処理を行ってもよい。この場合、装着装置30から送信された認証情報とマッチングする認証情報が記憶部19に記憶されている場合、認証成功となり、記憶されていない場合、認証失敗となる。 Here, an example of authentication processing will be explained. For example, authentication information of a valid inspector with valid qualifications may be registered in advance in the storage unit 19. The authentication unit 18 may perform the authentication process by comparing the authentication information of a valid inspector stored in the storage unit 19 with the authentication information transmitted from the mounting device 30. In this case, if the authentication information matching the authentication information transmitted from the mounting device 30 is stored in the storage unit 19, the authentication is successful, and if it is not stored, the authentication is failed.

その他、正当な資格を有する正当な検査員の認証情報に加えて、各タイミングで各装着装置30をどの検査員が利用するかを定めた利用スケジュールが予め記憶部19に記憶されていてもよい。そして、認証部18は、認証タイミングにおける各装着装置30の利用予定者を当該利用スケジュールに基づき特定し、記憶部19に記憶されている特定した利用予定者の認証情報と、装着装置30から送信された認証情報との照合により、認証処理を行ってもよい。この場合、記憶部19に記憶されている特定した利用予定者の認証情報と、装着装置30から送信された認証情報とがマッチングした場合、認証成功となり、マッチングしなかった場合、認証失敗となる。 In addition to the authentication information of legitimate inspectors with proper qualifications, a usage schedule that determines which inspectors will use each mounting device 30 at each timing may be stored in advance in the storage unit 19. . Then, the authentication unit 18 specifies a person who is scheduled to use each wearing device 30 at the authentication timing based on the usage schedule, and transmits the authentication information of the specified prospective user stored in the storage unit 19 and the wearing device 30. Authentication processing may be performed by comparing the received authentication information. In this case, if the authentication information of the identified prospective user stored in the storage unit 19 matches the authentication information transmitted from the mounting device 30, the authentication is successful; if they do not match, the authentication is failed. .

取得部12は、中継装置20から送信されてきた画像や音声データを取得する。当該画像や音声データは、装着装置30のデータ収集部32が収集したデータである。 The acquisition unit 12 acquires image and audio data transmitted from the relay device 20. The image and audio data are data collected by the data collection unit 32 of the mounting device 30.

検出部13は、取得部12が取得した画像を解析し、画像の中から検査対象の車両に付された車両識別情報表示物を検出する。車両識別情報表示物は、車両識別情報を表示する物体であり、任意の手段で各車両に付されている。車両識別情報は、車両登録番号(車両ナンバー)や、車両識別番号(VIN:vehicle identification number)等が例示される。車両識別情報表示物は、車両の前方及び後方に取り付けられているナンバープレートであってもよいし、車両識別情報が印字、手書き等された媒体(紙媒体等)であってもよい。予め、車両識別情報表示物の外観の特徴量が記憶部19に記憶されている。検出部13は、画像内から車両識別情報表示物の外観の特徴量を検出することで、画像の中から車両識別情報表示物を検出することができる。 The detection unit 13 analyzes the image acquired by the acquisition unit 12, and detects a vehicle identification information display attached to the vehicle to be inspected from the image. The vehicle identification information display object is an object that displays vehicle identification information, and is attached to each vehicle by any means. Examples of the vehicle identification information include a vehicle registration number (vehicle number), a vehicle identification number (VIN), and the like. The vehicle identification information display object may be a license plate attached to the front or rear of the vehicle, or may be a medium (such as a paper medium) on which vehicle identification information is printed or handwritten. The feature amount of the appearance of the vehicle identification information display object is stored in the storage unit 19 in advance. The detection unit 13 can detect the vehicle identification information display object from the image by detecting the feature amount of the appearance of the vehicle identification information display object from the image.

認識部14は、車両識別情報表示物が示す車両識別情報を認識する。例えば、認識部14は、OCR(optical character recognition/reader)等の文字認識技術に基づき、画像内で検出された車両識別情報表示物が示す車両識別情報を認識する。 The recognition unit 14 recognizes the vehicle identification information indicated by the vehicle identification information display object. For example, the recognition unit 14 recognizes vehicle identification information indicated by a vehicle identification information display object detected within an image based on a character recognition technology such as OCR (optical character recognition/reader).

判別部15は、認識された車両識別情報に基づき、上記車両識別情報表示物を付された検査対象の車両の車種を判別する。例えば、図5に示すように、車両識別情報と車両の車種との対応関係を示す情報が、予め記憶部19に記憶されていてもよい。そして、判別部15は、認識された車両識別情報と、記憶部19に記憶されている図5に示すような情報とに基づき、検査対象の車両の車種を判別してもよい。 The determining unit 15 determines the type of vehicle to be inspected, which has the vehicle identification information display attached thereto, based on the recognized vehicle identification information. For example, as shown in FIG. 5, information indicating the correspondence between vehicle identification information and the vehicle type may be stored in the storage unit 19 in advance. Then, the determining unit 15 may determine the model of the vehicle to be inspected based on the recognized vehicle identification information and information as shown in FIG. 5 stored in the storage unit 19.

選択部16は、判別された車種に対応した処理エンジンを選択する。処理エンジンは、装着装置30が収集したデータ(画像や音声データ)を処理し、検査支援を行うための処理エンジンであり、車種毎に用意されている。例えば、図6に示すように、処理エンジンと車両の車種との対応関係を示す情報が、予め記憶部19に記憶されていてもよい。そして、選択部16は、判別された車両の車種と、記憶部19に記憶されている図6に示すような情報とに基づき、検査対象の車両に適した処理エンジンを選択してもよい。 The selection unit 16 selects a processing engine corresponding to the determined vehicle type. The processing engine is a processing engine for processing data (image and audio data) collected by the mounting device 30 and providing inspection support, and is prepared for each vehicle type. For example, as shown in FIG. 6, information indicating the correspondence between the processing engine and the vehicle type may be stored in the storage unit 19 in advance. Then, the selection unit 16 may select a processing engine suitable for the vehicle to be inspected based on the determined vehicle type and information as shown in FIG. 6 stored in the storage unit 19.

処理部17は、装着装置30が収集した画像や音声データを処理する。処理部17は、選択された処理エンジンに基づき画像や音声データを処理することができる。以下、画像や音声データの処理の一例を説明する。 The processing unit 17 processes the image and audio data collected by the mounting device 30. The processing unit 17 can process image and audio data based on the selected processing engine. An example of processing image and audio data will be described below.

「第1の処理」
例えば、処理部17は、画像や音声データを検査に関する情報として記憶部19に記憶させる。すなわち、処理部17は、画像や音声データを記録する。
"First process"
For example, the processing unit 17 causes the storage unit 19 to store image and audio data as information regarding the examination. That is, the processing unit 17 records image and audio data.

「第2の処理」
その他の例として、処理部17は、処理エンジンに基づき画像及び/又は音声を処理して検査員に提供する情報を決定し、決定した情報を中継装置20に送信する。中継装置20は、受信した情報を装着装置30に送信する。
"Second processing"
As another example, the processing unit 17 processes images and/or audio based on the processing engine, determines information to be provided to the inspector, and transmits the determined information to the relay device 20. Relay device 20 transmits the received information to mounting device 30.

一例として、予め車種ごとに、複数の検査項目及び検査順が定められていてもよい。そして、処理部17は、車種ごとの処理エンジンで画像及び/又は音声を処理して現在の検査項目を認識し、次に行う検査項目を示す情報を検査員に提供する情報として決定してもよい。当該提供情報により、検査員は、次に行う検査項目を把握できる。また、処理部17は、次に行う検査項目に関するアドバイス情報を、検査員に提供する情報として決定してもよい。例えば、予め、各車種の検査項目ごとに、アドバイス情報が蓄積されていてもよい。そして、処理部17は、その蓄積されている情報の中から、検査中の車種の次に行う検査項目に関するアドバイス情報抽出し、出力してもよい。 As an example, a plurality of inspection items and inspection orders may be determined in advance for each vehicle type. Then, the processing unit 17 processes the image and/or audio using the processing engine for each vehicle type, recognizes the current inspection item, and determines information indicating the next inspection item to be provided to the inspector. good. The provided information allows the inspector to understand the inspection items to be performed next. Furthermore, the processing unit 17 may determine advice information regarding the next inspection item to be provided to the inspector. For example, advice information may be stored in advance for each inspection item of each vehicle type. Then, the processing unit 17 may extract advice information regarding the next inspection item of the vehicle type under inspection from the accumulated information and output it.

その他、予め、各車種の検査項目ごとに、発生し得る不具合事象、及び、その事象が発生した時の対応方法が定められていてもよい。そして、処理部17は、車種ごとの処理エンジンで画像及び/又は音声を処理して、車種ごとの不具合事象を検出してもよい。そして、処理部17は、所定の不具合を検出した場合、その事象が発生した時の対応方法を示す情報を検査員に提供する情報として決定してもよい。 In addition, malfunction events that may occur and methods of responding when such events occur may be determined in advance for each inspection item of each vehicle type. Then, the processing unit 17 may process the image and/or audio using a processing engine for each vehicle type to detect malfunction events for each vehicle type. Then, when a predetermined malfunction is detected, the processing unit 17 may determine information to be provided to the inspector that indicates how to respond when the event occurs.

「第3の処理」
その他の例として、処理部17は、処理エンジンに基づき画像及び/又は音声を処理して車両の検査を行い、検査結果を記憶部19に記憶させる。この場合、処理部17は、認証部18により認証された検査員の識別情報に紐づけて、検査結果を記憶部19に記憶させることができる。以下、処理部17が行う検査の一例を説明する。
"Third process"
As another example, the processing unit 17 processes images and/or sounds based on the processing engine to inspect the vehicle, and stores the inspection results in the storage unit 19. In this case, the processing unit 17 can store the test results in the storage unit 19 in association with the identification information of the inspector authenticated by the authentication unit 18. An example of the inspection performed by the processing unit 17 will be described below.

-スピードメータ検査-
スピードメータ検査では、計測ローラー上に車両を乗せた状態で検査員がアクセルを踏み、車両のスピードメータが所定速度(40km/h等)になったときに車外の計測器のボタンを押す。そして、検査員は、スピードメータの値と車外の計測器の値との誤差が基準に収まるか否かを確認する。
-Speedometer inspection-
In a speedometer inspection, an inspector steps on the accelerator with the vehicle placed on a measuring roller, and when the vehicle's speedometer reaches a predetermined speed (40 km/h, etc.), presses a button on a measuring device outside the vehicle. Then, the inspector checks whether the error between the speedometer value and the value of the measuring device outside the vehicle falls within the standard.

処理部17は、各車種に搭載されたスピードメータやその周辺の外観の特徴量に基づき、画像内でスピードメータを検出するとともに、そのスピードメータが示す値を特定する。また、処理部17は、予め登録された車外の計測器の外観の特徴量に基づき、画像内で当該計測器を検出するとともに、その計測器が示す値を特定する。そして、処理部17は、特定した値の誤差が基準に収まるか否かを判断し、判断結果を検査結果として記憶部19に記憶させる。 The processing unit 17 detects the speedometer in the image and specifies the value indicated by the speedometer based on the feature amount of the speedometer installed in each vehicle type and the appearance of its surroundings. Further, the processing unit 17 detects the measuring device in the image based on the feature amount of the external appearance of the measuring device outside the vehicle, which is registered in advance, and specifies the value indicated by the measuring device. Then, the processing unit 17 determines whether the error of the specified value falls within the standard, and stores the determination result in the storage unit 19 as an inspection result.

なお、処理部17は、スピードメータや車外の計測器が含まれる画像を、検査の結果に関する情報として記憶部19に記憶させてもよい。この画像に基づき、検査員がスピードメータや車外の計測器をきちんと目視して検査を行ったことを証明できる。 Note that the processing unit 17 may cause the storage unit 19 to store an image including a speedometer and a measuring device outside the vehicle as information regarding the test result. Based on this image, it can be proven that the inspector properly inspected the speedometer and other measuring instruments outside the vehicle.

また、検査員は、装着装置30が備える任意の入力手段で、自身が判断した検査結果(OK/NG)を入力してもよい。そして、処理部17は、検査員の検査結果を、コンピュータの検査結果に紐づけて記憶部19に記憶させてもよい。 Further, the inspector may input the inspection result (OK/NG) determined by the inspector using any input means provided in the mounting device 30. Then, the processing unit 17 may store the inspection results of the inspector in the storage unit 19 in association with the inspection results of the computer.

-ステアリングラックブーツ、ドライブシャフトブーツ検査-
ステアリングラックブーツ、ドライブシャフトブーツ検査では、検査員が目視でヒビ、破け、損傷、汚れ等がステアリングラックブーツ、ドライブシャフトブーツにないか確認する。
-Steering rack boot, drive shaft boot inspection-
During the steering rack boot and drive shaft boot inspection, the inspector visually checks the steering rack boot and drive shaft boot for cracks, tears, damage, dirt, etc.

処理部17は、各車種のステアリングラックブーツやドライブシャフトブーツやその周辺の外観の特徴量に基づき、画像内でステアリングラックブーツやドライブシャフトブーツを検出する。そして、処理部17は、予め登録されたヒビ、破け、損傷、汚れ等の不具合の外観の特徴量に基づき、それら不具合がステアリングラックブーツやドライブシャフトブーツにないか判断し、判断結果を検査結果として記憶部19に記憶させる。 The processing unit 17 detects the steering rack boot and drive shaft boot in the image based on the feature amount of the appearance of the steering rack boot and drive shaft boot of each vehicle type and the surrounding area. Then, the processing unit 17 determines whether or not the steering rack boot or drive shaft boot has any defects based on the pre-registered external appearance characteristics of defects such as cracks, tears, damage, dirt, etc., and converts the judgment result into the inspection result. It is stored in the storage unit 19 as .

なお、処理部17は、ステアリングラックブーツやドライブシャフトブーツが含まれる画像を、検査の結果に関する情報として記憶部19に記憶させてもよい。また、処理部17は、検出した不具合が含まれる画像を、検査の結果に関する情報として記憶部19に記憶させてもよい。この画像に基づき、検査員がステアリングラックブーツやドライブシャフトブーツをきちんと目視して検査を行ったことを証明できる。 Note that the processing unit 17 may cause the storage unit 19 to store an image including the steering rack boot and the drive shaft boot as information regarding the inspection result. Further, the processing unit 17 may cause the storage unit 19 to store an image including the detected defect as information regarding the inspection result. Based on this image, it can be proven that the inspector properly visually inspected the steering rack boot and drive shaft boot.

また、検査員は、装着装置30が備える任意の入力手段で、自身が判断した検査結果(OK/NG)を入力してもよい。そして、処理部17は、検査員の検査結果を、コンピュータの検査結果に紐づけて記憶部19に記憶させてもよい。 Further, the inspector may input the inspection result (OK/NG) determined by the inspector using any input means provided in the mounting device 30. Then, the processing unit 17 may store the inspection results of the inspector in the storage unit 19 in association with the inspection results of the computer.

-液漏れ検査-
液漏れ検査では、検査員が目視で、水や油などの液漏れがないか確認する。
-Liquid leakage test-
In liquid leakage inspection, inspectors visually check for leaks of liquids such as water or oil.

処理部17は、各車種の液漏れが発生し得る箇所やその周辺の外観の特徴量に基づき、画像内で当該箇所を検出する。そして、処理部17は、検出した当該箇所での液漏れ有無を判定し、判定結果を検査結果として記憶部19に記憶させる。例えば、液漏れ時の外観の特徴量が予め記憶部19に登録されており、処理部17は、当該特徴量に基づき液漏れ有無を判定する。 The processing unit 17 detects the location in the image based on the feature amount of the location where fluid leakage may occur in each vehicle type and the appearance of the surrounding area. Then, the processing unit 17 determines whether or not there is a liquid leak at the detected location, and stores the determination result in the storage unit 19 as an inspection result. For example, the feature amount of the external appearance at the time of liquid leakage is registered in advance in the storage unit 19, and the processing unit 17 determines whether or not there is a liquid leakage based on the feature amount.

なお、処理部17は、液漏れが発生し得る箇所が含まれる画像を、検査の結果に関する情報として記憶部19に記憶させてもよい。また、処理部17は、検出した液漏れ発生箇所が含まれる画像を、検査の結果に関する情報として記憶部19に記憶させてもよい。この画像に基づき、検査員が「液漏れが発生し得る箇所」をきちんと目視して検査を行ったことを証明できる。 Note that the processing unit 17 may cause the storage unit 19 to store an image including a location where liquid leakage may occur as information regarding the inspection result. Further, the processing unit 17 may cause the storage unit 19 to store an image including the detected liquid leakage location as information regarding the inspection result. Based on this image, it can be proven that the inspector properly visually inspected the ``locations where liquid leakage could occur''.

また、検査員は、装着装置30が備える任意の入力手段で、自身が判断した検査結果(OK/NG)を入力してもよい。そして、処理部17は、検査員の検査結果を、コンピュータの検査結果に紐づけて記憶部19に記憶させてもよい。 Further, the inspector may input the inspection result (OK/NG) determined by the inspector using any input means provided in the mounting device 30. Then, the processing unit 17 may store the inspection results of the inspector in the storage unit 19 in association with the inspection results of the computer.

-フロントガラス検査-
フロントガラス検査では、検査員が目視で、フロントガラスにおけるヒビ、損傷、汚れ等の不具合を検出する。
-Windshield inspection-
In a windshield inspection, an inspector visually detects defects such as cracks, damage, and dirt on the windshield.

処理部17は、各車種のフロントガラスやその周辺の外観の特徴量に基づき、画像内でフロントガラスを検出する。そして、処理部17は、予め登録されたヒビ、損傷、汚れ等の不具合の外観の特徴量に基づき、それら不具合がフロントガラスにないか判断し、判断結果を検査結果として記憶部19に記憶させる。 The processing unit 17 detects the windshield in the image based on the external appearance characteristics of the windshield and its surroundings of each vehicle type. Then, the processing unit 17 determines whether or not the windshield has any defects such as cracks, damage, dirt, etc., based on the external appearance characteristics of defects such as cracks, damage, and dirt registered in advance, and stores the determination results in the storage unit 19 as inspection results. .

なお、処理部17は、フロントガラスが含まれる画像を、検査の結果に関する情報として記憶部19に記憶させてもよい。また、処理部17は、検出した不具合が含まれる画像を、検査の結果に関する情報として記憶部19に記憶させてもよい。この画像に基づき、検査員がフロントガラスをきちんと目視して検査を行ったことを証明できる。 Note that the processing unit 17 may cause the storage unit 19 to store an image including the windshield as information regarding the test results. Further, the processing unit 17 may cause the storage unit 19 to store an image including the detected defect as information regarding the inspection result. Based on this image, it can be proven that the inspector properly visually inspected the windshield.

また、検査員は、装着装置30が備える任意の入力手段で、自身が判断した検査結果(OK/NG)を入力してもよい。そして、処理部17は、検査員の検査結果を、コンピュータの検査結果に紐づけて記憶部19に記憶させてもよい。 Further, the inspector may input the inspection result (OK/NG) determined by the inspector using any input means provided in the mounting device 30. Then, the processing unit 17 may store the inspection results of the inspector in the storage unit 19 in association with the inspection results of the computer.

-灯火装置検査-
灯火装置検査では、検査員が目視でライトが灯火することを確認する。
-Lighting equipment inspection-
During the lighting system inspection, the inspector visually confirms that the lights are on.

処理部17は、各車種のライト(ヘッドライト、スモールライト、ウインカー、フォグライト、ブレーキライト、バックライト、ナンバーライト、室内ライト等)やその周辺の外観の特徴量に基づき、画像内でライトを検出する。そして、処理部17は、そのライトが灯火したか判定し、判定結果を検査結果として記憶部19に記憶させる。 The processing unit 17 selects the lights in the image based on the features of the lights of each vehicle type (headlights, small lights, turn signals, fog lights, brake lights, back lights, number lights, interior lights, etc.) and the surrounding exterior. To detect. Then, the processing unit 17 determines whether the light is turned on or not, and stores the determination result in the storage unit 19 as an inspection result.

なお、処理部17は、ライトが含まれる画像を、検査の結果に関する情報として記憶部19に記憶させてもよい。また、処理部17は、灯火したライトが含まれる画像を、検査の結果に関する情報として記憶部19に記憶させてもよい。この画像に基づき、検査員がライトをきちんと目視して検査を行ったことを証明できる。 Note that the processing unit 17 may cause the storage unit 19 to store the image including the light as information regarding the test result. Further, the processing unit 17 may cause the storage unit 19 to store an image including the lit light as information regarding the test result. Based on this image, it can be proven that the inspector properly visually inspected the lights.

また、検査員は、装着装置30が備える任意の入力手段で、自身が判断した検査結果(OK/NG)を入力してもよい。そして、処理部17は、検査員の検査結果を、コンピュータの検査結果に紐づけて記憶部19に記憶させてもよい。 Further, the inspector may input the inspection result (OK/NG) determined by the inspector using any input means provided in the mounting device 30. Then, the processing unit 17 may store the inspection results of the inspector in the storage unit 19 in association with the inspection results of the computer.

-内装点検-
内装点検では、検査員は、ハンドル、ブレーキペダル、クラッチペダル、メーターの警告灯、発煙筒等の内装部品の検査を行う。
-Interior inspection-
During interior inspections, inspectors inspect interior parts such as steering wheels, brake pedals, clutch pedals, meter warning lights, and smoke canisters.

処理部17は、各車種の内装部品やその周辺の外観の特徴量に基づき、画像内で内装部品を検出する。そして、処理部17は、各内装部品に対応した検査を行う。例えば、処理部17は、ハンドルのセンターの位置が適正か否かを判定する。また、処理部17は、ブレーキペダルを踏んだ時の床との隙間が適正か判定する。また、処理部17は、クラッチペダルを踏んだ時の床との隙間が適正か判定する。また、処理部17は、メーターの警告灯が灯火したか判定する。また、処理部17は、発煙筒が存在するか判定する。そして、処理部17は、これらの判定結果を検査結果として記憶部19に記憶させる。 The processing unit 17 detects interior parts in the image based on the feature amount of the interior parts of each vehicle type and the external appearance of the surroundings. The processing unit 17 then performs an inspection corresponding to each interior component. For example, the processing unit 17 determines whether the center position of the handle is appropriate. The processing unit 17 also determines whether the gap with the floor when the brake pedal is depressed is appropriate. The processing unit 17 also determines whether the gap between the clutch pedal and the floor when the clutch pedal is depressed is appropriate. The processing unit 17 also determines whether the meter's warning light is lit. The processing unit 17 also determines whether a smoke bomb is present. Then, the processing unit 17 stores these determination results in the storage unit 19 as inspection results.

なお、処理部17は、内装部品が含まれる画像を、検査の結果に関する情報として記憶部19に記憶させてもよい。また、処理部17は、踏まれた状態のブレーキペダルや、踏まれた状態のクラッチペダルや、灯火した状態のメーターの警告灯等が含まれる画像を、検査の結果に関する情報として記憶部19に記憶させてもよい。この画像に基づき、検査員が内装部品をきちんと目視して検査を行ったことを証明できる。 Note that the processing unit 17 may cause the storage unit 19 to store an image including the interior parts as information regarding the inspection result. The processing unit 17 also stores images including the brake pedal being depressed, the clutch pedal being depressed, the meter warning light being lit, etc., in the storage unit 19 as information regarding the inspection results. It may be memorized. Based on this image, it can be proven that the inspector properly visually inspected the interior parts.

また、検査員は、装着装置30が備える任意の入力手段で、自身が判断した検査結果(OK/NG)を入力してもよい。そして、処理部17は、検査員の検査結果を、コンピュータの検査結果に紐づけて記憶部19に記憶させてもよい。 Further, the inspector may input the inspection result (OK/NG) determined by the inspector using any input means provided in the mounting device 30. Then, the processing unit 17 may store the inspection results of the inspector in the storage unit 19 in association with the inspection results of the computer.

-ホーン検査-
ホーン検査では、検査員はホーンを鳴らし、ホーンが正常に機能しているか確認する。
-Horn inspection-
During a horn inspection, the inspector sounds the horn to confirm that it is functioning properly.

処理部17は、各車種のホーンの音の特徴量に基づき、音声データ内でホーンの音を検出する。そして、処理部17は、ホーンの音を検出したか否かを、検査結果として記憶部19に記憶させる。また、処理部17は、ホーンの音の音圧測定を行い、音圧が基準を満たすか判定し、検査結果として記憶部19に記憶させてもよい。 The processing unit 17 detects the sound of a horn in the audio data based on the feature amount of the sound of the horn of each vehicle type. Then, the processing unit 17 causes the storage unit 19 to store whether or not the horn sound has been detected as a test result. Further, the processing unit 17 may measure the sound pressure of the horn sound, determine whether the sound pressure satisfies a standard, and store the result in the storage unit 19 as a test result.

なお、処理部17は、ホーンの音を検出した箇所の音声データを、検査の結果に関する情報として記憶部19に記憶させてもよい。この音声データに基づき、検査員がホーンをきちんと鳴らして検査を行ったことを証明できる。 Note that the processing unit 17 may cause the storage unit 19 to store audio data at the location where the horn sound is detected as information regarding the test results. Based on this audio data, it can be proven that the inspector properly sounded the horn and conducted the inspection.

また、検査員は、装着装置30が備える任意の入力手段で、自身が判断した検査結果(OK/NG)を入力してもよい。そして、処理部17は、検査員の検査結果を、コンピュータの検査結果に紐づけて記憶部19に記憶させてもよい。 Further, the inspector may input the inspection result (OK/NG) determined by the inspector using any input means provided in the mounting device 30. Then, the processing unit 17 may store the inspection results of the inspector in the storage unit 19 in association with the inspection results of the computer.

ところで、処理部17は、処理エンジンに基づく画像や音声データの処理を行っていない状態の時に、画像の中から車両識別情報表示物が検出されたことに応じて、選択された処理エンジンに基づく画像や音声データの処理(上述した第2及び第3の処理の中の少なくとも1つ)を開始することができる。そして、処理部17は、画像に基づき所定の処理終了イベントが検出されたことに応じて、選択された処理エンジンに基づく画像や音声データの処理を終了することができる。 By the way, when the processing unit 17 is not processing image or audio data based on the processing engine, in response to the detection of a vehicle identification information display object from the image, the processing unit 17 performs processing based on the selected processing engine. Image and audio data processing (at least one of the second and third processing described above) can be started. Then, the processing unit 17 can end the processing of the image and audio data based on the selected processing engine in response to the detection of a predetermined processing end event based on the image.

また、処理部17は、処理エンジンに基づく画像や音声データの処理を行っていない状態の時に、画像の中から車両識別情報表示物が検出されたことに応じて、画像や音声データの記録(上述した第1の処理)を開始することができる。そして、処理部17は、画像に基づき所定の処理終了イベントが検出されたことに応じて、画像や音声データの記録(上述した第1の処理)を終了することができる。 Furthermore, when the processing engine is not processing image or audio data, the processing unit 17 records the image or audio data in response to detecting a vehicle identification information display object from the image. The first process described above can be started. Then, the processing unit 17 can end the recording of the image and audio data (the first process described above) in response to the detection of a predetermined process end event based on the image.

処理終了イベントは、例えば検査員が記入する記入対象物への署名の検出である。検査員は、各種検査を行いながら、検査結果を記入する記入用紙(記入対象物)に検査結果を記入していく。そして、すべての検査が終了すると、その記入用紙に含まれる署名欄に署名を行う。この場合、装着装置30のカメラが生成する画像の中には、図7に示すように署名欄に署名した記入用紙を含む画像が含まれる。 The processing end event is, for example, detection of a signature on an object to be filled in by an inspector. While performing various inspections, the inspector writes the inspection results on the entry form (object to be filled in). When all inspections are completed, the applicant signs the signature space included in the entry form. In this case, the images generated by the camera of the mounting device 30 include an image including a completed form with a signature in the signature field, as shown in FIG.

処理部17は、予め記憶部19に記憶されている記入対象物の外観の特徴量や、署名欄の外観の特徴量に基づき、画像内から記入対象物や署名欄を検出する。そして、処理部17は、署名付きの署名欄を検出することで、検査員による記入対象物への署名を検出する。 The processing unit 17 detects the object to be filled in and the signature field from within the image based on the feature amount of the appearance of the object to be filled in and the feature amount of the appearance of the signature field, which are stored in advance in the storage section 19. Then, the processing unit 17 detects the inspector's signature on the object by detecting the signature column with the signature.

次に、図8のシーケンス図を用いて、処理装置10、中継装置20及び装着装置30を含む検査支援システムの処理の流れの一例を説明する。 Next, an example of the processing flow of the inspection support system including the processing device 10, the relay device 20, and the mounting device 30 will be described using the sequence diagram of FIG.

まず、装着装置30は、認証情報の入力を受付けると(S100)、受付けた認証情報を中継装置20に送信する(S101)。中継装置20は、受信した認証情報を処理装置10に送信する(S102)。 First, when the mounting device 30 receives input of authentication information (S100), it transmits the received authentication information to the relay device 20 (S101). The relay device 20 transmits the received authentication information to the processing device 10 (S102).

処理装置10は、受信した認証情報に基づき認証処理を行い(S103)、認証結果を中継装置20に送信する(S104)。中継装置20は、受信した認証結果を装着装置30に送信する(S105)。ここでは、認証に成功したものとする。 The processing device 10 performs authentication processing based on the received authentication information (S103), and transmits the authentication result to the relay device 20 (S104). The relay device 20 transmits the received authentication result to the mounting device 30 (S105). Here, it is assumed that the authentication was successful.

装着装置30は、認証に成功した旨の認証結果を受信した後、検査を開始する入力待ちとなる。そして、装着装置30は、検査を開始する入力を受付けると(S106)、カメラによる動画像の撮影、及び、マイクによる集音を開始する(S107)。そして、装着装置30は、収集したデータ(画像や音声データ)をリアルタイム処理で中継装置20に送信する処理を開始する(S108)。なお、装着装置30は、S120の撮影終了タイミングまで、カメラによる動画像の撮影、マイクによる集音、中継装置20への送信を継続する。 After receiving the authentication result indicating that the authentication was successful, the mounting device 30 waits for an input to start the inspection. When the mounting device 30 receives the input to start the test (S106), it starts capturing moving images with the camera and collecting sound with the microphone (S107). Then, the mounting device 30 starts processing to transmit the collected data (image and audio data) to the relay device 20 in real time (S108). Note that the mounting device 30 continues to capture moving images with the camera, collect sound with the microphone, and transmit to the relay device 20 until the timing of finishing the capturing in S120.

中継装置20は、装着装置30から受信したデータ(画像や音声データ)をリアルタイム処理で処理装置10に送信する(S109)。なお、中継装置20は、装着装置30からのデータ(画像や音声データ)の受信が継続している間、処理装置10への送信を継続する。 The relay device 20 transmits the data (image and audio data) received from the mounting device 30 to the processing device 10 in real time (S109). Note that while the relay device 20 continues to receive data (image and audio data) from the mounting device 30, it continues to transmit data to the processing device 10.

処理装置10は、受信した画像の中から車両識別情報表示物を検出する処理を行う。そして、画像の中から車両識別情報表示物が検出されない場合(S110のNo)、次の画像待ちとなり(S111)、次の画像を取得すると(S111のYes)、再び、画像の中から車両識別情報表示物を検出する処理を行う。 The processing device 10 performs a process of detecting a vehicle identification information display object from the received image. If the vehicle identification information display object is not detected from the image (No in S110), the process waits for the next image (S111), and when the next image is acquired (Yes in S111), the vehicle identification information is again detected from the image. Performs processing to detect information display objects.

そして、画像の中から車両識別情報表示物が検出されると(S110のYes)、処理装置10は、その車両識別情報表示物が示す車両識別情報を認識し(S112)、認識した車両識別情報に基づき、車両識別情報表示物を付された検査対象の車両の車種を判別する(S113)。そして、処理装置10は、判別された車種に対応した処理エンジンを選択し(S114)、選択した処理エンジンに基づく画像及び音声データの処理(上述した第2及び第3の処理の中の少なくとも1つ)や、画像及び音声データの記録(上述した第1の処理)を開始する(S115)。図8では明示していないが、選択した処理エンジンに基づく画像及び音声データの処理を継続している間、処理装置10と中継装置20と装着装置30との間で、データの送受信が行われる。 Then, when the vehicle identification information display object is detected from the image (S110: Yes), the processing device 10 recognizes the vehicle identification information indicated by the vehicle identification information display object (S112), and the recognized vehicle identification information Based on this, the model of the vehicle to be inspected to which the vehicle identification information display object is attached is determined (S113). Then, the processing device 10 selects a processing engine corresponding to the determined vehicle type (S114), and performs image and audio data processing based on the selected processing engine (at least one of the second and third processing described above). 1), and recording of image and audio data (the first process described above) is started (S115). Although not explicitly shown in FIG. 8, data is transmitted and received between the processing device 10, the relay device 20, and the mounting device 30 while the processing of image and audio data based on the selected processing engine continues. .

また、処理装置10は、画像に基づく処理終了イベントの検出(記入対象物への署名の検出等)を開始する。処理装置10は、処理終了イベントを検出するまで、選択した処理エンジンに基づく画像及び音声データの処理や、画像及び音声データの記録を継続する。 Furthermore, the processing device 10 starts detecting a processing end event based on the image (detecting a signature on an object to be filled in, etc.). The processing device 10 continues processing image and audio data and recording image and audio data based on the selected processing engine until a processing end event is detected.

そして、処理装置10は、処理終了イベントを検出すると(S116のYes)、処理エンジンに基づく画像及び音声データの処理や、画像及び音声データの記録を終了する(S117)。そして、処理装置10は、処理終了を中継装置20に通知する(S118)。次いで、中継装置20は、処理終了を装着装置30に通知する(S119)。 When the processing device 10 detects a processing end event (Yes in S116), it ends processing of image and audio data based on the processing engine and recording of image and audio data (S117). Then, the processing device 10 notifies the relay device 20 of the end of the process (S118). Next, the relay device 20 notifies the mounting device 30 of the end of the process (S119).

装着装置30は、処理終了通知に応じて、カメラによる動画像の撮影、マイクによる集音、中継装置20へのこれらのデータの送信を終了する(S120)。そして、装着装置30は、検査を開始する入力待ちとなる(S121)。 In response to the processing end notification, the mounting device 30 ends capturing a moving image with a camera, collecting sound with a microphone, and transmitting these data to the relay device 20 (S120). The mounting device 30 then waits for an input to start the test (S121).

ここで、本実施形態の変形例を説明する。上記実施形態では、処理装置10は、装着装置30が有するカメラやマイクで収集されたデータ(画像や音声データ)を取得し、選択された処理エンジンで処理した。変形例では、処理装置10は、装着装置30が有するカメラやマイクで収集されたデータ(画像や音声データ)に加えて、その他の箇所に設置された外部カメラや外部マイクで収集されたデータ(画像や音声データ)を取得し、選択された処理エンジンで処理してもよい。 Here, a modification of this embodiment will be described. In the embodiment described above, the processing device 10 acquires data (image and audio data) collected by the camera and microphone included in the mounting device 30, and processes the data using the selected processing engine. In the modified example, the processing device 10 collects data (image and audio data) collected by the camera and microphone of the mounting device 30, as well as data (image and audio data) collected by external cameras and external microphones installed at other locations. (image or audio data) may be acquired and processed by the selected processing engine.

例えば、図9に示すように、車両の検査場所に外部カメラや外部マイクが設置されてもよい。そして、処理装置10は、このような外部カメラや外部マイクで収集されたデータ(画像や音声データ)を取得し、選択された処理エンジンで処理してもよい。なお、処理装置10は、装着装置30が有するカメラが生成した画像の中から車両識別情報表示物が検出されたことに応じて、外部カメラや外部マイクで収集されたデータ(画像や音声データ)の処理や記録を開始する。そして、処理装置10は、装着装置30が有するカメラが生成した画像に基づき所定の処理終了イベントが検出されたことに応じて、外部カメラや外部マイクで収集されたデータ(画像や音声データ)の処理や記録を終了する。 For example, as shown in FIG. 9, an external camera and an external microphone may be installed at the vehicle inspection location. Then, the processing device 10 may acquire data (image and audio data) collected by such an external camera or external microphone, and process it using the selected processing engine. Note that the processing device 10 collects data (image and audio data) collected by an external camera and an external microphone in response to detection of a vehicle identification information display object from an image generated by a camera included in the mounting device 30. start processing and recording. The processing device 10 then processes the data (image and audio data) collected by the external camera and external microphone in response to the detection of a predetermined processing end event based on the image generated by the camera included in the mounting device 30. Finish processing or recording.

なお、予め複数の検査場所各々を識別する情報と、各検査場所に設置された外部カメラや外部マイクを識別する情報とを紐づけておいてもよい。そして、処理装置10は、各装着装置30を装着した検査員が位置する検査場所を示す情報を任意の手段で取得することで、各検査員の検査の支援に利用する外部カメラや外部マイクを特定してもよい。 Note that information identifying each of the plurality of inspection locations may be linked in advance with information identifying an external camera or an external microphone installed at each inspection location. Then, the processing device 10 acquires, by any means, information indicating the inspection location where the inspector wearing each attachment device 30 is located, and uses the external camera and external microphone used to support the inspection of each inspector. May be specified.

また、中継装置20は、ディスプレイやスピーカを有し、装着装置30から受信した画像や音声データを出力してもよい。例えば、検査員を監督する監督者は、中継装置20から出力される画像や音声データに基づき、各検査員の検査を監視する。なお、監督者は、中継装置20を介して検査員にアドバイスを送ることができてもよい。例えば、監督者が、中継装置20の入力装置を介して所定の装着装置30(複数の装着装置30の中の1つ)を指定し、備え付けのマイクで発話すると、マイクで集音された音声が指定された装着装置30に送信され、出力されてもよい。 Further, the relay device 20 may include a display and a speaker, and may output image and audio data received from the mounting device 30. For example, a supervisor who supervises the inspectors monitors each inspector's inspection based on image and audio data output from the relay device 20. Note that the supervisor may be able to send advice to the inspector via the relay device 20. For example, when a supervisor specifies a predetermined wearing device 30 (one of the plurality of wearing devices 30) through the input device of the relay device 20 and speaks with the built-in microphone, the sound collected by the microphone is may be transmitted to the designated mounting device 30 and output.

また、処理装置10は、装着装置30から送信された画像を、検査車両と同じ車種の過去の検査データと比較してもよい。そして、不合格時の過去の検査データと一致性が高い場合、処理装置10は、検査結果として「NG」を決定してもよい。 Furthermore, the processing device 10 may compare the image transmitted from the mounting device 30 with past inspection data of the same vehicle type as the inspected vehicle. If there is a high degree of consistency with past inspection data at the time of failure, the processing device 10 may determine "NG" as the inspection result.

また、処理装置10は、装着装置30から送信された画像や音声データに基づき判定した検査結果を、記憶部19に記憶させるとともに、中継装置20を介して装着装置30に送信してもよい。装着装置30は、受信した検査結果を出力する。検査員は、処理装置10の検査結果を参考にして、検査を行うことができる。例えば、検査員は、処理装置10が問題ありと判定した箇所を特に注意して検査することができる。 Further, the processing device 10 may cause the storage unit 19 to store the test results determined based on the image and audio data transmitted from the mounting device 30, and may also transmit the test results to the mounting device 30 via the relay device 20. The mounting device 30 outputs the received test results. An inspector can conduct an inspection by referring to the inspection results of the processing device 10. For example, the inspector can inspect the parts that the processing device 10 has determined to be problematic, paying special attention to them.

また、処理装置10は、装着装置30から送信された画像の明るさが基準レベル以上か判定してもよい。そして、基準レベル未満と判断した場合、処理装置10は、ライトを点灯させる指示を、中継装置20を介して装着装置30に送信してもよい。装着装置30は、当該指示に応じてライトを点灯する。 Furthermore, the processing device 10 may determine whether the brightness of the image transmitted from the mounting device 30 is equal to or higher than a reference level. If the processing device 10 determines that it is less than the reference level, the processing device 10 may transmit an instruction to turn on the light to the mounting device 30 via the relay device 20. The mounting device 30 turns on the light in response to the instruction.

また、予め車種ごとに、複数の検査項目及び検査順が定められている場合、処理装置10は、装着装置30から送信された画像に基づき現在の検査及び次の検査を特定してもよい。そして、装着装置30は、所定の検査(例:車両の下に潜り込んで行う検査等)が始まるタイミングで、ライトを点灯させる指示を、中継装置20を介して装着装置30に送信してもよい。そして、装着装置30は、他の所定の検査が始まるタイミングで、ライトを消灯させる指示を、中継装置20を介して装着装置30に送信してもよい。装着装置30は、当該指示に応じてライトを点灯したり消灯したりする。 Further, if a plurality of inspection items and inspection orders are determined in advance for each vehicle type, the processing device 10 may specify the current inspection and the next inspection based on the image transmitted from the mounting device 30. Then, the mounting device 30 may transmit an instruction to turn on the light to the mounting device 30 via the relay device 20 at the timing when a predetermined inspection (for example, an inspection performed by crawling under the vehicle) starts. . Then, the mounting device 30 may transmit an instruction to turn off the light to the mounting device 30 via the relay device 20 at the timing when another predetermined test starts. The mounting device 30 turns on or off the light according to the instruction.

また、検査員は、装着装置30に所定の入力を行うことで、装着装置30と所定の相手(監督者、営業マン、顧客等)の通話端末(スマートフォン、タブレット端末、PC等)とを通信させ、所定の相手と通話できてもよい。例えば、ビデオ通話機能により、装着装置30のカメラが生成した画像を通相手の通話端末に送信できてもよい。この場合、検査員は、不具合を見つけるごとに所定の相手と通話し、それに対する対応方法を確認することができる。 In addition, the inspector communicates between the mounting device 30 and a call terminal (smartphone, tablet terminal, PC, etc.) of a predetermined party (supervisor, salesperson, customer, etc.) by inputting a predetermined input into the mounting device 30. You may also be able to talk to a predetermined person. For example, an image generated by the camera of the wearing device 30 may be transmitted to the other party's call terminal using a video call function. In this case, each time an inspector finds a problem, he or she can talk to a predetermined person and confirm how to deal with it.

また、検査員は、装着装置30が有する任意の入力手段で、装着装置30が収集した画像や音声データにタグを入れる指示入力が行えてもよい。例えば、カメラの前での所定のジェスチャーや音声で当該指示入力を行う構成の場合、処理装置10は、装着装置30から送信された画像や音声データの中から、当該所定のジェスチャーや所定の音声を検出する処理を行う。そして、当該所定のジェスチャーや所定の音声を検出すると、処理装置10は、その検出タイミングを特定する情報を、画像や音声データに紐づけて記憶部19に記憶させる。 Further, the inspector may be able to input an instruction to add a tag to the image or audio data collected by the mounting device 30 using any input means included in the mounting device 30. For example, in the case of a configuration in which the instruction is input using a predetermined gesture or voice in front of a camera, the processing device 10 inputs the predetermined gesture or voice from among the image and voice data transmitted from the wearing device 30. Perform processing to detect. When the predetermined gesture or the predetermined voice is detected, the processing device 10 causes the storage unit 19 to store information specifying the detection timing in association with the image or voice data.

また、処理装置10は、すべての検査項目の検査が終了すると、記憶部19に記憶した検査結果をプリントアウトしてもよい。そして、検査員は、このプリントアウトされた記録表を確認し、署名欄に署名してもよい。装着装置30は、カメラでこの記録表を撮影し、中継装置20を介して処理装置10に送信してもよい。そして、このプリントアウトされた記録表(記入対象物)への署名の検出を、上述した処理終了イベントとしてもよい。また、処理装置10は、記録表の画像を取得すると、印字されている車台番号から、正しい記録表であることを確認してもよい。また、処理装置10は、印字内容と、記憶部19に記憶されている内容とを照合することで、記録表の内容が改ざんされていないか確認してもよい。また、処理装置10は、署名欄に記入された署名と、予め記憶部19に記憶されている正当な検査員の署名との照合により、検査員本人が署名したことを確認してもよい。 Further, the processing device 10 may print out the test results stored in the storage unit 19 when all the test items have been tested. The inspector may then check this printed record sheet and sign in the signature space. The mounting device 30 may photograph this record sheet with a camera and transmit it to the processing device 10 via the relay device 20. Detection of a signature on this printed out record sheet (object to be filled in) may be the above-mentioned processing end event. Further, when the processing device 10 acquires the image of the record sheet, it may confirm that the record sheet is correct from the printed vehicle chassis number. Furthermore, the processing device 10 may check whether the contents of the record sheet have been tampered with by comparing the printed contents with the contents stored in the storage section 19. Further, the processing device 10 may confirm that the inspector himself/herself has signed the signature by comparing the signature written in the signature field with the signature of a valid inspector stored in advance in the storage unit 19.

また、装着装置30は、WANやLAN等の通信ネットワーク40に接続可能であってもよい。そして、装着装置30は、中継装置20を介さず、処理装置10と通信してもよい。この場合、検査支援システムは中継装置20を有さなくてもよい。 Further, the mounting device 30 may be connectable to a communication network 40 such as a WAN or a LAN. The mounting device 30 may communicate with the processing device 10 without using the relay device 20. In this case, the inspection support system does not need to include the relay device 20.

また、記憶部19に記憶された検査時の画像や音声データは、車両の検査を行う推定モデルを生成するための学習データとして利用されてもよい。 Further, the image and audio data at the time of inspection stored in the storage unit 19 may be used as learning data for generating an estimation model for inspecting a vehicle.

以上説明した本実施形態の検査支援システムによれば、車種ごとに画像や音声データを処理するための処理エンジンを用意しておき、検査車両の車種に応じた処理エンジンで画像や音声データを処理して、検査支援を行うことができる。このため、検査車両の車種に応じた適切な処理を実行して、検査支援を行うことができる。 According to the inspection support system of this embodiment described above, a processing engine for processing image and audio data is prepared for each vehicle type, and the image and audio data are processed by the processing engine according to the vehicle type of the inspection vehicle. Inspection support can be provided. Therefore, inspection support can be provided by executing appropriate processing according to the type of vehicle to be inspected.

また、本実施形態の検査支援システムによれば、画像に基づき検査車両の車種を特定し、自動的に適切な処理エンジンを選択することができる。このため、検査員が検査車両の車種把握し、車種を入力したり、処理エンジンを選択したりする場合に比べて、検査員の作業負担を軽減できる。 Further, according to the inspection support system of this embodiment, it is possible to identify the model of the inspection vehicle based on the image and automatically select an appropriate processing engine. Therefore, the work burden on the inspector can be reduced compared to the case where the inspector knows the model of the vehicle to be inspected and inputs the model or selects the processing engine.

また、本実施形態の検査支援システムによれば、画像に基づき処理開始タイミングを検出し、その検出に応じて、選択された処理エンジンに基づく画像の処理を開始したり、画像や音声データの記録を開始したりできる。そして、本実施形態の検査支援システムによれば、画像に基づき処理終了タイミングを検出し、その検出に応じて、選択された処理エンジンに基づく画像の処理を終了したり、画像や音声データの記録を終了したりできる。このため、不要なタイミングでの処理や記録を回避し、コンピュータの処理負担や、記憶装置への負担を軽減できる。また、検査支援システムが、自動的に処理開始タイミング及び処理終了タイミングを検出するので、当該タイミングを検査員が入力する場合に比べて検査員の作業負担を軽減できる。 Further, according to the inspection support system of this embodiment, the processing start timing is detected based on the image, and in response to the detection, image processing based on the selected processing engine is started, and image and audio data recording is performed. You can also start. According to the inspection support system of this embodiment, the processing end timing is detected based on the image, and depending on the detection, the image processing based on the selected processing engine is ended, or the image or audio data is recorded. You can also terminate the . Therefore, processing and recording at unnecessary timings can be avoided, and the processing load on the computer and the load on the storage device can be reduced. Furthermore, since the inspection support system automatically detects the processing start timing and processing end timing, the workload of the inspector can be reduced compared to the case where the inspector inputs the timing.

また、検査員が記入する記入対象物への署名の検出を処理終了タイミングとして検出する本実施形態の検査支援システムによれば、適切なタイミングを処理終了タイミングとして検出することが可能となる。 Further, according to the inspection support system of the present embodiment, which detects the detection of a signature on the object to be filled in by the inspector as the timing for ending the process, it becomes possible to detect an appropriate timing as the timing for ending the process.

また、本実施形態の検査支援システムによれば、処理装置10が検査を行い、その検査結果を参考情報として検査員に提供することができる。検査員は当該参考情報に基づき様々な気づきが得られ、検査を高精度に行うことが可能となる。 Further, according to the inspection support system of this embodiment, the processing device 10 can perform the inspection and provide the inspection results to the inspector as reference information. The inspector can gain various insights based on the reference information and can perform inspections with high precision.

また、本実施形態の検査支援システムによれば、検査車両の車種に応じた適切な情報(アドバイス)を検査員に提供することができる。検査中の車両の車種に関わらず同じ情報が検査員に提供されるシステムの場合、例えば、検査項目Aを含まない車種の車両を検査している検査員に対して、検査項目Aの指示をしてしまう等の不都合が発生し得る。このような精度が低い情報が提供されてしまう場合、そのシステムに対する検査員の信頼度は低くなり、そのシステムから提供される情報が軽視されるなどの不都合が発生し得る。検査車両の車種に応じた適切な情報(アドバイス)を検査員に提供できる本実施形態の検査支援システムによれば、当該不都合を軽減できる。 Further, according to the inspection support system of this embodiment, it is possible to provide the inspector with appropriate information (advice) according to the model of the inspection vehicle. In the case of a system that provides the same information to inspectors regardless of the model of the vehicle being inspected, for example, an inspector who is inspecting a vehicle model that does not include inspection item A may be given instructions regarding inspection item A. This may cause inconveniences such as If such information with low accuracy is provided, the inspector's confidence in the system will be low, and problems may occur such as the information provided by the system being disregarded. According to the inspection support system of this embodiment, which can provide the inspector with appropriate information (advice) according to the type of vehicle being inspected, this inconvenience can be alleviated.

<第2の実施形態>
本実施形態の検査支援システムは、中継装置20が処理開始タイミング及び処理終了タイミングの検出を行う点で、第1の実施形態と異なる。
<Second embodiment>
The inspection support system of this embodiment differs from the first embodiment in that the relay device 20 detects the processing start timing and processing end timing.

図10に、本実施形態の検査支援システムの機能ブロック図の一例を示す。中継装置20がイベント検出部24を有する点で、第1の実施形態と異なる。 FIG. 10 shows an example of a functional block diagram of the inspection support system of this embodiment. This embodiment differs from the first embodiment in that the relay device 20 includes an event detection section 24.

イベント検出部24は、装着装置30から送信された画像に基づき、処理開始タイミング及び処理終了タイミングを検出する。具体的には、イベント検出部24は、画像の中から車両識別情報表示物を検出する処理を行う。そして、イベント検出部24は、処理エンジンに基づく画像や音声データの処理やこれらのデータ(画像や音声データ)の記録が行われてない状態の時に、画像の中から車両識別情報表示物が検出されたタイミングを、処理開始タイミングとして検出する。また、イベント検出部24は、画像に基づき所定の処理終了イベントを検出する処理を行う。当該処理は第1の実施形態で説明した処理装置10による所定の処理終了イベントの検出と同様であるので、ここでの説明は省略する。そして、イベント検出部24は、所定の処理終了イベントを検出されたタイミングを、処理終了タイミングとして検出する。 The event detection unit 24 detects processing start timing and processing end timing based on the image transmitted from the mounting device 30. Specifically, the event detection unit 24 performs a process of detecting a vehicle identification information display object from an image. Then, the event detection unit 24 detects a vehicle identification information display object from the image when processing of image and audio data based on the processing engine and recording of these data (image and audio data) are not performed. The timing is detected as the processing start timing. Furthermore, the event detection unit 24 performs a process of detecting a predetermined processing end event based on the image. This process is the same as the detection of a predetermined process end event by the processing device 10 described in the first embodiment, so a description thereof will be omitted here. Then, the event detection unit 24 detects the timing at which a predetermined processing end event is detected as the processing end timing.

中継部22は、イベント検出部24による処理開始タイミングの検出に応じて、装着装置30から受信した画像や音声データを処理装置10に送信する処理を開始する。そして、中継部22は、イベント検出部24による処理終了タイミングの検出に応じて、装着装置30から受信した画像や音声データを処理装置10に送信する処理を終了する。 The relay unit 22 starts the process of transmitting the image and audio data received from the mounting device 30 to the processing device 10 in response to the detection of the process start timing by the event detection unit 24. Then, the relay unit 22 ends the process of transmitting the image and audio data received from the mounting device 30 to the processing device 10 in response to the detection of the process end timing by the event detection unit 24.

処理装置10は、中継装置20からの画像や音声データの受信開始に応じて、処理エンジンに基づく画像や音声データの処理や、記憶部19への記録を開始する。そして、処理装置10は、中継装置20からの画像や音声データの受信終了に応じて、処理エンジンに基づく画像や音声データの処理や、記憶部19への記録を終了する。 In response to the start of receiving image and audio data from the relay device 20, the processing device 10 starts processing the image and audio data based on the processing engine and starts recording the data in the storage unit 19. Then, upon completion of receiving the image and audio data from the relay device 20, the processing device 10 ends the processing of the image and audio data based on the processing engine and the recording in the storage unit 19.

次に、図11のシーケンス図を用いて、処理装置10、中継装置20及び装着装置30を含む検査支援システムの処理の流れの一例を説明する。 Next, an example of the processing flow of the inspection support system including the processing device 10, the relay device 20, and the mounting device 30 will be described using the sequence diagram of FIG. 11.

まず、装着装置30は、認証情報の入力を受付けると(S200)、受付けた認証情報を中継装置20に送信する(S201)。中継装置20は、受信した認証情報を処理装置10に送信する(S202)。 First, when the mounting device 30 receives input of authentication information (S200), it transmits the received authentication information to the relay device 20 (S201). The relay device 20 transmits the received authentication information to the processing device 10 (S202).

処理装置10は、受信した認証情報に基づき認証処理を行い(S203)、認証結果を中継装置20に送信する(S204)。中継装置20は、受信した認証結果を装着装置30に送信する(S205)。ここでは、認証に成功したものとする。 The processing device 10 performs authentication processing based on the received authentication information (S203), and transmits the authentication result to the relay device 20 (S204). The relay device 20 transmits the received authentication result to the mounting device 30 (S205). Here, it is assumed that the authentication was successful.

装着装置30は、認証に成功した旨の認証結果を受信した後、検査を開始する入力待ちとなる。そして、装着装置30は、検査を開始する入力を受付けると(S206)、カメラによる動画像の撮影、及び、マイクによる集音を開始する(S207)。そして、装着装置30は、収集したデータ(画像や音声データ)をリアルタイム処理で中継装置20に送信する処理を開始する(S208)。なお、装着装置30は、S222の撮影終了タイミングまで、カメラによる動画像の撮影、マイクによる集音、中継装置20への送信を継続する。 After receiving the authentication result indicating that the authentication was successful, the mounting device 30 waits for an input to start the inspection. Then, when the mounting device 30 receives an input to start an examination (S206), it starts capturing a moving image with a camera and collecting sound with a microphone (S207). Then, the mounting device 30 starts a process of transmitting the collected data (image and audio data) to the relay device 20 in real time (S208). Note that the mounting device 30 continues to capture moving images with the camera, collect sounds with the microphone, and transmit them to the relay device 20 until the timing of completing the capturing in S222.

中継装置20は、装着装置30から画像や音声データを受信すると、装着装置30から受信した画像の中から車両識別情報表示物を検出する処理を行う。そして、画像の中から車両識別情報表示物が検出されない場合(S209のNo)、次の画像待ちとなり(S210)、次の画像を取得すると(S210のYes)、再び、画像の中から車両識別情報表示物を検出する処理を行う。そして、画像の中から車両識別情報表示物が検出されると(S209のYes)、中継装置20は、装着装置30から受信したデータ(画像や音声データ)をリアルタイム処理で処理装置10に送信する処理を開始する(S211)。なお、中継装置20は、その後、装着装置30からのデータ(画像や音声データ)の受信が継続している間、処理装置10への送信を継続する。 When the relay device 20 receives the image and audio data from the mounting device 30, it performs a process of detecting a vehicle identification information display object from the image received from the mounting device 30. If the vehicle identification information display object is not detected from the image (No in S209), the process waits for the next image (S210), and when the next image is acquired (Yes in S210), the vehicle identification information is again detected from the image. Performs processing to detect information display objects. Then, when the vehicle identification information display object is detected from the image (Yes in S209), the relay device 20 transmits the data (image and audio data) received from the mounting device 30 to the processing device 10 in real-time processing. Processing is started (S211). Note that the relay device 20 then continues to transmit data to the processing device 10 while continuing to receive data (image and audio data) from the mounting device 30.

処理装置10は、受信した画像の中から車両識別情報表示物を検出した後(S212)、その車両識別情報表示物が示す車両識別情報を認識し(S213)、認識した車両識別情報に基づき、車両識別情報表示物を付された検査対象の車両の車種を判別する(S214)。そして、処理装置10は、判別された車種に対応した処理エンジンを選択し(S215)、選択した処理エンジンに基づく画像及び音声データの処理(第1の実施形態で説明した第2及び第3の処理の中の少なくとも1つ)や、画像及び音声データの記録(第1の実施形態で説明した第1の処理)を開始する(S216)。処理装置10は、その後、中継装置20により処理終了イベントが検出されるまで、選択した処理エンジンに基づく画像及び音声データの処理や、画像及び音声データの記録を継続する。図11では明示していないが、選択した処理エンジンに基づく画像及び音声データの処理を継続している間、処理装置10と中継装置20と装着装置30との間で、データの送受信が行われる。 After detecting the vehicle identification information display object from the received image (S212), the processing device 10 recognizes the vehicle identification information indicated by the vehicle identification information display object (S213), and based on the recognized vehicle identification information, The type of vehicle to be inspected that has the vehicle identification information display object attached thereto is determined (S214). Then, the processing device 10 selects a processing engine corresponding to the determined vehicle type (S215), and processes image and audio data based on the selected processing engine (the second and third processing described in the first embodiment). At least one of the processes) and recording of image and audio data (the first process described in the first embodiment) are started (S216). Thereafter, the processing device 10 continues processing the image and audio data and recording the image and audio data based on the selected processing engine until the relay device 20 detects a processing end event. Although not explicitly shown in FIG. 11, data is transmitted and received between the processing device 10, the relay device 20, and the mounting device 30 while the processing of image and audio data based on the selected processing engine continues. .

中継装置20は、装着装置30から受信したデータ(画像や音声データ)をリアルタイム処理で処理装置10に送信する処理を開始した後(S211の後)、次の画像を取得すると(S217のYes)、画像に基づく処理終了イベントの検出(記入対象物への署名の検出等)を開始する。そして、中継装置20は、処理終了イベントを検出すると(S218のYes)、装着装置30から受信したデータ(画像や音声データ)をリアルタイム処理で処理装置10に送信する処理を終了する(S219)。 After the relay device 20 starts the process of transmitting the data (image and audio data) received from the mounting device 30 to the processing device 10 in real time (after S211), the relay device 20 acquires the next image (Yes in S217). , starts detecting a processing end event based on the image (detecting a signature on an object to be filled in, etc.). When the relay device 20 detects the processing end event (S218: Yes), the relay device 20 ends the process of transmitting the data (image and audio data) received from the mounting device 30 to the processing device 10 in real time (S219).

また、中継装置20は、処理終了イベントを検出すると(S218のYes)、処理終了を装着装置30に通知する(S221)。装着装置30は、処理終了通知に応じて、カメラによる動画像の撮影、マイクによる集音、中継装置20へのこれらのデータの送信を終了する(S222)。そして、装着装置30は、検査を開始する入力待ちとなる(S223)。 Further, when the relay device 20 detects a process end event (Yes in S218), it notifies the mounting device 30 of the end of the process (S221). In response to the processing end notification, the mounting device 30 ends capturing a moving image with a camera, collecting sound with a microphone, and transmitting these data to the relay device 20 (S222). The mounting device 30 then waits for an input to start the test (S223).

また、中継装置20は、処理終了イベントを検出すると(S218のYes)、処理終了を処理装置10に通知する(S220)。処理装置10は、処理終了通知に応じて、選択した処理エンジンに基づく画像及び音声データの処理や、画像及び音声データの記録を終了する(S224)。なお、処理装置10は、中継装置20からの画像や音声データの受信が終了したことに応じて、処理エンジンに基づくデータの処理や記録を終了してもよい。 Further, when the relay device 20 detects a process end event (Yes in S218), it notifies the processing device 10 of the end of the process (S220). In response to the processing end notification, the processing device 10 ends processing of image and audio data and recording of image and audio data based on the selected processing engine (S224). Note that the processing device 10 may end data processing and recording based on the processing engine in response to completion of receiving image and audio data from the relay device 20.

本実施形態の検査支援システムのその他の構成は、第1の実施形態と同様である。 The other configuration of the inspection support system of this embodiment is the same as that of the first embodiment.

以上、本実施形態の検査支援システムによれば、第1の実施形態と同様の作用効果が実現される。また、本実施形態の検査支援システムによれば、処理装置10によるデータの処理や記録を開始するタイミング及び終了するタイミングを中継装置20が検出することができる。そして、中継装置20は、その開始タイミングから終了タイミングの間、装着装置30から受信したデータ(画像や音声データ)を処理装置10に送信する。 As described above, according to the inspection support system of this embodiment, the same effects as those of the first embodiment are realized. Further, according to the inspection support system of the present embodiment, the relay device 20 can detect the timing at which processing and recording of data by the processing device 10 starts and the timing at which it ends. Then, the relay device 20 transmits the data (image and audio data) received from the mounting device 30 to the processing device 10 from the start timing to the end timing.

このような本実施形態の検査支援システムによれば、不要なタイミングで中継装置20から処理装置10にデータ(画像や音声データ)を送信する不都合を抑制できる。結果、コンピュータの処理負担軽減や、通信負荷の軽減などが実現される。 According to the inspection support system of this embodiment, the inconvenience of transmitting data (image and audio data) from the relay device 20 to the processing device 10 at unnecessary timing can be suppressed. As a result, the processing load on the computer and the communication load can be reduced.

<第3の実施形態>
本実施形態の検査支援システムは、装着装置30が処理開始タイミング及び処理終了タイミングの検出を行う点で、第1及び第2の実施形態と異なる。
<Third embodiment>
The inspection support system of this embodiment differs from the first and second embodiments in that the mounting device 30 detects the processing start timing and processing end timing.

図12に、本実施形態の検査支援システムの機能ブロック図の一例を示す。装着装置30がイベント検出部34を有する点で、第1及び第2の実施形態と異なる。 FIG. 12 shows an example of a functional block diagram of the inspection support system of this embodiment. This embodiment differs from the first and second embodiments in that the mounting device 30 includes an event detection section 34 .

イベント検出部34は、データ収集部32が収集した画像(装着装置30が有するカメラが生成した画像)に基づき、処理開始タイミング及び処理終了タイミングを検出する。具体的には、イベント検出部34は、画像の中から車両識別情報表示物を検出する処理を行う。そして、イベント検出部34は、処理エンジンに基づく画像や音声データの処理やこれらのデータ(画像や音声データ)の記録が行われてない状態の時に、画像の中から車両識別情報表示物が検出されたタイミングを、処理開始タイミングとして検出する。また、イベント検出部34は、画像に基づき所定の処理終了イベントを検出する処理を行う。当該処理は第1の実施形態で説明した処理装置10による所定の処理終了イベントの検出と同様であるので、ここでの説明は省略する。そして、イベント検出部34は、所定の処理終了イベントを検出されたタイミングを、処理終了タイミングとして検出する。 The event detection section 34 detects the processing start timing and the processing end timing based on the images collected by the data collection section 32 (images generated by the camera included in the mounting device 30). Specifically, the event detection unit 34 performs a process of detecting a vehicle identification information display object from an image. Then, the event detection unit 34 detects a vehicle identification information display object from the image when processing of image and audio data based on the processing engine and recording of these data (image and audio data) are not performed. The timing is detected as the processing start timing. Furthermore, the event detection unit 34 performs a process of detecting a predetermined processing end event based on the image. This process is the same as the detection of a predetermined process end event by the processing device 10 described in the first embodiment, so a description thereof will be omitted here. Then, the event detection unit 34 detects the timing at which a predetermined processing end event is detected as the processing end timing.

通信部33は、イベント検出部34による処理開始タイミングの検出に応じて、データ収集部32が収集した画像や音声データをリアルタイム処理で中継装置20に送信する処理を開始する。そして、通信部33は、イベント検出部34による処理終了タイミングの検出に応じて、データ収集部32が収集した画像や音声データをリアルタイム処理で中継装置20に送信する処理を終了する。 The communication unit 33 starts the process of transmitting the image and audio data collected by the data collection unit 32 to the relay device 20 in real time in response to the detection of the processing start timing by the event detection unit 34. Then, the communication unit 33 ends the process of transmitting the image and audio data collected by the data collection unit 32 to the relay device 20 in real time in response to the detection of the process end timing by the event detection unit 34.

中継装置20は、装着装置30からの画像や音声データの受信開始に応じて、当該画像や音声データをリアルタイム処理で処理装置10に送信する処理を開始する。そして、中継装置20は、装着装置30からの画像や音声データの受信終了に応じて、当該画像や音声データをリアルタイム処理で処理装置10に送信する処理を終了する。 In response to the start of receiving image and audio data from the mounting device 30, the relay device 20 starts a process of transmitting the image and audio data to the processing device 10 in real time. Then, upon completion of receiving the image and audio data from the mounting device 30, the relay device 20 ends the process of transmitting the image and audio data to the processing device 10 in real time.

処理装置10は、中継装置20からの画像や音声データの受信開始に応じて、処理エンジンに基づく画像や音声データの処理や、記憶部19への記録を開始する。そして、処理装置10は、中継装置20からの画像や音声データの受信終了に応じて、処理エンジンに基づく画像や音声データの処理や、記憶部19への記録を終了する。 In response to the start of receiving image and audio data from the relay device 20, the processing device 10 starts processing the image and audio data based on the processing engine and starts recording the data in the storage unit 19. Then, upon completion of receiving the image and audio data from the relay device 20, the processing device 10 ends the processing of the image and audio data based on the processing engine and the recording in the storage unit 19.

次に、図13のシーケンス図を用いて、処理装置10、中継装置20及び装着装置30を含む検査支援システムの処理の流れの一例を説明する。 Next, an example of the processing flow of the inspection support system including the processing device 10, the relay device 20, and the mounting device 30 will be described using the sequence diagram of FIG. 13.

まず、装着装置30は、認証情報の入力を受付けると(S300)、受付けた認証情報を中継装置20に送信する(S301)。中継装置20は、受信した認証情報を処理装置10に送信する(S302)。 First, when the mounting device 30 receives input of authentication information (S300), it transmits the received authentication information to the relay device 20 (S301). The relay device 20 transmits the received authentication information to the processing device 10 (S302).

処理装置10は、受信した認証情報に基づき認証処理を行い(S303)、認証結果を中継装置20に送信する(S304)。中継装置20は、受信した認証結果を装着装置30に送信する(S305)。ここでは、認証に成功したものとする。 The processing device 10 performs authentication processing based on the received authentication information (S303), and transmits the authentication result to the relay device 20 (S304). The relay device 20 transmits the received authentication result to the mounting device 30 (S305). Here, it is assumed that the authentication was successful.

装着装置30は、認証に成功した旨の認証結果を受信した後、検査を開始する入力待ちとなる。そして、装着装置30は、検査を開始する入力を受付けると(S306)、カメラによる動画像の撮影、及び、マイクによる集音を開始する(S307)。そして、装着装置30は、生成した画像の中から車両識別情報表示物を検出する処理を行う。画像の中から車両識別情報表示物が検出されない場合(S308のNo)、次の画像待ちとなり(S309)、次の画像を取得すると(S309のYes)、再び、画像の中から車両識別情報表示物を検出する処理を行う。そして、画像の中から車両識別情報表示物が検出されると(S308のYes)、装着装置30は、収集したデータ(画像や音声データ)をリアルタイム処理で中継装置20に送信する処理を開始する(S310)。なお、装着装置30は、S322の撮影終了タイミングまで、カメラによる動画像の撮影、マイクによる集音、中継装置20への送信を継続する。 After receiving the authentication result indicating that the authentication was successful, the mounting device 30 waits for an input to start the test. When the mounting device 30 receives the input to start the test (S306), it starts capturing moving images with the camera and collecting sound with the microphone (S307). The mounting device 30 then performs a process of detecting the vehicle identification information display object from the generated image. If the vehicle identification information display object is not detected from the image (No in S308), the process waits for the next image (S309), and when the next image is acquired (Yes in S309), the vehicle identification information is displayed again from the image. Performs processing to detect objects. Then, when the vehicle identification information display object is detected from the image (Yes in S308), the mounting device 30 starts processing to transmit the collected data (image and audio data) to the relay device 20 in real time processing. (S310). Note that the mounting device 30 continues to capture moving images with the camera, collect sounds with the microphone, and transmit them to the relay device 20 until the timing of completing the capturing in S322.

中継装置20は、装着装置30から受信したデータ(画像や音声データ)をリアルタイム処理で処理装置10に送信する(S311)。なお、中継装置20は、装着装置30からのデータ(画像や音声データ)の受信が継続している間、処理装置10への送信を継続する。 The relay device 20 transmits the data (image and audio data) received from the mounting device 30 to the processing device 10 in real-time processing (S311). Note that while the relay device 20 continues to receive data (image and audio data) from the mounting device 30, it continues to transmit data to the processing device 10.

処理装置10は、受信した画像の中から車両識別情報表示物を検出した後(S312)、その車両識別情報表示物が示す車両識別情報を認識し(S313)、認識した車両識別情報に基づき、車両識別情報表示物を付された検査対象の車両の車種を判別する(S314)。そして、処理装置10は、判別された車種に対応した処理エンジンを選択し(S315)、選択した処理エンジンに基づく画像及び音声データの処理(第1の実施形態で説明した第2及び第3の処理の中の少なくとも1つ)や、画像及び音声データの記録(第1の実施形態で説明した第1の処理)を開始する(S316)。処理装置10は、その後、装着装置30により処理終了イベントが検出されるまで、選択した処理エンジンに基づく画像及び音声データの処理や、画像及び音声データの記録を継続する。図13では明示していないが、選択した処理エンジンに基づく画像及び音声データの処理を継続している間、処理装置10と中継装置20と装着装置30との間で、データの送受信が行われる。 After detecting the vehicle identification information display object from the received image (S312), the processing device 10 recognizes the vehicle identification information indicated by the vehicle identification information display object (S313), and based on the recognized vehicle identification information, The model of the vehicle to be inspected that has the vehicle identification information display attached thereto is determined (S314). Then, the processing device 10 selects a processing engine corresponding to the determined vehicle type (S315), and processes image and audio data based on the selected processing engine (the second and third processing described in the first embodiment). At least one of the processes) and recording of image and audio data (the first process described in the first embodiment) are started (S316). Thereafter, the processing device 10 continues processing image and audio data and recording image and audio data based on the selected processing engine until a processing end event is detected by the mounting device 30. Although not explicitly shown in FIG. 13, data is transmitted and received between the processing device 10, the relay device 20, and the mounting device 30 while the processing of image and audio data based on the selected processing engine continues. .

装着装置30は、画像や音声データをリアルタイム処理で中継装置20に送信する処理を開始した後(S310の後)、次の画像を取得すると(S317のYes)、画像に基づく処理終了イベントの検出(記入対象物への署名の検出等)を開始する。そして、装着装置30は、処理終了イベントを検出すると(S318のYes)、カメラによる動画像の撮影、マイクによる集音、中継装置20へのこれらのデータの送信を終了する(S322)。そして、装着装置30は、検査を開始する入力待ちとなる(S323)。 After the mounting device 30 starts the process of transmitting image and audio data to the relay device 20 in real time (after S310) and acquires the next image (Yes in S317), it detects a process end event based on the image. (detection of signature on the object to be filled in, etc.). Then, when the mounting device 30 detects a process end event (Yes in S318), it ends capturing a moving image with a camera, collecting sound with a microphone, and transmitting these data to the relay device 20 (S322). The mounting device 30 then waits for an input to start the test (S323).

また、装着装置30は、処理終了イベントを検出すると(S318のYes)、処理終了を中継装置20に通知する(S319)。そして、中継装置20は、処理終了を処理装置10に通知する(S320)。 Further, when the mounting device 30 detects a process end event (Yes in S318), it notifies the relay device 20 of the end of the process (S319). Then, the relay device 20 notifies the processing device 10 of the end of the process (S320).

処理装置10は、処理終了通知に応じて、選択した処理エンジンに基づく画像及び音声データの処理(第1の実施形態で説明した第2及び第3の処理の中の少なくとも1つ)や、画像及び音声データの記録を終了する(S321)。なお、処理装置10は、中継装置20からの画像や音声データの受信が終了したことに応じて、処理エンジンに基づくデータの処理や記録を終了してもよい。 In response to the processing end notification, the processing device 10 processes image and audio data based on the selected processing engine (at least one of the second and third processing described in the first embodiment), and performs image and audio data processing based on the selected processing engine. Then, recording of audio data is ended (S321). Note that the processing device 10 may end data processing and recording based on the processing engine in response to completion of receiving image and audio data from the relay device 20.

本実施形態の検査支援システムのその他の構成は、第1及び第2の実施形態と同様である。 The other configurations of the inspection support system of this embodiment are the same as those of the first and second embodiments.

ここで、本実施形態の検査支援システムの変形例を説明する。装着装置30は、WANやLAN等の通信ネットワーク40に接続可能であってもよい。そして、装着装置30は、中継装置20を介さず、処理装置10と通信してもよい。この場合、検査支援システムは中継装置20を有さなくてもよい。 Here, a modification of the inspection support system of this embodiment will be described. The mounting device 30 may be connectable to a communication network 40 such as a WAN or LAN. The mounting device 30 may communicate with the processing device 10 without using the relay device 20. In this case, the inspection support system does not need to include the relay device 20.

以上、本実施形態の検査支援システムによれば、第1及び第2の実施形態と同様の作用効果が実現される。また、本実施形態の検査支援システムによれば、処理装置10によるデータの処理や記録を開始するタイミング及び終了するタイミングを装着装置30が検出することができる。そして、装着装置30は、その開始タイミングから終了タイミングの間、収集したデータ(画像や音声データ)を中継装置20に送信する。 As described above, according to the inspection support system of this embodiment, the same effects as those of the first and second embodiments are realized. Further, according to the inspection support system of this embodiment, the mounting device 30 can detect the timing at which processing and recording of data by the processing device 10 starts and the timing at which it ends. Then, the mounting device 30 transmits the collected data (image and audio data) to the relay device 20 from the start timing to the end timing.

このような本実施形態の検査支援システムによれば、不要なタイミングで装着装置30から中継装置20にデータ(画像や音声データ)を送信する不都合や、中継装置20から処理装置10にデータ(画像や音声データ)を送信する不都合を抑制できる。結果、コンピュータの処理負担軽減や、通信負荷の軽減などが実現される。 According to the inspection support system of this embodiment, there are problems such as the inconvenience of transmitting data (image and audio data) from the mounting device 30 to the relay device 20 at unnecessary timing, and the problem of transmitting data (image and audio data) from the relay device 20 to the processing device 10. and voice data) can be suppressed. As a result, the processing load on the computer and the communication load can be reduced.

なお、本明細書において、「取得」とは、ユーザ入力に基づき、又は、プログラムの指示に基づき、「自装置が他の装置や記憶媒体に格納されているデータを取りに行くこと(能動的な取得)」、たとえば、他の装置にリクエストまたは問い合わせして受信すること、他の装置や記憶媒体にアクセスして読み出すこと等を含んでもよい。また、「取得」とは、ユーザ入力に基づき、又は、プログラムの指示に基づき、「自装置に他の装置から出力されるデータを入力すること(受動的な取得)」、たとえば、配信(または、送信、プッシュ通知等)されるデータを受信すること等を含んでもよい。また、「取得」とは、受信したデータまたは情報の中から選択して取得すること、及び、「データを編集(テキスト化、データの並び替え、一部データの抽出、ファイル形式の変更等)などして新たなデータを生成し、当該新たなデータを取得すること」を含んでもよい。 In this specification, "acquisition" refers to "a process in which the own device retrieves data stored in another device or storage medium (actively)" based on user input or program instructions. For example, it may include "receiving information by requesting or inquiring from another device, or accessing and reading another device or storage medium." In addition, "acquisition" refers to "inputting data output from another device into one's own device (passive acquisition)" based on user input or program instructions, for example, distribution (or , sending, push notification, etc.). In addition, "obtaining" refers to selecting and obtaining received data or information, and "editing data (converting to text, rearranging data, extracting some data, changing file format, etc.)" It may also include "generating new data by, for example, acquiring the new data."

以上、実施形態(及び実施例)を参照して本願発明を説明したが、本願発明は上記実施形態(及び実施例)に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。 Although the present invention has been described above with reference to the embodiments (and examples), the present invention is not limited to the above embodiments (and examples). The configuration and details of the present invention can be modified in various ways that can be understood by those skilled in the art within the scope of the present invention.

上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限定されない。
1. 画像を取得する取得手段と、
前記画像の中から車両識別情報表示物を検出する検出手段と、
前記車両識別情報表示物が示す車両識別情報を認識する認識手段と、
認識された前記車両識別情報に基づき、前記車両識別情報表示物を付された検査対象の車両の車種を判別する判別手段と、
判別された前記車種に対応した処理エンジンを選択する選択手段と、
選択された前記処理エンジンに基づき、前記画像を処理する処理手段と、
を有する処理装置。
2. 前記処理手段は、前記処理エンジンに基づき前記画像を処理して検査員に提供する情報を決定し、決定した前記情報を検査員の端末に送信する1に記載の処理装置。
3. 前記処理手段は、前記処理エンジンに基づき前記画像を処理して前記車両の検査を行い、検査結果を記憶手段に記憶させる1又は2に記載の処理装置。
4. 前記装着装置を利用する前記検査員を認証する認証手段をさらに有し、
前記処理手段は、認証した前記検査員の識別情報に紐づけて、前記検査結果を前記記憶手段に記憶させる3に記載の処理装置。
5. 前記処理手段は、前記画像の中から前記車両識別情報表示物が検出されたことに応じて、選択された前記処理エンジンに基づく前記画像の処理を開始する1から4のいずれかに記載の処理装置。
6. 前記処理手段は、前記画像に基づき所定の処理終了イベントが検出されたことに応じて、選択された前記処理エンジンに基づく前記画像の処理を終了する1から5のいずれかに記載の処理装置。
7. 前記処理終了イベントは、検査員が記入する記入対象物への署名の検出である6に記載の処理装置。
8. 前記処理手段は、
前記画像の中から前記車両識別情報表示物が検出されたことに応じて、前記取得手段により取得された前記画像の記録を開始し、
前記画像に基づき所定の処理終了イベントが検出されたことに応じて、前記記録を終了する1から7のいずれかに記載の処理装置。
9. 前記取得手段は、検査員が装着した装着装置に付されたカメラが生成した画像を取得する1から8のいずれかに記載の処理装置。
10. コンピュータが、
画像を取得し、
前記画像の中から車両識別情報表示物を検出し、
前記車両識別情報表示物が示す車両識別情報を認識し、
認識された前記車両識別情報に基づき、前記車両識別情報表示物を付された検査対象の車両の車種を判別し、
判別された前記車種に対応した処理エンジンを選択し、
選択された前記処理エンジンに基づき、前記画像を処理する処理方法。
11. コンピュータを、
画像を取得する取得手段、
前記画像の中から車両識別情報表示物を検出する検出手段、
前記車両識別情報表示物が示す車両識別情報を認識する認識手段、
認識された前記車両識別情報に基づき、前記車両識別情報表示物を付された検査対象の車両の車種を判別する判別手段、
判別された前記車種に対応した処理エンジンを選択する選択手段、
選択された前記処理エンジンに基づき、前記画像を処理する処理手段、
として機能させるプログラム。
Part or all of the above embodiments may be described as in the following supplementary notes, but the embodiments are not limited to the following.
1. an acquisition means for acquiring an image;
detection means for detecting a vehicle identification information display object from the image;
Recognition means for recognizing vehicle identification information indicated by the vehicle identification information display object;
a determining means for determining the vehicle type of the vehicle to be inspected to which the vehicle identification information display object is attached based on the recognized vehicle identification information;
selection means for selecting a processing engine corresponding to the determined vehicle type;
processing means for processing the image based on the selected processing engine;
A processing device having:
2. 2. The processing device according to 1, wherein the processing means processes the image based on the processing engine, determines information to be provided to the inspector, and transmits the determined information to the inspector's terminal.
3. 3. The processing device according to 1 or 2, wherein the processing means processes the image based on the processing engine, inspects the vehicle, and stores the inspection results in the storage means.
4. further comprising authentication means for authenticating the inspector using the mounting device,
4. The processing device according to 3, wherein the processing means stores the test results in the storage means in association with identification information of the authenticated inspector.
5. The processing according to any one of 1 to 4, wherein the processing means starts processing the image based on the selected processing engine in response to the detection of the vehicle identification information display object from the image. Device.
6. 6. The processing device according to any one of 1 to 5, wherein the processing means terminates processing of the image based on the selected processing engine in response to detection of a predetermined processing end event based on the image.
7. 7. The processing device according to 6, wherein the processing end event is detection of a signature on an object to be filled in by an inspector.
8. The processing means includes:
In response to the detection of the vehicle identification information display object from the image, starting recording of the image acquired by the acquisition means,
8. The processing device according to any one of 1 to 7, which ends the recording in response to detection of a predetermined processing end event based on the image.
9. 9. The processing device according to any one of 1 to 8, wherein the acquisition means acquires an image generated by a camera attached to a mounting device worn by an inspector.
10. The computer is
Get the image,
Detecting a vehicle identification information display object from the image,
Recognizing vehicle identification information indicated by the vehicle identification information display object,
Based on the recognized vehicle identification information, determine the model of the vehicle to be inspected that has the vehicle identification information display attached thereto;
Select a processing engine that corresponds to the determined vehicle model,
A processing method for processing the image based on the selected processing engine.
11. computer,
an acquisition means for acquiring images;
detection means for detecting a vehicle identification information display object from the image;
Recognition means for recognizing vehicle identification information indicated by the vehicle identification information display object;
determination means for determining the vehicle type of the vehicle to be inspected to which the vehicle identification information display object is attached, based on the recognized vehicle identification information;
selection means for selecting a processing engine corresponding to the determined vehicle type;
processing means for processing the image based on the selected processing engine;
A program that functions as

1A プロセッサ
2A メモリ
3A 入出力I/F
4A 周辺回路
5A バス
10 処理装置
11 通信部
12 取得部
13 検出部
14 認識部
15 判別部
16 選択部
17 処理部
18 認証部
19 記憶部
20 中継装置
21 第1の通信部
22 中継部
23 第2の通信部
24 イベント検出部
30 装着装置
31 認証処理部
32 データ収集部
33 通信部
34 イベント検出部
40 通信ネットワーク
1A processor 2A memory 3A input/output I/F
4A Peripheral circuit 5A Bus 10 Processing device 11 Communication section 12 Acquisition section 13 Detection section 14 Recognition section 15 Discrimination section 16 Selection section 17 Processing section 18 Authentication section 19 Storage section 20 Relay device 21 First communication section 22 Relay section 23 Second communication unit 24 event detection unit 30 mounting device 31 authentication processing unit 32 data collection unit 33 communication unit 34 event detection unit 40 communication network

Claims (13)

画像を取得する取得手段と、
前記画像の中から車両識別情報表示物を検出する検出手段と、
前記車両識別情報表示物が示す車両識別情報を認識する認識手段と、
認識された前記車両識別情報に基づき、前記車両識別情報表示物を付された検査対象の車両の車種を判別する判別手段と、
判別された前記車種に対応した処理エンジンを選択する選択手段と、
選択された前記処理エンジンに基づき、前記画像を処理する処理手段と、
を有し、
前記車種毎に、検査員が行う検査項目が定められており、
前記処理手段は、
前記処理エンジンで前記画像を処理して、検査員が現在行っている検査項目を認識する処理装置。
an acquisition means for acquiring an image;
detection means for detecting a vehicle identification information display object from the image;
Recognition means for recognizing vehicle identification information indicated by the vehicle identification information display object;
a determining means for determining the vehicle type of the vehicle to be inspected to which the vehicle identification information display object is attached based on the recognized vehicle identification information;
selection means for selecting a processing engine corresponding to the determined vehicle type;
processing means for processing the image based on the selected processing engine;
has
The inspection items to be performed by inspectors are determined for each vehicle type.
The processing means includes:
A processing device that processes the image with the processing engine and recognizes an inspection item currently being performed by an inspector .
前記処理手段は、前記処理エンジンに基づき前記画像を処理して検査員に提供する情報を決定し、決定した前記情報を検査員の端末に送信する請求項1に記載の処理装置。 2. The processing device according to claim 1, wherein the processing means processes the image based on the processing engine, determines information to be provided to the inspector, and transmits the determined information to the inspector's terminal. 前記処理手段は、前記処理エンジンに基づき前記画像を処理して前記車両の検査を行い、検査結果を記憶手段に記憶させる請求項1又は2に記載の処理装置。 3. The processing device according to claim 1, wherein the processing means inspects the vehicle by processing the image based on the processing engine, and stores the inspection results in a storage means. 装着装置を利用する検査員を認証する認証手段をさらに有し、
前記処理手段は、認証した前記検査員の識別情報に紐づけて、前記検査結果を前記記憶手段に記憶させる請求項3に記載の処理装置。
further comprising an authentication means for authenticating an inspector using the mounting device,
4. The processing device according to claim 3, wherein the processing means stores the test results in the storage means in association with identification information of the authenticated inspector.
前記処理手段は、前記画像の中から前記車両識別情報表示物が検出されたことに応じて、選択された前記処理エンジンに基づく前記画像の処理を開始する請求項1から4のいずれか1項に記載の処理装置。 5. The processing means starts processing the image based on the selected processing engine in response to the detection of the vehicle identification information display object from the image. The processing device described in . 前記処理手段は、前記画像に基づき所定の処理終了イベントが検出されたことに応じて、選択された前記処理エンジンに基づく前記画像の処理を終了する請求項1から5のいずれか1項に記載の処理装置。 6. The processing means terminates processing of the image based on the selected processing engine in response to detection of a predetermined processing end event based on the image. processing equipment. 前記処理終了イベントは、検査員が記入する記入対象物への署名の検出である請求項6に記載の処理装置。 7. The processing device according to claim 6, wherein the processing end event is detection of a signature on an object to be filled in by an inspector. 前記処理手段は、
前記画像の中から前記車両識別情報表示物が検出されたことに応じて、前記取得手段により取得された前記画像の記録を開始し、
前記画像に基づき所定の処理終了イベントが検出されたことに応じて、前記記録を終了する請求項1から7のいずれか1項に記載の処理装置。
The processing means includes:
In response to the detection of the vehicle identification information display object from the image, starting recording of the image acquired by the acquisition means,
The processing device according to any one of claims 1 to 7, wherein the recording is terminated in response to a predetermined processing end event being detected based on the image.
前記取得手段は、検査員が装着した装着装置に付されたカメラが生成した画像を取得する請求項1から8のいずれか1項に記載の処理装置。 9. The processing device according to claim 1, wherein the acquisition means acquires an image generated by a camera attached to a mounting device worn by an inspector. 前記車種毎に、検査項目及び検査順が定められており、
前記処理手段は、
現在行っている検査項目の認識結果に基づき次に行う検査項目を認識し、
次に行う検査項目を示す情報を検査員の端末に送信する請求項1から9のいずれか1項に記載の処理装置。
Inspection items and inspection order are determined for each vehicle type,
The processing means includes:
Recognizes the next test item based on the recognition result of the current test item,
The processing device according to any one of claims 1 to 9, wherein information indicating the next inspection item to be performed is transmitted to an inspector's terminal.
前記処理手段は、
次に行う検査項目に関するアドバイス情報を検査員の端末に送信する請求項10に記載の処理装置。
The processing means includes:
11. The processing device according to claim 10, wherein advice information regarding an inspection item to be performed next is transmitted to an inspector's terminal.
コンピュータが、
画像を取得し、
前記画像の中から車両識別情報表示物を検出し、
前記車両識別情報表示物が示す車両識別情報を認識し、
認識された前記車両識別情報に基づき、前記車両識別情報表示物を付された検査対象の車両の車種を判別し、
前記車種毎に、検査員が行う検査項目が定められており、
前記コンピュータが、
判別された前記車種に対応した処理エンジンを選択し、
選択された前記処理エンジンに基づき前記画像を処理して、検査員が現在行っている検査項目を認識する処理方法。
The computer is
Get the image,
Detecting a vehicle identification information display object from the image,
Recognizing vehicle identification information indicated by the vehicle identification information display object,
Based on the recognized vehicle identification information, determine the model of the vehicle to be inspected that has the vehicle identification information display attached thereto;
The inspection items to be performed by inspectors are determined for each vehicle type.
The computer,
Select a processing engine that corresponds to the determined vehicle model,
A processing method that processes the image based on the selected processing engine to recognize an inspection item currently being performed by an inspector .
コンピュータを、
画像を取得する取得手段、
前記画像の中から車両識別情報表示物を検出する検出手段、
前記車両識別情報表示物が示す車両識別情報を認識する認識手段、
認識された前記車両識別情報に基づき、前記車両識別情報表示物を付された検査対象の車両の車種を判別する判別手段、
判別された前記車種に対応した処理エンジンを選択する選択手段、
選択された前記処理エンジンに基づき、前記画像を処理する処理手段、
として機能させ、
前記車種毎に、検査員が行う検査項目が定められており、
前記処理手段は、
前記処理エンジンで前記画像を処理して、検査員が現在行っている検査項目を認識するプログラム。
computer,
an acquisition means for acquiring images;
detection means for detecting a vehicle identification information display object from the image;
Recognition means for recognizing vehicle identification information indicated by the vehicle identification information display object;
determination means for determining the vehicle type of the vehicle to be inspected to which the vehicle identification information display object is attached, based on the recognized vehicle identification information;
selection means for selecting a processing engine corresponding to the determined vehicle type;
processing means for processing the image based on the selected processing engine;
function as
The inspection items to be performed by inspectors are determined for each vehicle type.
The processing means includes:
A program that processes the image with the processing engine and recognizes the inspection item currently being performed by the inspector .
JP2020002640A 2020-01-10 2020-01-10 Processing equipment, processing method and program Active JP7439519B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020002640A JP7439519B2 (en) 2020-01-10 2020-01-10 Processing equipment, processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020002640A JP7439519B2 (en) 2020-01-10 2020-01-10 Processing equipment, processing method and program

Publications (2)

Publication Number Publication Date
JP2021110633A JP2021110633A (en) 2021-08-02
JP7439519B2 true JP7439519B2 (en) 2024-02-28

Family

ID=77059628

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020002640A Active JP7439519B2 (en) 2020-01-10 2020-01-10 Processing equipment, processing method and program

Country Status (1)

Country Link
JP (1) JP7439519B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016053531A (en) 2014-09-04 2016-04-14 東日本旅客鉄道株式会社 Vehicle inspection system
US20170116792A1 (en) 2015-10-26 2017-04-27 Telogis, Inc. Automated vehicle identification and inspection data processing system
JP2018179954A (en) 2017-04-18 2018-11-15 株式会社バンザイ Inspection auxiliary device of vehicle using head-mounted display

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016053531A (en) 2014-09-04 2016-04-14 東日本旅客鉄道株式会社 Vehicle inspection system
US20170116792A1 (en) 2015-10-26 2017-04-27 Telogis, Inc. Automated vehicle identification and inspection data processing system
JP2018179954A (en) 2017-04-18 2018-11-15 株式会社バンザイ Inspection auxiliary device of vehicle using head-mounted display

Also Published As

Publication number Publication date
JP2021110633A (en) 2021-08-02

Similar Documents

Publication Publication Date Title
US9838814B2 (en) Displaying sound indications on a wearable computing system
US8284985B2 (en) Interactive device for processing documents
KR20180109109A (en) Method of recognition based on IRIS recognition and Electronic device supporting the same
TWI490792B (en) User recognition and confirmation device and method, and central control system for vehicles using the same
WO2008069519A1 (en) Gesture/speech integrated recognition system and method
JP6780767B2 (en) Inspection support device, inspection support method and program
US20180204078A1 (en) System for monitoring the state of vigilance of an operator
KR20210059148A (en) Purchase system of used mobile
WO2020171621A1 (en) Method of controlling display of avatar and electronic device therefor
KR20140097669A (en) Apparatus and method for determining insurance premium based on driving pattern recognition
CN111062248A (en) Image detection method, device, electronic equipment and medium
JP2009206924A (en) Information processing apparatus, information processing system and information processing program
JP7439519B2 (en) Processing equipment, processing method and program
JP7375692B2 (en) Information processing device, information processing method, and information processing system
US20210181838A1 (en) Information providing method and electronic device for supporting the same
JP6944793B2 (en) Driving support system, driving support method and driving support program
CN111652624A (en) Ticket buying processing method, ticket checking processing method, device, equipment and storage medium
KR20210064830A (en) Image processing system
US11410462B2 (en) Processing system and processing method
KR102597228B1 (en) System for guiding information anc checking mobile facility based on artificial intelligence
CN114844985A (en) Data quality inspection method, device, equipment and storage medium
JP7088076B2 (en) Information processing systems, programs, and control methods
US20200265130A1 (en) Processing system and processing method
CN111583669B (en) Overspeed detection method, overspeed detection device, control equipment and storage medium
JP2022079094A (en) Inspection record creation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231010

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231204

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20231211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240129

R151 Written notification of patent or utility model registration

Ref document number: 7439519

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151