JP2022044156A - Image recognition device, image recognition method, computer program and image recognition system - Google Patents

Image recognition device, image recognition method, computer program and image recognition system Download PDF

Info

Publication number
JP2022044156A
JP2022044156A JP2020149645A JP2020149645A JP2022044156A JP 2022044156 A JP2022044156 A JP 2022044156A JP 2020149645 A JP2020149645 A JP 2020149645A JP 2020149645 A JP2020149645 A JP 2020149645A JP 2022044156 A JP2022044156 A JP 2022044156A
Authority
JP
Japan
Prior art keywords
image
interest
region
moving body
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020149645A
Other languages
Japanese (ja)
Inventor
直樹 前田
Naoki Maeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Electric Industries Ltd
Original Assignee
Sumitomo Electric Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Electric Industries Ltd filed Critical Sumitomo Electric Industries Ltd
Priority to JP2020149645A priority Critical patent/JP2022044156A/en
Publication of JP2022044156A publication Critical patent/JP2022044156A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an image recognition device, an image recognition method, a computer program and an image recognition system, capable of accurately recognizing an object in an image without delay.SOLUTION: In an operation support system, an image recognition device 35 provided in a control system of a mobile body includes: an attention area acquisition part 54 configured to acquire, from a storage part storing as attention area information 41 associating attention area in an image and a photographed location of the image, an attention area in an image of a periphery of the mobile body photographed by a camera installed in the mobile body, according to a location of the mobile body; a segmentation part 57 configured to cut out a picture of the attention area from the image of the periphery of the mobile body; and a recognition processing part 59 configured to execute prescribed recognition processing according to the picture of the attention area.SELECTED DRAWING: Figure 3

Description

本開示は、画像認識装置、画像認識方法、コンピュータプログラム、および画像認識システムに関する。 The present disclosure relates to an image recognition device, an image recognition method, a computer program, and an image recognition system.

従来、自動車などの移動体に搭載されたカメラにより撮影された移動体の周辺の画像から、道路標識などを認識し、認識結果に基づいて移動体の走行を制御するシステムが提案されている(例えば、特許文献1参照)。 Conventionally, a system has been proposed in which a road sign or the like is recognized from an image of the surroundings of a moving body taken by a camera mounted on a moving body such as an automobile, and the traveling of the moving body is controlled based on the recognition result (. For example, see Patent Document 1).

特開2019-220199号公報Japanese Unexamined Patent Publication No. 2019-22017

移動体の走行制御のためには、画像中の対象物を正確に認識することと、画像を遅滞なく処理することとが望まれる。 In order to control the traveling of a moving object, it is desired to accurately recognize an object in an image and to process the image without delay.

画像を遅滞なく処理するためには、画像から所定の対象物を含む注目領域の像を抽出し、抽出した注目領域の像に対して対象物の認識処理を集中的に実行する必要がある。 In order to process the image without delay, it is necessary to extract an image of the region of interest including a predetermined object from the image and intensively execute the recognition process of the object on the extracted image of the region of interest.

しかしながら、夜間、雨天、霧、夕方、逆光、臨時に設置された物体の影、停電などの影響により、カメラで撮影した画像が不鮮明になる場合がある。このような場合には、道路標識や交通信号機などの対象物が不鮮明に映るために、注目領域の像が抽出できなかったり、誤った位置の像を抽出するなど、注目領域の像の抽出に失敗する場合がある。これにより、対象物を正確に認識することができない場合がある。また、画像から注目領域の像が抽出できなかった場合には、画像の全領域を処理対象として認識処理が実行されることより、画像を遅滞なく処理することが困難になる。
なお、このような問題は、自動車のみならず、移動ロボット等の他の移動体の走行制御においても同様に生じる。
However, the image taken by the camera may be blurred due to the influence of nighttime, rainy weather, fog, evening, backlight, shadow of a temporarily installed object, power failure, and the like. In such a case, the image of the area of interest cannot be extracted because the object such as a road sign or a traffic signal appears unclear, or the image of the wrong position can be extracted. It may fail. As a result, it may not be possible to accurately recognize the object. Further, when the image of the region of interest cannot be extracted from the image, the recognition process is executed with the entire region of the image as the processing target, which makes it difficult to process the image without delay.
It should be noted that such a problem occurs not only in automobiles but also in traveling control of other moving objects such as mobile robots.

本開示は、このような事情に鑑みてなされたものであり、画像中の対象物を遅滞なく正確に認識することのできる画像認識装置、画像認識方法、コンピュータプログラム、および画像認識システムを提供することを目的とする。 The present disclosure has been made in view of such circumstances, and provides an image recognition device, an image recognition method, a computer program, and an image recognition system capable of accurately recognizing an object in an image without delay. The purpose is.

本開示の一態様に係る画像認識装置は、画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、前記注目領域の像に基づいて、所定の認識処理を行う認識処理部とを備える。 The image recognition device according to one aspect of the present disclosure is a camera mounted on the moving body based on the position of the moving body from a storage unit that stores the region of interest in the image and the shooting position of the image in association with each other. Based on the acquisition unit that acquires the region of interest in the image around the moving body taken by the camera, the cutout portion that cuts out the image of the region of interest from the image around the moving object, and the image of the region of interest. It also includes a recognition processing unit that performs predetermined recognition processing.

本開示の他の一態様に係る画像認識方法は、画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得するステップと、前記移動体の周囲の画像から、前記注目領域の像を切出すステップと、前記注目領域の像に基づいて、所定の認識処理を行うステップとを含む。 The image recognition method according to another aspect of the present disclosure is mounted on the moving body based on the position of the moving body from the storage unit that stores the region of interest in the image and the shooting position of the image in association with each other. Based on the step of acquiring the region of interest in the image around the moving object taken by the camera, the step of cutting out the image of the region of interest from the image around the moving object, and the image of the region of interest. It includes a step of performing a predetermined recognition process.

本開示の他の一態様に係るコンピュータプログラムは、コンピュータを、画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、前記注目領域の像に基づいて、所定の認識処理を行う認識処理部、として機能させる。 A computer program according to another aspect of the present disclosure is to move a computer from a storage unit that stores a region of interest in an image and a shooting position of the image in association with each other to the moving body based on the position of the moving body. An acquisition unit that acquires an area of interest in an image around the moving object taken by a mounted camera, a cutting unit that cuts out an image of the area of interest from an image around the moving object, and the area of interest. It functions as a recognition processing unit that performs a predetermined recognition process based on the image of.

本開示の他の一態様に係る画像認識システムは、移動体に搭載されるカメラと、画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、前記移動体の位置に基づいて、前記カメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、前記注目領域の像に基づいて、所定の認識処理を行う認識処理部とを備える。 The image recognition system according to another aspect of the present disclosure is a position of the moving body from a storage unit that stores the camera mounted on the moving body in association with the region of interest in the image and the shooting position of the image. An acquisition unit that acquires an area of interest in an image around the moving object taken by the camera, a cutting unit that cuts out an image of the area of interest from an image around the moving object, and the above. A recognition processing unit that performs a predetermined recognition process based on an image of a region of interest is provided.

なお、コンピュータプログラムを、CD-ROM(Compact Disc-Read Only Memory)等のコンピュータ読取可能な非一時的な記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。また、本開示は、画像認識装置の一部または全部を実現する半導体集積回路として実現することもできる。 Needless to say, the computer program can be distributed via a computer-readable non-temporary recording medium such as a CD-ROM (Compact Disc-Read Only Memory) or a communication network such as the Internet. Further, the present disclosure can also be realized as a semiconductor integrated circuit that realizes a part or all of the image recognition device.

本開示によると、画像中の対象物を遅滞なく正確に認識することができる。 According to the present disclosure, an object in an image can be accurately recognized without delay.

図1は、本開示の実施形態1に係る運転支援システムの全体構成を示す図である。FIG. 1 is a diagram showing an overall configuration of a driving support system according to the first embodiment of the present disclosure. 図2は、本開示の実施形態1に係る制御システムの構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of the control system according to the first embodiment of the present disclosure. 図3は、プロセッサの機能的な構成を示すブロック図である。FIG. 3 is a block diagram showing a functional configuration of the processor. 図4は、サーバに蓄積されている注目領域情報の一例を示す図である。FIG. 4 is a diagram showing an example of the area of interest information stored in the server. 図5は、注目領域の一例を示す図である。FIG. 5 is a diagram showing an example of a region of interest. 図6は、本開示の実施形態1に係る制御システムが実行する処理のフローチャートである。FIG. 6 is a flowchart of processing executed by the control system according to the first embodiment of the present disclosure. 図7は、本開示の実施形態1に係る抽出成否判定処理(図6のステップS3)の詳細を示すフローチャートである。FIG. 7 is a flowchart showing the details of the extraction success / failure determination process (step S3 in FIG. 6) according to the first embodiment of the present disclosure. 図8は、本開示の実施形態2に係る抽出成否判定処理(図6のステップS3)の詳細を示すフローチャートである。FIG. 8 is a flowchart showing the details of the extraction success / failure determination process (step S3 in FIG. 6) according to the second embodiment of the present disclosure. 図9は、本開示の実施形態3に係る抽出成否判定処理(図6のステップS3)の詳細を示すフローチャートである。FIG. 9 is a flowchart showing the details of the extraction success / failure determination process (step S3 in FIG. 6) according to the third embodiment of the present disclosure.

[本開示の実施形態の概要]
最初に本開示の実施形態の概要を列記して説明する。
(1)本開示の一実施形態に係る画像認識装置は、画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、前記注目領域の像に基づいて、所定の認識処理を行う認識処理部とを備える。
[Summary of Embodiments of the present disclosure]
First, an outline of the embodiments of the present disclosure will be listed and described.
(1) The image recognition device according to the embodiment of the present disclosure is from a storage unit that stores an area of interest in an image and a shooting position of the image in association with each other to the moving body based on the position of the moving body. An acquisition unit that acquires an image of interest in an image around the moving object taken by a mounted camera, a cutting unit that cuts out an image of the area of interest from an image around the moving object, and the area of interest. It is provided with a recognition processing unit that performs a predetermined recognition process based on the image of.

この構成によると、移動体の位置に対応した注目領域の情報が蓄積部から取得され、取得された情報が示す注目領域の像が画像から切出される。また、切出された注目領域の像に基づいて、所定の認識処理が実行される。例えば、移動体が工場内を自律走行する移動ロボットである場合には、工場内の表示装置、道路標識または工場通路などの位置は変化しない。このため、同じ位置で撮影された画像における注目領域は同じである。よって、蓄積部から注目領域の情報を取得することにより、注目領域の像を正確に切出すことができる。これにより、画像中の対象物を遅滞なく正確に認識することができる。 According to this configuration, information on the region of interest corresponding to the position of the moving body is acquired from the storage unit, and an image of the region of interest indicated by the acquired information is cut out from the image. Further, a predetermined recognition process is executed based on the image of the region of interest cut out. For example, when the moving body is a mobile robot that autonomously travels in the factory, the positions of the display device, the road sign, the factory passage, and the like in the factory do not change. Therefore, the areas of interest in the images taken at the same position are the same. Therefore, by acquiring the information of the region of interest from the storage unit, the image of the region of interest can be accurately cut out. This makes it possible to accurately recognize the object in the image without delay.

(2)好ましくは、前記移動体の周囲の画像から所定の注目領域を抽出する抽出部と、前記抽出部による前記注目領域の抽出の成否を判定する判定部と、前記判定部の判定結果に基づいて、前記抽出部が抽出した前記注目領域と前記取得部が取得した前記注目領域の少なくとも一方を選択する選択部とをさらに備え、前記切出し部は、前記選択部が選択した前記注目領域の像を切出す。 (2) Preferably, the extraction unit that extracts a predetermined region of interest from the image around the moving body, the determination unit that determines the success or failure of the extraction of the region of interest by the extraction unit, and the determination result of the determination unit. Based on this, the extraction unit further includes a selection unit that selects at least one of the attention region extracted by the extraction unit and the attention region acquired by the acquisition unit, and the cutting unit is the attention region selected by the selection unit. Cut out the image.

この構成によると、画像から注目領域の抽出に失敗した場合に、移動体の位置に対応した注目領域の情報が蓄積部から取得され、取得された情報が示す注目領域の像が画像から切出される。また、切出された注目領域の像に基づいて、所定の認識処理が実行される。例えば、移動体が工場内を自律走行する移動ロボットである場合は、工場内の表示装置、道路標識または歩行者通行用の工場通路などの位置は変化しない。このため、同じ位置で撮影された画像における注目領域は同じである。よって、蓄積部から注目領域の情報を取得することにより、画像が不鮮明等の理由により注目領域の抽出に失敗した場合であっても、注目領域の像を正確に切出すことができる。これにより、画像中の対象物を遅滞なく正確に認識することができる。 According to this configuration, when the extraction of the attention region from the image fails, the information of the attention region corresponding to the position of the moving body is acquired from the storage unit, and the image of the attention region indicated by the acquired information is cut out from the image. Is done. Further, a predetermined recognition process is executed based on the image of the region of interest cut out. For example, when the moving body is a mobile robot that autonomously travels in the factory, the positions of the display device, the road sign, the factory passage for pedestrian passage, etc. in the factory do not change. Therefore, the areas of interest in the images taken at the same position are the same. Therefore, by acquiring the information of the region of interest from the storage unit, the image of the region of interest can be accurately cut out even when the extraction of the region of interest fails due to reasons such as unclearness of the image. This makes it possible to accurately recognize the object in the image without delay.

(3)さらに好ましくは、前記判定部は、前記注目領域の抽出結果に基づいて、前記注目領域の抽出の成否を判定する。 (3) More preferably, the determination unit determines the success or failure of the extraction of the attention region based on the extraction result of the attention region.

この構成によると、例えば、画像から注目領域が抽出できなかった場合に、注目領域の抽出に失敗したと判定することができる。 According to this configuration, for example, when the region of interest cannot be extracted from the image, it can be determined that the extraction of the region of interest has failed.

(4)また、前記判定部は、前記注目領域の抽出の確からしさを示す確信度に基づいて、前記注目領域の抽出の成否を判定してもよい。 (4) Further, the determination unit may determine the success or failure of the extraction of the attention region based on the certainty degree indicating the certainty of the extraction of the attention region.

この構成によると、例えば、注目領域の確信度が所定の基準よりも低い場合には、注目領域の抽出に失敗したと判定することができる。これにより、抽出された注目領域の確信度が所定の基準以上の場合には、当該注目領域の像に基づいて認識処理が実行される。また、抽出された注目領域の確信度が所定の基準未満の場合には、移動体の位置に対応した注目領域の像に基づいて認識処理が実行される。これにより、画像中の対象物を正確に認識することができる。 According to this configuration, for example, when the certainty of the region of interest is lower than a predetermined criterion, it can be determined that the extraction of the region of interest has failed. As a result, when the certainty of the extracted region of interest is equal to or higher than a predetermined reference, the recognition process is executed based on the image of the region of interest. When the certainty of the extracted region of interest is less than a predetermined reference, the recognition process is executed based on the image of the region of interest corresponding to the position of the moving body. This makes it possible to accurately recognize the object in the image.

(5)また、前記判定部は、前記画像撮影時の異常状態情報に基づいて、前記注目領域の抽出の成否を判定してもよい。 (5) Further, the determination unit may determine the success or failure of the extraction of the region of interest based on the abnormal state information at the time of taking the image.

この構成によると、例えば、屋外において雨や雪などの気象の異常状態により不鮮明な画像しか得られない場合や、屋内(例えば、工場内)での停電または災害(例えば、火災による煙の発生)などの異常状態により不鮮明な画像しか得られない場合には、注目領域の抽出に失敗したと判定することができる。これにより、晴れの場合や異常が発生していない場合などの正常状態時には、抽出された注目領域の像に基づいて認識処理が実行される。また、雨や雪、災害時などの異常状態時には、移動体の位置に対応した注目領域の像に基づいて認識処理が実行される。これにより、画像中の対象物を正確に認識することができる。 According to this configuration, for example, when only an unclear image can be obtained outdoors due to abnormal weather conditions such as rain or snow, or when there is a power outage or disaster (for example, smoke generation due to a fire) indoors (for example, in a factory). When only an unclear image is obtained due to an abnormal state such as, it can be determined that the extraction of the region of interest has failed. As a result, the recognition process is executed based on the extracted image of the region of interest in a normal state such as when it is sunny or when no abnormality has occurred. Further, in an abnormal state such as rain, snow, or a disaster, the recognition process is executed based on the image of the region of interest corresponding to the position of the moving object. This makes it possible to accurately recognize the object in the image.

(6)また、前記選択部は、さらに、ユーザによる選択指示に基づいて、前記抽出部が抽出した前記注目領域と前記取得部が取得した前記注目領域の少なくとも一方を選択してもよい。 (6) Further, the selection unit may further select at least one of the attention area extracted by the extraction unit and the attention area acquired by the acquisition unit based on the selection instruction by the user.

この構成によると、ユーザの選択により、注目領域の選択が行われる。これにより、状況に応じて、注目領域の切り替えを行うことができる。例えば、抽出部が抽出した注目領域の像に基づく認識処理の認識精度が低下したとユーザが判断した場合には、移動体の位置に対応した注目領域の像に基づく認識処理に切り替えることができる。 According to this configuration, the region of interest is selected by the user's selection. This makes it possible to switch the region of interest depending on the situation. For example, when the user determines that the recognition accuracy of the recognition process based on the image of the attention area extracted by the extraction unit has deteriorated, the recognition process can be switched to the recognition process based on the image of the attention area corresponding to the position of the moving object. ..

(7)また、前記切出し部は、さらに、前記画像から前記注目領域以外の領域を含む非注目領域の像を切出し、前記画像認識装置は、前記非注目領域の像のデータ量を削減する削減部をさらに備え、前記認識処理部は、前記注目領域の像およびデータ量が削減された前記非注目領域の像に基づいて、前記所定の認識処理を行ってもよい。 (7) Further, the cutout portion further cuts out an image of a non-attention region including a region other than the attention region from the image, and the image recognition device reduces the amount of data of the image of the non-attention region. Further, the recognition processing unit may perform the predetermined recognition processing based on the image of the attention region and the image of the non-attention region in which the amount of data is reduced.

この構成によると、非注目領域の像に対しては間引き処理等のデータ量の削減処理が行われた上で、所定の認識処理が実行される。非注目領域は、例えば、空や、路側の建物などの認識の対象物以外の領域である。これにより、非注目領域に対する認識処理の処理負荷を低減させることができ、画像を遅滞なく処理することができる。 According to this configuration, the image in the non-attention region is subjected to a data amount reduction process such as a thinning process, and then a predetermined recognition process is executed. The non-attention area is an area other than the object of recognition, such as the sky or a building on the roadside. As a result, the processing load of the recognition processing for the non-attention region can be reduced, and the image can be processed without delay.

(8)また、前記蓄積部は、さらに、前記画像撮影時の時刻を対応付けて蓄積し、前記取得部は、前記移動体の位置および現在時刻に基づいて、前記蓄積部から前記注目領域を取得してもよい。 (8) Further, the storage unit further stores the image in association with the time at the time of image capture, and the acquisition unit stores the area of interest from the storage unit based on the position of the moving body and the current time. You may get it.

この構成によると、例えば、現在時刻に最も近い時刻に撮影された画像から抽出された注目領域を取得することができる。これにより、例えば、時間帯によって進行方向が変化するリバーシブルレーンを移動体が走行している場合に、進行方向が逆の時間帯にリバーシブルレーンを走行した移動体が撮影した画像から抽出された注目領域を取得することがなくなる。また、例えば、現在時刻が夜間である場合には昼間に撮影された画像から抽出された注目領域を優先して取得することもできる。これにより、正確な注目領域を取得することができる。 According to this configuration, for example, the region of interest extracted from the image taken at the time closest to the current time can be acquired. As a result, for example, when a moving object is traveling in a reversible lane whose traveling direction changes depending on a time zone, attention is extracted from an image taken by the moving object traveling in the reversible lane in a time zone opposite to the traveling direction. You no longer get the area. Further, for example, when the current time is nighttime, the area of interest extracted from the image taken in the daytime can be preferentially acquired. This makes it possible to obtain an accurate region of interest.

(9)また、前記蓄積部は、さらに、前記画像のサイズを対応付けて蓄積し、前記取得部は、さらに、前記注目領域に対応する前記画像のサイズを取得し、取得した前記サイズと、前記カメラにより撮影された前記画像のサイズとに基づいて、取得した前記注目領域を補正してもよい。 (9) Further, the storage unit further stores the size of the image in association with each other, and the acquisition unit further acquires the size of the image corresponding to the region of interest, and obtains the size and the size of the image. The acquired region of interest may be corrected based on the size of the image captured by the camera.

この構成によると、移動体に搭載されるカメラにより撮影される画像のサイズと、蓄積部に蓄積された注目領域の抽出の基となった画像のサイズとが異なる場合であっても、正確な位置の注目領域の像を切り出すことができる。 According to this configuration, even if the size of the image taken by the camera mounted on the moving object is different from the size of the image that is the basis for extracting the region of interest accumulated in the storage unit, it is accurate. An image of the region of interest at the position can be cut out.

(10)また、前記蓄積部は、さらに、前記画像の画角を対応付けて蓄積し、前記取得部は、さらに、前記注目領域に対応する前記画像の画角を取得し、取得した前記画角と、前記カメラにより撮影された前記画像の画角とに基づいて、取得した前記注目領域を補正してもよい。 (10) Further, the storage unit further stores the image in association with the angle of view of the image, and the acquisition unit further acquires and acquires the angle of view of the image corresponding to the region of interest. The acquired region of interest may be corrected based on the angle and the angle of view of the image taken by the camera.

この構成によると、移動体に搭載されるカメラにより撮影される画像の画角と、蓄積部に蓄積された注目領域の抽出の基となった画像の画角とが異なる場合であっても、正確な位置の注目領域の像を切り出すことができる。 According to this configuration, even if the angle of view of the image taken by the camera mounted on the moving object is different from the angle of view of the image that is the basis for extracting the region of interest accumulated in the storage unit. It is possible to cut out an image of the region of interest at an accurate position.

(11)本開示の他の実施形態に係る画像認識方法は、画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得するステップと、前記移動体の周囲の画像から、前記注目領域の像を切出すステップと、前記注目領域の像に基づいて、所定の認識処理を行うステップとを含む。 (11) In the image recognition method according to another embodiment of the present disclosure, the moving body is based on the position of the moving body from the storage unit that stores the region of interest in the image and the shooting position of the image in association with each other. A step of acquiring an image of interest in an image around the moving body taken by a camera mounted on the moving body, a step of cutting out an image of the region of interest from an image around the moving body, and a step of the area of interest. It includes a step of performing a predetermined recognition process based on the image.

この構成は、上述の画像認識装置における特徴的な処理をステップとして含む。このため、この構成によると、上述の画像認識装置と同様の作用および効果を奏することができる。 This configuration includes the characteristic processing in the above-mentioned image recognition device as a step. Therefore, according to this configuration, the same operations and effects as those of the above-mentioned image recognition device can be obtained.

(12)本開示の他の実施形態に係るコンピュータプログラムは、コンピュータを、画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、前記注目領域の像に基づいて、所定の認識処理を行う認識処理部、として機能させる。 (12) The computer program according to another embodiment of the present disclosure is described above based on the position of a moving body from a storage unit that stores a computer in association with a region of interest in an image and a shooting position of the image. An acquisition unit that acquires an area of interest in an image around the moving object taken by a camera mounted on the moving object, and a cutting unit that cuts out an image of the area of interest from an image around the moving object. It functions as a recognition processing unit that performs a predetermined recognition process based on the image of the region of interest.

この構成によると、コンピュータを、上述の画像認識装置として機能させることができる。このため、上述の画像認識装置と同様の作用および効果を奏することができる。 According to this configuration, the computer can function as the above-mentioned image recognition device. Therefore, the same operation and effect as the above-mentioned image recognition device can be obtained.

(13)本開示の他の実施形態に係る画像認識システムは、移動体に搭載されるカメラと、画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、前記移動体の位置に基づいて、前記カメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、前記注目領域の像に基づいて、所定の認識処理を行う認識処理部とを備える。 (13) The image recognition system according to another embodiment of the present disclosure is moved from a storage unit that stores a camera mounted on a moving body in association with a region of interest in an image and a shooting position of the image. An acquisition unit that acquires an area of interest in an image around the moving body taken by the camera based on the position of the body, and a cutting unit that cuts out an image of the area of interest from an image around the moving body. And a recognition processing unit that performs a predetermined recognition process based on the image of the region of interest.

この構成によると、移動体の位置に対応した注目領域の情報が蓄積部から取得され、取得された情報が示す注目領域の像を画像から切出される。また、切出された注目領域の像に基づいて、所定の認識処理が実行される。例えば、移動体が工場内を自律走行する移動ロボットである場合には、工場内の表示装置、道路標識または工場通路などの位置は変化しない。このため、同じ位置で撮影された画像における注目領域は同じである。よって、蓄積部から注目領域の情報を取得することにより、注目領域の像を正確に切出すことができる。これにより、画像中の対象物を遅滞なく正確に認識することができる。 According to this configuration, information on the region of interest corresponding to the position of the moving body is acquired from the storage unit, and an image of the region of interest indicated by the acquired information is cut out from the image. Further, a predetermined recognition process is executed based on the image of the region of interest cut out. For example, when the moving body is a mobile robot that autonomously travels in the factory, the positions of the display device, the road sign, the factory passage, and the like in the factory do not change. Therefore, the areas of interest in the images taken at the same position are the same. Therefore, by acquiring the information of the region of interest from the storage unit, the image of the region of interest can be accurately cut out. This makes it possible to accurately recognize the object in the image without delay.

[本開示の実施形態の詳細]
以下、本開示の実施形態について、図面を参照しながら説明する。なお、以下で説明する実施形態は、いずれも本開示の一具体例を示すものである。以下の実施形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定するものではない。また、以下の実施形態における構成要素のうち、独立請求項に記載されていない構成要素については、任意に付加可能な構成要素である。また、各図は、模式図であり、必ずしも厳密に図示されたものではない。
また、同一の構成要素には同一の符号を付す。それらの機能および名称も同様であるため、それらの説明は適宜省略する。
[Details of Embodiments of the present disclosure]
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In addition, all of the embodiments described below show a specific example of the present disclosure. The numerical values, shapes, materials, components, arrangement positions and connection forms of the components, steps, the order of steps, and the like shown in the following embodiments are examples, and do not limit the present disclosure. Further, among the components in the following embodiments, the components not described in the independent claims are components that can be arbitrarily added. Further, each figure is a schematic view and is not necessarily exactly illustrated.
Further, the same components are designated by the same reference numerals. Since their functions and names are the same, their description will be omitted as appropriate.

<実施形態1>
〔運転支援システムの全体構成〕
図1は、本開示の実施形態1に係る運転支援システムの全体構成を示す図である。
<Embodiment 1>
[Overall configuration of driving support system]
FIG. 1 is a diagram showing an overall configuration of a driving support system according to the first embodiment of the present disclosure.

図1を参照して、運転支援システム1は、無線通信が可能な道路上を走行する複数の移動体2と、移動体2と無線通信する1または複数の基地局6と、基地局6とインターネット等のネットワーク5を介して有線または無線で通信するサーバ4とを備える。 With reference to FIG. 1, the driving support system 1 includes a plurality of mobile bodies 2 traveling on a road capable of wireless communication, one or a plurality of base stations 6 that wirelessly communicate with the mobile body 2, and a base station 6. It includes a server 4 that communicates by wire or wirelessly via a network 5 such as the Internet.

基地局6は、マクロセル基地局、マイクロセル基地局、およびピコセル基地局などからなる。 The base station 6 includes a macrocell base station, a microcell base station, a picocell base station, and the like.

移動体2は、例えば、工場内を自律走行しながら荷物を搬送する搬送ロボットや、工場内を自律走行しながら監視する監視ロボットなどの移動ロボットである。本実施形態では、移動体2は、移動ロボットであるものとする。ただし、移動体2は、工場内を走行する移動ロボットに限定されるものではない。移動体2には、例えば、道路を走行する通常の乗用車の他、路線バスや緊急車両などの公共車両も含まれる。また、移動体2は、四輪車だけでなく、二輪車(バイク)であってもよい。 The mobile body 2 is, for example, a mobile robot such as a transport robot that transports luggage while autonomously traveling in a factory or a monitoring robot that monitors while autonomously traveling in a factory. In the present embodiment, the mobile body 2 is assumed to be a mobile robot. However, the mobile body 2 is not limited to the mobile robot traveling in the factory. The moving body 2 includes, for example, a normal passenger car traveling on a road and a public vehicle such as a route bus or an emergency vehicle. Further, the moving body 2 may be not only a four-wheeled vehicle but also a two-wheeled vehicle (motorcycle).

各移動体2は、後述するようにカメラを含む制御システム3を備えており、カメラで移動体2の周囲を撮影することにより得られる画像中の注目領域の位置と、少なくともカメラの撮影位置および撮影方向とを、ネットワーク5を介してサーバ4に送信する。なお、カメラの撮影位置は、カメラによる撮影時の移動体2の位置と同じである。なお、本実施形態では、カメラの光軸は移動体2の前方を向いているものとする。このため、移動体2の進行方向をカメラの撮影方向とする。 Each moving object 2 includes a control system 3 including a camera as described later, and the position of the region of interest in the image obtained by photographing the periphery of the moving object 2 with the camera, and at least the photographing position of the camera and the imaging position of the camera. The shooting direction is transmitted to the server 4 via the network 5. The shooting position of the camera is the same as the position of the moving body 2 when shooting with the camera. In this embodiment, it is assumed that the optical axis of the camera faces the front of the moving body 2. Therefore, the traveling direction of the moving body 2 is set as the shooting direction of the camera.

本実施形態において、注目領域は、移動体2の自動運転に重要な情報を含む領域であって、静的情報または準静的情報を含む領域である。例えば、注目領域は、静的情報として、恒常的に存在する工場内の表示装置、道路標識または工場通路などを含む領域である。また、注目領域は、準静的情報として、一時的に存在する道路工事現場、交通事故現場などを含む領域である。 In the present embodiment, the region of interest is an region containing important information for the automatic operation of the mobile body 2, and is a region including static information or quasi-static information. For example, the area of interest is an area that includes, as static information, a display device, a road sign, a factory passage, etc. in a factory that constantly exists. In addition, the area of interest is an area that includes temporarily existing road construction sites, traffic accident sites, etc. as quasi-static information.

サーバ4は、ネットワーク5を介して、複数の移動体2から、注目領域の位置および付属データの組を受信し、サーバ4の蓄積部に注目領域情報として記憶する。 The server 4 receives the position of the region of interest and the set of attached data from the plurality of mobile bodies 2 via the network 5, and stores it in the storage unit of the server 4 as the region of interest information.

サーバ4は、ネットワーク5を介して、制御システム3から、少なくとも移動体2の位置情報を受け、移動体2の位置に対応する注目領域の位置情報を、ネットワーク5を介して制御システム3に送信する。 The server 4 receives at least the position information of the moving body 2 from the control system 3 via the network 5, and transmits the position information of the region of interest corresponding to the position of the moving body 2 to the control system 3 via the network 5. do.

制御システム3は、ネットワーク5を介して、サーバ4から注目領域の位置情報を受信する。制御システム3は、受信した注目領域の位置情報に基づいて、制御システム3が撮影した画像から注目領域の像を切出す。制御システム3は、切出した注目領域像に対して所定の画像処理を施すことにより、所定の認識処理を行う。例えば、制御システム3は、注目領域像に含まれる対象物を認識し、認識結果に応じた処理を行う。一例として、対象物が一時停止を示す道路標識の場合には、制御システム3は、移動体2を安全に一時停止させるための移動体2の制動制御を行う。 The control system 3 receives the position information of the region of interest from the server 4 via the network 5. The control system 3 cuts out an image of the region of interest from the image captured by the control system 3 based on the received position information of the region of interest. The control system 3 performs a predetermined recognition process by performing a predetermined image process on the cut out region of interest image. For example, the control system 3 recognizes an object included in the region of interest image and performs processing according to the recognition result. As an example, when the object is a road sign indicating a suspension, the control system 3 performs braking control of the moving body 2 for safely suspending the moving body 2.

〔移動体2の構成〕
図2は、本開示の実施形態1に係る制御システム3の構成の一例を示すブロック図である。
[Structure of mobile body 2]
FIG. 2 is a block diagram showing an example of the configuration of the control system 3 according to the first embodiment of the present disclosure.

図2に示すように、移動体2の制御システム3は、カメラ31と、通信部32と、クロック33と、制御部(ECU:Electronic Control Unit)34と、GPS(Global Positioning System)受信機37と、ジャイロセンサ38と、速度センサ39とを備える。 As shown in FIG. 2, the control system 3 of the mobile body 2 includes a camera 31, a communication unit 32, a clock 33, a control unit (ECU: Electronic Control Unit) 34, and a GPS (Global Positioning System) receiver 37. And a gyro sensor 38 and a speed sensor 39.

カメラ31は、移動体2の周囲(特に、移動体2の前方)の映像を取り込む画像センサよりなる。カメラ31は、単眼である。ただし、カメラ31は、複眼であってもよい。映像は、時系列の複数の画像より構成される。 The camera 31 comprises an image sensor that captures an image of the surroundings of the moving body 2 (particularly, in front of the moving body 2). The camera 31 is monocular. However, the camera 31 may have compound eyes. The video is composed of a plurality of images in time series.

通信部32は、例えば5G(第5世代移動通信システム)対応の通信処理が可能な無線通信機よりなる。なお、通信部32は、移動体2に既設の無線通信機であってもよいし、搭乗者が移動体2に持ち込んだ携帯端末であってもよい。 The communication unit 32 includes, for example, a wireless communication device capable of communication processing compatible with 5G (fifth generation mobile communication system). The communication unit 32 may be an existing wireless communication device in the mobile body 2 or a mobile terminal brought into the mobile body 2 by the passenger.

搭乗者の携帯端末は、移動体2の車内LAN(Local Area Network)に接続されることにより、一時的に車載の無線通信機となる。 The passenger's mobile terminal temporarily becomes an in-vehicle wireless communication device by being connected to the in-vehicle LAN (Local Area Network) of the mobile body 2.

クロック33は、現在の時刻を計時する。 The clock 33 clocks the current time.

制御部34は、移動体2の各機器31~33、37~39の制御を行うコンピュータ装置よりなる。制御部34は、GPS受信機37が定期的に取得するGPS信号により自移動体の移動体位置を求める。なお、制御部34は、図示しない準天頂衛星から送信される信号の受信機が受信したGPS補完信号またはGPS補強信号を合わせて用いることで、GPS信号を補完したり、自移動体の移動体位置を補正したりしてもよい。なお、移動体位置は、車線を区別できる程度の位置精度を有しているのが好ましい。 The control unit 34 includes a computer device that controls each of the devices 31 to 33 and 37 to 39 of the mobile body 2. The control unit 34 obtains the position of the moving body of the self-moving body by the GPS signal periodically acquired by the GPS receiver 37. The control unit 34 complements the GPS signal or is a moving body of a self-moving object by using the GPS complement signal or the GPS augmentation signal received by the receiver of the signal transmitted from the quasi-zenith satellite (not shown) together. The position may be corrected. It is preferable that the position of the moving body has a position accuracy enough to distinguish the lanes.

制御部34は、ジャイロセンサ38および速度センサ39の入力信号に基づいて、移動体2の位置および方向を補完し、移動体2の正確な現在位置および方向を把握する。ここで、移動体2の現在位置は、例えば、緯度および経度により示される。また、移動体2の方向(進行方向)は、例えば、北を0度とする時計回りの0度~360度の範囲の角度で示される。 The control unit 34 complements the position and direction of the moving body 2 based on the input signals of the gyro sensor 38 and the speed sensor 39, and grasps the accurate current position and direction of the moving body 2. Here, the current position of the moving body 2 is indicated by, for example, latitude and longitude. Further, the direction (traveling direction) of the moving body 2 is indicated by, for example, an angle in the range of 0 degrees to 360 degrees clockwise with the north as 0 degrees.

GPS受信機37、ジャイロセンサ38および速度センサ39は、移動体2の現在位置、方向および速度を計測するセンサ類である。 The GPS receiver 37, the gyro sensor 38, and the speed sensor 39 are sensors that measure the current position, direction, and speed of the moving body 2.

制御部34は、プロセッサ35と、メモリ36とを備える。
プロセッサ35は、メモリ36に格納されたコンピュータプログラムを実行するマイクロコンピュータなどの演算処理装置である。
The control unit 34 includes a processor 35 and a memory 36.
The processor 35 is an arithmetic processing unit such as a microcomputer that executes a computer program stored in the memory 36.

メモリ36は、SRAM(Static RAM)またはDRAM(Dynamic RAM)などの揮発性のメモリ素子、フラッシュメモリ若しくはEEPROM(Electrically Erasable Programmable Read Only Memory)などの不揮発性のメモリ素子、または、ハードディスクなどの磁気記憶装置などにより構成されている。メモリ36は、制御部34で実行されるコンピュータプログラムや、制御部34におけるコンピュータプログラム実行時に生成されるデータ等を記憶する。 The memory 36 is a volatile memory element such as a SRAM (Static RAM) or a DRAM (Dynamic RAM), a flash memory or a non-volatile memory element such as an EEPROM (Electrically Erasable Specramable Read Only Memory), or a magnetic storage such as a hard disk. It is composed of devices and the like. The memory 36 stores a computer program executed by the control unit 34, data generated when the computer program is executed by the control unit 34, and the like.

〔プロセッサ35の機能構成〕
図3は、プロセッサ35の機能的な構成を示すブロック図である。
[Functional configuration of processor 35]
FIG. 3 is a block diagram showing a functional configuration of the processor 35.

図3を参照して、プロセッサ35は、メモリ36に記憶されたコンピュータプログラムを実行することにより実現される機能的な処理部として、画像取得部51と、注目領域抽出部52と、抽出成否判定部53と、注目領域取得部54と、移動体位置判断部55と、注目領域選択部56と、切出し部57と、データ量削減部58と、認識処理部59とを含む。 With reference to FIG. 3, the processor 35 includes an image acquisition unit 51, an attention area extraction unit 52, and an extraction success / failure determination as functional processing units realized by executing a computer program stored in the memory 36. A unit 53, an attention area acquisition unit 54, a moving body position determination unit 55, an attention area selection unit 56, a cutting unit 57, a data amount reduction unit 58, and a recognition processing unit 59 are included.

画像取得部51は、カメラ31が撮影した移動体2の前方の画像を時系列で順次取得する。画像取得部51は、取得した画像を注目領域抽出部52および切出し部57に順次出力する。 The image acquisition unit 51 sequentially acquires images in front of the moving body 2 taken by the camera 31 in chronological order. The image acquisition unit 51 sequentially outputs the acquired images to the region of interest extraction unit 52 and the cutout unit 57.

注目領域抽出部52は、画像取得部51から画像を取得し、取得した画像から注目領域を抽出する。例えば、注目領域抽出部52は、画像、および画像中の注目領域を学習データとして機械学習された学習モデルを用いて、取得した画像を学習モデルに入力することにより、注目領域を得る。また、注目領域抽出部52は、学習モデルから注目領域の確からしさを示す確信度を得る。学習モデルは、例えば、CNN(Convolution Neural Network)、RNN(Recurrent Neural Network)、AutoEncoderなどであり、ディープラーニングなどの機械学習手法により、学習モデルの各パラメータが決定されているものとする。 The attention area extraction unit 52 acquires an image from the image acquisition unit 51, and extracts the attention area from the acquired image. For example, the attention region extraction unit 52 obtains the attention region by inputting the acquired image into the learning model using the image and the learning model machine-learned using the attention region in the image as learning data. Further, the attention region extraction unit 52 obtains a certainty degree indicating the certainty of the attention region from the learning model. The learning model is, for example, CNN (Convolution Natural Network), RNN (Recurrent Neural Network), AutoEncoder, etc., and it is assumed that each parameter of the learning model is determined by a machine learning method such as deep learning.

本実施形態では、注目領域は、矩形であるとする。また、注目領域は、矩形の左上隅座標と、矩形のX方向およびY方向の幅とで規定されるものとする。ただし、注目領域の位置は上記したものに限定されない。例えば、矩形の左上隅座標と右下隅座標とで注目領域を規定してもよい。また、注目領域は、楕円形など矩形以外の形状であってもよい。 In the present embodiment, the region of interest is a rectangle. Further, the region of interest is defined by the coordinates of the upper left corner of the rectangle and the widths of the rectangle in the X and Y directions. However, the position of the region of interest is not limited to the above. For example, the region of interest may be defined by the coordinates of the upper left corner and the coordinates of the lower right corner of the rectangle. Further, the region of interest may have a shape other than a rectangle such as an ellipse.

注目領域抽出部52は、抽出した注目領域と確信度を抽出成否判定部53および注目領域選択部56に出力する。 The attention area extraction unit 52 outputs the extracted attention area and certainty to the extraction success / failure determination unit 53 and the attention area selection unit 56.

抽出成否判定部53は、注目領域抽出部52による前記注目領域の抽出の成否を判定する。具体的には、抽出成否判定部53は、注目領域抽出部52が抽出した確信度に基づいて、注目領域の抽出の成否を判定する。例えば、抽出成否判定部53は、確信度が所定の閾値TH以上であれば注目領域の抽出に成功したと判定し、確信度が所定の閾値TH未満であれば注目領域の抽出に失敗したと判定する。 The extraction success / failure determination unit 53 determines the success / failure of the extraction of the region of interest by the region of interest 52. Specifically, the extraction success / failure determination unit 53 determines the success / failure of the extraction of the region of interest based on the certainty of the extraction of the region of interest 52. For example, the extraction success / failure determination unit 53 determines that the extraction of the attention region is successful if the certainty is equal to or higher than the predetermined threshold TH, and fails to extract the attention region if the certainty is less than the predetermined threshold TH. judge.

なお、画像中に複数の注目領域が含まれる場合には、複数の確信度に基づいて注目領域の抽出の成否を判定してもよい。例えば、抽出成否判定部53は、複数の確信度のうち、最小の確信度が所定の閾値TH以上であれば注目領域の抽出に成功したと判定し、最小の確信度が所定の閾値TH未満であれば注目領域の抽出に失敗したと判定してもよい。また、最小の確信度の代わりに、複数の確信度の平均を用いてもよい。また、抽出成否判定部53は、注目領域ごとに抽出の成否を判定してもよい。 When a plurality of areas of interest are included in the image, the success or failure of extraction of the areas of interest may be determined based on a plurality of certainty levels. For example, the extraction success / failure determination unit 53 determines that the extraction of the region of interest has been successful if the minimum certainty of the plurality of certainty is equal to or higher than the predetermined threshold TH, and the minimum certainty is less than the predetermined threshold TH. If so, it may be determined that the extraction of the region of interest has failed. Also, instead of the minimum certainty, the average of a plurality of certainty may be used. Further, the extraction success / failure determination unit 53 may determine the success / failure of the extraction for each region of interest.

抽出成否判定部53は、判定結果を、注目領域抽出部52、注目領域取得部54、移動体位置判断部55および注目領域選択部56に出力する。 The extraction success / failure determination unit 53 outputs the determination result to the attention area extraction unit 52, the attention area acquisition unit 54, the moving body position determination unit 55, and the attention area selection unit 56.

注目領域抽出部52は、注目領域の抽出に成功したと判定された場合には、注目領域の位置と、少なくともカメラ31の撮影位置および撮影方向とを、通信部32を介してサーバ4に送信する。サーバ4は、移動体2から受信した情報を、注目領域情報41として記憶する。 When it is determined that the region of interest has been successfully extracted, the region of interest 52 transmits the position of the region of interest and at least the shooting position and shooting direction of the camera 31 to the server 4 via the communication unit 32. do. The server 4 stores the information received from the mobile body 2 as the area of interest information 41.

注目領域取得部54は、後述する移動体位置判断部55が判断した移動体2の位置に基づいて、サーバ4に蓄積されている注目領域情報41から、注目領域を取得する。 The attention area acquisition unit 54 acquires an attention area from the attention area information 41 stored in the server 4 based on the position of the mobile body 2 determined by the mobile body position determination unit 55 described later.

図4は、サーバ4に蓄積されている注目領域情報41の一例を示す図である。
注目領域情報41は、移動体IDと、撮影時刻と、撮影位置と、注目領域と、移動方向と、画角と、映像サイズとを含む。これらの情報は、各移動体2がサーバ4にアップロードする。
FIG. 4 is a diagram showing an example of the attention area information 41 stored in the server 4.
The attention area information 41 includes a moving body ID, a shooting time, a shooting position, a attention area, a moving direction, an angle of view, and an image size. Each mobile unit 2 uploads this information to the server 4.

移動体IDは、アップロードした移動体2の識別情報である。移動体IDは、移動体2に固有のIDや移動体2のユーザに固有のIDであってもよい。
撮影時刻は、移動体2に搭載されたカメラ31の撮影時刻を示す。
撮影位置は、カメラ31の撮影位置であり、画像撮影時の移動体2の位置と等しい。撮影位置は、例えば、北緯Nおよび東経Eで示される。
The mobile ID is the identification information of the uploaded mobile 2. The mobile ID may be an ID unique to the mobile 2 or an ID unique to the user of the mobile 2.
The shooting time indicates the shooting time of the camera 31 mounted on the moving body 2.
The shooting position is the shooting position of the camera 31, and is equal to the position of the moving body 2 at the time of image shooting. The shooting position is indicated by, for example, north latitude N and east longitude E.

注目領域は、画像から抽出された注目領域の画像中での位置(X,Y,W,H)を示す。XおよびYは、注目領域の左上隅座標のX座標およびY座標をそれぞれ示し、WおよびHは、注目領域のX方向およびY方向の幅をそれぞれ示す。
移動方向は、移動体2の進行方向を示す。
画角は、カメラ31の画角を示す。
The region of interest indicates the position (X, Y, W, H) of the region of interest extracted from the image in the image. X and Y indicate the X and Y coordinates of the upper left corner coordinate of the region of interest, and W and H indicate the width of the region of interest in the X and Y directions, respectively.
The moving direction indicates the traveling direction of the moving body 2.
The angle of view indicates the angle of view of the camera 31.

映像サイズはカメラ31が撮影する画像のサイズを示す。例えば、4Kは、3840×2160(pixel)を示し、8Kは、7680×4320(pixel)を示す。 The image size indicates the size of the image captured by the camera 31. For example, 4K indicates 3840 × 2160 (pixel) and 8K indicates 7680 × 4320 (pixel).

例えば、移動体ID「C001」の移動体2が、撮影時刻「9:00:03」に、撮影位置(N1,E1)において撮影した画像から抽出された5つの注目領域は、(X1,Y1,W1,H1)、(X2,Y2,W2,H2)、(X3,Y3,W3,H3)、(X4,Y4,W4,H4)および(X5,Y5,W5,H5)である。移動体2の方向は45°であり、画像の画角は60°、画像サイズは4Kである。 For example, the five areas of interest extracted from the image taken by the moving body 2 with the moving body ID “C001” at the shooting position (N1, E1) at the shooting time “9:00:03” are (X1, Y1). , W1, H1), (X2, Y2, W2, H2), (X3, Y3, W3, H3), (X4, Y4, W4, H4) and (X5, Y5, W5, H5). The direction of the moving body 2 is 45 °, the angle of view of the image is 60 °, and the image size is 4K.

また、移動体ID「C001」の移動体2が、撮影時刻「9:01:45」に、撮影位置(N2,E2)において撮影した画像から抽出された注目領域は、(X6,Y6,W6,H6)である。移動体2の方向は48°であり、画像の画角は60°、画像サイズは4Kである。 Further, the region of interest extracted from the image taken by the moving body 2 having the moving body ID “C001” at the shooting position (N2, E2) at the shooting time “9:01:45” is (X6, Y6, W6). , H6). The direction of the moving body 2 is 48 °, the angle of view of the image is 60 °, and the image size is 4K.

また、移動体ID「C002」の移動体2が、撮影時刻「20:02:55」に、撮影位置(N1,E1)において撮影した画像から抽出された注目領域は、(X7,Y7,W7,H7)である。移動体2の方向は45°であり、画像の画角は120°、画像サイズは8Kである。 Further, the region of interest extracted from the image taken by the moving body 2 of the moving body ID “C002” at the shooting position (N1, E1) at the shooting time “20:02:55” is (X7, Y7, W7). , H7). The direction of the moving body 2 is 45 °, the angle of view of the image is 120 °, and the image size is 8K.

図5は、注目領域の一例を示す図である。図5は、カメラ31により撮影された画像上に矩形の注目領域を示している。例えば、道路標識を含むように注目領域(X1,Y1,W1,H1)が設定され、工場通路を含むように注目領域(X2,Y2,W2,H2)、(X3,Y3,W3,H3)、(X4,Y4,W4,H4)および(X5,Y5,W5,H5)が設定されている。 FIG. 5 is a diagram showing an example of a region of interest. FIG. 5 shows a rectangular area of interest on an image taken by the camera 31. For example, the area of interest (X1, Y1, W1, H1) is set to include a road sign, and the area of interest (X2, Y2, W2, H2), (X3, Y3, W3, H3) includes a factory passage. , (X4, Y4, W4, H4) and (X5, Y5, W5, H5) are set.

再び図3を参照して、例えば、注目領域取得部54は、移動体位置判断部55が判断した移動体2の位置が(N2,E2)である場合には、注目領域情報41から、撮影位置(N2,E2)に対応した注目領域(X6,Y6,W6,H6)を取得する。 With reference to FIG. 3 again, for example, when the position of the moving body 2 determined by the moving body position determination unit 55 is (N2, E2), the attention area acquisition unit 54 takes a picture from the attention area information 41. The region of interest (X6, Y6, W6, H6) corresponding to the position (N2, E2) is acquired.

ただし、注目領域取得部54は、移動体2の位置および現在時刻に基づいて、注目領域情報41から注目領域を取得するようにしてもよい。例えば、移動体位置判断部55が判断した移動体2の位置が(N1,E1)である場合には、注目領域情報41には、撮影位置(N1,E1)に対応した注目領域として、撮影時刻「9:00:03」の注目領域(X1,Y1,W1,H1)、(X2,Y2,W2,H2)、(X3,Y3,W3,H3)、(X4,Y4,W4,H4)および(X5,Y5,W5,H5)と、撮影時刻「20:02:55」の注目領域(X7,Y7,W7,H7)とが含まれる。そこで、注目領域取得部54は、これらのうち、現在時刻に最も近い時刻に対応した注目領域を注目領域情報41から取得する。例えば、注目領域取得部54は、現在時刻が「9:30:00」の場合には、撮影時刻「9:00:03」に対応した注目領域(X1,Y1,W1,H1)、(X2,Y2,W2,H2)、(X3,Y3,W3,H3)、(X4,Y4,W4,H4)および(X5,Y5,W5,H5)を取得する。また、注目領域取得部54は、現在時刻が「19:00:00」の場合には、撮影時刻「20:02:55」に対応した注目領域(X7,Y7,W7,H7)を取得する。 However, the attention area acquisition unit 54 may acquire the attention area from the attention area information 41 based on the position of the moving body 2 and the current time. For example, when the position of the moving body 2 determined by the moving body position determination unit 55 is (N1, E1), the attention area information 41 is photographed as an attention area corresponding to the shooting position (N1, E1). Areas of interest (X1, Y1, W1, H1), (X2, Y2, W2, H2), (X3, Y3, W3, H3), (X4, Y4, W4, H4) at time "9:00:03" And (X5, Y5, W5, H5) and the region of interest (X7, Y7, W7, H7) at the shooting time "20:02:55" are included. Therefore, the attention area acquisition unit 54 acquires the attention area corresponding to the time closest to the current time from the attention area information 41. For example, when the current time is "9:30:00", the attention area acquisition unit 54 may use the attention area (X1, Y1, W1, H1), (X2) corresponding to the shooting time "9:00:03". , Y2, W2, H2), (X3, Y3, W3, H3), (X4, Y4, W4, H4) and (X5, Y5, W5, H5). Further, when the current time is "19:00:00", the attention area acquisition unit 54 acquires the attention area (X7, Y7, W7, H7) corresponding to the shooting time "20:02:55". ..

なお、注目領域取得部54は、移動体2の位置に加え、移動体2の方向を考慮して注目領域を取得するのが望ましい。これにより、同じ位置であっても、反対方向に走行する移動体2から得られた注目領域情報を取得することなく、同一の方向に走行する移動体2から得られた注目領域情報を取得することができる。ただし、移動体2が一方通行の道路を走行している場合や、移動体2の位置から移動体2の走行車線を特定可能な場合には、移動体2の方向を考慮しなくてもよい。 It is desirable that the attention area acquisition unit 54 acquires the attention area in consideration of the direction of the moving body 2 in addition to the position of the moving body 2. As a result, even at the same position, the attention area information obtained from the moving body 2 traveling in the same direction is acquired without acquiring the attention area information obtained from the moving body 2 traveling in the opposite direction. be able to. However, if the moving body 2 is traveling on a one-way road, or if the traveling lane of the moving body 2 can be specified from the position of the moving body 2, the direction of the moving body 2 does not need to be considered. ..

移動体位置判断部55は、移動体2の位置を判断する。具体的には、移動体位置判断部55は、GPS受信機37が定期的に取得するGPS信号により移動体2の位置を求める。なお、移動体位置判断部55は、ジャイロセンサ38および速度センサ39の入力信号に基づいて、移動体2の位置および方向を補完し、移動体2の正確な現在位置および方向を把握する。また、移動体位置判断部55は、メモリ36に予め記憶されている地図情報61を参照して、求めた移動体2の位置を道路上の位置に対応付けるマップマッチング処理を行うことにより、移動体2の正確な位置を判断する。 The moving body position determination unit 55 determines the position of the moving body 2. Specifically, the mobile body position determination unit 55 obtains the position of the mobile body 2 by the GPS signal periodically acquired by the GPS receiver 37. The moving body position determination unit 55 complements the position and direction of the moving body 2 based on the input signals of the gyro sensor 38 and the speed sensor 39, and grasps the accurate current position and direction of the moving body 2. Further, the moving body position determination unit 55 refers to the map information 61 stored in advance in the memory 36, and performs a map matching process of associating the obtained position of the moving body 2 with the position on the road, thereby performing the moving body position determination unit 55. Determine the exact position of 2.

注目領域選択部56は、抽出成否判定部53の判定結果に基づいて、注目領域抽出部52が抽出した注目領域および注目領域取得部54が取得した注目領域の少なくとも一方を選択する。 The attention area selection unit 56 selects at least one of the attention area extracted by the attention area extraction unit 52 and the attention area acquired by the attention area acquisition unit 54 based on the determination result of the extraction success / failure determination unit 53.

例えば、注目領域選択部56は、注目領域の抽出に成功したと判断された場合には、注目領域抽出部52が抽出した注目領域を選択し、注目領域の抽出に失敗したと判断された場合には、注目領域取得部54が取得した注目領域を選択する。なお、注目領域選択部56は、注目領域の抽出に成功したと判断された場合には、注目領域抽出部52が抽出した注目領域と注目領域取得部54が取得した注目領域の両方を選択してもよい。 For example, when it is determined that the attention area selection unit 56 has succeeded in extracting the attention area, the attention area extraction unit 52 selects the attention area extracted by the attention area extraction unit 52, and it is determined that the extraction of the attention area has failed. Selects the area of interest acquired by the area of interest acquisition unit 54. When it is determined that the attention area extraction is successful, the attention area selection unit 56 selects both the attention area extracted by the attention area extraction unit 52 and the attention area acquired by the attention area acquisition unit 54. You may.

切出し部57は、画像取得部51が取得した画像から、注目領域の像(注目領域像)と、注目領域以外の像(非注目領域像)とを切出す。切出し部57は、注目領域像を認識処理部59に出力し、非注目領域像をデータ量削減部58に出力する。 The cutout unit 57 cuts out an image of the region of interest (image of the region of interest) and an image other than the region of interest (image of the region of interest) from the image acquired by the image acquisition unit 51. The cutout unit 57 outputs the attention region image to the recognition processing unit 59, and outputs the non-attention region image to the data amount reduction unit 58.

データ量削減部58は、非注目領域像のデータ量の削減処理を行う。例えば、データ量削減部58は、非注目領域像を縮小するダウンスケーリング処理を行ってもよいし、非注目領域像の各画素の輝度値を示すビット数を低減して、階調度(色深度)を削減してもよい。また、データ量削減部58は、非注目領域像の時間的な間引き処理(例えば、時系列に画像のうち偶数番目の画像から得られた非注目領域を削除する処理)を行ってもよい。データ量削減部58は、データ量の削減処理後の非注目領域像を認識処理部59に出力する。 The data amount reduction unit 58 performs a data amount reduction process of the non-attention area image. For example, the data amount reduction unit 58 may perform downscaling processing to reduce the non-attention region image, or reduce the number of bits indicating the luminance value of each pixel of the non-attention region image to reduce the degree of gradation (color depth). ) May be reduced. Further, the data amount reduction unit 58 may perform a temporal thinning process of the non-attention region image (for example, a process of deleting the non-attention region obtained from the even-numbered image among the images in time series). The data amount reduction unit 58 outputs the non-attention area image after the data amount reduction processing to the recognition processing unit 59.

認識処理部59は、切出し部57から受け取った注目領域像とデータ量削減部58から受け取った非注目領域像とに基づいて、所定の認識処理を実行する。例えば、認識処理部59は、注目領域像に対して所定の画像処理を施し、工場内の表示装置、一時停止の道路標識、工場通路上の歩行者の存否などを認識する。認識処理部59の認識結果は、例えば、移動体2の自動運転の制御に用いられる。認識処理部59は、例えば、画像および認識結果を示すラベルを学習データとして機械学習された学習モデルに、注目領域像を入力することにより、注目領域像の認識結果を得る。学習モデルは、例えば、CNN、RNN、AutoEncoderなどであり、ディープラーニングなどの手法により、学習モデルの各パラメータが決定されているものとする。
なお、認識処理部59は、非注目領域像に対しても同様の処理を実行してもよい。
The recognition processing unit 59 executes a predetermined recognition process based on the attention area image received from the cutting unit 57 and the non-attention area image received from the data amount reduction unit 58. For example, the recognition processing unit 59 performs predetermined image processing on the image of the region of interest, and recognizes a display device in the factory, a road sign for a stop sign, the presence or absence of a pedestrian on the factory passage, and the like. The recognition result of the recognition processing unit 59 is used, for example, for controlling the automatic operation of the moving body 2. The recognition processing unit 59 obtains the recognition result of the region of interest image by inputting the image of the region of interest into the learning model machine-learned using, for example, an image and a label indicating the recognition result as training data. The learning model is, for example, CNN, RNN, AutoEncoder, or the like, and it is assumed that each parameter of the learning model is determined by a method such as deep learning.
The recognition processing unit 59 may also perform the same processing on the non-attention region image.

〔制御システム3の処理の流れ〕
図6は、本開示の実施形態1に係る制御システム3が実行する処理のフローチャートである。
画像取得部51は、カメラ31から画像を取得する(ステップS1)。
注目領域抽出部52は、画像取得部51が取得した画像に基づいて、注目領域と注目領域の確信度を抽出する(ステップS2)。
抽出成否判定部53は、注目領域の抽出の成否を判定する(ステップS3)。
[Process flow of control system 3]
FIG. 6 is a flowchart of the process executed by the control system 3 according to the first embodiment of the present disclosure.
The image acquisition unit 51 acquires an image from the camera 31 (step S1).
The attention area extraction unit 52 extracts the certainty of the attention area and the attention area based on the image acquired by the image acquisition unit 51 (step S2).
The extraction success / failure determination unit 53 determines the success / failure of the extraction of the region of interest (step S3).

図7は、本開示の実施形態1に係る抽出成否判定処理(図6のステップS3)の詳細を示すフローチャートである。
抽出成否判定部53は、注目領域抽出部52が抽出した注目領域の確信度が所定の閾値TH以上であるか否かを判定する(ステップS21)。
確信度が閾値TH以上であれば(ステップS21においてYES)、抽出成否判定部53は、注目領域の抽出に成功したと判定する(ステップS22)。
確信度が閾値TH未満であれば(ステップS21においてNO)、抽出成否判定部53は、注目領域の抽出に失敗したと判定する(ステップS23)。
FIG. 7 is a flowchart showing the details of the extraction success / failure determination process (step S3 in FIG. 6) according to the first embodiment of the present disclosure.
The extraction success / failure determination unit 53 determines whether or not the certainty of the attention region extracted by the attention region extraction unit 52 is equal to or higher than a predetermined threshold value TH (step S21).
If the certainty level is equal to or higher than the threshold value TH (YES in step S21), the extraction success / failure determination unit 53 determines that the extraction of the region of interest has been successful (step S22).
If the certainty is less than the threshold value TH (NO in step S21), the extraction success / failure determination unit 53 determines that the extraction of the region of interest has failed (step S23).

なお、ステップS2において、複数の注目領域が抽出された場合には、例えば、最小の確信度に基づいて、ステップS21~S23の処理が実行される。また、注目領域が抽出されなかった場合には、注目領域の抽出に失敗したと判定される。 When a plurality of areas of interest are extracted in step S2, for example, the processes of steps S21 to S23 are executed based on the minimum certainty. If the region of interest is not extracted, it is determined that the region of interest has failed to be extracted.

再び図6を参照して、注目領域の抽出に成功したと判定された場合には(ステップS4においてYES)、注目領域抽出部52は、注目領域の位置と、少なくともカメラ31の撮影位置および撮影方向とを含む注目領域情報を、通信部32を介してサーバ4に送信する(ステップS5)。
また、注目領域選択部56は、ステップS2で抽出された注目領域を選択して、切出し部57に出力する(ステップS6)。
When it is determined that the extraction of the attention region is successful (YES in step S4) with reference to FIG. 6 again, the attention region extraction unit 52 determines the position of the attention region and at least the shooting position and shooting of the camera 31. The region of interest information including the direction is transmitted to the server 4 via the communication unit 32 (step S5).
Further, the attention area selection unit 56 selects the attention area extracted in step S2 and outputs it to the cutting unit 57 (step S6).

注目領域の抽出に失敗したと判定された場合には(ステップS4においてNO)、移動体位置判断部55は、移動体2の位置および方向を判断する(ステップS7)。
注目領域取得部54は、判断された移動体2の位置および方向に基づいて、サーバ4から、当該位置および方向に対応する注目領域情報を読み出す(ステップS8)。
If it is determined that the extraction of the region of interest has failed (NO in step S4), the moving body position determination unit 55 determines the position and direction of the moving body 2 (step S7).
The attention area acquisition unit 54 reads out the attention area information corresponding to the position and direction from the server 4 based on the determined position and direction of the moving body 2 (step S8).

注目領域取得部54は、読み出した注目領域情報に基づいて、注目領域を補正する(ステップS9)。例えば、対象とする移動体2に搭載されたカメラ31の画像サイズが4Kであり、読み出した注目領域情報が示す画像サイズが8Kの場合には、注目領域情報が示す注目領域の値をそれぞれ半分にすることにより、4Kの画像の注目領域の値に補正する。同様に、注目領域取得部54は、対象とする移動体2に搭載されたカメラ31の画角が45°であり、注目領域情報が示す画角が60°の場合には、注目領域情報が示す注目領域の値を画角が45°の画像上の値に変換する。変換処理は、例えば、異なる画角間での位置の対応関係を示した変換テーブルを用いて行われる。 The attention area acquisition unit 54 corrects the attention area based on the read out attention area information (step S9). For example, when the image size of the camera 31 mounted on the target moving body 2 is 4K and the image size indicated by the read attention area information is 8K, the value of the attention area indicated by the attention area information is halved. By setting, the value is corrected to the value in the region of interest of the 4K image. Similarly, in the attention area acquisition unit 54, when the angle of view of the camera 31 mounted on the target moving body 2 is 45 ° and the angle of view indicated by the attention area information is 60 °, the attention area information is obtained. The value of the region of interest shown is converted into a value on the image having an angle of view of 45 °. The conversion process is performed using, for example, a conversion table showing the correspondence between positions between different angle of view.

注目領域選択部56は、ステップS8で取得され、ステップS9で補正された注目領域を選択して、切出し部57に出力する(ステップS10)。 The attention area selection unit 56 selects the attention area acquired in step S8 and corrected in step S9, and outputs the output to the cutting unit 57 (step S10).

切出し部57は、ステップS1で取得された画像から、注目領域像を切出す(ステップS11)。また、切出し部57は、ステップS1で取得された画像から、非注目領域像を切出す(ステップS12)。 The cutting unit 57 cuts out an image of the region of interest from the image acquired in step S1 (step S11). Further, the cutting unit 57 cuts out a non-attention region image from the image acquired in step S1 (step S12).

データ量削減部58は、ステップS12で切出された非注目領域像に対して、データ量の削減処理を行う(ステップS13)。 The data amount reduction unit 58 performs a data amount reduction process on the non-attention region image cut out in step S12 (step S13).

認識処理部59は、ステップS11で切出された注目領域像と、ステップS13でデータ量削減処理が施された非注目領域像とに基づいて、注目領域像および非注目領域像の認識処理を実行し、認識結果に基づいて移動体2の走行制御処理を行う(ステップS14)。 The recognition processing unit 59 recognizes the attention region image and the non-attention region image based on the attention region image cut out in step S11 and the non-attention region image subjected to the data amount reduction processing in step S13. This is executed, and the traveling control process of the moving body 2 is performed based on the recognition result (step S14).

〔実施形態1の効果等〕
以上説明したように、本開示の実施形態1によると、移動体2の位置に対応した注目領域の情報がサーバ4から取得され、取得された情報が示す注目領域の像が画像から切出される。また、切出された注目領域の像に基づいて、所定の認識処理が実行される。例えば、工場内の表示装置、道路標識または工場通路などの位置は変化しない。このため、同じ位置で撮影された画像における注目領域は同じである。よって、サーバ4から注目領域の情報を取得することにより、注目領域の像を正確に切出すことができる。これにより、画像中の対象物を遅滞なく正確に認識することができる。
[Effects of Embodiment 1]
As described above, according to the first embodiment of the present disclosure, the information of the attention area corresponding to the position of the moving body 2 is acquired from the server 4, and the image of the attention area indicated by the acquired information is cut out from the image. .. Further, a predetermined recognition process is executed based on the image of the region of interest cut out. For example, the location of display devices, road signs or factory walkways within a factory does not change. Therefore, the areas of interest in the images taken at the same position are the same. Therefore, by acquiring the information of the region of interest from the server 4, the image of the region of interest can be accurately cut out. This makes it possible to accurately recognize the object in the image without delay.

また、画像から注目領域の抽出に失敗した場合には、移動体2の位置に対応した注目領域の情報がサーバ4から取得され、取得された注目領域の像が画像から切出される。これにより、例えば、画像が不鮮明等の理由により注目領域の抽出に失敗した場合であっても、注目領域の像を正確に切出すことができる。 Further, when the extraction of the attention region from the image fails, the information of the attention region corresponding to the position of the moving body 2 is acquired from the server 4, and the acquired image of the attention region is cut out from the image. Thereby, for example, even if the extraction of the region of interest fails due to the image being unclear or the like, the image of the region of interest can be accurately cut out.

なお、抽出成否判定部53は、注目領域の確信度が閾値TH未満の場合には注目領域の抽出に失敗したと判定し、閾値TH以上の場合には注目領域の抽出に成功したと判定している。これにより、抽出された注目領域の確信度が閾値TH以上の場合には、当該注目領域の像に基づいて認識処理が実行される。また、抽出された注目領域の確信度が閾値TH未満の場合には、移動体2の位置に対応した注目領域の像に基づいて認識処理が実行される。これにより、画像中の対象物を正確に認識することができる。 The extraction success / failure determination unit 53 determines that the extraction of the region of interest has failed when the certainty of the region of interest is less than the threshold value TH, and determines that the extraction of the region of interest has succeeded when the certainty of the region of interest is greater than or equal to the threshold value TH. ing. As a result, when the certainty of the extracted attention region is equal to or higher than the threshold value TH, the recognition process is executed based on the image of the attention region. When the certainty of the extracted region of interest is less than the threshold value TH, the recognition process is executed based on the image of the region of interest corresponding to the position of the moving body 2. This makes it possible to accurately recognize the object in the image.

また、非注目領域像に対しては間引き処理等のデータ量の削減処理が行われた上で、所定の認識処理が実行される。非注目領域は、例えば、空や、路側の建物などの認識の対象物以外の領域である。これにより、非注目領域に対する認識処理の処理負荷を低減させることができ、画像を遅滞なく処理することができる。 Further, the non-attention area image is subjected to a data amount reduction process such as a thinning process, and then a predetermined recognition process is executed. The non-attention area is an area other than the object of recognition, such as the sky or a building on the roadside. As a result, the processing load of the recognition processing for the non-attention region can be reduced, and the image can be processed without delay.

また、注目領域取得部54は、移動体2の位置および現在時刻に基づいて注目領域を取得しているため、例えば、現在時刻に最も近い時刻に撮影された画像から抽出された注目領域を取得することができる。これにより、例えば、時間帯によって進行方向が変化するリバーシブルレーンを移動体2が走行している場合に、進行方向が逆の時間帯にリバーシブルレーンを走行した他の移動体2が撮影した画像から抽出された注目領域を取得することがなくなる。また、例えば、現在時刻が夜間である場合には昼間に撮影された画像から抽出された注目領域を優先して取得してもよい。夜間に比べ昼間の方が画像が鮮明である。これにより、正確な注目領域を取得することができる。 Further, since the attention area acquisition unit 54 acquires the attention area based on the position of the moving body 2 and the current time, for example, the attention area acquired from the image taken at the time closest to the current time is acquired. can do. As a result, for example, when the moving body 2 is traveling in the reversible lane whose traveling direction changes depending on the time zone, from the image taken by another moving body 2 traveling in the reversible lane in the time zone opposite to the traveling direction. It is no longer necessary to acquire the extracted attention area. Further, for example, when the current time is nighttime, the region of interest extracted from the image taken in the daytime may be preferentially acquired. The image is clearer in the daytime than in the nighttime. This makes it possible to obtain an accurate region of interest.

また、注目領域取得部54は、画像サイズに基づいて、サーバ4から取得した注目領域を補正する。このため、移動体2に搭載されるカメラ31により撮影される画像のサイズと、サーバ4に蓄積された注目領域の抽出の基となった画像のサイズとが異なる場合であっても、正確な位置の注目領域の像を切り出すことができる。 Further, the attention area acquisition unit 54 corrects the attention area acquired from the server 4 based on the image size. Therefore, even if the size of the image taken by the camera 31 mounted on the moving body 2 is different from the size of the image that is the basis for extracting the region of interest stored in the server 4, it is accurate. An image of the region of interest at the position can be cut out.

また、注目領域取得部54は、画角に基づいて、サーバ4から取得した注目領域を補正する。このため、移動体2に搭載されるカメラ31により撮影される画像の画角と、サーバ4に蓄積された注目領域の抽出の基となった画像の画角とが異なる場合であっても、正確な位置の注目領域の像を切り出すことができる。 Further, the attention area acquisition unit 54 corrects the attention area acquired from the server 4 based on the angle of view. Therefore, even if the angle of view of the image taken by the camera 31 mounted on the moving body 2 is different from the angle of view of the image that is the basis for extracting the region of interest stored in the server 4. It is possible to cut out an image of the region of interest at an accurate position.

<実施形態2>
本開示の実施形態2では、注目領域の抽出の成否判定方法の他の例について説明する。
運転支援システム1の構成を実施形態1と同様である。以下では、実施形態1と異なる点を中心に説明する。
<Embodiment 2>
In the second embodiment of the present disclosure, another example of the success / failure determination method for extracting the region of interest will be described.
The configuration of the driving support system 1 is the same as that of the first embodiment. Hereinafter, the points different from those of the first embodiment will be mainly described.

図8は、本開示の実施形態2に係る抽出成否判定処理(図6のステップS3)の詳細を示すフローチャートである。
抽出成否判定部53は、注目領域抽出部52によって抽出された抽出領域があるか否かを判定する(ステップS31)。
FIG. 8 is a flowchart showing the details of the extraction success / failure determination process (step S3 in FIG. 6) according to the second embodiment of the present disclosure.
The extraction success / failure determination unit 53 determines whether or not there is an extraction region extracted by the region of interest extraction unit 52 (step S31).

抽出された注目領域があれば(ステップS31においてYES)、抽出成否判定部53は、注目領域の抽出に成功したと判定する(ステップS32)。
抽出された注目領域がなければ(ステップS31においてNO)、抽出成否判定部53は、注目領域の抽出に失敗したと判定する(ステップS33)。
If there is an extracted region of interest (YES in step S31), the extraction success / failure determination unit 53 determines that the region of interest has been successfully extracted (step S32).
If there is no extracted region of interest (NO in step S31), the extraction success / failure determination unit 53 determines that the extraction of the region of interest has failed (step S33).

本開示の実施形態2によると、例えば、画像から注目領域が抽出できなかった場合に、注目領域の抽出に失敗したと判定することができる。 According to the second embodiment of the present disclosure, for example, when the region of interest cannot be extracted from the image, it can be determined that the extraction of the region of interest has failed.

<実施形態3>
本開示の実施形態3では、注目領域の抽出の成否判定方法の他の例について説明する。
制御システム3は、移動体2の位置の気象情報を提供する気象サーバ(図示せず)にネットワーク5を介して接続されているものとする。
このため、抽出成否判定部53は、カメラ31による画像撮影時における移動体2の位置の気象情報に基づいて、注目領域の抽出の成否を判定する。
<Embodiment 3>
In the third embodiment of the present disclosure, another example of the success / failure determination method for extracting the region of interest will be described.
It is assumed that the control system 3 is connected to a meteorological server (not shown) that provides meteorological information on the position of the mobile body 2 via a network 5.
Therefore, the extraction success / failure determination unit 53 determines the success / failure of extraction of the region of interest based on the weather information of the position of the moving body 2 at the time of image capture by the camera 31.

図9は、本開示の実施形態3に係る抽出成否判定処理(図6のステップS3)の詳細を示すフローチャートである。
抽出成否判定部53は、通信部32を介して気象サーバから、カメラ31による画像撮影時における移動体2の位置の気象情報を取得する(ステップS41)。
FIG. 9 is a flowchart showing the details of the extraction success / failure determination process (step S3 in FIG. 6) according to the third embodiment of the present disclosure.
The extraction success / failure determination unit 53 acquires the weather information of the position of the moving body 2 at the time of image capture by the camera 31 from the weather server via the communication unit 32 (step S41).

取得した気象情報が雨または雪を示している場合には(ステップS41においてYES)、抽出成否判定部53は、注目領域の抽出に失敗したと判定する(ステップS43)。 When the acquired weather information indicates rain or snow (YES in step S41), the extraction success / failure determination unit 53 determines that the extraction of the region of interest has failed (step S43).

取得した気象情報が雨または雪以外を示している場合には(ステップS42においてNO)、抽出成否判定部53は、注目領域の抽出に成功したと判定する(ステップS44)。 When the acquired meteorological information indicates other than rain or snow (NO in step S42), the extraction success / failure determination unit 53 determines that the extraction of the region of interest has been successful (step S44).

本開示の実施形態3によると、例えば、屋外において雨や雪などの気象の異常状態により不鮮明な画像しか得られない場合には、注目領域の抽出に失敗したと判定することができる。これにより、晴れの場合には、抽出された注目領域の像に基づいて認識処理が実行される。また、雨や雪の場合には、移動体2の位置に対応した注目領域の像に基づいて認識処理が実行される。これにより、画像中の対象物を正確に認識することができる。 According to the third embodiment of the present disclosure, for example, when only an unclear image can be obtained outdoors due to an abnormal state of weather such as rain or snow, it can be determined that the extraction of the region of interest has failed. As a result, in the case of sunny weather, the recognition process is executed based on the extracted image of the region of interest. Further, in the case of rain or snow, the recognition process is executed based on the image of the region of interest corresponding to the position of the moving body 2. This makes it possible to accurately recognize the object in the image.

[付記]
以上、本開示の実施形態に係る運転支援システム1について説明したが、本開示は、この実施形態に限定されるものではない。
[Additional Notes]
Although the driving support system 1 according to the embodiment of the present disclosure has been described above, the present disclosure is not limited to this embodiment.

たとえば、注目領域選択部56は、ユーザによる選択指示に基づいて、注目領域抽出部52が抽出した注目領域と、注目領域取得部54が取得した注目領域の少なくとも一方を選択してもよい。これにより、状況に応じて、注目領域の切り替えを行うことができる。例えば、注目領域抽出部52が抽出した注目領域の像に基づく認識処理の認識精度が低下したとユーザが判断した場合には、移動体2の位置に対応した注目領域の像に基づく認識処理に切り替えることができる。 For example, the attention area selection unit 56 may select at least one of the attention area extracted by the attention area extraction unit 52 and the attention area acquired by the attention area acquisition unit 54 based on the selection instruction by the user. This makes it possible to switch the region of interest depending on the situation. For example, when the user determines that the recognition accuracy of the recognition process based on the image of the attention area extracted by the attention area extraction unit 52 has deteriorated, the recognition process based on the image of the attention area corresponding to the position of the moving body 2 is performed. You can switch.

また、抽出成否判定部53は、カメラ31による画像の撮影時刻に基づいて、注目領域の抽出の成否を判定してもよい。例えば、抽出成否判定部53は、撮影時刻が夜間の場合には注目領域の抽出に失敗したと判定し、撮影時刻が昼間の場合には注目領域の抽出に成功したと判定してもよい。 Further, the extraction success / failure determination unit 53 may determine the success / failure of the extraction of the region of interest based on the shooting time of the image by the camera 31. For example, the extraction success / failure determination unit 53 may determine that the extraction of the attention region has failed when the shooting time is nighttime, and may determine that the extraction of the attention region has succeeded when the shooting time is daytime.

また、抽出成否判定部53は、画像取得部51が取得したカメラ31が撮影した画像に基づいて、注目領域の抽出の成否を判定してもよい。例えば、抽出成否判定部53は、画像を認識処理することにより、屋内(例えば、工場内)での停電または災害(例えば、火災による煙の発生)などの異常状態を検出し、異常状態が生じている場合に注目領域の抽出に失敗したと判定してもよい。また、抽出成否判定部53は、異常状態が生じていない場合には注目領域の抽出に成功したと判定してもよい。 Further, the extraction success / failure determination unit 53 may determine the success / failure of the extraction of the region of interest based on the image taken by the camera 31 acquired by the image acquisition unit 51. For example, the extraction success / failure determination unit 53 detects an abnormal state such as a power failure or a disaster (for example, generation of smoke due to a fire) indoors (for example, in a factory) by recognizing an image, and the abnormal state occurs. If so, it may be determined that the extraction of the region of interest has failed. Further, the extraction success / failure determination unit 53 may determine that the extraction of the region of interest has been successful when no abnormal state has occurred.

また、制御システム3が搭載される対象は移動ロボットなどの移動体に限定されるものではない。例えば、自動車、ドローンなどの他の移動体に制御システム3が搭載されていてもよい。 Further, the target on which the control system 3 is mounted is not limited to a moving body such as a mobile robot. For example, the control system 3 may be mounted on another moving body such as an automobile or a drone.

また、認識処理部59が行う認識処理の目的は自動運転には限定されない。例えば、制御システム3が工場内を移動する移動ロボットに搭載され、作業員の危険行為を防止するための監視用途に用いられてもよい。
また、上記の制御システム3を構成する構成要素の一部または全部は、1または複数のシステムLSIなどの半導体装置から構成されていてもよい。
Further, the purpose of the recognition processing performed by the recognition processing unit 59 is not limited to automatic operation. For example, the control system 3 may be mounted on a mobile robot moving in a factory and used for monitoring to prevent dangerous acts of workers.
Further, a part or all of the components constituting the control system 3 may be composed of one or a plurality of semiconductor devices such as system LSIs.

上記したコンピュータプログラムを、コンピュータ読取可能な非一時的な記録媒体、例えば、HDD、CD-ROM、半導体メモリなどに記録して流通させてもよい。また、コンピュータプログラムを、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送して流通させてもよい。
さらに、上記実施形態および上記変形例の少なくとも一部を任意に組み合わせてもよい。
The above-mentioned computer program may be recorded and distributed on a computer-readable non-temporary recording medium such as an HDD, a CD-ROM, or a semiconductor memory. Further, the computer program may be transmitted and distributed via a telecommunication line, a wireless or wired communication line, a network typified by the Internet, data broadcasting, or the like.
Further, at least a part of the above embodiment and the above modification may be arbitrarily combined.

今回開示された実施形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time should be considered to be exemplary and not restrictive in all respects. The scope of the present disclosure is expressed by the scope of claims, not the above-mentioned meaning, and is intended to include all modifications within the meaning and scope equivalent to the scope of claims.

1 運転支援システム
2 移動体
3 制御システム(画像認識システム)
4 サーバ(蓄積部)
5 ネットワーク
6 基地局
31 カメラ
32 通信部
33 クロック
34 制御部
35 プロセッサ(画像認識装置)
36 メモリ
37 GPS受信機
38 ジャイロセンサ
39 速度センサ
41 注目領域情報
51 画像取得部
52 注目領域抽出部(抽出部)
53 抽出成否判定部(判定部)
54 注目領域取得部(取得部)
55 移動体位置判断部
56 注目領域選択部(選択部)
57 切出し部
58 データ量削減部(削減部)
59 認識処理部
61 地図情報
1 Driving support system 2 Mobile 3 Control system (image recognition system)
4 Server (storage unit)
5 Network 6 Base station 31 Camera 32 Communication unit 33 Clock 34 Control unit 35 Processor (image recognition device)
36 Memory 37 GPS receiver 38 Gyro sensor 39 Speed sensor 41 Focus area information 51 Image acquisition section 52 Focus area extraction section (extraction section)
53 Extraction success / failure judgment unit (judgment unit)
54 Area of interest acquisition unit (acquisition unit)
55 Moving body position determination unit 56 Focus area selection unit (selection unit)
57 Cutout part 58 Data amount reduction part (reduction part)
59 Recognition processing unit 61 Map information

Claims (13)

画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、
前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、
前記注目領域の像に基づいて、所定の認識処理を行う認識処理部とを備える、画像認識装置。
In the image around the moving body taken by the camera mounted on the moving body based on the position of the moving body from the storage unit that accumulates the area of interest in the image in association with the shooting position of the image. The acquisition unit that acquires the area of interest of
A cutout portion that cuts out an image of the region of interest from an image around the moving body, and
An image recognition device including a recognition processing unit that performs a predetermined recognition process based on an image of the region of interest.
前記移動体の周囲の画像から所定の注目領域を抽出する抽出部と、
前記抽出部による前記注目領域の抽出の成否を判定する判定部と、
前記判定部の判定結果に基づいて、前記抽出部が抽出した前記注目領域と前記取得部が取得した前記注目領域の少なくとも一方を選択する選択部とをさらに備え、
前記切出し部は、前記選択部が選択した前記注目領域の像を切出す、請求項1に記載の画像認識装置。
An extraction unit that extracts a predetermined region of interest from an image around the moving object, and an extraction unit.
A determination unit that determines the success or failure of extraction of the region of interest by the extraction unit,
A selection unit for selecting at least one of the attention region extracted by the extraction unit and the attention region acquired by the acquisition unit based on the determination result of the determination unit is further provided.
The image recognition device according to claim 1, wherein the cutout unit cuts out an image of the area of interest selected by the selection unit.
前記判定部は、前記注目領域の抽出結果に基づいて、前記注目領域の抽出の成否を判定する、請求項2に記載の画像認識装置。 The image recognition device according to claim 2, wherein the determination unit determines the success or failure of the extraction of the attention region based on the extraction result of the attention region. 前記判定部は、前記注目領域の抽出の確からしさを示す確信度に基づいて、前記注目領域の抽出の成否を判定する、請求項2または請求項3に記載の画像認識装置。 The image recognition device according to claim 2 or 3, wherein the determination unit determines the success or failure of the extraction of the attention region based on the certainty indicating the certainty of the extraction of the attention region. 前記判定部は、前記画像撮影時の異常状態情報に基づいて、前記注目領域の抽出の成否を判定する、請求項2から請求項4のいずれか1項に記載の画像認識装置。 The image recognition device according to any one of claims 2 to 4, wherein the determination unit determines the success or failure of extraction of the region of interest based on the abnormal state information at the time of image capture. 前記選択部は、さらに、ユーザによる選択指示に基づいて、前記抽出部が抽出した前記注目領域と前記取得部が取得した前記注目領域の少なくとも一方を選択する、請求項2から請求項5のいずれか1項に記載の画像認識装置。 Any of claims 2 to 5, wherein the selection unit further selects at least one of the attention area extracted by the extraction unit and the attention area acquired by the acquisition unit based on a selection instruction by the user. The image recognition device according to claim 1. 前記切出し部は、さらに、前記画像から前記注目領域以外の領域を含む非注目領域の像を切出し、
前記画像認識装置は、前記非注目領域の像のデータ量を削減する削減部をさらに備え、
前記認識処理部は、前記注目領域の像およびデータ量が削減された前記非注目領域の像に基づいて、前記所定の認識処理を行う、請求項1から請求項6のいずれか1項に記載の画像認識装置。
The cutout portion further cuts out an image of a non-attention region including a region other than the attention region from the image.
The image recognition device further includes a reduction unit that reduces the amount of data of the image in the non-attention region.
The aspect according to any one of claims 1 to 6, wherein the recognition processing unit performs the predetermined recognition process based on the image of the attention region and the image of the non-attention region in which the amount of data is reduced. Image recognition device.
前記蓄積部は、さらに、前記画像撮影時の時刻を対応付けて蓄積し、
前記取得部は、前記移動体の位置および現在時刻に基づいて、前記蓄積部から前記注目領域を取得する、請求項1から請求項7のいずれか1項に記載の画像認識装置。
The storage unit further stores the time in association with the time at which the image was taken.
The image recognition device according to any one of claims 1 to 7, wherein the acquisition unit acquires the area of interest from the storage unit based on the position of the moving body and the current time.
前記蓄積部は、さらに、前記画像のサイズを対応付けて蓄積し、
前記取得部は、さらに、前記注目領域に対応する前記画像のサイズを取得し、取得した前記サイズと、前記カメラにより撮影された前記画像のサイズとに基づいて、取得した前記注目領域を補正する、請求項1から請求項8のいずれか1項に記載の画像認識装置。
The storage unit further stores the image in association with the size of the image.
The acquisition unit further acquires the size of the image corresponding to the region of interest, and corrects the acquired region of interest based on the acquired size and the size of the image captured by the camera. , The image recognition device according to any one of claims 1 to 8.
前記蓄積部は、さらに、前記画像の画角を対応付けて蓄積し、
前記取得部は、さらに、前記注目領域に対応する前記画像の画角を取得し、取得した前記画角と、前記カメラにより撮影された前記画像の画角とに基づいて、取得した前記注目領域を補正する、請求項1から請求項9のいずれか1項に記載の画像認識装置。
The storage unit further stores the image in association with the angle of view of the image.
The acquisition unit further acquires the angle of view of the image corresponding to the region of interest, and the acquired region of interest is obtained based on the acquired angle of view and the angle of view of the image taken by the camera. The image recognition device according to any one of claims 1 to 9, wherein the image recognition device is corrected.
画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得するステップと、
前記移動体の周囲の画像から、前記注目領域の像を切出すステップと、
前記注目領域の像に基づいて、所定の認識処理を行うステップとを含む、画像認識方法。
In the image around the moving body taken by the camera mounted on the moving body based on the position of the moving body from the storage unit that accumulates the area of interest in the image in association with the shooting position of the image. Steps to get the area of interest and
A step of cutting out an image of the region of interest from an image around the moving object,
An image recognition method including a step of performing a predetermined recognition process based on an image of the region of interest.
コンピュータを、
画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、移動体の位置に基づいて、前記移動体に搭載されたカメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、
前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、
前記注目領域の像に基づいて、所定の認識処理を行う認識処理部、として機能させるためのコンピュータプログラム。
Computer,
In the image around the moving body taken by the camera mounted on the moving body based on the position of the moving body from the storage unit that accumulates the area of interest in the image in association with the shooting position of the image. The acquisition unit that acquires the area of interest of
A cutout portion that cuts out an image of the region of interest from an image around the moving body,
A computer program for functioning as a recognition processing unit that performs a predetermined recognition process based on the image of the region of interest.
移動体に搭載されるカメラと、
画像中の注目領域と当該画像の撮影位置とを対応付けて蓄積する蓄積部から、前記移動体の位置に基づいて、前記カメラにより撮影された前記移動体の周囲の画像中の注目領域を取得する取得部と、
前記移動体の周囲の画像から、前記注目領域の像を切出す切出し部と、
前記注目領域の像に基づいて、所定の認識処理を行う認識処理部とを備える、画像認識システム。
The camera mounted on the moving body and
Based on the position of the moving body, the area of interest in the image around the moving body taken by the camera is acquired from the storage unit that stores the area of interest in the image in association with the shooting position of the image. Acquisition department and
A cutout portion that cuts out an image of the region of interest from an image around the moving body,
An image recognition system including a recognition processing unit that performs a predetermined recognition process based on an image of the region of interest.
JP2020149645A 2020-09-07 2020-09-07 Image recognition device, image recognition method, computer program and image recognition system Pending JP2022044156A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020149645A JP2022044156A (en) 2020-09-07 2020-09-07 Image recognition device, image recognition method, computer program and image recognition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020149645A JP2022044156A (en) 2020-09-07 2020-09-07 Image recognition device, image recognition method, computer program and image recognition system

Publications (1)

Publication Number Publication Date
JP2022044156A true JP2022044156A (en) 2022-03-17

Family

ID=80678972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020149645A Pending JP2022044156A (en) 2020-09-07 2020-09-07 Image recognition device, image recognition method, computer program and image recognition system

Country Status (1)

Country Link
JP (1) JP2022044156A (en)

Similar Documents

Publication Publication Date Title
US11333517B1 (en) Distributed collection and verification of map information
EP3700198B1 (en) Imaging device, image processing apparatus, and image processing method
US11557206B2 (en) Information provision system, server, and mobile terminal
JP7376992B2 (en) Information processing device, information processing method, and program
US20210003419A1 (en) System for Generating Confidence Values in Digital Road Maps
JP2018010535A (en) Stationary camera, server, road information update system, and information processing program
US11641453B2 (en) Server, on-board device, vehicle, non-transitory storage medium storing program, and method for providing information
US11818633B2 (en) Map update system, data transmission device, and data transmission method
JP2022044156A (en) Image recognition device, image recognition method, computer program and image recognition system
US11689797B2 (en) Camera, method, non-transitory computer-readable medium, and system
JP2023059930A (en) Road information generation device
CN116892949A (en) Ground object detection device, ground object detection method, and computer program for ground object detection
CN115668965A (en) Image capturing apparatus
CN110633616A (en) Information processing apparatus, information processing method, and recording medium
WO2022102425A1 (en) Signal processing device, and signal processing method
WO2022244365A1 (en) Region-of-interest detection device, region-of-interest detection method, and computer program
US11900684B2 (en) Server, vehicle detection system, and vehicle detection method
US20230273038A1 (en) System and method for vehicle-mounted navigation key point localization
JP7302615B2 (en) Driving support device, driving support method, and driving support computer program
US11815362B2 (en) Map data generation apparatus
JP7478995B2 (en) Mobile terminal, navigation method, and computer program
JP2019075599A (en) On-vehicle device, server, display method, and transmission method
JP2021163431A (en) Data transmission device
JP2021162828A (en) Map data processing apparatus
CN117173651A (en) Method, apparatus and computer readable storage medium for determining travelable region information

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240402