JP2023128978A - Image processing device, image processing method, image processing program, and recording medium - Google Patents

Image processing device, image processing method, image processing program, and recording medium Download PDF

Info

Publication number
JP2023128978A
JP2023128978A JP2022033693A JP2022033693A JP2023128978A JP 2023128978 A JP2023128978 A JP 2023128978A JP 2022033693 A JP2022033693 A JP 2022033693A JP 2022033693 A JP2022033693 A JP 2022033693A JP 2023128978 A JP2023128978 A JP 2023128978A
Authority
JP
Japan
Prior art keywords
image
image processing
attribute
feature
photographed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022033693A
Other languages
Japanese (ja)
Inventor
信彦 加藤
Nobuhiko Kato
昌夫 中根
Masao Nakane
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2022033693A priority Critical patent/JP2023128978A/en
Publication of JP2023128978A publication Critical patent/JP2023128978A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

To provide an image processing device capable of performing appropriate image processing for a subject in a captured image.SOLUTION: An image processing device includes: an imaging information acquisition unit that obtains imaging information including an image captured by an imaging device, an imaging position of the image, and an imaging direction thereof; an attribute identification unit that identifies an attribute of a ground object in the captured image based on the imaging information and map information including information indicating the position of a ground object and the attribute of the ground object; and a target area identification unit that identifies an area where a ground object whose attribute identified by the attribute specification unit is a predetermined attribute is included in the captured image, as a target area for which image processing is to be performed.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法、画像処理プログラム及び記録媒体に関し、特に、地図情報に基づいて画像処理を行う画像処理装置、画像処理方法、画像処理プログラム及び記録媒体に関する。 The present invention relates to an image processing device, an image processing method, an image processing program, and a recording medium, and particularly relates to an image processing device, an image processing method, an image processing program, and a recording medium that perform image processing based on map information.

撮像装置で撮影した画像中に写っているものに関して、個人情報を保護するための処理を行う装置が提案されている。 2. Description of the Related Art Apparatuses have been proposed that perform processing to protect personal information regarding objects captured in images taken by imaging devices.

例えば、特許文献1には、カメラが撮影した画像に含まれる個人情報として人物の顔や予め決められた対象物等を画像認識によって検出し、当該個人情報を判別不能にする画像処理を施す撮像装置が開示されている。 For example, Patent Document 1 describes an imaging method in which a person's face, a predetermined object, etc. is detected as personal information included in an image taken by a camera through image recognition, and image processing is performed to make the personal information indistinguishable. An apparatus is disclosed.

特開2021-177597号公報Japanese Patent Application Publication No. 2021-177597

例えば、個人の住宅の表札が写り込んだ画像をSNS(Social Networking Service)等を通じてインターネット上に公開すると、当該住宅の持ち主や住人のプライバシーを侵害する場合があることが課題の一つとして挙げられる。 For example, one issue is that if an image of a private residence's nameplate is published on the Internet through social networking services (SNS), it may violate the privacy of the owner or resident of the residence. .

上記のようなプライバシーの侵害を防止するために、画像を不鮮明にするなどの画像処理を施すことが考えられるが、画像中の画像処理が不要な領域にまで画像処理を施すことになり元の風景の情報が失われてしまう等、元の画像中の情報が過剰に失われ得ることが課題の一つとして挙げられる。 In order to prevent the above-mentioned invasion of privacy, it is possible to perform image processing such as making the image blurry, but this would also apply image processing to areas in the image that do not require image processing, making it difficult to restore the original image. One problem is that information in the original image may be excessively lost, such as landscape information being lost.

本発明は上記した点に鑑みてなされたものであり、撮影された画像中の被写体に対して、適切な画像処理を行うことが可能な画像処理装置を提供することを目的の1つとしている。 The present invention has been made in view of the above points, and one of the objects of the present invention is to provide an image processing device that can perform appropriate image processing on a subject in a photographed image. .

請求項1に記載の発明は、撮像装置によって撮影された撮影画像、前記撮影画像の撮影位置及び撮影方向を含む撮影情報を取得する撮影情報取得部と、地物の位置と当該地物の属性を示す情報を含む地図情報と、前記撮影情報とに基づいて、前記撮影画像中の地物の属性を特定する属性特定部と、前記撮影画像中において、前記属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定部と、を有することを特徴とする画像処理装置である。 The invention according to claim 1 includes a photographing information acquisition unit that acquires photographing information including a photographed image photographed by an imaging device, a photographing position and a photographing direction of the photographed image, and a position of a feature and an attribute of the feature. an attribute specifying section that specifies an attribute of a feature in the photographed image based on map information including information indicating , and the photographing information; The image processing apparatus is characterized in that it includes a target area specifying unit that specifies an area in which a feature having a predetermined attribute is photographed as a target area for image processing.

請求項12に記載の発明は、画像処理装置によって実行される画像処理方法であって、撮像装置によって撮影された撮影画像、前記撮影画像の撮影位置及び撮影方向を含む撮影情報を取得する撮影情報取得ステップと、地物の位置と当該地物の属性を示す情報を含む地図情報と、前記撮影情報とに基づいて、前記撮影画像中の地物の属性を特定する属性特定ステップと、前記撮影画像中において、前記属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定ステップと、を含むことを特徴とする画像処理方法である。 The invention according to claim 12 is an image processing method executed by an image processing device, the method comprising: acquiring photographic information including a photographed image photographed by an imaging device, a photographing position and a photographing direction of the photographed image; an attribute specifying step of identifying the attribute of the feature in the captured image based on the acquisition step, map information including information indicating the location of the feature and the attribute of the feature, and the imaging information; The present invention is characterized by including a target area specifying step of specifying, in the image, an area in which a feature having a predetermined attribute specified by the attribute specifying unit is shown as a target area for image processing. This is an image processing method.

請求項13に記載の発明は、コンピュータを備える画像処理装置によって実行される画像処理プログラムであって、前記コンピュータに、撮像装置によって撮影された撮影画像、前記撮影画像の撮影位置及び撮影方向を含む撮影情報を取得する撮影情報取得ステップと、地物の位置と当該地物の属性を示す情報を含む地図情報と、前記撮影情報とに基づいて、前記撮影画像中の地物の属性を特定する属性特定ステップと、前記撮影画像中において、前記属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定ステップと、を実行させるための画像処理プログラムである。 The invention according to claim 13 is an image processing program executed by an image processing device including a computer, wherein the computer includes a photographed image photographed by an imaging device, a photographing position and a photographing direction of the photographed image. a photographic information acquisition step of acquiring photographic information; identifying the attribute of the feature in the photographed image based on the photographic information and map information including information indicating the position of the feature and the attribute of the feature; an attribute specifying step; a target area specifying step of specifying, in the photographed image, an area in which a feature whose attribute is a predetermined attribute specified by the attribute specifying unit is captured as a target area for image processing; This is an image processing program for executing.

請求項14に記載の発明は、コンピュータを備える画像処理装置に、撮像装置によって撮影された撮影画像、前記撮影画像の撮影位置及び撮影方向を含む撮影情報を取得する撮影情報取得ステップと、地物の位置と当該地物の属性を示す情報を含む地図情報と、前記撮影情報とに基づいて、前記撮影画像中の地物の属性を特定する属性特定ステップと、前記撮影画像中において、前記属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定ステップと、を実行させる画像処理プログラムを記憶するコンピュータが読取可能な記憶媒体である。 The fourteenth aspect of the invention provides a photographic information acquisition step of acquiring photographic information including a photographic image photographed by an imaging device, a photographing position and a photographing direction of the photographic image, in an image processing apparatus including a computer; an attribute specifying step of identifying an attribute of a feature in the captured image based on map information including information indicating the location of the feature and an attribute of the feature, and the imaging information; A computer-readable computer that stores an image processing program that executes a target area identifying step of identifying an area in which a feature whose attribute is a predetermined attribute identified by the identifying unit as a target area for image processing. It is a storage medium.

実施例に係る画像処理システム100を示す図である。1 is a diagram showing an image processing system 100 according to an example. 実施例に係る端末装置が搭載されている車両の前席部分を示す図である。1 is a diagram showing a front seat portion of a vehicle in which a terminal device according to an embodiment is mounted. 実施例に係る端末装置の構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of a terminal device according to an embodiment. 実施例に係る撮影情報に含まれる情報の一例を示す図である。It is a figure showing an example of information included in photographing information concerning an example. 実施例に係る画像処理装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an image processing device according to an embodiment. 実施例に係る地図情報の一例を示す図である。It is a figure showing an example of map information concerning an example. 実施例に係る撮影位置と車両の周辺の地物との位置関係を示す上面図である。FIG. 2 is a top view showing the positional relationship between a photographing position and features around a vehicle according to an embodiment. 実施例に係る再現画像の一例を示す図である。FIG. 3 is a diagram showing an example of a reproduced image according to an example. 実施例に係る対象領域の特定に使用する属性の設定例を示す図である。FIG. 7 is a diagram illustrating an example of setting attributes used to specify a target area according to an embodiment. 実施例に係る撮影画像の一例を示す図である。It is a figure showing an example of the photographed image concerning an example. 実施例に係る画像処理後の撮影画像の一例を示す図である。FIG. 3 is a diagram showing an example of a photographed image after image processing according to the example. 実施例に係る画像処理装置が画像処理の属性を特定する際に実行するルーチンの一例を示すフローチャートである。7 is a flowchart illustrating an example of a routine executed by the image processing apparatus according to the embodiment when identifying attributes of image processing. 実施例に係る画像処理装置が画像処理の対象領域を特定する際に実行するルーチンの一例を示すフローチャートである。7 is a flowchart illustrating an example of a routine executed by the image processing apparatus according to the embodiment when identifying a target area for image processing. 実施例に係る画像処理装置が画像処理を行う際に実行するルーチンの一例を示すフローチャートである。2 is a flowchart illustrating an example of a routine executed by the image processing apparatus according to the embodiment when performing image processing. 実施例に係る画像処理装置が画像処理を行う際に実行するルーチンの一例を示すフローチャートである。2 is a flowchart illustrating an example of a routine executed by the image processing apparatus according to the embodiment when performing image processing. 実施例に係る撮影画像の一例を示す図である。It is a figure showing an example of the photographed image concerning an example. 実施例に係る画像処理後の撮影画像の一例を示す図である。FIG. 3 is a diagram showing an example of a photographed image after image processing according to the example. 実施例に係る画像処理装置が画像処理を行う際に実行するルーチンの一例を示すフローチャートである。2 is a flowchart illustrating an example of a routine executed by the image processing apparatus according to the embodiment when performing image processing. 実施例に係る画像処理後の撮影画像の一例を示す図である。FIG. 3 is a diagram showing an example of a photographed image after image processing according to the example.

以下に本発明の実施例について詳細に説明する。なお、以下の説明及び添付図面においては、実質的に同一又は等価な部分には同一の参照符号を付している。 Examples of the present invention will be described in detail below. In the following description and accompanying drawings, substantially the same or equivalent parts are designated by the same reference numerals.

添付図面を参照しつつ、実施例に係る画像処理装置10を含む画像処理システム100の構成について説明する。 The configuration of an image processing system 100 including an image processing device 10 according to an embodiment will be described with reference to the accompanying drawings.

図1は、画像処理システム100の概略を示す図である。図1に示すように、画像処理システム100は、画像処理装置10及び車両Mに搭載されている端末装置20を含んで構成されている。 FIG. 1 is a diagram schematically showing an image processing system 100. As shown in FIG. 1, the image processing system 100 includes an image processing device 10 and a terminal device 20 mounted on a vehicle M.

画像処理装置10は、端末装置20との間でネットワークNWを介して通信を行うサーバ装置である。画像処理装置10と端末装置20とは、例えば、TCP/IP等の通信プロトコルを用いて相互にデータの送受信が可能になっている。端末装置20とネットワークNWとの接続は、例えば4G(4th Generation)又は5G(5th Generation)等の移動体通信、Wi-Fi(登録商標)等の無線通信によりなされ得る。 The image processing device 10 is a server device that communicates with the terminal device 20 via the network NW. The image processing device 10 and the terminal device 20 are capable of mutually transmitting and receiving data using a communication protocol such as TCP/IP, for example. Connection between the terminal device 20 and the network NW can be made, for example, by mobile communication such as 4G (4th Generation) or 5G (5th Generation), or wireless communication such as Wi-Fi (registered trademark).

画像処理装置10は、車両Mに取り付けられたカメラによって撮影された画像を端末装置20から受信して、当該画像中のプライバシー保護等のための不鮮明にする処理や目印を強調する処理等の画像処理を施す対象である対象領域を特定し、当該画像中の対象領域に所定の画像処理を実行し、当該画像処理後の画像を記憶する。 The image processing device 10 receives an image taken by a camera attached to the vehicle M from the terminal device 20, and performs processing such as processing to blur the image for privacy protection or processing to emphasize a landmark in the image. A target area to be processed is specified, predetermined image processing is performed on the target area in the image, and the image after the image processing is stored.

端末装置20は、車両Mに取り付けられたカメラによって撮影された画像を画像処理装置10に送信する。 The terminal device 20 transmits an image taken by a camera attached to the vehicle M to the image processing device 10.

画像処理システム100は、例えば、画像処理システム100のユーザが、画像をSNS(Social Networking Service)又は電子地図等を通じてインターネット上に公開する際に、プライバシー保護のための処理が施された画像を提供するシステムである。 For example, when a user of the image processing system 100 publishes an image on the Internet via SNS (Social Networking Service) or an electronic map, the image processing system 100 provides an image that has been processed to protect privacy. It is a system that

画像処理システム100のユーザは、例えば、個人の住宅の表札が写り込んだ画像に対して、表札が写っている部分を不鮮明にする処理が施された画像を公開することができ、その表札を掲げている住宅の持ち主や住人等のプライバシーを侵害せずに済む。 For example, the user of the image processing system 100 can publish an image in which a nameplate of a private residence is reflected, and the image is processed to make the part where the nameplate is blurred, and the nameplate can be viewed. There is no need to infringe on the privacy of the owners or residents of the listed homes.

また、例えば、画像処理システム100のユーザは、撮影場所を特定されたくない場合に、商業施設が写り込んだ画像に対して、当該商業施設が写っている部分を不鮮明にする処理が施された画像を公開することができ、ユーザ自身のプライバシーを保護することができる。 Further, for example, if the user of the image processing system 100 does not want the location of the photograph to be specified, processing may be performed on an image in which a commercial facility is reflected to make the portion of the image in which the commercial facility is blurred. Images can be made public and users' own privacy can be protected.

図2は、車両Mの前席部分を示す図である。図2に示すように、端末装置20は、車両Mのセンターコンソールに配置されている。本実施例において、端末装置20は、経路生成機能及びナビゲーション機能(いわゆるカーナビゲーション機能)を有する。なお、端末装置20自体はカーナビゲーション機能を有さなくてもよい。その場合は、端末装置20は、車両Mに搭載されているカーナビゲーション装置に車両Mの位置情報を取得可能に接続されていてもよい。 FIG. 2 is a diagram showing the front seat portion of the vehicle M. As shown in FIG. 2, the terminal device 20 is placed in the center console of the vehicle M. In this embodiment, the terminal device 20 has a route generation function and a navigation function (so-called car navigation function). Note that the terminal device 20 itself does not need to have a car navigation function. In that case, the terminal device 20 may be connected to a car navigation device mounted on the vehicle M so as to be able to acquire position information of the vehicle M.

前方カメラ11は、ダッシュボードDB上に設けられている。前方カメラ11は、車両Mの進行方向を撮影方向としている。車両Mの進行方向を前方としたとき、前方カメラ11は、車両Mの前方、右前方及び左前方を含む範囲の画像を撮影可能に配置されている。 The front camera 11 is provided on the dashboard DB. The front camera 11 uses the traveling direction of the vehicle M as its photographing direction. When the traveling direction of the vehicle M is set as the front, the front camera 11 is arranged so as to be able to take images of a range including the front, right front, and left front of the vehicle M.

前方カメラ11は、車両Mの前方の映像を撮影可能であれば車両Mのいずれの箇所に設けられてもよい。例えば、前方カメラ11は、ルームミラーRMの裏、すなわちフロントガラスFGに対向する面に配されていてもよく、車両Mの外側面(外装面)、例えばボンネット上またはフロントバンパー等に設けられていてもよい。 The front camera 11 may be provided at any location on the vehicle M as long as it can capture images in front of the vehicle M. For example, the front camera 11 may be disposed on the back of the rearview mirror RM, that is, on the surface facing the windshield FG, or may be disposed on the outer surface (exterior surface) of the vehicle M, for example, on the hood or the front bumper. Good too.

前方カメラ11は、端末装置20と通信可能に接続されており、撮影した映像の信号を端末装置20に送信することが可能である。 The front camera 11 is communicably connected to the terminal device 20 and can transmit signals of captured images to the terminal device 20.

GNSS受信機13は、GNSS(Global Navigation Satellite System)衛星からの信号(GNSS信号)を受信する装置である。GNSS受信機13は、例えば、前方カメラ11に内蔵されている。 The GNSS receiver 13 is a device that receives signals from GNSS (Global Navigation Satellite System) satellites (GNSS signals). The GNSS receiver 13 is built into the front camera 11, for example.

なお、GNSS受信機13は、GNSS信号が受信できれば車両M内のいずれの箇所に配されていてもよい。例えば、GNSS受信機13は前方カメラ11の近傍に配置されていてもよい。例えば、GNSS受信機13は、ダッシュボードDB上に配されていてもよい。 Note that the GNSS receiver 13 may be placed anywhere within the vehicle M as long as it can receive GNSS signals. For example, the GNSS receiver 13 may be placed near the front camera 11. For example, the GNSS receiver 13 may be placed on the dashboard DB.

GNSS受信機13は、端末装置20と通信可能に接続されており、受信したGNSS信号を端末装置20に送信することが可能である。端末装置20は、GNSS信号を用いて車両Mの現在位置情報を取得する。 The GNSS receiver 13 is communicably connected to the terminal device 20 and can transmit the received GNSS signal to the terminal device 20. The terminal device 20 acquires current position information of the vehicle M using the GNSS signal.

なお、GNSS受信機13は、Real Time Kinematic(RTK)測位に対応した受信機であってもよく、GNSSによる位置情報を修正した高精度の位置情報を受信可能になっていてもよい。 Note that the GNSS receiver 13 may be a receiver compatible with Real Time Kinematic (RTK) positioning, and may be capable of receiving highly accurate position information obtained by correcting position information by GNSS.

タッチパネルディスプレイ15は、タッチパネル及びディスプレイからなる。タッチパネルディスプレイ15は、端末装置20と通信可能に接続されている。タッチパネルディスプレイ15のディスプレイは、端末装置20から供給される画像を表示する。タッチパネルディスプレイ15のタッチパネルは、タッチパネルへの接触による入力操作を示す信号を端末装置20に送信する。 The touch panel display 15 consists of a touch panel and a display. Touch panel display 15 is communicatively connected to terminal device 20 . The touch panel display 15 displays images supplied from the terminal device 20. The touch panel of the touch panel display 15 transmits a signal indicating an input operation by touching the touch panel to the terminal device 20.

例えば、タッチパネルディスプレイ15は、車両Mの経路案内に関する表示及び入力操作を示す信号を端末装置20に送信する。 For example, the touch panel display 15 transmits a signal indicating a display and an input operation related to route guidance for the vehicle M to the terminal device 20.

例えば、タッチパネルディスプレイ15は、画像処理システム100における画像処理に関してユーザが設定を行うための入力操作を示す信号を端末装置20に送信する。例えば、当該設定は、プライバシーを保護するために不鮮明にする処理や目立たせたい部分を強調する処理等の画像処理の態様の設定である。また、当該設定は、例えば、個人宅等地物の持ち主のプライバシーを保護するモード又は画像処理システム100のユーザのプライバシーの保護等のプライバシーの保護対象によって異なるプライバシー保護モードの設定である。 For example, the touch panel display 15 transmits to the terminal device 20 a signal indicating an input operation for the user to make settings regarding image processing in the image processing system 100. For example, the settings are settings for image processing, such as blurring processing to protect privacy or processing to emphasize parts that are desired to stand out. Further, the setting is, for example, a setting of a privacy protection mode that differs depending on the object of privacy protection, such as a mode of protecting the privacy of the owner of a feature such as a private residence, or protection of the privacy of the user of the image processing system 100.

なお、例えば、端末装置20は、画像処理に関する設定を行うための入力操作を、車両Mに備えられたマイク(図示せず)を介して音声によって受け付けてもよい。 Note that, for example, the terminal device 20 may receive an input operation for performing settings related to image processing by voice via a microphone (not shown) provided in the vehicle M.

図3及び図4を参照しつつ、車両Mに搭載されている端末装置20の構成及び機能について説明する。 The configuration and functions of the terminal device 20 installed in the vehicle M will be described with reference to FIGS. 3 and 4.

図3は、端末装置20の構成を示すブロック図である。図3に示すように、端末装置20は、システムバス21を介して各部が接続されて構成されている。 FIG. 3 is a block diagram showing the configuration of the terminal device 20. As shown in FIG. As shown in FIG. 3, the terminal device 20 is configured such that each part is connected via a system bus 21.

入力部23は、端末装置20と車両Mに備えられた機器とを通信可能に接続するインターフェースである。 The input unit 23 is an interface that communicably connects the terminal device 20 and equipment provided in the vehicle M.

入力部23は、端末装置20と、前方カメラ11とを通信可能に接続するインターフェースである。 The input unit 23 is an interface that connects the terminal device 20 and the front camera 11 in a communicable manner.

入力部23は、端末装置20をGNSS受信機13に接続するインターフェースである。端末装置20は、GNSS受信機13からGNSS信号を受信して、車両Mの現在位置を示す情報を取得する。 The input unit 23 is an interface that connects the terminal device 20 to the GNSS receiver 13. The terminal device 20 receives the GNSS signal from the GNSS receiver 13 and acquires information indicating the current position of the vehicle M.

入力部23は、端末装置20とタッチパネルディスプレイ15のタッチパネルとを通信可能に接続するインターフェースである。 The input unit 23 is an interface that connects the terminal device 20 and the touch panel of the touch panel display 15 in a communicable manner.

入力部23は、端末装置20とジャイロセンサGY及び加速度センサACとを通信可能に接続するインターフェースである。ジャイロセンサGYは、例えば、車両Mの横方向の角度(姿勢)や角速度あるいは角加速度を検出することが可能なセンサである。加速度センサACは、車両Mの上方から見て車両Mの進行方向、すなわち前後方向の加速度を検出可能なセンサである。また、加速度センサACは、例えば、車両Mの進行方向と垂直な横方向(幅方向)の加速度を検出可能である。 The input unit 23 is an interface that connects the terminal device 20 to the gyro sensor GY and the acceleration sensor AC in a communicable manner. The gyro sensor GY is a sensor capable of detecting, for example, the lateral angle (posture), angular velocity, or angular acceleration of the vehicle M. Acceleration sensor AC is a sensor that can detect acceleration in the traveling direction of vehicle M, that is, in the longitudinal direction when viewed from above the vehicle M. Furthermore, the acceleration sensor AC is capable of detecting, for example, acceleration in the lateral direction (width direction) perpendicular to the traveling direction of the vehicle M.

端末装置20は、例えば、GNSS受信機13により取得された車両Mの現在位置情報の遷移、並びにジャイロセンサGY及び加速度センサACのセンサ信号が示す加速度の向きに基づいて、車両Mの進行方向を示す情報を取得する。 The terminal device 20 determines the traveling direction of the vehicle M based on, for example, the transition of the current position information of the vehicle M acquired by the GNSS receiver 13 and the direction of acceleration indicated by the sensor signals of the gyro sensor GY and the acceleration sensor AC. Get the information shown.

また、端末装置20は、例えば、車両Mの進行方向を示す情報を用いて、前方カメラ11によって撮影された画像の撮影方向を示す情報を取得する。 Further, the terminal device 20 uses, for example, information indicating the traveling direction of the vehicle M to acquire information indicating the photographing direction of the image photographed by the front camera 11.

記憶部25は、例えば、ハードディスク装置、SSD(solid state drive)、フラッシュメモリ等により構成されており、端末装置20において実行される各種プログラムを記憶する。なお、各種プログラムは、例えば、他のサーバ装置等からネットワークを介して取得されるようにしてもよいし、記録媒体に記録されて各種ドライブ装置を介して読み込まれるようにしてもよい。すなわち、記憶部25に記憶される各種プログラムは、ネットワークを介して伝送可能であるし、また、コンピュータに読み取り可能な記録媒体に記録して譲渡することが可能である。 The storage unit 25 is configured with, for example, a hard disk device, an SSD (solid state drive), a flash memory, etc., and stores various programs executed in the terminal device 20. Note that the various programs may be obtained, for example, from another server device or the like via a network, or may be recorded on a recording medium and read via various drive devices. That is, the various programs stored in the storage unit 25 can be transmitted via a network, or can be recorded on a computer-readable recording medium and transferred.

記憶部25には、地図情報データベース(図示せず)が構築されている。地図情報データベースには、端末装置20による車両Mの経路生成等に用いられる地図情報が格納されている。 A map information database (not shown) is constructed in the storage unit 25. The map information database stores map information used by the terminal device 20 to generate a route for the vehicle M.

制御部27は、CPU(Central Processing Unit)27A、ROM(Read Only Memory)27B、RAM(Random Access Memory)27C等により構成され、コンピュータとして機能する。そして、CPU27Aが、ROM27Bや記憶部25に記憶された各種プログラムを読み出し実行することにより各種機能を実現する。 The control unit 27 includes a CPU (Central Processing Unit) 27A, a ROM (Read Only Memory) 27B, a RAM (Random Access Memory) 27C, and functions as a computer. The CPU 27A reads and executes various programs stored in the ROM 27B and the storage unit 25, thereby realizing various functions.

制御部27は、入力部23を介して、車両Mの前方の風景を撮影した動画又は静止画である画像を前方カメラ11から取得する。 The control unit 27 obtains an image, which is a moving image or a still image, of the scenery in front of the vehicle M from the front camera 11 via the input unit 23 .

制御部27は、入力部23を介して、車両Mの現在位置情報をGNSS受信機13から取得する。当該現在位置情報は、例えば、時刻を示す情報と、その時刻における車両Mの位置を示す情報が対応付けられた情報である。当該車両Mの位置を示す情報は、地図上の位置を示す情報であってもよい。 The control unit 27 acquires current position information of the vehicle M from the GNSS receiver 13 via the input unit 23 . The current position information is, for example, information in which information indicating time and information indicating the position of vehicle M at that time are associated. The information indicating the position of the vehicle M may be information indicating the position on a map.

また、制御部27は、前方カメラ11から取得した画像と、当該画像が撮影された際の撮影位置及び撮影方向を含む撮影条件を示す情報とを対応づけて、撮影情報を生成する。 Further, the control unit 27 generates photographing information by associating the image acquired from the front camera 11 with information indicating the photographing conditions including the photographing position and photographing direction when the image was photographed.

制御部27は、当該画像が撮影された際のカメラ11の位置である撮影位置を示す情報を取得する。例えば、制御部27は、GNSS受信機からGNSS信号を取得し、受信したGNSS信号に基づいて、画像の撮影位置を示す情報を取得する。 The control unit 27 acquires information indicating the photographing position, which is the position of the camera 11 when the image was photographed. For example, the control unit 27 acquires a GNSS signal from a GNSS receiver, and acquires information indicating the photographing position of the image based on the received GNSS signal.

例えば、制御部27は、画像が撮影された時刻における車両Mの位置情報をGNSS受信機13から取得し、当該位置情報が示す位置を撮影位置とする。例えば、制御部27は、前方カメラ11の取り付け位置とGNSS受信機13の取り付け位置とが離れている場合には、当該取り付け位置の差分について補正を行って撮影位置を算出してもよい。 For example, the control unit 27 acquires the position information of the vehicle M at the time when the image was photographed from the GNSS receiver 13, and sets the position indicated by the position information as the photographing position. For example, when the mounting position of the front camera 11 and the mounting position of the GNSS receiver 13 are far apart, the control unit 27 may calculate the photographing position by correcting the difference in the mounting positions.

また、当該撮影位置は、水平方向の位置に加えて、高さ方向の位置を含んでいてもよい。例えば、当該高さ方向の位置は、車両Mの車高及び前方カメラ11の取り付け位置によって決まり、当該高さ方向の位置を示す情報は、前方カメラ11に対応付けて、記憶部25に記憶されていてもよい。 Further, the photographing position may include a position in the height direction in addition to a position in the horizontal direction. For example, the position in the height direction is determined by the vehicle height of the vehicle M and the mounting position of the front camera 11, and information indicating the position in the height direction is stored in the storage unit 25 in association with the front camera 11. You can leave it there.

例えば、制御部27は、GNSS受信機から、QZSS信号(Quasi-Zenith Satellite System)(準天頂衛星システム、みちびき)信号を取得して、受信したQZSS信号に基づいて、画像の撮影位置を示す高精度の位置情報を取得してもよい。 For example, the control unit 27 acquires a QZSS signal (Quasi-Zenith Satellite System) (quasi-zenith satellite system, Michibiki) signal from a GNSS receiver, and based on the received QZSS signal, the control unit 27 acquires a height that indicates the photographing position of the image. Accurate location information may be obtained.

また、例えば、制御部27は、RTK測位を利用してGNSSによる位置情報を修正した情報を取得し、より高精度の撮影位置を取得してもよい。 Further, for example, the control unit 27 may obtain a more accurate photographing position by using RTK positioning to obtain information obtained by correcting the position information by GNSS.

制御部27は、例えば、画像が撮影された際の前方カメラ11の向き及び車両Mの加速度に基づいて取得される車両Mの進行方向に基づいて、撮影方向を取得する。例えば、制御部27は、前方カメラ11が車両Mの前方に向くように固定されている場合には、車両Mの進行方向を撮影方向として取得してもよい。 The control unit 27 acquires the photographing direction, for example, based on the direction of travel of the vehicle M, which is acquired based on the direction of the front camera 11 and the acceleration of the vehicle M when the image was photographed. For example, when the front camera 11 is fixed so as to face forward of the vehicle M, the control unit 27 may obtain the traveling direction of the vehicle M as the photographing direction.

例えば、制御部27は、前方カメラ11が車両Mの進行方向に対する角度が可変に取り付けられている場合には、撮影時の前方カメラの11の向きを示す情報を前方カメラ11から取得し、車両Mの進行方向及び前方カメラ11の向きに基づいて撮影方向を取得してもよい。 For example, if the front camera 11 is attached at a variable angle with respect to the traveling direction of the vehicle M, the control unit 27 acquires information indicating the orientation of the front camera 11 at the time of photographing from the front camera 11, and The photographing direction may be acquired based on the traveling direction of M and the orientation of the front camera 11.

さらに、制御部27は、撮影位置及び撮影方向に加えて、前方カメラ11の画像とともに、前方カメラ11の画角を示す情報を取得してもよい。すなわち、撮影情報には、画像が撮影された際の画角を示す情報が含まれてもよい。例えば、画角を示す情報は前方カメラ11に保持されており、画像とともに端末装置20に送信される。 Further, the control unit 27 may acquire information indicating the angle of view of the front camera 11 along with the image of the front camera 11 in addition to the photographing position and the photographing direction. That is, the photographing information may include information indicating the angle of view at which the image was photographed. For example, information indicating the angle of view is held in the front camera 11 and transmitted to the terminal device 20 together with the image.

図4は、端末装置20の制御部27によって生成される撮影情報の一例を示す図である。図4に示す例においては、前方カメラ11によって取得された複数の画像のうちの1つの画像について、当該画像のフレーム番号に、当該画像が取得された際の撮影位置、撮影方向及び画角が対応付けられている。 FIG. 4 is a diagram illustrating an example of photographing information generated by the control unit 27 of the terminal device 20. In the example shown in FIG. 4, for one image among the plurality of images acquired by the front camera 11, the frame number of the image includes the photographing position, photographing direction, and angle of view when the image was acquired. are associated.

図4に示す例において、撮影位置は高さ方向の位置も含む3次元の座標として表されている。なお、撮影位置は3次元の座標に限られず、2次元の座標であってもよい。 In the example shown in FIG. 4, the photographing position is expressed as three-dimensional coordinates including the position in the height direction. Note that the photographing position is not limited to three-dimensional coordinates, but may be two-dimensional coordinates.

撮影方向は、例えば北を0°とした方位角で表される。 The photographing direction is expressed, for example, as an azimuth with north set at 0°.

画角は、例えば水平方向、垂直方向、及び対角方向の角度で表される。撮影情報に含まれる画角はこれに限られず、例えば水平方向の角度のみであってもよい。 The angle of view is expressed, for example, by angles in the horizontal direction, vertical direction, and diagonal direction. The angle of view included in the photographic information is not limited to this, and may be, for example, only the angle in the horizontal direction.

制御部27は、生成した撮影情報を画像処理装置10に送信する。制御部27は、図4に例示したような、フレームごとの撮影情報を逐次送信してもよく、所定のフレーム数毎に、又は所定の時間毎に撮影情報を送信してもよい。 The control unit 27 transmits the generated photographic information to the image processing device 10. The control unit 27 may sequentially transmit the photographing information for each frame as illustrated in FIG. 4, or may transmit the photographing information every predetermined number of frames or every predetermined time.

再び図3を参照すると、通信部29は、無線装置(図示せず)に接続されているNIC(Network Interface Card)等のネットワークアダプタである。通信部29は、制御部27からの命令に従って、画像処理装置10との通信を行う。例えば、通信部29は、端末装置20が撮影情報を画像処理装置10に送信する際の通信を行う。 Referring again to FIG. 3, the communication unit 29 is a network adapter such as a NIC (Network Interface Card) connected to a wireless device (not shown). The communication unit 29 communicates with the image processing device 10 according to instructions from the control unit 27 . For example, the communication unit 29 performs communication when the terminal device 20 transmits photographing information to the image processing device 10.

出力部31は、車両Mに備えられたタッチパネルディスプレイ15のディスプレイに接続されている。出力部31は、制御部27からの命令に従って、ディスプレイに各種情報を供給するためのインターフェースである。 The output unit 31 is connected to a display of a touch panel display 15 provided in the vehicle M. The output unit 31 is an interface for supplying various information to the display according to commands from the control unit 27.

例えば、出力部31は、ナビゲーション画面を表示するための情報をディスプレイに供給する。また、例えば、出力部31は、画像処理装置10によるプライバシー保護モードの設定等の画像処理に関する設定の入力を受け付ける画面を表示するための情報をディスプレイに供給する。例えば、出力部31は、前方カメラ11によって撮影された画像をディスプレイに供給してもよい。 For example, the output unit 31 supplies information for displaying a navigation screen to the display. Further, for example, the output unit 31 supplies the display with information for displaying a screen that accepts input of settings related to image processing, such as setting a privacy protection mode by the image processing device 10. For example, the output unit 31 may supply the image captured by the front camera 11 to the display.

続いて、図5~9を参照しつつ、画像処理装置10の構成及び機能について説明する。 Next, the configuration and functions of the image processing device 10 will be explained with reference to FIGS. 5 to 9.

図5は、画像処理装置10の構成を示すブロック図である。図5に示すように、画像処理装置10は、システムバス41を介して各部が接続されて構成されているサーバ装置である。 FIG. 5 is a block diagram showing the configuration of the image processing device 10. As shown in FIG. As shown in FIG. 5, the image processing device 10 is a server device in which each part is connected via a system bus 41.

大容量記憶装置43は、例えば、ハードディスク装置、SSD(solid state drive)、フラッシュメモリ等により構成された記憶装置である。大容量記憶装置43は、画像処理装置10において実行される各種プログラムを記憶する。なお、各種プログラムは、例えば他のサーバ装置等からネットワークを介して取得されてもよく、記録媒体に記録されて各種ドライブ装置を介して読み込まれてもよい。 The mass storage device 43 is, for example, a storage device configured with a hard disk device, an SSD (solid state drive), a flash memory, or the like. The mass storage device 43 stores various programs executed by the image processing device 10. Note that various programs may be obtained from, for example, another server device via a network, or may be recorded on a recording medium and read via various drive devices.

例えば、大容量記憶装置43は、画像処理装置10が、画像中の画像処理を行う対象となる対象領域を特定する際に実行する画像処理プログラムを記憶する。 For example, the mass storage device 43 stores an image processing program that the image processing device 10 executes when identifying a target area in an image that is to be subjected to image processing.

例えば、大容量記憶装置43は、画像処理装置10が、画像中の対象領域に画像処理を行う際に実行する画像処理プログラムを記憶する。 For example, the mass storage device 43 stores an image processing program that the image processing device 10 executes when performing image processing on a target area in an image.

例えば、大容量記憶装置43は、画像処理装置10が、プライバシーを侵害する蓋然性が高い所定の条件に合致する文字が写っている画像中の領域を不鮮明にする処理を行う際に実行する画像処理プログラムを記憶する。当該プライバシーを侵害する蓋然性が高い文字は、例えば、地面からの高さが所定の高さ以下又は当該文字の大きさが所定の大きさ以下の文字、又は人名や地名等に関する語に一致する文字である。 For example, the large-capacity storage device 43 stores image processing that is performed when the image processing device 10 performs processing to blur an area in an image in which characters that meet predetermined conditions that have a high probability of infringing privacy are shown. Memorize the program. Characters that have a high probability of infringing on privacy are, for example, characters whose height from the ground is less than a predetermined height or whose size is less than a predetermined size, or characters that match words related to people's names, place names, etc. It is.

大容量記憶装置43は、各種プログラムを実行するために必要なデータが格納されたデータベースを記憶している。 The mass storage device 43 stores a database in which data necessary for executing various programs is stored.

大容量記憶装置43は、地図情報データベース(以下、地図情報DBと称する)43Aを含む。地図情報DB43Aには、地物の位置と当該地物の属性を示す情報を含む地図情報が記憶されている。地図情報DB43Aに記憶されている地図情報において、地物の位置情報及び地物の各々の属性を示す情報が対応付けられている。 The mass storage device 43 includes a map information database (hereinafter referred to as map information DB) 43A. The map information DB 43A stores map information including information indicating the position of a feature and the attribute of the feature. In the map information stored in the map information DB 43A, position information of terrestrial objects and information indicating attributes of each terrestrial object are associated with each other.

例えば、地図情報DB43Aに記憶されている地図情報は、例えば、地物の位置情報が3次元で表された地図情報である。なお、当該地図情報において、地物の位置情報が2次元で表されていてもよい。 For example, the map information stored in the map information DB 43A is map information in which position information of a feature is expressed in three dimensions. Note that in the map information, the position information of the terrestrial objects may be represented in two dimensions.

当該地図情報は、本実施例において、撮影画像中の地物の属性に基づいて画像処理の対象領域を特定する際に利用される。 In this embodiment, the map information is used when specifying the target area for image processing based on the attributes of the features in the photographed image.

図6は、地図情報DBに記憶されている属性を示す情報の一例を示す図である。図6に示すように、地図情報DBにおいて、地物の各々を特定する識別子である地物IDと、当該地物の属性が対応付けられて記憶されている。 FIG. 6 is a diagram showing an example of information indicating attributes stored in the map information DB. As shown in FIG. 6, in the map information DB, a feature ID, which is an identifier for specifying each feature, and an attribute of the feature are stored in association with each other.

図6に示すように、地物の属性としては、個人宅や個人商店等の私的な性質の属性や、商業施設や公共施設等の公共性の高い属性が挙げられる。 As shown in FIG. 6, the attributes of the feature include attributes of a private nature such as a private home or a private store, and attributes of a highly public nature such as a commercial facility or a public facility.

図6に示す例の他に、地図情報には、電柱やマンホールが地物として記憶されていてもよい。例えば、電柱には街区表示板等の住所を特定可能な表示が掲示されている場合が多く、撮影画像中に電柱が写っている場合に、本実施例の画像処理の対象とするか否かの判定が必要になる場合がある。また、マンホールについても、当該マンホールが設置されている自治体等を特定可能な文字または図形が描かれている場合も多く、例えば撮影場所を特定されないようにする際に、本実施例の画像処理の対象とするか否かの判定が必要になる場合がある。 In addition to the example shown in FIG. 6, the map information may also store utility poles and manholes as features. For example, there are many cases where utility poles are posted with signs that can identify addresses, such as block display boards, and if a utility pole is included in a photographed image, it is difficult to determine whether or not to include it in the image processing of this embodiment. judgment may be necessary. In addition, manholes often have characters or figures drawn on them that can identify the municipality where the manhole is installed. There may be cases where it is necessary to decide whether or not to include the target.

大容量記憶装置43は、辞書データベース(以下、辞書DBと称する)43Bを含む。辞書DB43Bには、画像処理装置10によって、画像中に写っている文字に関する処理が行われる際に参照される所定の語が記憶されている。 The mass storage device 43 includes a dictionary database (hereinafter referred to as dictionary DB) 43B. The dictionary DB 43B stores predetermined words that are referred to when the image processing device 10 performs processing regarding characters appearing in an image.

例えば、辞書DB43Bには、多数の人名を収録した人名辞書が記憶されている。例えば、当該人名辞書は、画像処理装置10によって、画像中に写り込んだ個人の住宅の表札の文字部分を不鮮明にする処理が行われる際に、例えば人名辞書に含まれる人名が画像中の文字に含まれるか否かの判定に使用される。 For example, the dictionary DB 43B stores a personal name dictionary containing a large number of personal names. For example, when the image processing device 10 performs a process of blurring the character part of the nameplate of a private residence that is reflected in the image, the person's name dictionary can be used to It is used to determine whether it is included in the

例えば、辞書DB43Bには、多数の地名を収録した地名辞書が記憶されている。例えば、当該地名辞書は、画像処理装置10によって、画像中に写り込んだ街区標示板等の地名を示す文字部分を不鮮明にする処理が行われる際に、例えば地名辞書に含まれる地名が画像中の文字に含まれるか否かの判定に使用される。 For example, the dictionary DB 43B stores a place name dictionary that includes many place names. For example, when the image processing device 10 performs a process of blurring a character portion indicating a place name such as a block sign board reflected in an image, the place name dictionary may It is used to determine whether it is included in the characters.

制御部45は、CPU(Central Processing Unit)45A、ROM(Read Only Memory)45B、RAM(Random Access Memory)45C等により構成され、コンピュータとして機能する。そして、CPU45Aが、ROM45Bや大容量記憶装置43に記憶された各種プログラムを読み出し実行することにより各種機能を実現する。 The control unit 45 includes a CPU (Central Processing Unit) 45A, a ROM (Read Only Memory) 45B, a RAM (Random Access Memory) 45C, and functions as a computer. The CPU 45A reads and executes various programs stored in the ROM 45B and the mass storage device 43, thereby realizing various functions.

制御部45は、大容量記憶装置43に記憶された画像処理プログラムを読み出して実行することで、画像中の画像処理を行う対象となる対象領域を特定する。 The control unit 45 reads and executes an image processing program stored in the mass storage device 43 to identify a target area in the image to be subjected to image processing.

制御部45は、大容量記憶装置43に記憶された画像処理プログラムを読み出して実行することで、画像中の対象領域に画像処理を行う。 The control unit 45 reads and executes an image processing program stored in the mass storage device 43 to perform image processing on a target area in the image.

制御部45は、大容量記憶装置43に記憶された画像処理プログラムを読み出して実行することで、プライバシーを侵害する蓋然性が高い所定の条件に合致する文字が写っている画像中の領域を不鮮明にする処理を行う。プライバシーを侵害する蓋然性が高い文字は、例えば、地面からの高さが所定の高さ以下又は当該文字の大きさが所定の大きさ以下の文字、又は人名や地名等に関する語に一致する文字である。 The control unit 45 reads and executes an image processing program stored in the mass storage device 43 to blur an area in the image in which characters that meet predetermined conditions that are highly likely to violate privacy are shown. Perform the processing to do. Characters that are likely to infringe on privacy are, for example, characters whose height from the ground is less than a predetermined height or whose size is less than a predetermined size, or characters that match words related to people's names, place names, etc. be.

通信部47は、無線装置(図示せず)に接続されているNIC(Network Interface Card)等のネットワークアダプタである。通信部47は、制御部45からの命令に従って、画像処理装置10と外部との通信を行う。 The communication unit 47 is a network adapter such as a NIC (Network Interface Card) connected to a wireless device (not shown). The communication unit 47 performs communication between the image processing device 10 and the outside according to instructions from the control unit 45.

例えば、通信部47は、画像処理装置10が、車両Mに取り付けられた前方カメラ11によって撮影された画像、当該画像の撮影位置及び撮影方向を含む撮影情報を端末装置20から取得する際の通信を行う。 For example, the communication unit 47 communicates when the image processing device 10 acquires photographing information including an image photographed by the front camera 11 attached to the vehicle M, and the photographing position and photographing direction of the image from the terminal device 20. I do.

以下、図7~11を参照しつつ、画像処理装置10の制御部45の機能について詳細に説明する。 The functions of the control unit 45 of the image processing device 10 will be described in detail below with reference to FIGS. 7 to 11.

制御部45は、撮像装置としての前方カメラ11によって撮影された撮影画像、当該撮影画像の撮影位置及び撮影方向を含む撮影情報を端末装置20から取得し、撮影情報取得部として機能する。 The control unit 45 functions as a photography information acquisition unit by acquiring photographic information including a photographed image photographed by the front camera 11 as an imaging device, a photographing position and a photographing direction of the photographed image from the terminal device 20.

[属性の特定]
制御部45は、地物の位置及び当該地物の属性を示す地図情報と、取得した撮影情報とに基づいて、撮影画像中の地物の属性を特定する属性特定部として機能する。
[Identification of attributes]
The control unit 45 functions as an attribute specifying unit that specifies the attribute of the feature in the photographed image based on the map information indicating the position of the feature and the attribute of the feature, and the acquired photographic information.

属性特定部としての制御部45は、例えば、地図情報DB43Aに記憶されている地図情報に基づいて、撮影情報が示す撮影位置及び撮影方向を含む条件で撮影した場合の画像を再現した再現画像を生成し、撮影画像内の被写体となった地物と、再現画像内の地物とを照合することで、撮影画像内の被写体となった地物の属性を特定する。 For example, the control unit 45 as an attribute specifying unit generates a reproduced image that reproduces an image taken under conditions including the shooting position and shooting direction indicated by the shooting information, based on the map information stored in the map information DB 43A. By comparing the generated feature that is the object in the photographed image with the feature in the reproduced image, the attribute of the object that is the object in the photographed image is identified.

図7は、車両Mと、車両Mの現在位置の周辺に存在する地物との位置関係の一例を模式的に示す上面図である。図7中、地物が矩形の図形によって示され、各々の地物に地物IDが付されている。また、図7に示す例において、地物F1と地物F2の間に、電柱PPが存在している。 FIG. 7 is a top view schematically showing an example of the positional relationship between the vehicle M and features existing around the current position of the vehicle M. In FIG. 7, the features are represented by rectangular figures, and each feature is assigned a feature ID. Further, in the example shown in FIG. 7, a utility pole PP exists between the feature F1 and the feature F2.

図8は、制御部45が属性を特定する際に生成する再現画像の一例を模式的に示す図である。図8に示す例においては、車両Mが図7に示した現在位置にある際に、前方カメラ11によって撮影された画像を含む撮影情報を画像処理装置10が受信し、当該撮影情報に基づいて生成された再現画像IMを示している。 FIG. 8 is a diagram schematically showing an example of a reproduced image generated when the control unit 45 identifies an attribute. In the example shown in FIG. 8, the image processing device 10 receives photographic information including an image photographed by the front camera 11 when the vehicle M is at the current position shown in FIG. A generated reproduction image IM is shown.

例えば、制御部45は、端末装置20から撮影情報を受信すると、大容量記憶装置43の地図情報DB43Aを参照し、例えば図4に示したような、撮影情報が示す撮影位置、撮影方向、及び画角の条件で撮影した場合に被写体となる地物の、画像中の大きさや写る角度を再現して再現画像を生成する。上記したように、地図情報DB43Aにおいて各々の地物に属性が対応付けられているため、再現画像が生成される際に、再現画像中の地物に当該地物の属性が対応付けられる。 For example, when the control unit 45 receives photographing information from the terminal device 20, it refers to the map information DB 43A of the mass storage device 43 and determines the photographing position, photographing direction, and direction indicated by the photographing information, as shown in FIG. 4, for example. Generates a reproduced image by reproducing the size and angle of the object in the image when photographed under the viewing angle conditions. As described above, each feature is associated with an attribute in the map information DB 43A, so when a reproduced image is generated, the attribute of the feature is associated with the feature in the reproduced image.

制御部45は、例えば、地図情報DB43Aに記憶されている3次元の地図情報に基づいて3Dレンダリング等の画像生成技術を利用して再現画像を生成する。なお、制御部45は、例えば、2次元の地図に基づいて再現画像を生成してもよい。 For example, the control unit 45 generates a reproduction image using an image generation technique such as 3D rendering based on the three-dimensional map information stored in the map information DB 43A. Note that the control unit 45 may generate the reproduced image based on a two-dimensional map, for example.

図8に示す例においては、地物IDがF2であり属性が個人宅である地物及び地物IDがF5であり属性が商業施設である地物が手前に大きく写り、その奥に地物IDがF1及びF4の属性が個人宅である地物が小さく写っていることを示す再現画像が生成されている。 In the example shown in Figure 8, the feature whose feature ID is F2 and whose attribute is a private residence and the feature whose feature ID is F5 and whose attribute is a commercial facility appear large in the foreground, and the feature in the background is A reproduced image is generated showing that the features with IDs F1 and F4 and whose attributes are private residences are shown in a small size.

制御部45は、撮影情報に含まれる撮影画像内の被写体となった地物と、図8に示したような再現画像内の地物とを照合することで、撮影画像内の被写体となった地物の属性を特定することができる。 The control unit 45 compares the feature that is the subject in the captured image included in the capturing information with the feature in the reproduced image as shown in FIG. The attributes of features can be identified.

[対象領域の特定]
また、制御部45は、撮影画像中において、属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定部として機能する。
[Identification of target area]
The control unit 45 also functions as a target area specifying unit that specifies, as a target area for image processing, an area in the captured image in which a feature whose attribute is a predetermined attribute specified by the attribute specifying unit is captured. do.

当該対象領域の特定において、例えば、プライバシーの保護が目的の場合は、不鮮明とする画像処理の対象領域が特定される。例えば、画像が添付された電子地図を参照する際の目印となるような文字や建物等を目立たせることが目的の場合は、強調する画像処理の対象領域が特定される。 In specifying the target area, for example, if the purpose is to protect privacy, a target area for image processing to be blurred is specified. For example, if the purpose is to highlight characters, buildings, etc. that serve as landmarks when referring to an electronic map with an attached image, a target area for image processing to be emphasized is specified.

以下、プライバシーの保護が目的の場合を中心に説明する。 Below, we will mainly explain the case where the purpose is to protect privacy.

プライバシーの保護対象としては、例えば、撮影画像内の被写体となった地物の持ち主のプライバシー又は撮影画像を利用する利用者のプライバシーが考えられる。 Examples of privacy protection targets include the privacy of the owner of the feature that is the subject of the photographed image, or the privacy of the user who uses the photographed image.

例えば、地物の持ち主のプライバシーを保護対象とする場合には、個人宅の外観や個人宅の表札に表示された苗字又は氏名を含む人名等の個人情報が写っている画像が公開されることを防止する必要があると考える。この場合、地物の属性に基づいて対象領域を特定するための属性の設定として、個人宅や個人経営の商店等の私的な属性が設定される。 For example, if the privacy of the owner of a feature is to be protected, images showing personal information such as the exterior of a private residence or a person's name, including the last name or name displayed on the nameplate of a private residence, may be made public. I think it is necessary to prevent this. In this case, a private attribute such as a private residence or a privately run store is set as the attribute setting for specifying the target area based on the attribute of the feature.

言い換えれば、予め設定された私的な属性の地物が写っている領域を対象領域として、当該対象領域に画像処理を施すことで、地物の持ち主のプライバシーを保護することができる。 In other words, the privacy of the owner of the feature can be protected by performing image processing on the target region using a region in which a feature with a preset private attribute is photographed.

また、例えば、撮影画像を利用する利用者のプライバシーを保護対象とする場合には、公共施設や街区標示板等が写っている画像が公開されることで撮影場所が特定されることを防止する必要があると考える。この場合、地物の属性に基づいて対象領域を特定するための属性の設定として、商業施設や公共施設等の公共性の高い属性が設定される。 Also, for example, if the privacy of the user of the photographed image is to be protected, it is possible to prevent the location of the photograph from being identified due to the publication of images that include public facilities, street sign boards, etc. I think it is necessary. In this case, highly public attributes such as commercial facilities and public facilities are set as attributes for specifying the target area based on the attributes of the features.

言い換えれば、予め設定された公共性の高い属性の地物が写っている領域を対象領域として、当該対象領域に画像処理を施すことで、撮影画像を利用する利用者のプライバシーを保護することができる。 In other words, it is possible to protect the privacy of users who use captured images by applying image processing to an area in which a feature with a preset highly public attribute is captured as a target area. can.

なお、対象領域の特定に使用する属性は、画像処理装置10において予め設定されていてもよく、例えば、タッチパネルディスプレイ15を介して、ユーザによって設定又は変更可能であってもよい。例えば、当該所定の属性は、プライバシー保護対象を示す情報及び画像処理の内容を示す情報とともに、大容量記憶装置43に記憶されていてもよい。 Note that the attributes used to specify the target area may be set in advance in the image processing device 10, or may be set or changeable by the user via the touch panel display 15, for example. For example, the predetermined attribute may be stored in the mass storage device 43 together with information indicating the subject of privacy protection and information indicating the content of image processing.

図9は、対象領域の特定に使用される属性の設定の例を示す図である。図9に示す例において、「プライバシー保護モード」は、プライバシーの保護対象によって異なる属性の設定態様を示している。図9に示す例においては、地物の持ち主のプライバシーを保護対象とする場合を「モード1」、撮影画像を利用する利用者のプライバシーを保護対象とする場合を「モード2」としている。 FIG. 9 is a diagram illustrating an example of setting attributes used to specify a target area. In the example shown in FIG. 9, "privacy protection mode" indicates different attribute setting modes depending on the privacy protection target. In the example shown in FIG. 9, "mode 1" is used to protect the privacy of the owner of the feature, and "mode 2" is used to protect the privacy of the user who uses the photographed image.

また、図9に示す「保護範囲レベル」は、プライバシーの保護範囲の広さ、言い換えれば保護の度合いを示している。図9に示す例においては、保護範囲レベルが高い程、対象領域の特定に使用する属性として、より多くの属性が設定される。 Further, the "protection range level" shown in FIG. 9 indicates the breadth of the privacy protection range, in other words, the degree of protection. In the example shown in FIG. 9, the higher the protection range level, the more attributes are set as attributes used to specify the target area.

なお、より多くの属性が設定されるほど、プライバシーの保護は厚くなる一方で、対象領域として特定される画像中の領域は大きくたるため、不鮮明処理が施されると、画像中の情報が損なわれる範囲が広くなる。 Note that the more attributes that are set, the stronger the privacy protection, but the area in the image that is identified as the target area is large and sagging, so if blurring is applied, the information in the image may be lost. The scope of what can be done becomes wider.

なお、例えば、図9の設定例において、モード1又はモード2のいずれか一方のみを使用してもよく、モード1の設定とモード2の設定とを組み合わせてもよい。例えば、モード1についてはレベル3に設定し、モード2についてはレベル1に設定してもよい。 Note that, for example, in the setting example of FIG. 9, only one of mode 1 or mode 2 may be used, or the settings of mode 1 and the settings of mode 2 may be combined. For example, mode 1 may be set to level 3, and mode 2 may be set to level 1.

また、図9に例示したモード1及びモード2の他に、画像中の目印となる部分を目立たせることを目的とするモードが設定できるようにしてもよい。例えば、当該モードによって目印となる部分として特定された対象領域には、強調する画像処理が行われる。 Furthermore, in addition to Mode 1 and Mode 2 illustrated in FIG. 9, a mode may be set that aims to make a landmark part in an image stand out. For example, image processing is performed to emphasize a target area specified as a landmark by the mode.

図10は、撮影画像の一例として、撮影画像FL1000中の対象領域が特定されている様子を示す図である。図10は、地物の持ち主のプライバシーを保護対象とする場合に、対象領域が特定されている例を示している。 FIG. 10 is a diagram showing how a target area is specified in a photographed image FL1000 as an example of a photographed image. FIG. 10 shows an example in which a target area is specified when the privacy of the owner of a feature is to be protected.

撮影画像FL1000中に写っている地物の各々に、当該地物の属性が対応付けられている。これらの属性に基づいて、撮影画像FL1000において対象領域が特定されている。 Each feature shown in the photographed image FL1000 is associated with an attribute of the feature. Based on these attributes, a target area is specified in photographed image FL1000.

図10中、破線に囲まれた領域は、画像処理の対象領域AR1を示している。図10に示す例においては、属性が「個人宅」である地物が写っている領域が、対象領域AR1として特定されている。 In FIG. 10, the area surrounded by the broken line indicates the image processing target area AR1. In the example shown in FIG. 10, the area in which the feature having the attribute "private residence" is photographed is specified as the target area AR1.

また、図10において、一点鎖線に囲まれた領域は、地物が写っている領域であっても画像処理の対象外の領域である領域AR2を示している。図10に示す例においては、属性が「商業施設」である地物が写っている領域が、対象外の領域AR2となっている。 Furthermore, in FIG. 10, the area surrounded by the dashed line indicates an area AR2 that is not subject to image processing even if it includes a feature. In the example shown in FIG. 10, the area in which the feature having the attribute "commercial facility" is photographed is the non-target area AR2.

また、制御部45は、対象領域を特定する際に、所定の属性の地物が写っている領域内において、当該所定の属性の地物とは異なる物体が写っている領域を対象領域から除外してもよい。 Furthermore, when specifying the target area, the control unit 45 excludes from the target area an area in which an object different from the feature with the predetermined attribute is photographed within the region in which the feature with the predetermined attribute is photographed. You may.

当該異なる物体として、例えば電柱は、街区標示板等の住所を示す表示が取り付けられている場合が多く、例えば実写画像を用いた経路案内のために使用する画像としては有用である。この場合、例えば、電柱が写っている領域を不鮮明にする画像処理を行うと、有用な情報が損なわれる。そこで、電柱が写っている領域を対象領域から除外することで、撮影画像から有用な情報が失われることを防止することができる。図10に示す例において、対象領域AR1のうち電柱が写っている領域は対象領域から除外してもよい。 Examples of such different objects include telephone poles, which often have a display indicating an address such as a block sign board attached thereto, and are useful as images used for route guidance using, for example, live-action images. In this case, for example, if image processing is performed to make the area where the telephone pole is obscured, useful information will be lost. Therefore, by excluding the area in which the telephone pole is photographed from the target area, it is possible to prevent useful information from being lost from the captured image. In the example shown in FIG. 10, the area in which the telephone pole is photographed in the target area AR1 may be excluded from the target area.

例えば、地図情報DB43Aに記憶されている地図情報に、電柱の位置情報が含まれていてもよく、制御部45は、当該電柱の位置情報を用いて撮影画像中の所定の属性の地物が写っている領域内の電柱を特定し、当該電柱が写っている領域を対象領域から除外してもよい。例えば、地図情報に電柱の位置情報が含まれない場合には、画像認識によって、所定の属性の地物が写っている領域内において電柱を検出した場合に、当該電柱が写っている領域を対象領域から除外してもよい。 For example, the map information stored in the map information DB 43A may include position information of a utility pole, and the control unit 45 uses the position information of the utility pole to identify features with predetermined attributes in the captured image. The utility pole within the photographed area may be identified, and the area where the utility pole is photographed may be excluded from the target area. For example, if the map information does not include the location information of a utility pole, if a utility pole is detected in an area where a feature with a predetermined attribute is captured through image recognition, the area where the utility pole is captured will be targeted. It may be excluded from the area.

[画像処理の態様]
また、制御部45は、撮影画像中の対象領域の少なくとも一部を不鮮明にするか又は当該対象領域を強調する処理を行う画像処理部として機能する。
[Aspects of image processing]
Further, the control unit 45 functions as an image processing unit that performs processing to make at least a part of the target area in the photographed image unclear or to emphasize the target area.

対象領域の少なくとも一部を不鮮明にする処理の態様としては、例えば、モザイク処理、ぼかし処理、マスク処理等の画像処理が挙げられる。 Examples of the process for making at least a portion of the target area unclear include image processing such as mosaic processing, blurring processing, and masking processing.

制御部45は、例えば、対象領域内の表札等の文字が写っている部分を不鮮明にする処理を行う。例えば、個人宅が写り込んだ場合に、当該個人宅の持ち主の個人情報である名前がインターネット上に公開されることを防止することができ、当該持ち主のプライバシーを保護することができる。 For example, the control unit 45 performs a process of blurring a portion of a nameplate or the like in the target area where characters are shown. For example, when a private residence is included in the photograph, the name, which is personal information of the owner of the private residence, can be prevented from being disclosed on the Internet, and the privacy of the owner can be protected.

また、制御部45は、例えば、対象領域全体を不鮮明にする処理を行ってもよい。この場合、例えば、撮影画像中の所定の地物である建物全体を不鮮明にすることができ、例えば個人宅等の外観がインターネット上に公開されることを防止することができる。 Further, the control unit 45 may perform processing to make the entire target area unclear, for example. In this case, for example, the entire building, which is a predetermined feature in the photographed image, can be blurred, and for example, the exterior of a private residence or the like can be prevented from being made public on the Internet.

図11は、対象領域全体を不鮮明にする画像処理後の撮影画像の一例を示す図である。図11に示す例においては、属性が個人宅である建物が写っている対象領域AR1が不鮮明となっている。 FIG. 11 is a diagram illustrating an example of a photographed image after image processing that makes the entire target region unclear. In the example shown in FIG. 11, the target area AR1 in which the building whose attribute is a private residence is shown is unclear.

一方、対象領域を強調する処理の態様としては、撮影画像中の対象領域のコントラストを高くする処理、明度又は彩度を高くする処理等の画像処理が挙げられる。 On the other hand, examples of processing for emphasizing the target area include image processing such as increasing the contrast of the target area in the photographed image, increasing brightness or saturation, and the like.

[文字検出]
また、制御部45は、例えば、撮影画像中の文字を検出する文字検出部として機能する。制御部45は、例えば、OCR(Optical Character Recognition)やAIによる文字認識(AI-OCR)等の公知の文字認識技術を用いて、撮影画像中の文字を検出する。例えば、文字検出部としての制御部45は、対象領域内の文字を検出してもよい。
[Character detection]
Further, the control unit 45 functions, for example, as a character detection unit that detects characters in a photographed image. The control unit 45 detects characters in the captured image using, for example, a known character recognition technique such as OCR (Optical Character Recognition) or AI-based character recognition (AI-OCR). For example, the control unit 45 serving as a character detection unit may detect characters within the target area.

[文字に関する画像処理]
画像処理部としての制御部45は、例えば、所定の条件に合致する文字が写っている画像中の領域を不鮮明にする処理を実行してもよい。
[Image processing related to text]
The control unit 45 serving as an image processing unit may, for example, perform a process of blurring an area in the image in which characters that meet a predetermined condition are shown.

例えば、画像処理部としての制御部45は、文字検出部によって検出された文字の実際の鉛直方向の高さが所定の高さよりも低い場合又は当該文字の実際のサイズが所定のサイズよりも小さい場合に、当該文字を不鮮明にする処理を行う。 For example, if the actual vertical height of the character detected by the character detection unit is lower than a predetermined height, or if the actual size of the character is smaller than the predetermined size, the control unit 45 as an image processing unit In this case, processing is performed to make the character in question unclear.

制御部45は、撮影画像が撮影された撮影位置から、文字検出部によって検出された文字までの距離に基づいて、当該文字の鉛直方向の高さを算出する。 The control unit 45 calculates the height of the character in the vertical direction based on the distance from the photographing position where the photographed image was taken to the character detected by the character detection unit.

例えば、制御部45は、撮影画像とともに、当該撮影画像の撮影位置を示す情報を取得し、当該撮影位置及び地図情報に基づいて、当該撮影位置から検出された文字までの実際の距離を算出する。制御部45は、算出した実際の距離に基づいて、画像中の当該文字の地面からの鉛直方向の高さを当該文字の実際の高さに換算する。 For example, the control unit 45 acquires information indicating the shooting position of the shot image together with the shot image, and calculates the actual distance from the shooting position to the detected character based on the shooting position and map information. . The control unit 45 converts the vertical height of the character in the image from the ground to the actual height of the character based on the calculated actual distance.

本実施例において、撮影画像中に検出された文字の鉛直方向の実際の高さが所定の高さよりも高い場合には、当該文字は店舗の看板等の、不特定の人に見せるための文字である可能性が高く、当該実際の高さが所定の高さ以下である場合には、当該文字は表札に書かれた文字である可能性が高いと考える。 In this embodiment, if the actual vertical height of a character detected in a photographed image is higher than a predetermined height, the character is a character on a store signboard or the like that is displayed to an unspecified person. If the actual height is less than or equal to the predetermined height, it is considered that the character is likely to be the character written on the nameplate.

例えば、表札の地上からの高さは2m以下の場合が多い。一方で、文字の地上からの高さが2mを超える場合は看板の文字であることが多い。そこで、制御部45は、算出した文字の高さが2m以下である場合には当該文字を不鮮明にする処理を行い、2mを越える場合には、当該文字を不鮮明にしないこととする制御を行ってもよい。 For example, the height of the nameplate from the ground is often less than 2 meters. On the other hand, if the height of the letters above the ground exceeds 2 m, they are often letters on a signboard. Therefore, the control unit 45 performs control such that if the calculated height of the character is 2 m or less, the character is made unclear, and if it exceeds 2 m, the character is not made unclear. It's okay.

このようにすることで、表札に書かれた個人の名前がインターネット上に公開されることを防止するとともに、看板等に書かれた文字は不鮮明にしないことで、撮影画像から情報が過剰に失われないようにすることができる。 This prevents the names of individuals written on nameplates from being published on the Internet, and prevents the writing on signboards from becoming blurred, which prevents excessive loss of information from photographed images. You can prevent this from happening.

また、制御部45は、撮影画像が撮影された撮影位置から、文字検出部によって検出された文字までの距離に基づいて、当該文字のサイズを算出する。 Furthermore, the control unit 45 calculates the size of the character based on the distance from the photographing position where the photographed image was taken to the character detected by the character detection unit.

例えば、制御部45は、撮影画像とともに当該撮影画像の撮影位置を示す情報を取得し、当該撮影位置及び地図情報に基づいて、当該撮影位置から検出された文字までの実際の距離を算出する。制御部45は、算出した実際の距離に基づいて、画像中の当該文字のサイズを当該文字の実際のサイズに換算する。 For example, the control unit 45 acquires information indicating the photographing position of the photographed image together with the photographed image, and calculates the actual distance from the photographing position to the detected character based on the photographing position and map information. The control unit 45 converts the size of the character in the image into the actual size of the character based on the calculated actual distance.

本実施例において、撮影画像中に検出された文字の実際の大きさが所定の大きさよりも大きい場合には、店舗の看板等の、不特定の人に見せるための文字である可能性が高く、当該文字の実際の大きさが所定の大きさ以下である場合には、表札に書かれた文字である可能性が高いと考える。 In this example, if the actual size of the characters detected in the photographed image is larger than the predetermined size, there is a high possibility that the characters are characters that are intended to be shown to an unspecified person, such as on a store signboard. If the actual size of the character is less than or equal to a predetermined size, it is considered that there is a high possibility that the character is written on a nameplate.

例えば、表札の文字は高さ方向の幅15cm以下であることが多く、看板の文字はこれより大きいことが多い。そこで、制御部45は、算出した文字のサイズについて、高さ方向の幅15cm以下である場合には当該文字を不鮮明にする処理を行い、高さ方向の幅が15cmよりも大きい場合には、当該文字を不鮮明にしないこととする制御を行ってもよい。 For example, the characters on nameplates are often less than 15 cm wide in the height direction, and the characters on signboards are often larger than this. Therefore, regarding the calculated character size, if the width in the height direction is 15 cm or less, the control unit 45 performs processing to make the character unclear, and if the width in the height direction is larger than 15 cm, Control may be performed to prevent the characters from becoming unclear.

このようにすることで、例えば表札に書かれた個人の名前がインターネット上に公開されることを防止するとともに、看板等に書かれた文字は不鮮明にしないことで、撮影画像から情報が過剰に失われないようにすることができる。 By doing this, for example, an individual's name written on a nameplate is prevented from being published on the Internet, and by not blurring the letters written on a signboard, etc., excessive information is not extracted from the photographed image. You can prevent it from being lost.

例えば、検出された文字の鉛直方向の高さが所定の高さよりも低い場合(高さによる判定)又は当該文字の実際のサイズが所定のサイズよりも小さい場合(サイズによる判定)のいずれか一方に該当する場合に当該文字を不鮮明にしてもよく、高さによる判定とサイズによる判定とを組み合わせて、両方に該当する場合に文字を不鮮明にしてもよい。 For example, either the vertical height of the detected character is lower than a predetermined height (height-based determination) or the actual size of the character is smaller than a predetermined size (size-based determination) If the above applies, the character may be made unclear, or the determination based on height and the determination based on size may be combined, and the text may be made unclear when both apply.

画像処理部としての制御部45は、撮影画像中に検出された文字が所定の語に一致する場合に、当該文字を不鮮明にする処理を実行してもよい。当該所定の語は、例えば、人名または地名に関する語である。 The control unit 45 serving as an image processing unit may perform a process of making the characters blurred when the characters detected in the photographed image match a predetermined word. The predetermined word is, for example, a word related to a person's name or a place name.

制御部45は、例えば、撮影画像中に検出された1又は複数の文字からなる文字列が、大容量記憶装置43の辞書DB43Bに記憶されている人名又は地名のいずれかに一致する場合に、当該文字を不鮮明にする処理を実行してもよい。これによって、例えば、「飛び出し注意」等の人名や地名ではない文字については画像中に残すことができる。 For example, when a character string consisting of one or more characters detected in a photographed image matches either a person's name or a place name stored in the dictionary DB 43B of the mass storage device 43, the control unit 45 Processing may be performed to make the characters unclear. With this, for example, characters that are not a person's name or place name, such as "Be careful not to jump out", can be left in the image.

例えば、所定の語に一致する文字は、一連の文字列の一部であってもよい。例えば、「高橋クリニック」のうちの「高橋」の部分のみが人名に該当し、不鮮明にする処理の対象となってもよい。 For example, characters that match a given word may be part of a string of characters. For example, only the "Takahashi" part of "Takahashi Clinic" corresponds to a person's name and may be subject to blurring processing.

また、所定の語に一致するか否かの判定と、上記の文字の高さによる判定又は文字のサイズによる判定を組み合わせて適用してもよい。 Further, the determination as to whether or not the word matches a predetermined word may be combined with the determination based on the height of the character or the determination based on the size of the character described above.

例えば、「高橋クリニック」の看板が表札よりも高い位置又は大きい文字で書かれている場合、上記の文字の高さによる判定又は文字のサイズによる判定を適用すると、看板に書かれた「高橋クリニック」の文字は画像処理の対象外となり、不鮮明とせずに撮影画像中に残すことができる。 For example, if the signboard for "Takahashi Clinic" is written at a higher position than the nameplate or in larger letters, applying the above-mentioned determination based on the height of the characters or determination based on the size of the characters, the "Takahashi Clinic" written on the sign " characters are not subject to image processing and can be left in the photographed image without being blurred.

このように、所定の条件に合致する文字を不鮮明にする画像処理の対象とし、それ以外の文字は対象外とすることで、撮影画像中の情報が過剰に失われることを防止できる。 In this way, by subjecting characters that meet predetermined conditions to image processing to make them unclear, and excluding other characters, it is possible to prevent excessive loss of information in a photographed image.

例えば、制御部45は、上記のような画像処理の対象領域を特定し、当該対象領域内の文字が所定の語に一致する場合に、当該文字を不鮮明にする処理を実行してもよい。 For example, the control unit 45 may specify a target area for image processing as described above, and when characters in the target area match a predetermined word, perform processing to blur the characters.

また、例えば、制御部45は、対象領域内で検出された文字の鉛直方向の高さが所定の高さよりも低い場合又は当該文字の実際のサイズが所定のサイズよりも小さい場合に、当該文字が所定の語に一致する場合、当該文字を不鮮明にする処理を実行してもよい。 For example, if the vertical height of the character detected within the target area is lower than a predetermined height, or if the actual size of the character is smaller than the predetermined size, the control unit 45 controls the character detected in the target area. matches a predetermined word, processing may be performed to blur the character.

図12~図18を参照しつつ、本実施例における画像処理装置10の制御部45によって実行される制御ルーチンについて説明する。 A control routine executed by the control unit 45 of the image processing apparatus 10 in this embodiment will be described with reference to FIGS. 12 to 18.

図12は、制御部45が撮影画像中の地物の属性を特定する際に実行するルーチンの一例である属性特定ルーチンRT1を示すフローチャートである。例えば、制御部45は、端末装置20からの撮影情報の送信が開始されると、属性特定ルーチンRT1を開始する。 FIG. 12 is a flowchart showing an attribute specifying routine RT1, which is an example of a routine executed by the control unit 45 when specifying the attribute of a feature in a photographed image. For example, when transmission of photographing information from the terminal device 20 is started, the control unit 45 starts the attribute specifying routine RT1.

制御部45は、属性特定ルーチンRT1を開始すると、前方カメラ11によって撮影された撮影画像、当該撮影画像の撮影位置及び撮影方向を含む撮影情報を新たに端末装置20から受信して取得する(ステップS101)。ステップS101において、例えば、1つのフレーム画像、当該フレーム画像が取得された際の撮影位置、及び撮影方向を含む撮影情報が取得される。例えば、図4に示したように、撮影情報には撮影画像が撮影された画角を示す情報が含まれてもよい。 When the control unit 45 starts the attribute specifying routine RT1, the control unit 45 newly receives and acquires photographing information including a photographed image photographed by the front camera 11, a photographing position and a photographing direction of the photographed image from the terminal device 20 (step S101). In step S101, photographing information including, for example, one frame image, the photographing position at which the frame image was acquired, and the photographing direction is acquired. For example, as shown in FIG. 4, the photographing information may include information indicating the angle of view at which the photographed image was photographed.

ステップS101の実行後、制御部45は、地図情報DB43Aに記憶されている地図情報を参照する(ステップS102)。ステップS102において、制御部45は、ステップS101において取得した撮影情報が示す撮影位置を含むエリアの地図情報を読み出す。 After executing step S101, the control unit 45 refers to map information stored in the map information DB 43A (step S102). In step S102, the control unit 45 reads map information of the area including the shooting position indicated by the shooting information acquired in step S101.

ステップS102の実行後、制御部45は、ステップS102において読み出した地図情報に基づいて、ステップS101において取得した撮影情報が示す撮影位置及び撮影方向を含む条件で撮影した場合の画像を再現した再現画像を生成する(ステップS103)。ステップS103において、例えば、図8に示したような再現画像が生成される。また、ステップ103において、地図情報に含まれる地物に対応付けられている属性によって、再現画像内の地物の属性が特定される。 After executing step S102, the control unit 45 generates a reproduced image based on the map information read out in step S102, which reproduces the image taken under the conditions including the shooting position and shooting direction indicated by the shooting information acquired in step S101. is generated (step S103). In step S103, for example, a reproduced image as shown in FIG. 8 is generated. Further, in step 103, the attributes of the features in the reproduced image are specified based on the attributes associated with the features included in the map information.

ステップS103の実行後、制御部45は、撮影画像と再現画像との照合を行う(ステップS104)。 After executing step S103, the control unit 45 compares the photographed image and the reproduced image (step S104).

ステップS104の実行後、制御部45は、撮影画像中の地物の属性を特定する(ステップS105)。ステップS105において、例えば、撮影画像中の被写体となった地物と、再現画像内の地物と、を照合することで、撮影画像中の地物の属性が特定される。 After executing step S104, the control unit 45 specifies the attribute of the feature in the photographed image (step S105). In step S105, for example, the attribute of the feature in the captured image is identified by comparing the feature that is the subject in the captured image with the feature in the reproduced image.

ステップS105の実行後、制御部45は、ステップS104において特定した属性を示す情報を付した画像を記憶する(ステップS106)。 After executing step S105, the control unit 45 stores the image with information indicating the attribute specified in step S104 (step S106).

ステップS106の実行後、制御部45は、属性特定ルーチンRT1を終了し、新たに属性特定ルーチンRT1を開始する。 After executing step S106, the control unit 45 ends the attribute specifying routine RT1 and starts a new attribute specifying routine RT1.

図13は、制御部45が、画像処理を行う対象領域を特定する際に実行するルーチンの一例である対象領域特定ルーチンRT2を示すフローチャートである。例えば、制御部45は、属性特定ルーチンRT1が開始されると、対象領域特定ルーチンRT2を開始する。 FIG. 13 is a flowchart showing a target region specifying routine RT2, which is an example of a routine executed by the control unit 45 when specifying a target region for image processing. For example, when the attribute specifying routine RT1 is started, the control unit 45 starts the target area specifying routine RT2.

制御部45は、対象領域特定ルーチンRT2を開始すると、地物の属性が付された撮影画像を新たに取得する(ステップS201)。ステップS201において、制御部45は、例えば、属性特定ルーチンRT1のステップS106において、撮影画像中の地物に当該地物の属性が付されて記憶された画像を読み出す。 When the control unit 45 starts the target area identification routine RT2, the control unit 45 newly acquires a photographed image to which the attribute of a terrestrial feature is attached (step S201). In step S201, the control unit 45 reads, for example, an image in which the attribute of the feature is attached to the feature in the photographed image and stored in step S106 of the attribute specifying routine RT1.

ステップS201の実行後、制御部45は、対象領域を特定するための属性の設定を参照する(ステップS202)。ステップS202において、制御部45は、例えば、図9に例示したような、プライバシーの保護対象又は保護範囲レベルに応じて予め設定されている属性を参照する。 After executing step S201, the control unit 45 refers to the setting of attributes for specifying the target area (step S202). In step S202, the control unit 45 refers to attributes that are preset according to the privacy protection target or protection scope level, for example, as illustrated in FIG.

例えば、プライバシーの保護対象が地物の持ち主のプライバシーである場合には、個人宅等の私的な属性が対象領域を特定するための属性として設定されている。 For example, when the object of privacy protection is the privacy of the owner of a feature, a private attribute such as a private residence is set as an attribute for specifying the target area.

例えば、プライバシーの保護対象が撮影画像を利用する利用者のプライバシーである場合には、商業施設等の公共性の高い属性が対象領域を特定するための属性として設定されている。 For example, if the privacy protection target is the privacy of a user who uses a photographed image, a highly public attribute such as a commercial facility is set as an attribute for specifying the target area.

ステップS202の実行後、制御部45は、取得した撮影画像中の、ステップS202において参照した設定に対応する属性の地物が写っている領域を対象領域として特定する(ステップS203)。 After executing step S202, the control unit 45 specifies, as a target area, an area in the acquired captured image in which a feature with an attribute corresponding to the settings referenced in step S202 is shown (step S203).

ステップS203の実行後、制御部45は、対象領域の情報が付された画像を記憶する(ステップS204)。ステップS204において、例えば図10に例示したような、対象領域を示す情報が付された画像が大容量記憶装置43に記憶される。 After executing step S203, the control unit 45 stores the image with target area information attached (step S204). In step S204, an image with information indicating the target area, such as that illustrated in FIG. 10, is stored in the mass storage device 43.

ステップS204の実行後、制御部45は、対象領域特定ルーチンRT2を終了し、新たに対象領域特定ルーチンRT2を開始する。 After executing step S204, the control unit 45 ends the target area specifying routine RT2 and starts a new target area specifying routine RT2.

図14は、制御部45が画像処理を行う際に実行するルーチンの一例である画像処理ルーチンRT3を示すフローチャートである。例えば、制御部45は、対象領域特定ルーチンRT2が開始されると、画像処理ルーチンRT3を開始する。 FIG. 14 is a flowchart showing an image processing routine RT3, which is an example of a routine executed by the control unit 45 when performing image processing. For example, when the target area identification routine RT2 is started, the control unit 45 starts the image processing routine RT3.

制御部45は、画像処理ルーチンRT3を開始すると、対象領域の情報が付された撮影画像を取得する(ステップS301)。ステップS301において、例えば、制御部45は、対象領域特定ルーチンRT2のステップS204において記憶された画像を読み出す。 When the control unit 45 starts the image processing routine RT3, the control unit 45 acquires a captured image with information on the target area attached (step S301). In step S301, for example, the control unit 45 reads the image stored in step S204 of the target area identification routine RT2.

ステップS301の実行後、制御部45は、画像処理の設定を参照する(ステップS302)。ステップS302において、例えば、大容量記憶装置43を参照し、実行すべき画像処理の内容が対象領域の少なくとも一部を不鮮明にする画像処理であるか又は対象領域を強調する処理であるかを示す情報を読み出す。 After executing step S301, the control unit 45 refers to the image processing settings (step S302). In step S302, for example, with reference to the mass storage device 43, it is indicated whether the content of the image processing to be executed is image processing that blurs at least a part of the target area or processing that emphasizes the target area. Read information.

ステップS302の実行後、制御部45は、対象領域に画像処理を実行する(ステップS303)。ステップS303において、例えば、ステップS302において参照した画像処理の内容に対応する画像処理を実行する。ステップS303において、例えば、対象領域全体を不鮮明にする処理又は対象領域を強調する処理が実行される。 After executing step S302, the control unit 45 executes image processing on the target area (step S303). In step S303, for example, image processing corresponding to the content of the image processing referred to in step S302 is executed. In step S303, for example, a process of blurring the entire target area or a process of emphasizing the target area is executed.

ステップS303の実行後、制御部45は、画像処理が施された撮影画像を記憶する(ステップS304)。 After executing step S303, the control unit 45 stores the photographed image subjected to image processing (step S304).

ステップS304の実行後、制御部45は、画像処理ルーチンRT3を終了し、新たに画像処理ルーチンRT3を開始する。 After executing step S304, the control unit 45 ends the image processing routine RT3 and starts a new image processing routine RT3.

画像処理ルーチンRT3のステップS304において記憶された画像はユーザが利用可能である。例えば、画像処理システム100のユーザは、対象領域に画像処理が施された画像をSNSや電子地図を通じてインターネット上に公開しても、保護対象とするプライバシーを侵害せずに済む。 The image stored in step S304 of image processing routine RT3 is available to the user. For example, the user of the image processing system 100 can publish an image whose target area has been subjected to image processing on the Internet through SNS or an electronic map without infringing on privacy that is to be protected.

図15は、制御部45が文字を不鮮明にする画像処理を行う際に実行するルーチンの一例である画像処理ルーチンRT4を示すフローチャートである。例えば、制御部45は、端末装置20からの撮影画像又は撮影情報の送信が開始されると、画像処理ルーチンRT4を開始する。 FIG. 15 is a flowchart showing an image processing routine RT4, which is an example of a routine executed by the control unit 45 when performing image processing to blur characters. For example, the control unit 45 starts the image processing routine RT4 when transmission of the captured image or captured information from the terminal device 20 is started.

制御部45は、画像処理ルーチンRT4を開始すると、前方カメラ11によって撮影された撮影画像を取得する(ステップS401)。ステップS401において、例えば、制御部45は、撮影画像と共に当該撮影画像の撮影位置を端末装置20から受信する。 When the control unit 45 starts the image processing routine RT4, it acquires a captured image captured by the front camera 11 (step S401). In step S401, for example, the control unit 45 receives the photographed image and the photographing position of the photographed image from the terminal device 20.

ステップS401の実行後、制御部45は、文字認識技術を用いて撮影画像中の文字を検出し、撮影画像内に文字が存在するか否かを判定する(ステップS402)。ステップS402において、例えば、文字が写っている領域が文字領域LTとして特定される。 After executing step S401, the control unit 45 uses character recognition technology to detect characters in the photographed image, and determines whether or not characters exist in the photographed image (step S402). In step S402, for example, an area where characters are shown is specified as a character area LT.

図16は、撮影画像FL1000内の文字が写っている領域が文字領域LTとして特定されている例を示す図である。図16に示すように、個人宅の表札に書かれた文字が写っている領域、看板に「〇〇医院」と書かれた文字が写っている領域及び看板に「〇〇〇店」と書かれた文字が写っている領域が、文字領域LTとして特定されている。 FIG. 16 is a diagram illustrating an example in which a region in which characters appear in photographed image FL1000 is specified as character region LT. As shown in Figure 16, the area where the letters written on the nameplate of a private residence are shown, the area where the words ``〇〇 Clinic'' written on the signboard are shown, and the area where the words ``〇〇〇 store'' are written on the signboard are shown. The area in which the written characters are shown is specified as the character area LT.

ステップS402において、制御部45は、撮影画像内に文字が存在しないと判定する(ステップS402:NO)と、画像処理ルーチンRT4を終了し、画像処理ルーチンRT4を新たに開始する。 In step S402, when the control unit 45 determines that there are no characters in the captured image (step S402: NO), it ends the image processing routine RT4 and starts a new image processing routine RT4.

ステップS402において、制御部45は、撮影画像内に文字が存在すると判定する(ステップS402:YES)と、検出した文字の地上からの鉛直方向の高さ(以下、高さ位置とも称する)及び当該文字の大きさを算出する(ステップS403)。ステップS403において、制御部45は、例えば、上述したように、当該画像が撮影された撮影位置から当該検出された文字までの距離に基づいて、当該文字の高さ及び大きさを算出する。 In step S402, if the control unit 45 determines that a character exists in the photographed image (step S402: YES), the control unit 45 determines the vertical height of the detected character from the ground (hereinafter also referred to as the height position) and the height position of the detected character. The size of the characters is calculated (step S403). In step S403, the control unit 45 calculates the height and size of the detected character based on the distance from the photographing position where the image was photographed to the detected character, for example, as described above.

ステップS403の実行後、制御部45は、ステップS403において算出した文字の高さが所定の高さよりも低いか否かを判定する(ステップS404)。ステップS404において、例えば、表札の地上からの高さが2m以下の場合が多いことに鑑みて、基準となる地上からの所定の高さを例えば2mとして判定される。 After executing step S403, the control unit 45 determines whether the height of the character calculated in step S403 is lower than a predetermined height (step S404). In step S404, for example, in view of the fact that the height of the nameplate from the ground is often 2 m or less, the predetermined height from the ground serving as a reference is determined to be, for example, 2 m.

ステップS404において、算出された文字の高さが所定の高さよりも低いと判定する(ステップS404:YES)と、制御部45は、算出された文字の大きさが所定の大きさよりも小さいか否かを判定する(ステップS405)。ステップS405において、例えば、表札に書かれた文字のサイズは高さ方向の幅15cm以下である場合が多いことに鑑みて、基準となる所定のサイズを例えば高さ方向の幅15cmとして判定される。 In step S404, if it is determined that the calculated character height is lower than the predetermined height (step S404: YES), the control unit 45 determines whether the calculated character size is smaller than the predetermined size. (Step S405). In step S405, for example, in view of the fact that the size of characters written on a nameplate is often less than 15 cm in width in the height direction, the predetermined size serving as a reference is determined to be, for example, 15 cm in width in the height direction. .

ステップS405において、算出された文字の大きさが所定の大きさよりも小さいと判定する(ステップS405:YES)と、制御部45は、ステップS402において検出された文字を不鮮明にする処理を実行する(ステップS406)。ステップS406において、例えば、モザイク処理、ぼかし処理又はマスク処理等の画像処理が検出された文字部分に施される。 In step S405, if it is determined that the calculated character size is smaller than the predetermined size (step S405: YES), the control unit 45 executes processing to blur the detected character in step S402 ( Step S406). In step S406, image processing such as mosaic processing, blurring processing, or masking processing is performed on the detected character portion.

図17は、撮影画像FL1000内の文字領域LTについて、文字を不鮮明にする処理が実行された例を示している。図17に示す例においては、文字領域LTのうち、個人宅の表札に書かれた文字が写っている領域が不鮮明となっている。 FIG. 17 shows an example in which processing to make the characters unclear is executed on the character area LT in the photographed image FL1000. In the example shown in FIG. 17, the area of the character area LT where the characters written on the nameplate of a private residence are shown is unclear.

図17に示す例において、例えば、個人宅の表札に書かれた文字は、実際の鉛直方向の高さが所定の高さ以下であり、かつ実際の大きさが所定の大きさ以下であるため、不鮮明とする画像処理の対象となっている。また、例えば、「〇〇医院」と書かれた文字は、実際の鉛直方向の高さが所定の高さ以下であるが、大きさが所定の大きさよりも大きいため、不鮮明とする画像処理の対象外となっている。 In the example shown in FIG. 17, for example, the actual vertical height of the characters written on the nameplate of a private residence is less than or equal to a predetermined height, and the actual size is less than or equal to a predetermined size. , and is subject to image processing to make it blurry. For example, the actual vertical height of the characters written as "〇〇Clinic" is less than the predetermined height, but the size is larger than the predetermined size, so the image processing to make it unclear is necessary. Not applicable.

図17に示す例においては、看板に「〇〇〇店」と書かれた文字は、実際の鉛直方向の高さが所定の高さよりも高く、かつ実際の大きさが所定の大きさよりも大きいため、不鮮明とする画像処理の対象外となっている。 In the example shown in FIG. 17, the actual vertical height of the characters written as "〇〇〇 store" on the signboard is higher than the predetermined height, and the actual size is larger than the predetermined size. Therefore, it is not subject to image processing to make it unclear.

ステップS406の実行後、制御部45は、文字を不鮮明にする画像処理が施された画像を大容量記憶装置43に記憶する(ステップS407)。ステップS407において、例えば、画像処理が施された画像は、ユーザがアップロード可能な専用フォルダに保存されてもよい。 After executing step S406, the control unit 45 stores the image, which has been subjected to image processing to make the characters unclear, in the mass storage device 43 (step S407). In step S407, for example, the image subjected to image processing may be saved in a dedicated folder that can be uploaded by the user.

制御部45は、ステップS404において、文字の高さ位置が所定の高さよりも低くないと判定した場合(ステップS404:NO)又はステップS405において文字の大きさが所定の大きさよりも小さくないと判定した場合(ステップS405:NO)、ステップS407において、本ルーチンによっては画像処理が施されていない画像を記憶する。 If the control unit 45 determines in step S404 that the height position of the character is not lower than the predetermined height (step S404: NO), or determines that the size of the character is not smaller than the predetermined size in step S405. If so (step S405: NO), in step S407, an image that has not been subjected to image processing is stored according to this routine.

ステップS407において、例えば、当該画像処理が施されていない画像についても、画像処理が施された画像と同様に、ユーザがアップロード可能な専用フォルダに保存されてもよい。ステップS407における画像処理が施されていない画像は、ステップS404又はステップS405を経ることで本ルーチンの判定基準によりユーザがアップロード可能な画像であることを確認済みの画像であるといえる。 In step S407, for example, the image that has not been subjected to the image processing may be saved in a dedicated folder that can be uploaded by the user, similarly to the image that has been subjected to the image processing. An image that has not been subjected to the image processing in step S407 can be said to be an image that has been confirmed as an image that can be uploaded by the user according to the determination criteria of this routine through step S404 or step S405.

ステップS407の実行後、制御部45は、画像処理ルーチンRT4を終了し、画像処理ルーチンRT4を新たに開始する。 After executing step S407, the control unit 45 ends the image processing routine RT4 and starts a new image processing routine RT4.

なお、画像処理ルーチンRT4は、例えば対象領域特定ルーチンRT2を経て対象領域の情報が付されている撮影画像について実行されてもよい。例えば、ステップS401において対象領域の情報が付されている撮影画像を取得し、ステップS402において、撮影画像中に文字が存在するか否かの判定に代えて、対象領域内に文字が存在するか否かの判定がなされてもよい。 Note that the image processing routine RT4 may be executed, for example, on a photographed image to which target area information has been attached via the target area specifying routine RT2. For example, in step S401, a photographed image with target area information is acquired, and in step S402, instead of determining whether or not characters exist in the photographed image, whether or not characters exist in the target area is determined. It may be determined whether or not.

そのようにすることで、効率良くかつ正確に画像処理の対象となる文字領域を特定することができる。例えば、図17に示す例においては、対象領域AR1のみについて上記のような文字の鉛直方向の高さ及び文字の大きさの判定を行うことで、対象領域外にある「〇〇医院」の文字について文字領域の特定をすることなく画像処理の対象から除外することができる。 By doing so, it is possible to efficiently and accurately specify the character area to be subjected to image processing. For example, in the example shown in FIG. 17, by determining the vertical height and character size of the characters as described above only for the target area AR1, the characters "〇〇Clinic" outside the target area can be excluded from image processing without specifying the character area.

本ルーチンによれば、撮影画像中の、表札が写っている領域等のプライバシーを侵害する蓋然性の高い領域については確実に、不鮮明にする画像処理(不鮮明処理)の対象とすることができる。さらに、表札よりも高い位置にある看板や表札に書かれた文字よりも大きい文字で書かれた看板等が写っている、プライバシーを侵害する蓋然性が高くない領域を、不鮮明処理の対象から除外することができる。従って、撮影画像中の風景や情報を必要以上に損なうことなくプライバシーを保護することができる。 According to this routine, areas in the photographed image that have a high probability of infringing on privacy, such as an area where a nameplate is shown, can be reliably subjected to image processing to blur (blurring processing). Furthermore, areas where there is no high probability of infringing on privacy, such as signs that are located higher than the nameplate or written in larger letters than the nameplate, are excluded from blurring processing. be able to. Therefore, privacy can be protected without unnecessarily damaging the scenery or information in the photographed image.

図18は、制御部45が文字を不鮮明にする画像処理を行う際に実行するルーチンの一例である画像処理ルーチンRT5を示すフローチャートである。例えば、制御部45は、対象領域特定ルーチンRT2が開始されると、画像処理ルーチンRT5を開始する。 FIG. 18 is a flowchart showing an image processing routine RT5, which is an example of a routine executed by the control unit 45 when performing image processing to make characters unclear. For example, when the target area identification routine RT2 is started, the control unit 45 starts the image processing routine RT5.

制御部45は、画像処理ルーチンRT5を開始すると、画像処理ルーチンRT3の場合と同様に、対象領域の情報が付された画像を取得する(ステップS501)。 When the control unit 45 starts the image processing routine RT5, the control unit 45 acquires an image with information on the target area attached, as in the case of the image processing routine RT3 (step S501).

ステップS501の実行後、制御部45は、文字認識技術を用いて対象領域内の文字を検出し、対象領域内に文字が存在するか否かを判定する(ステップS502)。 After executing step S501, the control unit 45 uses character recognition technology to detect characters within the target area, and determines whether or not there are characters within the target area (step S502).

ステップS502において、対象領域内に文字が存在しないと判定する(ステップS502:NO)と、制御部45は、画像処理ルーチンRT5を終了し、新たに画像処理ルーチンRT5を開始する。 If it is determined in step S502 that no characters exist within the target area (step S502: NO), the control unit 45 ends the image processing routine RT5 and starts a new image processing routine RT5.

ステップS502において、対象領域内に文字が存在すると判定する(ステップS502:YES)と、制御部45は、大容量記憶装置43の辞書DB43Bを参照し(ステップS503)、ステップS502において検出された文字が、辞書DB43B内の辞書に含まれる語と一致するか否かを判定する(ステップS504)。 In step S502, if it is determined that a character exists in the target area (step S502: YES), the control unit 45 refers to the dictionary DB 43B of the mass storage device 43 (step S503), and selects the character detected in step S502. It is determined whether or not the word matches a word included in a dictionary in the dictionary DB 43B (step S504).

ステップS504において、辞書DB43B内の辞書に含まれる語と一致すると判定する(ステップS504:YES)と、制御部45は、ステップS502において検出された文字を不鮮明にする処理を実行する(ステップS505)。 If it is determined in step S504 that the word matches the word included in the dictionary in the dictionary DB 43B (step S504: YES), the control unit 45 executes processing to blur the characters detected in step S502 (step S505). .

ステップS505において、例えば、図17に例示したように、個人宅の表札に書かれた文字が写っている領域や看板に「〇〇医院」と書かれた文字が写っている領域のうち、人名が書かれている「〇〇」の部分のみが不鮮明となるように、モザイク処理等の画像処理が施される。 At step S505, for example, as illustrated in FIG. Image processing such as mosaic processing is performed so that only the "〇〇" part where is written becomes unclear.

ステップS505の実行後、制御部45は、文字を不鮮明にする画像処理が施された画像を大容量記憶装置43に記憶する(ステップS506)。ステップS506において、例えば、画像処理が施された画像は、ユーザがアップロード可能な専用フォルダに保存されてもよい。 After executing step S505, the control unit 45 stores the image, which has been subjected to image processing to make the characters unclear, in the mass storage device 43 (step S506). In step S506, for example, the image that has been subjected to image processing may be saved in a dedicated folder that can be uploaded by the user.

制御部45は、ステップS504において、辞書DB43B内の辞書に含まれる語と一致しないと判定した場合(ステップS504:NO)と、ステップS506において、本ルーチンによっては画像処理が施されていない画像を記憶する。 When the control unit 45 determines in step S504 that the word does not match the word included in the dictionary in the dictionary DB 43B (step S504: NO), in step S506, the control unit 45 selects an image that has not been subjected to image processing according to this routine. Remember.

ステップS506において、例えば、当該画像処理が施されていない画像についても、画像処理が施された画像と同様に、ユーザがアップロード可能な専用フォルダに保存されてもよい。 In step S506, for example, the image that has not been subjected to the image processing may be saved in a dedicated folder that can be uploaded by the user, similarly to the image that has been subjected to the image processing.

ステップS506の実行後、制御部45は、画像処理ルーチンRT5を終了し、画像処理ルーチンRT5を新たに開始する。 After executing step S506, the control unit 45 ends the image processing routine RT5 and starts a new image processing routine RT5.

なお、画像処理ルーチンRT5は、例えば、対象領域の情報が付されていない撮影画像について実行されてもよい。 Note that the image processing routine RT5 may be executed, for example, on a photographed image to which information about the target area is not attached.

また、画像処理ルーチンRT5は、画像処理ルーチンRT4と組み合わせて実行されてもよい。例えば、画像処理ルーチンRT5における辞書に含まれる語と一致するか否かの判定についてのステップS503及びステップS504が、画像処理ルーチンRT4における文字の高さ又は大きさに関する判定の前又は後、すなわちステップS403の前又はステップS405の後に実行されてもよい。このようにすることで、より精度良くプライバシーを侵害する蓋然性の高い文字のみを不鮮明処理の対象とし、それ以外の文字については不鮮明処理の対象外とすることができ、元の画像の情報が損なわれることを防止することができる。 Further, the image processing routine RT5 may be executed in combination with the image processing routine RT4. For example, steps S503 and S504 regarding the determination of whether the word matches a word included in the dictionary in the image processing routine RT5 may be performed before or after the determination regarding the height or size of the character in the image processing routine RT4, that is, step It may be executed before step S403 or after step S405. By doing this, it is possible to more accurately target only the characters that have a high probability of infringing on privacy, and exclude other characters from the blurring process, so that the information in the original image is lost. It is possible to prevent this from happening.

なお、図12-図18を用いて説明したルーチンによる画像処理は、ユーザが画像をSNS等を介して公開しようとする際に実行されてもよく、撮影画像が取得された際に遂次に又は定期的に実行されてアップロード用のフォルダに保存されていてもよい。 Note that the image processing according to the routine explained using FIGS. 12 to 18 may be executed when the user intends to publish the image via SNS etc., and may be executed sequentially when the captured image is acquired. Alternatively, it may be executed periodically and saved in the upload folder.

なお、本実施例において、目印となるような地物や文字等を目立たせることを目的として、対象領域又は撮影画像の少なくとも一部を強調する画像処理が実行されてもよい。 Note that in this embodiment, image processing may be performed to emphasize at least a part of the target area or the photographed image in order to make landmarks, characters, etc. stand out.

また、当該強調する画像処理は、上記したような不鮮明処理と組み合わせて実行されてもよい。例えば、写り込んだ地物の持ち主のプライバシーを保護するために、個人宅又は人名が書かれた文字が写っている領域を不鮮明とする画像処理を実行し、かつ、目印となる地物が写っている領域又は街区標示板や看板等の文字が書かれた領域については強調する画像処理を実行するようにしてもよい。 Further, the image processing for enhancing may be performed in combination with the blurring processing as described above. For example, in order to protect the privacy of the owner of a feature in the photo, image processing is performed to make the area where a private residence or a person's name is written unclear, and the feature that serves as a landmark is Image processing may be performed to emphasize areas where characters are written, such as on block signboards or signboards.

図19は、撮影画像FL1000について、表札の領域については不鮮明とする画像処理が施され、かつ、例えば実写画像を用いた経路案内のために有効な目印となる商業施設の建物については強調する画像処理が行われた例を示している。 FIG. 19 shows an image in which the photographed image FL1000 has been subjected to image processing to make the area of the nameplate blurred, while emphasizing the building of a commercial facility, which is an effective landmark for route guidance using, for example, a real image. An example of processing is shown.

以上、詳細に説明したように、本実施例の画像処理装置10は、撮像装置によって撮影された撮影画像、撮影画像の撮影位置及び撮影方向を含む撮影情報を取得する撮影情報取得部と、地物の位置と当該地物の属性を示す情報を含む地図情報と、撮影情報とに基づいて、撮影画像中の地物の属性を特定する属性特定部と、撮影画像中において、属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定部と、を有する。 As described above in detail, the image processing device 10 of the present embodiment includes a photographing information acquisition unit that acquires photographic information including a photographic image photographed by an imaging device, a photographing position and a photographing direction of the photographic image; an attribute identification unit that identifies attributes of features in a captured image based on map information including information indicating the location of the object and attributes of the feature, and imaging information; The image processing apparatus includes a target area specifying unit that specifies an area in which a feature whose specified attribute is a predetermined attribute is photographed as a target area for performing image processing.

このような構成により、例えばプライバシーを保護するために画像処理が必要な領域を、地物の属性に基づいて特定することができる。例えば、対象領域以外の領域については、画像処理後においても、元の画像の風情や情報を維持することができる。 With such a configuration, for example, an area that requires image processing to protect privacy can be specified based on the attributes of the feature. For example, for areas other than the target area, the appearance and information of the original image can be maintained even after image processing.

また、本実施例の画像処理装置10は、撮像装置によって撮影された撮影画像を取得する画像取得部と、撮影画像中の文字を検出する文字検出部と、当該検出された文字の実際の鉛直方向の高さが所定の高さよりも低い場合又は当該文字の実際のサイズが所定のサイズよりも小さい場合に、当該文字を不鮮明にする処理を行う画像処理部と、を有する。 The image processing device 10 of the present embodiment also includes an image acquisition unit that acquires a captured image captured by an imaging device, a character detection unit that detects characters in the captured image, and an actual vertical alignment of the detected characters. and an image processing unit that performs processing to make the character unclear when the height in the direction is lower than a predetermined height or when the actual size of the character is smaller than a predetermined size.

このような構成により、例えば、表札等の個人名が書かれた文字部分を不鮮明とする処理を実行し、看板に書かれた文字等の不鮮明とする処理が不要な部分は当該処理の対象から除外することができる。従って、当該除外された部分については、画像処理後においても、元の画像の風情や情報を維持することができる。 With this configuration, for example, a process is executed to blur the text on a nameplate, etc., where a person's name is written, and a part that does not require blurring processing, such as text written on a signboard, is excluded from the processing. Can be excluded. Therefore, the appearance and information of the original image can be maintained in the excluded portion even after image processing.

従って、本実施例の画像処理装置10によれば、撮影された画像中の被写体に対して、適切な画像処理を行うことが可能な画像処理装置を提供することができる。例えば、本実施例の画像処理装置10によれば、撮影された画像の被写体に関連するプライバシーを保護するための画像処理に起因して、当該画像中の情報が過剰に失われないようにすることを可能とする画像処理装置を提供することができる。 Therefore, according to the image processing device 10 of the present embodiment, it is possible to provide an image processing device that can perform appropriate image processing on a subject in a photographed image. For example, according to the image processing device 10 of the present embodiment, information in a captured image is prevented from being excessively lost due to image processing for protecting the privacy related to the subject of the image. It is possible to provide an image processing device that enables this.

上述した実施例における構成及びルーチンは例示に過ぎず、用途等に応じて適宜選択及び変更可能である。 The configurations and routines in the embodiments described above are merely examples, and can be selected and changed as appropriate depending on the application and the like.

例えば、上記の実施例における画像処理装置10が有する機能及び記憶部に記憶されている情報を端末装置20が有していてもよく、端末装置20において、属性及び対象領域の特定、文字部分を不鮮明にする画像処理等の画像処理が行われてもよい。 For example, the terminal device 20 may have the functions possessed by the image processing device 10 in the above embodiment and the information stored in the storage unit, and the terminal device 20 may specify attributes and target areas, and identify character parts. Image processing such as image processing to blur the image may be performed.

例えば、端末装置20は、端末装置20と同様の構成を有する端末装置と前方カメラ11とタッチパネルディスプレイ15が一体化された構成であってもよい。具体的には、例えば、端末装置20は、上記、端末装置20と同様の機能を発揮するアプリケーションを搭載したカメラ付きのスマートフォン、タブレットまたはPC等の端末装置であってもよい。この場合、端末装置20は、内蔵カメラが車両Mのフロントガラスを通して車両Mの前方を撮影可能なように、例えばクレードル等でダッシュボードDB上に取り付けられ得る。 For example, the terminal device 20 may have a configuration in which a terminal device having the same configuration as the terminal device 20, the front camera 11, and the touch panel display 15 are integrated. Specifically, for example, the terminal device 20 may be a terminal device such as a smartphone, a tablet, or a PC with a camera equipped with an application that performs the same functions as the terminal device 20 described above. In this case, the terminal device 20 may be mounted on the dashboard DB, for example, with a cradle or the like, so that the built-in camera can photograph the front of the vehicle M through the windshield of the vehicle M.

また、端末装置20は、車両Mの運転者に提示する画面を表示しない構成であってもよい。例えば、端末装置20は、ドライブレコーダのような構成を有していてもよく、例えば、前方カメラ11と一体となった装置であってもよい。具体的には、端末装置20は、例えば、前方カメラ11の筐体内に上記した端末装置20の撮影画像又は撮影情報を画像処理装置10に送信する機能を果たすハードウェアを内蔵したような装置であってもよい。この場合、端末装置20は、上記において説明したようなプライバシー保護モードの選択入力画面等の表示出力を行わないこととしてもよい。 Further, the terminal device 20 may be configured not to display a screen to be presented to the driver of the vehicle M. For example, the terminal device 20 may have a configuration like a drive recorder, and may be a device integrated with the front camera 11, for example. Specifically, the terminal device 20 is, for example, a device that has built-in hardware within the housing of the front camera 11 that performs the function of transmitting the captured image or captured information of the terminal device 20 to the image processing device 10. There may be. In this case, the terminal device 20 may not display the privacy protection mode selection input screen or the like as described above.

撮像装置としての前方カメラ11及び端末装置20が車両に搭載されている例について説明したが、本発明の撮像装置及び端末装置は、自転車、バイク、船舶等他の移動体とともに移動するものであってもよい。また、当該移動体は人であってもよい。例えば、端末装置20はスマートフォンのようなカメラを内蔵したものであり、これを人が保持しており、例えば歩きながら撮影された撮影画像について、画像処理装置による画像処理が行われてもよい。 Although the example in which the front camera 11 as an imaging device and the terminal device 20 are mounted on a vehicle has been described, the imaging device and terminal device of the present invention may be moved together with other moving objects such as bicycles, motorcycles, and ships. It's okay. Further, the moving object may be a person. For example, the terminal device 20 may have a built-in camera such as a smartphone, and may be held by a person, and an image processing device may perform image processing on a photographed image taken while walking, for example.

また、本発明の撮像装置は移動体とともに移動するものに限られず、例えば道路沿いの所定の位置に固定された定点カメラであってもよい。 Further, the imaging device of the present invention is not limited to one that moves together with a moving body, and may be a fixed-point camera fixed at a predetermined position along a road, for example.

10 画像処理装置
20 端末装置
23 入力部
25 記憶部
27 制御部
29 通信部
31 出力部
43 大容量記憶装置
43A 地図情報DB
43B 辞書DB
45 制御部
47 通信部
100 画像処理システム
M 車両
10 Image processing device 20 Terminal device 23 Input section 25 Storage section 27 Control section 29 Communication section 31 Output section 43 Mass storage device 43A Map information DB
43B Dictionary DB
45 Control unit 47 Communication unit 100 Image processing system M Vehicle

Claims (14)

撮像装置によって撮影された撮影画像、前記撮影画像の撮影位置及び撮影方向を含む撮影情報を取得する撮影情報取得部と、
地物の位置と当該地物の属性を示す情報を含む地図情報と、前記撮影情報とに基づいて、前記撮影画像中の地物の属性を特定する属性特定部と、
前記撮影画像中において、前記属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定部と、を有することを特徴とする画像処理装置。
a photographic information acquisition unit that acquires photographic information including a photographic image photographed by an imaging device, a photographing position and a photographing direction of the photographic image;
an attribute identifying unit that identifies an attribute of a feature in the captured image based on map information including information indicating a location of the feature and an attribute of the feature, and the imaging information;
A target area specifying unit that specifies, in the photographed image, an area in which a feature having a predetermined attribute specified by the attribute specifying unit is shown as a target area for image processing. Image processing device.
前記属性特定部は、前記地図情報に基づいて、前記撮影情報が示す撮影位置及び撮影方向を含む条件で撮像した場合の画像を再現した再現画像を生成し、前記撮影画像内の被写体となった地物と前記再現画像内の地物とを照合することで、前記撮影画像内の当該被写体となった地物の属性を特定することを特徴とする請求項1に記載の画像処理装置。 The attribute identification unit generates, based on the map information, a reproduced image that reproduces the image when the image is captured under conditions including the shooting position and shooting direction indicated by the shooting information, and generates a reproduced image that reproduces the image that is the subject in the shot image. 2. The image processing apparatus according to claim 1, wherein the attribute of the feature that is the subject in the photographed image is identified by comparing the feature with the feature in the reproduced image. 前記対象領域特定部は、前記所定の属性である地物が写っている領域内において、前記地物とは異なる物体が写っている領域を前記対象領域から除外することを特徴とする請求項1又は2に記載の画像処理装置。 1 . The target area specifying unit is configured to exclude from the target area an area in which an object different from the terrestrial feature is photographed within the region in which the terrestrial feature having the predetermined attribute is photographed. Or the image processing device according to 2. 前記画像処理は、前記対象領域の少なくとも一部を不鮮明とする不鮮明処理であることを特徴とする請求項1乃至3のいずれか1つに記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 3, wherein the image processing is blurring processing that blurs at least a part of the target area. 前記対象領域内の文字を検出する文字検出部をさらに有し、
前記画像処理は、前記文字検出部によって検出された文字が写っている領域である文字領域に画像処理を行う処理であることを特徴とする請求項1乃至4のいずれか1つに記載の画像処理装置。
further comprising a character detection unit that detects characters within the target area,
The image according to any one of claims 1 to 4, wherein the image processing is a process of performing image processing on a character area that is an area in which a character detected by the character detection unit is reflected. Processing equipment.
前記画像処理部は、前記文字領域内の文字が所定の語に一致する場合に、前記文字を不鮮明にする処理を実行することを特徴とする請求項5に記載の画像処理装置。 6. The image processing apparatus according to claim 5, wherein the image processing unit executes processing to make the characters unclear when the characters in the character area match a predetermined word. 前記所定の語は、人名または地名に関する語であることを特徴とする請求項6に記載の画像処理装置。 7. The image processing apparatus according to claim 6, wherein the predetermined word is a word related to a person's name or a place name. 前記所定の属性は、前記画像処理によるプライバシーの保護対象に応じた属性であり、
前記対象領域特定部は、前記保護対象の指定を受け付けて、指定された前記保護対象に応じた属性である地物が写っている領域を、前記対象領域として特定することを特徴とする請求項1乃至7のいずれか1つに記載の画像処理装置。
The predetermined attribute is an attribute according to the object of privacy protection by the image processing,
The target area specifying unit receives the designation of the protection target and identifies, as the target area, an area in which a feature having an attribute corresponding to the designated protection target is photographed. 8. The image processing device according to any one of 1 to 7.
前記保護対象は、前記撮影画像内の被写体となった地物の持ち主のプライバシー又は前記撮影画像を利用する利用者のプライバシーを含むことを特徴とする請求項8に記載の画像処理装置。 9. The image processing apparatus according to claim 8, wherein the protection target includes the privacy of an owner of a feature that is a subject in the photographed image or the privacy of a user who uses the photographed image. 前記画像処理は、前記対象領域を強調する処理であることを特徴とする請求項1乃至3のいずれか1つに記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 3, wherein the image processing is processing for emphasizing the target area. 前記対象領域に画像処理を行う画像処理部をさらに有することを特徴とする請求項1乃至10のいずれか1つに記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 10, further comprising an image processing unit that performs image processing on the target area. 画像処理装置によって実行される画像処理方法であって、
撮像装置によって撮影された撮影画像、前記撮影画像の撮影位置及び撮影方向を含む撮影情報を取得する撮影情報取得ステップと、
地物の位置と当該地物の属性を示す情報を含む地図情報と、前記撮影情報とに基づいて、前記撮影画像中の地物の属性を特定する属性特定ステップと、
前記撮影画像中において、前記属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定ステップと、
を含むことを特徴とする画像処理方法。
An image processing method executed by an image processing device, the method comprising:
a photographing information acquisition step of acquiring photographic information including a photographed image photographed by an imaging device, a photographing position and a photographing direction of the photographed image;
an attribute specifying step of specifying an attribute of the feature in the captured image based on map information including information indicating the location of the feature and the attribute of the feature, and the imaging information;
a target area specifying step of specifying, in the photographed image, an area in which a feature whose attribute specified by the attribute specifying unit is a predetermined attribute is shown as a target area for image processing;
An image processing method characterized by comprising:
コンピュータを備える画像処理装置によって実行される画像処理プログラムであって、前記コンピュータに、
撮像装置によって撮影された撮影画像、前記撮影画像の撮影位置及び撮影方向を含む撮影情報を取得する撮影情報取得ステップと、
地物の位置と当該地物の属性を示す情報を含む地図情報と、前記撮影情報とに基づいて、前記撮影画像中の地物の属性を特定する属性特定ステップと、
前記撮影画像中において、前記属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定ステップと、
を実行させるための画像処理プログラム。
An image processing program executed by an image processing device including a computer, the computer comprising:
a photographing information acquisition step of acquiring photographic information including a photographed image photographed by an imaging device, a photographing position and a photographing direction of the photographed image;
an attribute specifying step of specifying an attribute of the feature in the captured image based on map information including information indicating the location of the feature and the attribute of the feature, and the imaging information;
a target area specifying step of specifying, in the photographed image, an area in which a feature whose attribute specified by the attribute specifying unit is a predetermined attribute is shown as a target area for image processing;
An image processing program to run.
コンピュータを備える画像処理装置に、
撮像装置によって撮影された撮影画像、前記撮影画像の撮影位置及び撮影方向を含む撮影情報を取得する撮影情報取得ステップと、
地物の位置と当該地物の属性を示す情報を含む地図情報と、前記撮影情報とに基づいて、前記撮影画像中の地物の属性を特定する属性特定ステップと、
前記撮影画像中において、前記属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定ステップと、
を実行させる画像処理プログラムを記憶するコンピュータが読取可能な記憶媒体。
An image processing device equipped with a computer,
a photographing information acquisition step of acquiring photographic information including a photographed image photographed by an imaging device, a photographing position and a photographing direction of the photographed image;
an attribute specifying step of specifying an attribute of the feature in the captured image based on map information including information indicating the location of the feature and the attribute of the feature, and the imaging information;
a target area specifying step of specifying, in the photographed image, an area in which a feature whose attribute specified by the attribute specifying unit is a predetermined attribute is shown as a target area for image processing;
A computer-readable storage medium that stores an image processing program that executes an image processing program.
JP2022033693A 2022-03-04 2022-03-04 Image processing device, image processing method, image processing program, and recording medium Pending JP2023128978A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022033693A JP2023128978A (en) 2022-03-04 2022-03-04 Image processing device, image processing method, image processing program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022033693A JP2023128978A (en) 2022-03-04 2022-03-04 Image processing device, image processing method, image processing program, and recording medium

Publications (1)

Publication Number Publication Date
JP2023128978A true JP2023128978A (en) 2023-09-14

Family

ID=87972631

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022033693A Pending JP2023128978A (en) 2022-03-04 2022-03-04 Image processing device, image processing method, image processing program, and recording medium

Country Status (1)

Country Link
JP (1) JP2023128978A (en)

Similar Documents

Publication Publication Date Title
US10791267B2 (en) Service system, information processing apparatus, and service providing method
US11889194B2 (en) Service system, information processing apparatus, and service providing method
US9880010B2 (en) Method of and arrangement for mapping range sensor data on image sensor data
US8103126B2 (en) Information presentation apparatus, information presentation method, imaging apparatus, and computer program
CN108932051B (en) Augmented reality image processing method, apparatus and storage medium
US8571354B2 (en) Method of and arrangement for blurring an image
JP4969053B2 (en) Portable terminal device and display method
JP2009176262A (en) Method and system for mapping photography, program, and recording medium
JP2014199640A (en) Shadow removal method and device of aerial or satellite photograph
US8428341B2 (en) Apparatus for calculating 3D spatial coordinates of digital images and method thereof
US10102675B2 (en) Method and technical equipment for determining a pose of a device
JP5262232B2 (en) Image orientation display method and apparatus, and photograph
KR102168110B1 (en) Camera system
CN109034214B (en) Method and apparatus for generating a mark
JP2023128978A (en) Image processing device, image processing method, image processing program, and recording medium
JP2023128983A (en) Image processing device, image processing method, image processing program, and recording medium
CN109115238B (en) Map display method, device and equipment
JP5811534B2 (en) Image display control server
JP2003244488A (en) Image information adding apparatus and system
JP2003051021A (en) Information updating device, information acquisition device and information update processing device
US9245192B2 (en) Ad collateral detection
US20240087157A1 (en) Image processing method, recording medium, image processing apparatus, and image processing system
KR101205961B1 (en) Apparatus for caculating 3D spatial coordinates of digital images
JP2023025053A (en) Determination device, determination method, and determination program
KR20170102083A (en) System and method for providing contents