JP2023128978A - Image processing device, image processing method, image processing program, and recording medium - Google Patents
Image processing device, image processing method, image processing program, and recording medium Download PDFInfo
- Publication number
- JP2023128978A JP2023128978A JP2022033693A JP2022033693A JP2023128978A JP 2023128978 A JP2023128978 A JP 2023128978A JP 2022033693 A JP2022033693 A JP 2022033693A JP 2022033693 A JP2022033693 A JP 2022033693A JP 2023128978 A JP2023128978 A JP 2023128978A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image processing
- attribute
- feature
- photographed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000003384 imaging method Methods 0.000 claims abstract description 29
- 238000000034 method Methods 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 12
- 230000001133 acceleration Effects 0.000 description 9
- 238000012015 optical character recognition Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000873 masking effect Effects 0.000 description 2
- 230000006855 networking Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 238000007665 sagging Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
Abstract
Description
本発明は、画像処理装置、画像処理方法、画像処理プログラム及び記録媒体に関し、特に、地図情報に基づいて画像処理を行う画像処理装置、画像処理方法、画像処理プログラム及び記録媒体に関する。 The present invention relates to an image processing device, an image processing method, an image processing program, and a recording medium, and particularly relates to an image processing device, an image processing method, an image processing program, and a recording medium that perform image processing based on map information.
撮像装置で撮影した画像中に写っているものに関して、個人情報を保護するための処理を行う装置が提案されている。 2. Description of the Related Art Apparatuses have been proposed that perform processing to protect personal information regarding objects captured in images taken by imaging devices.
例えば、特許文献1には、カメラが撮影した画像に含まれる個人情報として人物の顔や予め決められた対象物等を画像認識によって検出し、当該個人情報を判別不能にする画像処理を施す撮像装置が開示されている。 For example, Patent Document 1 describes an imaging method in which a person's face, a predetermined object, etc. is detected as personal information included in an image taken by a camera through image recognition, and image processing is performed to make the personal information indistinguishable. An apparatus is disclosed.
例えば、個人の住宅の表札が写り込んだ画像をSNS(Social Networking Service)等を通じてインターネット上に公開すると、当該住宅の持ち主や住人のプライバシーを侵害する場合があることが課題の一つとして挙げられる。 For example, one issue is that if an image of a private residence's nameplate is published on the Internet through social networking services (SNS), it may violate the privacy of the owner or resident of the residence. .
上記のようなプライバシーの侵害を防止するために、画像を不鮮明にするなどの画像処理を施すことが考えられるが、画像中の画像処理が不要な領域にまで画像処理を施すことになり元の風景の情報が失われてしまう等、元の画像中の情報が過剰に失われ得ることが課題の一つとして挙げられる。 In order to prevent the above-mentioned invasion of privacy, it is possible to perform image processing such as making the image blurry, but this would also apply image processing to areas in the image that do not require image processing, making it difficult to restore the original image. One problem is that information in the original image may be excessively lost, such as landscape information being lost.
本発明は上記した点に鑑みてなされたものであり、撮影された画像中の被写体に対して、適切な画像処理を行うことが可能な画像処理装置を提供することを目的の1つとしている。 The present invention has been made in view of the above points, and one of the objects of the present invention is to provide an image processing device that can perform appropriate image processing on a subject in a photographed image. .
請求項1に記載の発明は、撮像装置によって撮影された撮影画像、前記撮影画像の撮影位置及び撮影方向を含む撮影情報を取得する撮影情報取得部と、地物の位置と当該地物の属性を示す情報を含む地図情報と、前記撮影情報とに基づいて、前記撮影画像中の地物の属性を特定する属性特定部と、前記撮影画像中において、前記属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定部と、を有することを特徴とする画像処理装置である。 The invention according to claim 1 includes a photographing information acquisition unit that acquires photographing information including a photographed image photographed by an imaging device, a photographing position and a photographing direction of the photographed image, and a position of a feature and an attribute of the feature. an attribute specifying section that specifies an attribute of a feature in the photographed image based on map information including information indicating , and the photographing information; The image processing apparatus is characterized in that it includes a target area specifying unit that specifies an area in which a feature having a predetermined attribute is photographed as a target area for image processing.
請求項12に記載の発明は、画像処理装置によって実行される画像処理方法であって、撮像装置によって撮影された撮影画像、前記撮影画像の撮影位置及び撮影方向を含む撮影情報を取得する撮影情報取得ステップと、地物の位置と当該地物の属性を示す情報を含む地図情報と、前記撮影情報とに基づいて、前記撮影画像中の地物の属性を特定する属性特定ステップと、前記撮影画像中において、前記属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定ステップと、を含むことを特徴とする画像処理方法である。 The invention according to claim 12 is an image processing method executed by an image processing device, the method comprising: acquiring photographic information including a photographed image photographed by an imaging device, a photographing position and a photographing direction of the photographed image; an attribute specifying step of identifying the attribute of the feature in the captured image based on the acquisition step, map information including information indicating the location of the feature and the attribute of the feature, and the imaging information; The present invention is characterized by including a target area specifying step of specifying, in the image, an area in which a feature having a predetermined attribute specified by the attribute specifying unit is shown as a target area for image processing. This is an image processing method.
請求項13に記載の発明は、コンピュータを備える画像処理装置によって実行される画像処理プログラムであって、前記コンピュータに、撮像装置によって撮影された撮影画像、前記撮影画像の撮影位置及び撮影方向を含む撮影情報を取得する撮影情報取得ステップと、地物の位置と当該地物の属性を示す情報を含む地図情報と、前記撮影情報とに基づいて、前記撮影画像中の地物の属性を特定する属性特定ステップと、前記撮影画像中において、前記属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定ステップと、を実行させるための画像処理プログラムである。
The invention according to
請求項14に記載の発明は、コンピュータを備える画像処理装置に、撮像装置によって撮影された撮影画像、前記撮影画像の撮影位置及び撮影方向を含む撮影情報を取得する撮影情報取得ステップと、地物の位置と当該地物の属性を示す情報を含む地図情報と、前記撮影情報とに基づいて、前記撮影画像中の地物の属性を特定する属性特定ステップと、前記撮影画像中において、前記属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定ステップと、を実行させる画像処理プログラムを記憶するコンピュータが読取可能な記憶媒体である。 The fourteenth aspect of the invention provides a photographic information acquisition step of acquiring photographic information including a photographic image photographed by an imaging device, a photographing position and a photographing direction of the photographic image, in an image processing apparatus including a computer; an attribute specifying step of identifying an attribute of a feature in the captured image based on map information including information indicating the location of the feature and an attribute of the feature, and the imaging information; A computer-readable computer that stores an image processing program that executes a target area identifying step of identifying an area in which a feature whose attribute is a predetermined attribute identified by the identifying unit as a target area for image processing. It is a storage medium.
以下に本発明の実施例について詳細に説明する。なお、以下の説明及び添付図面においては、実質的に同一又は等価な部分には同一の参照符号を付している。 Examples of the present invention will be described in detail below. In the following description and accompanying drawings, substantially the same or equivalent parts are designated by the same reference numerals.
添付図面を参照しつつ、実施例に係る画像処理装置10を含む画像処理システム100の構成について説明する。
The configuration of an
図1は、画像処理システム100の概略を示す図である。図1に示すように、画像処理システム100は、画像処理装置10及び車両Mに搭載されている端末装置20を含んで構成されている。
FIG. 1 is a diagram schematically showing an
画像処理装置10は、端末装置20との間でネットワークNWを介して通信を行うサーバ装置である。画像処理装置10と端末装置20とは、例えば、TCP/IP等の通信プロトコルを用いて相互にデータの送受信が可能になっている。端末装置20とネットワークNWとの接続は、例えば4G(4th Generation)又は5G(5th Generation)等の移動体通信、Wi-Fi(登録商標)等の無線通信によりなされ得る。
The
画像処理装置10は、車両Mに取り付けられたカメラによって撮影された画像を端末装置20から受信して、当該画像中のプライバシー保護等のための不鮮明にする処理や目印を強調する処理等の画像処理を施す対象である対象領域を特定し、当該画像中の対象領域に所定の画像処理を実行し、当該画像処理後の画像を記憶する。
The
端末装置20は、車両Mに取り付けられたカメラによって撮影された画像を画像処理装置10に送信する。
The
画像処理システム100は、例えば、画像処理システム100のユーザが、画像をSNS(Social Networking Service)又は電子地図等を通じてインターネット上に公開する際に、プライバシー保護のための処理が施された画像を提供するシステムである。
For example, when a user of the
画像処理システム100のユーザは、例えば、個人の住宅の表札が写り込んだ画像に対して、表札が写っている部分を不鮮明にする処理が施された画像を公開することができ、その表札を掲げている住宅の持ち主や住人等のプライバシーを侵害せずに済む。
For example, the user of the
また、例えば、画像処理システム100のユーザは、撮影場所を特定されたくない場合に、商業施設が写り込んだ画像に対して、当該商業施設が写っている部分を不鮮明にする処理が施された画像を公開することができ、ユーザ自身のプライバシーを保護することができる。
Further, for example, if the user of the
図2は、車両Mの前席部分を示す図である。図2に示すように、端末装置20は、車両Mのセンターコンソールに配置されている。本実施例において、端末装置20は、経路生成機能及びナビゲーション機能(いわゆるカーナビゲーション機能)を有する。なお、端末装置20自体はカーナビゲーション機能を有さなくてもよい。その場合は、端末装置20は、車両Mに搭載されているカーナビゲーション装置に車両Mの位置情報を取得可能に接続されていてもよい。
FIG. 2 is a diagram showing the front seat portion of the vehicle M. As shown in FIG. 2, the
前方カメラ11は、ダッシュボードDB上に設けられている。前方カメラ11は、車両Mの進行方向を撮影方向としている。車両Mの進行方向を前方としたとき、前方カメラ11は、車両Mの前方、右前方及び左前方を含む範囲の画像を撮影可能に配置されている。
The
前方カメラ11は、車両Mの前方の映像を撮影可能であれば車両Mのいずれの箇所に設けられてもよい。例えば、前方カメラ11は、ルームミラーRMの裏、すなわちフロントガラスFGに対向する面に配されていてもよく、車両Mの外側面(外装面)、例えばボンネット上またはフロントバンパー等に設けられていてもよい。
The
前方カメラ11は、端末装置20と通信可能に接続されており、撮影した映像の信号を端末装置20に送信することが可能である。
The
GNSS受信機13は、GNSS(Global Navigation Satellite System)衛星からの信号(GNSS信号)を受信する装置である。GNSS受信機13は、例えば、前方カメラ11に内蔵されている。
The GNSS
なお、GNSS受信機13は、GNSS信号が受信できれば車両M内のいずれの箇所に配されていてもよい。例えば、GNSS受信機13は前方カメラ11の近傍に配置されていてもよい。例えば、GNSS受信機13は、ダッシュボードDB上に配されていてもよい。
Note that the
GNSS受信機13は、端末装置20と通信可能に接続されており、受信したGNSS信号を端末装置20に送信することが可能である。端末装置20は、GNSS信号を用いて車両Mの現在位置情報を取得する。
The
なお、GNSS受信機13は、Real Time Kinematic(RTK)測位に対応した受信機であってもよく、GNSSによる位置情報を修正した高精度の位置情報を受信可能になっていてもよい。
Note that the
タッチパネルディスプレイ15は、タッチパネル及びディスプレイからなる。タッチパネルディスプレイ15は、端末装置20と通信可能に接続されている。タッチパネルディスプレイ15のディスプレイは、端末装置20から供給される画像を表示する。タッチパネルディスプレイ15のタッチパネルは、タッチパネルへの接触による入力操作を示す信号を端末装置20に送信する。
The
例えば、タッチパネルディスプレイ15は、車両Mの経路案内に関する表示及び入力操作を示す信号を端末装置20に送信する。
For example, the
例えば、タッチパネルディスプレイ15は、画像処理システム100における画像処理に関してユーザが設定を行うための入力操作を示す信号を端末装置20に送信する。例えば、当該設定は、プライバシーを保護するために不鮮明にする処理や目立たせたい部分を強調する処理等の画像処理の態様の設定である。また、当該設定は、例えば、個人宅等地物の持ち主のプライバシーを保護するモード又は画像処理システム100のユーザのプライバシーの保護等のプライバシーの保護対象によって異なるプライバシー保護モードの設定である。
For example, the
なお、例えば、端末装置20は、画像処理に関する設定を行うための入力操作を、車両Mに備えられたマイク(図示せず)を介して音声によって受け付けてもよい。
Note that, for example, the
図3及び図4を参照しつつ、車両Mに搭載されている端末装置20の構成及び機能について説明する。
The configuration and functions of the
図3は、端末装置20の構成を示すブロック図である。図3に示すように、端末装置20は、システムバス21を介して各部が接続されて構成されている。
FIG. 3 is a block diagram showing the configuration of the
入力部23は、端末装置20と車両Mに備えられた機器とを通信可能に接続するインターフェースである。
The
入力部23は、端末装置20と、前方カメラ11とを通信可能に接続するインターフェースである。
The
入力部23は、端末装置20をGNSS受信機13に接続するインターフェースである。端末装置20は、GNSS受信機13からGNSS信号を受信して、車両Mの現在位置を示す情報を取得する。
The
入力部23は、端末装置20とタッチパネルディスプレイ15のタッチパネルとを通信可能に接続するインターフェースである。
The
入力部23は、端末装置20とジャイロセンサGY及び加速度センサACとを通信可能に接続するインターフェースである。ジャイロセンサGYは、例えば、車両Mの横方向の角度(姿勢)や角速度あるいは角加速度を検出することが可能なセンサである。加速度センサACは、車両Mの上方から見て車両Mの進行方向、すなわち前後方向の加速度を検出可能なセンサである。また、加速度センサACは、例えば、車両Mの進行方向と垂直な横方向(幅方向)の加速度を検出可能である。
The
端末装置20は、例えば、GNSS受信機13により取得された車両Mの現在位置情報の遷移、並びにジャイロセンサGY及び加速度センサACのセンサ信号が示す加速度の向きに基づいて、車両Mの進行方向を示す情報を取得する。
The
また、端末装置20は、例えば、車両Mの進行方向を示す情報を用いて、前方カメラ11によって撮影された画像の撮影方向を示す情報を取得する。
Further, the
記憶部25は、例えば、ハードディスク装置、SSD(solid state drive)、フラッシュメモリ等により構成されており、端末装置20において実行される各種プログラムを記憶する。なお、各種プログラムは、例えば、他のサーバ装置等からネットワークを介して取得されるようにしてもよいし、記録媒体に記録されて各種ドライブ装置を介して読み込まれるようにしてもよい。すなわち、記憶部25に記憶される各種プログラムは、ネットワークを介して伝送可能であるし、また、コンピュータに読み取り可能な記録媒体に記録して譲渡することが可能である。
The
記憶部25には、地図情報データベース(図示せず)が構築されている。地図情報データベースには、端末装置20による車両Mの経路生成等に用いられる地図情報が格納されている。
A map information database (not shown) is constructed in the
制御部27は、CPU(Central Processing Unit)27A、ROM(Read Only Memory)27B、RAM(Random Access Memory)27C等により構成され、コンピュータとして機能する。そして、CPU27Aが、ROM27Bや記憶部25に記憶された各種プログラムを読み出し実行することにより各種機能を実現する。
The control unit 27 includes a CPU (Central Processing Unit) 27A, a ROM (Read Only Memory) 27B, a RAM (Random Access Memory) 27C, and functions as a computer. The
制御部27は、入力部23を介して、車両Mの前方の風景を撮影した動画又は静止画である画像を前方カメラ11から取得する。
The control unit 27 obtains an image, which is a moving image or a still image, of the scenery in front of the vehicle M from the
制御部27は、入力部23を介して、車両Mの現在位置情報をGNSS受信機13から取得する。当該現在位置情報は、例えば、時刻を示す情報と、その時刻における車両Mの位置を示す情報が対応付けられた情報である。当該車両Mの位置を示す情報は、地図上の位置を示す情報であってもよい。
The control unit 27 acquires current position information of the vehicle M from the
また、制御部27は、前方カメラ11から取得した画像と、当該画像が撮影された際の撮影位置及び撮影方向を含む撮影条件を示す情報とを対応づけて、撮影情報を生成する。
Further, the control unit 27 generates photographing information by associating the image acquired from the
制御部27は、当該画像が撮影された際のカメラ11の位置である撮影位置を示す情報を取得する。例えば、制御部27は、GNSS受信機からGNSS信号を取得し、受信したGNSS信号に基づいて、画像の撮影位置を示す情報を取得する。
The control unit 27 acquires information indicating the photographing position, which is the position of the
例えば、制御部27は、画像が撮影された時刻における車両Mの位置情報をGNSS受信機13から取得し、当該位置情報が示す位置を撮影位置とする。例えば、制御部27は、前方カメラ11の取り付け位置とGNSS受信機13の取り付け位置とが離れている場合には、当該取り付け位置の差分について補正を行って撮影位置を算出してもよい。
For example, the control unit 27 acquires the position information of the vehicle M at the time when the image was photographed from the
また、当該撮影位置は、水平方向の位置に加えて、高さ方向の位置を含んでいてもよい。例えば、当該高さ方向の位置は、車両Mの車高及び前方カメラ11の取り付け位置によって決まり、当該高さ方向の位置を示す情報は、前方カメラ11に対応付けて、記憶部25に記憶されていてもよい。
Further, the photographing position may include a position in the height direction in addition to a position in the horizontal direction. For example, the position in the height direction is determined by the vehicle height of the vehicle M and the mounting position of the
例えば、制御部27は、GNSS受信機から、QZSS信号(Quasi-Zenith Satellite System)(準天頂衛星システム、みちびき)信号を取得して、受信したQZSS信号に基づいて、画像の撮影位置を示す高精度の位置情報を取得してもよい。 For example, the control unit 27 acquires a QZSS signal (Quasi-Zenith Satellite System) (quasi-zenith satellite system, Michibiki) signal from a GNSS receiver, and based on the received QZSS signal, the control unit 27 acquires a height that indicates the photographing position of the image. Accurate location information may be obtained.
また、例えば、制御部27は、RTK測位を利用してGNSSによる位置情報を修正した情報を取得し、より高精度の撮影位置を取得してもよい。 Further, for example, the control unit 27 may obtain a more accurate photographing position by using RTK positioning to obtain information obtained by correcting the position information by GNSS.
制御部27は、例えば、画像が撮影された際の前方カメラ11の向き及び車両Mの加速度に基づいて取得される車両Mの進行方向に基づいて、撮影方向を取得する。例えば、制御部27は、前方カメラ11が車両Mの前方に向くように固定されている場合には、車両Mの進行方向を撮影方向として取得してもよい。
The control unit 27 acquires the photographing direction, for example, based on the direction of travel of the vehicle M, which is acquired based on the direction of the
例えば、制御部27は、前方カメラ11が車両Mの進行方向に対する角度が可変に取り付けられている場合には、撮影時の前方カメラの11の向きを示す情報を前方カメラ11から取得し、車両Mの進行方向及び前方カメラ11の向きに基づいて撮影方向を取得してもよい。
For example, if the
さらに、制御部27は、撮影位置及び撮影方向に加えて、前方カメラ11の画像とともに、前方カメラ11の画角を示す情報を取得してもよい。すなわち、撮影情報には、画像が撮影された際の画角を示す情報が含まれてもよい。例えば、画角を示す情報は前方カメラ11に保持されており、画像とともに端末装置20に送信される。
Further, the control unit 27 may acquire information indicating the angle of view of the
図4は、端末装置20の制御部27によって生成される撮影情報の一例を示す図である。図4に示す例においては、前方カメラ11によって取得された複数の画像のうちの1つの画像について、当該画像のフレーム番号に、当該画像が取得された際の撮影位置、撮影方向及び画角が対応付けられている。
FIG. 4 is a diagram illustrating an example of photographing information generated by the control unit 27 of the
図4に示す例において、撮影位置は高さ方向の位置も含む3次元の座標として表されている。なお、撮影位置は3次元の座標に限られず、2次元の座標であってもよい。 In the example shown in FIG. 4, the photographing position is expressed as three-dimensional coordinates including the position in the height direction. Note that the photographing position is not limited to three-dimensional coordinates, but may be two-dimensional coordinates.
撮影方向は、例えば北を0°とした方位角で表される。 The photographing direction is expressed, for example, as an azimuth with north set at 0°.
画角は、例えば水平方向、垂直方向、及び対角方向の角度で表される。撮影情報に含まれる画角はこれに限られず、例えば水平方向の角度のみであってもよい。 The angle of view is expressed, for example, by angles in the horizontal direction, vertical direction, and diagonal direction. The angle of view included in the photographic information is not limited to this, and may be, for example, only the angle in the horizontal direction.
制御部27は、生成した撮影情報を画像処理装置10に送信する。制御部27は、図4に例示したような、フレームごとの撮影情報を逐次送信してもよく、所定のフレーム数毎に、又は所定の時間毎に撮影情報を送信してもよい。
The control unit 27 transmits the generated photographic information to the
再び図3を参照すると、通信部29は、無線装置(図示せず)に接続されているNIC(Network Interface Card)等のネットワークアダプタである。通信部29は、制御部27からの命令に従って、画像処理装置10との通信を行う。例えば、通信部29は、端末装置20が撮影情報を画像処理装置10に送信する際の通信を行う。
Referring again to FIG. 3, the
出力部31は、車両Mに備えられたタッチパネルディスプレイ15のディスプレイに接続されている。出力部31は、制御部27からの命令に従って、ディスプレイに各種情報を供給するためのインターフェースである。
The
例えば、出力部31は、ナビゲーション画面を表示するための情報をディスプレイに供給する。また、例えば、出力部31は、画像処理装置10によるプライバシー保護モードの設定等の画像処理に関する設定の入力を受け付ける画面を表示するための情報をディスプレイに供給する。例えば、出力部31は、前方カメラ11によって撮影された画像をディスプレイに供給してもよい。
For example, the
続いて、図5~9を参照しつつ、画像処理装置10の構成及び機能について説明する。
Next, the configuration and functions of the
図5は、画像処理装置10の構成を示すブロック図である。図5に示すように、画像処理装置10は、システムバス41を介して各部が接続されて構成されているサーバ装置である。
FIG. 5 is a block diagram showing the configuration of the
大容量記憶装置43は、例えば、ハードディスク装置、SSD(solid state drive)、フラッシュメモリ等により構成された記憶装置である。大容量記憶装置43は、画像処理装置10において実行される各種プログラムを記憶する。なお、各種プログラムは、例えば他のサーバ装置等からネットワークを介して取得されてもよく、記録媒体に記録されて各種ドライブ装置を介して読み込まれてもよい。
The
例えば、大容量記憶装置43は、画像処理装置10が、画像中の画像処理を行う対象となる対象領域を特定する際に実行する画像処理プログラムを記憶する。
For example, the
例えば、大容量記憶装置43は、画像処理装置10が、画像中の対象領域に画像処理を行う際に実行する画像処理プログラムを記憶する。
For example, the
例えば、大容量記憶装置43は、画像処理装置10が、プライバシーを侵害する蓋然性が高い所定の条件に合致する文字が写っている画像中の領域を不鮮明にする処理を行う際に実行する画像処理プログラムを記憶する。当該プライバシーを侵害する蓋然性が高い文字は、例えば、地面からの高さが所定の高さ以下又は当該文字の大きさが所定の大きさ以下の文字、又は人名や地名等に関する語に一致する文字である。
For example, the large-
大容量記憶装置43は、各種プログラムを実行するために必要なデータが格納されたデータベースを記憶している。
The
大容量記憶装置43は、地図情報データベース(以下、地図情報DBと称する)43Aを含む。地図情報DB43Aには、地物の位置と当該地物の属性を示す情報を含む地図情報が記憶されている。地図情報DB43Aに記憶されている地図情報において、地物の位置情報及び地物の各々の属性を示す情報が対応付けられている。
The
例えば、地図情報DB43Aに記憶されている地図情報は、例えば、地物の位置情報が3次元で表された地図情報である。なお、当該地図情報において、地物の位置情報が2次元で表されていてもよい。
For example, the map information stored in the
当該地図情報は、本実施例において、撮影画像中の地物の属性に基づいて画像処理の対象領域を特定する際に利用される。 In this embodiment, the map information is used when specifying the target area for image processing based on the attributes of the features in the photographed image.
図6は、地図情報DBに記憶されている属性を示す情報の一例を示す図である。図6に示すように、地図情報DBにおいて、地物の各々を特定する識別子である地物IDと、当該地物の属性が対応付けられて記憶されている。 FIG. 6 is a diagram showing an example of information indicating attributes stored in the map information DB. As shown in FIG. 6, in the map information DB, a feature ID, which is an identifier for specifying each feature, and an attribute of the feature are stored in association with each other.
図6に示すように、地物の属性としては、個人宅や個人商店等の私的な性質の属性や、商業施設や公共施設等の公共性の高い属性が挙げられる。 As shown in FIG. 6, the attributes of the feature include attributes of a private nature such as a private home or a private store, and attributes of a highly public nature such as a commercial facility or a public facility.
図6に示す例の他に、地図情報には、電柱やマンホールが地物として記憶されていてもよい。例えば、電柱には街区表示板等の住所を特定可能な表示が掲示されている場合が多く、撮影画像中に電柱が写っている場合に、本実施例の画像処理の対象とするか否かの判定が必要になる場合がある。また、マンホールについても、当該マンホールが設置されている自治体等を特定可能な文字または図形が描かれている場合も多く、例えば撮影場所を特定されないようにする際に、本実施例の画像処理の対象とするか否かの判定が必要になる場合がある。 In addition to the example shown in FIG. 6, the map information may also store utility poles and manholes as features. For example, there are many cases where utility poles are posted with signs that can identify addresses, such as block display boards, and if a utility pole is included in a photographed image, it is difficult to determine whether or not to include it in the image processing of this embodiment. judgment may be necessary. In addition, manholes often have characters or figures drawn on them that can identify the municipality where the manhole is installed. There may be cases where it is necessary to decide whether or not to include the target.
大容量記憶装置43は、辞書データベース(以下、辞書DBと称する)43Bを含む。辞書DB43Bには、画像処理装置10によって、画像中に写っている文字に関する処理が行われる際に参照される所定の語が記憶されている。
The
例えば、辞書DB43Bには、多数の人名を収録した人名辞書が記憶されている。例えば、当該人名辞書は、画像処理装置10によって、画像中に写り込んだ個人の住宅の表札の文字部分を不鮮明にする処理が行われる際に、例えば人名辞書に含まれる人名が画像中の文字に含まれるか否かの判定に使用される。
For example, the
例えば、辞書DB43Bには、多数の地名を収録した地名辞書が記憶されている。例えば、当該地名辞書は、画像処理装置10によって、画像中に写り込んだ街区標示板等の地名を示す文字部分を不鮮明にする処理が行われる際に、例えば地名辞書に含まれる地名が画像中の文字に含まれるか否かの判定に使用される。
For example, the
制御部45は、CPU(Central Processing Unit)45A、ROM(Read Only Memory)45B、RAM(Random Access Memory)45C等により構成され、コンピュータとして機能する。そして、CPU45Aが、ROM45Bや大容量記憶装置43に記憶された各種プログラムを読み出し実行することにより各種機能を実現する。
The
制御部45は、大容量記憶装置43に記憶された画像処理プログラムを読み出して実行することで、画像中の画像処理を行う対象となる対象領域を特定する。
The
制御部45は、大容量記憶装置43に記憶された画像処理プログラムを読み出して実行することで、画像中の対象領域に画像処理を行う。
The
制御部45は、大容量記憶装置43に記憶された画像処理プログラムを読み出して実行することで、プライバシーを侵害する蓋然性が高い所定の条件に合致する文字が写っている画像中の領域を不鮮明にする処理を行う。プライバシーを侵害する蓋然性が高い文字は、例えば、地面からの高さが所定の高さ以下又は当該文字の大きさが所定の大きさ以下の文字、又は人名や地名等に関する語に一致する文字である。
The
通信部47は、無線装置(図示せず)に接続されているNIC(Network Interface Card)等のネットワークアダプタである。通信部47は、制御部45からの命令に従って、画像処理装置10と外部との通信を行う。
The
例えば、通信部47は、画像処理装置10が、車両Mに取り付けられた前方カメラ11によって撮影された画像、当該画像の撮影位置及び撮影方向を含む撮影情報を端末装置20から取得する際の通信を行う。
For example, the
以下、図7~11を参照しつつ、画像処理装置10の制御部45の機能について詳細に説明する。
The functions of the
制御部45は、撮像装置としての前方カメラ11によって撮影された撮影画像、当該撮影画像の撮影位置及び撮影方向を含む撮影情報を端末装置20から取得し、撮影情報取得部として機能する。
The
[属性の特定]
制御部45は、地物の位置及び当該地物の属性を示す地図情報と、取得した撮影情報とに基づいて、撮影画像中の地物の属性を特定する属性特定部として機能する。
[Identification of attributes]
The
属性特定部としての制御部45は、例えば、地図情報DB43Aに記憶されている地図情報に基づいて、撮影情報が示す撮影位置及び撮影方向を含む条件で撮影した場合の画像を再現した再現画像を生成し、撮影画像内の被写体となった地物と、再現画像内の地物とを照合することで、撮影画像内の被写体となった地物の属性を特定する。
For example, the
図7は、車両Mと、車両Mの現在位置の周辺に存在する地物との位置関係の一例を模式的に示す上面図である。図7中、地物が矩形の図形によって示され、各々の地物に地物IDが付されている。また、図7に示す例において、地物F1と地物F2の間に、電柱PPが存在している。 FIG. 7 is a top view schematically showing an example of the positional relationship between the vehicle M and features existing around the current position of the vehicle M. In FIG. 7, the features are represented by rectangular figures, and each feature is assigned a feature ID. Further, in the example shown in FIG. 7, a utility pole PP exists between the feature F1 and the feature F2.
図8は、制御部45が属性を特定する際に生成する再現画像の一例を模式的に示す図である。図8に示す例においては、車両Mが図7に示した現在位置にある際に、前方カメラ11によって撮影された画像を含む撮影情報を画像処理装置10が受信し、当該撮影情報に基づいて生成された再現画像IMを示している。
FIG. 8 is a diagram schematically showing an example of a reproduced image generated when the
例えば、制御部45は、端末装置20から撮影情報を受信すると、大容量記憶装置43の地図情報DB43Aを参照し、例えば図4に示したような、撮影情報が示す撮影位置、撮影方向、及び画角の条件で撮影した場合に被写体となる地物の、画像中の大きさや写る角度を再現して再現画像を生成する。上記したように、地図情報DB43Aにおいて各々の地物に属性が対応付けられているため、再現画像が生成される際に、再現画像中の地物に当該地物の属性が対応付けられる。
For example, when the
制御部45は、例えば、地図情報DB43Aに記憶されている3次元の地図情報に基づいて3Dレンダリング等の画像生成技術を利用して再現画像を生成する。なお、制御部45は、例えば、2次元の地図に基づいて再現画像を生成してもよい。
For example, the
図8に示す例においては、地物IDがF2であり属性が個人宅である地物及び地物IDがF5であり属性が商業施設である地物が手前に大きく写り、その奥に地物IDがF1及びF4の属性が個人宅である地物が小さく写っていることを示す再現画像が生成されている。 In the example shown in Figure 8, the feature whose feature ID is F2 and whose attribute is a private residence and the feature whose feature ID is F5 and whose attribute is a commercial facility appear large in the foreground, and the feature in the background is A reproduced image is generated showing that the features with IDs F1 and F4 and whose attributes are private residences are shown in a small size.
制御部45は、撮影情報に含まれる撮影画像内の被写体となった地物と、図8に示したような再現画像内の地物とを照合することで、撮影画像内の被写体となった地物の属性を特定することができる。
The
[対象領域の特定]
また、制御部45は、撮影画像中において、属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定部として機能する。
[Identification of target area]
The
当該対象領域の特定において、例えば、プライバシーの保護が目的の場合は、不鮮明とする画像処理の対象領域が特定される。例えば、画像が添付された電子地図を参照する際の目印となるような文字や建物等を目立たせることが目的の場合は、強調する画像処理の対象領域が特定される。 In specifying the target area, for example, if the purpose is to protect privacy, a target area for image processing to be blurred is specified. For example, if the purpose is to highlight characters, buildings, etc. that serve as landmarks when referring to an electronic map with an attached image, a target area for image processing to be emphasized is specified.
以下、プライバシーの保護が目的の場合を中心に説明する。 Below, we will mainly explain the case where the purpose is to protect privacy.
プライバシーの保護対象としては、例えば、撮影画像内の被写体となった地物の持ち主のプライバシー又は撮影画像を利用する利用者のプライバシーが考えられる。 Examples of privacy protection targets include the privacy of the owner of the feature that is the subject of the photographed image, or the privacy of the user who uses the photographed image.
例えば、地物の持ち主のプライバシーを保護対象とする場合には、個人宅の外観や個人宅の表札に表示された苗字又は氏名を含む人名等の個人情報が写っている画像が公開されることを防止する必要があると考える。この場合、地物の属性に基づいて対象領域を特定するための属性の設定として、個人宅や個人経営の商店等の私的な属性が設定される。 For example, if the privacy of the owner of a feature is to be protected, images showing personal information such as the exterior of a private residence or a person's name, including the last name or name displayed on the nameplate of a private residence, may be made public. I think it is necessary to prevent this. In this case, a private attribute such as a private residence or a privately run store is set as the attribute setting for specifying the target area based on the attribute of the feature.
言い換えれば、予め設定された私的な属性の地物が写っている領域を対象領域として、当該対象領域に画像処理を施すことで、地物の持ち主のプライバシーを保護することができる。 In other words, the privacy of the owner of the feature can be protected by performing image processing on the target region using a region in which a feature with a preset private attribute is photographed.
また、例えば、撮影画像を利用する利用者のプライバシーを保護対象とする場合には、公共施設や街区標示板等が写っている画像が公開されることで撮影場所が特定されることを防止する必要があると考える。この場合、地物の属性に基づいて対象領域を特定するための属性の設定として、商業施設や公共施設等の公共性の高い属性が設定される。 Also, for example, if the privacy of the user of the photographed image is to be protected, it is possible to prevent the location of the photograph from being identified due to the publication of images that include public facilities, street sign boards, etc. I think it is necessary. In this case, highly public attributes such as commercial facilities and public facilities are set as attributes for specifying the target area based on the attributes of the features.
言い換えれば、予め設定された公共性の高い属性の地物が写っている領域を対象領域として、当該対象領域に画像処理を施すことで、撮影画像を利用する利用者のプライバシーを保護することができる。 In other words, it is possible to protect the privacy of users who use captured images by applying image processing to an area in which a feature with a preset highly public attribute is captured as a target area. can.
なお、対象領域の特定に使用する属性は、画像処理装置10において予め設定されていてもよく、例えば、タッチパネルディスプレイ15を介して、ユーザによって設定又は変更可能であってもよい。例えば、当該所定の属性は、プライバシー保護対象を示す情報及び画像処理の内容を示す情報とともに、大容量記憶装置43に記憶されていてもよい。
Note that the attributes used to specify the target area may be set in advance in the
図9は、対象領域の特定に使用される属性の設定の例を示す図である。図9に示す例において、「プライバシー保護モード」は、プライバシーの保護対象によって異なる属性の設定態様を示している。図9に示す例においては、地物の持ち主のプライバシーを保護対象とする場合を「モード1」、撮影画像を利用する利用者のプライバシーを保護対象とする場合を「モード2」としている。 FIG. 9 is a diagram illustrating an example of setting attributes used to specify a target area. In the example shown in FIG. 9, "privacy protection mode" indicates different attribute setting modes depending on the privacy protection target. In the example shown in FIG. 9, "mode 1" is used to protect the privacy of the owner of the feature, and "mode 2" is used to protect the privacy of the user who uses the photographed image.
また、図9に示す「保護範囲レベル」は、プライバシーの保護範囲の広さ、言い換えれば保護の度合いを示している。図9に示す例においては、保護範囲レベルが高い程、対象領域の特定に使用する属性として、より多くの属性が設定される。 Further, the "protection range level" shown in FIG. 9 indicates the breadth of the privacy protection range, in other words, the degree of protection. In the example shown in FIG. 9, the higher the protection range level, the more attributes are set as attributes used to specify the target area.
なお、より多くの属性が設定されるほど、プライバシーの保護は厚くなる一方で、対象領域として特定される画像中の領域は大きくたるため、不鮮明処理が施されると、画像中の情報が損なわれる範囲が広くなる。 Note that the more attributes that are set, the stronger the privacy protection, but the area in the image that is identified as the target area is large and sagging, so if blurring is applied, the information in the image may be lost. The scope of what can be done becomes wider.
なお、例えば、図9の設定例において、モード1又はモード2のいずれか一方のみを使用してもよく、モード1の設定とモード2の設定とを組み合わせてもよい。例えば、モード1についてはレベル3に設定し、モード2についてはレベル1に設定してもよい。 Note that, for example, in the setting example of FIG. 9, only one of mode 1 or mode 2 may be used, or the settings of mode 1 and the settings of mode 2 may be combined. For example, mode 1 may be set to level 3, and mode 2 may be set to level 1.
また、図9に例示したモード1及びモード2の他に、画像中の目印となる部分を目立たせることを目的とするモードが設定できるようにしてもよい。例えば、当該モードによって目印となる部分として特定された対象領域には、強調する画像処理が行われる。 Furthermore, in addition to Mode 1 and Mode 2 illustrated in FIG. 9, a mode may be set that aims to make a landmark part in an image stand out. For example, image processing is performed to emphasize a target area specified as a landmark by the mode.
図10は、撮影画像の一例として、撮影画像FL1000中の対象領域が特定されている様子を示す図である。図10は、地物の持ち主のプライバシーを保護対象とする場合に、対象領域が特定されている例を示している。 FIG. 10 is a diagram showing how a target area is specified in a photographed image FL1000 as an example of a photographed image. FIG. 10 shows an example in which a target area is specified when the privacy of the owner of a feature is to be protected.
撮影画像FL1000中に写っている地物の各々に、当該地物の属性が対応付けられている。これらの属性に基づいて、撮影画像FL1000において対象領域が特定されている。 Each feature shown in the photographed image FL1000 is associated with an attribute of the feature. Based on these attributes, a target area is specified in photographed image FL1000.
図10中、破線に囲まれた領域は、画像処理の対象領域AR1を示している。図10に示す例においては、属性が「個人宅」である地物が写っている領域が、対象領域AR1として特定されている。 In FIG. 10, the area surrounded by the broken line indicates the image processing target area AR1. In the example shown in FIG. 10, the area in which the feature having the attribute "private residence" is photographed is specified as the target area AR1.
また、図10において、一点鎖線に囲まれた領域は、地物が写っている領域であっても画像処理の対象外の領域である領域AR2を示している。図10に示す例においては、属性が「商業施設」である地物が写っている領域が、対象外の領域AR2となっている。 Furthermore, in FIG. 10, the area surrounded by the dashed line indicates an area AR2 that is not subject to image processing even if it includes a feature. In the example shown in FIG. 10, the area in which the feature having the attribute "commercial facility" is photographed is the non-target area AR2.
また、制御部45は、対象領域を特定する際に、所定の属性の地物が写っている領域内において、当該所定の属性の地物とは異なる物体が写っている領域を対象領域から除外してもよい。
Furthermore, when specifying the target area, the
当該異なる物体として、例えば電柱は、街区標示板等の住所を示す表示が取り付けられている場合が多く、例えば実写画像を用いた経路案内のために使用する画像としては有用である。この場合、例えば、電柱が写っている領域を不鮮明にする画像処理を行うと、有用な情報が損なわれる。そこで、電柱が写っている領域を対象領域から除外することで、撮影画像から有用な情報が失われることを防止することができる。図10に示す例において、対象領域AR1のうち電柱が写っている領域は対象領域から除外してもよい。 Examples of such different objects include telephone poles, which often have a display indicating an address such as a block sign board attached thereto, and are useful as images used for route guidance using, for example, live-action images. In this case, for example, if image processing is performed to make the area where the telephone pole is obscured, useful information will be lost. Therefore, by excluding the area in which the telephone pole is photographed from the target area, it is possible to prevent useful information from being lost from the captured image. In the example shown in FIG. 10, the area in which the telephone pole is photographed in the target area AR1 may be excluded from the target area.
例えば、地図情報DB43Aに記憶されている地図情報に、電柱の位置情報が含まれていてもよく、制御部45は、当該電柱の位置情報を用いて撮影画像中の所定の属性の地物が写っている領域内の電柱を特定し、当該電柱が写っている領域を対象領域から除外してもよい。例えば、地図情報に電柱の位置情報が含まれない場合には、画像認識によって、所定の属性の地物が写っている領域内において電柱を検出した場合に、当該電柱が写っている領域を対象領域から除外してもよい。
For example, the map information stored in the
[画像処理の態様]
また、制御部45は、撮影画像中の対象領域の少なくとも一部を不鮮明にするか又は当該対象領域を強調する処理を行う画像処理部として機能する。
[Aspects of image processing]
Further, the
対象領域の少なくとも一部を不鮮明にする処理の態様としては、例えば、モザイク処理、ぼかし処理、マスク処理等の画像処理が挙げられる。 Examples of the process for making at least a portion of the target area unclear include image processing such as mosaic processing, blurring processing, and masking processing.
制御部45は、例えば、対象領域内の表札等の文字が写っている部分を不鮮明にする処理を行う。例えば、個人宅が写り込んだ場合に、当該個人宅の持ち主の個人情報である名前がインターネット上に公開されることを防止することができ、当該持ち主のプライバシーを保護することができる。
For example, the
また、制御部45は、例えば、対象領域全体を不鮮明にする処理を行ってもよい。この場合、例えば、撮影画像中の所定の地物である建物全体を不鮮明にすることができ、例えば個人宅等の外観がインターネット上に公開されることを防止することができる。
Further, the
図11は、対象領域全体を不鮮明にする画像処理後の撮影画像の一例を示す図である。図11に示す例においては、属性が個人宅である建物が写っている対象領域AR1が不鮮明となっている。 FIG. 11 is a diagram illustrating an example of a photographed image after image processing that makes the entire target region unclear. In the example shown in FIG. 11, the target area AR1 in which the building whose attribute is a private residence is shown is unclear.
一方、対象領域を強調する処理の態様としては、撮影画像中の対象領域のコントラストを高くする処理、明度又は彩度を高くする処理等の画像処理が挙げられる。 On the other hand, examples of processing for emphasizing the target area include image processing such as increasing the contrast of the target area in the photographed image, increasing brightness or saturation, and the like.
[文字検出]
また、制御部45は、例えば、撮影画像中の文字を検出する文字検出部として機能する。制御部45は、例えば、OCR(Optical Character Recognition)やAIによる文字認識(AI-OCR)等の公知の文字認識技術を用いて、撮影画像中の文字を検出する。例えば、文字検出部としての制御部45は、対象領域内の文字を検出してもよい。
[Character detection]
Further, the
[文字に関する画像処理]
画像処理部としての制御部45は、例えば、所定の条件に合致する文字が写っている画像中の領域を不鮮明にする処理を実行してもよい。
[Image processing related to text]
The
例えば、画像処理部としての制御部45は、文字検出部によって検出された文字の実際の鉛直方向の高さが所定の高さよりも低い場合又は当該文字の実際のサイズが所定のサイズよりも小さい場合に、当該文字を不鮮明にする処理を行う。
For example, if the actual vertical height of the character detected by the character detection unit is lower than a predetermined height, or if the actual size of the character is smaller than the predetermined size, the
制御部45は、撮影画像が撮影された撮影位置から、文字検出部によって検出された文字までの距離に基づいて、当該文字の鉛直方向の高さを算出する。
The
例えば、制御部45は、撮影画像とともに、当該撮影画像の撮影位置を示す情報を取得し、当該撮影位置及び地図情報に基づいて、当該撮影位置から検出された文字までの実際の距離を算出する。制御部45は、算出した実際の距離に基づいて、画像中の当該文字の地面からの鉛直方向の高さを当該文字の実際の高さに換算する。
For example, the
本実施例において、撮影画像中に検出された文字の鉛直方向の実際の高さが所定の高さよりも高い場合には、当該文字は店舗の看板等の、不特定の人に見せるための文字である可能性が高く、当該実際の高さが所定の高さ以下である場合には、当該文字は表札に書かれた文字である可能性が高いと考える。 In this embodiment, if the actual vertical height of a character detected in a photographed image is higher than a predetermined height, the character is a character on a store signboard or the like that is displayed to an unspecified person. If the actual height is less than or equal to the predetermined height, it is considered that the character is likely to be the character written on the nameplate.
例えば、表札の地上からの高さは2m以下の場合が多い。一方で、文字の地上からの高さが2mを超える場合は看板の文字であることが多い。そこで、制御部45は、算出した文字の高さが2m以下である場合には当該文字を不鮮明にする処理を行い、2mを越える場合には、当該文字を不鮮明にしないこととする制御を行ってもよい。
For example, the height of the nameplate from the ground is often less than 2 meters. On the other hand, if the height of the letters above the ground exceeds 2 m, they are often letters on a signboard. Therefore, the
このようにすることで、表札に書かれた個人の名前がインターネット上に公開されることを防止するとともに、看板等に書かれた文字は不鮮明にしないことで、撮影画像から情報が過剰に失われないようにすることができる。 This prevents the names of individuals written on nameplates from being published on the Internet, and prevents the writing on signboards from becoming blurred, which prevents excessive loss of information from photographed images. You can prevent this from happening.
また、制御部45は、撮影画像が撮影された撮影位置から、文字検出部によって検出された文字までの距離に基づいて、当該文字のサイズを算出する。
Furthermore, the
例えば、制御部45は、撮影画像とともに当該撮影画像の撮影位置を示す情報を取得し、当該撮影位置及び地図情報に基づいて、当該撮影位置から検出された文字までの実際の距離を算出する。制御部45は、算出した実際の距離に基づいて、画像中の当該文字のサイズを当該文字の実際のサイズに換算する。
For example, the
本実施例において、撮影画像中に検出された文字の実際の大きさが所定の大きさよりも大きい場合には、店舗の看板等の、不特定の人に見せるための文字である可能性が高く、当該文字の実際の大きさが所定の大きさ以下である場合には、表札に書かれた文字である可能性が高いと考える。 In this example, if the actual size of the characters detected in the photographed image is larger than the predetermined size, there is a high possibility that the characters are characters that are intended to be shown to an unspecified person, such as on a store signboard. If the actual size of the character is less than or equal to a predetermined size, it is considered that there is a high possibility that the character is written on a nameplate.
例えば、表札の文字は高さ方向の幅15cm以下であることが多く、看板の文字はこれより大きいことが多い。そこで、制御部45は、算出した文字のサイズについて、高さ方向の幅15cm以下である場合には当該文字を不鮮明にする処理を行い、高さ方向の幅が15cmよりも大きい場合には、当該文字を不鮮明にしないこととする制御を行ってもよい。
For example, the characters on nameplates are often less than 15 cm wide in the height direction, and the characters on signboards are often larger than this. Therefore, regarding the calculated character size, if the width in the height direction is 15 cm or less, the
このようにすることで、例えば表札に書かれた個人の名前がインターネット上に公開されることを防止するとともに、看板等に書かれた文字は不鮮明にしないことで、撮影画像から情報が過剰に失われないようにすることができる。 By doing this, for example, an individual's name written on a nameplate is prevented from being published on the Internet, and by not blurring the letters written on a signboard, etc., excessive information is not extracted from the photographed image. You can prevent it from being lost.
例えば、検出された文字の鉛直方向の高さが所定の高さよりも低い場合(高さによる判定)又は当該文字の実際のサイズが所定のサイズよりも小さい場合(サイズによる判定)のいずれか一方に該当する場合に当該文字を不鮮明にしてもよく、高さによる判定とサイズによる判定とを組み合わせて、両方に該当する場合に文字を不鮮明にしてもよい。 For example, either the vertical height of the detected character is lower than a predetermined height (height-based determination) or the actual size of the character is smaller than a predetermined size (size-based determination) If the above applies, the character may be made unclear, or the determination based on height and the determination based on size may be combined, and the text may be made unclear when both apply.
画像処理部としての制御部45は、撮影画像中に検出された文字が所定の語に一致する場合に、当該文字を不鮮明にする処理を実行してもよい。当該所定の語は、例えば、人名または地名に関する語である。
The
制御部45は、例えば、撮影画像中に検出された1又は複数の文字からなる文字列が、大容量記憶装置43の辞書DB43Bに記憶されている人名又は地名のいずれかに一致する場合に、当該文字を不鮮明にする処理を実行してもよい。これによって、例えば、「飛び出し注意」等の人名や地名ではない文字については画像中に残すことができる。
For example, when a character string consisting of one or more characters detected in a photographed image matches either a person's name or a place name stored in the
例えば、所定の語に一致する文字は、一連の文字列の一部であってもよい。例えば、「高橋クリニック」のうちの「高橋」の部分のみが人名に該当し、不鮮明にする処理の対象となってもよい。 For example, characters that match a given word may be part of a string of characters. For example, only the "Takahashi" part of "Takahashi Clinic" corresponds to a person's name and may be subject to blurring processing.
また、所定の語に一致するか否かの判定と、上記の文字の高さによる判定又は文字のサイズによる判定を組み合わせて適用してもよい。 Further, the determination as to whether or not the word matches a predetermined word may be combined with the determination based on the height of the character or the determination based on the size of the character described above.
例えば、「高橋クリニック」の看板が表札よりも高い位置又は大きい文字で書かれている場合、上記の文字の高さによる判定又は文字のサイズによる判定を適用すると、看板に書かれた「高橋クリニック」の文字は画像処理の対象外となり、不鮮明とせずに撮影画像中に残すことができる。 For example, if the signboard for "Takahashi Clinic" is written at a higher position than the nameplate or in larger letters, applying the above-mentioned determination based on the height of the characters or determination based on the size of the characters, the "Takahashi Clinic" written on the sign " characters are not subject to image processing and can be left in the photographed image without being blurred.
このように、所定の条件に合致する文字を不鮮明にする画像処理の対象とし、それ以外の文字は対象外とすることで、撮影画像中の情報が過剰に失われることを防止できる。 In this way, by subjecting characters that meet predetermined conditions to image processing to make them unclear, and excluding other characters, it is possible to prevent excessive loss of information in a photographed image.
例えば、制御部45は、上記のような画像処理の対象領域を特定し、当該対象領域内の文字が所定の語に一致する場合に、当該文字を不鮮明にする処理を実行してもよい。
For example, the
また、例えば、制御部45は、対象領域内で検出された文字の鉛直方向の高さが所定の高さよりも低い場合又は当該文字の実際のサイズが所定のサイズよりも小さい場合に、当該文字が所定の語に一致する場合、当該文字を不鮮明にする処理を実行してもよい。
For example, if the vertical height of the character detected within the target area is lower than a predetermined height, or if the actual size of the character is smaller than the predetermined size, the
図12~図18を参照しつつ、本実施例における画像処理装置10の制御部45によって実行される制御ルーチンについて説明する。
A control routine executed by the
図12は、制御部45が撮影画像中の地物の属性を特定する際に実行するルーチンの一例である属性特定ルーチンRT1を示すフローチャートである。例えば、制御部45は、端末装置20からの撮影情報の送信が開始されると、属性特定ルーチンRT1を開始する。
FIG. 12 is a flowchart showing an attribute specifying routine RT1, which is an example of a routine executed by the
制御部45は、属性特定ルーチンRT1を開始すると、前方カメラ11によって撮影された撮影画像、当該撮影画像の撮影位置及び撮影方向を含む撮影情報を新たに端末装置20から受信して取得する(ステップS101)。ステップS101において、例えば、1つのフレーム画像、当該フレーム画像が取得された際の撮影位置、及び撮影方向を含む撮影情報が取得される。例えば、図4に示したように、撮影情報には撮影画像が撮影された画角を示す情報が含まれてもよい。
When the
ステップS101の実行後、制御部45は、地図情報DB43Aに記憶されている地図情報を参照する(ステップS102)。ステップS102において、制御部45は、ステップS101において取得した撮影情報が示す撮影位置を含むエリアの地図情報を読み出す。
After executing step S101, the
ステップS102の実行後、制御部45は、ステップS102において読み出した地図情報に基づいて、ステップS101において取得した撮影情報が示す撮影位置及び撮影方向を含む条件で撮影した場合の画像を再現した再現画像を生成する(ステップS103)。ステップS103において、例えば、図8に示したような再現画像が生成される。また、ステップ103において、地図情報に含まれる地物に対応付けられている属性によって、再現画像内の地物の属性が特定される。
After executing step S102, the
ステップS103の実行後、制御部45は、撮影画像と再現画像との照合を行う(ステップS104)。
After executing step S103, the
ステップS104の実行後、制御部45は、撮影画像中の地物の属性を特定する(ステップS105)。ステップS105において、例えば、撮影画像中の被写体となった地物と、再現画像内の地物と、を照合することで、撮影画像中の地物の属性が特定される。
After executing step S104, the
ステップS105の実行後、制御部45は、ステップS104において特定した属性を示す情報を付した画像を記憶する(ステップS106)。
After executing step S105, the
ステップS106の実行後、制御部45は、属性特定ルーチンRT1を終了し、新たに属性特定ルーチンRT1を開始する。
After executing step S106, the
図13は、制御部45が、画像処理を行う対象領域を特定する際に実行するルーチンの一例である対象領域特定ルーチンRT2を示すフローチャートである。例えば、制御部45は、属性特定ルーチンRT1が開始されると、対象領域特定ルーチンRT2を開始する。
FIG. 13 is a flowchart showing a target region specifying routine RT2, which is an example of a routine executed by the
制御部45は、対象領域特定ルーチンRT2を開始すると、地物の属性が付された撮影画像を新たに取得する(ステップS201)。ステップS201において、制御部45は、例えば、属性特定ルーチンRT1のステップS106において、撮影画像中の地物に当該地物の属性が付されて記憶された画像を読み出す。
When the
ステップS201の実行後、制御部45は、対象領域を特定するための属性の設定を参照する(ステップS202)。ステップS202において、制御部45は、例えば、図9に例示したような、プライバシーの保護対象又は保護範囲レベルに応じて予め設定されている属性を参照する。
After executing step S201, the
例えば、プライバシーの保護対象が地物の持ち主のプライバシーである場合には、個人宅等の私的な属性が対象領域を特定するための属性として設定されている。 For example, when the object of privacy protection is the privacy of the owner of a feature, a private attribute such as a private residence is set as an attribute for specifying the target area.
例えば、プライバシーの保護対象が撮影画像を利用する利用者のプライバシーである場合には、商業施設等の公共性の高い属性が対象領域を特定するための属性として設定されている。 For example, if the privacy protection target is the privacy of a user who uses a photographed image, a highly public attribute such as a commercial facility is set as an attribute for specifying the target area.
ステップS202の実行後、制御部45は、取得した撮影画像中の、ステップS202において参照した設定に対応する属性の地物が写っている領域を対象領域として特定する(ステップS203)。
After executing step S202, the
ステップS203の実行後、制御部45は、対象領域の情報が付された画像を記憶する(ステップS204)。ステップS204において、例えば図10に例示したような、対象領域を示す情報が付された画像が大容量記憶装置43に記憶される。
After executing step S203, the
ステップS204の実行後、制御部45は、対象領域特定ルーチンRT2を終了し、新たに対象領域特定ルーチンRT2を開始する。
After executing step S204, the
図14は、制御部45が画像処理を行う際に実行するルーチンの一例である画像処理ルーチンRT3を示すフローチャートである。例えば、制御部45は、対象領域特定ルーチンRT2が開始されると、画像処理ルーチンRT3を開始する。
FIG. 14 is a flowchart showing an image processing routine RT3, which is an example of a routine executed by the
制御部45は、画像処理ルーチンRT3を開始すると、対象領域の情報が付された撮影画像を取得する(ステップS301)。ステップS301において、例えば、制御部45は、対象領域特定ルーチンRT2のステップS204において記憶された画像を読み出す。
When the
ステップS301の実行後、制御部45は、画像処理の設定を参照する(ステップS302)。ステップS302において、例えば、大容量記憶装置43を参照し、実行すべき画像処理の内容が対象領域の少なくとも一部を不鮮明にする画像処理であるか又は対象領域を強調する処理であるかを示す情報を読み出す。
After executing step S301, the
ステップS302の実行後、制御部45は、対象領域に画像処理を実行する(ステップS303)。ステップS303において、例えば、ステップS302において参照した画像処理の内容に対応する画像処理を実行する。ステップS303において、例えば、対象領域全体を不鮮明にする処理又は対象領域を強調する処理が実行される。
After executing step S302, the
ステップS303の実行後、制御部45は、画像処理が施された撮影画像を記憶する(ステップS304)。
After executing step S303, the
ステップS304の実行後、制御部45は、画像処理ルーチンRT3を終了し、新たに画像処理ルーチンRT3を開始する。
After executing step S304, the
画像処理ルーチンRT3のステップS304において記憶された画像はユーザが利用可能である。例えば、画像処理システム100のユーザは、対象領域に画像処理が施された画像をSNSや電子地図を通じてインターネット上に公開しても、保護対象とするプライバシーを侵害せずに済む。
The image stored in step S304 of image processing routine RT3 is available to the user. For example, the user of the
図15は、制御部45が文字を不鮮明にする画像処理を行う際に実行するルーチンの一例である画像処理ルーチンRT4を示すフローチャートである。例えば、制御部45は、端末装置20からの撮影画像又は撮影情報の送信が開始されると、画像処理ルーチンRT4を開始する。
FIG. 15 is a flowchart showing an image processing routine RT4, which is an example of a routine executed by the
制御部45は、画像処理ルーチンRT4を開始すると、前方カメラ11によって撮影された撮影画像を取得する(ステップS401)。ステップS401において、例えば、制御部45は、撮影画像と共に当該撮影画像の撮影位置を端末装置20から受信する。
When the
ステップS401の実行後、制御部45は、文字認識技術を用いて撮影画像中の文字を検出し、撮影画像内に文字が存在するか否かを判定する(ステップS402)。ステップS402において、例えば、文字が写っている領域が文字領域LTとして特定される。
After executing step S401, the
図16は、撮影画像FL1000内の文字が写っている領域が文字領域LTとして特定されている例を示す図である。図16に示すように、個人宅の表札に書かれた文字が写っている領域、看板に「〇〇医院」と書かれた文字が写っている領域及び看板に「〇〇〇店」と書かれた文字が写っている領域が、文字領域LTとして特定されている。 FIG. 16 is a diagram illustrating an example in which a region in which characters appear in photographed image FL1000 is specified as character region LT. As shown in Figure 16, the area where the letters written on the nameplate of a private residence are shown, the area where the words ``〇〇 Clinic'' written on the signboard are shown, and the area where the words ``〇〇〇 store'' are written on the signboard are shown. The area in which the written characters are shown is specified as the character area LT.
ステップS402において、制御部45は、撮影画像内に文字が存在しないと判定する(ステップS402:NO)と、画像処理ルーチンRT4を終了し、画像処理ルーチンRT4を新たに開始する。
In step S402, when the
ステップS402において、制御部45は、撮影画像内に文字が存在すると判定する(ステップS402:YES)と、検出した文字の地上からの鉛直方向の高さ(以下、高さ位置とも称する)及び当該文字の大きさを算出する(ステップS403)。ステップS403において、制御部45は、例えば、上述したように、当該画像が撮影された撮影位置から当該検出された文字までの距離に基づいて、当該文字の高さ及び大きさを算出する。
In step S402, if the
ステップS403の実行後、制御部45は、ステップS403において算出した文字の高さが所定の高さよりも低いか否かを判定する(ステップS404)。ステップS404において、例えば、表札の地上からの高さが2m以下の場合が多いことに鑑みて、基準となる地上からの所定の高さを例えば2mとして判定される。
After executing step S403, the
ステップS404において、算出された文字の高さが所定の高さよりも低いと判定する(ステップS404:YES)と、制御部45は、算出された文字の大きさが所定の大きさよりも小さいか否かを判定する(ステップS405)。ステップS405において、例えば、表札に書かれた文字のサイズは高さ方向の幅15cm以下である場合が多いことに鑑みて、基準となる所定のサイズを例えば高さ方向の幅15cmとして判定される。
In step S404, if it is determined that the calculated character height is lower than the predetermined height (step S404: YES), the
ステップS405において、算出された文字の大きさが所定の大きさよりも小さいと判定する(ステップS405:YES)と、制御部45は、ステップS402において検出された文字を不鮮明にする処理を実行する(ステップS406)。ステップS406において、例えば、モザイク処理、ぼかし処理又はマスク処理等の画像処理が検出された文字部分に施される。
In step S405, if it is determined that the calculated character size is smaller than the predetermined size (step S405: YES), the
図17は、撮影画像FL1000内の文字領域LTについて、文字を不鮮明にする処理が実行された例を示している。図17に示す例においては、文字領域LTのうち、個人宅の表札に書かれた文字が写っている領域が不鮮明となっている。 FIG. 17 shows an example in which processing to make the characters unclear is executed on the character area LT in the photographed image FL1000. In the example shown in FIG. 17, the area of the character area LT where the characters written on the nameplate of a private residence are shown is unclear.
図17に示す例において、例えば、個人宅の表札に書かれた文字は、実際の鉛直方向の高さが所定の高さ以下であり、かつ実際の大きさが所定の大きさ以下であるため、不鮮明とする画像処理の対象となっている。また、例えば、「〇〇医院」と書かれた文字は、実際の鉛直方向の高さが所定の高さ以下であるが、大きさが所定の大きさよりも大きいため、不鮮明とする画像処理の対象外となっている。 In the example shown in FIG. 17, for example, the actual vertical height of the characters written on the nameplate of a private residence is less than or equal to a predetermined height, and the actual size is less than or equal to a predetermined size. , and is subject to image processing to make it blurry. For example, the actual vertical height of the characters written as "〇〇Clinic" is less than the predetermined height, but the size is larger than the predetermined size, so the image processing to make it unclear is necessary. Not applicable.
図17に示す例においては、看板に「〇〇〇店」と書かれた文字は、実際の鉛直方向の高さが所定の高さよりも高く、かつ実際の大きさが所定の大きさよりも大きいため、不鮮明とする画像処理の対象外となっている。 In the example shown in FIG. 17, the actual vertical height of the characters written as "〇〇〇 store" on the signboard is higher than the predetermined height, and the actual size is larger than the predetermined size. Therefore, it is not subject to image processing to make it unclear.
ステップS406の実行後、制御部45は、文字を不鮮明にする画像処理が施された画像を大容量記憶装置43に記憶する(ステップS407)。ステップS407において、例えば、画像処理が施された画像は、ユーザがアップロード可能な専用フォルダに保存されてもよい。
After executing step S406, the
制御部45は、ステップS404において、文字の高さ位置が所定の高さよりも低くないと判定した場合(ステップS404:NO)又はステップS405において文字の大きさが所定の大きさよりも小さくないと判定した場合(ステップS405:NO)、ステップS407において、本ルーチンによっては画像処理が施されていない画像を記憶する。
If the
ステップS407において、例えば、当該画像処理が施されていない画像についても、画像処理が施された画像と同様に、ユーザがアップロード可能な専用フォルダに保存されてもよい。ステップS407における画像処理が施されていない画像は、ステップS404又はステップS405を経ることで本ルーチンの判定基準によりユーザがアップロード可能な画像であることを確認済みの画像であるといえる。 In step S407, for example, the image that has not been subjected to the image processing may be saved in a dedicated folder that can be uploaded by the user, similarly to the image that has been subjected to the image processing. An image that has not been subjected to the image processing in step S407 can be said to be an image that has been confirmed as an image that can be uploaded by the user according to the determination criteria of this routine through step S404 or step S405.
ステップS407の実行後、制御部45は、画像処理ルーチンRT4を終了し、画像処理ルーチンRT4を新たに開始する。
After executing step S407, the
なお、画像処理ルーチンRT4は、例えば対象領域特定ルーチンRT2を経て対象領域の情報が付されている撮影画像について実行されてもよい。例えば、ステップS401において対象領域の情報が付されている撮影画像を取得し、ステップS402において、撮影画像中に文字が存在するか否かの判定に代えて、対象領域内に文字が存在するか否かの判定がなされてもよい。 Note that the image processing routine RT4 may be executed, for example, on a photographed image to which target area information has been attached via the target area specifying routine RT2. For example, in step S401, a photographed image with target area information is acquired, and in step S402, instead of determining whether or not characters exist in the photographed image, whether or not characters exist in the target area is determined. It may be determined whether or not.
そのようにすることで、効率良くかつ正確に画像処理の対象となる文字領域を特定することができる。例えば、図17に示す例においては、対象領域AR1のみについて上記のような文字の鉛直方向の高さ及び文字の大きさの判定を行うことで、対象領域外にある「〇〇医院」の文字について文字領域の特定をすることなく画像処理の対象から除外することができる。 By doing so, it is possible to efficiently and accurately specify the character area to be subjected to image processing. For example, in the example shown in FIG. 17, by determining the vertical height and character size of the characters as described above only for the target area AR1, the characters "〇〇Clinic" outside the target area can be excluded from image processing without specifying the character area.
本ルーチンによれば、撮影画像中の、表札が写っている領域等のプライバシーを侵害する蓋然性の高い領域については確実に、不鮮明にする画像処理(不鮮明処理)の対象とすることができる。さらに、表札よりも高い位置にある看板や表札に書かれた文字よりも大きい文字で書かれた看板等が写っている、プライバシーを侵害する蓋然性が高くない領域を、不鮮明処理の対象から除外することができる。従って、撮影画像中の風景や情報を必要以上に損なうことなくプライバシーを保護することができる。 According to this routine, areas in the photographed image that have a high probability of infringing on privacy, such as an area where a nameplate is shown, can be reliably subjected to image processing to blur (blurring processing). Furthermore, areas where there is no high probability of infringing on privacy, such as signs that are located higher than the nameplate or written in larger letters than the nameplate, are excluded from blurring processing. be able to. Therefore, privacy can be protected without unnecessarily damaging the scenery or information in the photographed image.
図18は、制御部45が文字を不鮮明にする画像処理を行う際に実行するルーチンの一例である画像処理ルーチンRT5を示すフローチャートである。例えば、制御部45は、対象領域特定ルーチンRT2が開始されると、画像処理ルーチンRT5を開始する。
FIG. 18 is a flowchart showing an image processing routine RT5, which is an example of a routine executed by the
制御部45は、画像処理ルーチンRT5を開始すると、画像処理ルーチンRT3の場合と同様に、対象領域の情報が付された画像を取得する(ステップS501)。
When the
ステップS501の実行後、制御部45は、文字認識技術を用いて対象領域内の文字を検出し、対象領域内に文字が存在するか否かを判定する(ステップS502)。
After executing step S501, the
ステップS502において、対象領域内に文字が存在しないと判定する(ステップS502:NO)と、制御部45は、画像処理ルーチンRT5を終了し、新たに画像処理ルーチンRT5を開始する。
If it is determined in step S502 that no characters exist within the target area (step S502: NO), the
ステップS502において、対象領域内に文字が存在すると判定する(ステップS502:YES)と、制御部45は、大容量記憶装置43の辞書DB43Bを参照し(ステップS503)、ステップS502において検出された文字が、辞書DB43B内の辞書に含まれる語と一致するか否かを判定する(ステップS504)。
In step S502, if it is determined that a character exists in the target area (step S502: YES), the
ステップS504において、辞書DB43B内の辞書に含まれる語と一致すると判定する(ステップS504:YES)と、制御部45は、ステップS502において検出された文字を不鮮明にする処理を実行する(ステップS505)。
If it is determined in step S504 that the word matches the word included in the dictionary in the
ステップS505において、例えば、図17に例示したように、個人宅の表札に書かれた文字が写っている領域や看板に「〇〇医院」と書かれた文字が写っている領域のうち、人名が書かれている「〇〇」の部分のみが不鮮明となるように、モザイク処理等の画像処理が施される。 At step S505, for example, as illustrated in FIG. Image processing such as mosaic processing is performed so that only the "〇〇" part where is written becomes unclear.
ステップS505の実行後、制御部45は、文字を不鮮明にする画像処理が施された画像を大容量記憶装置43に記憶する(ステップS506)。ステップS506において、例えば、画像処理が施された画像は、ユーザがアップロード可能な専用フォルダに保存されてもよい。
After executing step S505, the
制御部45は、ステップS504において、辞書DB43B内の辞書に含まれる語と一致しないと判定した場合(ステップS504:NO)と、ステップS506において、本ルーチンによっては画像処理が施されていない画像を記憶する。
When the
ステップS506において、例えば、当該画像処理が施されていない画像についても、画像処理が施された画像と同様に、ユーザがアップロード可能な専用フォルダに保存されてもよい。 In step S506, for example, the image that has not been subjected to the image processing may be saved in a dedicated folder that can be uploaded by the user, similarly to the image that has been subjected to the image processing.
ステップS506の実行後、制御部45は、画像処理ルーチンRT5を終了し、画像処理ルーチンRT5を新たに開始する。
After executing step S506, the
なお、画像処理ルーチンRT5は、例えば、対象領域の情報が付されていない撮影画像について実行されてもよい。 Note that the image processing routine RT5 may be executed, for example, on a photographed image to which information about the target area is not attached.
また、画像処理ルーチンRT5は、画像処理ルーチンRT4と組み合わせて実行されてもよい。例えば、画像処理ルーチンRT5における辞書に含まれる語と一致するか否かの判定についてのステップS503及びステップS504が、画像処理ルーチンRT4における文字の高さ又は大きさに関する判定の前又は後、すなわちステップS403の前又はステップS405の後に実行されてもよい。このようにすることで、より精度良くプライバシーを侵害する蓋然性の高い文字のみを不鮮明処理の対象とし、それ以外の文字については不鮮明処理の対象外とすることができ、元の画像の情報が損なわれることを防止することができる。 Further, the image processing routine RT5 may be executed in combination with the image processing routine RT4. For example, steps S503 and S504 regarding the determination of whether the word matches a word included in the dictionary in the image processing routine RT5 may be performed before or after the determination regarding the height or size of the character in the image processing routine RT4, that is, step It may be executed before step S403 or after step S405. By doing this, it is possible to more accurately target only the characters that have a high probability of infringing on privacy, and exclude other characters from the blurring process, so that the information in the original image is lost. It is possible to prevent this from happening.
なお、図12-図18を用いて説明したルーチンによる画像処理は、ユーザが画像をSNS等を介して公開しようとする際に実行されてもよく、撮影画像が取得された際に遂次に又は定期的に実行されてアップロード用のフォルダに保存されていてもよい。 Note that the image processing according to the routine explained using FIGS. 12 to 18 may be executed when the user intends to publish the image via SNS etc., and may be executed sequentially when the captured image is acquired. Alternatively, it may be executed periodically and saved in the upload folder.
なお、本実施例において、目印となるような地物や文字等を目立たせることを目的として、対象領域又は撮影画像の少なくとも一部を強調する画像処理が実行されてもよい。 Note that in this embodiment, image processing may be performed to emphasize at least a part of the target area or the photographed image in order to make landmarks, characters, etc. stand out.
また、当該強調する画像処理は、上記したような不鮮明処理と組み合わせて実行されてもよい。例えば、写り込んだ地物の持ち主のプライバシーを保護するために、個人宅又は人名が書かれた文字が写っている領域を不鮮明とする画像処理を実行し、かつ、目印となる地物が写っている領域又は街区標示板や看板等の文字が書かれた領域については強調する画像処理を実行するようにしてもよい。 Further, the image processing for enhancing may be performed in combination with the blurring processing as described above. For example, in order to protect the privacy of the owner of a feature in the photo, image processing is performed to make the area where a private residence or a person's name is written unclear, and the feature that serves as a landmark is Image processing may be performed to emphasize areas where characters are written, such as on block signboards or signboards.
図19は、撮影画像FL1000について、表札の領域については不鮮明とする画像処理が施され、かつ、例えば実写画像を用いた経路案内のために有効な目印となる商業施設の建物については強調する画像処理が行われた例を示している。 FIG. 19 shows an image in which the photographed image FL1000 has been subjected to image processing to make the area of the nameplate blurred, while emphasizing the building of a commercial facility, which is an effective landmark for route guidance using, for example, a real image. An example of processing is shown.
以上、詳細に説明したように、本実施例の画像処理装置10は、撮像装置によって撮影された撮影画像、撮影画像の撮影位置及び撮影方向を含む撮影情報を取得する撮影情報取得部と、地物の位置と当該地物の属性を示す情報を含む地図情報と、撮影情報とに基づいて、撮影画像中の地物の属性を特定する属性特定部と、撮影画像中において、属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定部と、を有する。
As described above in detail, the
このような構成により、例えばプライバシーを保護するために画像処理が必要な領域を、地物の属性に基づいて特定することができる。例えば、対象領域以外の領域については、画像処理後においても、元の画像の風情や情報を維持することができる。 With such a configuration, for example, an area that requires image processing to protect privacy can be specified based on the attributes of the feature. For example, for areas other than the target area, the appearance and information of the original image can be maintained even after image processing.
また、本実施例の画像処理装置10は、撮像装置によって撮影された撮影画像を取得する画像取得部と、撮影画像中の文字を検出する文字検出部と、当該検出された文字の実際の鉛直方向の高さが所定の高さよりも低い場合又は当該文字の実際のサイズが所定のサイズよりも小さい場合に、当該文字を不鮮明にする処理を行う画像処理部と、を有する。
The
このような構成により、例えば、表札等の個人名が書かれた文字部分を不鮮明とする処理を実行し、看板に書かれた文字等の不鮮明とする処理が不要な部分は当該処理の対象から除外することができる。従って、当該除外された部分については、画像処理後においても、元の画像の風情や情報を維持することができる。 With this configuration, for example, a process is executed to blur the text on a nameplate, etc., where a person's name is written, and a part that does not require blurring processing, such as text written on a signboard, is excluded from the processing. Can be excluded. Therefore, the appearance and information of the original image can be maintained in the excluded portion even after image processing.
従って、本実施例の画像処理装置10によれば、撮影された画像中の被写体に対して、適切な画像処理を行うことが可能な画像処理装置を提供することができる。例えば、本実施例の画像処理装置10によれば、撮影された画像の被写体に関連するプライバシーを保護するための画像処理に起因して、当該画像中の情報が過剰に失われないようにすることを可能とする画像処理装置を提供することができる。
Therefore, according to the
上述した実施例における構成及びルーチンは例示に過ぎず、用途等に応じて適宜選択及び変更可能である。 The configurations and routines in the embodiments described above are merely examples, and can be selected and changed as appropriate depending on the application and the like.
例えば、上記の実施例における画像処理装置10が有する機能及び記憶部に記憶されている情報を端末装置20が有していてもよく、端末装置20において、属性及び対象領域の特定、文字部分を不鮮明にする画像処理等の画像処理が行われてもよい。
For example, the
例えば、端末装置20は、端末装置20と同様の構成を有する端末装置と前方カメラ11とタッチパネルディスプレイ15が一体化された構成であってもよい。具体的には、例えば、端末装置20は、上記、端末装置20と同様の機能を発揮するアプリケーションを搭載したカメラ付きのスマートフォン、タブレットまたはPC等の端末装置であってもよい。この場合、端末装置20は、内蔵カメラが車両Mのフロントガラスを通して車両Mの前方を撮影可能なように、例えばクレードル等でダッシュボードDB上に取り付けられ得る。
For example, the
また、端末装置20は、車両Mの運転者に提示する画面を表示しない構成であってもよい。例えば、端末装置20は、ドライブレコーダのような構成を有していてもよく、例えば、前方カメラ11と一体となった装置であってもよい。具体的には、端末装置20は、例えば、前方カメラ11の筐体内に上記した端末装置20の撮影画像又は撮影情報を画像処理装置10に送信する機能を果たすハードウェアを内蔵したような装置であってもよい。この場合、端末装置20は、上記において説明したようなプライバシー保護モードの選択入力画面等の表示出力を行わないこととしてもよい。
Further, the
撮像装置としての前方カメラ11及び端末装置20が車両に搭載されている例について説明したが、本発明の撮像装置及び端末装置は、自転車、バイク、船舶等他の移動体とともに移動するものであってもよい。また、当該移動体は人であってもよい。例えば、端末装置20はスマートフォンのようなカメラを内蔵したものであり、これを人が保持しており、例えば歩きながら撮影された撮影画像について、画像処理装置による画像処理が行われてもよい。
Although the example in which the
また、本発明の撮像装置は移動体とともに移動するものに限られず、例えば道路沿いの所定の位置に固定された定点カメラであってもよい。 Further, the imaging device of the present invention is not limited to one that moves together with a moving body, and may be a fixed-point camera fixed at a predetermined position along a road, for example.
10 画像処理装置
20 端末装置
23 入力部
25 記憶部
27 制御部
29 通信部
31 出力部
43 大容量記憶装置
43A 地図情報DB
43B 辞書DB
45 制御部
47 通信部
100 画像処理システム
M 車両
10
43B Dictionary DB
45
Claims (14)
地物の位置と当該地物の属性を示す情報を含む地図情報と、前記撮影情報とに基づいて、前記撮影画像中の地物の属性を特定する属性特定部と、
前記撮影画像中において、前記属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定部と、を有することを特徴とする画像処理装置。 a photographic information acquisition unit that acquires photographic information including a photographic image photographed by an imaging device, a photographing position and a photographing direction of the photographic image;
an attribute identifying unit that identifies an attribute of a feature in the captured image based on map information including information indicating a location of the feature and an attribute of the feature, and the imaging information;
A target area specifying unit that specifies, in the photographed image, an area in which a feature having a predetermined attribute specified by the attribute specifying unit is shown as a target area for image processing. Image processing device.
前記画像処理は、前記文字検出部によって検出された文字が写っている領域である文字領域に画像処理を行う処理であることを特徴とする請求項1乃至4のいずれか1つに記載の画像処理装置。 further comprising a character detection unit that detects characters within the target area,
The image according to any one of claims 1 to 4, wherein the image processing is a process of performing image processing on a character area that is an area in which a character detected by the character detection unit is reflected. Processing equipment.
前記対象領域特定部は、前記保護対象の指定を受け付けて、指定された前記保護対象に応じた属性である地物が写っている領域を、前記対象領域として特定することを特徴とする請求項1乃至7のいずれか1つに記載の画像処理装置。 The predetermined attribute is an attribute according to the object of privacy protection by the image processing,
The target area specifying unit receives the designation of the protection target and identifies, as the target area, an area in which a feature having an attribute corresponding to the designated protection target is photographed. 8. The image processing device according to any one of 1 to 7.
撮像装置によって撮影された撮影画像、前記撮影画像の撮影位置及び撮影方向を含む撮影情報を取得する撮影情報取得ステップと、
地物の位置と当該地物の属性を示す情報を含む地図情報と、前記撮影情報とに基づいて、前記撮影画像中の地物の属性を特定する属性特定ステップと、
前記撮影画像中において、前記属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定ステップと、
を含むことを特徴とする画像処理方法。 An image processing method executed by an image processing device, the method comprising:
a photographing information acquisition step of acquiring photographic information including a photographed image photographed by an imaging device, a photographing position and a photographing direction of the photographed image;
an attribute specifying step of specifying an attribute of the feature in the captured image based on map information including information indicating the location of the feature and the attribute of the feature, and the imaging information;
a target area specifying step of specifying, in the photographed image, an area in which a feature whose attribute specified by the attribute specifying unit is a predetermined attribute is shown as a target area for image processing;
An image processing method characterized by comprising:
撮像装置によって撮影された撮影画像、前記撮影画像の撮影位置及び撮影方向を含む撮影情報を取得する撮影情報取得ステップと、
地物の位置と当該地物の属性を示す情報を含む地図情報と、前記撮影情報とに基づいて、前記撮影画像中の地物の属性を特定する属性特定ステップと、
前記撮影画像中において、前記属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定ステップと、
を実行させるための画像処理プログラム。 An image processing program executed by an image processing device including a computer, the computer comprising:
a photographing information acquisition step of acquiring photographic information including a photographed image photographed by an imaging device, a photographing position and a photographing direction of the photographed image;
an attribute specifying step of specifying an attribute of the feature in the captured image based on map information including information indicating the location of the feature and the attribute of the feature, and the imaging information;
a target area specifying step of specifying, in the photographed image, an area in which a feature whose attribute specified by the attribute specifying unit is a predetermined attribute is shown as a target area for image processing;
An image processing program to run.
撮像装置によって撮影された撮影画像、前記撮影画像の撮影位置及び撮影方向を含む撮影情報を取得する撮影情報取得ステップと、
地物の位置と当該地物の属性を示す情報を含む地図情報と、前記撮影情報とに基づいて、前記撮影画像中の地物の属性を特定する属性特定ステップと、
前記撮影画像中において、前記属性特定部によって特定された属性が所定の属性である地物が写っている領域を、画像処理を行う対象領域として特定する対象領域特定ステップと、
を実行させる画像処理プログラムを記憶するコンピュータが読取可能な記憶媒体。 An image processing device equipped with a computer,
a photographing information acquisition step of acquiring photographic information including a photographed image photographed by an imaging device, a photographing position and a photographing direction of the photographed image;
an attribute specifying step of specifying an attribute of the feature in the captured image based on map information including information indicating the location of the feature and the attribute of the feature, and the imaging information;
a target area specifying step of specifying, in the photographed image, an area in which a feature whose attribute specified by the attribute specifying unit is a predetermined attribute is shown as a target area for image processing;
A computer-readable storage medium that stores an image processing program that executes an image processing program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022033693A JP2023128978A (en) | 2022-03-04 | 2022-03-04 | Image processing device, image processing method, image processing program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022033693A JP2023128978A (en) | 2022-03-04 | 2022-03-04 | Image processing device, image processing method, image processing program, and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023128978A true JP2023128978A (en) | 2023-09-14 |
Family
ID=87972631
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022033693A Pending JP2023128978A (en) | 2022-03-04 | 2022-03-04 | Image processing device, image processing method, image processing program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023128978A (en) |
-
2022
- 2022-03-04 JP JP2022033693A patent/JP2023128978A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10791267B2 (en) | Service system, information processing apparatus, and service providing method | |
US11889194B2 (en) | Service system, information processing apparatus, and service providing method | |
US9880010B2 (en) | Method of and arrangement for mapping range sensor data on image sensor data | |
US8103126B2 (en) | Information presentation apparatus, information presentation method, imaging apparatus, and computer program | |
CN108932051B (en) | Augmented reality image processing method, apparatus and storage medium | |
US8571354B2 (en) | Method of and arrangement for blurring an image | |
JP4969053B2 (en) | Portable terminal device and display method | |
JP2009176262A (en) | Method and system for mapping photography, program, and recording medium | |
JP2014199640A (en) | Shadow removal method and device of aerial or satellite photograph | |
US8428341B2 (en) | Apparatus for calculating 3D spatial coordinates of digital images and method thereof | |
US10102675B2 (en) | Method and technical equipment for determining a pose of a device | |
JP5262232B2 (en) | Image orientation display method and apparatus, and photograph | |
KR102168110B1 (en) | Camera system | |
CN109034214B (en) | Method and apparatus for generating a mark | |
JP2023128978A (en) | Image processing device, image processing method, image processing program, and recording medium | |
JP2023128983A (en) | Image processing device, image processing method, image processing program, and recording medium | |
CN109115238B (en) | Map display method, device and equipment | |
JP5811534B2 (en) | Image display control server | |
JP2003244488A (en) | Image information adding apparatus and system | |
JP2003051021A (en) | Information updating device, information acquisition device and information update processing device | |
US9245192B2 (en) | Ad collateral detection | |
US20240087157A1 (en) | Image processing method, recording medium, image processing apparatus, and image processing system | |
KR101205961B1 (en) | Apparatus for caculating 3D spatial coordinates of digital images | |
JP2023025053A (en) | Determination device, determination method, and determination program | |
KR20170102083A (en) | System and method for providing contents |