JP2013092855A - Image processing apparatus and program - Google Patents

Image processing apparatus and program Download PDF

Info

Publication number
JP2013092855A
JP2013092855A JP2011233623A JP2011233623A JP2013092855A JP 2013092855 A JP2013092855 A JP 2013092855A JP 2011233623 A JP2011233623 A JP 2011233623A JP 2011233623 A JP2011233623 A JP 2011233623A JP 2013092855 A JP2013092855 A JP 2013092855A
Authority
JP
Japan
Prior art keywords
image
area
privacy
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011233623A
Other languages
Japanese (ja)
Inventor
Yoichiro Sako
曜一郎 佐古
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011233623A priority Critical patent/JP2013092855A/en
Priority to US14/346,873 priority patent/US20140247272A1/en
Priority to EP12844138.3A priority patent/EP2771865A4/en
Priority to CN201280050942.XA priority patent/CN103890810B/en
Priority to PCT/JP2012/005656 priority patent/WO2013061505A1/en
Publication of JP2013092855A publication Critical patent/JP2013092855A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing apparatus and program for achieving both the protection of a privacy region and its effective utilization in a picked-up image.SOLUTION: An information processing apparatus includes a region identifying unit to identify a privacy region in a picked-up image, and an image processing unit to insert, into the privacy region of the picked-up image, an image having different information from the image in the privacy region.

Description

本開示は、画像処理装置およびプログラムに関する。   The present disclosure relates to an image processing device and a program.

近日、デジタルスチルカメラやビデオカメラなどの撮像装置によって取得された撮像画像の加工、編集処理が広く行われている。例えば、特許文献1には、背景シーンおよび前景シーンを組み合わせて複合ビデオイメージを得る際に、背景シーン内に存在する所定のパターンを、前景シーン内に存在する代替パターンで置き換える技術が開示されている。   In recent years, processing and editing processing of captured images acquired by an imaging apparatus such as a digital still camera or a video camera have been widely performed. For example, Patent Document 1 discloses a technique for replacing a predetermined pattern existing in a background scene with an alternative pattern existing in the foreground scene when a composite video image is obtained by combining the background scene and the foreground scene. Yes.

また、特許文献2には、コンピュータゲームの看板や、TV放送されるスポーツスタジアムの看板なとの広告内容を変更するシステムが開示されている。また、特許文献3には、撮像画像から看板の部分などの特定の領域を検出し、その特定の領域に例えば他の広告内容を示す画像を挿入する技術が開示されている。   Patent Document 2 discloses a system for changing advertisement contents such as a signboard of a computer game or a signboard of a sports stadium broadcasted on TV. Patent Document 3 discloses a technique for detecting a specific area such as a signboard portion from a captured image and inserting an image showing other advertisement contents into the specific area, for example.

また、情報通信技術の発展に伴い、撮像画像を不特定多数の人物にインターネットを介して容易に提供することが可能となっている。このため、プライバシーの保護のために、撮像画像中でプライバシーに関わる領域は、モザイク処理や黒塗り処理などの特殊加工が施されることが多い。また、テレビジョン放送されるコンテンツや、光ディスクに記録されたコンテンツでも、不適切な画像や秘匿情報などに特殊加工が施されることは周知の通りである。なお、モザイク処理や黒塗り処理などの特殊加工については例えば特許文献4に開示されている。   Further, with the development of information communication technology, it is possible to easily provide captured images to an unspecified number of people via the Internet. For this reason, in order to protect privacy, special processing such as mosaic processing or black painting processing is often applied to a region related to privacy in a captured image. As is well known, special processing is applied to inappropriate images, confidential information, and the like, even for content broadcast on television or content recorded on an optical disc. Special processing such as mosaic processing and black painting processing is disclosed in, for example, Patent Document 4.

特表平06−510893号公報Japanese Translation of National Publication No. 06-510893 特開2002−15223号公報JP 2002-15223 A 特開2008−227813号公報JP 2008-227813 A 特開2009−194687号公報JP 2009-194687 A

しかし、モザイク処理や黒塗り処理などの特殊加工によりプライバシー領域を保護することはできても、特殊加工が施されたプライバシー領域は、情報が失われていたり、劣化していたりするので、特殊加工が施されたプライバシー領域からは視覚的な情報がほとんど得られない。   However, even if the privacy area can be protected by special processing such as mosaic processing or black painting processing, the information is lost or deteriorated in the specially processed privacy area. Visual information can hardly be obtained from the privacy area where is given.

そこで、本開示では、撮像画像中のプライバシー領域の保護および有効活用を同時に実現することが可能な、新規かつ改良された画像処理装置およびプログラムを提案する。   Therefore, the present disclosure proposes a new and improved image processing apparatus and program that can simultaneously realize protection and effective utilization of a privacy area in a captured image.

本開示によれば、撮像画像からプライバシー領域を特定する領域特定部と、前記撮像画像の前記プライバシー領域内に、前記プライバシー領域内の画像と異なる情報を有する画像を挿入する画像処理部と、を備える画像処理装置が提供される。   According to the present disclosure, an area specifying unit that specifies a privacy area from a captured image, and an image processing unit that inserts an image having information different from the image in the privacy area into the privacy area of the captured image. An image processing apparatus is provided.

また、本開示によれば、コンピュータを、撮像画像からプライバシー領域を特定する領域特定部と、前記撮像画像の前記プライバシー領域内に、前記プライバシー領域内の画像と異なる情報を有する画像を挿入する画像処理部と、として機能させるためのプログラムが提供される。   Further, according to the present disclosure, the computer inserts an area specifying unit that specifies a privacy area from a captured image, and an image having information different from the image in the privacy area into the privacy area of the captured image. A processing unit and a program for functioning as the processing unit are provided.

以上説明したように本開示によれば、撮像画像中のプライバシー領域の保護および有効活用を同時に実現することが可能である。   As described above, according to the present disclosure, it is possible to simultaneously protect and effectively use a privacy area in a captured image.

本開示の実施形態による画像処理システムの構成を示した説明図である。It is explanatory drawing which showed the structure of the image processing system by embodiment of this indication. 撮像画像の具体例を示した説明図である。It is explanatory drawing which showed the specific example of the captured image. 第1の実施形態による携帯端末20−1の構成を示した機能ブロック図である。It is the functional block diagram which showed the structure of the portable terminal 20-1 by 1st Embodiment. 画像処理部252による画像処理後の撮像画像の具体例を示した説明図である。It is explanatory drawing which showed the specific example of the captured image after the image process by the image process part. 第1の実施形態による携帯端末20−1の動作を示したフローチャートである。It is the flowchart which showed operation | movement of the portable terminal 20-1 by 1st Embodiment. 第1の実施形態の変形例を示したシーケンス図である。It is the sequence diagram which showed the modification of 1st Embodiment. 第1の実施形態による携帯端末20−2の構成を示した機能ブロック図である。It is the functional block diagram which showed the structure of the portable terminal 20-2 by 1st Embodiment. 局所領域を含む撮像画像の具体例を示した説明図である。It is explanatory drawing which showed the specific example of the captured image containing a local area | region. 局所領域を含む撮像画像の他の具体例を示した説明図である。It is explanatory drawing which showed the other specific example of the captured image containing a local area | region. 局所領域を含む撮像画像の他の具体例を示した説明図である。It is explanatory drawing which showed the other specific example of the captured image containing a local area | region. 局所領域を含む撮像画像の他の具体例を示した説明図である。It is explanatory drawing which showed the other specific example of the captured image containing a local area | region. 画像処理部254による画像処理後の撮像画像の具体例を示した説明図である。It is explanatory drawing which showed the specific example of the captured image after the image process by the image process part 254. FIG. 画像処理部254による画像処理後の撮像画像の他の具体例を示した説明図である。It is explanatory drawing which showed the other specific example of the captured image after the image process by the image process part. 第2の実施形態による携帯端末20−2の動作を示したフローチャートである。It is the flowchart which showed operation | movement of the portable terminal 20-2 by 2nd Embodiment. コード情報が挿入された撮像画像の具体例を示す説明図である。It is explanatory drawing which shows the specific example of the captured image in which code information was inserted. コード情報が挿入された撮像画像の具体例を示す説明図である。It is explanatory drawing which shows the specific example of the captured image in which code information was inserted. 携帯端末20のハードウェア構成を示した説明図である。3 is an explanatory diagram showing a hardware configuration of a mobile terminal 20. FIG.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。   Hereinafter, preferred embodiments of the present disclosure will be described in detail with reference to the accompanying drawings. In addition, in this specification and drawing, about the component which has the substantially same function structure, duplication description is abbreviate | omitted by attaching | subjecting the same code | symbol.

また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。   In the present specification and drawings, a plurality of components having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numeral. However, when it is not necessary to particularly distinguish each of a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are given.

また、以下に示す項目順序に従って本開示を説明する。
1.画像処理システムの構成
2.用語の整理
3.第1の実施形態
3−1.第1の実施形態の背景
3−2.第1の実施形態による携帯端末の構成
3−3.第1の実施形態による携帯端末の動作
3−4.変形例
4.第2の実施形態
4−1.第2の実施形態の背景
4−2.第2の実施形態による携帯端末の構成
4−3.第2の実施形態による携帯端末の動作
5.第1の実施形態および第2の実施形態の補足
6.ハードウェア構成
7.むすび
Moreover, this indication is demonstrated according to the item order shown below.
1. 1. Configuration of image processing system 2. Organize terms First embodiment 3-1. Background of the first embodiment 3-2. Configuration of portable terminal according to first embodiment 3-3. Operation of portable terminal according to first embodiment 3-4. Modified example 4. Second embodiment 4-1. Background of the second embodiment 4-2. Configuration of portable terminal according to second embodiment 4-3. 4. Operation of portable terminal according to second embodiment 5. Supplement to the first embodiment and the second embodiment Hardware configuration Conclusion

<1.画像処理システムの構成>
本開示による技術は、一例として「2.第1の実施形態」〜「4.第3の実施形態」において詳細に説明するように、多様な形態で実施され得る。以下では、まず、各実施形態において共通する画像処理システムの基本構成について図1を参照して説明する。
<1. Configuration of image processing system>
The technology according to the present disclosure can be implemented in various forms as will be described in detail in “2. First Embodiment” to “4. Third Embodiment” as an example. In the following, first, a basic configuration of an image processing system common to the respective embodiments will be described with reference to FIG.

図1は、本開示の実施形態による画像処理システムの構成を示した説明図である。図1に示したように、本開示の実施形態による画像処理システムは、画像提供サーバ10、携帯端末20、人物認識サーバ30およびSNSサーバ40を備える。   FIG. 1 is an explanatory diagram illustrating a configuration of an image processing system according to an embodiment of the present disclosure. As illustrated in FIG. 1, the image processing system according to the embodiment of the present disclosure includes an image providing server 10, a mobile terminal 20, a person recognition server 30, and an SNS server 40.

これらの画像提供サーバ10、携帯端末20、人物認識サーバ30およびSNSサーバ40は、図1に示したように、通信網12を介して接続される。なお、通信網12は、通信網12に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網12は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網12は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。   The image providing server 10, the mobile terminal 20, the person recognition server 30, and the SNS server 40 are connected via the communication network 12 as shown in FIG. The communication network 12 is a wired or wireless transmission path for information transmitted from a device connected to the communication network 12. For example, the communication network 12 may include a public line network such as the Internet, a telephone line network, a satellite communication network, various local area networks (LANs) including the Ethernet (registered trademark), a wide area network (WAN), and the like. . Further, the communication network 12 may include a dedicated line network such as an IP-VPN (Internet Protocol-Virtual Private Network).

画像提供サーバ10は、撮像装置によって取得された撮像画像を提供する。例えば、画像提供サーバ10は、地図上の多地点における撮像画像を記憶しており、携帯端末20からの要求に応じ、記憶している撮像画像を携帯端末20に提供してもよい。または、画像提供サーバ10は、個人または業者のWebページを管理しており、携帯端末20からの要求に応じて撮像画像を含むWebページを携帯端末20に提供してもよい。   The image providing server 10 provides a captured image acquired by the imaging device. For example, the image providing server 10 may store captured images at multiple points on the map, and may provide the stored captured images to the mobile terminal 20 in response to a request from the mobile terminal 20. Alternatively, the image providing server 10 may manage an individual or business operator's Web page and provide the mobile terminal 20 with a Web page including a captured image in response to a request from the mobile terminal 20.

携帯端末20は、撮像画像を取得し、取得した撮像画像を処理する画像処理装置である。この携帯端末20は、多様な方法により撮像画像を取得することができる。例えば、携帯端末20は、図1に示した画像提供サーバ10から撮像画像を取得してもよいし、携帯端末20が有する撮像機能により撮像画像を取得してもよいし、記録媒体の再生により撮像画像を取得してもよい。さらに、携帯端末20は、放送を受信することにより撮像画像を取得してもよい。   The portable terminal 20 is an image processing device that acquires a captured image and processes the acquired captured image. The portable terminal 20 can acquire a captured image by various methods. For example, the mobile terminal 20 may acquire a captured image from the image providing server 10 illustrated in FIG. 1, may acquire a captured image using the imaging function of the mobile terminal 20, or may reproduce the recording medium. A captured image may be acquired. Furthermore, the mobile terminal 20 may acquire a captured image by receiving a broadcast.

なお、図1においては、携帯端末20の一例としてスマートフォンを示しているが、携帯端末20はスマートフォンに限定されない。例えば、携帯端末20は、携帯電話、PHS(Personal Handyphone System)、携帯用音楽再生装置、携帯用映像処理装置、携帯用ゲーム機器などであってもよい。さらに、携帯端末20は本開示による画像処理装置の一例に過ぎない。本開示による画像処理装置の機能は、PC(Personal Computer)、家庭用映像処理装置(DVDレコーダ、ビデオデッキなど)、PDA(Personal Digital Assistants)、家庭用ゲーム機器、家電機器などの情報処理装置によっても実現可能である。さらに、画像提供側である画像提供サーバ10を本開示による画像処理装置として機能させることも可能である。   In addition, in FIG. 1, although the smart phone is shown as an example of the portable terminal 20, the portable terminal 20 is not limited to a smart phone. For example, the mobile terminal 20 may be a mobile phone, a PHS (Personal Handyphone System), a portable music playback device, a portable video processing device, a portable game device, or the like. Furthermore, the portable terminal 20 is only an example of an image processing device according to the present disclosure. The functions of the image processing apparatus according to the present disclosure are performed by an information processing apparatus such as a PC (Personal Computer), a home video processing apparatus (DVD recorder, VCR, etc.), a PDA (Personal Digital Assistant), a home game machine, and a home appliance. Is also feasible. Furthermore, the image providing server 10 on the image providing side can also function as an image processing apparatus according to the present disclosure.

人物認識サーバ30は、人物の顔画像を画像解析することにより、当該人物が誰かを認識する。例えば、人物認識サーバ30は、人物ごとの顔特徴量を記憶するデータベースを有し、顔パターンマッチングにより撮像画像から顔画像を検出し、顔画像の特徴量を解析し、解析した特徴量に対応する人物をデータベースから検索することにより人物認識を行う。   The person recognition server 30 recognizes who the person is by analyzing the face image of the person. For example, the person recognition server 30 has a database for storing face feature amounts for each person, detects a face image from a captured image by face pattern matching, analyzes the feature amount of the face image, and corresponds to the analyzed feature amount Person recognition is performed by searching the database for the person to perform.

SNS(Social Networking Service)サーバ40は、人と人とのつながりを支援するサービスを提供する。例えば、SNSサーバ40は、各ユーザのWebページを管理する。ユーザは、自身のWebページにおいて、年齢、性別、趣味、出身、居住地域などのプロフィール情報や、日記(ブログ)を公開することにより、新たな人間関係を構築することが可能となる。   An SNS (Social Networking Service) server 40 provides a service that supports a connection between people. For example, the SNS server 40 manages each user's Web page. A user can construct a new human relationship by publishing his / her profile information such as age, sex, hobby, origin, residence area, and diary (blog) on his Web page.

以上、本開示による画像処理システムの基本構成を説明した。続いて、本実施形態の説明において用いられる用語について整理した後に、本開示の各実施形態について詳細に説明する。   The basic configuration of the image processing system according to the present disclosure has been described above. Subsequently, after organizing terms used in the description of the present embodiment, each embodiment of the present disclosure will be described in detail.

<2.用語の整理>
以下、本実施形態の説明において用いられる用語について説明する。ただし、下記に示す内容は各用語の意味の一例に過ぎず、本願においては、下記に示す内容と異なる意味で各用語を用いる場合もあることに留意されたい。
<2. Terminology>
Hereinafter, terms used in the description of the present embodiment will be described. However, it should be noted that the content shown below is merely an example of the meaning of each term, and in this application, each term may be used with a meaning different from the content shown below.

(プライバシー/プライバシー領域)
プライバシーは、個人の私生活、私事に関する事項である。また、プライバシー領域は、撮像画像中で、プライバシーに関わる領域である。以下、図2を参照し、プライバシーおよびプライバシー領域についてより具体的に説明する。
(Privacy / Privacy Area)
Privacy is a matter related to personal life and private matters. The privacy area is an area related to privacy in the captured image. Hereinafter, with reference to FIG. 2, privacy and a privacy area | region are demonstrated more concretely.

図2は、撮像画像の具体例を示した説明図である。図2に示した撮像画像には、車両51、家52および53、人物54が含まれる。同時に、この撮像画像には、多くのプライバシーおよびプライバシー領域が含まれる。   FIG. 2 is an explanatory diagram showing a specific example of a captured image. The captured image shown in FIG. 2 includes a vehicle 51, houses 52 and 53, and a person 54. At the same time, this captured image includes many privacy and privacy regions.

例えば、車両51はナンバープレート61によって識別されるので、車両51をナンバープレート61と共に含む撮像画像は、車両51の利用者がこの撮像画像の撮像地点に存在したというプライバシーを示す。このため、ナンバープレート61は、個人の私生活、私事を示すプライバシーに関わる領域であるので、プライバシー領域に該当する。なお、図2においては車両51として4輪車を示しているが、車両51はオートバイや大型車などであってもよい。   For example, since the vehicle 51 is identified by the license plate 61, the captured image including the vehicle 51 together with the license plate 61 indicates privacy that the user of the vehicle 51 was present at the imaging point of the captured image. For this reason, the license plate 61 corresponds to a privacy area because it is an area related to privacy indicating personal private life and private matters. In FIG. 2, a four-wheeled vehicle is shown as the vehicle 51, but the vehicle 51 may be a motorcycle, a large vehicle, or the like.

また、図2に示したように、家52のベランダに干された洗濯物62を含む撮像画像は、家52の住人が着用する衣服というプライバシーを示す。このため、洗濯物62は、個人の私生活、私事を示すプライバシーに関わる領域であるので、プライバシー領域に該当する。   In addition, as shown in FIG. 2, the captured image including the laundry 62 dried on the veranda of the house 52 indicates the privacy of clothes worn by the residents of the house 52. For this reason, since the laundry 62 is an area related to privacy indicating personal private life and private matters, the laundry 62 corresponds to a privacy area.

また、図2に示したように、家53の表札63を含む撮像画像は、表札63の示す人物が家53に住んでいるというプライバシーを示す。このため、表札63は、個人の私生活、私事を示すプライバシーに関わる領域であるので、プライバシー領域に該当する。   As shown in FIG. 2, the captured image including the nameplate 63 of the house 53 shows privacy that the person indicated by the nameplate 63 lives in the house 53. For this reason, the nameplate 63 is an area related to privacy indicating personal private life and private matters, and therefore corresponds to the privacy area.

また、顔により人物が認識され得るので、図2に示したように、人物54を顔64と共に含む撮像画像は、人物54がこの撮像画像の撮像地点に存在したというプライバシーを示す。このため、顔64は、個人の私生活、私事を示すプライバシーに関わる領域であるので、プライバシー領域に該当する。   Further, since a person can be recognized by a face, as shown in FIG. 2, the captured image including the person 54 together with the face 64 indicates privacy that the person 54 exists at the imaging point of the captured image. For this reason, the face 64 corresponds to a privacy area because it is an area related to privacy indicating personal private life and private matters.

(特殊加工)
撮像画像の一部を構成する局所領域から視覚的な情報量を制限するための画像処理である。特殊加工の一例としては、モザイク処理、ぼかし処理、および塗りつぶし処理などが挙げられる。なお、このような特殊加工は、人物の顔や車両のナンバープレートのようなプライバシー領域に対して施される場合も多い。このため、特殊加工が施された局所領域をプライバシー領域として扱うことも可能である。
(Special processing)
This is image processing for limiting the amount of visual information from a local area that constitutes a part of a captured image. Examples of special processing include mosaic processing, blurring processing, and painting processing. Such special processing is often applied to a privacy area such as a human face or a vehicle license plate. For this reason, it is also possible to treat a local area that has undergone special processing as a privacy area.

<3.第1の実施形態>
以上、本実施形態の説明において用いられる用語について説明した。続いて、本開示の第1の実施形態について詳細に説明する。
<3. First Embodiment>
The terms used in the description of the present embodiment have been described above. Subsequently, the first embodiment of the present disclosure will be described in detail.

[3−1.第1の実施形態の背景]
近日、情報通信技術の発展に伴い、撮像画像を不特定多数の人物に例えば通信網12を介して容易に提供することが可能となっている。このため、プライバシーの保護のために、撮像画像中のプライバシー領域には、モザイク処理や黒塗り処理などの特殊加工が施されることが多い。
[3-1. Background of First Embodiment]
With the development of information communication technology in the near future, it is possible to easily provide captured images to an unspecified number of people via, for example, the communication network 12. For this reason, in order to protect privacy, special processing such as mosaic processing or black painting processing is often applied to the privacy region in the captured image.

しかし、モザイク処理や黒塗り処理などの特殊加工によりプライバシー領域を保護することはできても、特殊加工が施されたプライバシー領域は、情報が失われていたり、劣化していたりするので、特殊加工が施されたプライバシー領域からは視覚的な情報がほとんど得られない。   However, even if the privacy area can be protected by special processing such as mosaic processing or black painting processing, the information is lost or deteriorated in the specially processed privacy area. Visual information can hardly be obtained from the privacy area where is given.

そこで、上記事情を一着眼点にして本開示の第1の実施形態を創作するに至った。本開示の第1の実施形態によれば、撮像画像中のプライバシー領域の保護および有効活用を同時に実現することが可能である。以下、このような本開示の第1の実施形態について詳細に説明する。   Therefore, the first embodiment of the present disclosure has been created by focusing on the above circumstances. According to the first embodiment of the present disclosure, it is possible to simultaneously realize protection and effective utilization of a privacy area in a captured image. Hereinafter, the first embodiment of the present disclosure will be described in detail.

[3−2.第1の実施形態による携帯端末の構成]
図3は、第1の実施形態による携帯端末20−1の構成を示した機能ブロック図である。図3に示したように、第1の実施形態による携帯端末20−1は、システムコントローラ220と、撮像部224と、通信部228と、ストレージ部232と、操作入力部236と、プライバシー領域特定部240と、挿入領域設定部244と、画像取得部248と、画像処理部252と、表示制御部256と、表示部260と、を備える。
[3-2. Configuration of portable terminal according to first embodiment]
FIG. 3 is a functional block diagram showing the configuration of the portable terminal 20-1 according to the first embodiment. As illustrated in FIG. 3, the mobile terminal 20-1 according to the first embodiment includes a system controller 220, an imaging unit 224, a communication unit 228, a storage unit 232, an operation input unit 236, and a privacy area specification. Unit 240, insertion region setting unit 244, image acquisition unit 248, image processing unit 252, display control unit 256, and display unit 260.

(システムコントローラ)
システムコントローラ220は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、およびRAM(Random Access Memory)などから構成され、携帯端末20−1の動作全般を制御する。なお、図3においては、プライバシー領域特定部240、挿入領域設定部244、画像処理部252、および表示制御部256などの機能ブロックをシステムコントローラ220と別個に示しているが、プライバシー領域特定部240、挿入領域設定部244、画像処理部252、および表示制御部256などの機能はシステムコントローラ220によって実現されてもよい。
(System controller)
The system controller 220 includes, for example, a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and the like, and controls the overall operation of the mobile terminal 20-1. In FIG. 3, functional blocks such as the privacy area specifying unit 240, the insertion area setting unit 244, the image processing unit 252, and the display control unit 256 are shown separately from the system controller 220. Functions such as the insertion area setting unit 244, the image processing unit 252, and the display control unit 256 may be realized by the system controller 220.

(撮像部)
撮像部224は、被写体を撮像して撮像画像を取得する。具体的には、撮像部224は、撮影レンズおよびズームレンズなどの撮影光学系、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像信号処理部を備える。
(Imaging part)
The imaging unit 224 images a subject and acquires a captured image. Specifically, the imaging unit 224 includes an imaging optical system such as an imaging lens and a zoom lens, an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and an imaging signal processing unit.

撮影光学系は、被写体から発せられる光を集光して、撮像素子の撮像面に被写体像を形成する。撮像素子は、撮影光学系によって形成された被写体像を電気的な画像信号に変換する。撮像信号処理部は、撮像素子によって得られる画像信号に対するゲイン調整や波形整形を行うサンプルホールド/AGC(Automatic Gain Control)回路や、ビデオA/Dコンバータを備え、デジタルデータとしての撮像画像を得る。また、撮像信号処理部は、撮像画像データに対してホワイトバランス処理、輝度処理、色信号処理、ぶれ補正処理などを行う。   The photographing optical system collects light emitted from the subject and forms a subject image on the imaging surface of the imaging element. The image sensor converts a subject image formed by the photographing optical system into an electrical image signal. The imaging signal processing unit includes a sample hold / AGC (Automatic Gain Control) circuit that performs gain adjustment and waveform shaping on an image signal obtained by the imaging device, and a video A / D converter, and obtains a captured image as digital data. In addition, the imaging signal processing unit performs white balance processing, luminance processing, color signal processing, blur correction processing, and the like on the captured image data.

このような撮像部224は、システムコントローラ220の制御に従い、取得した撮像画像を通信部228、ストレージ部232、プライバシー領域特定部240、または表示制御部256へ供給する。なお、撮像部224は、システムコントローラ220の指示に基づいて、撮像動作のオン/オフ制御、撮像光学系のズームレンズ、フォーカスレンズの駆動制御、撮像素子部の感度やフレームレートの制御、撮像信号処理部の各処理のパラメータ制御や実行処理の設定などを行う撮像制御部としての機能を包含する。   Such an imaging unit 224 supplies the acquired captured image to the communication unit 228, the storage unit 232, the privacy region specifying unit 240, or the display control unit 256 under the control of the system controller 220. The imaging unit 224 controls on / off of an imaging operation, drive control of a zoom lens and a focus lens of an imaging optical system, control of sensitivity and a frame rate of an imaging element unit, an imaging signal based on an instruction from the system controller 220. It includes a function as an imaging control unit that performs parameter control of each process of the processing unit, setting of execution processing, and the like.

(通信部)
通信部228は、外部機器とのインタフェースであって、外部機器と無線または有線により通信する。例えば、通信部228は、通信網12を介して、画像提供サーバ10、人物認識サーバ30およびSNSサーバなどと通信することはできる。なお、通信部228の通信方式としては、例えば無線LAN(Local Area Network)やLTE(Long Term Evolution)などが挙げられる。
(Communication Department)
The communication unit 228 is an interface with an external device, and communicates with the external device wirelessly or by wire. For example, the communication unit 228 can communicate with the image providing server 10, the person recognition server 30, the SNS server, and the like via the communication network 12. Examples of the communication method of the communication unit 228 include a wireless LAN (Local Area Network) and LTE (Long Term Evolution).

(ストレージ部)
ストレージ部232は、各種データの保存に用いられる。例えば、ストレージ部232は、本実施形態による処理対象である撮像画像、撮像画像に挿入するための挿入画像、および後述する画像処理部252による処理後の画像を保存する。このストレージ部232は、システムコントローラ220の制御に従い、各種データの記録/保存や、読出しなどを行う。
(Storage section)
The storage unit 232 is used for storing various data. For example, the storage unit 232 stores a captured image that is a processing target according to the present embodiment, an insertion image to be inserted into the captured image, and an image that has been processed by the image processing unit 252 described below. The storage unit 232 performs recording / saving and reading of various data according to the control of the system controller 220.

なお、ストレージ部232は、不揮発性メモリ、磁気ディスク、光ディスク、およびMO(Magneto Optical)ディスクなどの記憶媒体であってもよい。不揮発性メモリとしては、例えば、フラッシュメモリ、SDカード、マイクロSDカード、USBメモリ、EEPROM(Electrically Erasable Programmable Read−Only Memory)、EPROM(Erasable Programmable ROM)があげられる。また、磁気ディスクとしては、ハードディスクおよび円盤型磁性体ディスクなどがあげられる。また、光ディスクとしては、CD(Compact Disc)、DVD(Digital Versatile Disc)およびBD(Blu−Ray Disc(登録商標))などがあげられる。   The storage unit 232 may be a storage medium such as a nonvolatile memory, a magnetic disk, an optical disk, and an MO (Magneto Optical) disk. Examples of the nonvolatile memory include a flash memory, an SD card, a micro SD card, a USB memory, an EEPROM (Electrically Erasable Programmable Programmable Memory), and an EPROM (Erasable Programmable ROM). Examples of the magnetic disk include a hard disk and a disk type magnetic disk. Examples of the optical disk include a CD (Compact Disc), a DVD (Digital Versatile Disc), and a BD (Blu-Ray Disc (registered trademark)).

(操作入力部)
操作入力部236は、ユーザが操作入力を行うための構成である。操作入力部236は、ユーザ操作に応じた信号を生成し、システムコントローラ220に供給する。この操作入力部236は、例えば、タッチパネル、ボタン、スイッチ、レバー、ダイヤルなどの操作子や、リモートコントローラが発生する赤外線信号用の受光部あるいは無線信号の受信部などであってもよい。さらに、操作入力部236は、加速度センサ、角速度センサ、振動センサ、圧力センサなどのセンシングデバイスであってもよい。
(Operation input section)
The operation input unit 236 is a configuration for a user to input an operation. The operation input unit 236 generates a signal corresponding to the user operation and supplies it to the system controller 220. The operation input unit 236 may be, for example, an operator such as a touch panel, a button, a switch, a lever, or a dial, a light receiving unit for infrared signals generated by a remote controller, or a receiving unit for radio signals. Furthermore, the operation input unit 236 may be a sensing device such as an acceleration sensor, an angular velocity sensor, a vibration sensor, or a pressure sensor.

(プライバシー領域特定部)
プライバシー領域特定部240は、撮像画像からプライバシー領域を特定する。なお、撮像画像は、撮像部224によって取得された画像、ストレージ部232から読み出し/再生された画像、または通信部228を介して画像取得部248により取得された画像であってもよい。
(Privacy domain specific part)
The privacy area specifying unit 240 specifies the privacy area from the captured image. The captured image may be an image acquired by the imaging unit 224, an image read / reproduced from the storage unit 232, or an image acquired by the image acquisition unit 248 via the communication unit 228.

また、「2.用語の整理」において説明したように、多様な対象がプライバシー領域として想定される。このため、プライバシー領域特定部240は、対象ごとに異なる手法でプライバシー領域を特定する。   In addition, as described in “2. Arrangement of terms”, various objects are assumed as privacy areas. For this reason, the privacy area | region specific part 240 specifies a privacy area | region with a different method for every object.

例えば、プライバシー領域特定部240は、顔パターンマッチングを用いる既存の顔検出手法により撮像画像から顔を検出し、検出した顔を含む領域をプライバシー領域として特定してもよい。   For example, the privacy area specifying unit 240 may detect a face from a captured image by an existing face detection method using face pattern matching, and specify an area including the detected face as a privacy area.

また、プライバシー領域特定部240は、撮像画像内で、車両のナンバープレートや家の表札のように、文字が含まれる矩形領域を検出し、検出した矩形領域をプライバシー領域として特定してもよい。例えば、プライバシー領域特定部240は、撮像画像内で輪郭線が長方形、台形、および平行四辺形であるような矩形領域を検出する。さらに、プライバシー領域特定部240は、矩形領域を検出した場合、矩形領域の内側に文字が含まれるか否かを判断する。そして、プライバシー領域特定部240は、矩形領域の内側に文字が含まれる場合、当該矩形領域をプライバシー領域として特定する。   Moreover, the privacy area | region specific | specification part 240 may detect the rectangular area | region where a character is contained like a license plate of a vehicle or a nameplate of a house in a captured image, and may specify the detected rectangular area | region as a privacy area | region. For example, the privacy area specifying unit 240 detects a rectangular area whose outline is a rectangle, a trapezoid, and a parallelogram in the captured image. Furthermore, when the rectangular area is detected, the privacy area specifying unit 240 determines whether or not a character is included inside the rectangular area. Then, when a character is included inside the rectangular area, the privacy area specifying unit 240 specifies the rectangular area as the privacy area.

また、プライバシー領域特定部240は、撮像画像内で、干された洗濯物が含まれる領域を検出し、検出した領域をプライバシー領域として特定してもよい。ここで、洗濯物の衣服は、人物によって着用されていない。また、洗濯物の衣服は複数並べて干されることが多い。そこで、プライバシー領域特定部240は、撮像画像から衣服を検出し、当該衣服が人物によって着用されておらず、当該衣服に隣接する衣服が存在し、隣接する衣服も人物によって着用されていない場合に、これら衣服を含む領域をプライバシー領域として特定してもよい。   Moreover, the privacy area | region specific part 240 may detect the area | region where the dried laundry is contained in a captured image, and may specify the detected area | region as a privacy area | region. Here, the clothes of the laundry are not worn by a person. In addition, a plurality of laundry clothes are often dried side by side. Therefore, the privacy region specifying unit 240 detects clothes from the captured image, and the clothes are not worn by a person, there are clothes adjacent to the clothes, and the adjacent clothes are not worn by the person. The area including these clothes may be specified as the privacy area.

(挿入領域設定部)
挿入領域設定部244は、プライバシー領域特定部240により特定されたプライバシー領域を、後述する挿入画像を挿入するための挿入領域に設定する。なお、挿入領域設定部244は、プライバシー領域の全域または一部の領域を挿入領域に設定してもよい。
(Insertion area setting part)
The insertion area setting unit 244 sets the privacy area specified by the privacy area specifying unit 240 as an insertion area for inserting an insertion image to be described later. The insertion area setting unit 244 may set the entire privacy area or a part of the privacy area as the insertion area.

(画像取得部)
画像取得部248は、本実施形態による画像処理の対象とする撮像画像、および撮像画像に挿入するための挿入画像など画像を取得する。例えば、画像取得部248は、通信部228を介して画像提供サーバ10から画像を取得してもよいし、ストレージ部232からの再生/読出しにより画像を取得してもよい。
(Image acquisition unit)
The image acquisition unit 248 acquires an image such as a captured image to be subjected to image processing according to the present embodiment and an inserted image to be inserted into the captured image. For example, the image acquisition unit 248 may acquire an image from the image providing server 10 via the communication unit 228 or may acquire an image by reproduction / reading from the storage unit 232.

(画像処理部)
画像処理部252は、挿入領域設定部244により設定された撮像画像中の挿入領域に、挿入画像を挿入する。ここで、挿入は、挿入領域内の画像に挿入画像を上書きする処理であってもよいし、挿入領域内の画像を挿入画像と入れ換える処理であってもよい。また、挿入画像は、撮像部224によって取得された画像、ストレージ部232から読み出し/再生された画像、または通信部228を介して画像取得部248により取得された画像であってもよい。画像処理部252は、このような挿入画像を、挿入領域の形状や大きさに合うように加工し、挿入領域に挿入する。
(Image processing unit)
The image processing unit 252 inserts the insertion image into the insertion region in the captured image set by the insertion region setting unit 244. Here, the insertion may be a process of overwriting the inserted image on the image in the insertion area, or may be a process of replacing the image in the insertion area with the inserted image. The inserted image may be an image acquired by the imaging unit 224, an image read / reproduced from the storage unit 232, or an image acquired by the image acquisition unit 248 via the communication unit 228. The image processing unit 252 processes such an insertion image so as to match the shape and size of the insertion area, and inserts it into the insertion area.

また、画像処理部252が挿入画像として用いる画像は、挿入領域(プライバシー領域)内の画像と異なる情報であって、挿入領域内の画像と関連性を有してもよい。   Further, the image used as the insertion image by the image processing unit 252 is information different from the image in the insertion area (privacy area), and may be related to the image in the insertion area.

例えば、挿入領域内の画像がナンバープレートである場合、挿入画像は、例えば、車両のメーカー情報または車種情報、メーカーや製品の広告情報を含んでもよい。また、挿入画像は、車両や車両関連商品、関連パーツの購入サイトへのリンク情報を含んでもよい。この場合、ユーザは、挿入画像を選択することにより携帯端末20−1をリンク先に接続させることが可能である。   For example, when the image in the insertion area is a license plate, the insertion image may include, for example, vehicle manufacturer information or vehicle type information, and manufacturer and product advertisement information. Further, the inserted image may include link information to a purchase site for vehicles, vehicle-related products, and related parts. In this case, the user can connect the portable terminal 20-1 to the link destination by selecting the insertion image.

また、挿入領域内の画像が表札である場合、挿入画像は、例えば、不動産の販売情報、および不動産業者やリハウス業者情報の広告情報を含んでもよい。また、挿入画像は、不動産の購入サイト、または不動産業者およびリハウス業者などのホームページのリンク情報を含んでもよい。   Further, when the image in the insertion area is a nameplate, the insertion image may include, for example, real estate sales information and advertisement information of real estate agent and rehouse agent information. Further, the inserted image may include link information of a real estate purchase site or a home page of a real estate agent and a rehouse agent.

また、挿入領域内の画像が洗濯物である場合、挿入画像は、クリーニング屋の広告情報や、衣料品販売店の広告情報を含んでもよい。また、挿入画像は、クリーニング屋や衣料品販売店のホームページや、衣料品の購入サイトへのリンク情報を含んでもよい。   Further, when the image in the insertion area is a laundry, the insertion image may include advertisement information of a cleaning shop and advertisement information of a clothing store. Further, the inserted image may include link information to a home page of a cleaning shop or a clothing store or a clothing purchase site.

また、挿入領域内の画像が人物の顔である場合、挿入画像は、エステ、眼鏡、およびコンタクトレンズなどの広告情報を含んでもよい。   In addition, when the image in the insertion area is a human face, the insertion image may include advertisement information such as an esthetic, glasses, and contact lenses.

また、挿入領域内の画像が人物の顔である場合、挿入画像は、当該人物に関して公開されている情報であってもよい。例えば、挿入領域内の画像が人物の顔である場合、携帯端末20−1は、人物認識サーバ30に当該人物の認識を要求し、認識された人物に関してSNSサーバ40において公開されている情報を取得してもよい。この場合、人物の年齢および性別などのプロフィール情報を挿入画像として用いることが可能となる。なお、携帯端末20−1が人物認識機能を有する場合には、携帯端末20−1が挿入領域内の顔を有する人物を認識してもよい。   In addition, when the image in the insertion area is a person's face, the insertion image may be information publicly related to the person. For example, when the image in the insertion area is a person's face, the portable terminal 20-1 requests the person recognition server 30 to recognize the person, and uses information published in the SNS server 40 regarding the recognized person. You may get it. In this case, profile information such as the age and sex of the person can be used as the inserted image. When the mobile terminal 20-1 has a person recognition function, the mobile terminal 20-1 may recognize a person having a face in the insertion area.

また、画像処理部252は、当該人物がブログを公開しているWebページのリンク情報を挿入画像に設定してもよい。撮像画像に含まれる人物は、撮像画像の撮像位置に存在したので、撮像位置の周辺に関する事項をブログで公開している可能性がある。例えば、撮像画像の撮像位置が観光スポットや商店街である場合、当該人物は、ブログにおいて観光スポットや商店街に関する感想や意見などを公開している可能性がある。このため、上記のようにWebページのリンク情報を挿入画像に設定することにより、撮像画像の撮像位置の周辺情報を知りたい携帯端末20−1のユーザを支援することが可能となる。   Further, the image processing unit 252 may set the link information of the Web page on which the person publishes the blog as the inserted image. Since the person included in the captured image is present at the imaging position of the captured image, there is a possibility that matters related to the periphery of the captured position are published on the blog. For example, when the imaging position of the captured image is a tourist spot or a shopping street, the person may publish an opinion or opinion on the tourist spot or the shopping street on a blog. For this reason, it becomes possible to assist the user of the portable terminal 20-1 who wants to know the peripheral information of the imaging position of the captured image by setting the link information of the Web page as the insertion image as described above.

なお、上記では、挿入画像の一例として広告情報を説明したが、撮像画像の画像ファイルに撮像位置を示す位置情報が設定されている場合、画像処理部252は、撮像位置の近辺の対象に関する広告情報を優先的に挿入画像として用いてもよい。または、携帯端末20−1が位置推定機能を有する場合、画像処理部252は、携帯端末20−1の現在位置の近辺の対象に関する広告情報を優先的に挿入画像として用いてもよい。かかる構成により、携帯端末20−1のユーザに対する広告情報の訴求効果を高めることが可能である。   In the above description, the advertisement information has been described as an example of the inserted image. However, when position information indicating the imaging position is set in the image file of the captured image, the image processing unit 252 performs the advertisement related to the object near the imaging position. Information may be preferentially used as an insertion image. Alternatively, when the mobile terminal 20-1 has a position estimation function, the image processing unit 252 may preferentially use the advertisement information related to the object in the vicinity of the current position of the mobile terminal 20-1 as the insertion image. With this configuration, it is possible to enhance the advertising information appealing effect for the user of the mobile terminal 20-1.

ここで、図4を参照し、上述した画像処理部252による画像処理後の撮像画像の具体例を説明する。   Here, a specific example of the captured image after the image processing by the image processing unit 252 described above will be described with reference to FIG.

図4は、画像処理部252による画像処理後の撮像画像の具体例を示した説明図である。より詳細には、図4には、図2に示した撮像画像の画像処理部252による画像処理後の状態を示している。図4に示したように、図2に示した撮像画像に含まれるプライバシー領域61〜64内の画像は、挿入画像71〜74に入れ換えられる。   FIG. 4 is an explanatory diagram showing a specific example of a captured image after image processing by the image processing unit 252. More specifically, FIG. 4 shows a state after the image processing by the image processing unit 252 of the captured image shown in FIG. As shown in FIG. 4, the images in the privacy areas 61 to 64 included in the captured image shown in FIG. 2 are replaced with the inserted images 71 to 74.

例えば、プライバシー領域である車両51のナンバープレート61は、図4に示したように、「TOYOHA セール中」という、車両51のメーカーの広告情報を含む挿入画像71に入れ換えられる。   For example, the license plate 61 of the vehicle 51, which is the privacy area, is replaced with an insertion image 71 including the advertisement information of the manufacturer of the vehicle 51 that “TOYOHA sale is in progress”, as shown in FIG. 4.

また、家52の洗濯物62は、図4に示したように、「クリーニングの佐藤 ○○駅前」という、クリーニング屋の広告情報を含む挿入画像72に入れ換えられる。また、家53の表札63は、図4に示したように、「○○駅前 新築物件公開!」という、不動産の販売情報を含む挿入画像73に入れ換えられる。   In addition, as shown in FIG. 4, the laundry 62 in the house 52 is replaced with an insertion image 72 including the cleaning shop advertisement information “cleaning Sato OO station square”. Further, as shown in FIG. 4, the nameplate 63 of the house 53 is replaced with an insertion image 73 including real estate sales information “XX station square new property release!”.

また、人物54の顔64は、図4に示したように、「ブログはここをクリック!」という、Webページへの誘導情報を含む挿入画像74に入れ換えられる。なお、この挿入画像74にはリンク情報が設定されており、ユーザにより挿入画像74が選択された場合、携帯端末20−1はリンク先のWebページへアクセスすることが可能である。なお、画像処理部252は、人物54の顔64を、年齢および性別などのプロフィール情報に応じた擬似顔画像と入れ換えてもよい。かかる構成によれば、画像処理後の撮像画像から、撮像画像の撮像位置付近をどのような人物が通る傾向にあるかを把握することが可能となる。   Further, as shown in FIG. 4, the face 64 of the person 54 is replaced with an insertion image 74 including guidance information to the Web page “Click here for the blog!”. Note that link information is set in the inserted image 74, and when the inserted image 74 is selected by the user, the portable terminal 20-1 can access the linked Web page. Note that the image processing unit 252 may replace the face 64 of the person 54 with a pseudo-face image according to profile information such as age and sex. According to such a configuration, it is possible to grasp what kind of person tends to pass near the imaging position of the captured image from the captured image after image processing.

なお、上述した画像処理部252による画像処理後の撮像画像の用途は特に限定されない。例えば、画像処理後の撮像画像は、表示部260に表示されてもよいし、ストレージ部232に保持されてもよいし、通信部228を介して外部機器に送信されてもよい。   In addition, the use of the captured image after the image processing by the image processing unit 252 described above is not particularly limited. For example, the captured image after image processing may be displayed on the display unit 260, stored in the storage unit 232, or transmitted to an external device via the communication unit 228.

また、同一画像に同一の広告情報が含まれると宣伝効率が悪いので、画像処理部252は、撮像画像に複数のプライバシー領域(挿入領域)が含まれる場合、各プライバシー領域に異なる挿入画像を挿入してもよい。ただし、挿入画像の種類がプライバシー領域の数未満である場合、画像処理部252は、例外的に同一の挿入画像を異なるプライバシー領域に挿入してもよいし、一部のプライバシー領域にモザイク処理や塗りつぶし処理等の特殊加工を施してもよい。   Moreover, since the advertising efficiency is poor when the same advertisement information is included in the same image, the image processing unit 252 inserts a different insertion image in each privacy area when the captured image includes a plurality of privacy areas (insertion areas). May be. However, when the number of types of inserted images is less than the number of privacy areas, the image processing unit 252 may exceptionally insert the same inserted image into different privacy areas, Special processing such as painting may be performed.

(表示制御部)
表示制御部256は、システムコントローラ220の制御に基づいて、表示部260の画素駆動回路を駆動し、表示部260に画像を表示させる。例えば、表示制御部256は、画像処理部252による画像処理後の撮像画像を表示部260に表示させてもよい。なお、表示制御部256は、画像表示のために、例えば輝度レベル調整、色補正、コントラスト調整、シャープネス(輪郭強調)調整などを行うことができる。また画像データの一部を拡大した拡大画像の生成、或いは縮小画像の生成、ソフトフォーカス、輝度反転、画像内の一部のハイライト表示(強調表示)、全体の色の雰囲気の変化などの画像エフェクト処理、撮像画像の分割表示のための画像の分離や合成なども行うことができる。
(Display control unit)
The display control unit 256 drives the pixel drive circuit of the display unit 260 based on the control of the system controller 220 and causes the display unit 260 to display an image. For example, the display control unit 256 may display the captured image after the image processing by the image processing unit 252 on the display unit 260. The display control unit 256 can perform, for example, brightness level adjustment, color correction, contrast adjustment, sharpness (outline emphasis) adjustment, and the like for image display. Also, an image such as enlarged image generation in which a part of the image data is enlarged or reduced image generation, soft focus, luminance inversion, highlight display (highlight display) of a part of the image, change in the overall color atmosphere, etc. It is also possible to perform effect processing, separation and synthesis of images for divided display of captured images.

(表示部)
表示部260は、画素駆動回路を含み、表示制御部256の制御に従って画素駆動回路を駆動して画像を表示する。なお、表示部260は、液晶ディスプレイであってもよいし、有機ELディスプレイであってもよい。
(Display section)
The display unit 260 includes a pixel drive circuit, and drives the pixel drive circuit according to the control of the display control unit 256 to display an image. The display unit 260 may be a liquid crystal display or an organic EL display.

[3−3.第1の実施形態による携帯端末の動作]
以上、第1の実施形態による携帯端末20−1の構成を説明した。続いて、図5を参照し、第1の実施形態による携帯端末20−1の動作を説明する。
[3-3. Operation of portable terminal according to first embodiment]
The configuration of the mobile terminal 20-1 according to the first embodiment has been described above. Next, with reference to FIG. 5, the operation of the mobile terminal 20-1 according to the first embodiment will be described.

図5は、第1の実施形態による携帯端末20−1の動作を示したフローチャートである。図5に示したように、まず、携帯端末20−1が撮像画像を取得すると(S110)、プライバシー領域特定部240が、撮像画像内にプライバシー領域があるか否かを判断する(S120)。なお、携帯端末20−1は、撮像部224により撮像画像を取得してもよいし、ストレージ部232の読出し/再生により撮像画像を取得してもよいし、通信部228を介して撮像画像を取得してもよい。   FIG. 5 is a flowchart showing the operation of the portable terminal 20-1 according to the first embodiment. As shown in FIG. 5, first, when the mobile terminal 20-1 acquires a captured image (S110), the privacy area specifying unit 240 determines whether or not there is a privacy area in the captured image (S120). Note that the mobile terminal 20-1 may acquire a captured image by the imaging unit 224, may acquire a captured image by reading / reproducing the storage unit 232, or may acquire the captured image via the communication unit 228. You may get it.

そして、撮像画像内にプライバシー領域がある場合、プライバシー領域特定部240が、人物の顔やナンバープレートなどのプライバシー領域を特定し(S130)、挿入領域設定部244が、プライバシー領域特定部240により特定されたプライバシー領域を、挿入画像を挿入するための挿入領域に設定する(S140)。   If there is a privacy area in the captured image, the privacy area specifying unit 240 specifies a privacy area such as a person's face or license plate (S130), and the insertion area setting unit 244 is specified by the privacy area specifying unit 240. The set privacy area is set as an insertion area for inserting an insertion image (S140).

続いて、画像処理部252は、挿入領域内の画像に関連する挿入画像を取得し、必要に応じて挿入画像を加工する(S150)。そして、画像処理部252は、挿入領域設定部244により設定された挿入領域内に挿入画像を挿入する、すなわち、挿入領域内の画像を挿入画像と入れ換える(S160)。   Subsequently, the image processing unit 252 acquires an insertion image related to the image in the insertion area, and processes the insertion image as necessary (S150). Then, the image processing unit 252 inserts the insertion image into the insertion region set by the insertion region setting unit 244, that is, replaces the image in the insertion region with the insertion image (S160).

その後、携帯端末20−1は、撮像画像からプライバシー領域が検出されなくなるまで、S130〜S160の処理を繰り返す(S120)。そして、撮像画像からプライバシー領域が検出されなくなると、画像処理部252によりプライバシー領域が挿入画像と入れ換えられた撮像画像を表示制御部256が表示部260に表示させる(S170)。   Thereafter, the portable terminal 20-1 repeats the processes of S130 to S160 until no privacy area is detected from the captured image (S120). When the privacy region is no longer detected from the captured image, the display control unit 256 causes the display unit 260 to display the captured image in which the privacy region is replaced with the insertion image by the image processing unit 252 (S170).

なお、図5においては、1つのプライバシー領域ごとにS130〜S160の処理が繰り返される例を示しているが、最初に全てのプライバシー領域を特定し、各ステップにおいて全てのプライバシー領域に関する処理を行った後に、次のステップに移行してもよい。   Note that FIG. 5 shows an example in which the processing of S130 to S160 is repeated for each privacy area, but all privacy areas are first identified, and processing related to all privacy areas is performed in each step. Later, you may move on to the next step.

以上説明したように、本開示の第1の実施形態によれば、撮像画像に含まれるプライバシー領域を保護すると同時に、プライバシー領域に有用な情報を含む画像を挿入することができる。かかる構成により、撮像画像中のプライバシー領域を有効活用や、画像の付加価値の向上を実現することが可能である。   As described above, according to the first embodiment of the present disclosure, it is possible to protect the privacy area included in the captured image and simultaneously insert an image including useful information in the privacy area. With this configuration, it is possible to effectively use the privacy area in the captured image and improve the added value of the image.

[3−4.変形例]
なお、上記では携帯端末20−1がプライバシー領域の特定や画像挿入を行う例を説明したが、上述した処理を複数の装置が協働して実現することも可能である。以下、変形例として、画像提供サーバ10および携帯端末20−1が協働して第1の実施形態の処理を実現する例を説明する。
[3-4. Modified example]
In the above description, the example in which the mobile terminal 20-1 specifies the privacy region and inserts an image has been described. However, the above-described processing can be realized by cooperation of a plurality of devices. Hereinafter, as a modification, an example will be described in which the image providing server 10 and the portable terminal 20-1 cooperate to realize the processing of the first embodiment.

図6は、第1の実施形態の変形例を示したシーケンス図である。図6に示したように、変形例においては、画像提供サーバ10が撮像画像中のプライバシー領域を特定し(S310)、プライバシー領域を挿入画像の挿入領域に設定する(S320)。そして、画像提供サーバ10は、撮像画像、および挿入領域の設定情報を携帯端末20−1に送信する(S330)。   FIG. 6 is a sequence diagram showing a modification of the first embodiment. As shown in FIG. 6, in the modification, the image providing server 10 specifies a privacy area in the captured image (S310), and sets the privacy area as the insertion area of the inserted image (S320). Then, the image providing server 10 transmits the captured image and the setting information of the insertion area to the portable terminal 20-1 (S330).

その後、携帯端末20−1の例えば画像取得部248が挿入画像を取得し、画像処理部252が挿入画像を必要に応じて加工する。そして、画像処理部252が、挿入領域内に挿入画像を挿入する、すなわち、挿入領域内の画像を挿入画像と入れ換える(S350)。   Thereafter, for example, the image acquisition unit 248 of the portable terminal 20-1 acquires the insertion image, and the image processing unit 252 processes the insertion image as necessary. Then, the image processing unit 252 inserts the insertion image in the insertion area, that is, replaces the image in the insertion area with the insertion image (S350).

このように、プライバシー領域の特定と、挿入画像の挿入を異なる装置で行うことも可能であり、この場合にも、撮像画像中のプライバシー領域を有効活用、および画像の付加価値の向上などを実現することができる。   In this way, it is possible to specify the privacy area and insert the inserted image using different devices. In this case, the privacy area in the captured image is effectively used and the added value of the image is improved. can do.

<4.第2の実施形態>
以上、本開示の第1の実施形態を説明した。続いて、本開示の第2の実施形態を説明する。
<4. Second Embodiment>
Heretofore, the first embodiment of the present disclosure has been described. Subsequently, a second embodiment of the present disclosure will be described.

[4−1.第2の実施形態の背景]
第1の実施形態の背景としても説明したように、近日、プライバシーの保護のために、撮像画像中のプライバシー領域には、モザイク処理や黒塗り処理などの特殊加工が施されることが多い。また、テレビジョン放送されるコンテンツや、光ディスクに記録されたコンテンツでも、不適切な画像や秘匿情報などに特殊加工が施されることは周知の通りである。
[4-1. Background of Second Embodiment]
As described as the background of the first embodiment, in the near future, in order to protect privacy, special processing such as mosaic processing and black painting processing is often performed on the privacy area in the captured image. As is well known, special processing is applied to inappropriate images, confidential information, and the like, even for content broadcast on television or content recorded on an optical disc.

しかし、モザイク処理や黒塗り処理などの特殊加工によりプライバシー情報などを保護することはできても、特殊加工が施された局所領域は、情報が失われていたり、劣化していたりするので、特殊加工が施された局所領域からは視覚的な情報がほとんど得られない。このため、特殊加工が施された撮像画像は情報伝達の効率が悪い。   However, even if the privacy information can be protected by special processing such as mosaic processing or black painting processing, the local area that has been subjected to special processing has lost or deteriorated information. Visual information is hardly obtained from the processed local area. For this reason, the captured image subjected to special processing has poor information transmission efficiency.

そこで、上記事情を一着眼点にして本開示の第2の実施形態を創作するに至った。本開示の第2の実施形態によれば、特殊加工が施された撮像画像の情報伝達の効率性、付加価値、および利便性などを向上すること可能である。以下、このような本開示の第2の実施形態について詳細に説明する。   Therefore, the second embodiment of the present disclosure has been created by focusing on the above circumstances. According to the second embodiment of the present disclosure, it is possible to improve information transmission efficiency, added value, convenience, and the like of a captured image subjected to special processing. Hereinafter, the second embodiment of the present disclosure will be described in detail.

[4−2.第2の実施形態による携帯端末の構成]
図7は、第1の実施形態による携帯端末20−2の構成を示した機能ブロック図である。図7に示したように、第2の実施形態による携帯端末20−2は、システムコントローラ220と、撮像部224と、通信部228と、ストレージ部232と、操作入力部236と、局所領域特定部242と、挿入領域設定部246と、画像取得部248と、画像処理部254と、表示制御部256と、表示部260と、を備える。システムコントローラ220、撮像部224、通信部228、ストレージ部232、操作入力部236、画像取得部248、表示制御部256、および表示部260の構成は第1の実施形態において説明した通りであるので、ここでの詳細な説明は省略する。
[4-2. Configuration of portable terminal according to second embodiment]
FIG. 7 is a functional block diagram showing the configuration of the mobile terminal 20-2 according to the first embodiment. As illustrated in FIG. 7, the mobile terminal 20-2 according to the second embodiment includes a system controller 220, an imaging unit 224, a communication unit 228, a storage unit 232, an operation input unit 236, and a local area specification. Unit 242, insertion region setting unit 246, image acquisition unit 248, image processing unit 254, display control unit 256, and display unit 260. The configurations of the system controller 220, the imaging unit 224, the communication unit 228, the storage unit 232, the operation input unit 236, the image acquisition unit 248, the display control unit 256, and the display unit 260 are as described in the first embodiment. Detailed description will be omitted here.

(局所領域特定部)
局所領域特定部242は、撮像画像から、視覚的な情報量を制限する特殊加工が施された局所領域を特定する。ここで、「2.用語の整理」において説明したように、多様な画像加工処理が特殊加工として想定される。このため、局所領域特定部242は、特殊加工が施された局所領域を、モザイク処理、ぼかし処理、および塗りつぶし処理など特殊加工の種類に応じて異なる手法で特定する。以下、図8および図9を参照してより具体的に説明する。
(Local area identification part)
The local region specifying unit 242 specifies a local region that has been subjected to special processing that limits the amount of visual information from the captured image. Here, as described in “2. Arrangement of terms”, various image processing processes are assumed as special processing. For this reason, the local region specifying unit 242 specifies a local region that has been subjected to special processing using a different method depending on the type of special processing such as mosaic processing, blurring processing, and painting processing. Hereinafter, a more specific description will be given with reference to FIGS. 8 and 9.

図8は、局所領域を含む撮像画像の具体例を示した説明図である。図8に示した撮像画像には、特殊加工が施された複数の局所領域81〜84が含まれる。例えば、局所領域81は、車両51のナンバープレートの領域に該当するが、ぼかし処理が施されているので、ナンバープレートの内容を判別することは困難である。同様に、局所領域82〜84にもぼかし処理が施されており、処理前の画像の内容を判別することは困難である。   FIG. 8 is an explanatory diagram showing a specific example of a captured image including a local region. The captured image illustrated in FIG. 8 includes a plurality of local regions 81 to 84 that have been subjected to special processing. For example, the local area 81 corresponds to the area of the license plate of the vehicle 51, but since the blurring process is performed, it is difficult to determine the contents of the license plate. Similarly, the local regions 82 to 84 are also subjected to blurring processing, and it is difficult to determine the content of the image before processing.

局所領域特定部242は、このようなぼかし処理が施された局所領域を、撮像画像の各領域の周波数成分を解析することにより特定してもよい。例えば、ぼかし処理が施された領域では高周波成分が低いと考えられるので、局所領域特定部242は、周辺と比較して高周波成分が低い領域を局所領域として特定してもよい。   The local region specifying unit 242 may specify the local region subjected to such blurring processing by analyzing the frequency component of each region of the captured image. For example, since it is considered that the high-frequency component is low in the region subjected to the blurring process, the local region specifying unit 242 may specify a region having a low high-frequency component as compared with the surrounding area as the local region.

図9および図10は、局所領域を含む撮像画像の他の具体例を示した説明図である。図9に示した撮像画像に含まれる局所領域85は、塗りつぶし処理が施された人物55の目線の領域である。目線は人物の識別性が高いので、目線が塗りつぶされた当該画像からは人物55を識別することは困難である。同様に、図10に示した撮像画像には、局所領域81’〜84’が含まれる。これら局所領域81’〜84’には塗りつぶし処理が施されているので、本来の表札やナンバープレートなどの情報を視認することは困難である。   9 and 10 are explanatory diagrams illustrating other specific examples of the captured image including the local region. A local region 85 included in the captured image illustrated in FIG. 9 is a region of the line of sight of the person 55 that has been subjected to the filling process. Since the line of sight has high human identification, it is difficult to identify the person 55 from the image in which the line of sight is filled. Similarly, the captured image shown in FIG. 10 includes local regions 81 ′ to 84 ′. Since these local regions 81 ′ to 84 ′ are filled, it is difficult to visually recognize information such as the original nameplate and number plate.

局所領域特定部242は、このような塗りつぶし処理が施された局所領域を、撮像画像のエッジ成分の検出により特定してもよい。また、塗りつぶし処理は矩形領域に施されることが多いので、局所領域特定部242は、エッジ成分の検出により特定した輪郭形状が矩形である場合に、当該矩形内の領域を局所領域として特定してもよい。   The local region specifying unit 242 may specify the local region that has been subjected to such painting processing by detecting the edge component of the captured image. In addition, since the filling process is often performed on a rectangular region, the local region specifying unit 242 specifies a region in the rectangle as a local region when the contour shape specified by the detection of the edge component is a rectangle. May be.

図11は、局所領域を含む撮像画像の他の具体例を示した説明図である。図11に示した撮像画像には、局所領域81”〜84”が含まれる。これら局所領域81”〜84”にはモザイク処理が施されているので、本来の表札やナンバープレートなどの情報を視認することは困難である。このようなモザイク処理が施された局所領域は、画素ブロックの集合であり、同一の画素ブロックを構成する画素は同一成分を有すると考えられる。そこで、局所領域特定部242は、同一成分を有する画素ブロックの集合を局所領域として特定してもよい。   FIG. 11 is an explanatory diagram illustrating another specific example of a captured image including a local region. The captured image shown in FIG. 11 includes local regions 81 ″ to 84 ″. Since these local areas 81 ″ to 84 ″ are subjected to mosaic processing, it is difficult to visually recognize information such as the original nameplate and number plate. The local region to which such mosaic processing has been performed is a set of pixel blocks, and the pixels constituting the same pixel block are considered to have the same component. Therefore, the local region specifying unit 242 may specify a set of pixel blocks having the same component as the local region.

(挿入領域設定部)
挿入領域設定部246は、局所領域特定部242により特定された局所領域を、後述する挿入画像を挿入するための挿入領域に設定する。なお、挿入領域設定部244は、局所領域の全域または一部の領域を挿入領域に設定してもよい。
(Insertion area setting part)
The insertion area setting unit 246 sets the local area specified by the local area specifying unit 242 as an insertion area for inserting an insertion image to be described later. Note that the insertion area setting unit 244 may set the whole or a part of the local area as the insertion area.

(画像処理部)
画像処理部254は、挿入領域設定部246により設定された撮像画像中の挿入領域に、挿入画像を挿入する。ここで、挿入は、挿入領域内の画像に挿入画像を上書きする処理であってもよいし、挿入領域内の画像を挿入画像と入れ換える処理であってもよい。また、挿入画像は、撮像部224によって取得された画像、ストレージ部232から読み出し/再生された画像、または通信部228を介して画像取得部248により取得された画像であってもよい。画像処理部254は、このような挿入画像を、挿入領域の形状や大きさに合うように加工し、挿入領域に挿入する。
(Image processing unit)
The image processing unit 254 inserts the insertion image into the insertion region in the captured image set by the insertion region setting unit 246. Here, the insertion may be a process of overwriting the inserted image on the image in the insertion area, or may be a process of replacing the image in the insertion area with the inserted image. The inserted image may be an image acquired by the imaging unit 224, an image read / reproduced from the storage unit 232, or an image acquired by the image acquisition unit 248 via the communication unit 228. The image processing unit 254 processes such an insertion image so as to match the shape and size of the insertion area, and inserts it into the insertion area.

また、画像処理部254が挿入画像として用いる画像は、挿入領域(局所領域)の周辺画像と関連性を有してもよい。例えば、図8に示した局所領域81のように、周辺画像が車両である場合、挿入画像は、例えば、車両のメーカー情報または車種情報、メーカーや製品の広告情報を含んでもよい。また、挿入画像は、車両や車両関連商品、関連パーツの購入サイトへのリンク情報を含んでもよい。この場合、ユーザは、挿入画像を選択することにより携帯端末20−2をリンク先に接続させることが可能である。   Further, the image used as the insertion image by the image processing unit 254 may be related to the peripheral image of the insertion region (local region). For example, when the peripheral image is a vehicle as in the local region 81 shown in FIG. 8, the inserted image may include, for example, vehicle manufacturer information or vehicle type information, and manufacturer and product advertisement information. Further, the inserted image may include link information to a purchase site for vehicles, vehicle-related products, and related parts. In this case, the user can connect the portable terminal 20-2 to the link destination by selecting the insertion image.

また、図8に示した局所領域82や局所領域83のように、周辺画像が家である場合、挿入画像は、例えば、不動産の販売情報、および不動産業者やリハウス業者情報の広告情報を含んでもよい。また、挿入画像は、不動産の購入サイト、または不動産業者およびリハウス業者などのホームページのリンク情報を含んでもよい。また、図8に示した局所領域84のように、周辺画像が人物である場合、挿入画像は、エステ、眼鏡、およびコンタクトレンズなどの広告情報を含んでもよい。   Further, when the peripheral image is a house as in the local region 82 and the local region 83 illustrated in FIG. 8, the inserted image may include, for example, real estate sales information and advertisement information of real estate agent and rehouse agent information. Good. Further, the inserted image may include link information of a real estate purchase site or a home page of a real estate agent and a rehouse agent. Further, when the peripheral image is a person as in the local region 84 illustrated in FIG. 8, the inserted image may include advertisement information such as esthetics, glasses, and contact lenses.

なお、上記では、挿入画像の一例として広告情報を説明したが、撮像画像の画像ファイルに撮像位置を示す位置情報が設定されている場合、画像処理部254は、撮像位置の近辺の対象に関する広告情報を優先的に挿入画像として用いてもよい。または、携帯端末20−2が位置推定機能を有する場合、画像処理部254は、携帯端末20−2の現在位置の近辺の対象に関する広告情報を優先的に挿入画像として用いてもよい。かかる構成により、携帯端末20−2のユーザに対する広告情報の訴求効果を高めることが可能である。   In the above description, the advertisement information has been described as an example of the inserted image. However, when position information indicating the imaging position is set in the image file of the captured image, the image processing unit 254 displays the advertisement related to the object near the imaging position. Information may be preferentially used as an insertion image. Alternatively, when the mobile terminal 20-2 has a position estimation function, the image processing unit 254 may preferentially use the advertisement information related to the object in the vicinity of the current position of the mobile terminal 20-2 as the insertion image. With this configuration, it is possible to increase the advertising information appeal effect for the user of the mobile terminal 20-2.

また、同一画像に同一の広告情報が含まれると宣伝効率が悪いので、画像処理部254は、撮像画像に複数の局所領域が含まれる場合、各局所領域に異なる挿入画像を挿入してもよい。ただし、挿入画像の種類が局所領域の数未満である場合、画像処理部254は、例外的に同一の挿入画像を異なる局所領域に挿入してもよい。   Moreover, since the advertising efficiency is poor when the same advertisement information is included in the same image, the image processing unit 254 may insert a different insertion image in each local region when the captured image includes a plurality of local regions. . However, when the number of types of inserted images is less than the number of local regions, the image processing unit 254 may exceptionally insert the same inserted image into different local regions.

ここで、図12および図13を参照し、上述した画像処理部254による画像処理後の撮像画像の具体例を説明する。   Here, with reference to FIG. 12 and FIG. 13, a specific example of the captured image after the image processing by the image processing unit 254 described above will be described.

図12は、画像処理部254による画像処理後の撮像画像の具体例を示した説明図である。より詳細には、図12には、図8、図10および図11に示した撮像画像の画像処理部254による画像処理後の状態を示している。画像処理部254は、図12に示したように、図8などに示した撮像画像に含まれる局所領域81〜84内の画像を、挿入画像91〜74に入れ換えられる。なお、図10においては、局所領域内の画像を挿入画像に入れ換える例を示しているが、画像処理部254は、挿入画像を局所領域に付加する形で挿入してもよい。すなわち、画像処理部254は、局所領域内の元画像を必ずしも抜き取らなくてもよい。   FIG. 12 is an explanatory diagram showing a specific example of a captured image after image processing by the image processing unit 254. More specifically, FIG. 12 shows a state after the image processing by the image processing unit 254 of the captured image shown in FIG. 8, FIG. 10, and FIG. As illustrated in FIG. 12, the image processing unit 254 replaces the images in the local regions 81 to 84 included in the captured image illustrated in FIG. 8 and the like with the inserted images 91 to 74. Although FIG. 10 shows an example in which the image in the local area is replaced with the insertion image, the image processing unit 254 may insert the insertion image in a form that adds the insertion image to the local area. That is, the image processing unit 254 does not necessarily have to extract the original image in the local area.

図13は、画像処理部254による画像処理後の撮像画像の他の具体例を示した説明図である。より詳細には、図13には、図9に示した撮像画像の画像処理部254による画像処理後の状態を示している。図13に示したように、画像処理部254は、塗りつぶし処理が施された局所領域85にも挿入画像95を挿入することが可能である。   FIG. 13 is an explanatory diagram showing another specific example of the captured image after the image processing by the image processing unit 254. More specifically, FIG. 13 shows a state after the image processing by the image processing unit 254 of the captured image shown in FIG. As illustrated in FIG. 13, the image processing unit 254 can insert the insertion image 95 into the local region 85 that has been subjected to the filling process.

[4−3.第2の実施形態による携帯端末の動作]
以上、第2の実施形態による携帯端末20−2の構成を説明した。続いて、図14を参照し、第2の実施形態による携帯端末20−2の動作を説明する。
[4-3. Operation of portable terminal according to second embodiment]
The configuration of the mobile terminal 20-2 according to the second embodiment has been described above. Next, with reference to FIG. 14, the operation of the mobile terminal 20-2 according to the second embodiment will be described.

図14は、第2の実施形態による携帯端末20−2の動作を示したフローチャートである。図14に示したように、まず、携帯端末20−2が撮像画像を取得すると(S410)、局所領域特定部242が、特殊加工により情報量が制限された局所領域が撮像画像内にあるか否かを判断する(S420)。なお、携帯端末20−2は、撮像部224により撮像画像を取得してもよいし、ストレージ部232の読出し/再生により撮像画像を取得してもよいし、通信部228を介して撮像画像を取得してもよい。   FIG. 14 is a flowchart showing the operation of the mobile terminal 20-2 according to the second embodiment. As illustrated in FIG. 14, first, when the mobile terminal 20-2 acquires a captured image (S410), the local region specifying unit 242 determines whether the local region in which the amount of information is limited by special processing is in the captured image. It is determined whether or not (S420). Note that the mobile terminal 20-2 may acquire a captured image by the imaging unit 224, may acquire a captured image by reading / reproducing the storage unit 232, or may acquire the captured image via the communication unit 228. You may get it.

そして、撮像画像内に局所領域がある場合、局所領域特定部242が、ぼかし処理や塗りつぶし処理などの特殊加工が施された局所領域を特定し(S430)、挿入領域設定部246が、局所領域特定部242により特定された局所領域を、挿入画像を挿入するための挿入領域に設定する(S440)。   If there is a local area in the captured image, the local area specifying unit 242 specifies a local area that has been subjected to special processing such as blurring or painting (S430), and the insertion area setting unit 246 The local area specified by the specifying unit 242 is set as an insertion area for inserting an insertion image (S440).

続いて、画像処理部254は、挿入領域内の画像に関連する挿入画像を取得し、必要に応じて挿入画像を加工する(S450)。そして、画像処理部254は、挿入領域設定部246により設定された挿入領域内に挿入画像を挿入する、すなわち、挿入領域内の画像を挿入画像と入れ換える(S460)。   Subsequently, the image processing unit 254 acquires an insertion image related to the image in the insertion area, and processes the insertion image as necessary (S450). Then, the image processing unit 254 inserts the insertion image into the insertion region set by the insertion region setting unit 246, that is, replaces the image in the insertion region with the insertion image (S460).

その後、携帯端末20−2は、撮像画像から局所領域が検出されなくなるまで、S430〜S460の処理を繰り返す(S420)。そして、撮像画像から局所領域が検出されなくなると、画像処理部254により局所領域に挿入画像が挿入された撮像画像を表示制御部256が表示部260に表示させる(S470)。   Thereafter, the portable terminal 20-2 repeats the processes of S430 to S460 until no local region is detected from the captured image (S420). Then, when the local region is no longer detected from the captured image, the display control unit 256 causes the display unit 260 to display the captured image in which the insertion image is inserted into the local region by the image processing unit 254 (S470).

なお、図14においては、1つの局所領域ごとにS430〜S460の処理が繰り返される例を示しているが、最初に全ての局所領域を特定し、各ステップにおいて全ての局所領域に関する処理を行った後に、次のステップに移行してもよい。また、第1の実施形態において変形例として説明したように、上述した処理を複数の装置(例えば、携帯端末20−2および画像提供サーバ10)が協働して実現することも可能である。   Note that FIG. 14 shows an example in which the processing of S430 to S460 is repeated for each local region. However, first, all local regions are identified, and processing for all local regions is performed in each step. Later, you may move on to the next step. Further, as described as a modification in the first embodiment, the above-described processing can be realized by cooperation of a plurality of devices (for example, the mobile terminal 20-2 and the image providing server 10).

また、上述した画像処理部254による画像処理後の撮像画像の用途は特に限定されない。例えば、画像処理後の撮像画像は、表示部260に表示されてもよいし、ストレージ部232に保持されてもよいし、通信部228を介して外部機器に送信されてもよい。   In addition, the use of the captured image after the image processing by the image processing unit 254 described above is not particularly limited. For example, the captured image after image processing may be displayed on the display unit 260, stored in the storage unit 232, or transmitted to an external device via the communication unit 228.

以上説明したように、本開示の第2の実施形態によれば、ぼかし処理や塗りつぶし処理などの特殊加工が施された領域に有用な情報を含む画像を挿入することができる。かかる構成により、特殊加工が施された撮像画像の情報伝達の効率性、付加価値、および利便性などを向上すること可能である。   As described above, according to the second embodiment of the present disclosure, it is possible to insert an image including useful information in a region that has been subjected to special processing such as blurring processing or painting processing. With this configuration, it is possible to improve information transmission efficiency, added value, convenience, and the like of a captured image that has been subjected to special processing.

<5.第1の実施形態および第2の実施形態の補足>
上記では、画像処理部252および254(以下、単に画像処理部と総称する。)がプライバシー領域や局所領域などの挿入領域に広告情報などの挿入画像を挿入する例を説明したが、挿入画像は上述した例に限定されない。例えば、挿入画像は、ISBNコード、POSコード、URL、URI(Uniform Resource Identifier)、IRI(Internationalized Resource Identifier)、QRコードまたはサイバーコードなどのコード情報であってもよい。以下、この点についてより具体的に説明する。
<5. Supplement to the first embodiment and the second embodiment>
In the above description, the image processing units 252 and 254 (hereinafter simply referred to as an image processing unit) describe an example in which an insertion image such as advertisement information is inserted into an insertion region such as a privacy region or a local region. It is not limited to the example mentioned above. For example, the inserted image may be code information such as an ISBN code, a POS code, a URL, a URI (Uniform Resource Identifier), an IRI (Internationalized Resource Identifier), a QR code, or a cyber code. Hereinafter, this point will be described more specifically.

画像処理部は、プライバシー領域や局所領域などの挿入領域が設定されると、挿入領域の形状や大きさから、挿入するコード情報およびコード情報の配置を決定し、挿入領域にバーコード情報を挿入する。   When an insertion area such as a privacy area or a local area is set, the image processing unit determines the code information to be inserted and the arrangement of the code information from the shape and size of the insertion area, and inserts barcode information in the insertion area. To do.

図15および図16は、コード情報が挿入された撮像画像の具体例を示す説明図である。画像処理部は、図15に示したように、プライバシー領域や局所領域などの挿入領域にQRコード102〜104を挿入してもよいし、URL101を挿入してもよい。また、画像処理部は、車両51内の挿入領域が横長形状であることから、図15に示したように車両51内の挿入領域に2行のURL101を挿入してもよい。また、図16に示したように、画像処理部は、人物55内の挿入領域である目線領域の形状からQRコードを5つ並べる配置を決定し、人物55内の挿入領域にQRコード105A〜105Eを挿入してもよい。   FIG. 15 and FIG. 16 are explanatory diagrams showing specific examples of captured images in which code information is inserted. As illustrated in FIG. 15, the image processing unit may insert the QR codes 102 to 104 into the insertion region such as the privacy region or the local region, or may insert the URL 101. Further, since the insertion area in the vehicle 51 has a horizontally long shape, the image processing unit may insert two lines of URLs 101 into the insertion area in the vehicle 51 as shown in FIG. In addition, as illustrated in FIG. 16, the image processing unit determines an arrangement in which five QR codes are arranged from the shape of the eye line region that is the insertion region in the person 55, and QR codes 105 </ b> A to 105 </ b> A are inserted in the insertion region in the person 55. 105E may be inserted.

なお、上記では、挿入領域がプライバシー領域や局所領域である例を説明したが、挿入領域はかかる例に限定されない。例えば、挿入領域は、人的に指定された領域であってもよい。また、コード情報は、暗号鍵情報であってもよく、暗号鍵情報が解読された場合にコード情報が消えてオリジナルの画像が再現されるようにしてもよい。また、コード情報は、著作権管理情報のようなウォーターマーク情報であってもよい。また、挿入領域に挿入されるコード情報は、挿入領域または挿入領域の周囲の画像に関連性を有してもよい。   In the above description, an example in which the insertion area is a privacy area or a local area has been described. However, the insertion area is not limited to such an example. For example, the insertion area may be an area designated by human. Further, the code information may be encryption key information, and when the encryption key information is decrypted, the code information may disappear and the original image may be reproduced. The code information may be watermark information such as copyright management information. Moreover, the code information inserted into the insertion area may be related to the insertion area or an image around the insertion area.

以上説明したように、挿入領域にコード情報を挿入することにより、画像の付加価値や利便性を高めることが可能である。また、図4に示した挿入画像74のようにリンク情報が設定されている挿入画像は、画像が印刷されると利用できなくなるが、QRコードやサイバーコードのような二次元バーコードは、画像が印刷された場合にも利用可能である点で有用である。   As described above, it is possible to increase the added value and convenience of an image by inserting code information into the insertion area. In addition, an inserted image in which link information is set like the inserted image 74 shown in FIG. 4 cannot be used when the image is printed. However, a two-dimensional barcode such as a QR code or a cyber code is This is useful in that it can be used even when printed.

<6.ハードウェア構成>
以上説明した携帯端末20による画像処理は、以下に図17を参照して説明する携帯端末20が有するハードウェアと協働して実現される。
<6. Hardware configuration>
The above-described image processing by the mobile terminal 20 is realized in cooperation with hardware included in the mobile terminal 20 described below with reference to FIG.

図17は、携帯端末20のハードウェア構成を示した説明図である。図13に示したように、携帯端末20は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、入力装置208と、出力装置210と、ストレージ装置211と、ドライブ212と、撮像装置213と、通信装置215とを備える。   FIG. 17 is an explanatory diagram showing a hardware configuration of the mobile terminal 20. As shown in FIG. 13, the mobile terminal 20 includes a CPU (Central Processing Unit) 201, a ROM (Read Only Memory) 202, a RAM (Random Access Memory) 203, an input device 208, an output device 210, A storage device 211, a drive 212, an imaging device 213, and a communication device 215 are provided.

CPU201は、演算処理装置および制御装置として機能し、各種プログラムに従って携帯端末20内の動作全般を制御する。また、CPU201は、マイクロプロセッサであってもよい。ROM202は、CPU201が使用するプログラムや演算パラメータ等を記憶する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバスにより相互に接続されている。   The CPU 201 functions as an arithmetic processing device and a control device, and controls the overall operation in the portable terminal 20 according to various programs. Further, the CPU 201 may be a microprocessor. The ROM 202 stores programs used by the CPU 201, calculation parameters, and the like. The RAM 203 temporarily stores programs used in the execution of the CPU 201, parameters that change as appropriate during the execution, and the like. These are connected to each other by a host bus including a CPU bus.

入力装置208は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU201に出力する入力制御回路などから構成されている。携帯端末20のユーザは、該入力装置208を操作することにより、携帯端末20に対して各種のデータを入力したり処理動作を指示したりすることができる。なお、この入力装置は、図3および図7に示した操作入力部236に対応する。   The input device 208 includes input means for a user to input information, such as a mouse, keyboard, touch panel, button, microphone, switch, and lever, and an input control circuit that generates an input signal based on the input by the user and outputs the input signal to the CPU 201. Etc. The user of the mobile terminal 20 can input various data and instruct processing operations to the mobile terminal 20 by operating the input device 208. This input device corresponds to the operation input unit 236 shown in FIGS. 3 and 7.

出力装置210は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。さらに、出力装置210は、スピーカおよびヘッドホンなどの音声出力装置を含む。例えば、表示装置は、撮像された画像や生成された画像などを表示する。一方、音声出力装置は、音声データ等を音声に変換して出力する。   The output device 210 includes a display device such as a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, and a lamp. Furthermore, the output device 210 includes an audio output device such as a speaker and headphones. For example, the display device displays a captured image or a generated image. On the other hand, the audio output device converts audio data or the like into audio and outputs it.

ストレージ装置211は、本実施形態にかかる携帯端末20の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置211は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置211は、CPU201が実行するプログラムや各種データを格納する。なお、このストレージ装置211は、図3および図7に示したストレージ部232に対応する。   The storage device 211 is a data storage device configured as an example of a storage unit of the mobile terminal 20 according to the present embodiment. The storage device 211 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like. The storage device 211 stores programs executed by the CPU 201 and various data. The storage device 211 corresponds to the storage unit 232 shown in FIGS.

ドライブ212は、記憶媒体用リーダライタであり、携帯端末20に内蔵、あるいは外付けされる。ドライブ212は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体24に記録されている情報を読み出して、RAM203に出力する。また、ドライブ212は、リムーバブル記憶媒体24に情報を書き込むこともできる。   The drive 212 is a storage medium reader / writer, and is built in or externally attached to the portable terminal 20. The drive 212 reads information recorded on a removable storage medium 24 such as a mounted magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs it to the RAM 203. The drive 212 can also write information to the removable storage medium 24.

撮像装置213は、光を集光する撮影レンズおよびズームレンズなどの撮像光学系、およびCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの信号変換素子を備える。撮像光学系は、被写体から発せられる光を集光して信号変換部に被写体像を形成し、信号変換素子は、形成された被写体像を電気的な画像信号に変換する。なお、この撮像装置213は、図3および図7に示した撮像部234に対応する。   The imaging device 213 includes an imaging optical system such as a photographing lens and a zoom lens that collects light, and a signal conversion element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). The imaging optical system collects light emitted from the subject and forms a subject image in the signal conversion unit, and the signal conversion element converts the formed subject image into an electrical image signal. The imaging device 213 corresponds to the imaging unit 234 illustrated in FIGS. 3 and 7.

通信装置215は、例えば、通信網12に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置215は、無線LAN(Local Area Network)対応通信装置であっても、LTE(Long Term Evolution)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。なお、この通信装置215は、図3および図7に示した通信部228に対応する。   The communication device 215 is a communication interface configured with, for example, a communication device for connecting to the communication network 12. The communication device 215 may be a wireless LAN (Local Area Network) compatible communication device, an LTE (Long Term Evolution) compatible communication device, or a wire communication device that performs wired communication. The communication device 215 corresponds to the communication unit 228 illustrated in FIGS. 3 and 7.

<7.むすび>
以上説明したように、本開示の第1の実施形態によれば、撮像画像に含まれるプライバシー領域を保護すると同時に、プライバシー領域に有用な情報を含む画像を挿入することができる。かかる構成により、撮像画像中のプライバシー領域を有効活用や、画像の付加価値の向上を実現することが可能である。
<7. Conclusion>
As described above, according to the first embodiment of the present disclosure, it is possible to protect the privacy area included in the captured image and simultaneously insert an image including useful information in the privacy area. With this configuration, it is possible to effectively use the privacy area in the captured image and improve the added value of the image.

また、本開示の第2の実施形態によれば、ぼかし処理や塗りつぶし処理などの特殊加工が施された領域に有用な情報を含む画像を挿入することができる。かかる構成により、特殊加工が施された撮像画像の情報伝達の効率性、付加価値、および利便性などを向上すること可能である。   Further, according to the second embodiment of the present disclosure, it is possible to insert an image including useful information in an area that has been subjected to special processing such as blurring processing or painting processing. With this configuration, it is possible to improve information transmission efficiency, added value, convenience, and the like of a captured image that has been subjected to special processing.

なお、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。   In addition, although preferred embodiment of this indication was described in detail, referring an accompanying drawing, the technical scope of this indication is not limited to this example. It is obvious that a person having ordinary knowledge in the technical field of the present disclosure can come up with various changes or modifications within the scope of the technical idea described in the claims. Of course, it is understood that it belongs to the technical scope of the present disclosure.

例えば、本明細書の携帯端末20の処理における各ステップは、必ずしもシーケンス図またはフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、携帯端末20の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。   For example, each step in the processing of the portable terminal 20 of the present specification does not necessarily have to be processed in time series in the order described as a sequence diagram or a flowchart. For example, each step in the processing of the mobile terminal 20 may be processed in an order different from the order described as the flowchart, or may be processed in parallel.

また、携帯端末20に内蔵されるCPU201、ROM202およびRAM203などのハードウェアを、上述した携帯端末20の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。   In addition, it is possible to create a computer program for causing hardware such as the CPU 201, the ROM 202, and the RAM 203 built in the mobile terminal 20 to perform the same functions as the components of the mobile terminal 20 described above. A storage medium storing the computer program is also provided.

また、以下のような構成も本開示の技術的範囲に属する。
(1)
撮像画像からプライバシー領域を特定する領域特定部と、
前記撮像画像の前記プライバシー領域内に、前記プライバシー領域内の画像と異なる情報を有する画像を挿入する画像処理部と、
を備える、画像処理装置。
(2)
前記画像処理部は、前記プライバシー領域内に、前記プライバシー領域内の画像と関連性を有する画像を挿入する、前記(1)に記載の画像処理装置。
(3)
前記領域特定部は、前記撮像画像に含まれる人物の顔領域を前記プライバシー領域として特定する、前記(1)または(2)に記載の画像処理装置。
(4)
前記画像処理装置は、
前記プライバシー領域として特定された顔領域の画像解析により認識された人物に関して公開されている情報を取得する取得部と、
をさらに備え、
前記画像処理部は、前記人物の顔領域に、前記取得部により取得された情報を有する画像を挿入する、前記(3)に記載の画像処理装置。
(5)
前記画像処理部は、前記撮像画像に複数のプライバシー領域が含まれる場合、各プライバシー領域内に異なる画像を挿入する、前記(1)〜(4)のいずれか一項に記載の画像処理装置。
(6)
前記画像処理部は、挿入候補の画像の種類が前記撮像画像内のプライバシー領域の数未満である場合、一部のプライバシー領域に、視覚的な情報量が局所的に制限される特殊加工を施す、前記(5)に記載の画像処理装置。
(7)
前記領域特定部は、前記撮像画像に含まれる車両のナンバープレートを前記プライバシー領域として特定する、前記(1)〜(6)のいずれか一項に記載の画像処理装置。
(8)
前記領域特定部は、前記撮像画像に含まれる建物の表札を前記プライバシー領域として特定する、前記(1)〜(7)のいずれか一項に記載の画像処理装置。
(9)
前記領域特定部は、前記撮像画像に含まれる洗濯物として干されている衣服を前記プライバシー領域として特定する、前記(1)〜(8)のいずれか一項に記載の画像処理装置。
(10)
前記プライバシー領域に挿入される画像は、広告画像である、前記(1)〜(9)のいずれか一項に記載の画像処理装置。
(11)
前記プライバシー領域内に挿入される画像は、ネットワークへのアクセス情報を含む、前記(1)〜(10)のいずれか一項に記載の画像処理装置。
(12)
前記プライバシー領域内に挿入される画像は、コード情報を含む、前記(1)〜(11)のいずれか一項に記載の画像処理装置。
(13)
前記領域特定部は、前記撮像画像中で、視覚的な情報量を制限する特殊加工が施された局所領域を前記プライバシー領域として特定する、前記(1)〜(12)のいずれか一項に記載の画像処理装置。
(14)
コンピュータを、
撮像画像からプライバシー領域を特定する領域特定部と、
前記撮像画像の前記プライバシー領域内に、前記プライバシー領域内の画像と異なる情報を有する画像を挿入する画像処理部と、
として機能させるための、プログラム。
The following configurations also belong to the technical scope of the present disclosure.
(1)
An area specifying unit for specifying a privacy area from the captured image;
An image processing unit for inserting an image having information different from the image in the privacy area into the privacy area of the captured image;
An image processing apparatus comprising:
(2)
The image processing apparatus according to (1), wherein the image processing unit inserts an image having relevance with an image in the privacy area into the privacy area.
(3)
The image processing apparatus according to (1) or (2), wherein the area specifying unit specifies a face area of a person included in the captured image as the privacy area.
(4)
The image processing apparatus includes:
An acquisition unit for acquiring information disclosed about a person recognized by image analysis of the face area identified as the privacy area;
Further comprising
The image processing apparatus according to (3), wherein the image processing unit inserts an image having information acquired by the acquisition unit into the face area of the person.
(5)
The image processing device according to any one of (1) to (4), wherein when the captured image includes a plurality of privacy regions, the image processing unit inserts a different image into each privacy region.
(6)
The image processing unit performs special processing that restricts the amount of visual information locally on some privacy areas when the number of types of images to be inserted is less than the number of privacy areas in the captured image. The image processing apparatus according to (5).
(7)
The image processing apparatus according to any one of (1) to (6), wherein the area specifying unit specifies a license plate of a vehicle included in the captured image as the privacy area.
(8)
The image processing apparatus according to any one of (1) to (7), wherein the area specifying unit specifies a nameplate of a building included in the captured image as the privacy area.
(9)
The image processing apparatus according to any one of (1) to (8), wherein the area specifying unit specifies clothes that are dried as laundry included in the captured image as the privacy area.
(10)
The image processing apparatus according to any one of (1) to (9), wherein the image inserted into the privacy area is an advertisement image.
(11)
The image processing apparatus according to any one of (1) to (10), wherein the image inserted into the privacy area includes access information to a network.
(12)
The image processing apparatus according to any one of (1) to (11), wherein the image inserted into the privacy area includes code information.
(13)
In any one of (1) to (12), the area specifying unit specifies, as the privacy area, a local area that has been subjected to special processing that limits a visual information amount in the captured image. The image processing apparatus described.
(14)
Computer
An area specifying unit for specifying a privacy area from the captured image;
An image processing unit for inserting an image having information different from the image in the privacy area into the privacy area of the captured image;
Program to function as

10 画像提供サーバ
12 通信網
20 携帯端末
30 人物認識サーバ
40 SNSサーバ
220 システムコントローラ
224 撮像部
228 通信部
232 ストレージ部
234 撮像部
236 操作入力部
240 プライバシー領域特定部
242 局所領域特定部
244、246 挿入領域設定部
248 画像取得部
252、254 画像処理部
256 表示制御部
260 表示部
DESCRIPTION OF SYMBOLS 10 Image provision server 12 Communication network 20 Portable terminal 30 Person recognition server 40 SNS server 220 System controller 224 Imaging part 228 Communication part 232 Storage part 234 Imaging part 236 Operation input part 240 Privacy area specific part 242 Local area specific part 244, 246 Insertion Area setting unit 248 Image acquisition unit 252, 254 Image processing unit 256 Display control unit 260 Display unit

Claims (14)

撮像画像からプライバシー領域を特定する領域特定部と、
前記撮像画像の前記プライバシー領域内に、前記プライバシー領域内の画像と異なる情報を有する画像を挿入する画像処理部と、
を備える、画像処理装置。
An area specifying unit for specifying a privacy area from the captured image;
An image processing unit for inserting an image having information different from the image in the privacy area into the privacy area of the captured image;
An image processing apparatus comprising:
前記画像処理部は、前記プライバシー領域内に、前記プライバシー領域内の画像と関連性を有する画像を挿入する、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image processing unit inserts an image having relevance with an image in the privacy area into the privacy area. 前記領域特定部は、前記撮像画像に含まれる人物の顔領域を前記プライバシー領域として特定する、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the area specifying unit specifies a face area of a person included in the captured image as the privacy area. 前記画像処理装置は、
前記プライバシー領域として特定された顔領域の画像解析により認識された人物に関して公開されている情報を取得する取得部と、
をさらに備え、
前記画像処理部は、前記人物の顔領域に、前記取得部により取得された情報を有する画像を挿入する、請求項3に記載の画像処理装置。
The image processing apparatus includes:
An acquisition unit for acquiring information disclosed about a person recognized by image analysis of the face area identified as the privacy area;
Further comprising
The image processing apparatus according to claim 3, wherein the image processing unit inserts an image having information acquired by the acquisition unit into the face area of the person.
前記画像処理部は、前記撮像画像に複数のプライバシー領域が含まれる場合、各プライバシー領域内に異なる画像を挿入する、請求項1に記載の画像処理装置。   The image processing device according to claim 1, wherein when the captured image includes a plurality of privacy areas, the image processing unit inserts a different image into each privacy area. 前記画像処理部は、挿入候補の画像の種類が前記撮像画像内のプライバシー領域の数未満である場合、一部のプライバシー領域に、視覚的な情報量が局所的に制限される特殊加工を施す、請求項5に記載の画像処理装置。   The image processing unit performs special processing that restricts the amount of visual information locally on some privacy areas when the number of types of images to be inserted is less than the number of privacy areas in the captured image. The image processing apparatus according to claim 5. 前記領域特定部は、前記撮像画像に含まれる車両のナンバープレートを前記プライバシー領域として特定する、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the area specifying unit specifies a vehicle license plate included in the captured image as the privacy area. 前記領域特定部は、前記撮像画像に含まれる建物の表札を前記プライバシー領域として特定する、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the area specifying unit specifies a nameplate of a building included in the captured image as the privacy area. 前記領域特定部は、前記撮像画像に含まれる洗濯物として干されている衣服を前記プライバシー領域として特定する、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the area specifying unit specifies clothes that are dried as laundry included in the captured image as the privacy area. 前記プライバシー領域に挿入される画像は、広告画像である、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image inserted into the privacy area is an advertisement image. 前記プライバシー領域内に挿入される画像は、ネットワークへのアクセス情報を含む、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image inserted into the privacy area includes access information to a network. 前記プライバシー領域内に挿入される画像は、コード情報を含む、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image inserted into the privacy area includes code information. 前記領域特定部は、前記撮像画像中で、視覚的な情報量を制限する特殊加工が施された局所領域を前記プライバシー領域として特定する、請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the region specifying unit specifies, as the privacy region, a local region that has been subjected to special processing that limits a visual information amount in the captured image. コンピュータを、
撮像画像からプライバシー領域を特定する領域特定部と、
前記撮像画像の前記プライバシー領域内に、前記プライバシー領域内の画像と異なる情報を有する画像を挿入する画像処理部と、
として機能させるための、プログラム。
Computer
An area specifying unit for specifying a privacy area from the captured image;
An image processing unit for inserting an image having information different from the image in the privacy area into the privacy area of the captured image;
Program to function as
JP2011233623A 2011-10-25 2011-10-25 Image processing apparatus and program Pending JP2013092855A (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2011233623A JP2013092855A (en) 2011-10-25 2011-10-25 Image processing apparatus and program
US14/346,873 US20140247272A1 (en) 2011-10-25 2012-09-06 Image processing apparatus, method and computer program product
EP12844138.3A EP2771865A4 (en) 2011-10-25 2012-09-06 Image processing apparatus, method and computer program product
CN201280050942.XA CN103890810B (en) 2011-10-25 2012-09-06 Image processing equipment, method
PCT/JP2012/005656 WO2013061505A1 (en) 2011-10-25 2012-09-06 Image processing apparatus, method and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011233623A JP2013092855A (en) 2011-10-25 2011-10-25 Image processing apparatus and program

Publications (1)

Publication Number Publication Date
JP2013092855A true JP2013092855A (en) 2013-05-16

Family

ID=48615943

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011233623A Pending JP2013092855A (en) 2011-10-25 2011-10-25 Image processing apparatus and program

Country Status (1)

Country Link
JP (1) JP2013092855A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015111228A1 (en) * 2014-01-27 2015-07-30 楽天株式会社 Information processing system, method for controlling information processing system, information processing device, program, and information storage medium
JP2018045510A (en) * 2016-09-15 2018-03-22 株式会社東芝 Information processor and method
JP2018120266A (en) * 2017-01-23 2018-08-02 株式会社Revo Information processing module, information processing method, information processing program and information processing apparatus
JP2019101783A (en) * 2017-12-04 2019-06-24 キヤノン株式会社 Information processing device and method
JP2019149793A (en) * 2015-01-15 2019-09-05 日本電気株式会社 Information output device, information output system, information output method, and program
CN113344790A (en) * 2021-06-30 2021-09-03 北京奇艺世纪科技有限公司 Picture processing method and device, electronic equipment and storage medium

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015111228A1 (en) * 2014-01-27 2015-07-30 楽天株式会社 Information processing system, method for controlling information processing system, information processing device, program, and information storage medium
JP5889494B2 (en) * 2014-01-27 2016-03-22 楽天株式会社 Information processing system, information processing system control method, information processing apparatus, program, and information storage medium
JPWO2015111228A1 (en) * 2014-01-27 2017-03-23 楽天株式会社 Information processing system, information processing system control method, information processing apparatus, program, and information storage medium
US10614511B2 (en) 2014-01-27 2020-04-07 Rakuten, Inc. Information processing system, method for controlling information processing system, information processing device, program, and information storage medium
JP2019149793A (en) * 2015-01-15 2019-09-05 日本電気株式会社 Information output device, information output system, information output method, and program
US11042667B2 (en) 2015-01-15 2021-06-22 Nec Corporation Information output device, camera, information output system, information output method, and program
US11227061B2 (en) 2015-01-15 2022-01-18 Nec Corporation Information output device, camera, information output system, information output method, and program
JP2018045510A (en) * 2016-09-15 2018-03-22 株式会社東芝 Information processor and method
JP2018120266A (en) * 2017-01-23 2018-08-02 株式会社Revo Information processing module, information processing method, information processing program and information processing apparatus
JP2019101783A (en) * 2017-12-04 2019-06-24 キヤノン株式会社 Information processing device and method
CN113344790A (en) * 2021-06-30 2021-09-03 北京奇艺世纪科技有限公司 Picture processing method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
WO2013061505A1 (en) Image processing apparatus, method and computer program product
US10129524B2 (en) Depth-assigned content for depth-enhanced virtual reality images
WO2018028583A1 (en) Subtitle extraction method and device, and storage medium
CN107357494B (en) Data processing method and device and terminal equipment
US9830950B2 (en) Smartphone-based methods and systems
US9607424B2 (en) Depth-assigned content for depth-enhanced pictures
KR101993239B1 (en) Method and apparatus for managing user device and contents using QR code
KR102010221B1 (en) Smartphone-based methods and systems
TWI490773B (en) An user interface operating method and an electrical device with the user interfaceand a program product storing a program for operating the user interface
JP6070512B2 (en) Information processing apparatus, information processing method, and program
JP2013092855A (en) Image processing apparatus and program
CN103136746A (en) Image processing device and image processing method
US20090294538A1 (en) Embedded tags in a media signal
WO2016033495A2 (en) Methods and arrangements including data migration among computing platforms, e.g., through use of steganographic screen encoding
CN105578267A (en) Terminal device and information providing method thereof
CN104394324A (en) Special-effect video generation method and device
US9025082B2 (en) Image processing device, image recognition device, image recognition method, and program
JP2013092856A (en) Image processing apparatus and program
CN104703020A (en) Processing method and device of quick response codes, video playing apparatus
JP2012123513A (en) Information processor and information processing system
US10600060B1 (en) Predictive analytics from visual data
JP6724919B2 (en) Information processing apparatus, information processing method, and program
US20160117553A1 (en) Method, device and system for realizing visual identification
JP6986079B2 (en) Detection and / or decoding of visible light communication
WO2013080727A1 (en) Image processing device, image processing method, and program