JP2018029309A - Imaging device and transmission method - Google Patents

Imaging device and transmission method Download PDF

Info

Publication number
JP2018029309A
JP2018029309A JP2016161387A JP2016161387A JP2018029309A JP 2018029309 A JP2018029309 A JP 2018029309A JP 2016161387 A JP2016161387 A JP 2016161387A JP 2016161387 A JP2016161387 A JP 2016161387A JP 2018029309 A JP2018029309 A JP 2018029309A
Authority
JP
Japan
Prior art keywords
frame
predetermined object
reference frame
frames
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016161387A
Other languages
Japanese (ja)
Other versions
JP6659495B2 (en
Inventor
鈴木 美彦
Yoshihiko Suzuki
美彦 鈴木
佐藤 俊雄
Toshio Sato
俊雄 佐藤
上野 秀樹
Hideki Ueno
秀樹 上野
雄介 高橋
Yusuke Takahashi
雄介 高橋
健二 君山
Kenji Kimiyama
健二 君山
浩 堺
Hiroshi Sakai
浩 堺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Infrastructure Systems and Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Infrastructure Systems and Solutions Corp filed Critical Toshiba Corp
Priority to JP2016161387A priority Critical patent/JP6659495B2/en
Publication of JP2018029309A publication Critical patent/JP2018029309A/en
Application granted granted Critical
Publication of JP6659495B2 publication Critical patent/JP6659495B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging device and a transmission method that can reduce a calculation cost for processing to add mosaic on a dynamic image picked up by an imaging part and transmit the image to an external device.SOLUTION: A mosaic processing part detects a predetermined object included in a decoded reference frame, executes mosaic processing on the predetermined object, and estimates a movement locus of the predetermined object on the basis of a result of detection of the predetermined object. An exchange processing part selects, from a difference frame, of encoded frames, on which interframe encoding is performed and including motion vectors of partial areas obtained through division of the frames, the partial areas on the movement locus, and executes exchange processing to exchange the motion vectors of the partial areas between the selected partial areas. A transmission part encodes the reference frame on which the mosaic processing is performed and transmits, to an external device, the encoded reference frame and the difference frame on which the exchange processing is performed.SELECTED DRAWING: Figure 1

Description

本発明の実施形態は、撮像装置および送信方法に関する。   Embodiments described herein relate generally to an imaging apparatus and a transmission method.

監視カメラ等の撮像装置が、撮像部により監視領域を撮像して得られた撮像画像に対してプライバシー保護処理を実行して、当該プライバシー保護処理を実行した撮像画像を、サーバ等の外部装置に送信するシステムがある。ここで、プライバシー保護処理は、撮像画像から、所定のオブジェクトを検出し、当該所定のオブジェクトに対してモザイク処理を実行する処理である。   An imaging device such as a monitoring camera performs privacy protection processing on a captured image obtained by imaging the monitoring area by the imaging unit, and the captured image that has been subjected to the privacy protection processing is transmitted to an external device such as a server. There is a system to send. Here, the privacy protection process is a process of detecting a predetermined object from the captured image and executing a mosaic process on the predetermined object.

特開2007−164275号公報JP 2007-164275 A 国際公開第2006/115156号International Publication No. 2006/115156 特開2009−33738号公報JP 2009-33738 A

しかしながら、上記のシステムにおいては、撮像装置においてプライバシー保護処理に要する計算時間が長くなる可能性があり、リアルタイムに撮像画像を提供するシステムにおいては、実現することが難しい場合がある。   However, in the above-described system, there is a possibility that the calculation time required for privacy protection processing in the imaging device may be long, and it may be difficult to realize in a system that provides captured images in real time.

実施形態の撮像装置は、撮像部と、エンコーダと、デコーダと、モザイク処理部と、入替処理部と、送信部と、を備える。エンコーダは、撮像部の撮像により得られる動画像が含むフレームを符号化する。デコーダは、符号化されたフレームのうちフレーム内符号化が行われた基準フレームを復号化する。モザイク処理部は、復号化された基準フレームが含む所定オブジェクトを検出し、所定オブジェクトに対してモザイク処理を実行し、かつ所定オブジェクトの検出結果に基づいて当該所定オブジェクトの移動軌跡を推定する。入替処理部は、符号化されたフレームのうちフレーム間符号化が行われかつ当該フレームを分割した各部分領域の動きベクトルを含む差分フレームから、移動軌跡上の部分領域を選択し、選択した部分領域間において、当該部分領域の動きベクトルを入れ替える入替処理を実行する。送信部は、モザイク処理を実行した基準フレームを符号化し、かつ当該符号化した基準フレームおよび入替処理を実行した差分フレームを外部装置に送信する。   The imaging device according to the embodiment includes an imaging unit, an encoder, a decoder, a mosaic processing unit, a replacement processing unit, and a transmission unit. The encoder encodes a frame included in a moving image obtained by imaging of the imaging unit. The decoder decodes a reference frame on which intra-frame coding has been performed among the coded frames. The mosaic processing unit detects a predetermined object included in the decoded reference frame, performs a mosaic process on the predetermined object, and estimates a movement trajectory of the predetermined object based on a detection result of the predetermined object. The replacement processing unit selects a partial region on the movement trajectory from the difference frame including the motion vector of each partial region in which the inter-frame encoding is performed and the frame is divided among the encoded frames, and the selected portion An exchange process for exchanging motion vectors of the partial areas between the areas is executed. The transmission unit encodes the reference frame on which the mosaic process has been performed, and transmits the encoded reference frame and the difference frame on which the replacement process has been performed to the external device.

図1は、本実施形態にかかる通信システムの構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a configuration of a communication system according to the present embodiment. 図2は、本実施形態にかかる通信システムが有する車両の構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a configuration of a vehicle included in the communication system according to the present embodiment. 図3は、本実施形態にかかる通信システムが有する車両のコックピットの構成の一例を示す図である。FIG. 3 is a diagram illustrating an example of a configuration of a cockpit of a vehicle included in the communication system according to the present embodiment. 図4は、本実施形態にかかる通信システムの車両が有する車載装置のハードウェア構成の一例を示す図である。FIG. 4 is a diagram illustrating an example of a hardware configuration of an in-vehicle device included in the vehicle of the communication system according to the present embodiment. 図5は、本実施形態にかかる通信システムの車両が有する車載装置による撮像画像の送信処理の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of a captured image transmission process by the in-vehicle device included in the vehicle of the communication system according to the present embodiment. 図6は、本実施形態にかかる通信システムの車両が有する車載装置の機能構成の一例を示す図である。FIG. 6 is a diagram illustrating an example of a functional configuration of the in-vehicle device included in the vehicle of the communication system according to the present embodiment. 図7は、本実施形態にかかる通信システムの車両が有する車載装置による動画像の符号化の一例を説明するための図である。FIG. 7 is a diagram for explaining an example of encoding of a moving image by an in-vehicle device included in the vehicle of the communication system according to the present embodiment. 図8は、本実施形態にかかる通信システムの車両が有する車載装置によるシャッフル処理の一例を説明するための図である。FIG. 8 is a diagram for explaining an example of shuffle processing by the in-vehicle device included in the vehicle of the communication system according to the present embodiment. 図9は、本実施形態にかかる通信システムが有する車載装置による動画像の送信処理の流れの一例を示すフローチャートである。FIG. 9 is a flowchart illustrating an example of a flow of moving image transmission processing by the in-vehicle device included in the communication system according to the present embodiment.

以下、添付の図面を用いて、本実施形態にかかる撮像装置および送信方法を適用した通信システムについて説明する。   Hereinafter, a communication system to which an imaging apparatus and a transmission method according to the present embodiment are applied will be described with reference to the accompanying drawings.

図1は、本実施形態にかかる通信システムの構成の一例を示す図である。図2は、本実施形態にかかる通信システムが有する車両の構成の一例を示す図である。図1に示すように、本実施形態にかかる通信システムは、車両1と、センターサーバ2と、クライアント端末3と、基地局4と、を有する。図2に示すように、車両1には、ドライブレコーダ等であり、センターサーバ2等の外部装置と通信可能な車載装置101が搭載されている。また、車両1には、撮像部102、通信アンテナ103等が搭載される。   FIG. 1 is a diagram illustrating an example of a configuration of a communication system according to the present embodiment. FIG. 2 is a diagram illustrating an example of a configuration of a vehicle included in the communication system according to the present embodiment. As shown in FIG. 1, the communication system according to the present embodiment includes a vehicle 1, a center server 2, a client terminal 3, and a base station 4. As shown in FIG. 2, the vehicle 1 is equipped with an in-vehicle device 101 that is a drive recorder or the like and can communicate with an external device such as the center server 2. The vehicle 1 is equipped with an imaging unit 102, a communication antenna 103, and the like.

撮像部102は、車両1の前方等、車両1の周囲を撮像可能に設けられている。車載装置101は、撮像部102の撮像により車両1の外部等を撮像して得られる撮像画像を記憶する。また、車載装置101は、後述するGPS(Global Positioning System)アンテナ303(図3参照)を介して、GPS衛星STからGPS信号を受信し、当該受信したGPS信号に基づいて、車載装置101の位置を取得する。そして、車載装置101は、通信アンテナ103を制御して、基地局4を介して、センターサーバ2から、送信指示を受信する。   The imaging unit 102 is provided so as to be able to capture the surroundings of the vehicle 1 such as the front of the vehicle 1. The in-vehicle device 101 stores a captured image obtained by imaging the outside of the vehicle 1 or the like by imaging of the imaging unit 102. The in-vehicle device 101 receives a GPS signal from a GPS satellite ST via a GPS (Global Positioning System) antenna 303 (see FIG. 3) described later, and the position of the in-vehicle device 101 is based on the received GPS signal. To get. The in-vehicle device 101 controls the communication antenna 103 and receives a transmission instruction from the center server 2 via the base station 4.

車載装置101は、送信指示を受信すると、通信アンテナ103を制御して、車両1の外部等を撮像して得られる撮像画像等の各種情報を、基地局4を介して、センターサーバ2等の外部装置に送信する。本実施形態では、車載装置101は、撮像画像をセンターサーバ2等の外部装置に送信する際、当該撮像画像に対して、車載装置101の位置を示す位置情報を付加して、センターサーバ2等の外部装置に送信する。これにより、センターサーバ2は、いずれの位置を撮像して得られた撮像画像であるかを検知することができる。また、車載装置101は、センターサーバ2からの送信指示を受信しなくても、車両1の外部等を撮像して得られる撮像画像を、センターサーバ2に送信することも可能である。   When receiving the transmission instruction, the in-vehicle device 101 controls the communication antenna 103 to transmit various information such as a captured image obtained by imaging the outside of the vehicle 1 and the like via the base station 4 to the center server 2 and the like. Send to external device. In the present embodiment, when the in-vehicle device 101 transmits a captured image to an external device such as the center server 2, the position information indicating the position of the in-vehicle device 101 is added to the captured image, and the center server 2 or the like. To the external device. Thereby, the center server 2 can detect which position is the captured image obtained by imaging. Further, the in-vehicle device 101 can also transmit a captured image obtained by imaging the outside of the vehicle 1 or the like to the center server 2 without receiving a transmission instruction from the center server 2.

基地局4は、車両1に搭載された車載装置101等と無線通信可能である。本実施形態では、基地局4は、センターサーバ2から送信される送信指示を、車載装置101に転送する。また、基地局4は、車載装置101から撮像画像の各種情報を受信し、当該受信した各種情報をインターネット等のネットワークを介してセンターサーバ2に転送する。   The base station 4 can wirelessly communicate with the in-vehicle device 101 mounted on the vehicle 1. In the present embodiment, the base station 4 transfers the transmission instruction transmitted from the center server 2 to the in-vehicle device 101. Further, the base station 4 receives various types of information of the captured image from the in-vehicle device 101 and transfers the received various types of information to the center server 2 via a network such as the Internet.

クライアント端末3は、店舗やバス停等の混雑状況、通学路の見守り、犯罪者の追跡、夜間の見回り、災害状況の把握など、監視領域に関する監視情報の取得を目的として、撮像画像の送信を指示する送信条件をセンターサーバ2に送信する。ここで、送信条件には、監視情報を取得する監視位置を示す情報である。そして、クライアント端末3は、センターサーバ2から、監視位置の撮像画像を受信する。   The client terminal 3 instructs the transmission of captured images for the purpose of obtaining monitoring information related to the monitoring area, such as congestion of stores and bus stops, watching school routes, tracking criminals, night tours, and grasping disaster situations. The transmission condition to be transmitted is transmitted to the center server 2. Here, the transmission condition is information indicating a monitoring position where the monitoring information is acquired. Then, the client terminal 3 receives the captured image at the monitoring position from the center server 2.

センターサーバ2は、車載装置101から、撮像画像を受信する。また、センターサーバ2は、当該センターサーバ2が提供するサービスに契約している利用者のクライアント端末3から、送信条件を受信する。そして、センターサーバ2は、車載装置101から受信した撮像画像のうち、クライアント端末3から受信した送信条件が示す監視位置と一致する位置情報が付加された撮像画像(すなわち、監視位置を走行する車両1の車載装置101から受信した撮像画像)を、当該クライアント端末3に送信する。これにより、クライアント端末3の利用者は、監視位置の撮像画像を見て、当該監視位置の状況を認識できる。例えば、クライアント端末3の利用者は、監視カメラ等が設置されていない領域の状況を認識できる。   The center server 2 receives a captured image from the in-vehicle device 101. The center server 2 receives the transmission condition from the client terminal 3 of the user who has contracted for the service provided by the center server 2. The center server 2 then captures the captured image to which the position information that matches the monitoring position indicated by the transmission condition received from the client terminal 3 among the captured images received from the in-vehicle device 101 (that is, the vehicle that travels through the monitoring position). Captured image received from one in-vehicle device 101) to the client terminal 3. Thereby, the user of the client terminal 3 can recognize the status of the monitoring position by looking at the captured image of the monitoring position. For example, the user of the client terminal 3 can recognize the situation of the area where the monitoring camera or the like is not installed.

本実施形態では、センターサーバ2は、車載装置101から受信する撮像画像を、クライアント端末3に送信する例について説明するが、これに限定するものではなく、例えば、建物や道路の路側等に設置された監視カメラや後述する携帯端末304(図3参照)が有するカメラ等の撮像部により、建物や道路の路側等の監視位置を撮像して得られる撮像画像を、クライアント端末3に送信することも可能である。   In this embodiment, although the center server 2 demonstrates the example which transmits the captured image received from the vehicle-mounted apparatus 101 to the client terminal 3, it is not limited to this, For example, it installs in the roadside of a building, a road, etc. A captured image obtained by imaging a monitoring position such as a roadside of a building or a road by an imaging unit such as a camera that is included in the surveillance camera or a mobile terminal 304 (see FIG. 3) described later is transmitted to the client terminal 3 Is also possible.

図3は、本実施形態にかかる通信システムが有する車両のコックピットの構成の一例を示す図である。図3に示すように、本実施形態にかかる通信システムが有する車両1のコックピットには、車載装置101と、撮像部301,302と、GPSアンテナ303と、携帯端末304と、が設けられている。撮像部301,302は、撮像部102に含まれ、車両1の前方を走行する先行車両等を、互いに異なるアングルから撮像可能に設けられている。本実施形態では、撮像部301,302は、センターコンソールを挟んで左右対称に設けられている。   FIG. 3 is a diagram illustrating an example of a configuration of a cockpit of a vehicle included in the communication system according to the present embodiment. As shown in FIG. 3, the cockpit of the vehicle 1 included in the communication system according to the present embodiment is provided with an in-vehicle device 101, imaging units 301 and 302, a GPS antenna 303, and a portable terminal 304. . The imaging units 301 and 302 are included in the imaging unit 102 and are provided so as to be capable of imaging a preceding vehicle traveling in front of the vehicle 1 from different angles. In the present embodiment, the imaging units 301 and 302 are provided symmetrically with respect to the center console.

GPSアンテナ303は、車両1の位置を取得するために、GPS衛星STから発信されるGPS信号を受信可能に設けられている。携帯端末304は、スマートフォンやタブレット端末等により構成され、基地局4を介して、センターサーバ2とデータ通信可能である。本実施形態では、携帯端末304は、車両1の周囲等を撮像可能な撮像部を有する。そして、携帯端末304は、センターサーバ2から送信指示を受信すると、撮像部により車両1の周囲を撮像して得られる撮像画像を、基地局4を介して、センターサーバ2に送信する。   The GPS antenna 303 is provided so as to be able to receive a GPS signal transmitted from the GPS satellite ST in order to acquire the position of the vehicle 1. The portable terminal 304 is configured by a smartphone, a tablet terminal, or the like, and can perform data communication with the center server 2 via the base station 4. In the present embodiment, the mobile terminal 304 has an imaging unit that can image the surroundings of the vehicle 1 and the like. And the portable terminal 304 will transmit the picked-up image obtained by imaging the circumference | surroundings of the vehicle 1 by an imaging part to the center server 2 via the base station 4, if the transmission instruction | indication is received from the center server 2. FIG.

図4は、本実施形態にかかる通信システムの車両が有する車載装置のハードウェア構成の一例を示す図である。図4に示すように、車載装置101は、制御部401と、通信I/F402と、記憶部403と、外部記憶装置404と、を有する。制御部401は、車載装置101全体を制御する。本実施形態では、制御部401は、MPU(Micro Processing Unit)等を含むマイクロコンピュータにより構成される。   FIG. 4 is a diagram illustrating an example of a hardware configuration of an in-vehicle device included in the vehicle of the communication system according to the present embodiment. As illustrated in FIG. 4, the in-vehicle device 101 includes a control unit 401, a communication I / F 402, a storage unit 403, and an external storage device 404. The control unit 401 controls the entire in-vehicle device 101. In the present embodiment, the control unit 401 is configured by a microcomputer including an MPU (Micro Processing Unit) or the like.

制御部401は、センターサーバ2から送信指示を受信すると、通信I/F402を介して、撮像部102から、当該撮像部102により車両1の周囲を撮像して得られる撮像画像を取得する。そして、制御部401は、取得した撮像画像を、通信アンテナ103を介して、センターサーバ2に送信する。通信I/F402は、撮像部102、通信I/F402、GPSアンテナ303、携帯端末304等と通信可能である。記憶部403は、制御部401による車載装置101の制御に用いる各種プログラム等を不揮発的に記憶するROM(Read Only Memory)、当該ROMに記憶される各種プログラムを実行する際の作業領域として用いられるRAM(Random Access Memory)、車両1に設定される設定データを不揮発的に記憶するフラッシュROM、撮像部102の撮像により得られる撮像画像を記憶するVRAM等を有する。外部記憶装置404は、HDD(Hard Disk Drive)やSSD(Solid State Drive)等の大容量記憶装置により構成される。   When receiving a transmission instruction from the center server 2, the control unit 401 acquires a captured image obtained by imaging the surroundings of the vehicle 1 by the imaging unit 102 from the imaging unit 102 via the communication I / F 402. Then, the control unit 401 transmits the acquired captured image to the center server 2 via the communication antenna 103. The communication I / F 402 can communicate with the imaging unit 102, the communication I / F 402, the GPS antenna 303, the mobile terminal 304, and the like. The storage unit 403 is used as a ROM (Read Only Memory) that stores various programs and the like used for controlling the in-vehicle device 101 by the control unit 401 in a nonvolatile manner, and a work area when executing the various programs stored in the ROM. A RAM (Random Access Memory), a flash ROM that stores setting data set in the vehicle 1 in a nonvolatile manner, a VRAM that stores a captured image obtained by imaging of the imaging unit 102, and the like. The external storage device 404 is configured by a large-capacity storage device such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive).

次に、図5および図6を用いて、本実施形態にかかる車載装置101による撮像画像の送信処理について説明する。図5は、本実施形態にかかる通信システムの車両が有する車載装置による撮像画像の送信処理の一例を説明するための図である。図6は、本実施形態にかかる通信システムの車両が有する車載装置の機能構成の一例を示す図である。   Next, a transmission process of a captured image by the in-vehicle device 101 according to the present embodiment will be described using FIG. 5 and FIG. FIG. 5 is a diagram for explaining an example of a captured image transmission process by the in-vehicle device included in the vehicle of the communication system according to the present embodiment. FIG. 6 is a diagram illustrating an example of a functional configuration of the in-vehicle device included in the vehicle of the communication system according to the present embodiment.

本実施形態では、図6に示すように、制御部401が、記憶部403に記憶されるプログラムを実行することにより、エンコーダ601、分解部602、デコーダ603、モザイク処理部604、シャッフル処理部605、および映像再構成部606を実現する。制御部401は、通信アンテナ103を介して、センターサーバ2から、送信指示を受信すると、撮像部102を制御して車両1の周囲の撮像を開始させる。エンコーダ601は、撮像部102により車両1の周囲を撮像して得られる動画像を取得する。そして、エンコーダ601は、取得した動画像が含む各フレームを符号化する。具体的には、エンコーダ601は、H.264等の規格に従って、動画像が含む各フレームを符号化する。   In the present embodiment, as illustrated in FIG. 6, the control unit 401 executes a program stored in the storage unit 403, whereby an encoder 601, a decomposition unit 602, a decoder 603, a mosaic processing unit 604, and a shuffle processing unit 605. And the video reconstruction unit 606 are realized. When receiving a transmission instruction from the center server 2 via the communication antenna 103, the control unit 401 controls the imaging unit 102 to start imaging around the vehicle 1. The encoder 601 acquires a moving image obtained by imaging the surroundings of the vehicle 1 by the imaging unit 102. Then, the encoder 601 encodes each frame included in the acquired moving image. Specifically, the encoder 601 is H.264. Each frame included in the moving image is encoded according to a standard such as H.264.

分解部602は、エンコーダ601により符号化された動画像の各フレームを、フレーム内符号化が行われたフレーム(以下、基準フレームと言う)と、フレーム間符号化が行われかつフレームを分割した各イントラブロック(部分領域の一例)の動きベクトル(移動ベクトル)を含むフレーム(以下、差分フレームと言う)とに分解する。ここで、フレーム内符号化は、フレーム間予測を用いずに、フレームを符号化する方式である。言い換えると、フレーム内符号化は、他のフレームを用いずに、フレームを符号化する。具体的には、フレーム内符号化は、隣接する2つの画素の値から、符号化する画素である対象画素の値を予測し、予測値と実際の対象画素の値との差分を符号化する。また、フレーム間符号化は、フレーム間予測を用いて、フレームを符号化する方式である。本実施形態では、分解部602は、エンコーダ601により符号化された動画像の各フレームを、基準フレームとしてのIフレームと、差分フレームとしてのP,Bフレームとに分解する。そして、分解部602は、動画像のフレームから分解した基準フレーム(例えば、Iフレーム)を、デコーダ603に出力する。また、分解部602は、動画像のフレームから分解した差分フレーム(例えば、P,Bフレーム)を、シャッフル処理部605に出力する。   The disassembling unit 602 divides each frame of the moving image encoded by the encoder 601 into a frame subjected to intra-frame encoding (hereinafter referred to as a reference frame), inter-frame encoded, and divided the frame. The frame is decomposed into frames (hereinafter referred to as difference frames) including motion vectors (movement vectors) of each intra block (an example of a partial region). Here, intraframe coding is a method of coding a frame without using interframe prediction. In other words, intraframe coding encodes a frame without using other frames. Specifically, intra-frame encoding predicts the value of a target pixel that is a pixel to be encoded from the values of two adjacent pixels, and encodes the difference between the predicted value and the actual value of the target pixel. . Also, interframe coding is a method of coding a frame using interframe prediction. In the present embodiment, the decomposition unit 602 decomposes each frame of the moving image encoded by the encoder 601 into an I frame as a reference frame and P and B frames as difference frames. Then, the decomposition unit 602 outputs a reference frame (for example, an I frame) decomposed from the moving image frame to the decoder 603. Also, the decomposition unit 602 outputs the difference frames (for example, P and B frames) decomposed from the moving image frame to the shuffle processing unit 605.

デコーダ603は、分解部602から入力される基準フレームを復号化する。そして、デコーダ603は、復号化した基準フレームを、モザイク処理部604に出力する。   The decoder 603 decodes the reference frame input from the decomposition unit 602. Then, the decoder 603 outputs the decoded reference frame to the mosaic processing unit 604.

モザイク処理部604は、デコーダ603により復号化された基準フレームが含む所定オブジェクトを検出する。本実施形態では、モザイク処理部604は、復号化される基準フレームに対して、パターン認識処理等を行うことによって、当該基準フレームが含む所定オブジェクトを検出する。また、本実施形態では、モザイク処理部604は、図5に示すように、基準フレームから、人や車両やナンバープレートや顔等のプライバシー保護対象のオブジェクトを所定オブジェクトOとして検出する。   The mosaic processing unit 604 detects a predetermined object included in the reference frame decoded by the decoder 603. In the present embodiment, the mosaic processing unit 604 detects a predetermined object included in the reference frame by performing pattern recognition processing or the like on the decoded reference frame. In the present embodiment, as shown in FIG. 5, the mosaic processing unit 604 detects a privacy-protected object such as a person, a vehicle, a license plate, or a face as the predetermined object O from the reference frame.

次いで、モザイク処理部604は、複数の基準フレームからの所定オブジェクトの検出結果に基づいて、所定オブジェクトの移動軌跡を推定する。本実施形態では、モザイク処理部604は、時系列の2つの基準フレームからの所定オブジェクトの検出結果に基づいて、所定オブジェクトの移動軌跡を推定するものとする。例えば、モザイク処理部604は、時系列の2つの基準フレームそれぞれから検出された所定オブジェクトの位置を結ぶ直線を、所定オブジェクトの移動軌跡として推定する。   Next, the mosaic processing unit 604 estimates the movement trajectory of the predetermined object based on the detection result of the predetermined object from the plurality of reference frames. In the present embodiment, it is assumed that the mosaic processing unit 604 estimates the movement trajectory of the predetermined object based on the detection result of the predetermined object from two time-series reference frames. For example, the mosaic processing unit 604 estimates a straight line connecting the positions of predetermined objects detected from two time-series reference frames as the movement locus of the predetermined object.

さらに、モザイク処理部604は、基準フレームが含む所定オブジェクトに対してモザイク処理を実行する。本実施形態では、モザイク処理部604は、基準フレームが含む所定オブジェクトを入れ替えるモザイク処理を実行するが、これに限定するものではなく、基準フレームが含む所定オブジェクトを視認できない状態にするものであれば良い。例えば、モザイク処理部604は、基準フレームが含む所定オブジェクトを、ぼかしたり、黒塗りにしたりするモザイク処理を実行しても良い。また、本実施形態では、モザイク処理部604は、基準フレームが含む所定オブジェクトに対して、可逆変換のモザイク処理を実行するものとするが、これに限定するものではない。例えば、モザイク処理部604は、基準フレームが含む所定オブジェクトに対して、非可逆変換のモザイク処理を実行しても良い。   Further, the mosaic processing unit 604 performs mosaic processing on a predetermined object included in the reference frame. In the present embodiment, the mosaic processing unit 604 executes a mosaic process for replacing a predetermined object included in the reference frame, but the present invention is not limited to this, as long as the predetermined object included in the reference frame is made invisible. good. For example, the mosaic processing unit 604 may execute a mosaic process for blurring or blackening a predetermined object included in the reference frame. In the present embodiment, the mosaic processing unit 604 performs reversible mosaic processing on a predetermined object included in the reference frame. However, the present invention is not limited to this. For example, the mosaic processing unit 604 may perform mosaic processing of irreversible conversion on a predetermined object included in the reference frame.

シャッフル処理部605(入替処理部の一例)は、分解部602により分解される差分フレームから、モザイク処理部604により推定される移動軌跡上のイントラブロックを選択する。本実施形態では、シャッフル処理部605は、差分フレームから、移動軌跡と重なるイントラブロックと当該移動軌跡近傍のイントラブロックを選択する。そして、シャッフル処理部605は、選択したイントラブロック間において、当該イントラブロックの動きベクトルを入れ替えるシャッフル処理(入替処理の一例)を実行する。   The shuffle processing unit 605 (an example of a replacement processing unit) selects an intra block on the movement locus estimated by the mosaic processing unit 604 from the difference frame decomposed by the decomposition unit 602. In the present embodiment, the shuffle processing unit 605 selects an intra block that overlaps the movement locus and an intra block near the movement locus from the difference frame. Then, the shuffle processing unit 605 executes shuffle processing (an example of replacement processing) for exchanging motion vectors of the intra blocks between the selected intra blocks.

本実施形態では、シャッフル処理部605は、選択したイントラブロック間において、予め設定されたルールに基づいて、イントラブロックの動きベクトルを入れ替える。ここで、予め設定されたルールは、可逆変換によって、イントラブロックの動きベクトルを入れ替えるルールである。例えば、図5に示すように、シャッフル処理部605は、選択した所定オブジェクトO(ナンバープレート)を構成するイントラブロックに対して、可逆変換のモザイク処理を実行する。本実施形態では、シャッフル処理部605は、所定オブジェクトを構成するイントラブロックに対して、可逆変換のモザイク処理を実行しているが、所定オブジェクトを構成するイントラブロックに対して、非可逆変換のモザイク処理を実行しても良い。   In the present embodiment, the shuffle processing unit 605 exchanges the motion vectors of the intra blocks between the selected intra blocks based on a preset rule. Here, the preset rule is a rule for exchanging motion vectors of intra blocks by lossless transformation. For example, as illustrated in FIG. 5, the shuffle processing unit 605 performs a reversible mosaic processing on the intra blocks constituting the selected predetermined object O (number plate). In the present embodiment, the shuffle processing unit 605 performs a reversible transformation mosaic process on the intra blocks constituting the predetermined object. However, the shuffle processing unit 605 performs the irreversible mosaic processing on the intra blocks constituting the predetermined object. Processing may be executed.

映像再構成部606(送信部の一例)は、モザイク処理部604によりモザイク処理を実行した基準フレームを符号化する。本実施形態では、映像再構成部606は、モザイク処理を実行した基準フレームに対して、フレーム内符号化を行う。また、映像再構成部606は、符号化を行った基準フレームと、シャッフル処理を実行した差分フレームとを、センターサーバ2(外部装置の一例)に送信する。これにより、撮像部102の撮像により得られる動画像にモザイクを施してセンターサーバ2に送信する場合に、差分フレームから所定オブジェクトを検出する処理を実行する必要が無くなるので、撮像部102の撮像により得られる動画像にモザイクを施してセンターサーバ2に送信する処理の計算コストを低減できる。本実施形態では、撮像部102および車載装置101が撮像装置の一例として機能するが、図6に示す機能構成を、携帯端末304や監視カメラ等において実現することによって、携帯端末304や監視カメラ等を撮像装置の一例として機能させることも可能である。   The video reconstruction unit 606 (an example of a transmission unit) encodes the reference frame on which the mosaic processing is performed by the mosaic processing unit 604. In the present embodiment, the video reconstruction unit 606 performs intra-frame coding on the reference frame on which mosaic processing has been performed. In addition, the video reconstruction unit 606 transmits the encoded reference frame and the difference frame subjected to the shuffle process to the center server 2 (an example of an external device). As a result, when a moving image obtained by imaging by the imaging unit 102 is subjected to mosaic and transmitted to the center server 2, it is not necessary to execute processing for detecting a predetermined object from the difference frame. It is possible to reduce the calculation cost of the process of applying a mosaic to the obtained moving image and transmitting it to the center server 2. In the present embodiment, the imaging unit 102 and the in-vehicle device 101 function as an example of an imaging device. However, by realizing the functional configuration illustrated in FIG. 6 in the mobile terminal 304, the monitoring camera, or the like, the mobile terminal 304, the monitoring camera, or the like. Can be made to function as an example of an imaging apparatus.

次に、図7〜9を用いて、本実施形態にかかる通信システムの車両1の車載装置101による動画像の送信処理の流れについて説明する。図7は、本実施形態にかかる通信システムの車両が有する車載装置による動画像の符号化の一例を説明するための図である。図8は、本実施形態にかかる通信システムの車両が有する車載装置によるシャッフル処理の一例を説明するための図である。図9は、本実施形態にかかる通信システムが有する車載装置による動画像の送信処理の流れの一例を示すフローチャートである。   Next, the flow of a moving image transmission process performed by the in-vehicle device 101 of the vehicle 1 of the communication system according to the present embodiment will be described with reference to FIGS. FIG. 7 is a diagram for explaining an example of encoding of a moving image by an in-vehicle device included in the vehicle of the communication system according to the present embodiment. FIG. 8 is a diagram for explaining an example of shuffle processing by the in-vehicle device included in the vehicle of the communication system according to the present embodiment. FIG. 9 is a flowchart illustrating an example of a flow of moving image transmission processing by the in-vehicle device included in the communication system according to the present embodiment.

本実施形態では、エンコーダ601は、撮像部102により車両1の周囲を撮像して得られる動画像を構成するフレームを符号化する。分解部602は、符号化された基準フレームのうち、異なる時刻の2つの基準フレームを選択する。具体的には、分解部602は、図7に示すように、符号化された基準フレームのうち、第1時刻の基準フレームおよび当該第1時刻より後の第2時刻の基準フレーム(すなわち、時系列の2つの基準フレーム)を選択する。次いで、分解部602は、図7に示すように、符号化された差分フレームのうち、第1時刻の基準フレームと第2時刻の基準フレームの間の差分フレーム(例えば、3つの差分フレーム)を、1つのセット(フレーム群の一例)とする。   In the present embodiment, the encoder 601 encodes a frame constituting a moving image obtained by imaging the surroundings of the vehicle 1 by the imaging unit 102. The decomposition unit 602 selects two reference frames at different times from among the encoded reference frames. Specifically, as shown in FIG. 7, the decomposition unit 602, among the encoded reference frames, the reference frame at the first time and the reference frame at the second time after the first time (that is, the time frame). Select two reference frames in the sequence. Next, as illustrated in FIG. 7, the decomposition unit 602 calculates a difference frame (for example, three difference frames) between the reference frame at the first time and the reference frame at the second time among the encoded difference frames. One set (an example of a frame group) is assumed.

次に、デコーダ603は、時系列の2つの基準フレームを復号化する。モザイク処理部604は、図7に示すように、第1時刻の基準フレームおよび第2時刻の基準フレームそれぞれから所定オブジェクト(例えば、先行車両)を検出する。モザイク処理部604は、各基準フレームから検出した所定オブジェクトに対してモザイク処理を実行する。また、モザイク処理部604は、第1時刻の基準フレームにおける所定オブジェクトの位置と、第2時刻の基準フレームにおける所定オブジェクトの位置とを結ぶ直線を、第1時刻と第2時刻間における所定オブジェクトの移動軌跡と推定する(ステップS901)。例えば、モザイク処理部604は、第1時刻の基準フレームにおける所定オブジェクトの位置と、第2時刻の基準フレームにおける所定オブジェクトの位置を結ぶ直線を、所定オブジェクトの移動軌跡と推定する。   Next, the decoder 603 decodes two time-series reference frames. As illustrated in FIG. 7, the mosaic processing unit 604 detects a predetermined object (for example, a preceding vehicle) from each of the reference frame at the first time and the reference frame at the second time. The mosaic processing unit 604 performs mosaic processing on a predetermined object detected from each reference frame. In addition, the mosaic processing unit 604 uses a straight line connecting the position of the predetermined object in the reference frame at the first time and the position of the predetermined object in the reference frame at the second time to determine the predetermined object between the first time and the second time. A movement trajectory is estimated (step S901). For example, the mosaic processing unit 604 estimates a straight line connecting the position of the predetermined object in the reference frame at the first time and the position of the predetermined object in the reference frame at the second time as the movement locus of the predetermined object.

次いで、シャッフル処理部605は、デコーダ603から出力される差分フレームが含むイントラブロックのうち移動軌跡上のイントラブロックの動きベクトルに基づいて、移動軌跡を補正する(ステップS902)。具体的には、シャッフル処理部605は、差分フレームが含むイントラブロックのうち移動軌跡上のイントラブロックの動きベクトルの方向に、当該移動軌跡が示す所定オブジェクトの移動方向が近づくように、移動軌跡を補正する。これにより、シャッフル処理部605によりシャッフル処理を実行するイントラブロックを、差分フレームが含む所定オブジェクトのイントラブロックに近づけることができるので、差分フレームが含む所定オブジェクトに対して高精度にシャッフル処理を実行できる。   Next, the shuffle processing unit 605 corrects the movement locus based on the motion vector of the intra block on the movement locus among the intra blocks included in the difference frame output from the decoder 603 (step S902). Specifically, the shuffle processing unit 605 sets the movement locus so that the movement direction of the predetermined object indicated by the movement locus approaches the direction of the motion vector of the intra block on the movement locus among the intra blocks included in the difference frame. to correct. Thereby, since the intra block for which the shuffle processing unit 605 performs the shuffle process can be brought close to the intra block of the predetermined object included in the difference frame, the shuffle process can be performed with high accuracy on the predetermined object included in the difference frame. .

次に、シャッフル処理部605は、1つのセットに含まれる複数の差分フレームにおける移動軌跡上のイントラブロック(例えば、図8において、黒塗りのイントラブロック)を選択する(ステップS903)。そして、シャッフル処理部605は、選択したイントラブロック間において、当該イントラブロックの動きベクトルを入れ替えるシャッフル処理を実行する(ステップS904)。すなわち、シャッフル処理部605は、1つのセットに含まれる複数の差分フレームにおける移動軌跡上のイントラブロック間において、当該イントラブロックの動きベクトルを入れ替えるシャッフル処理を実行する。これにより、1つの差分フレームにおける移動軌跡上のイントラブロック間において、当該イントラブロックの動きベクトルをより複雑に入れ替えることができるので、差分フレームに対するモザイクの強度を上げることができる。   Next, the shuffle processing unit 605 selects an intra block (for example, a black intra block in FIG. 8) on a movement locus in a plurality of difference frames included in one set (step S903). Then, the shuffle processing unit 605 executes shuffle processing for exchanging motion vectors of the intra blocks between the selected intra blocks (step S904). That is, the shuffle processing unit 605 executes shuffle processing for exchanging motion vectors of the intra block between the intra blocks on the movement locus in the plurality of difference frames included in one set. Thereby, since the motion vector of the intra block can be more complicatedly exchanged between intra blocks on the movement trajectory in one difference frame, the intensity of the mosaic for the difference frame can be increased.

本実施形態では、シャッフル処理部605は、選択したイントラブロック間において、当該イントラブロックの動きベクトルを入れ替える際のルールを変更することによって、差分フレームに対するモザイクの強弱を変更することも可能である。   In the present embodiment, the shuffle processing unit 605 can also change the strength of the mosaic with respect to the difference frame by changing a rule for exchanging motion vectors of the intra block between the selected intra blocks.

その後、映像再構成部606は、モザイク処理部604によりモザイク処理を実行した時系列の基準フレームを、再度、符号化する。そして、映像再構成部606は、符号化した基準フレーム、およびシャッフル処理部605によりシャッフル処理を実行した差分フレームを、時系列に並べ替えてセンターサーバ2に送信する(ステップS905)。撮像部102の撮像により得られる動画像にモザイクを施してセンターサーバ2に送信する場合に、差分フレームから所定オブジェクトを検出する処理を実行する必要が無くなるので、撮像部102の撮像により得られる動画像にモザイクを施してセンターサーバ2に送信する処理の計算コストを低減できる。   Thereafter, the video reconstruction unit 606 re-encodes the time-series reference frames for which the mosaic processing unit 604 has performed the mosaic processing. Then, the video reconstruction unit 606 rearranges the encoded reference frame and the difference frame subjected to the shuffle processing by the shuffle processing unit 605 in time series and transmits them to the center server 2 (step S905). When a moving image obtained by imaging by the imaging unit 102 is mosaiced and transmitted to the center server 2, it is not necessary to execute processing for detecting a predetermined object from the difference frame, and thus a moving image obtained by imaging by the imaging unit 102 It is possible to reduce the calculation cost of processing for mosaicing an image and transmitting it to the center server 2.

本実施形態では、映像再構成部606は、基準フレームおよび差分フレームをセンターサーバ2等の外部装置に送信しているが、基準フレームにおいてモザイク処理を実行した位置(すなわち、基準フレームから検出した所定オブジェクトの位置)を示す情報(例えば、座標情報)を、基準フレームおよび差分フレームとともにセンターサーバ2に送信しても良い。これにより、センターサーバ2等の外部装置において、基準フレームに実行されたモザイクを解除する場合に、基準フレームにおいてモザイク処理を実行した位置を容易に特定できる。   In the present embodiment, the video reconstruction unit 606 transmits the reference frame and the difference frame to an external device such as the center server 2, but the position where the mosaic processing is executed in the reference frame (that is, the predetermined frame detected from the reference frame). Information (for example, coordinate information) indicating the position of the object may be transmitted to the center server 2 together with the reference frame and the difference frame. Thereby, when canceling the mosaic executed on the reference frame in an external device such as the center server 2, the position where the mosaic processing is executed on the reference frame can be easily specified.

また、映像再構成部606は、推定した移動軌跡を示す情報を、基準フレームおよび差分フレームとともにセンターサーバ2に送信しても良い。これにより、センターサーバ2等の外部装置において、差分フレームに実行されるモザイクを解除する場合に、差分フレームにおいてシャッフル処理を実行したイントラブロックを容易に特定できる。   In addition, the video reconstruction unit 606 may transmit information indicating the estimated movement locus to the center server 2 together with the reference frame and the difference frame. Thereby, when canceling the mosaic executed on the difference frame in an external device such as the center server 2, it is possible to easily identify the intra block on which the shuffle process is executed on the difference frame.

このように、本実施形態にかかる車載装置101によれば、撮像部102の撮像により得られる動画像にモザイクを施してセンターサーバ2に送信する処理の計算コストを低減できる。   As described above, according to the in-vehicle device 101 according to the present embodiment, it is possible to reduce the calculation cost of the process of applying the mosaic to the moving image obtained by the imaging of the imaging unit 102 and transmitting it to the center server 2.

なお、本実施形態の車載装置101で実行されるプログラムは、ROM等に予め組み込まれて提供される。本実施形態の車載装置101で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録して提供するように構成しても良い。   Note that the program executed by the in-vehicle device 101 of the present embodiment is provided by being incorporated in advance in a ROM or the like. The program executed in the in-vehicle device 101 of the present embodiment is a file in an installable format or an executable format, and is a computer such as a CD-ROM, a flexible disk (FD), a CD-R, a DVD (Digital Versatile Disk). You may comprise so that it may record and provide on a readable recording medium.

さらに、本実施形態の車載装置101で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態の車載装置101で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。   Furthermore, the program executed by the in-vehicle device 101 according to the present embodiment may be configured to be provided by being stored on a computer connected to a network such as the Internet and downloaded via the network. The program executed by the in-vehicle device 101 of the present embodiment may be configured to be provided or distributed via a network such as the Internet.

本実施形態の車載装置101で実行されるプログラムは、上述した各部(エンコーダ601、分解部602、デコーダ603、モザイク処理部604、シャッフル処理部605、および映像再構成部606)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(Central Processing Unit)が上記ROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、エンコーダ601、分解部602、デコーダ603、モザイク処理部604、シャッフル処理部605、および映像再構成部606が主記憶装置上に生成されるようになっている。   The program executed by the in-vehicle device 101 according to the present embodiment has a module configuration including the above-described units (encoder 601, decomposition unit 602, decoder 603, mosaic processing unit 604, shuffle processing unit 605, and video reconstruction unit 606). As actual hardware, a CPU (Central Processing Unit) reads out a program from the ROM and executes it, so that the above-described units are loaded onto the main storage device, and an encoder 601, a decomposing unit 602, a decoder 603, a mosaic A processing unit 604, a shuffle processing unit 605, and a video reconstruction unit 606 are generated on the main storage device.

本発明の実施形態を説明したが、この実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。この実施形態は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although the embodiment of the present invention has been described, this embodiment is presented as an example and is not intended to limit the scope of the invention. The novel embodiment can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. This embodiment is included in the scope and gist of the invention, and is also included in the invention described in the claims and the equivalent scope thereof.

1 車両
2 センターサーバ
3 クライアント端末
4 基地局
101 車載装置
102,301,302 撮像部
103 通信アンテナ
401 制御部
402 通信I/F
403 記憶部
404 外部記憶装置
601 エンコーダ
602 分解部
603 デコーダ
604 モザイク処理部
605 シャッフル処理部
606 映像再構成部
DESCRIPTION OF SYMBOLS 1 Vehicle 2 Center server 3 Client terminal 4 Base station 101 In-vehicle apparatus 102,301,302 Imaging part 103 Communication antenna 401 Control part 402 Communication I / F
403 Storage unit 404 External storage device 601 Encoder 602 Decomposition unit 603 Decoder 604 Mosaic processing unit 605 Shuffle processing unit 606 Video reconstruction unit

Claims (14)

撮像部と、
前記撮像部の撮像により得られる動画像が含むフレームを符号化するエンコーダと、
前記符号化されたフレームのうちフレーム内符号化が行われた基準フレームを復号化するデコーダと、
復号化された前記基準フレームが含む所定オブジェクトを検出し、前記所定オブジェクトに対してモザイク処理を実行し、かつ前記所定オブジェクトの検出結果に基づいて当該所定オブジェクトの移動軌跡を推定するモザイク処理部と、
前記符号化されたフレームのうちフレーム間符号化が行われかつ当該フレームを分割した各部分領域の動きベクトルを含む差分フレームから、前記移動軌跡上の前記部分領域を選択し、選択した前記部分領域間において、当該部分領域の前記動きベクトルを入れ替える入替処理を実行する入替処理部と、
前記モザイク処理を実行した前記基準フレームを符号化し、かつ当該符号化した基準フレームおよび前記入替処理を実行した前記差分フレームを外部装置に送信する送信部と、
を備えた撮像装置。
An imaging unit;
An encoder that encodes a frame included in a moving image obtained by imaging of the imaging unit;
A decoder that decodes a reference frame that has been subjected to intra-frame encoding among the encoded frames;
A mosaic processing unit that detects a predetermined object included in the decoded reference frame, performs a mosaic process on the predetermined object, and estimates a movement locus of the predetermined object based on a detection result of the predetermined object; ,
The partial area on the movement trajectory is selected from the difference frame including the motion vector of each partial area obtained by performing inter-frame encoding among the encoded frames and dividing the frame, and the selected partial area A replacement processing unit that executes replacement processing for replacing the motion vectors of the partial area,
A transmitter that encodes the reference frame on which the mosaic processing has been performed, and transmits the encoded reference frame and the difference frame on which the replacement processing has been performed to an external device;
An imaging apparatus comprising:
前記モザイク処理部は、復号化された前記基準フレームから、プライバシー保護対象のオブジェクトを前記所定オブジェクトとして検出する請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the mosaic processing unit detects a privacy protection target object as the predetermined object from the decoded reference frame. 時系列の2つの前記基準フレーム間の前記差分フレームを1つのフレーム群とし、
前記入替処理部は、前記フレーム群に含まれる前記各差分フレームにおける前記移動軌跡上の前記部分領域間において、当該部分領域の前記動きベクトルを入れ替える前記入替処理を実行する請求項1に記載の撮像装置。
The difference frame between two reference frames in time series is defined as one frame group,
2. The imaging according to claim 1, wherein the replacement processing unit executes the replacement process of replacing the motion vectors of the partial areas between the partial areas on the movement locus in the difference frames included in the frame group. apparatus.
前記入替処理部は、前記移動軌跡上の前記部分領域の前記動きベクトルに基づいて、前記移動軌跡を補正する請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the replacement processing unit corrects the movement locus based on the motion vector of the partial region on the movement locus. 前記入替処理部は、選択した前記部分領域間において、予め設定されたルールに基づいて、当該部分領域の前記動きベクトルを入れ替える請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the replacement processing unit replaces the motion vectors of the partial areas based on a preset rule between the selected partial areas. 前記予め設定されたルールは、可逆変換によって、前記部分領域の前記動きベクトルを入れ替えるルールである請求項5に記載の撮像装置。   The imaging apparatus according to claim 5, wherein the preset rule is a rule for exchanging the motion vectors of the partial regions by reversible transformation. 前記符号化されたフレームを、前記基準フレームとしてのIフレームと、前記差分フレームとしてのP,Bフレームに分解する分解部をさらに備える請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a decomposing unit that decomposes the encoded frame into an I frame as the reference frame and P and B frames as the difference frames. 撮像部の撮像により得られる動画像が含むフレームを符号化し、
前記符号化されたフレームのうちフレーム内符号化が行われた基準フレームを復号化し、
復号化された前記基準フレームが含む所定オブジェクトを検出し、
前記基準フレームが含む前記所定オブジェクトに対してモザイク処理を実行し、
前記所定オブジェクトの検出結果に基づいて当該所定オブジェクトの移動軌跡を推定し、
前記符号化されたフレームのうちフレーム間符号化が行われかつ当該フレームを分割した各部分領域の動きベクトルを含む差分フレームから、前記移動軌跡上の前記部分領域を選択し、
選択した前記部分領域間において、当該部分領域の前記動きベクトルを入れ替える入替処理を実行し、
前記モザイク処理を実行した前記基準フレームを符号化し、
当該符号化した基準フレームおよび前記入替処理を実行した前記差分フレームを外部装置に送信する、
ことを含む送信方法。
Encode a frame included in a moving image obtained by imaging of the imaging unit,
Decoding a reference frame subjected to intra-frame encoding among the encoded frames;
Detecting a predetermined object included in the decoded reference frame;
Mosaic processing is performed on the predetermined object included in the reference frame,
Based on the detection result of the predetermined object, the movement trajectory of the predetermined object is estimated,
Selecting the partial region on the movement trajectory from the difference frame including the motion vector of each partial region in which the inter-frame encoding is performed and the frame is divided among the encoded frames;
Performing a replacement process for replacing the motion vectors of the partial areas between the selected partial areas;
Encoding the reference frame on which the mosaic processing has been performed;
Transmitting the encoded reference frame and the difference frame subjected to the replacement process to an external device;
A transmission method including that.
復号化された前記基準フレームから、プライバシー保護対象のオブジェクトを前記所定オブジェクトとして検出する請求項8に記載の送信方法。   The transmission method according to claim 8, wherein an object subject to privacy protection is detected as the predetermined object from the decoded reference frame. 時系列の2つの前記基準フレーム間の前記差分フレームを1つのフレーム群とし、
前記フレーム群に含まれる前記各差分フレームにおける前記移動軌跡上の前記部分領域間において、当該部分領域の前記動きベクトルを入れ替える前記入替処理を実行する請求項8に記載の送信方法。
The difference frame between two reference frames in time series is defined as one frame group,
The transmission method according to claim 8, wherein the replacement process of exchanging the motion vectors of the partial areas is performed between the partial areas on the movement trajectory in the difference frames included in the frame group.
前記移動軌跡上の前記部分領域の前記動きベクトルに基づいて、前記移動軌跡を補正する請求項8に記載の送信方法。   The transmission method according to claim 8, wherein the movement trajectory is corrected based on the motion vector of the partial region on the movement trajectory. 選択した前記部分領域間において、予め設定されたルールに基づいて、当該部分領域の前記動きベクトルを入れ替える請求項8に記載の送信方法。   The transmission method according to claim 8, wherein the motion vectors of the partial areas are exchanged between the selected partial areas based on a preset rule. 前記予め設定されたルールは、可逆変換によって、前記部分領域の前記動きベクトルを入れ替えるルールである請求項12に記載の送信方法。   The transmission method according to claim 12, wherein the preset rule is a rule for exchanging the motion vectors of the partial regions by reversible transformation. 前記符号化されたフレームを、前記基準フレームとしてのIフレームと、前記差分フレームとしてのP,Bフレームに分解することをさらに含む請求項8に記載の送信方法。   9. The transmission method according to claim 8, further comprising: decomposing the encoded frame into an I frame as the reference frame and P and B frames as the difference frames.
JP2016161387A 2016-08-19 2016-08-19 Imaging device and transmission method Active JP6659495B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016161387A JP6659495B2 (en) 2016-08-19 2016-08-19 Imaging device and transmission method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016161387A JP6659495B2 (en) 2016-08-19 2016-08-19 Imaging device and transmission method

Publications (2)

Publication Number Publication Date
JP2018029309A true JP2018029309A (en) 2018-02-22
JP6659495B2 JP6659495B2 (en) 2020-03-04

Family

ID=61248630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016161387A Active JP6659495B2 (en) 2016-08-19 2016-08-19 Imaging device and transmission method

Country Status (1)

Country Link
JP (1) JP6659495B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200728A (en) * 2018-05-18 2019-11-21 株式会社デンソー On-vehicle camera
JP2021516390A (en) * 2018-03-09 2021-07-01 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Surround view system with adjusted projection plane

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009033738A (en) * 2007-07-04 2009-02-12 Sanyo Electric Co Ltd Imaging apparatus, data structure of image file
JP2010268055A (en) * 2009-05-12 2010-11-25 Canon Inc Image processing device and image processing method
JP2013118606A (en) * 2011-10-31 2013-06-13 Jvc Kenwood Corp Image processing device, image processing method, and image processing program
JP2014225726A (en) * 2013-05-15 2014-12-04 富士通株式会社 Information processing apparatus, program and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009033738A (en) * 2007-07-04 2009-02-12 Sanyo Electric Co Ltd Imaging apparatus, data structure of image file
JP2010268055A (en) * 2009-05-12 2010-11-25 Canon Inc Image processing device and image processing method
JP2013118606A (en) * 2011-10-31 2013-06-13 Jvc Kenwood Corp Image processing device, image processing method, and image processing program
JP2014225726A (en) * 2013-05-15 2014-12-04 富士通株式会社 Information processing apparatus, program and image processing method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021516390A (en) * 2018-03-09 2021-07-01 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Surround view system with adjusted projection plane
JP7295123B2 (en) 2018-03-09 2023-06-20 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング Surround view system with adjusted projection plane
JP2019200728A (en) * 2018-05-18 2019-11-21 株式会社デンソー On-vehicle camera
CN110497852A (en) * 2018-05-18 2019-11-26 株式会社电装 Vehicle-mounted vidicon and camera chain
JP7070082B2 (en) 2018-05-18 2022-05-18 株式会社デンソー In-vehicle camera

Also Published As

Publication number Publication date
JP6659495B2 (en) 2020-03-04

Similar Documents

Publication Publication Date Title
EP3316589B1 (en) Video synchronization device and video synchronization method
JP2020017301A (en) Image processing method, image processing system, and image processing terminal
JP2020533839A5 (en)
CN102726047A (en) Surveillance system
KR101930950B1 (en) IP camera real time encryption system based on network switch
US8743953B2 (en) Method and apparatus for adjusting video compression parameters for encoding source video based on a viewer's environment
US20170127081A1 (en) Coding method using motion model information
JP6465600B2 (en) Video processing apparatus and video processing method
JP2007266652A (en) Moving object detection device, moving object detection method, moving object detection program, video decoder, video encoder, imaging apparatus, and video management system
US20140043491A1 (en) Methods and apparatuses for detection of anomalies using compressive measurements
CN109688413B (en) Method and encoder for encoding a video stream in a video encoding format supporting auxiliary frames
JP6659495B2 (en) Imaging device and transmission method
JP6707334B2 (en) Method and apparatus for real-time encoding
JP5872171B2 (en) Camera system
US10536702B1 (en) Adjusting the image of an object to search for during video encoding due to changes in appearance caused by camera movement
KR101772391B1 (en) Exetended Monitoring Device Using Voice Recognition Module Installed in Multi Spot
WO2022074701A1 (en) Information processing device, information processing system, and information processing method
US20190371142A1 (en) Pathway determination based on multiple input feeds
JP2013240046A5 (en)
JP2014216831A (en) Encoding device and remote monitoring system
JP2022003779A (en) Image decoding device, image decoding method, and image decoding program
JP7142543B2 (en) Image processing program, image processing apparatus, image processing system, and image processing method
RU2789732C2 (en) Image decoding device and image decoding method
EP4231638A1 (en) Encoding of a video stream including an overlay
KR20230094957A (en) Method and image processing device for encoding a video

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20170911

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20170912

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191219

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200206

R150 Certificate of patent or registration of utility model

Ref document number: 6659495

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150