JP2015226260A - Image processor and image processing method - Google Patents

Image processor and image processing method Download PDF

Info

Publication number
JP2015226260A
JP2015226260A JP2014111444A JP2014111444A JP2015226260A JP 2015226260 A JP2015226260 A JP 2015226260A JP 2014111444 A JP2014111444 A JP 2014111444A JP 2014111444 A JP2014111444 A JP 2014111444A JP 2015226260 A JP2015226260 A JP 2015226260A
Authority
JP
Japan
Prior art keywords
image
imaging unit
frame image
orientation
video processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014111444A
Other languages
Japanese (ja)
Inventor
健 宮越
Takeshi Miyakoshi
健 宮越
雅明 遠藤
Masaaki Endo
雅明 遠藤
若尾 聡
Satoshi Wakao
聡 若尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2014111444A priority Critical patent/JP2015226260A/en
Publication of JP2015226260A publication Critical patent/JP2015226260A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an image processor and an image processing method capable of preventing increase of the load on the processor and the consumption of electric power by efficiently performing coding of swinging image.SOLUTION: The image processor extracts and encodes one entire image based on a difference S1-S2 between an output S1 from a swing amount detection section 3 which has a gyro sensor 31 and an output S2 from a lowpass filter 4 passing through the output S1, on the other hand, after picking out a part of the entire image and encodes the same after performing a swing correction. With this, the swinging image can be encoded efficiently; and thus the load on the processor 10 and the consumption of electric power are prevented from increasing.

Description

本開示は、人体に装着して使用する装着型カメラを有する監視カメラシステムに用いて好適な映像処理装置及び映像処理方法に関する。   The present disclosure relates to a video processing apparatus and a video processing method suitable for use in a surveillance camera system having a wearable camera that is worn on a human body.

監視カメラシステムにおいて、全方位を撮像できる広角レンズや魚眼レンズを搭載したカメラ装置が用いられることがある。この種のカメラ装置を開示した技術として、例えば特許文献1に記載されたものが知られている。   In a surveillance camera system, a camera device equipped with a wide-angle lens or a fish-eye lens capable of imaging all directions may be used. As a technique that discloses this type of camera device, for example, one described in Patent Document 1 is known.

また、監視カメラシステムに用いられるカメラ装置には、警備員や警察官の衣服等に装着して使用する装着型カメラ装置がある。この装着型カメラ装置には、全体画像(高解像度の画像)を出力するとともに、全体画像の一部を切り出し、揺れ補正を行って出力する機能を有するものがある。   Camera devices used in surveillance camera systems include wearable camera devices that are used by being worn on the clothes of guards or police officers. Some of the wearable camera devices have a function of outputting an entire image (high-resolution image), cutting out a part of the entire image, performing shake correction, and outputting the image.

特開2004−015766号公報JP 2004-015766 A

しかしながら、揺れている画像の符号化は画像のデータ量が多くなることから、符号化効率が良くない(即ち、動きが多いため、圧縮率が上がらない)。また、全体画像に対して揺れ補正する場合、データ量が多くなることから、プロセッサの負荷及び消費電力が大きくなってしまうという課題がある。   However, the coding of a shaking image increases the amount of data of the image, so that the coding efficiency is not good (that is, because there is a lot of movement, the compression rate does not increase). Further, when shake correction is performed on the entire image, the amount of data increases, which causes a problem that the load and power consumption of the processor increase.

本開示は、係る事情に鑑みてなされたものであり、揺れている画像の符号化を効率良く行うことで、プロセッサの負荷及び消費電力の増加を抑えることができる映像処理装置及び映像処理方法を提供することを目的とする。   The present disclosure has been made in view of such circumstances, and a video processing apparatus and a video processing method capable of suppressing an increase in processor load and power consumption by efficiently encoding a shaking image. The purpose is to provide.

本開示の映像処理装置は、動体に装着される映像処理装置であって、前記映像処理装置は、撮像部と、向き検出部と、プロセッサと、を有し、前記向き検出部は、前記動体に装着された前記映像処理装置における前記撮像部の向きを検出し、前記プロセッサは、前記撮像部が第1の周期で取得した第1のフレーム画像に対して、前記第1のフレーム画像より小さいデータ量の第2のフレーム画像を第2の周期で生成し、前記向き検出部から前記撮像部の向きを受け取り、前記撮像部の向きが所定の範囲内にある際は、前記第2のフレーム画像より大きいデータ量の第3のフレーム画像を前記第1のフレーム画像から抽出して生成する。   The video processing device according to the present disclosure is a video processing device mounted on a moving object, and the video processing device includes an imaging unit, a direction detection unit, and a processor, and the direction detection unit includes the moving object. The orientation of the imaging unit in the video processing device mounted on the processor is detected, and the processor is smaller than the first frame image with respect to the first frame image acquired by the imaging unit in a first period A second frame image having a data amount is generated in a second period, the orientation of the imaging unit is received from the orientation detection unit, and when the orientation of the imaging unit is within a predetermined range, the second frame A third frame image having a data amount larger than that of the image is extracted from the first frame image and generated.

本開示によれば、揺れている画像の符号化を効率良く行うことができるのでプロセッサの負荷及び消費電力の増加を抑えることができる。   According to the present disclosure, it is possible to efficiently encode a shaking image, and thus it is possible to suppress an increase in processor load and power consumption.

本開示の一実施の形態に係る映像処理装置の概略構成を示すブロック図1 is a block diagram illustrating a schematic configuration of a video processing apparatus according to an embodiment of the present disclosure. 図1の映像処理装置の揺れ量検出部の出力及びローパスフィルタの出力の一例を示す波形図Waveform diagram showing an example of the output of the shake amount detection unit and the output of the low-pass filter of the video processing apparatus of FIG. 図1の映像処理装置における符号化する画像を指示する処理の一例を示す図The figure which shows an example of the process which designates the image to encode in the video processing apparatus of FIG. 図1の映像処理装置をソフトウェア的に実現した構成の一例を示すブロック図The block diagram which shows an example of the structure which implement | achieved the video processing apparatus of FIG. 1 like software 図4の映像処理装置における動作を説明するためのフローチャートThe flowchart for demonstrating operation | movement in the video processing apparatus of FIG.

以下、本開示を実施するための好適な実施の形態について、図面を参照して詳細に説明する。   Hereinafter, preferred embodiments for carrying out the present disclosure will be described in detail with reference to the drawings.

図1は、本開示の一実施の形態に係る映像処理装置の概略構成を示すブロック図である。同図において、本実施の形態に係る映像処理装置1は、ジャイロセンサ31を有する揺れ量検出部3で動体に装着された撮像部2の揺れ量を検出し、その出力S1をローパスフィルタ4に通す。ローパスフィルタ4は移動に伴い向きが変化する動体の正面を検知する為に用いられる。撮像部2は、広角レンズを有するとともに、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を有し、該撮像素子が撮像した映像を出力する。比較部5は、ローパスフィルタ4の出力S2と揺れ量検出部3の出力S1との差分S1−S2をとる。差分S1−S2は、動体の正面に対する撮像部2の相対的な向き、すなわち揺れ成分である。画像切出部6は、撮像部2で撮像された画像(第1のフレーム画像)から、例えば移動物体が映っている部分を切り出す。なお、画像切出部6は、差分S1−S2を用いて画像の切り出し位置を変更することで揺れ補正を行う。符号化部7は、画像切出部6で切り出された画像(第2のフレーム画像)を符号化する。   FIG. 1 is a block diagram illustrating a schematic configuration of a video processing apparatus according to an embodiment of the present disclosure. In the figure, the video processing apparatus 1 according to the present embodiment detects a shaking amount of the imaging unit 2 attached to a moving body by a shaking amount detection unit 3 having a gyro sensor 31, and outputs the output S 1 to the low-pass filter 4. Pass through. The low-pass filter 4 is used to detect the front of a moving body whose direction changes with movement. The imaging unit 2 includes a wide-angle lens and an imaging element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), and outputs an image captured by the imaging element. The comparison unit 5 takes a difference S1−S2 between the output S2 of the low-pass filter 4 and the output S1 of the fluctuation amount detection unit 3. The difference S1-S2 is a relative direction of the imaging unit 2 with respect to the front of the moving object, that is, a shaking component. The image cutout unit 6 cuts out, for example, a portion where a moving object is shown from the image (first frame image) picked up by the image pickup unit 2. The image cutout unit 6 performs shake correction by changing the cutout position of the image using the difference S1-S2. The encoding unit 7 encodes the image (second frame image) cut out by the image cutting unit 6.

一方、絶対値判定部8は、差分S1−S2の絶対値をとり、その結果を所定の閾値と比較し、閾値以下であれば、そのときの全体画像(第3のフレーム画像)を符号化するよう符号化部9に指示をする。ここで、全体画像とは撮像部2が撮像した第1のフレーム画像そのものであっても良いし、第1のフレーム画像の一部を占める画像であって、第2のフレーム画像よりも大きい画像であってもよい。符号化部9は、絶対値判定部8から指示された画像を符号化する。差分S1−S2の絶対値が閾値以下のときの画像とは、撮像部2が正面(動体の正面)を向いたときに撮像部2で撮像された画像である。このように、差分S1−S2の絶対値と比較される閾値は、撮像部2が正面を向いたときの画像を抽出できる値に決められている。   On the other hand, the absolute value determination unit 8 takes the absolute value of the difference S1-S2, compares the result with a predetermined threshold value, and if it is equal to or less than the threshold value, encodes the entire image (third frame image) at that time. The encoding unit 9 is instructed to do so. Here, the whole image may be the first frame image itself captured by the imaging unit 2, or an image that occupies a part of the first frame image and is larger than the second frame image. It may be. The encoding unit 9 encodes the image instructed from the absolute value determination unit 8. The image when the absolute value of the difference S1-S2 is equal to or less than the threshold is an image captured by the imaging unit 2 when the imaging unit 2 faces the front (the front of the moving object). As described above, the threshold value to be compared with the absolute value of the difference S1-S2 is determined to be a value that can extract an image when the imaging unit 2 faces the front.

図2は、揺れ量検出部3の出力S1及びローパスフィルタ4の出力S2の一例を示す波形図である。同図において、上下に大きく振れている線が揺れ量検出部3の出力S1であり、緩やかに上下に振れている線がローパスフィルタ4の出力S2である。揺れ量検出部3の出力S1とローパスフィルタ4の出力S2が同じになる点Tが、全体画像を符号化するタイミングであるが、実際は、出力S1,S2の差の絶対値が所定の範囲内に入ったときを当該タイミングとする。   FIG. 2 is a waveform diagram showing an example of the output S1 of the fluctuation amount detection unit 3 and the output S2 of the low-pass filter 4. In the figure, the line that swings up and down is the output S1 of the swing amount detection unit 3, and the line that gently swings up and down is the output S2 of the low-pass filter 4. The point T at which the output S1 of the shake amount detection unit 3 and the output S2 of the low-pass filter 4 are the same is the timing for encoding the entire image, but in reality, the absolute value of the difference between the outputs S1 and S2 is within a predetermined range. The time when entering is the timing.

図3は、符号化する画像を指示する処理の一例を示す図である。図2に示した出力S1,S2において、絶対値判定部8が、それらの差分S1−S2の絶対値をとり、その結果を所定の閾値と比較する。絶対値判定部8は、差分S1−S2の絶対値が所定の閾値以下であると判断すると、符号化部9に、そのときの全体画像を符号化するように指示する。図3に示す画像(撮像部2で撮像された画像)I1,I2,I3,I4,…,I8,I9のうち、画像I1,I4,I8が、差分S1−S2の絶対値が所定の閾値以下となるタイミングで符号化するように指示された画像である。これらの画像I1,I4,I8は揺れの少ない画像列となり、連続する画像同士の差分が小さいことから、高い符号化効率が得られる。   FIG. 3 is a diagram illustrating an example of processing for designating an image to be encoded. In the outputs S1 and S2 shown in FIG. 2, the absolute value determination unit 8 takes the absolute value of the difference S1-S2 and compares the result with a predetermined threshold value. When the absolute value determination unit 8 determines that the absolute value of the difference S1-S2 is equal to or less than a predetermined threshold value, the absolute value determination unit 8 instructs the encoding unit 9 to encode the entire image at that time. Among images I1, I2, I3, I4,..., I8, I9 shown in FIG. It is an image instructed to be encoded at the following timing. These images I1, I4, and I8 form an image sequence with little shaking, and the difference between successive images is small, so that high coding efficiency is obtained.

図1から図3においては本開示の一実施の形態として、ハードウェア的な構成で本開示を実施する例を示した。本開示はハードウェア的な構成のみならず、汎用CPUを用いてソフトウェア的に構成することも可能である。図4以下を用いて本開示の別の一実施の形態を示す。   In FIGS. 1 to 3, as an embodiment of the present disclosure, an example in which the present disclosure is implemented with a hardware configuration is shown. The present disclosure can be configured not only by hardware but also by software using a general-purpose CPU. FIG. 4 and the following are used to illustrate another embodiment of the present disclosure.

図4は、本実施の形態に係る映像処理装置1をソフトウェア的に実現した構成の一例を示すブロック図である。同図に示すように、撮像部2と揺れ量検出部3とパケット送信部11以外の要素は、1つのプロセッサ10で構成している。撮像部2は、前述したように、広角レンズを有するとともに、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等の撮像素子を有し、該撮像素子が撮像した映像を出力する。揺れ量検出部3は、前述したように、動体に装着された撮像部2の揺れ量を検出する。   FIG. 4 is a block diagram showing an example of a configuration in which the video processing apparatus 1 according to the present embodiment is realized as software. As shown in the figure, elements other than the imaging unit 2, the shake amount detection unit 3, and the packet transmission unit 11 are configured by one processor 10. As described above, the imaging unit 2 includes a wide-angle lens and an imaging element such as a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), and outputs an image captured by the imaging element. As described above, the shake amount detection unit 3 detects the shake amount of the imaging unit 2 attached to the moving body.

プロセッサ10は、CPU、ROM及びRAMで構成したものであり、カメラ向き検出部101、正面向き検出部102、揺れ補正量算出部103、符号化部104、パケット組立部105、画像バッファ106、画像切出部107、符号化部108、パケット組立部109及びパケットバッファ110の機能を有する。   The processor 10 includes a CPU, a ROM, and a RAM, and includes a camera direction detection unit 101, a front direction detection unit 102, a shake correction amount calculation unit 103, an encoding unit 104, a packet assembly unit 105, an image buffer 106, and an image buffer 106. It has functions of a cutout unit 107, an encoding unit 108, a packet assembly unit 109, and a packet buffer 110.

カメラ向き検出部101は、前述したローパスフィルタ4の機能と同等の機能を有する。正面向き検出部102は、前述した比較部5及び絶対値判定部8の機能と同等の機能を有し、カメラ向き検出部101の出力(前述したローパスフィルタ4の出力に対応)S2と揺れ量検出部3の出力S1の差分をとり、その差分S1−S2の絶対値と所定の閾値との比較を行い、差分S1−S2の絶対値が当該閾値以下のときに、符号化部104に画像の符号化を実施させる。ここで、カメラ向き検出部101の出力S2と揺れ量検出部3の出力S1の差分S1−S2の絶対値が所定の閾値以下のときに、撮像部2より得られる画像は、前述の如く撮像部2が動体の正面を向いたときの画像である。このように、差分S1−S2と比較する閾値は、撮像部2が正面を向いたときの画像が得られる値に決定されている。   The camera orientation detection unit 101 has a function equivalent to the function of the low-pass filter 4 described above. The front direction detection unit 102 has functions equivalent to the functions of the comparison unit 5 and the absolute value determination unit 8 described above, and the output (corresponding to the output of the low pass filter 4 described above) S2 and the amount of shaking. The difference of the output S1 of the detection unit 3 is taken, the absolute value of the difference S1-S2 is compared with a predetermined threshold value, and when the absolute value of the difference S1-S2 is less than or equal to the threshold value, the image is sent to the encoding unit 104. Encoding is performed. Here, when the absolute value of the difference S1-S2 between the output S2 of the camera direction detection unit 101 and the output S1 of the shake detection unit 3 is equal to or smaller than a predetermined threshold, the image obtained from the imaging unit 2 is captured as described above. It is an image when the part 2 faces the front of a moving body. As described above, the threshold value to be compared with the difference S1-S2 is determined to be a value with which an image can be obtained when the imaging unit 2 faces the front.

符号化部104は、前述した符号化部9の機能と同等の機能を有し、撮像部2が正面を向いたときの画像(第3のフレーム画像)を符号化し出力する。パケット組立部105は、符号化部104から出力された画像のパケットを組立てる。揺れ補正量算出部103は、前述した比較部5と同等の機能を有し、揺れ量検出部3で検出された撮像部2の揺れ量の補正量を算出して出力する。この揺れ補正処理は、プロセッサ10における第1の処理の中の1つである。   The encoding unit 104 has a function equivalent to the function of the encoding unit 9 described above, and encodes and outputs an image (third frame image) when the imaging unit 2 faces the front. The packet assembling unit 105 assembles the image packet output from the encoding unit 104. The shake correction amount calculation unit 103 has a function equivalent to that of the comparison unit 5 described above, and calculates and outputs a correction amount of the shake amount of the imaging unit 2 detected by the shake amount detection unit 3. This shake correction process is one of the first processes in the processor 10.

画像バッファ106は、撮像部2から1フレーム毎に出力される画像(第1のフレーム画像)を時系列に蓄積する。画像切出部107は、前述した画像切出部6の機能と同等の機能を有し、画像バッファ106に時系列に蓄積された各画像から例えば移動物体が映っている部分を切り出す。そして、切り出した画像(第2のフレーム画像)に対して差分S1−S2を用いて揺れ補正を行う。符号化部108は、前述した符号化部7の機能と同等の機能を有し、画像切出部107で切り出されて揺れ補正された画像を符号化する。この符号化処理は、プロセッサ10における第1の処理の中の1つである。パケット組立部109は、符号化部108から出力された画像のパケットを組立てる。パケットバッファ110は、パケット組立部105,109で組立てられたパケットを蓄積し、時系列順にパケット送信部11へ出力する。パケット送信部11は、パケットバッファ110から出力されるパケットをインターネット等のネットワークに送信する。   The image buffer 106 accumulates images (first frame images) output from the imaging unit 2 for each frame in time series. The image cutout unit 107 has a function equivalent to the function of the image cutout unit 6 described above, and cuts out, for example, a portion where a moving object is shown from each image stored in the image buffer 106 in time series. Then, shake correction is performed on the clipped image (second frame image) using the difference S1-S2. The encoding unit 108 has a function equivalent to the function of the encoding unit 7 described above, and encodes the image that has been extracted and shake-corrected by the image extraction unit 107. This encoding process is one of the first processes in the processor 10. The packet assembling unit 109 assembles the image packet output from the encoding unit 108. The packet buffer 110 accumulates the packets assembled by the packet assembling units 105 and 109 and outputs them to the packet transmitting unit 11 in chronological order. The packet transmission unit 11 transmits a packet output from the packet buffer 110 to a network such as the Internet.

ここで、画像を切り出す前の画像即ち第1のフレーム画像、切り出された画像即ち第2のフレーム画像及び撮像部2が正面を向いたときの画像即ち第3のフレーム画像それぞれのデータ量の大小関係は、第1のフレーム画像≧第3のフレーム画像>第2のフレーム画像である。   Here, the amount of data of each of the image before cutting out the image, that is, the first frame image, the cut out image, that is, the second frame image, and the image when the imaging unit 2 faces the front, that is, the third frame image, is small. The relationship is as follows: first frame image ≧ third frame image> second frame image.

また、プロセッサ10は、撮像部2が第1の周期で取得した第1のフレーム画像に対して、第2のフレーム画像を第2の周期で生成するが、第1の周期と第2の周期は相互に等しくしても、異なっていてもよい。   Further, the processor 10 generates the second frame image in the second cycle with respect to the first frame image acquired by the imaging unit 2 in the first cycle. However, the first cycle and the second cycle are generated. May be equal to or different from each other.

また、撮像部2は、広角レンズによる像を撮像することから、第1のフレーム画像は広角画像である。   In addition, since the imaging unit 2 captures an image with a wide-angle lens, the first frame image is a wide-angle image.

図5は、本実施の形態に係る映像処理装置1における動作を説明するためのフローチャートである。同図において、ステップS1〜ステップS11を一定周期で繰り返し実行する。この周期は、通常のフレームレート(1/30sec、1/60sec等)である。まず揺れ量検出部3は、現在の周期において、自身が有するジャイロセンサ31の出力(座標データ(x,y,z))を取り込む(ステップS1)。次いで、カメラ向き検出部101が、揺れ量検出部3で取り込まれた座標データ(x,y,z)に対して平滑化処理を行う(ステップS2)。即ち、正面向きを算出する。例えば、平滑化後の座標(x,y,z)←ρ(x,y,z)+(1−ρ)(x,y,z)を算出する。但し、ρはローパスフィルタの係数である。ここでρは(1>ρ>0)の関係を満たす。 FIG. 5 is a flowchart for explaining the operation in the video processing apparatus 1 according to the present embodiment. In the same figure, step S1-step S11 are repeatedly performed with a fixed period. This period is a normal frame rate (1/30 sec, 1/60 sec, etc.). First, the shaking amount detection unit 3 takes in the output (coordinate data (x, y, z)) of the gyro sensor 31 that it has in the current cycle (step S1). Next, the camera direction detection unit 101 performs a smoothing process on the coordinate data (x, y, z) captured by the shake amount detection unit 3 (step S2). That is, the front direction is calculated. For example, the coordinates (x 0 , y 0 , z 0 ) ← ρ (x 0 , y 0 , z 0 ) + (1−ρ) (x, y, z) after smoothing are calculated. Where ρ is a low-pass filter coefficient. Here, ρ satisfies the relationship (1>ρ> 0).

カメラ向き検出部101が平滑化処理を行った後、正面向き検出部102が、正面からの差分量Dを算出する(ステップS3)。即ち、センサ生情報と正面向きの差分の絶対値を演算する。例えば、D←sqrt((x−x+(y−y+(z−z)を算出する(sqrtは平方根の演算)。 After the camera direction detection unit 101 performs the smoothing process, the front direction detection unit 102 calculates a difference amount D from the front (step S3). That is, the absolute value of the difference between the sensor raw information and the front direction is calculated. For example, D ← sqrt ((x−x 0 ) 2 + (y−y 0 ) 2 + (z−z 0 ) 2 ) is calculated (sqrt is a square root operation).

正面向き検出部102は、正面からの差分量Dを算出した後、算出した差分量Dが所定の閾値Th以下かどうか判定し(ステップS4)、正面からの差分量Dが所定の閾値Thを超えると判定した場合(正面を向いていないと判定した場合)、何も処理をせずステップS7に進む。これに対して、正面からの差分量Dが所定の閾値Th以下であると判定した場合(略正面を向いていると判定した場合)、符号化部104が現在の画像を符号化する(ステップS5)。即ち、正面と判定されたときのみ画像を符号化する。正面判定された画像に対する符号化が行われた後、パケット組立部105が、符号化部104で符号化された画像をパケット化する(ステップS6)。そして、パケット送信部11が、パケット組立部105でパケット化された画像を送信する(ステップS7)。   After calculating the difference amount D from the front, the front direction detection unit 102 determines whether the calculated difference amount D is equal to or less than a predetermined threshold Th (step S4), and the difference amount D from the front has a predetermined threshold Th. If it is determined that it exceeds (when it is determined not facing the front), no processing is performed and the process proceeds to step S7. On the other hand, when it is determined that the difference amount D from the front is equal to or less than the predetermined threshold Th (when it is determined that the front is substantially facing the front), the encoding unit 104 encodes the current image (step) S5). That is, an image is encoded only when it is determined that the front side. After encoding the image determined to be in front, the packet assembling unit 105 packetizes the image encoded by the encoding unit 104 (step S6). Then, the packet transmission unit 11 transmits the image packetized by the packet assembly unit 105 (step S7).

一方、ステップS2で平滑化処理が行われた後、揺れ補正量算出部103が、揺れの補正量(正面からの差分)を算出する(ステップS8)。即ち、揺れの補正量(X,Y,Z)=((x−x),(y−y),(z−z))を算出する。揺れ補正量算出部103が揺れの補正量を算出した後、画像切出部107が現在の画像に対して画像の切出しを行う(ステップS9)。即ち、当該画像に対して標準位置から補正量ずらした矩形領域を切り出す。切出す画像としては、例えば、怪しい人物等の移動物体が写っている部分である。画像の切出しが行われた後、符号化部108が、切出された画像の符号化を行う(ステップS10)。切出された画像に対する符号化が行われた後、パケット組立部109が、符号化された画像をパケット化する(ステップS11)。そして、パケット送信部11が、パケット化された画像を送信する(ステップS7)。 On the other hand, after the smoothing process is performed in step S2, the shake correction amount calculation unit 103 calculates a shake correction amount (difference from the front) (step S8). That is, the shake correction amount (X, Y, Z) = ((x−x 0 ), (y−y 0 ), (z−z 0 )) is calculated. After the shake correction amount calculation unit 103 calculates the shake correction amount, the image cutout unit 107 cuts out an image from the current image (step S9). That is, a rectangular area shifted from the standard position by the correction amount is cut out from the image. The image to be cut out is, for example, a portion where a moving object such as a suspicious person is shown. After the image is cut out, the encoding unit 108 encodes the cut out image (step S10). After encoding the clipped image, the packet assembling unit 109 packetizes the encoded image (step S11). Then, the packet transmission unit 11 transmits the packetized image (step S7).

このように本実施の形態における映像処理装置1によれば、ジャイロセンサ31を有する揺れ量検出部3の出力S1とカメラ向き検出部101の出力S2との差分S1−S2に基づいて、一方は画像全体から画像を抽出して符号化し、他方は全体画像の一部を切り出したうえで揺れ補正を行って符号化するようにした。よって、画像全体から抽出された、情報量の大きい画像については所定の範囲内で撮像された画像、つまり類似する構成の画像が連続して符号化される。よって、符号化の際の動き補償処理等の効率が高まる。以上により、揺れている画像の符号化を効率良く行うことができ、プロセッサ10の負荷及び消費電力の増加を抑えることができることができる。   As described above, according to the video processing device 1 in the present embodiment, one is based on the difference S1-S2 between the output S1 of the shaking amount detection unit 3 having the gyro sensor 31 and the output S2 of the camera direction detection unit 101. An image is extracted from the entire image and encoded, and the other is extracted by extracting a part of the entire image and performing shake correction. Therefore, for an image with a large amount of information extracted from the entire image, an image captured within a predetermined range, that is, an image having a similar configuration is continuously encoded. Therefore, the efficiency of the motion compensation process etc. at the time of encoding increases. As described above, it is possible to efficiently encode a shaking image, and to suppress an increase in the load and power consumption of the processor 10.

以上、図面を参照しながら一実施の形態について説明したが、本開示はかかる例に限定されるものではないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例又は修正例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。   As mentioned above, although one embodiment was described referring to drawings, it cannot be overemphasized that this indication is not limited to this example. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present disclosure. Understood.

(本開示の一態様の概要)
本開示の映像処理装置は、動体に装着される映像処理装置であって、前記映像処理装置は、撮像部と、向き検出部と、プロセッサと、を有し、前記向き検出部は、前記動体に装着された前記映像処理装置における前記撮像部の向きを検出し、前記プロセッサは、前記撮像部が第1の周期で取得した第1のフレーム画像に対して、前記第1のフレーム画像より小さいデータ量の第2のフレーム画像を第2の周期で生成し、前記向き検出部から前記撮像部の向きを受け取り、前記撮像部の向きが所定の範囲内にある際は、前記第2のフレーム画像より大きいデータ量の第3のフレーム画像を前記第1のフレーム画像から抽出して生成する。
(Overview of one aspect of the present disclosure)
The video processing device according to the present disclosure is a video processing device mounted on a moving object, and the video processing device includes an imaging unit, a direction detection unit, and a processor, and the direction detection unit includes the moving object. The orientation of the imaging unit in the video processing device mounted on the processor is detected, and the processor is smaller than the first frame image with respect to the first frame image acquired by the imaging unit in a first period A second frame image having a data amount is generated in a second period, the orientation of the imaging unit is received from the orientation detection unit, and when the orientation of the imaging unit is within a predetermined range, the second frame A third frame image having a data amount larger than that of the image is extracted from the first frame image and generated.

上記構成によれば、第1の周期で第1のフレーム画像を取得し、第2の周期で第1のフレーム画像より小さいデータ量の第2のフレーム画像を生成し、撮像部の向きが所定の範囲内にある際は、第1のフレーム画像から、第2のフレーム画像より大きいデータ量の第3のフレーム画像を抽出して生成するので、揺れている画像の符号化を効率良く行うことができ、全体画像に揺れ補正を行ってもプロセッサの負荷及び消費電力の増加を最小限に抑えることができる。   According to the above configuration, the first frame image is acquired in the first cycle, the second frame image having a data amount smaller than the first frame image is generated in the second cycle, and the orientation of the imaging unit is predetermined. Since the third frame image having a data amount larger than that of the second frame image is extracted from the first frame image and generated, it is possible to efficiently encode the shaking image. Therefore, even if shake correction is performed on the entire image, increases in processor load and power consumption can be minimized.

上記構成において、前記プロセッサは、前記第2のフレーム画像を生成する際に少なくとも前記第2のフレーム画像に対する符号化処理を含む第1の処理を行う。   In the configuration described above, the processor performs at least a first process including an encoding process on the second frame image when generating the second frame image.

上記構成によれば、動体に装着された撮像部の映像を常に監視、記録することができる。   According to the above configuration, it is possible to always monitor and record the image of the imaging unit attached to the moving body.

上記構成において、前記第1の処理は、前記第2のフレーム画像に対する符号化処理に加えて、揺れ補正処理を含む。   In the above configuration, the first process includes a shake correction process in addition to the encoding process for the second frame image.

上記構成によれば、揺れ補正処理で使用する向き検出部(カメラ向き検出部(ローパスフィルタ))の出力を他の処理に活用することができる。   According to the above configuration, the output of the direction detection unit (camera direction detection unit (low-pass filter)) used in the shake correction process can be used for other processes.

上記構成において、前記撮像部の向きが所定の範囲内にある際は、前記撮像部の向きが前記動体の正面と略一致する場合を含む。   In the above configuration, when the orientation of the imaging unit is within a predetermined range, the case where the orientation of the imaging unit substantially coincides with the front of the moving body is included.

上記構成によれば、動き補償処理の効率向上が図れる。   According to the above configuration, the efficiency of motion compensation processing can be improved.

上記構成において、前記向き検出部は、前記動体に装着された前記撮像部の揺れ量を検出するジャイロセンサの出力に基づいて、前記撮像部の向きを検出する。   In the above configuration, the orientation detection unit detects the orientation of the imaging unit based on the output of a gyro sensor that detects the amount of shaking of the imaging unit attached to the moving body.

上記構成によれば、揺れ量を正確に検知することができる。   According to the above configuration, the amount of shaking can be accurately detected.

上記構成において、前記向き検出部は、ローパスフィルタを有し、前記ジャイロセンサの出力と、前記ジャイロセンサの出力を前記ローパスフィルタを介して得られる出力とに基づいて、前記撮像部の向きを検出する。   In the above configuration, the orientation detection unit includes a low-pass filter, and detects the orientation of the imaging unit based on an output of the gyro sensor and an output obtained from the output of the gyro sensor via the low-pass filter. To do.

上記構成によれば、動体の向きが変わった場合であっても、動体の正面を検知することができる。   According to the above configuration, the front of the moving body can be detected even when the direction of the moving body changes.

上記構成において、前記撮像部は広角レンズによる像を撮像し、前記第1のフレーム画像は広角画像であり、前記第2のフレーム画像は前記広角画像における中心点を含む領域の画像である。   In the above configuration, the imaging unit captures an image by a wide-angle lens, the first frame image is a wide-angle image, and the second frame image is an image of a region including a center point in the wide-angle image.

上記構成によれば、特に全体画像の符号化負荷が大きい広角レンズを用いる場合であっても、効率的に処理を行うことができる。   According to the above configuration, even when a wide-angle lens having a large coding load on the entire image is used, it is possible to perform processing efficiently.

本開示の映像処理方法は、動体に装着される撮像装置によって撮像された映像を処理する映像処理方法であって、前記動体に装着された前記撮像装置における撮像部の向きを検出するステップと、前記撮像部が第1の周期で取得した第1のフレーム画像に対して、前記第1のフレーム画像より小さいデータ量の第2のフレーム画像を第2の周期で生成するステップと、前記撮像部の向きが所定の範囲内にある際は、前記第2のフレーム画像より大きいデータ量の第3のフレーム画像を前記第1のフレーム画像から抽出して生成するステップと、を含む。   The video processing method of the present disclosure is a video processing method for processing an image captured by an imaging device attached to a moving object, and detecting an orientation of an imaging unit in the imaging device attached to the moving object; Generating a second frame image having a data amount smaller than that of the first frame image in a second cycle with respect to the first frame image acquired by the imaging unit in a first cycle; And generating a third frame image having a data amount larger than that of the second frame image by extracting from the first frame image.

上記方法によれば、第1の周期で第1のフレーム画像を取得し、第2の周期で第1のフレーム画像より小さいデータ量の第2のフレーム画像を生成し、撮像部の向きが所定の範囲内にある際は、第1のフレーム画像から、第2のフレーム画像より大きいデータ量の第3のフレーム画像を抽出して生成するので、揺れている画像の符号化を効率良く行うことができ、全体画像に揺れ補正を行ってもプロセッサの負荷及び消費電力の増加を最小限に抑えることができる。   According to the above method, the first frame image is acquired in the first cycle, the second frame image having a data amount smaller than the first frame image is generated in the second cycle, and the orientation of the imaging unit is predetermined. Since the third frame image having a data amount larger than that of the second frame image is extracted from the first frame image and generated, it is possible to efficiently encode the shaking image. Therefore, even if shake correction is performed on the entire image, increases in processor load and power consumption can be minimized.

上記方法において、前記第2のフレーム画像を生成するステップは、前記第2のフレーム画像を生成する際に少なくとも前記第2のフレーム画像に対する符号化処理を含む第1の処理を行う。   In the method, the step of generating the second frame image performs a first process including an encoding process for at least the second frame image when generating the second frame image.

上記方法によれば、動体に装着された撮像部の映像を常に監視、記録することができる。   According to the above method, it is possible to always monitor and record the image of the imaging unit attached to the moving body.

上記方法において、前記第1の処理は、前記第2のフレーム画像に対する符号化処理に加えて、揺れ補正処理を含む。   In the above method, the first process includes a shake correction process in addition to the encoding process for the second frame image.

上記方法によれば、揺れ補正処理で使用する向き検出部(カメラ向き検出部(ローパスフィルタ))の出力を他の処理に活用することができる。   According to the above method, the output of the direction detection unit (camera direction detection unit (low-pass filter)) used in the shake correction process can be used for other processes.

上記方法において、前記撮像部の向きが所定の範囲内にある際は、前記撮像部の向きが前記動体の正面と略一致する場合を含む。   In the above method, when the orientation of the imaging unit is within a predetermined range, the orientation of the imaging unit substantially coincides with the front of the moving body.

上記方法によれば、動き補償処理の効率向上が図れる。   According to the above method, the efficiency of the motion compensation process can be improved.

上記方法において、前記撮像部の向きを検出するステップは、前記動体に装着された前記撮像部の揺れ量を検出するジャイロセンサの出力に基づいて、前記撮像部の向きを検出する。   In the above method, the step of detecting the orientation of the imaging unit detects the orientation of the imaging unit based on the output of a gyro sensor that detects the amount of shaking of the imaging unit attached to the moving body.

上記方法によれば、揺れ量を正確に検知することができる。   According to the above method, the amount of shaking can be accurately detected.

上記方法において、前記撮像部の向きを検出するステップは、前記ジャイロセンサの出力と、前記ジャイロセンサの出力をローパスフィルタを介して得られる出力とに基づいて、前記撮像部の向きを検出する。   In the above method, the step of detecting the orientation of the imaging unit detects the orientation of the imaging unit based on an output of the gyro sensor and an output obtained from the output of the gyro sensor via a low-pass filter.

上記方法によれば、動体の向きが変わった場合であっても、動体の正面を検知することができる。   According to the above method, the front of the moving object can be detected even when the direction of the moving object changes.

上記方法において、前記撮像部は広角レンズによる像を撮像し、前記第1のフレーム画像は広角画像であり、前記第2のフレーム画像は前記広角画像における中心点を含む領域の画像である。   In the above method, the imaging unit captures an image by a wide-angle lens, the first frame image is a wide-angle image, and the second frame image is an image of a region including a center point in the wide-angle image.

上記方法によれば、特に全体画像の符号化負荷が大きい広角レンズを用いる場合であっても、効率的に処理を行うことができる。   According to the above method, even when a wide-angle lens having a large encoding load on the entire image is used, it is possible to perform processing efficiently.

本開示は、揺れている画像の符号化を効率良く行うことができ、プロセッサの負荷及び消費電力の増加を抑えることができるといった効果を有し、例えば人体に装着して使用する装着型カメラを有する監視カメラシステムへの適用が可能である。   The present disclosure has an effect that encoding of a swaying image can be efficiently performed and an increase in processor load and power consumption can be suppressed. For example, a wearable camera that is worn on a human body is used. Application to a surveillance camera system is possible.

1 映像処理装置
2 撮像部
3 揺れ量検出部
4 ローパスフィルタ
5 比較部
6 画像切出部
7,9 符号化部
8 絶対値判定部
10 プロセッサ
11 パケット送信部
31 ジャイロセンサ
101 カメラ向き検出部
102 正面向き検出部
103 揺れ補正量算出部
104,108 符号化部
105,109 パケット組立部
106 画像バッファ
107 画像切出部
110 パケットバッファ
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Image pick-up part 3 Shaking amount detection part 4 Low pass filter 5 Comparison part 6 Image extraction part 7, 9 Coding part 8 Absolute value determination part 10 Processor 11 Packet transmission part 31 Gyro sensor 101 Camera direction detection part 102 Front Direction detection unit 103 Shake correction amount calculation unit 104, 108 Coding unit 105, 109 Packet assembly unit 106 Image buffer 107 Image extraction unit 110 Packet buffer

Claims (14)

動体に装着される映像処理装置であって、
前記映像処理装置は、
撮像部と、
向き検出部と、
プロセッサと、
を有し、
前記向き検出部は、
前記動体に装着された前記映像処理装置における前記撮像部の向きを検出し、
前記プロセッサは、
前記撮像部が第1の周期で取得した第1のフレーム画像に対して、前記第1のフレーム画像より小さいデータ量の第2のフレーム画像を第2の周期で生成し、
前記向き検出部から前記撮像部の向きを受け取り、前記撮像部の向きが所定の範囲内にある際は、前記第2のフレーム画像より大きいデータ量の第3のフレーム画像を前記第1のフレーム画像から抽出して生成する、
映像処理装置。
A video processing device mounted on a moving object,
The video processing device includes:
An imaging unit;
An orientation detector;
A processor;
Have
The direction detector
Detecting the orientation of the imaging unit in the video processing device mounted on the moving body;
The processor is
For the first frame image acquired by the imaging unit in the first cycle, a second frame image having a data amount smaller than the first frame image is generated in the second cycle,
When the orientation detection unit receives the orientation of the imaging unit and the orientation of the imaging unit is within a predetermined range, a third frame image having a data amount larger than that of the second frame image is transmitted to the first frame. Extract from image and generate,
Video processing device.
前記プロセッサは、前記第2のフレーム画像を生成する際に少なくとも前記第2のフレーム画像に対する符号化処理を含む第1の処理を行う、
請求項1に記載の映像処理装置。
The processor performs a first process including an encoding process on at least the second frame image when generating the second frame image.
The video processing apparatus according to claim 1.
前記第1の処理は、前記第2のフレーム画像に対する符号化処理に加えて、揺れ補正処理を含む、
請求項2に記載の映像処理装置。
The first process includes a shake correction process in addition to the encoding process for the second frame image.
The video processing apparatus according to claim 2.
前記撮像部の向きが所定の範囲内にある際は、前記撮像部の向きが前記動体の正面と略一致する場合を含む、
請求項1に記載の映像処理装置。
When the orientation of the imaging unit is within a predetermined range, including the case where the orientation of the imaging unit substantially coincides with the front of the moving object,
The video processing apparatus according to claim 1.
前記向き検出部は、前記動体に装着された前記撮像部の揺れ量を検出するジャイロセンサの出力に基づいて、前記撮像部の向きを検出する、
請求項1に記載の映像処理装置。
The orientation detection unit detects the orientation of the imaging unit based on an output of a gyro sensor that detects a shake amount of the imaging unit attached to the moving body.
The video processing apparatus according to claim 1.
前記向き検出部は、ローパスフィルタを有し、前記ジャイロセンサの出力と、前記ジャイロセンサの出力を前記ローパスフィルタを介して得られる出力とに基づいて、前記撮像部の向きを検出する、
請求項5に記載の映像処理装置。
The orientation detection unit includes a low-pass filter, and detects the orientation of the imaging unit based on an output of the gyro sensor and an output obtained by outputting the output of the gyro sensor via the low-pass filter.
The video processing apparatus according to claim 5.
前記撮像部は広角レンズによる像を撮像し、
前記第1のフレーム画像は広角画像であり、前記第2のフレーム画像は前記広角画像における中心点を含む領域の画像である、
請求項1に記載の映像処理装置。
The imaging unit captures an image with a wide-angle lens,
The first frame image is a wide-angle image, and the second frame image is an image of a region including a center point in the wide-angle image.
The video processing apparatus according to claim 1.
動体に装着される撮像装置によって撮像された映像を処理する映像処理方法であって、
前記動体に装着された前記撮像装置における撮像部の向きを検出するステップと、
前記撮像部が第1の周期で取得した第1のフレーム画像に対して、前記第1のフレーム画像より小さいデータ量の第2のフレーム画像を第2の周期で生成するステップと、
前記撮像部の向きが所定の範囲内にある際は、前記第2のフレーム画像より大きいデータ量の第3のフレーム画像を前記第1のフレーム画像から抽出して生成するステップと、
を含む映像処理方法。
An image processing method for processing an image captured by an imaging device attached to a moving object,
Detecting an orientation of an imaging unit in the imaging device attached to the moving body;
Generating a second frame image having a data amount smaller than that of the first frame image in a second cycle with respect to the first frame image acquired by the imaging unit in a first cycle;
When the orientation of the imaging unit is within a predetermined range, extracting and generating a third frame image having a data amount larger than the second frame image from the first frame image;
Video processing method.
前記第2のフレーム画像を生成するステップは、前記第2のフレーム画像を生成する際に少なくとも前記第2のフレーム画像に対する符号化処理を含む第1の処理を行う、
請求項8に記載の映像処理方法。
The step of generating the second frame image performs a first process including an encoding process for at least the second frame image when generating the second frame image.
The video processing method according to claim 8.
前記第1の処理は、前記第2のフレーム画像に対する符号化処理に加えて、揺れ補正処理を含む、
請求項9に記載の映像処理方法。
The first process includes a shake correction process in addition to the encoding process for the second frame image.
The video processing method according to claim 9.
前記撮像部の向きが所定の範囲内にある際は、前記撮像部の向きが前記動体の正面と略一致する場合を含む、
請求項8に記載の映像処理方法。
When the orientation of the imaging unit is within a predetermined range, including the case where the orientation of the imaging unit substantially coincides with the front of the moving object,
The video processing method according to claim 8.
前記撮像部の向きを検出するステップは、前記動体に装着された前記撮像部の揺れ量を検出するジャイロセンサの出力に基づいて、前記撮像部の向きを検出する、
請求項8に記載の映像処理方法。
The step of detecting the orientation of the imaging unit detects the orientation of the imaging unit based on the output of a gyro sensor that detects the amount of shaking of the imaging unit attached to the moving body.
The video processing method according to claim 8.
前記撮像部の向きを検出するステップは、前記ジャイロセンサの出力と、前記ジャイロセンサの出力をローパスフィルタを介して得られる出力とに基づいて、前記撮像部の向きを検出する、
請求項12に記載の映像処理方法。
The step of detecting the orientation of the imaging unit detects the orientation of the imaging unit based on the output of the gyro sensor and the output obtained by passing the output of the gyro sensor through a low-pass filter.
The video processing method according to claim 12.
前記撮像部は広角レンズによる像を撮像し、
前記第1のフレーム画像は広角画像であり、前記第2のフレーム画像は前記広角画像における中心点を含む領域の画像である、
請求項8に記載の映像処理方法。
The imaging unit captures an image with a wide-angle lens,
The first frame image is a wide-angle image, and the second frame image is an image of a region including a center point in the wide-angle image.
The video processing method according to claim 8.
JP2014111444A 2014-05-29 2014-05-29 Image processor and image processing method Pending JP2015226260A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014111444A JP2015226260A (en) 2014-05-29 2014-05-29 Image processor and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014111444A JP2015226260A (en) 2014-05-29 2014-05-29 Image processor and image processing method

Publications (1)

Publication Number Publication Date
JP2015226260A true JP2015226260A (en) 2015-12-14

Family

ID=54842731

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014111444A Pending JP2015226260A (en) 2014-05-29 2014-05-29 Image processor and image processing method

Country Status (1)

Country Link
JP (1) JP2015226260A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110149554A (en) * 2019-05-31 2019-08-20 Oppo广东移动通信有限公司 Method, apparatus, electronic equipment and the storage medium of video image processing

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110149554A (en) * 2019-05-31 2019-08-20 Oppo广东移动通信有限公司 Method, apparatus, electronic equipment and the storage medium of video image processing
CN110149554B (en) * 2019-05-31 2021-06-15 Oppo广东移动通信有限公司 Video image processing method and device, electronic equipment and storage medium

Similar Documents

Publication Publication Date Title
JP6963467B2 (en) Motion recognition in video sequences
JP5213105B2 (en) Video network system and video data management method
TWI378409B (en) Method and module for identifying possible tampering of a camera view and related monitoring camera,video server and computer program product
US11132887B2 (en) Eyeglasses-type wearable terminal, control method thereof, and control program
JP2016100696A (en) Image processing device, image processing method, and image processing system
WO2016013719A1 (en) Device and method for monitoring abnormal behavior using three-dimensional image information
US20150098685A1 (en) Motion detection method and device using the same
JP6693509B2 (en) Image processing apparatus, image processing method, and image processing system
CN109376601B (en) Object tracking method based on high-speed ball, monitoring server and video monitoring system
US10769442B1 (en) Scene change detection in image data
KR101514061B1 (en) Wireless camera device for managing old and weak people and the management system thereby
JP6261190B2 (en) Setting device and setting method
Joshi et al. A fall detection and alert system for an elderly using computer vision and Internet of Things
EP3776143B1 (en) Head-mounted display and method to reduce visually induced motion sickness in a connected remote display
JP5155110B2 (en) Monitoring device
CN104504852A (en) Image-based forewarning infant safety monitor and infant safety judging method
US10798366B2 (en) Motion detection device and motion detection method
JP2015226260A (en) Image processor and image processing method
KR101735037B1 (en) Robot Controlling Apparatus and method thereof
KR101592731B1 (en) Image sensing system
KR101924336B1 (en) Method for Setting Region for Video Surveillance, Apparatus Therefor
WO2015125441A1 (en) Image transmission device and image transmission system
KR102552071B1 (en) Image transmission apparatus and method for transmitting image shooted by cctv to manager terminal through network
CN106878699B (en) Information processing method and electronic equipment
TWI545945B (en) Image tampering detection method and system