JP2019075638A - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP2019075638A JP2019075638A JP2017198957A JP2017198957A JP2019075638A JP 2019075638 A JP2019075638 A JP 2019075638A JP 2017198957 A JP2017198957 A JP 2017198957A JP 2017198957 A JP2017198957 A JP 2017198957A JP 2019075638 A JP2019075638 A JP 2019075638A
- Authority
- JP
- Japan
- Prior art keywords
- image processing
- image
- unit
- processing apparatus
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Studio Circuits (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、ハイライトシーンを自動的に抽出する画像処理装置に関する。 The present invention relates to an image processing apparatus that automatically extracts a highlight scene.
従来、画像処理装置として、被写体を撮像し、得られた画像に基づいて動画データを生成して記録媒体に記録する撮像装置が知られている。 2. Description of the Related Art Conventionally, as an image processing apparatus, an imaging apparatus is known which captures an object, generates moving image data based on the obtained image, and records the data on a recording medium.
近年、このようなデジタルカメラにおいては、フラッシュメモリの大容量化、画像処理の高速化や低電力化が進み、大量の撮影が可能となったため観覧性を向上させる技術が求められている。特許文献1には、テレビ番組などの動画の中から音量が大きいシーンだけを抽出して再生するような技術が提案されている。 In recent years, in such a digital camera, as the capacity of a flash memory has been increased, the speed of image processing has been increased and the power consumption has been reduced, and a large amount of photographing has become possible. Patent Document 1 proposes a technique for extracting and reproducing only a scene having a large volume from moving pictures such as a television program.
しかし、特許文献1の方法では、音量でハイライトシーンを抽出しているので、音量変化があまりないようなシーンではハイライトシーンを抽出できないでいた。また、ハイライトシーンではない突発的な音量変化に対しても誤って抽出する可能性があった。 However, in the method of Patent Document 1, since the highlight scene is extracted by the volume, the highlight scene can not be extracted in a scene where there is not much change in volume. In addition, there is a possibility of erroneous extraction even for sudden volume change that is not a highlight scene.
本発明は、撮影した動画データを視聴、編集する際、周辺の音量変化にも依存せず、ハイライトシーンを自動抽出できる画像処理装置を提供することを目的とする。 An object of the present invention is to provide an image processing apparatus capable of automatically extracting a highlight scene without depending on a change in the volume of the surroundings when viewing and editing captured moving image data.
上記の目的を達成するために、本発明に係る画像処理装置は、
被写体を撮像し、得られた画像信号を処理する画像処理装置であって、
一連の動画像を生成し、記録する動画像処理部と、
前記画像処理装置以外の画像処理端末からレリーズ情報を取得する情報取得部と、
前記レリーズ情報を蓄積し、その蓄積情報をもとに前記動画像処理部によって生成された動画像のハイライトシーンを抽出するハイライト抽出部と、を有することを特徴とする。
In order to achieve the above object, an image processing apparatus according to the present invention is
An image processing apparatus for imaging a subject and processing an obtained image signal, comprising:
A moving image processing unit that generates and records a series of moving images;
An information acquisition unit that acquires release information from an image processing terminal other than the image processing apparatus;
And a highlight extraction unit that accumulates the release information and extracts a highlight scene of a moving image generated by the moving image processing unit based on the accumulated information.
本発明に係る画像処理装置によれば、動画撮影後に動画データを視聴、編集する際に、付与されているハイライト情報を用いることで、編集点を簡単に抽出することが可能となる。 According to the image processing apparatus of the present invention, it is possible to easily extract an editing point by using the provided highlight information when viewing and editing moving image data after moving image shooting.
以下、図面を参照して本発明の実施例を詳細に説明するが、この発明は以下の実施の形態に限定されない。なお、以下の実施の形態は特許請求の範囲に係る発明を限定するものではなく、また実施の形態で説明されている特徴の組み合わせの全ての発明の解決手段に必須のものとは限らない。 Hereinafter, the embodiments of the present invention will be described in detail with reference to the drawings, but the present invention is not limited to the following embodiments. The following embodiments do not limit the invention according to the claims, and are not necessarily essential to the solution means of all the inventions of the combinations of the features described in the embodiments.
なお、本実施例において説明される各機能ブロックは必ずしも個別のハードウェアである必要はない。すなわち、例えばいくつかの機能ブロックの機能は、1つのハードウェアにより実行されてもよい。また、いくつかのハードウェアの連係動作により1つの機能ブロックの機能または、複数の機能ブロックの機能が実行されてもよい。また、各機能ブロックの機能は、CPUがメモリ上に展開したコンピュータプログラムにより実行されてもよい。 The functional blocks described in the present embodiment do not necessarily have to be individual hardware. That is, for example, the functions of several functional blocks may be performed by one hardware. Also, the function of one functional block or the functions of multiple functional blocks may be performed by the coordinated operation of several hardware. Also, the function of each functional block may be executed by a computer program developed by the CPU on the memory.
(第1の実施形態)
<全体構成>
まず、図1を用いて、本実施例の撮像装置100の構成を説明する。
First Embodiment
<Overall configuration>
First, the configuration of the imaging device 100 according to the present embodiment will be described with reference to FIG.
本実施例の撮像装置100は、図1に示すように、CPU101と、RAM102と、ROM103と、操作部104とを有する。また、撮像装置100は、撮像部110と、画像処理部111と、マイクユニット120と、音声処理部121と、スピーカユニット122とを有する。また、撮像装置100は、符号化処理部130と、表示部140と、表示制御部141と、記録再生部150と、記録媒体151と、通信部160とを有する。なお、CPUは、Central Processing Unitの略称である。RAMはRandom Access Memoryの略称である。ROMは、Read Only Memoryの略称である。本実施例の撮像装置100においては、動画圧縮方式としてH.264やH.265の圧縮方式を用いるものとするが、どのような種類の圧縮方式を用いてもよい。 As shown in FIG. 1, the imaging apparatus 100 according to this embodiment includes a CPU 101, a RAM 102, a ROM 103, and an operation unit 104. The imaging apparatus 100 further includes an imaging unit 110, an image processing unit 111, a microphone unit 120, an audio processing unit 121, and a speaker unit 122. The imaging apparatus 100 further includes an encoding processing unit 130, a display unit 140, a display control unit 141, a recording and reproducing unit 150, a recording medium 151, and a communication unit 160. CPU is an abbreviation for Central Processing Unit. RAM is an abbreviation of Random Access Memory. ROM is an abbreviation of Read Only Memory. In the imaging apparatus 100 of the present embodiment, H.264 is used as a moving image compression method. H.264 and H. Although the H.265 compression scheme is used, any type of compression scheme may be used.
本実施例の撮像装置100において、CPU101は、RAM102をワークメモリとして用い、ROM103に記録された各種プログラムをRAM102に展開し、プログラムに応じて撮像装置100の各ブロックを制御する。 In the imaging apparatus 100 of the present embodiment, the CPU 101 uses the RAM 102 as a work memory, develops various programs recorded in the ROM 103 in the RAM 102, and controls each block of the imaging apparatus 100 according to the program.
操作部104は、例えば、電源ボタン、記録ボタン、ズーム調整ボタン、オートフォーカスボタン、メニュー表示ボタン、モード切り替えスイッチ、決定ボタン等の各種操作を入力するスイッチ類を有する。また、カーソルキー、ポインティングデバイス、タッチパネル、ダイヤル等のどのようなタイプの操作子であってもよい。操作部104は、ユーザによりこれらのキーやボタン、タッチパネルが操作されるとCPU101に操作信号を送信する。操作部104の各種部材は、表示部140に表示される種々に機能アイコンとして実現されることも可能である。ユーザはこれらの機能アイコンを選択、操作することが可能である。機能アイコンに対し、場面ごとに適宜機能が割り当てられる。これにより、機能アイコンは各種機能ボタンとして作用する。機能ボタンとしては、例えば終了ボタン、戻るボタン、画像送りボタン、ジャンプボタン、絞りこみボタン、属性変更ボタン等がある。例えば、メニューボタンが押されると各種の設定可能なメニュー画面が表示部140に表示される。ユーザは、表示部140に表示されたメニュー画面と、上下左右の4方向ボタンやSETボタンとを用いて直感的に各種設定を行なうことができる。なお、操作部104は、表示部に対する接触を検知可能なタッチパネルであってもよい。タッチパネルは、抵抗膜方式や静電容量方式、表面弾性波方式、赤外線方式、電磁誘導方式、画面認識方式、光センサ方式等、様々な方式のタッチパネルのうちいずれの方式のものを用いてもよい。 The operation unit 104 has switches for inputting various operations such as, for example, a power button, a recording button, a zoom adjustment button, an autofocus button, a menu display button, a mode switching switch, and a determination button. In addition, any type of operator such as a cursor key, a pointing device, a touch panel, a dial, etc. may be used. The operation unit 104 transmits an operation signal to the CPU 101 when the user operates these keys and buttons or the touch panel. Various members of the operation unit 104 may be realized as various function icons displayed on the display unit 140. The user can select and operate these function icons. A function is appropriately assigned to the function icon for each scene. Thus, the function icon acts as various function buttons. The function buttons include, for example, an end button, a back button, an image feed button, a jump button, a narrowing button, and an attribute change button. For example, when the menu button is pressed, various settable menu screens are displayed on the display unit 140. The user can intuitively perform various settings using the menu screen displayed on the display unit 140 and the four-direction button or the SET button on the top, bottom, left, and right. The operation unit 104 may be a touch panel capable of detecting a touch on the display unit. The touch panel may be any of various touch panels such as resistive film type, capacitive type, surface acoustic wave type, infrared type, electromagnetic induction type, screen recognition type, light sensor type, etc. .
撮像部110は、レンズにより取り込まれた被写体の光学像を、絞りにより光量を制御して、CCDセンサやCMOSセンサ等の撮像素子により画像信号に変換し、得られたアナログ画像信号をデジタル画像信号に変換して一時的にRAM102に記憶する。RAM102に記憶されたデジタル画像信号は、その後、画像処理部111に送信される。 The imaging unit 110 controls an amount of light of an optical image of a subject taken in by a lens with an aperture, converts the image into an image signal by an imaging element such as a CCD sensor or a CMOS sensor, and obtains a digital image signal And temporarily stored in the RAM 102. The digital image signal stored in the RAM 102 is then transmitted to the image processing unit 111.
画像処理部111は、デジタル画像信号のホワイトバランスや色、明るさなどを、ユーザにより設定された設定値や画像の特性から自動的に判定した設定値などに基づいて調整する画質調整処理を行う。そして、画像処理部111は、処理済みのデジタル画像信号を再びRAM102に記憶する。また、画質調整処理済みまたは未処理のデジタル画像信号を、表示制御部141に送信し、表示部140に撮像中の画像として表示することもできる。また、再生時において画像処理部111は、記録媒体151から記録再生部150によって読み出され、符号化処理部130において復号化された静止画ファイルや動画ファイルに含まれる画像データの画質調整等を行う。そして、画質調整済みまたは未処理のデジタル画像信号を、表示制御部141に送信し、表示部140に画像として表示することもできる。 The image processing unit 111 performs image quality adjustment processing for adjusting the white balance, color, brightness, and the like of the digital image signal based on the set value determined by the user and the set value automatically determined from the characteristics of the image. . Then, the image processing unit 111 stores the processed digital image signal in the RAM 102 again. Further, the digital image signal subjected to the image quality adjustment processing or not processed can be transmitted to the display control unit 141 and displayed on the display unit 140 as an image being captured. In addition, at the time of reproduction, the image processing unit 111 reads out the still image file and the image data included in the moving image file which are read from the recording medium 151 by the recording and reproducing unit 150 and decoded by the encoding processing unit 130. Do. Then, the digital image signal whose image quality has been adjusted or not processed may be transmitted to the display control unit 141 and displayed on the display unit 140 as an image.
符号化処理部130では、記録時においては、画像処理部111により処理されRAM102に記憶されたデジタル画像信号に対して、画像圧縮処理を行い、圧縮された動画データや静止画データを生成し、RAM102に一時的に記憶する。また、再生時においては、記録媒体151から読み出された画像ファイルの圧縮された動画データや静止画データを復号してデジタル画像信号を抽出し、RAM102に記憶していく処理を行う。本実施例では、符号化処理部130は、動画データをH.264方式に従い符号化する。また、画像処理部111は、静止画データを、JPEG方式に従って符号化する。なお、H.264等の動画の符号化方式においては、各フレームのデータをフレーム内予測符号化、及びフレーム間予測符号化を用いて符号化する。一般に、フレーム内予測符号化により符号化されたフレームをIピクチャと呼ぶ。また、前方のフレームを参照フレームとして用い、参照フレームとの差分(予測誤差)を用いてフレーム間符号化された画像データをPピクチャと呼ぶ。また、前方及び後方のフレームを参照フレームとして用い、参照フレームとの差分を用いてフレーム間符号化された画像データをBピクチャと呼ぶ。 At the time of recording, the encoding processing unit 130 performs image compression processing on the digital image signal processed by the image processing unit 111 and stored in the RAM 102 to generate compressed moving image data and still image data, It is temporarily stored in the RAM 102. Further, at the time of reproduction, processing for decoding digital image signals by decoding compressed moving image data and still image data of an image file read from the recording medium 151 is performed and stored in the RAM 102. In the present embodiment, the encoding processing unit 130 uses H.264 video data. Coding according to the H.264 scheme. The image processing unit 111 also encodes still image data according to the JPEG method. H. In the moving picture coding method such as H.264, data of each frame is coded using intra-frame predictive coding and inter-frame predictive coding. Generally, a frame coded by intraframe predictive coding is called an I picture. Also, image data that has been interframe encoded using a forward frame as a reference frame and a difference with the reference frame (prediction error) is called a P picture. Also, image data that has been interframe encoded using the forward and backward frames as a reference frame and the difference from the reference frame is referred to as a B picture.
マイクユニット120は、例えば、撮像装置100のハウジング内に内蔵された無指向性のマイクとAD変換部を有する。マイクユニット120では、マイクにより周囲の音声を集音(収音)し、所得したアナログ音声信号をAD変換部で、デジタル信号に変換してRAM102に一時的に記憶される。RAM102に記憶されたデジタル信号は、その後、音声処理部121に送信される。音声処理部121では、記録時においては、RAM102に記憶されたデジタル音声信号を読み出して、レベルの適正化処理や雑音低減処理等の処理を行い、処理をしたデジタル音声信号を再びRAM102に記憶する。 The microphone unit 120 has, for example, an omnidirectional microphone and an AD converter incorporated in the housing of the imaging device 100. In the microphone unit 120, surrounding sound is collected (collected) by the microphone, and the acquired analog sound signal is converted into a digital signal by the AD conversion unit and temporarily stored in the RAM 102. The digital signal stored in the RAM 102 is then transmitted to the audio processing unit 121. At the time of recording, the audio processing unit 121 reads out the digital audio signal stored in the RAM 102, performs processing such as level optimization processing and noise reduction processing, and stores the processed digital audio signal in the RAM 102 again. .
また、音声処理部121は、必要に応じて、音声信号を圧縮する処理を行う。また、音声処理部121は、再生時においては、記録媒体151から記録再生部150によって読み出された音声ファイルや動画ファイルに含まれる圧縮音声データを復号する処理や音声レベルの適正化処理を行う。そして、音声処理部121は、処理された音声データを順次RAM102に記憶する。 In addition, the audio processing unit 121 performs processing to compress an audio signal as necessary. Further, at the time of reproduction, the audio processing unit 121 performs processing of decoding compressed audio data included in the audio file and the moving image file read from the recording medium 151 by the recording and reproducing unit 150 and processing of optimizing audio level. . Then, the audio processing unit 121 sequentially stores the processed audio data in the RAM 102.
スピーカユニット122は、スピーカとDA変換部とを有する。スピーカユニット122では、音声処理部121によりRAM102に記憶されたデジタル音声信号を読み出してアナログ音声信号に変換し、アナログ音声信号によりスピーカから音声を出力する。 The speaker unit 122 has a speaker and a DA converter. In the speaker unit 122, the audio processing unit 121 reads out the digital audio signal stored in the RAM 102, converts it into an analog audio signal, and outputs the audio from the speaker according to the analog audio signal.
表示部140は、例えば、液晶表示デバイス、または有機EL表示デバイスなどを有し、表示制御部141の制御により画像を表示する。表示部140は、LEDディスプレイなど、ユーザに画像を提供することができればどのようなものであってもよい。 The display unit 140 includes, for example, a liquid crystal display device or an organic EL display device, and displays an image under the control of the display control unit 141. The display unit 140 may be any device such as an LED display as long as it can provide an image to the user.
表示制御部141は、画像処理部111により処理され、RAM102に記憶されたデジタル画像信号に基づいて、表示部140に画像を表示する。また、表示制御部141は、表示部140に表示するデジタル画像信号に基づく映像信号に対し、マトリックス変換、ブライト調整、コントラスト調整、ガンマ調整、クロマゲイン調整、シャープネス調整等の画像信号処理を行ってもよい。 The display control unit 141 displays an image on the display unit 140 based on the digital image signal processed by the image processing unit 111 and stored in the RAM 102. The display control unit 141 may also perform image signal processing such as matrix conversion, brightness adjustment, contrast adjustment, gamma adjustment, chroma gain adjustment, and sharpness adjustment on a video signal based on a digital image signal displayed on the display unit 140. Good.
記録再生部150は、動画記録時においては、RAM102に記憶されている符号化処理部130により生成された動画データ、静止画データ及び、音声処理部121で生成された音声データを読み出す。そして、記録再生部150は、読み出した動画データと音声データを、撮影日等の各種情報とともに、動画ファイルとして記録媒体151に書き込む。また、記録再生部150は、静止画記録時においては、RAM102に記憶されている静止画データを撮影日等の各種情報とともに静止画ファイルとして記録媒体151に記録する。記録再生部150は、動画ファイルを記録媒体151に記録する際は、圧縮動画データと音声データとからなるデータストリームを形成し、順次記録媒体151に記録する。 At the time of moving image recording, the recording / reproducing unit 150 reads moving image data, still image data generated by the encoding processing unit 130 stored in the RAM 102, and audio data generated by the audio processing unit 121. Then, the recording / reproducing unit 150 writes the read moving image data and audio data into the recording medium 151 as a moving image file together with various information such as the shooting date. Further, at the time of still image recording, the recording / reproducing unit 150 records the still image data stored in the RAM 102 as a still image file on the recording medium 151 together with various information such as a shooting date. When recording a moving image file on the recording medium 151, the recording / reproducing unit 150 forms a data stream composed of compressed moving image data and audio data, and sequentially records the data stream on the recording medium 151.
また、記録再生部150は、記録媒体151に記録されたデータに対し、ファイルヘッダ等の管理情報を付加する。記録再生部150は、記録媒体151に記録されたデータに対し、ファイルヘッダ等の管理情報を付加する。記録再生部150は、記録媒体151に記録された動画ファイルや静止画ファイルを、FATやexFAT等のファイルシステムに従って管理する。また、記録再生部150は、再生時においては、記録媒体151に記録された動画ファイルや静止画ファイルを、ファイルシステムに従って読み出す。 The recording and reproducing unit 150 also adds management information such as a file header to the data recorded on the recording medium 151. The recording and reproducing unit 150 adds management information such as a file header to the data recorded on the recording medium 151. The recording and reproducing unit 150 manages moving image files and still image files recorded in the recording medium 151 in accordance with a file system such as FAT or exFAT. Further, at the time of reproduction, the recording / reproducing unit 150 reads a moving image file or a still image file recorded in the recording medium 151 according to the file system.
CPU101は、読み出された動画ファイルや静止画ファイルに含まれるヘッダ(管理情報)を解析し、圧縮された動画データ、音声データ、静止画データを抽出する。抽出された圧縮動画データ、静止画データは、RAM102に記憶されて、符号化処理部130により復号される。また、圧縮された音声データは、音声処理部121により伸長される。なお、本実施例では、動画記録モードにおいて記録される動画データと音声データは、MP4ファイル形式の動画ファイルとして記録される。MP4ファイルでは、動画や音声データに加えて、この動画や音声データを再生するために必要な管理情報が一つのファイルに格納される。 The CPU 101 analyzes a header (management information) included in the read moving image file and still image file, and extracts compressed moving image data, audio data, and still image data. The extracted compressed moving image data and still image data are stored in the RAM 102 and decoded by the encoding processing unit 130. The compressed audio data is decompressed by the audio processing unit 121. In the present embodiment, moving image data and audio data recorded in the moving image recording mode are recorded as a moving image file of MP4 file format. In the MP4 file, in addition to video and audio data, management information necessary for reproducing the video and audio data is stored in one file.
また、記録媒体151は、撮像装置に内蔵された記録媒体でも、取り外し可能な記録媒体でもよい。例えば、記録媒体151は、ハードディスク、光ディスク、光磁気ディスク、CD−R、DVD−R、磁気テープ、不揮発性の半導体メモリ、フラッシュメモリ、などのあらゆる方式の記録媒体を含む。取り外し可能な記録媒体を用いる場合には、記録再生部150は、それらの取り外し可能な記録媒体を装着、排出するための機構を含む。 Also, the recording medium 151 may be a recording medium built in the imaging device or a removable recording medium. For example, the recording medium 151 includes any recording medium such as a hard disk, an optical disk, a magneto-optical disk, a CD-R, a DVD-R, a magnetic tape, a non-volatile semiconductor memory, and a flash memory. When a removable recording medium is used, the recording and reproducing unit 150 includes a mechanism for mounting and ejecting the removable recording medium.
また、通信部160は、撮像装置100とは異なる外部装置との間で、制御信号や動画ファイル、静止画ファイル、各種データ等を送受信する。通信部160の通信方式は、有線、無線を問わず、どのような形式であってもよい。 Further, the communication unit 160 transmits and receives control signals, moving image files, still image files, various data, and the like to and from an external device different from the imaging device 100. The communication method of the communication unit 160 may be in any form, whether wired or wireless.
ここで、前述の画像処理部111、音声処理部121、符号化処理部130、表示し制御部141、記録再生部150は、それぞれ、前述の各機能を実行するプログラムを搭載したマイクロコンピュータであってもよい。また、CPU101がこれらの機能の少なくとも一部を実行するようにしてもよい。 Here, each of the image processing unit 111, the audio processing unit 121, the encoding processing unit 130, the display and control unit 141, and the recording and reproducing unit 150 described above is a microcomputer equipped with a program for executing the respective functions described above. May be Also, the CPU 101 may execute at least a part of these functions.
<基本動作>
次に、本実施例の撮像装置100の動作について図2を用いて説明する。
<Basic operation>
Next, the operation of the imaging apparatus 100 according to the present embodiment will be described with reference to FIG.
本実施例の撮像装置100において、CPU101は、ユーザによって操作部104が操作され電源を投入する指示が操作部104から入力されると、不図示の電源供給部を撮像装置100の各ブロックに電源を供給するように制御する。 In the imaging apparatus 100 of the present embodiment, the CPU 101 powers each block of the imaging apparatus 100 into a power supply unit (not shown) when the user operates the operation unit 104 and inputs an instruction to turn on the power from the operation unit 104. Control to supply
次に、CPU101は、操作部104により設定されたカメラのモードが、再生モードであるか、静止画記録モード、動画記録モードであるかを判定する(S201)。動画モードが設定されない場合はその他のモード処理に遷移する(S202)。 Next, the CPU 101 determines whether the camera mode set by the operation unit 104 is the reproduction mode, the still image recording mode, or the moving image recording mode (S201). If the moving image mode is not set, the process proceeds to other mode processing (S202).
操作部104により設定されたモードが、動画記録モードである場合、CPU101は、撮像装置100の各ブロックを制御し、以下の動作を実行させる。 When the mode set by the operation unit 104 is a moving image recording mode, the CPU 101 controls each block of the imaging device 100 to execute the following operation.
まず、撮像部110は、得られたデジタル画像信号をRAM102に送信し、一時的に記憶させる。次に、画像処理部111は、設定された撮影設定に従って、RAM102に記憶されたデジタル画像信号に、前述の各種画質調整処理を行い、処理をしたデジタル画像信号を再びRAM102に記憶する。また、表示制御部141は、RAM102に記憶された処理済みのデジタル画像信号または未処理のデジタル画像信号を読み出して表示部140に表示させる。 First, the imaging unit 110 transmits the obtained digital image signal to the RAM 102 and temporarily stores it. Next, the image processing unit 111 performs the various image quality adjustment processes described above on the digital image signal stored in the RAM 102 in accordance with the set shooting setting, and stores the processed digital image signal in the RAM 102 again. Further, the display control unit 141 reads out the processed digital image signal stored in the RAM 102 or the unprocessed digital image signal and causes the display unit 140 to display the read out digital image signal.
すなわち、操作部104から動画記録開始の指示が入力(S203)されるまでは、表示部140に撮像部110により撮像された画像に基づく画像が表示される。 That is, an image based on the image captured by the imaging unit 110 is displayed on the display unit 140 until the moving image recording start instruction is input from the operation unit 104 (S203).
次に、このような記録待機状態において、操作部104から動画記録開始の指示が入力されると、通信部160は周辺画像処理端末との通信処理を行う(S204)。 Next, in the recording standby state, when an instruction to start moving image recording is input from the operation unit 104, the communication unit 160 performs communication processing with the peripheral image processing terminal (S204).
ここで、通信処理について説明する。 Here, communication processing will be described.
動画記録開始の指示が入力されると、図3で示すように、動画撮影を行っているカメラ310と所定の通信網300内に存在する通信可能な周辺の画像処理端末320と通信をスタートする。通信は無線電話網、WLAN、または他の無線ネットワークを介してデータを送受信可能な周辺の画像処理端末とデータ通信する。また、事前に画像処理端末同士でペアリングを行い、ペアリングした機器同士のみにデータの送受信を制限してもよい。ここでは画像処理端末320はデジタルカメラ、デジタルビデオカメラに限定されるものではなく、データ通信可能で撮影機能を有しているスマートフォンなどの端末でもよい。通信する情報として周辺の画像処理端末のレリーズ情報をリアルタイムで取得する。ここでレリーズ情報を取得する理由は、同会場におけるイベントにおいて静止画撮影した頻度が高い場合がハイライトシーンであると考えられるからである。例えば運動会やサッカー大会などのイベントにおいては、ゴールシーン付近が特に盛り上がり、シャッターを切る頻度が多く、その前後のシーンがハイライトシーンとして適切であるためである。 When an instruction to start moving image recording is input, as shown in FIG. 3, communication is started with a camera 310 performing moving image shooting and a communicable peripheral image processing terminal 320 existing in a predetermined communication network 300. . Communication is in data communication with a peripheral image processing terminal capable of transmitting and receiving data via a wireless telephone network, WLAN, or other wireless network. The image processing terminals may be paired in advance, and transmission and reception of data may be limited only to the paired devices. Here, the image processing terminal 320 is not limited to a digital camera and a digital video camera, and may be a terminal such as a smartphone capable of data communication and having a photographing function. As information to be communicated, release information of peripheral image processing terminals is acquired in real time. Here, the reason for acquiring the release information is that it is considered that the highlight scene is the case where the frequency of shooting still images is high in the event at the same venue. For example, in an event such as an athletic meet or a soccer tournament, the vicinity of the goal scene is particularly exciting, and the shutter is frequently released frequently, and the scene before and after that is appropriate as a highlight scene.
続いて撮像部110は、得られたデジタル画像信号をRAM102に送信し(S205)、一時的に記憶させる。次に、画像処理部111は、設定された撮影設定に従って、RAM102に記憶されたデジタル画像信号に、前述の各種画質調整処理(S206)を行い、処理をしたデジタル画像信号を再びRAM102に記憶する。また、表示制御部141は、RAM102に記憶された処理済みのデジタル画像信号または未処理のデジタル画像信号を読み出して表示部140に表示させる。 Subsequently, the imaging unit 110 transmits the obtained digital image signal to the RAM 102 (S205), and temporarily stores the digital image signal. Next, the image processing unit 111 performs the above-described various image quality adjustment processing (S206) on the digital image signal stored in the RAM 102 in accordance with the set photographing setting, and stores the processed digital image signal in the RAM 102 again. . Further, the display control unit 141 reads out the processed digital image signal stored in the RAM 102 or the unprocessed digital image signal and causes the display unit 140 to display the read out digital image signal.
さらに、符号化処理部130は、画像処理部111によって処理されたデジタル画像信号を符号化するための符号化処理を行う(S207)。 Further, the encoding processing unit 130 performs encoding processing for encoding the digital image signal processed by the image processing unit 111 (S207).
また、音声処理部121は、マイクユニットから入力されたデジタル音声信号に対して種々の調整処理を適用し、処理をしたデジタル音声信号を再びRAM102に記憶する(S208)。 Also, the audio processing unit 121 applies various adjustment processes to the digital audio signal input from the microphone unit, and stores the processed digital audio signal in the RAM 102 again (S208).
さらに、必要に応じて、予め設定された音声用の符号化方式に従って符号化処理を実行し、得られた音声データをRAM102に記憶させる。なお、以後の説明では、音声データについては説明を省略するが、動画データとともに処理されるものとする。 Furthermore, as necessary, the encoding process is executed according to a preset audio encoding scheme, and the obtained audio data is stored in the RAM 102. In the following description, although the description of audio data is omitted, it is assumed to be processed together with moving image data.
次に、記録再生部150は、RAM102に一時記憶されている符号化済みの動画データを、記録媒体151のファイルシステムに適合する動画ファイルとして記録する(S209)。また、CPU101により生成された必要な管理情報を動画ファイルに含めて記録する。 Next, the recording / reproducing unit 150 records the encoded moving image data temporarily stored in the RAM 102 as a moving image file compatible with the file system of the recording medium 151 (S209). Further, necessary management information generated by the CPU 101 is included in the moving image file and recorded.
CPU101は、動画記録終了の指示が入力(S210)されるまでは、これら一連の処理を撮像装置100の各ブロックに実行させる。 The CPU 101 causes each block of the imaging apparatus 100 to execute the series of processes until the moving image recording end instruction is input (S210).
次に操作部104から動画記録終了の指示が入力されると、符号化処理部130は、記録終了の指示が入力されるまでのデジタル画像信号を符号化し終わるまで動作し、その後動作を終了する。 Next, when an instruction to end moving image recording is input from the operation unit 104, the encoding processing unit 130 operates until encoding of the digital image signal until the instruction to end recording is input, and then ends the operation. .
また、記録再生部150も、RAM102に一時記憶されている符号化済みの動画データを記録媒体151記録し終わるまで動作し、その後、動作を終了する。また、通信部160も、周辺画像端末との通信を終了する。それ以外の撮像部110、画像処理部111、表示部140、表示制御部141、は動作を継続する。 Further, the recording / reproducing unit 150 also operates until the recording of the encoded moving image data temporarily stored in the RAM 102 is completed to the recording medium 151, and then the operation is ended. The communication unit 160 also ends communication with the peripheral image terminal. The other imaging units 110, the image processing unit 111, the display unit 140, and the display control unit 141 continue the operation.
その後RAM102に記憶されている周辺画像処理端末のレリーズ情報をもとにハイライト抽出処理を行う(S211)。 Thereafter, highlight extraction processing is performed based on the release information of the peripheral image processing terminal stored in the RAM 102 (S211).
ここでハイライトシーンの抽出について図4を用いて説明する。 Here, extraction of a highlight scene will be described with reference to FIG.
S204の周辺画像処理端末と通信処理されたレリーズ情報を蓄積していき、時間軸方向のヒストグラムを作成する。図4(a)のヒストグラムに対してR_Th1以上の区間をハイライトシーンとして抽出する。この閾値R_Th1は通信された周辺画像処理端末数に応じて可変にする。つまり、通信された端末数が多いときは閾値を上げ、少ないときは閾値を下げることによって、画像処理端末数に応じた制御をすることが可能になる。図4(a)の例では、撮影動画記録区間に対してハイライトシーン1(H1_S〜H1_E)、ハイライトシーン2(H2_S〜H2_E)、ハイライトシーン3(H3_S〜H3_E)を抽出することとする。上記ハイライト区間情報を動画データに対して付与する。 The release information subjected to communication processing with the peripheral image processing terminal in S204 is accumulated, and a histogram in the time axis direction is created. A section of R_Th1 or more is extracted as a highlight scene with respect to the histogram of FIG. The threshold R_Th1 is made variable according to the number of peripheral image processing terminals communicated. That is, by increasing the threshold when the number of terminals communicated is large and decreasing the threshold when small, it is possible to perform control according to the number of image processing terminals. In the example of FIG. 4A, highlight scene 1 (H1_S to H1_E), highlight scene 2 (H2_S to H2_E), and highlight scene 3 (H3_S to H3_E) are extracted with respect to the captured moving image recording section. Do. The above highlight section information is attached to moving image data.
上記の例ではレリーズ情報のヒストグラムを生成し、閾値を超えた領域をハイライトシーンと判断したが、単位時間あたりのレリーズ数に応じてハイライトシーンを抽出してもよい。図4(b)の例では、レリーズ数の閾値R_Th2を超えたS4区間とS7区間がハイライトシーンと判断される。 In the above example, a histogram of release information is generated, and an area exceeding the threshold is determined as a highlight scene, but a highlight scene may be extracted according to the number of releases per unit time. In the example of FIG. 4B, the S4 section and the S7 section exceeding the release number threshold R_Th2 are determined as the highlight scene.
以上のように、本実施例の撮像装置100は、動画記録モードにおいて動画ファイルを記録媒体151に記録する。 As described above, the imaging apparatus 100 of the present embodiment records a moving image file on the recording medium 151 in the moving image recording mode.
上記のように記録された動画データに対してハイライト情報を付加することで、撮影後のダイジェスト再生や、編集する場合を簡略化することができる。 By adding highlight information to the moving image data recorded as described above, it is possible to simplify the case of digest reproduction and editing after shooting.
(第2の実施形態)
第1の実施形態では、動画記録時にリアルタイムで周辺画像処理端末のレリーズ情報を受信し、その情報を基にハイライトシーンを検出し、動画データに付与していた。第2の実施形態では、画像サーバーにアクセスして、サーバー経由でハイライト情報を付加する点が第1の実施例と異なる。
Second Embodiment
In the first embodiment, release information of the peripheral image processing terminal is received in real time at the time of moving image recording, and a highlight scene is detected based on the information and attached to moving image data. The second embodiment is different from the first embodiment in that the image server is accessed and highlight information is added via the server.
第2の実施形態について図5のフローチャートを用いて説明する。 The second embodiment will be described using the flowchart of FIG.
一連の動画像データを撮影後、ネットワークを経由して画像サーバーに接続する(S501)。ここで使用するネットワークは無線電話網、WLAN、または他の無線ネットワークや、自宅のPCを介してネットワーク接続してもよい。 After capturing a series of moving image data, connection is made to the image server via the network (S501). The network used here may be connected via a wireless telephone network, WLAN, or another wireless network, or a home PC.
次に時刻情報、位置情報を基にハイライト検出に用いる静止画データを抽出する(S502)。ここでは、画像サーバー内の静止画データに対して、撮影動画データと位置情報、時刻情報が合致する静止画データを抽出する。つまり同イベント、同時刻で撮影された画像データ群を抽出する。ここで抽出された静止画データ数が第1の実施例のレリーズ数に相当する。 Next, still image data to be used for highlight detection is extracted based on time information and position information (S502). Here, still image data in which captured moving image data, position information, and time information match with each other is extracted from still image data in the image server. That is, image data groups captured at the same event and at the same time are extracted. The number of still image data extracted here corresponds to the release number of the first embodiment.
次に図4に示す第1の実施形態と同様な手法でハイライト部分を検出し(S503)、検出したハイライト部を動画像データに付与(S504)することで、第1の実施例と同じ効果が得られる。 Next, a highlight portion is detected by the same method as that of the first embodiment shown in FIG. 4 (S 503), and the detected highlight portion is added to moving image data (S 504), thereby the first embodiment and The same effect is obtained.
(他の実施形態)
上述の実施形態は、システム或いは装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。
(Other embodiments)
The embodiments described above can also be realized as software by a computer (or a CPU, an MPU or the like) of a system or apparatus. Therefore, the computer program itself supplied to the computer in order to realize the above-described embodiment by the computer also implements the present invention. That is, a computer program for realizing the functions of the above-described embodiments is also one of the present invention.
なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体または有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。 A computer program for realizing the above-described embodiment may be in any form as long as it is computer readable. For example, it can be configured by an object code, a program executed by an interpreter, script data supplied to an OS, and the like, but is not limited thereto. A computer program for implementing the embodiments described above is provided to a computer by a storage medium or wired / wireless communication. Examples of storage media for supplying the program include magnetic storage media such as flexible disks, hard disks, and magnetic tapes, light / magneto-optical storage media such as MOs, CDs, and DVDs, and nonvolatile semiconductor memories.
有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバーを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバーに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであってもよい。そして、このサーバーにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバーに分散して配置することも可能である。つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバー装置も本発明の一つである。 As a method of supplying computer programs using wired / wireless communication, there is a method of using a server on a computer network. In this case, data files (program files) that can be computer programs forming the present invention are stored in the server. The program file may be an executable or source code. Then, the program is supplied by downloading the program file to the client computer that has accessed this server. In this case, it is also possible to divide the program file into a plurality of segment files and distribute the segment files to different servers. That is, a server apparatus that provides a client computer with a program file for realizing the above-described embodiment is also one of the present invention.
また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。 In addition, a storage medium in which a computer program for realizing the above-described embodiment is encrypted and stored is distributed, key information for decrypting encryption is supplied to a user who satisfies predetermined conditions, and the user's computer is provided. You may allow installation. The key information can be supplied, for example, by downloading it from a home page via the Internet. In addition, a computer program for realizing the above-described embodiment may utilize the function of the OS which is already operated on the computer. Furthermore, a computer program for realizing the above-described embodiment may be configured by firmware such as an expansion board attached to a part of the computer program, or may be executed by a CPU provided in the expansion board or the like. Good.
100 撮像装置、101 CPU、102 RAM、103 、ROM、
104 操作部、110 撮像部、111 画像処理部、120 マイクユニット、
121 音声処理部、122 スピーカユニット
100 imaging apparatus, 101 CPU, 102 RAM, 103, ROM,
104 operation unit, 110 imaging unit, 111 image processing unit, 120 microphone unit,
121 audio processing unit, 122 speaker unit
Claims (11)
一連の動画像を生成し、記録する動画像処理部と、
前記画像処理装置以外の画像処理端末からレリーズ情報を取得する情報取得部と、前記レリーズ情報を蓄積し、その蓄積情報をもとに前記動画像処理部によって生成された動画像のハイライトシーンを抽出するハイライト抽出部と、を有することを特徴とする画像処理装置。 An image processing apparatus for imaging a subject and processing an obtained image signal, comprising:
A moving image processing unit that generates and records a series of moving images;
An information acquisition unit that acquires release information from an image processing terminal other than the image processing apparatus, and the release information is accumulated, and a highlight scene of a moving image generated by the moving image processing unit based on the accumulated information And a highlight extraction unit for extracting the image.
The image processing apparatus according to claim 1, wherein the highlight information extracted by the highlight extraction unit is added to moving image data generated by the moving image processing unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017198957A JP2019075638A (en) | 2017-10-13 | 2017-10-13 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017198957A JP2019075638A (en) | 2017-10-13 | 2017-10-13 | Image processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019075638A true JP2019075638A (en) | 2019-05-16 |
Family
ID=66543338
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017198957A Pending JP2019075638A (en) | 2017-10-13 | 2017-10-13 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019075638A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021079975A1 (en) * | 2019-10-23 | 2021-04-29 | ソニー株式会社 | Display system, display device, display method, and moving device |
WO2023148963A1 (en) * | 2022-02-07 | 2023-08-10 | 日本電気株式会社 | Information processing device, information processing method, and program |
JP7533066B2 (en) | 2020-09-23 | 2024-08-14 | 株式会社Jvcケンウッド | Highlight video production device |
-
2017
- 2017-10-13 JP JP2017198957A patent/JP2019075638A/en active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021079975A1 (en) * | 2019-10-23 | 2021-04-29 | ソニー株式会社 | Display system, display device, display method, and moving device |
JP7533066B2 (en) | 2020-09-23 | 2024-08-14 | 株式会社Jvcケンウッド | Highlight video production device |
WO2023148963A1 (en) * | 2022-02-07 | 2023-08-10 | 日本電気株式会社 | Information processing device, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9124860B2 (en) | Storing a video summary as metadata | |
US8432965B2 (en) | Efficient method for assembling key video snippets to form a video summary | |
US8446490B2 (en) | Video capture system producing a video summary | |
US10362262B2 (en) | Data recording apparatus and method of controlling the same | |
JP6373056B2 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND IMAGE PROCESSING METHOD | |
EP3490250B1 (en) | Image processing apparatus and image processing method | |
JP6242171B2 (en) | Image processing apparatus, image processing method, and program | |
EP2974265B1 (en) | Imaging apparatus and imaging apparatus control method | |
JP5783737B2 (en) | Image pickup apparatus and moving image recording apparatus control method | |
JP2019075638A (en) | Image processing device | |
JP5773855B2 (en) | Image processing device | |
US9595292B2 (en) | Image processing apparatus | |
JP2022187301A (en) | Image capture apparatus, control method, and program | |
US8692898B2 (en) | Image capture apparatus for encrypting image data using a first encryption method or a second encryption method based on an instruction | |
US9521327B2 (en) | Image capturing apparatus, method for controlling image capturing apparatus, display control apparatus, and method for controlling display control apparatus | |
JP6282136B2 (en) | Imaging apparatus and control method thereof | |
JP6463967B2 (en) | Imaging apparatus and control method thereof | |
JP6071357B2 (en) | Image processing apparatus, image processing method, and program | |
JP2015050688A (en) | Imaging device, control method of imaging device, and program | |
JP6242172B2 (en) | Image processing apparatus, image processing method, and program | |
JP2019083368A (en) | Encoding device and decoding device, and control methods and programs therefor | |
JP2020065219A (en) | Imaging apparatus and method of controlling the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20191125 |