JP2010287974A - Mobile phone and program - Google Patents
Mobile phone and program Download PDFInfo
- Publication number
- JP2010287974A JP2010287974A JP2009138829A JP2009138829A JP2010287974A JP 2010287974 A JP2010287974 A JP 2010287974A JP 2009138829 A JP2009138829 A JP 2009138829A JP 2009138829 A JP2009138829 A JP 2009138829A JP 2010287974 A JP2010287974 A JP 2010287974A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- moving image
- image data
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、画像入力部から入力された画像と、音声入力部から入力された音声とから、動画データを作成し、動画ストレージに格納する動画データ格納部と、前記動画ストレージから、動画データを読み出して、画像及び音声を展開して、画像を画像出力部に、音声を音声出力部に出力する動画データ展開部を備えた携帯電話等に関する。 The present invention creates a moving image data from an image input from the image input unit and a sound input from the audio input unit, and stores the moving image data in the moving image storage, and the moving image data from the moving image storage. The present invention relates to a mobile phone or the like provided with a moving image data expansion unit that reads out and expands an image and sound and outputs the image to an image output unit and the sound to an audio output unit.
画像や、動画を撮影し、再生する画像処理装置が種々知られている。ここで、携帯電話等の装置においも、メモリ媒体が安価になったことや、高画素のカメラが搭載されたことにより、高品質な動画を長時間撮影することが出来るようになってきている。 Various image processing apparatuses that capture and reproduce images and moving images are known. Here, even in devices such as mobile phones, it has become possible to shoot high-quality moving pictures for a long time due to the low cost of memory media and the incorporation of high-pixel cameras. .
長時間の撮影を行うと、特に見たいシーンを発見するには早送り等の操作を行う必要があり、時間がかかる。DVDなどで販売されている映像ソフトでは、あらかじめチャプタ分割されており、チャプタを指定してジャンプすれば、目的の場面をすぐに見ることが出来るが、携帯電話等で撮影された動画は、撮影後にパソコンなどにデータを移動し、専用の編集ソフトで、あるいは自分で場面の区切り目をつけるなどの作業が必要であった。したがって、長時間撮影する能力を持ちながらも、見たい場面をすぐに見られないという使いにくさは、動画撮影機能を利用者に使ってもらえないことの一因となっていた。 When shooting for a long time, it is necessary to perform operations such as fast-forwarding in order to find a scene to be seen in particular, which takes time. In video software sold on DVD, etc., chapters are divided in advance, and if you jump by specifying chapters, you can see the target scene immediately, but videos shot with mobile phones etc. Later, it was necessary to move the data to a personal computer, etc., and work with special editing software or by setting the scene breaks by themselves. Therefore, the difficulty of using the video shooting function by the user has been one of the reasons why the user cannot use the video shooting function while having the ability to shoot for a long time.
ここで、TV向け録画装置等の場合、CM等で自動的に区切る装置があるが、無音を検出する方式や、音声のモノラル/ステレオの切り替わりを検出する方式であり、携帯電話での撮影においては利用が難しかった。 Here, in the case of a recording device for TV and the like, there is a device that automatically divides by CM or the like, but there are a method for detecting silence and a method for detecting a change of monaural / stereo sound, and in shooting with a mobile phone. Was difficult to use.
ここで、分類画像が動画である場合にも適用可能なメタデータ付与装置及びメタデータ付与方法が開示されている(例えば、特許文献1参照)。例えば、インターネットから収集した静止画像データから特徴量を抽出し、動画の各フレームデータ(画像)から抽出した特徴量と照合し、近い静止画像データに関連するキーワードをメタデータとして付与する手段を提供している。 Here, a metadata providing apparatus and a metadata providing method that can be applied even when the classified image is a moving image are disclosed (for example, see Patent Document 1). For example, a feature is provided that extracts feature values from still image data collected from the Internet, compares them with feature values extracted from each frame data (image) of moving images, and assigns keywords related to near still image data as metadata is doing.
上述した方法を用いれば、動画像の各フレームに類似画像検索を行い、各フレームにメタデータを付与することが出来るが、一般的に各画像の特徴ベクトルを算出する処理や、特徴ベクトルに基づく類似画像検索は処理量が大きく時間がかかり、特に画像サイズが大きくなればなるほどより多くの時間がかかるようになるため、録画時にどのように適用するのかという課題が残ってしまう。特に、ビデオカメラなど、専用の録画装置ではサイズの大きい動画を扱うための専用のハードウェアが使われるため比較的実現しやすいが、携帯電話等のように、電話等他の機能と共通で使う汎用かつ小型のCPUなどを使わなければならないなどの制約の中では実現困難であった。 By using the above-described method, it is possible to perform a similar image search for each frame of a moving image and to add metadata to each frame. Generally, however, a process for calculating a feature vector of each image and a feature vector are used. The similar image search takes a large amount of processing and takes time, and in particular, the larger the image size, the more time it takes. Thus, there remains a problem of how to apply it during recording. In particular, a dedicated recording device such as a video camera is relatively easy to implement because it uses dedicated hardware for handling large-sized movies, but it is used in common with other functions such as a telephone, such as a mobile phone. It was difficult to realize it under the restriction that a general-purpose and small CPU had to be used.
また、すべての動画フレームに対してメタデータを付与できたとして、シーンの変わり目、すなわち何か特徴的なものが初めて写る場面を一覧として再生時に利用者に提示するには、一度すべてのメタデータを読み込む必要があるが、動画に連続して同じものが写っている限りそのフレーム数分のメタデータが付与されることとなり、読み込みに時間がかかるといった問題点が生じていた。 Also, assuming that all video frames have been given metadata, in order to present a list of scene changes, i.e., scenes where something unique is first seen, to the user during playback, all metadata must be entered once. However, as long as the same image is continuously captured in the video, metadata corresponding to the number of frames is added, which causes a problem that it takes time to read.
上述した課題に鑑み、本発明が目的とするところは、比較的処理能力が低い携帯電話で高解像度な動画像を撮影する場合であっても、撮影中にリアルタイムかつ自動的に、参照画像に基づいて、利用者に負担をかけることなく、タグを付与することにより、利用者にとって視聴しやすい動画を提供出来る携帯電話等を提供することを目的とする。 In view of the above-described problems, the present invention aims to automatically convert a reference image to a reference image in real time during shooting even when shooting a high-resolution moving image with a mobile phone having relatively low processing capability. An object of the present invention is to provide a mobile phone or the like that can provide a video that can be easily viewed by the user by attaching a tag without imposing a burden on the user.
上述した課題に鑑み、本発明の携帯電話は、画像入力部から入力された画像と、音声入力部から入力された音声とから、動画データを作成し、動画ストレージに格納する動画データ格納部と、前記動画ストレージから、動画データを読み出して、画像及び音声を展開して、画像を画像出力部に、音声を音声出力部に出力する動画データ展開部と、を備えた携帯電話であって、参照画像と、参照画像の特徴量と、キーワードとを対応づけて記憶する参照画像特徴記憶部と、前記動画データに含まれる画像の特徴量を算出する特徴量算出部と、前記特徴量算出部により算出された特徴量と、前記参照画像特徴記憶部に記憶されている特徴量とを比較する特徴量比較部と、前記特徴量比較部の比較結果に基づいて、前記動画データに含まれる画像に類似する参照画像のキーワードを含むタグ情報を生成し保存するタグ情報保存部と、を備えることを特徴とする。 In view of the above-described problems, the mobile phone of the present invention includes a moving image data storage unit that creates moving image data from an image input from the image input unit and audio input from the audio input unit and stores the moving image data in the moving image storage. A mobile phone comprising: a moving image data reading unit that reads moving image data from the moving image storage, expands an image and sound, outputs an image to an image output unit, and outputs sound to an audio output unit; A reference image feature storage unit that stores a reference image, a feature amount of the reference image, and a keyword in association with each other, a feature amount calculation unit that calculates a feature amount of an image included in the moving image data, and the feature amount calculation unit An image included in the moving image data based on a comparison result of the feature amount comparison unit that compares the feature amount calculated by the feature amount stored in the reference image feature storage unit and the feature amount comparison unit In A tag information storage unit to store generates tag information including the keyword of the reference image to be similar, characterized in that it comprises a.
また、本発明の携帯電話において、前記タグ情報保存部は、前記参照画像に類似する画像の動画データの開始時刻をダグ情報に更に含めて保存することを特徴とする。 In the mobile phone of the present invention, the tag information storage unit stores the start time of moving image data of an image similar to the reference image in addition to the tag information.
また、本発明の携帯電話において、前記タグ情報保存部は、前記参照画像に類似する画像の動画データの終了時刻をダグ情報に更に含めて保存することを特徴とする。 In the mobile phone of the present invention, the tag information storage unit stores the end time of moving image data of an image similar to the reference image in addition to the tag information.
また、本発明の携帯電話において、前記タグ情報保存部は、前記参照画像に対応するキーワードに応じたシーンの情報についてタグ情報に含めて保存することを特徴とする。 In the mobile phone of the present invention, the tag information storage unit stores the scene information corresponding to the keyword corresponding to the reference image in the tag information.
また、本発明の携帯電話は、前記動画データ展開部に対し、前記動画データに基づいたタグ情報に基づいて、再生の指示を行う再生指示部を更に有することを特徴とする。 In addition, the mobile phone of the present invention further includes a reproduction instruction unit that instructs the moving image data expansion unit to perform reproduction based on tag information based on the moving image data.
また、本発明の携帯電話において、前記再生指示部は、キーワードが含まれているシーンを前記タグ情報から特定し、当該シーンが連続して再生されるように前記動画データ展開部に対して再生指示を行うことを特徴とする。 In the mobile phone of the present invention, the reproduction instruction unit identifies a scene including a keyword from the tag information, and reproduces the moving image data expansion unit so that the scene is continuously reproduced. It is characterized by giving instructions.
また、本発明の携帯電話において、前記動画データ展開部は、再生指示部から早送りの指示があった際、前記タグ情報に基づき、各タグの先頭フレームのみ又は各タグの先頭から数秒間のフレームのみを、時系列にしたがって順に動画データを展開して出力することを特徴とする。 Further, in the mobile phone of the present invention, the moving image data expansion unit, when instructed to fast-forward from the reproduction instruction unit, based on the tag information, only the first frame of each tag or a frame of several seconds from the top of each tag Only, the moving image data is expanded and output in order according to the time series.
本発明のプログラムは、画像出力装置及び音声出力装置を備えたコンピュータに、画像データと、音声データとから、動画データを作成し、動画ストレージに格納する動画データ格納機能と、前記動画ストレージから、動画データを読み出して、画像及び音声を展開して、画像を画像出力装置に、音声を音声出力装置に出力する動画データ展開機能と、を実現させるプログラムであって、参照画像と、参照画像の特徴量と、キーワードとを対応づけて記憶する参照画像特徴記憶機能と、前記動画データに含まれる画像の特徴量を算出する特徴量算出機能と、前記特徴量算出機能により算出された特徴量と、前記参照画像特徴記憶機能により記憶されている特徴量とを比較する特徴量比較機能と、前記特徴量比較機能の比較結果に基づいて、前記動画データに含まれる画像に類似する参照画像のキーワードを含むタグ情報を生成し保存するタグ情報保存機能と、を実現することを特徴とする。 The program of the present invention includes a moving image data storage function for creating moving image data from a video data and sound data in a computer equipped with an image output device and an audio output device, and storing the moving image data in a moving image storage; A program that reads moving image data, expands an image and sound, and realizes a moving image data expansion function that outputs the image to the image output device and the sound to the sound output device. A reference image feature storage function for storing a feature quantity and a keyword in association with each other, a feature quantity calculation function for calculating a feature quantity of an image included in the moving image data, and a feature quantity calculated by the feature quantity calculation function Based on the comparison result of the feature amount comparison function for comparing the feature amount stored by the reference image feature storage function and the feature amount comparison function, Characterized in that to realize the tag information stored function to generate and save the tag information including the keyword of the reference image similar to the image included in the video data.
本発明の携帯電話によれば、参照画像と、参照画像の特徴量と、キーワードとを対応づけて記憶する参照画像特徴記憶部を有しており、動画データに含まれる画像の特徴量を算出し、算出された特徴量と、前記参照画像特徴記憶部に記憶されている特徴量とを比較する。そして、比較結果に基づいて、前記動画データに含まれる画像に類似する参照画像のキーワードを含むタグ情報を生成し保存する。したがって、撮影者が意識することなく、参照画像特徴記憶部に記憶されている参照画像に基づいてタグ情報が生成されることとなり、利用者が再生時にタグ情報を利用して再生可能な動画データを提供することができる。 According to the mobile phone of the present invention, it has the reference image feature storage unit that stores the reference image, the feature amount of the reference image, and the keyword in association with each other, and calculates the feature amount of the image included in the moving image data. Then, the calculated feature amount is compared with the feature amount stored in the reference image feature storage unit. Then, based on the comparison result, tag information including a keyword of a reference image similar to the image included in the moving image data is generated and stored. Therefore, tag information is generated based on the reference image stored in the reference image feature storage unit without the photographer being conscious, and the moving image data that the user can reproduce using the tag information during reproduction. Can be provided.
また、利用者がキーワードを指定することによって、動画データからキーワードを含むシーンのみを再生するといったことが、本発明の携帯電話により実現可能となる。 In addition, the mobile phone of the present invention can reproduce only a scene including the keyword from the moving image data by designating the keyword by the user.
以下、図面を参照して本発明を実施するための最良の形態について説明する。なお、本実施形態では、一例として、高解像度の動画撮影が可能な携帯電話1に適用した場合について説明する。 The best mode for carrying out the present invention will be described below with reference to the drawings. In the present embodiment, as an example, a case will be described in which the present invention is applied to a mobile phone 1 capable of high-resolution moving image shooting.
[機能構成]
まず、携帯電話1の機能構成について説明する、図1は、携帯電話1の機能構成の全体を示したものであり、図2は、携帯電話1において動画を記録する場合に利用される機能部を中心に、図3は、動画を再生する場合に利用される機能部を中心にそれぞれ表した図である。
[Function configuration]
First, the functional configuration of the mobile phone 1 will be described. FIG. 1 shows the entire functional configuration of the mobile phone 1, and FIG. 2 shows functional units used when recording a moving image on the mobile phone 1. FIG. 3 is a diagram mainly illustrating functional units used when reproducing a moving image.
図1に示すように、携帯電話1は、制御部10に、通信部20と、画像入出力部22と、カメラ部24と、表示部26と、画像処理部30と、音声入出力部40と、マイク42と、スピーカ44と、音声処理部50と、記憶部60と、動画処理部70と、画像解析部80と、再生指示部90とが、バスを介して接続されている。
As shown in FIG. 1, the mobile phone 1 includes a
制御部10は、携帯電話1を制御する機能部であり、例えばCPU等の処理装置により構成されている。制御部10は、記憶部60に記憶されている各種プログラムを読み出して実行することにより、各機能を実現することとなる。
The
通信部20は、携帯電話1が基地局と通信を行う為の機能部であり、通信部20を介して音声データ及び各データをネットワーク(例えば、携帯電話網)を介して通信可能となる。
The
画像入出力部22は、入力された画像を処理して各機能部に出力する機能部である。例えば、カメラ部24から入力された画像を処理したり、表示部26に適した表示形態にて画像を出力したりする機能部である。
The image input /
ここで、画像入出力部22は、出力する装置及び機能部に応じて適宜適切な大きさの画像に変換し、出力する画像変換機能を備えるものとする。例えば、入力された画像データ(例えば、解像度がXGAの画像データ)を表示部26(例えば、表示能力としてVGAの表示部)に出力する場合には、表示部26の表示サイズ(解像度がVGAの画像データ)に適切に変換されて出力することとなる。
Here, it is assumed that the image input /
また、本実施形態においては、画像入出力部22から特徴量算出部82に出力される画像データは、表示部26に出力される画像データにて出力されることとする。これにより、画像のエンコードの次に処理負荷の大きい特徴量を抽出する処理において、表示用の画像データ(すなわち、撮影されたデータより解像度の低い画像データ)を利用することで、処理負荷を軽減することができる。
In the present embodiment, the image data output from the image input /
カメラ部24は、被写体や風景等を撮影するための機能部であり、例えば、CCD等で構成されている。カメラ部24で撮影された画像は、画像入出力部22に出力される。
The
表示部26は、携帯電話1における種々の情報を表示したり、画像又は動画像を表示したりする機能部である。例えば、液晶ディスプレイや、有機ELディスプレイ等により構成されている。
The
画像処理部30は、携帯電話1において、所定の形式にて画像データを符号化したり、復号したりする機能部である。画像処理部30は、画像データを符号化する画像エンコーダ部32と、画像データを復号する画像デコーダ部34とを備えている。
The
音声入出力部40は、入力された音声を処理して各機能部に出力する機能部である。例えば、マイク42から入力された音声を処理したり、スピーカ44に出力したりする機能部である。なお、本実施形態においては、音声出力部としてスピーカ44を利用して説明するが、例えばヘッドフォン等の他の音声出力装置で構成されても良いことは勿論である。
The voice input /
音声処理部50は、携帯電話1において、所定の形式にて音声データを符号化したり、復号したりする機能部である。音声処理部50は、音声データを符号化する音声エンコーダ部52と、音声デコーダ部54とを備えている。
The
記憶部60は、携帯電話1の設定状態を記憶したり、一時的な画像データを保存したりするための機能部である。ここで、記憶部60は、例えば、半導体メモリ、ハードディスクドライブ、光学式ディスクドライブ等のいずれかの記憶装置により構成されている。また、携帯電話1を動作させる為の各種データやプログラム等も記憶している。制御部10は、記憶部60に記憶されている制御プログラムを読み出して実行することにより、各種制御処理を実行する。
The
また、記憶部60には、参照画像特徴DB62と、動画ストレージ64との領域が確保されている。
Further, the
ここで、参照画像特徴DB62のデータ構造の一例として図4に示す。参照画像特徴DB62は、参照画像のファイルパスと、参照画像に対応するキーワードと、参照画像の特徴量データとが対応づけて記憶されている。
An example of the data structure of the reference
ここで、同じ被写体であっても、撮影条件などにより画像の特徴量には差異が生じるため、同じキーワードに該当する画像を複数登録することでより高い識別率を得ることができる。また、参照画像は携帯電話の製造者があらかじめ登録しておいても良いし、使用者が後から登録できるようにしても良い。また、携帯電話には人物名と対応する画像を登録可能な電話帳機能が備わっていることが多いため、これを参照画像として用いても良い。さらに、携帯電話での静止画像撮影では、GPSを用いて位置情報を埋め込んだりできるので、これを利用するのもよい。 Here, even if the subject is the same, there is a difference in the feature amount of the image depending on the shooting conditions and the like, so that a higher identification rate can be obtained by registering a plurality of images corresponding to the same keyword. The reference image may be registered in advance by the manufacturer of the mobile phone, or may be registered later by the user. In addition, since mobile phones often have a telephone directory function that can register images corresponding to person names, these may be used as reference images. Furthermore, in still image shooting with a mobile phone, position information can be embedded using GPS, and this may be used.
動画ストレージ64は、動画データと、動画データに対応するタグ情報とが記憶されている記憶領域である。例えば、図5に示すように、動画像データ(例えば、「recorded100.mp4」)に対応づけて、タグ情報(例えば、「<taglist>〜」)がそれぞれ記憶されている。
The moving
ここで、タグ情報について、図6を用いて説明する。まず、filenameタグ(T1)により、動画像データが指定されており、当該動画像データ内のタグがtag idタグ(T100)で指定されている。この、tag idタグで囲まれている範囲(例えば、T10やT12)が一つのタグとなる。 Here, the tag information will be described with reference to FIG. First, moving image data is specified by a filename tag (T1), and a tag in the moving image data is specified by a tag id tag (T100). A range (for example, T10 or T12) surrounded by the tag id tag is one tag.
また、各タグ情報の詳細については、以下の通りである。
ref−imgタグ(T102):参照画像にアクセスするためのパス情報が記録されている。
thumbnailタグ(T104):サムネイル画像に関するパス情報が記録されている。
keywordタグ(T106):コンテンツに対するキーワードが記録されている。
start−timeタグ(T108):コンテンツの開始時間が記録されている。
end−timeタグ(T110):コンテンツの終了時間が記録されている。
Details of each tag information are as follows.
ref-img tag (T102): Path information for accessing the reference image is recorded.
thumbnail tag (T104): Path information related to the thumbnail image is recorded.
keyword (T106): A keyword for the content is recorded.
start-time tag (T108): The start time of the content is recorded.
end-time tag (T110): The end time of the content is recorded.
なお、本実施形態には、タグ情報の一例としてXML形式としているが、他の形式にて保存されることとしても良いことは勿論である。 In this embodiment, the XML format is used as an example of the tag information, but it is needless to say that the tag information may be stored in another format.
動画処理部70は、入力された画像データ及び音声データを結合することにより動画データを例えば、Mpeg4形式等の所定の形式に符号化したり、逆に読み出された動画データを、画像データ及び音声データに分離して出力したりする機能部である。動画処理部70には、動画データを符号化して格納する動画データ格納部72と、動画データを展開して画像データと音声データに分離(展開)する動画データ展開部74とを備えている。
The moving
画像解析部80は、各種画像を解析したり、動画ストレージ64からタグ情報を読み出したり保存したりする機能部である。画像解析部80には、特徴量算出部82と、特徴量比較部84と、タグ保存部86と、タグ読み出し部88とを含んでいる。
The
特徴量算出部82は、入力された1フレーム分の画像データの特徴情報を算出する機能部である。本実施形態では特徴情報の算出方法は特に問わないが、例えば、RGB方式におけるR、G、B各色のヒストグラムを特徴情報とする方法や、YUV方式におけるYのみのヒストグラムを特徴情報とする方法などがより適する。
The feature
なお、特徴量算出部82に入力されるデータは、画像入出力部22から出力される表示用の画像データであることとする。なお、特徴量算出部82の処理性能により、撮影された画像データ(すなわち、高解像度の画像データ)を利用しても良い。
Note that the data input to the feature
特徴量比較部84は、特徴量算出部82で算出した特徴情報と、参照画像特徴DB62から取得した特徴情報とを比較し、類似度を算出するための機能部である。
The feature
タグ保存部86は、特徴量比較部84で一定以上の類似度を持つと判断された参照画像情報と、特徴量算出部82で特徴算出処理をしたフレームデータのタイムスタンプ情報を元に、録画中の動画データのタグ情報を作成し、動画データ対応づけて動画ストレージ64に記憶する。
The
タグ読み出し部88は、動画ストレージ64に含まれているタグ情報を読み出し、動画データ展開部74及び画像入出力部22にタグ情報を出力する。
The
再生指示部90は、表示部26に表示されたタグ情報を見た利用者が、動画像の好みの位置から再生するように位置を指定する役割を持つハードウェア及びソフトウェアである。ハードウェアとしては、表示部26と一体となったタッチパネルを用いる方法でもよいし、携帯電話のキー、携帯電話に接続されたキーボードなどを用いる方法でも良い。
The
[動画記録時について]
つづいて、各機能部について、動画を記録する場合と、動画を再生する場合に利用される機能部を中心に説明する。まず、動画を記録する場合について説明する。
[When recording movies]
Next, each functional unit will be described focusing on the functional units used when recording a moving image and reproducing the moving image. First, a case where a moving image is recorded will be described.
カメラ部24、マイク42はそれぞれ携帯電話1に取り付けられた撮影装置と音声入力装置である。
The
カメラ部24から入力された画像(動画)は、画像入出力部22に出力され、画像データとして、表示部26、画像エンコーダ部32、特徴量算出部82に出力される。特徴量算出部は、画像入出力部22から入力された画像に基づいて特徴量を算出する。そして、参照画像特徴DB62に記憶されている参照画像の特徴量と、特徴量算出部82により算出された特徴量とを比較し、類似する参照画像(すなわち、タグ)を認識する。
An image (moving image) input from the
ここで、画像入出力部22から画像エンコーダ部32により所定の形式にエンコードされた画像データが送信される。
Here, image data encoded in a predetermined format is transmitted from the image input /
また、マイク42から入力された音声は、音声入出力部40により音声データに変更される。また、音声エンコーダ部52により、所定の形式にエンコードされ、動画データ格納部72に出力する。
The voice input from the
また、動画データ結合部は、画像エンコーダ部32により出力された画像データと、音声エンコーダ部52により出力された音声データとを、動画ファイルとする。そして、動画ファイルは、動画ストレージ64に、タグ保存部86により記憶されたタグ情報と併せて、動画ストレージ64に記憶される。
Further, the moving image data combining unit sets the image data output from the
[再生機能]
続いて、動画を再生する場合について説明する。図3は本実施形態における携帯電話1で動画像を再生する機能を実現するための一実施形態例を示すシステム図である。
[Playback function]
Next, a case where a moving image is reproduced will be described. FIG. 3 is a system diagram showing an embodiment for realizing a function of reproducing a moving image on the mobile phone 1 in the present embodiment.
再生指示部90より、利用者により動画の再生が指示されると、動画データ展開部74は、動画ストレージ64より対応する動画データと、タグ情報を読み出す。
When the
そして、動画ストレージ64から読み出された動画データは動画データ展開部74に、タグ情報はタグ読み出し部88を介して動画データ展開部74及び画像入出力部22にそれぞれ出力される。
The moving image data read from the moving
動画データ展開部74は、入力された動画データを画像データと音声データとにそれぞれ分離して出力する。具体的には、画像データを画像デコーダ部34に、音声データを音声デコーダ部54にそれぞれ出力する。
The moving image
そして、画像デコーダ部34により、画像が復号され、画像入出力部22を介して表示部26に出力される。また、音声デコーダ部54により、音声が復号され、音声入出力部40を介してスピーカ44に出力される。
Then, the
[タグ情報生成処理]
続いて、動画像撮影時におけるタグ情報生成手順について、図7を用いて説明する。携帯電話1内には、あらかじめ参照画像となる画像と、それに対応するキーワードを参照画像特徴DB62に登録しておく。ここで、参照画像は複数登録することができ、撮影開始前に特徴量算出部82において特徴量を算出し、参照画像特徴DB62に登録しておく。
[Tag information generation processing]
Next, a tag information generation procedure at the time of moving image shooting will be described with reference to FIG. In the mobile phone 1, an image serving as a reference image and a keyword corresponding to the image are registered in advance in the reference
撮影を開始すると、まず参照画像特徴DB62から特徴量比較部84に特徴量データをすべて読み込む(ステップS10)。具体的には、特徴量データがn個登録されていれば、変数Fr1〜Frnとして読み込む。読み込みが終わったら、カメラ部24からの画像の入力を開始する(ステップS12)。
When shooting is started, all feature quantity data is first read from the reference
画像入出力部22は、撮影パラメータに従い画像エンコーダ部32に画像を出力する。また、画像エンコーダ部32に提供した画像がどのような画像であるかを利用者にわかりやすくするため、表示部26にも画像を出力する。また、画像入出力部22には、常に最新の画像データを取得可能なバッファが備わっており、1フレーム分のデータが貯まると特徴量算出部82に通知する。
The image input /
携帯端末の場合、一般に表示部26の解像度は撮影可能なサイズよりも小さいため、画像エンコーダ部32に出力される画像よりも表示部26に出力する画像の解像度の方が粗くなる。そこで本実施形態では、実際に符号化する画像を特徴抽出対象として使うのではなく、表示部26で表示するための画像を使うことにする。
In the case of a portable terminal, since the resolution of the
すなわち、画像入出力部22のバッファには、表示部26で表示するための画像と同じデータを格納する。特徴量算出部82は、データを取得する準備が整っていれば、任意のタイミングでそれを取得することが出来るが、データを取得する前にカメラから新たな画像が入力されると画像入出力部22内にデータは上書きされる。特徴量算出部82は、バッファにデータがたまったことを通知されると、1フレーム分のデータが入力され(ステップS14)、特徴量データを算出する。ここで、算出した特徴量はi番目のフレームの特徴量データを意味するFiに格納される(ステップS16)。
That is, the same data as the image to be displayed on the
次に、特徴量比較部84でFiとFr1〜Frnの類似度を算出する(ステップS18)。類似度の算出方法は、特徴量データの算出方法によりさまざまな算出方法があるが、例えばYUV方式におけるYのみのヒストグラムを特徴量データとしたときには、各要素の差分を全要素にわたって加算したものを類似度とすることができる。すなわち、Fiの各要素をFi、Fr1〜Frnの各要素をFr1〜Frn、要素数をmとすれば、Fiとn番目の参照画像の特徴量データとの類似度Srnは以下の式で求められる。
そして、算出した類似度のうち、一定以下の値(閾値)を持つ、すなわち一定以上の値を持っていると判断できるものを抽出し、タグ情報の候補として抽出する(ステップS20)。この一定の閾値は、すべての参照画像で同じ値でも良いし、参照画像に個々に設定しても良い。 Then, among the calculated similarities, those having a value (threshold value) below a certain value, that is, a value that can be determined to have a value above a certain value are extracted and extracted as tag information candidates (step S20). This constant threshold value may be the same value for all reference images, or may be set individually for each reference image.
つづいて、タグ保存処理(ステップS22)が実行される。そして、録画を終了しない場合には、ステップS14から繰り返し処理を実行し、他の場合には、本処理を終了する。 Subsequently, tag storage processing (step S22) is executed. If the recording is not finished, the process is repeated from step S14. In other cases, the process is finished.
[タグ保存処理]
続いて、図7のステップS22において実行されるタグ保存処理について図8を用いて説明する。
[Tag save processing]
Subsequently, the tag storing process executed in step S22 of FIG. 7 will be described with reference to FIG.
タグ保存部86では、図7のステップS20において、一定以上類似していると判定された画像データのそれぞれについて、ステップS50からS58を繰り返すことによってフレームのタグ情報を記録する。
The
まず、1つの類似する参照画像データに着目し、その参照画像データが前のフレームでも類似すると判断されていたかどうかを判断する(ステップS50)。もし前のフレームでもその画像が類似と判断されていれば、そのタグ情報候補はスキップする(ステップS50;Yes→ステップS60)。 First, paying attention to one similar reference image data, it is determined whether or not the reference image data is determined to be similar in the previous frame (step S50). If it is determined that the image is similar in the previous frame, the tag information candidate is skipped (step S50; Yes → step S60).
他方、前のフレームでは類似と判断されていなければ、タグリストにタグ情報として追加する(ステップS52)。ここで追加されるのは、図5におけるtagタグと、そのidである(例えば、T100)。次に、ステップS52で追加したタグ情報に、参照画像にアクセスするためのパス情報と、参照画像のキーワード情報を記録する(ステップS54)。これらは、図5におけるref−imgタグ(例えば、T102)とkeywordタグ(例えば、T106)に該当する。次に、S44において、入力したフレームデータのタイムスタンプ情報を記録する(ステップS56)。これは図5におけるstart−timeタグ(例えば、T108)に該当する。 On the other hand, if it is not determined to be similar in the previous frame, it is added as tag information to the tag list (step S52). What is added here is the tag tag in FIG. 5 and its id (for example, T100). Next, path information for accessing the reference image and keyword information of the reference image are recorded in the tag information added in step S52 (step S54). These correspond to the ref-img tag (for example, T102) and the keyword (for example, T106) in FIG. Next, in S44, time stamp information of the input frame data is recorded (step S56). This corresponds to the start-time tag (for example, T108) in FIG.
次に、フレームデータをサムネイル画像として記録し、アクセスするための情報として記録する(ステップS58)。これは、動画像再生時に、場面一覧として視聴者にわかりやすく提示するための情報である。もちろん、そのような用途がない場合にはこの手順は不要であり、例えばタグ情報の開始時間情報に基づきそのフレームをデコードして視聴者に提示しても良い。 Next, the frame data is recorded as a thumbnail image and recorded as information for access (step S58). This is information for easily presenting the viewer with a list of scenes during playback of a moving image. Of course, if there is no such use, this procedure is unnecessary. For example, the frame may be decoded based on the start time information of the tag information and presented to the viewer.
このように、ステップS50からS58までを繰り返すと、新たにタグ情報候補として抽出された参照画像データに基づいたタグ情報が追加される。この後、総てのタグについて処理が完了すると(ステップS60;Yes)、S50からS60までの一連の処理で変更されていないタグ情報のうち、終了時刻が記録されていないタグ情報に、フレームデータのタイムスタンプを終了時刻として記録する(ステップS62)。これは図5におけるend−timeタグ(例えば、T110)に該当する。これは、ある参照画像に類似していると判断された場面が終了したことを意味する。なお、1フレームあたりのタグ保存処理はここまでで終了である。 As described above, when steps S50 to S58 are repeated, tag information based on the reference image data newly extracted as the tag information candidate is added. Thereafter, when the processing is completed for all the tags (step S60; Yes), the frame data is added to the tag information in which the end time is not recorded among the tag information that has not been changed in the series of processing from S50 to S60. Is recorded as the end time (step S62). This corresponds to the end-time tag (for example, T110) in FIG. This means that the scene determined to be similar to a certain reference image has ended. Note that the tag storage processing per frame ends here.
このように、一つのタグに対して開始時刻から終了時刻の範囲を「シーン」という。例えば、タグ情報(キーワード)として「山」に対応する動画データの範囲を一つの「シーン」とする。 Thus, the range from the start time to the end time for one tag is referred to as a “scene”. For example, a range of moving image data corresponding to “mountain” as tag information (keyword) is set as one “scene”.
図9は、図5のように保存されたタグが示す、動画データ内の一部の場面を時系列で示したイメージ図である。この区間では、花、人物、紅葉のシーンが撮影されており、図4に示したその他のキーワード(夜景、新設、雪景色)に該当するシーンはない。また、花と人物、人物と紅葉のシーンは一部が同時に被写体となっていることがわかる。 FIG. 9 is an image view showing a part of scenes in the moving image data in time series indicated by the tags stored as shown in FIG. In this section, scenes of flowers, people, and autumn leaves are photographed, and there are no scenes corresponding to the other keywords (night view, new installation, snow scene) shown in FIG. In addition, it can be seen that the scenes of flowers and people, and people and autumn leaves are part of the subject at the same time.
具体的には、タグid=1(タイムスタンプが12345〜13345のフレーム)については花が、タグid=2(タイムスタンプが13000〜16000のフレーム)については人物が、タグid=3(タイムスタンプが18001〜19123のフレーム)については紅葉が、タグid=4(タイムスタンプが18583〜24210のフレーム)については人物が写っている。ここで、タイムスタンプが13000〜13345のフレームについては、花と人物と両方の被写体が映っていることが解る。 Specifically, for tag id = 1 (frames with a time stamp of 12345 to 13345), a flower is used for tag id = 2 (frames with a time stamp of 13,000 to 16000), and for tag id = 3 (time stamp). Is a frame of 18001 to 19123), and a person is shown for a tag id = 4 (a frame whose time stamp is 18583 to 24210). Here, it can be seen that for the frames with time stamps of 13000 to 13345, both the flower and the person are shown.
このように、本実施形態では、ある動画フレームがどのようなシーンなのかを一意に決めるのではなく、参照画像との類似度が閾値以上であるという条件の中で、複数の意味を持つシーンであることを許容する。このようにすることで、人物が写っているのに花も写っているから花のシーンとして判断されてしまい、人物の登場シーンから再生することが出来なかった、というようなことを防ぐことが出来る。 As described above, in the present embodiment, a scene having a plurality of meanings is provided in a condition that the degree of similarity with a reference image is equal to or greater than a threshold value, instead of uniquely determining what kind of scene a certain moving image frame is. Is allowed. By doing this, it is possible to prevent a situation where a person is captured but a flower is also captured and the scene is judged to be a flower, and it cannot be reproduced from the scene where the person appears. I can do it.
図10は、視聴者が見たいシーンを選ぶための画面の一例である。図10(a)では、シーン一覧を表示して、その中からシーンを選んで再生することができる。ここでは、「花」「人物」「紅葉」「人物」と例示した4つのシーンを時系列で並べている。表示しているのは、どのような場面かを視覚的に判断するためのサムネイル画像と、何の場面であるかを示すキーワードと、開始時刻とである。 FIG. 10 is an example of a screen for selecting a scene that the viewer wants to see. In FIG. 10A, a scene list is displayed, and a scene can be selected from the list and reproduced. Here, four scenes exemplified as “flower”, “person”, “autumn leaves”, and “person” are arranged in time series. What is displayed is a thumbnail image for visually determining what kind of scene it is, a keyword indicating what scene it is, and a start time.
もちろん、サムネイル画像のみを表示してシーンを選択できるようにしてもよいし、シーンが多い場合には画面をスクロールして表示できるようにしてもよい。また、サムネイル画像は図5に示したタグ情報に含まれるサムネイル画像を使用しても良いし、タグが示す時刻から実際に動画像を再生し、動く映像として提示しても良い。 Of course, only thumbnail images may be displayed so that a scene can be selected, or when there are many scenes, the screen may be scrolled and displayed. Further, as the thumbnail image, the thumbnail image included in the tag information shown in FIG. 5 may be used, or the moving image may be actually reproduced from the time indicated by the tag and presented as a moving image.
図10(b)では、シーン名を指定して、同じシーン名を持つシーンをまとめて再生する方法の例を示している。上述した実施形態の例で示した動画で「人物」を選択すると、タグid=2と、タグid=4のシーンを連続して再生することが出来る。これと同じ手法で、例えば人物が写っているシーンだけを抜き出して別の動画ファイルとして作成するといったことも行うことが出来る。 FIG. 10B shows an example of a method in which scene names are designated and scenes having the same scene name are reproduced together. When “person” is selected in the moving image shown in the example of the embodiment described above, the scenes with tag id = 2 and tag id = 4 can be reproduced continuously. With this same method, for example, it is possible to extract only a scene in which a person is shown and create it as another moving image file.
また、タグ情報のもう一つの使用方法として、動画の早送りへの利用が考えられる。これまでの早送りは、すべてのフレームを通常より速くデコードして表示する方法(倍速再生など)と、一定時間毎のフレームのみを表示する方法と、MPEG4などにおけるイントラフレーム符号化されたフレームのみを表示する方法などが使用されてきた。 Further, as another method of using the tag information, use for fast-forwarding a moving image can be considered. Fast-forwarding so far includes decoding all frames faster than usual (such as double-speed playback), displaying only frames at regular intervals, and only intra-frame encoded frames such as MPEG4. Display methods have been used.
しかしながら、これは動画の内容とは関係なく一定区間の表示が飛ばされるため、ちょうど見たい位置にあわせるのが難しかった。そこで、記録したタグ情報のサムネイル画像を次々と表示することで、早送りをどの位置で解除しても何らかのシーンが始まる位置から再生を再開することが出来るようになる。 However, since the display of a certain section is skipped regardless of the content of the moving image, it has been difficult to adjust the position exactly to be viewed. Therefore, by displaying the thumbnail images of the recorded tag information one after another, it becomes possible to resume playback from the position where some scene starts, regardless of the position where fast forward is canceled.
また、早送りの場合に、サムネイル画像表示するだけでなく、各タグの先頭から数秒間のみを連続して表示することで、内容をより具体的に把握しやすいかたちで再生する(ダイジェスト再生を行う)こともできる。図11は、上述した実施形態による方法で録画した動画像を、早送りする場合に、再生されるフレームと再生されないフレームを時系列で表した図である。 Also, in the case of fast-forwarding, not only thumbnail images are displayed, but also only a few seconds from the beginning of each tag are displayed continuously, so that the contents can be played back in a form that is easier to grasp (digest playback is performed) You can also FIG. 11 is a diagram showing, in a time series, frames that are played back and frames that are not played back when fast-forwarding a moving image recorded by the method according to the above-described embodiment.
動画データ展開部74は、各タグの再生時間をあらかじめ決めておき(利用者に設定させる方法でもよい)、利用者による早送り操作(あるいはダイジェスト再生操作)があった場合にこの再生動作を開始する。
The video
まず、現在の再生時刻に最も近い時刻のタグ情報を取得し、その開始時刻から、あらかじめ設定された再生時間分のデータを再生する。その後は、次のタグデータを取得し、同様に指定時間分のデータを再生する動作を繰り返す。 First, tag information at a time closest to the current reproduction time is acquired, and data for a reproduction time set in advance is reproduced from the start time. Thereafter, the next tag data is acquired, and the operation for reproducing the data for the specified time is repeated.
タグ情報は、参照画像が複数ある場合には同時刻に複数存在する場合がある。早送り操作があった時刻、または、早送り中にあるタグ情報の再生が終わった時刻が、次のタグ情報の再生すべきフレームの時刻と重複している場合には、その分のフレームを再生しないなどとする。 When there are a plurality of reference images, a plurality of tag information may exist at the same time. If the time at which a fast-forward operation is performed or the time when reproduction of tag information during fast-forwarding is overlapped with the time of the frame to be reproduced in the next tag information, the corresponding frame is not reproduced. And so on.
[変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
[Modification]
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the embodiment, and the design and the like within the scope not departing from the gist of the present invention are also claimed. include.
また、上述した携帯電話の各機能や、その他の機能をハードウェア的に実現することは勿論として、上述した各機能を備えるコンピュータプログラムを、コンピュータのメモリにロードすることによっても実現できる。このコンピュータプログラムは、携帯電話に備えられた半導体メモリ等の記録媒体に格納される。そして、その記録媒体から携帯電話に内蔵されるコンピュータのメモリにロードされ実行されることにより、上述した各機能が実現される。 In addition to realizing the functions of the mobile phone described above and other functions in hardware, it can also be realized by loading a computer program having the functions described above into the memory of the computer. This computer program is stored in a recording medium such as a semiconductor memory provided in the mobile phone. Each function described above is realized by being loaded from the recording medium into a memory of a computer built in the mobile phone and executed.
1 携帯電話
10 制御部
20 通信部
22 画像入出力部
24 カメラ部
26 表示部
30 画像処理部
32 画像エンコーダ部
34 画像デコーダ部
40 音声入出力部
42 マイク
44 スピーカ
50 音声処理部
52 音声エンコーダ部
54 音声デコーダ部
60 記憶部
62 参照画像特徴DB
64 動画ストレージ
70 動画処理部
72 動画データ格納部
74 動画データ展開部
80 画像解析部
82 特徴量算出部
84 特徴量比較部
86 タグ保存部
88 タグ読み出し部
90 再生指示部
DESCRIPTION OF SYMBOLS 1
64 moving
Claims (8)
参照画像と、参照画像の特徴量と、キーワードとを対応づけて記憶する参照画像特徴記憶部と、
前記動画データに含まれる画像の特徴量を算出する特徴量算出部と、
前記特徴量算出部により算出された特徴量と、前記参照画像特徴記憶部に記憶されている特徴量とを比較する特徴量比較部と、
前記特徴量比較部の比較結果に基づいて、前記動画データに含まれる画像に類似する参照画像のキーワードを含むタグ情報を生成し保存するタグ情報保存部と、
を備えることを特徴とする携帯電話。 A moving image data storage unit that creates moving image data from an image input from the image input unit and a sound input from the audio input unit and stores the moving image data in the moving image storage; reads out the moving image data from the moving image storage; And a moving image data expansion unit that expands sound and outputs an image to the image output unit and outputs sound to the sound output unit,
A reference image feature storage unit that stores a reference image, a feature amount of the reference image, and a keyword in association with each other;
A feature amount calculation unit for calculating a feature amount of an image included in the moving image data;
A feature amount comparison unit that compares the feature amount calculated by the feature amount calculation unit with the feature amount stored in the reference image feature storage unit;
A tag information storage unit that generates and stores tag information including a keyword of a reference image similar to an image included in the moving image data based on a comparison result of the feature amount comparison unit;
A mobile phone comprising:
画像データと、音声データとから、動画データを作成し、動画ストレージに格納する動画データ格納機能と、前記動画ストレージから、動画データを読み出して、画像及び音声を展開して、画像を画像出力装置に、音声を音声出力装置に出力する動画データ展開機能と、を実現させるプログラムであって、
参照画像と、参照画像の特徴量と、キーワードとを対応づけて記憶する参照画像特徴記憶機能と、
前記動画データに含まれる画像の特徴量を算出する特徴量算出機能と、
前記特徴量算出機能により算出された特徴量と、前記参照画像特徴記憶機能により記憶されている特徴量とを比較する特徴量比較機能と、
前記特徴量比較機能の比較結果に基づいて、前記動画データに含まれる画像に類似する参照画像のキーワードを含むタグ情報を生成し保存するタグ情報保存機能と、
を実現するプログラム。 In a computer equipped with an image output device and an audio output device,
A video data storage function for creating video data from image data and audio data and storing it in the video storage, and reading video data from the video storage, developing images and audio, and outputting the image to an image output device In addition, a program for realizing a video data expansion function for outputting sound to a sound output device,
A reference image feature storage function for storing a reference image, a feature amount of the reference image, and a keyword in association with each other;
A feature amount calculation function for calculating a feature amount of an image included in the moving image data;
A feature amount comparison function for comparing the feature amount calculated by the feature amount calculation function with the feature amount stored by the reference image feature storage function;
A tag information storage function for generating and storing tag information including a keyword of a reference image similar to an image included in the moving image data based on a comparison result of the feature amount comparison function;
A program that realizes
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009138829A JP2010287974A (en) | 2009-06-10 | 2009-06-10 | Mobile phone and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009138829A JP2010287974A (en) | 2009-06-10 | 2009-06-10 | Mobile phone and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010287974A true JP2010287974A (en) | 2010-12-24 |
Family
ID=43543373
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009138829A Pending JP2010287974A (en) | 2009-06-10 | 2009-06-10 | Mobile phone and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010287974A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019229936A1 (en) * | 2018-05-31 | 2019-12-05 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing system |
WO2020137274A1 (en) * | 2018-12-27 | 2020-07-02 | Run.Edge株式会社 | Moving image tagging device and moving image tagging method |
-
2009
- 2009-06-10 JP JP2009138829A patent/JP2010287974A/en active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019229936A1 (en) * | 2018-05-31 | 2019-12-05 | 株式会社ソニー・インタラクティブエンタテインメント | Information processing system |
WO2020137274A1 (en) * | 2018-12-27 | 2020-07-02 | Run.Edge株式会社 | Moving image tagging device and moving image tagging method |
JP2020107991A (en) * | 2018-12-27 | 2020-07-09 | Run.Edge株式会社 | Moving image tagging device and moving image tagging method |
JP7154998B2 (en) | 2018-12-27 | 2022-10-18 | Run.Edge株式会社 | Video tagging device and video tagging method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100775176B1 (en) | Thumbnail recording method for providing information of video data and terminal using the same | |
US9124860B2 (en) | Storing a video summary as metadata | |
JP5568178B2 (en) | How to summarize videos | |
CN101356800B (en) | Content imaging apparatus | |
JP4360390B2 (en) | Information processing apparatus and method, program, and recording medium | |
US8446490B2 (en) | Video capture system producing a video summary | |
US9071815B2 (en) | Method, apparatus and computer program product for subtitle synchronization in multimedia content | |
WO2006028172A1 (en) | Recording device and method, reproduction device and method, and program | |
US8792772B2 (en) | Playback control device, method and program | |
US9100724B2 (en) | Method and apparatus for displaying summary video | |
JP5783737B2 (en) | Image pickup apparatus and moving image recording apparatus control method | |
CN101755447A (en) | System and method for improving presentations of images | |
KR100775187B1 (en) | Thumbnail recording method and terminal using the same | |
JP2008166895A (en) | Video display device, its control method, program and recording medium | |
JP2010287974A (en) | Mobile phone and program | |
JP2006101076A (en) | Method and device for moving picture editing and program | |
JP2015023317A5 (en) | Image management apparatus, image management method, program, and storage medium | |
JP2006005610A (en) | Panoramic video recording and reproducing device | |
JP2008090611A (en) | Image processor, image processing method and program | |
JP2004120401A (en) | Method, device, and program for picture reproduction | |
JP6071399B2 (en) | Image processing apparatus and image processing apparatus control method | |
JP6049369B2 (en) | Image processing apparatus and image processing apparatus control method | |
JP2014026508A (en) | Image processing device and image processing method | |
JP2011109292A (en) | Imaging apparatus, control method and program thereof, and storage medium | |
JP2017121001A (en) | Image processing device, image processing method and program |