JP2012156756A - Display device - Google Patents

Display device Download PDF

Info

Publication number
JP2012156756A
JP2012156756A JP2011013727A JP2011013727A JP2012156756A JP 2012156756 A JP2012156756 A JP 2012156756A JP 2011013727 A JP2011013727 A JP 2011013727A JP 2011013727 A JP2011013727 A JP 2011013727A JP 2012156756 A JP2012156756 A JP 2012156756A
Authority
JP
Japan
Prior art keywords
shooting
time
information
display
image information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011013727A
Other languages
Japanese (ja)
Inventor
Keiichi Inoue
慶一 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011013727A priority Critical patent/JP2012156756A/en
Publication of JP2012156756A publication Critical patent/JP2012156756A/en
Pending legal-status Critical Current

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a display device capable of displaying simultaneously in a same screen by associating among all contents photographed at a same photographing time on a same theme against a plurality of contents photographed by a plurality of photographing apparatuses along a same scenario, and avoiding displaying simultaneously in a same screen contents photographed at a same photographing time set on different photographed themes.SOLUTION: When reproducing contents photographed at a same time by a plurality of photographing apparatuses along scenarios, if contents are those photographed on different scenario themes, simultaneous reproductions are not conducted and switched to a method to reproduce only contents which are being reproduced at the time.

Description

本発明は、記録媒体に保存された、関連のある画像情報を、連携して同一表示部に表示する表示装置に関するものである。   The present invention relates to a display device that displays related image information stored in a recording medium in cooperation on the same display unit.

従来の再生装置及び再生手段には、コンテンツの再生中に複数あるコンテンツの中から、関連するコンテンツとして同時刻に撮影されたコンテンツの有無を検出して、結果をユーザーに通知し、表示中であるコンテンツの表示画面内の一部の領域に、関連のあるコンテンツを重複させて表示する従来例がある(特許文献1)。   The conventional playback device and playback means detect the presence / absence of content captured at the same time as related content from a plurality of content during content playback, notify the user of the result, There is a conventional example in which related content is displayed in an overlapping manner in a part of the display screen of a certain content (Patent Document 1).

しかし、特許文献1では、撮影時刻のみを用いてコンテンツの関連付けを行うので、次のような課題が存在した。再生中のコンテンツと撮影時間が重複していれば、関連の無い場所で撮影されたコンテンツが再生されてしまうこと、また再生中のコンテンツと撮影時刻が重複しているコンテンツがない場合は、撮影時刻の一番近いコンテンツを関連付けるので、例えば1年後など、撮影時刻が大きく離れているコンテンツが関連付けられてしまうことである。   However, in Patent Document 1, since content association is performed using only the shooting time, the following problems exist. If the shooting time overlaps with the content being played back, the content shot at an irrelevant location will be played back, and if there is no content with the same shooting time as the content being played back, Since the content with the closest time is associated, the content with a significantly different shooting time such as one year later is associated.

そこで、複数の撮影機器に保存されたコンテンツから同一シーンを撮影していると予測されるコンテンツを高い精度で関連付けて再生することができる再生装置及び再生方法が提案されている(特許文献2)。   In view of this, a playback apparatus and a playback method have been proposed that can play back content that is predicted to have shot the same scene from content stored in a plurality of shooting devices with high accuracy (Patent Document 2). .

特許文献2は、撮影時にGPSから取得した撮影機器の位置情報、撮影機器の撮影方向情報、撮影日時情報、赤外線測距センサーやフォーカス情報から取得した被写体距離情報、を取得して撮影したコンテンツのファイルの埋め込む。埋め込んだ位置情報、撮影方向情報、撮影日時情報の各々が所定位置範囲内にあるコンテンツを関連付け、関連付けたコンテンツを再生後、特に撮影日時に重複している時間があるコンテンツ同士は、重複している時間において、表示部に同時に表示することを特徴とする再生装置及び手段である。   Japanese Patent Laid-Open No. 2004-228688 describes content of a photographed image obtained by acquiring position information of the photographing device acquired from the GPS at the time of photographing, photographing direction information of the photographing device, photographing date / time information, and subject distance information obtained from the infrared distance measuring sensor and focus information. Embed a file. The embedded position information, shooting direction information, and shooting date / time information are associated with content that is within a predetermined position range, and after playing the associated content, content that has a time that overlaps with the shooting date / time is particularly duplicated. The playback device and means for simultaneously displaying on the display unit at a certain time.

特開2006-260178号公報JP 2006-260178 A 特開2010-232853号公報JP 2010-232853

しかしながら、上記従来例では同一撮影時刻という情報のみでコンテンツ同士を関連付けていたため、以下のような問題点があった。   However, in the above conventional example, contents are associated with each other only by the information of the same shooting time, and thus there are the following problems.

複数の撮影機器にて、撮影順序が存在する各撮影テーマから構成されたシナリオでかつ、同一のシナリオに沿ってコンテンツの撮影を行う。その後、撮影した複数のコンテンツ同士を同一撮影時刻だけで関連付けを行って、同一画面内に同時に表示する場合、異なる撮影テーマに設定されて撮影された同一撮影時刻のコンテンツ同士も同時に表示されてしまい、表示結果を視聴しているユーザーに混乱を与えるという問題点があった。   A plurality of photographing devices capture a content according to a scenario composed of each photographing theme having a photographing order and the same scenario. After that, if you associate multiple shot contents with the same shooting time and display them at the same time on the same screen, the contents at the same shooting time set with different shooting themes are also displayed at the same time. , There is a problem that it is confusing to the user who is viewing the display result.

上記の課題を解決するため、請求項1に記載の発明は、前記撮影日時判定手段にて判定した日時情報が同一または重複しており、前記撮影規則が異なる場合でも、画像情報の優先度を判別して、異なる撮影規則を持つ画像情報の表示に切り替えることを特徴とする表示装置である。   In order to solve the above-described problem, the invention according to claim 1 sets the priority of the image information even when the date and time information determined by the shooting date and time determination unit is the same or overlaps and the shooting rules are different. The display device is characterized by switching to display of image information having different shooting rules.

請求項2に記載の発明は、前記撮影日時判定手段にて判定した日時情報が同一または重複しており、前記撮影規則が異なる場合でも、画像情報の優先度を判別して、異なる撮影規則を持つ画像情報の表示に切り替えることを特徴とする請求項1に記載の表示装置である。   According to a second aspect of the present invention, even when the date and time information determined by the shooting date and time determination means is the same or overlapping, and the shooting rules are different, the priority of the image information is determined and different shooting rules are set. The display device according to claim 1, wherein the display device is switched to display of image information.

請求項3に記載の発明は、前記撮影規則判定手段は、シナリオ、及び、シナリオの撮影テーマを判定することを特徴とする請求項1又は請求項2に記載の表示装置である。   According to a third aspect of the present invention, in the display device according to the first or second aspect, the shooting rule determining unit determines a scenario and a shooting theme of the scenario.

請求項4に記載の発明は、前記表示部は外部機器であることを特徴とする請求項1乃至請求項3の何れか1項に記載の表示装置。   According to a fourth aspect of the present invention, in the display device according to any one of the first to third aspects, the display unit is an external device.

請求項5に記載の発明は、画像表示手段は、複数の画像情報を重畳、分割して表示することを特徴とする請求項1乃至請求項4の何れか1項に記載の表示装置である。   The invention according to claim 5 is the display device according to any one of claims 1 to 4, wherein the image display means displays a plurality of pieces of image information superimposed and divided. .

本発明によれば、複数の撮影機器で同一のシナリオに沿って撮影した複数のコンテンツに対して、同一のテーマでかつ同一撮影時刻に撮影されたコンテンツ同士のみで関連付けを行って、同一画面内に同時に表示することができ、異なる撮影テーマに設定されて撮影された同一撮影時刻のコンテンツ同士を同一画面内に同時に表示することを回避することができる表示装置を提供できる。   According to the present invention, a plurality of contents photographed in accordance with the same scenario by a plurality of photographing devices are associated only with contents photographed at the same photographing time at the same photographing time. It is possible to provide a display device that can simultaneously display content on the same screen at the same shooting time that are set to different shooting themes and shot at the same shooting time.

本発明を適用した第1の実施形態の概略構成を示すシステム図1 is a system diagram showing a schematic configuration of a first embodiment to which the present invention is applied. 本発明を適用した第1の実施形態のフォルダ構成図Folder configuration diagram of the first embodiment to which the present invention is applied 本発明を適用した第1の実施形態のデータ構造図Data structure diagram of the first embodiment to which the present invention is applied 本発明を適用した第1の実施形態のデータ構造図Data structure diagram of the first embodiment to which the present invention is applied 本発明を適用した第1の実施形態の画面構成図The screen block diagram of 1st Embodiment to which this invention is applied 本発明を適用した第1の実施形態の処理を示すフローチャートThe flowchart which shows the process of 1st Embodiment to which this invention is applied. 本発明を適用した第1の実施形態の処理の概念図Conceptual diagram of processing of the first embodiment to which the present invention is applied 本発明を適用した第1の実施形態のデータ構造図Data structure diagram of the first embodiment to which the present invention is applied 本発明を適用した第1の実施形態のデータ構造図Data structure diagram of the first embodiment to which the present invention is applied 本発明を適用した第1の実施形態のデータ構造図Data structure diagram of the first embodiment to which the present invention is applied 本発明を適用した第1の実施形態の処理の概念図Conceptual diagram of processing of the first embodiment to which the present invention is applied 本発明を適用した第1の実施形態の画面構成図The screen block diagram of 1st Embodiment to which this invention is applied 本発明を適用した第1の実施形態の処理を示すフローチャートThe flowchart which shows the process of 1st Embodiment to which this invention is applied. 本発明を適用した第1の実施形態の画面構成図The screen block diagram of 1st Embodiment to which this invention is applied 本発明を適用した第1の実施形態の画面構成図The screen block diagram of 1st Embodiment to which this invention is applied

<第1の実施形態>
本発明について、以下図1〜3を用いて説明する。また、映像コンテンツ表示装置の具体例としてデジタルビデオカメラを例にとって説明する。
<First Embodiment>
The present invention will be described below with reference to FIGS. Also, a digital video camera will be described as an example of the video content display device.

図1は、本発明の実施形態に係るビデオカメラのシステム図である。   FIG. 1 is a system diagram of a video camera according to an embodiment of the present invention.

100はHDD(Hard Disc Drive)であり、図2のデータ構造で示される画像ファイルを記録している。Wi-Fiによる無線でのデータ通信が可能であるNAS(Network Attached Storage)であっても良い。図2については後述する。   Reference numeral 100 denotes an HDD (Hard Disc Drive), which records an image file shown in the data structure of FIG. NAS (Network Attached Storage) capable of wireless data communication by Wi-Fi may be used. FIG. 2 will be described later.

101はHDDのインターフェースであり、HDD100がビデオカメラに、USBで接続される場合は、USB端子を介してデータ通信を行い、100がNASである場合は、Wi-Fiによるデータ通信にてパケットデータが送受信可能な無線モジュールを指す。本実施例では、HDD100がUSB接続される場合について説明する。   Reference numeral 101 denotes an HDD interface. When the HDD 100 is connected to a video camera via USB, data communication is performed via the USB terminal. When 100 is a NAS, packet data is transmitted via Wi-Fi data communication. Refers to a wireless module capable of transmitting and receiving. In this embodiment, a case where the HDD 100 is connected by USB will be described.

102は読み出し手段であり、HDD100に保存された画像ファイルの全て、または一部をSDメモリカードや内蔵メモリーに読み出し、保存する。尚、読み出し単位は図2の201示す単位で読み出しを行うが、図2の説明については後述する。また、SDメモリーカードや内蔵メモリー内の画像ファイルをCODECに出力する動作も行う。   Reference numeral 102 denotes a reading means, which reads all or part of the image file stored in the HDD 100 to an SD memory card or a built-in memory and stores it. Note that reading is performed in units indicated by 201 in FIG. 2, and the description of FIG. 2 will be described later. It also performs operations to output image files in the SD memory card or internal memory to the CODEC.

103は内蔵メモリーであり、読み出し手段102によって、HDD100に記録された図2に示すデータ構造の画像ファイルを保持する。   Reference numeral 103 denotes a built-in memory, which holds the image file having the data structure shown in FIG.

104はSDメモリーカードであり、内蔵メモリー103同様、読み出し手段102によってHDD100から読みだされた画像ファイルを保持する。   Reference numeral 104 denotes an SD memory card, which holds an image file read from the HDD 100 by the reading means 102 as in the built-in memory 103.

105はSDメモリーカードインターフェースであり、読み出し手段102によってSDメモリーカードから画像ファイルを読み出す際に、SDメモリーカードと直接通信を行い、読み出し手段の要求したデータを読み出す。   Reference numeral 105 denotes an SD memory card interface. When an image file is read from the SD memory card by the reading means 102, the SD memory card communicates directly with the SD memory card to read data requested by the reading means.

106はCODECであり、読み出し手段102にて、HDD100、内蔵メモリー103、SDメモリーカード104からファイルとして読み出された画像ファイルに対してデマルチプレックスを行い、オーディオ圧縮データと映像圧縮データに分ける。その後、オーディオ圧縮データと映像圧縮データを各々デコードし、RAM内に一旦保存する。   A codec 106 demultiplexes the image file read as a file from the HDD 100, the built-in memory 103, and the SD memory card 104 by the reading means 102, and divides it into audio compression data and video compression data. Thereafter, the audio compression data and the video compression data are decoded and temporarily stored in the RAM.

107はRAM(Random Access Memory)であり、CPUでのデータの演算結果を保持したり、CODECにてデコードされたデータを保持する揮発性メモリである。   Reference numeral 107 denotes a RAM (Random Access Memory), which is a volatile memory that holds data calculation results in the CPU and holds data decoded by the CODEC.

108は表示手段であり、RAM107内に保持された画像ファイルがCODEC106によってデコードされたデータを所望の表示となるように、CPUを介して表示用データを作成し、表示部109に送信する。
109は表示部であり、表示手段108から送信された表示用データを受信後、表示用データの内容に沿った表示を行う。
Reference numeral 108 denotes display means, which creates display data via the CPU and transmits it to the display unit 109 so that the data decoded by the CODEC 106 from the image file held in the RAM 107 can be displayed as desired.
Reference numeral 109 denotes a display unit, which receives the display data transmitted from the display means 108, and then performs display according to the contents of the display data.

110は操作部であり、ユーザーによって操作され、ビデオカメラの起動や終了、また、表示部に表示された画像ファイルの選択を行う。   Reference numeral 110 denotes an operation unit, which is operated by the user to start and end the video camera and select an image file displayed on the display unit.

111はROM(Read Only Memory)であり、ビデオカメラを動作させるシステムの内容が記載されたプログラムが保存されている。ユーザーによって操作部110が操作され、ビデオカメラが起動されると、プログラムはCPUによって読み出され、実行される。   Reference numeral 111 denotes a ROM (Read Only Memory), which stores a program that describes the contents of the system that operates the video camera. When the operation unit 110 is operated by the user and the video camera is activated, the program is read and executed by the CPU.

112はCPUであり、ROMに保存されているビデオカメラのプログラムを実行するだけでなく、システム図1を構成する各部での演算処理やRAM107に対するデータの読み込み及び書き込みを行う。   Reference numeral 112 denotes a CPU, which not only executes a video camera program stored in a ROM, but also performs arithmetic processing in each unit constituting the system FIG.

113は撮影日時情報判定手段であり、読み出し手段102にてHDD100から内蔵メモリー103やSDメモリーカード104に読み出された画像ファイルに対して解析を行い、解析結果を取得する。取得した解析結果から画像ファイルの撮影開始時刻と撮影終了時刻を示す撮影日時情報取得し、画像ファイル同士の撮影日時情報を比較して、撮影していた時間帯に重なる部分が存在するかどうかを判定する。撮影していた時間帯に重なる部分が見つかった場合は、比較した画像ファイル同士の関連を示す情報をRAM107に保存する。   Reference numeral 113 denotes photographing date / time information determination means, which analyzes the image file read from the HDD 100 to the internal memory 103 or the SD memory card 104 by the reading means 102 and obtains the analysis result. The shooting date / time information indicating the shooting start time and shooting end time of the image file is acquired from the acquired analysis result, and the shooting date / time information of the image files is compared to determine whether there is an overlapping portion in the time zone where the image was shot. judge. If a portion that overlaps the time zone in which the image was taken is found, information indicating the relationship between the compared image files is stored in the RAM 107.

114は優先度情報判定手段であり、読み出し手段102にてHDD100から内蔵メモリー103やSDメモリーカード104に読み出された画像ファイルに対して、ファイル同士の優先度情報を参照し、優先度が高低を判断して、その結果をRAM107に保存する。尚、優先度情報については図4にて説明する。   Reference numeral 114 denotes a priority information determination unit. For the image file read from the HDD 100 to the internal memory 103 or the SD memory card 104 by the reading unit 102, the priority information between the files is referred to, and the priority is high or low. And the result is stored in the RAM 107. The priority information will be described with reference to FIG.

115は外部出力機器であり、テレビ(HighDifinition、StandardDifinition共に)やPCモニターを示す。   Reference numeral 115 denotes an external output device, which indicates a television (both HighDifinition and StandardDifinition) and a PC monitor.

116は外部出力機器インターフェースであり、表示手段から送信される表示用データを受信後、外部出力機器115に表示用データを送信する。   Reference numeral 116 denotes an external output device interface, which transmits display data to the external output device 115 after receiving display data transmitted from the display means.

117はビデオカメラ内のシステムバスを示しており、各部への制御信号、アドレス信号、及びデータ信号の伝送路である。   Reference numeral 117 denotes a system bus in the video camera, which is a transmission path for control signals, address signals, and data signals to each unit.

118はテーマ名判定手段であり、画像ファイルと関連付けられているシナリオ管理情報ファイルのテーマ名を判定する。シナリオとテーマについては、図2、4で説明する。   Reference numeral 118 denotes theme name determination means for determining the theme name of the scenario management information file associated with the image file. Scenarios and themes are explained in Figs.

次に、図2、3について説明する。図2はHDD100に映像コンテンツがファイルとして保存された場合のHDD内のフォルダ構造を示す図である。200はHDD100のルートフォルダである。201は画像ファイルとシナリオ管理ファイルが保存されているフォルダの構造を示す図である。本実施例では、複数の撮影機器(例えば、ビデオカメラだけでなく、動画撮影機能を持ったデジタル一眼レフカメラやコンパクトデジタルカメラなど)単位で201のフォルダが保存されている場合を本実施例では想定しているが、単一の撮影機器で数回バックアップを行った場合も考えられる。   Next, FIGS. 2 and 3 will be described. FIG. 2 is a diagram showing a folder structure in the HDD when video content is stored as a file in the HDD 100. 200 is the root folder of HDD100. 201 is a diagram showing the structure of a folder in which image files and scenario management files are stored. In this embodiment, 201 folders are stored in units of a plurality of shooting devices (for example, not only a video camera but also a digital single-lens reflex camera or a compact digital camera having a video shooting function). Assuming that backup is performed several times with a single photographing device.

映像コンテンツ情報フォルダ202は、管理情報ファイル203と画像ファイル204から構成される。管理情報ファイル203は画像ファイルを管理する管理情報が記載されており、画像ファイルの内容の変更や増減にともない、更新する。205は画像ファイルをシナリオという撮影規則に基づいて関連付けるシナリオ管理ファイルが保存されているフォルダである。シナリオ管理情報ファイルの詳細を図3で説明する。   The video content information folder 202 includes a management information file 203 and an image file 204. The management information file 203 describes management information for managing image files, and is updated when the contents of the image file are changed or increased or decreased. Reference numeral 205 denotes a folder in which a scenario management file for associating image files based on shooting rules called scenarios is stored. The details of the scenario management information file will be described with reference to FIG.

図3の300は各画像ファイルがどのシナリオに登録されているかを示す、シナリオ管理情報ファイルの例であり、画像ファイルと関連付けられて201のフォルダに保存されている。画像ファイルの「ファイル名」、「ファイル名」に示される画像ファイルが登録されているシナリオの「シナリオ名」、「ファイル名」に示される画像ファイルが撮影された際に設定されていた、シナリオの持つ各撮影テーマの名称を示す「テーマ名」、
「ファイル名」に示される画像ファイルが撮影された際の撮影日、撮影開始時刻及び撮影終了時刻を示す「撮影日時情報」301、
「ファイル名」に示される映像コンテンツファイルの優先度を示す「優先度情報」302から構成される。シナリオ名とテーマ名の関係については、図4で示され、「タイトルを作成」、「スケジュール紹介」、「移動中の風景」などの各テーマ401から構成される「旅行」というシナリオ400の例を示している。また、テーマ名401は最上位の項目「タイトルを作成」から下位の順にそって、ユーザーに撮影を行うように促す順番になっている。
300 in FIG. 3 is an example of a scenario management information file indicating in which scenario each image file is registered, and is stored in a folder 201 in association with the image file. Scenario that was set when the image file indicated by "Scenario name" and "File name" of the scenario in which the image file indicated by "File name" and "File name" of the image file is registered "Theme name" indicating the name of each shooting theme
“Shooting Date / Time Information” 301 indicating the shooting date, shooting start time, and shooting end time when the image file indicated by “File Name” was shot,
It consists of “priority information” 302 indicating the priority of the video content file indicated by “file name”. The relationship between the scenario name and the theme name is shown in Fig. 4, and an example of a scenario 400 called "Travel" consisting of themes 401 such as "Create title", "Schedule introduction", "Scenery on the move" Is shown. Further, the theme name 401 is in the order of prompting the user to take a picture in order from the top item “Create Title” to the lower order.

また、優先度情報の具体例は302で示され、例えば、映像コンテンツファイルの「解像度」、「記録ビットレート」、「音声チャンネル数」、「記録時間」、ユーザーが撮影結果の出来栄えを評価して設定する「レーティング情報」、また、「3D表示対応の有無」が挙げられるが、これらに限定されるものではない。各優先度の高さの判定は、「解像度」については解像度が大きいもの、「記録ビットレート」についてはビットレートの数値が高いもの、「音声チャンネル」
数についてもチャンネル数が大きいもの、「記録時間」については長いもの、「レーティング情報」についてはレーティングが高いもの、以上のものが各項目について優先度が高いと考える。
A specific example of priority information is indicated by 302. For example, the “resolution”, “recording bit rate”, “number of audio channels”, “recording time” of the video content file, and the user evaluates the quality of the shooting result. “Rating information” to be set and “3D display support / not supported” are not limited to these. The determination of each priority level is as follows: “Resolution” has a high resolution, “Recording bit rate” has a high bit rate, “Audio channel”
Regarding the number, it is considered that the number of channels is large, the “recording time” is long, the “rating information” is high in rating, and the above items have high priority for each item.

図2、3で説明した各ファイルは、ビデオカメラだけでなく、デジタルカメラやデジタル一眼レフカメラなどの複数の撮影機器にて撮影されることを想定している。   Each file described in FIGS. 2 and 3 is assumed to be shot not only by a video camera but also by a plurality of shooting devices such as a digital camera and a digital single lens reflex camera.

次に、上記構成における本発明の実際の動作例について説明する。ユーザーによって操作部110が操作され、ビデオカメラに電源が入ることで、ROM111からビデオカメラのシステムの内容が記述されたプログラムがCPU112によって実行され、ビデオカメラが起動する。ビデオカメラ起動後、CPU112を介して、読み出し手段102がUSB端子を経由してHDD100から画像ファイルを、内蔵メモリー103に読み出す。内蔵メモリー103に読み出された画像ファイルの中から、表示手段108によって、各シナリオに登録された先頭の画像ファイルが検索される。検索結果は表示手段108によって、一旦RAM107に保存される。   Next, an actual operation example of the present invention in the above configuration will be described. When the operation unit 110 is operated by the user and the video camera is turned on, the CPU 112 executes a program describing the contents of the video camera system from the ROM 111, and the video camera is activated. After starting the video camera, the reading means 102 reads an image file from the HDD 100 to the built-in memory 103 via the USB terminal via the CPU 112. From the image files read into the built-in memory 103, the display unit 108 searches for the first image file registered in each scenario. The search result is temporarily stored in the RAM 107 by the display means 108.

ここでの先頭の映像コンテンツとは、シナリオの撮影順番という観点で撮影テーマにて最初に撮影された映像コンテンツを示すが、これに限定されるわけではない。表示手段108は、検索した画像ファイルをCODEC106に送信し、RAM107に保存された画像ファイルをCPU112を介して、検索した各映像コンテンツファイルのサムネイルを作成する。さらに、表示手段108は作成されたサムネイルから、CPU107を介して図5のような画面情報500を作成し、表示部109に送信することで表示される。501は作成されたサムネイルを表す。   Here, the first video content refers to the video content that was first shot on the shooting theme in terms of the shooting order of the scenario, but is not limited thereto. The display means 108 transmits the searched image file to the CODEC 106, and creates a thumbnail of each searched video content file via the CPU 112 from the image file stored in the RAM 107. Further, the display unit 108 displays the screen information 500 as shown in FIG. 5 from the created thumbnail via the CPU 107 and transmits it to the display unit 109. Reference numeral 501 denotes a created thumbnail.

次に、ユーザーによって操作手段110から画面情報500上のサムネイル501が選択され、サムネイル501が作成された元となる画像ファイルが登録されたシナリオが、シナリオ管理情報フォルダ205に保存されたシナリオ管理情報ファイルから検出され、検出されたシナリオ名に登録される画像ファイル全てがCODEC107によって再生され、表示部109に表示されるまでの一連の処理の流れを、図6〜9を用いて説明する。   Next, the scenario management information stored in the scenario management information folder 205 is stored in the scenario management information folder 205 by the user selecting a thumbnail 501 on the screen information 500 from the operation unit 110 and registering the original image file from which the thumbnail 501 was created. A series of processing flows until all image files detected from the file and registered in the detected scenario name are reproduced by the CODEC 107 and displayed on the display unit 109 will be described with reference to FIGS.

図6は処理の流れを示すフローチャート図である。図7は画像ファイル同士の撮影時刻の関連を説明するための図である。横軸は撮影時刻を示し、矢印は撮影時刻が経過していく方向を意味している。また、700〜703は任意の画像ファイルA〜Dを示しており以下の説明中で具体例を説明する。T0〜T4は各々撮影時刻を示している。画像ファイルAの撮影開始時刻がT0、撮影終了時刻がT4、また、画像ファイルBの撮影終了時刻がT1、画像ファイルCの撮影開始時刻がT2、撮影終了時刻がT3、画像ファイルCの撮影開始時刻がT3、撮影終了時刻がT4である。   FIG. 6 is a flowchart showing the flow of processing. FIG. 7 is a diagram for explaining the relationship between the shooting times of image files. The horizontal axis indicates the shooting time, and the arrow indicates the direction in which the shooting time passes. Reference numerals 700 to 703 denote arbitrary image files A to D, and specific examples will be described in the following description. T0 to T4 each indicate a shooting time. Shooting start time of image file A is T0, shooting end time is T4, shooting end time of image file B is T1, shooting start time of image file C is T2, shooting end time is T3, shooting of image file C starts The time is T3 and the shooting end time is T4.

図6において、丸付き数字1(以下、(1)と記す)は、画像ファイルAの撮影開始時刻T0よりも、画像ファイルCの撮影開始時刻T2が後(T0≦T2)、また、画像ファイルAの撮影終了時刻T4よりも画像ファイルCの撮影終了時刻T3が前(T3≦T4)である。丸付き数字2(以下、(2)と記す)は、画像ファイルAの撮影開始時刻T0が画像ファイルBの撮影終了時刻T1よりも前(T0≦T1)、丸付き数字3(以下、(3)と記す)は、画像ファイルAの撮影終了時刻T4が画像ファイルDの開始時刻T3よりもあと(T3≦T4)であることを示している。   In FIG. 6, a circled number 1 (hereinafter referred to as (1)) indicates that the shooting start time T2 of the image file C is later than the shooting start time T0 of the image file A (T0 ≦ T2). The shooting end time T3 of the image file C is before the shooting end time T4 of A (T3 ≦ T4). A circled number 2 (hereinafter referred to as (2)) indicates that the shooting start time T0 of the image file A is earlier than the shooting end time T1 of the image file B (T0 ≦ T1), and the circled number 3 (hereinafter referred to as (3) )) Indicates that the shooting end time T4 of the image file A is later than the start time T3 of the image file D (T3 ≦ T4).

図8は、図2の映像コンテンツ情報フォルダ202に記録された画像ファイルと対応付けられた、シナリオ管理情報ファイル300の例である。801は画像ファイル1がシナリオ名「旅行」で登録され、シナリオ名「旅行」で撮影したときのテーマ名が「タイトルを作成」、また撮影時の撮影開始及び終了時刻である「撮影日時情報」、6つの「優先度情報」302から構成されていることを示している。図9も図8同様に、シナリオ管理情報ファイルの例である。   FIG. 8 is an example of the scenario management information file 300 associated with the image file recorded in the video content information folder 202 of FIG. 801 is image file 1 registered with scenario name “travel”, the theme name when shooting with scenario name “travel” is “create title”, and “shooting date / time information” which is the shooting start and end time at the time of shooting , It is composed of six pieces of “priority information” 302. FIG. 9 is an example of the scenario management information file as in FIG.

撮影日時判定手段113がサムネイル501が作成される元となった画像ファイルを、RAM107に保存された内容から特定し、特定された画像ファイルと関連して保存されているシナリオ管理情報ファイル300を解析する。解析後、シナリオ管理情報ファイル300から撮影日時情報301、シナリオ名、テーマ名を取得してRAM107に保存する。具体例としては、サムネイル501が作成される元となった映像コンテンツファイルが、図2、図8に示す画像ファイル1であった場合について説明する。画像ファイル1と関連して保存されているシナリオ管理情報ファイル800の中の、801という情報に記載されている、シナリオ名「旅行」、撮影日時情報である「撮影日:2010/10/11、撮影開始時刻:10:00:00、撮影終了時刻:10:20:00」、テーマ名「タイトルを作成」をRAM107に保存する。   The shooting date determination means 113 identifies the image file from which the thumbnail 501 was created from the content stored in the RAM 107, and analyzes the scenario management information file 300 stored in association with the specified image file. To do. After the analysis, the shooting date / time information 301, the scenario name, and the theme name are acquired from the scenario management information file 300 and stored in the RAM 107. As a specific example, a case will be described in which the video content file from which the thumbnail 501 is created is the image file 1 shown in FIGS. The scenario name “travel” described in the information 801 in the scenario management information file 800 stored in association with the image file 1 and the shooting date / time information “shooting date: 2010/10/11, Shooting start time: 10:00:00, shooting end time: 10:20:00 "and theme name" create title "are stored in RAM 107.

一方で、内蔵メモリー103に保存されている、他の画像ファイルのシナリオ管理情報ファイル300を参照し(S600、S601)、シナリオ名及び撮影日時情報301が保持する撮影日が画像ファイル1の該当する情報と一致し(S602)、撮影開始時刻が以下の図7を用いてい説明される、少なくとも1つの条件に一致する画像ファイルを検索する。   On the other hand, the scenario management information file 300 of another image file stored in the internal memory 103 is referred to (S600, S601), and the shooting date held in the scenario name and shooting date / time information 301 corresponds to the image file 1. An image file that matches the information (S602) and whose shooting start time matches at least one condition described with reference to FIG. 7 is searched.

つまり、図7の映像コンテンツAは映像コンテンツファイル1、映像コンテンツB〜Dは、映像コンテンツファイル1以外の上記検索対象の映像コンテンツファイルである場合、
(1)RAM107に保存されている画像ファイル1(図2、図8)の撮影日時情報301の撮影開始時刻よりも後であり、かつ、撮影終了時刻よりも前である(S603)。
That is, when the video content A in FIG. 7 is the video content file 1 and the video contents B to D are the video content files to be searched other than the video content file 1,
(1) It is after the shooting start time of the shooting date / time information 301 of the image file 1 (FIGS. 2 and 8) stored in the RAM 107 and before the shooting end time (S603).

(2)RAM107に保存されている画像ファイル1の撮影日時情報301の撮影終了時刻よりも前である(S604)。   (2) It is before the shooting end time of the shooting date / time information 301 of the image file 1 stored in the RAM 107 (S604).

さらに、撮影終了時刻が、
(3)RAM107に保存されている画像ファイル1の撮影日時情報301の撮影開始時刻よりも後である(S605)。
Furthermore, the shooting end time is
(3) It is later than the shooting start time of the shooting date / time information 301 of the image file 1 stored in the RAM 107 (S605).

上記検索によって、上記(1)〜(3)に該当しない場合は、RAM107に保存されている画像ファイル1の再生を行う(S606)。(1)に該当する例としては、画像ファイル1に対して、図9に示される画像ファイル01の撮影日時情報901が上記(1)の条件に一致する。すなわち、画像ファイル01のシナリオ管理情報は、シナリオ管理情報ファイル900に901として記載されており、シナリオ名が画像ファイル1801に一致し、撮影開始時刻及び撮影終了時刻ともに、画像ファイル1の撮影日時情報に対して(1)の条件を満たしている(801、901)。   If the search does not correspond to the above (1) to (3), the image file 1 stored in the RAM 107 is reproduced (S606). As an example corresponding to (1), for the image file 1, the shooting date / time information 901 of the image file 01 shown in FIG. 9 matches the above condition (1). That is, the scenario management information of the image file 01 is described as 901 in the scenario management information file 900, the scenario name matches the image file 1801, and both the shooting start time and the shooting end time are the shooting date and time information of the image file 1. In contrast, the condition (1) is satisfied (801, 901).

上記(1)〜(3)のいずかの条件を満たす画像ファイルを検索完了後、検索された画像ファイルを、対応するシナリオ管理情報ファイルとともにRAM107に保存する。テーマ名判定手段118にて、RAM107に保存された画像ファイル1のシナリオ管理情報ファイルのテーマ名と、内蔵メモリー103に保存されている画像ファイル1以外画像ファイルのシナリオ管理情報ファイル300に記録されたテーマ名が、一致するかどうかの判定を行う(S606)。一致するテーマ名を持つシナリオ管理情報ファイル300が無い場合は、表示手段108からCODEC106に映像コンテンツファイル1を送信し、再生して、再生済みのデータを表示部に送信することで表示を行う(S607)。また、一致するテーマ名を持つシナリオ管理情報ファイル300が存在した場合は、一致するテーマ名を持つシナリオ管理情報ファイルと、関連して保存されている映像コンテンツファイルをRAM107に保存して、映像コンテンツ1を表示する際に使用する(S608)。   After completing the search for the image file that satisfies any of the above conditions (1) to (3), the searched image file is stored in the RAM 107 together with the corresponding scenario management information file. The theme name determination means 118 records the theme name of the scenario management information file of image file 1 stored in the RAM 107 and the scenario management information file 300 of the image file other than image file 1 stored in the built-in memory 103. It is determined whether the theme names match (S606). If there is no scenario management information file 300 with a matching theme name, the video content file 1 is transmitted from the display means 108 to the CODEC 106, played back, and the played back data is sent to the display unit for display ( S607). If there is a scenario management information file 300 with a matching theme name, the scenario management information file with the matching theme name and the associated video content file are saved in the RAM 107 and video content is saved. Used to display 1 (S608).

実際の表示の流れについては、図8〜11を用いて説明する。   The actual display flow will be described with reference to FIGS.

図10は、図8、9同様、内蔵メモリー103内に保存された画像ファイルに関連して保存あれているシナリオ管理情報ファイル300の例である。図11は、ユーザーに操作部によって選択された画像ファイルを再生する際の、時間軸に沿った再生方法を示す図である。上記同様、ユーザーに画像ファイル1(図11では1101)が選択された場合を考慮する。RAM107上には、撮影日時情報判定手段113、テーマ名判定手段118により、画像ファイル1とシナリオ名、テーマ名、上記(1)の条件を満たす画像ファイル01が保存されている。表示手段108によって、表示動作を開始すると、RAM上に保存された画像ファイル1をCODEC106に送信し、デマルチプレックス及びデコード動作を行って、オーディオ信号および映像信号を表示装置に送信後、時刻T0から表示部に表示される。   FIG. 10 shows an example of the scenario management information file 300 stored in association with the image file stored in the built-in memory 103, as in FIGS. FIG. 11 is a diagram showing a playback method along the time axis when playing back an image file selected by the operation unit by the user. As in the above case, consider the case where the user selects image file 1 (1101 in FIG. 11). On the RAM 107, an image file 01, a scenario name, a theme name, and an image file 01 satisfying the above condition (1) are stored by the shooting date / time information determination unit 113 and the theme name determination unit 118. When a display operation is started by the display means 108, the image file 1 stored on the RAM is transmitted to the CODEC 106, the demultiplexing and decoding operations are performed, the audio signal and the video signal are transmitted to the display device, and then the time T0 Is displayed on the display.

さらに、RAM107上の画像ファイル01(1102)が満たす上記(1)の条件を確認し、画像ファイル1の表示中に、画像ファイル01の撮影開始時刻が近づくと、画像ファイル01も同様にCODEC106を介して、表示部に送信し、現在表示中の画像ファイル1のオーディオ信号と映像信号に対して、時刻T1からT3の間は、画像ファイル01のオーディオ信号と映像信号を同時に表示部に表示する。同時に表示する方法としては、重畳して表示する方法が一例として挙げられる。表示結果は図12で示される。1200が画像ファイル1の表示結果であり、重畳されて表示されている1201は画像ファイル01の表示結果である。   Further, the condition of the above (1) that the image file 01 (1102) on the RAM 107 satisfies is confirmed, and when the shooting start time of the image file 01 approaches while the image file 1 is displayed, the image file 01 also changes the CODEC 106 in the same manner. The audio signal and video signal of the image file 01 are simultaneously displayed on the display unit during the time T1 to T3 with respect to the audio signal and video signal of the image file 1 currently being displayed. . An example of a method for displaying the images simultaneously is a method of displaying them in a superimposed manner. The display result is shown in FIG. 1200 is the display result of the image file 1, and 1201 displayed in a superimposed manner is the display result of the image file 01.

本実施例では、重畳表示の方法としてPIP(Picture In Picture)の例を示しているが、これに限定されるわけではない。尚、重畳する際に、どの画像ファイルを小画面または主画面で表示するかの選択は、各画像ファイルに関連付けられて保存される、シナリオ管理情報ファイル300の優先度情報302によって自動で選択される。その選択方法を図13を用いて説明する。優先度情報判定手段114にて、RAM107上の画像ファイル01に関連付けられたシナリオ管理情報ファイル300を参照する(S1300)。   In this embodiment, an example of PIP (Picture In Picture) is shown as a superimposed display method, but the present invention is not limited to this. When superimposing, the selection of which image file to display on the small screen or main screen is automatically selected by the priority information 302 of the scenario management information file 300 stored in association with each image file. The The selection method will be described with reference to FIG. The priority information determination unit 114 refers to the scenario management information file 300 associated with the image file 01 on the RAM 107 (S1300).

各シナリオ管理情報ファイルの優先度情報302を参照し、優先度情報302に記録されている、各項目の内容を各シナリオ管理情報同士で比較し(S1301)、最も優先度の高い項目の項目総数もつシナリオ管理情報ファイル300と関連付けられた、画像ファイルに、主画面表示を行う旨の情報をRAM107上に保存する(S1302)。RAM107に保存された、上記主画面表示情報を表示手段108はRAM107から参照し、複数の画像ファイルを重畳表示する際に、主画面表示を参照して画像ファイルを主画面表示し(S1303)、その他の画像ファイルを子画面表示で表示部に表示する(S1304)。また、優先度情報判定手段114にて、複数のシナリオ管理情報ファイル同士で、優先度の高い項目の項目総数が一致した場合は、画面を二分割して表示する(S1305)。   Referring to the priority information 302 of each scenario management information file, the contents of each item recorded in the priority information 302 are compared between the scenario management information (S1301), and the total number of items of the item with the highest priority Information for displaying the main screen is stored in the RAM 107 in the image file associated with the scenario management information file 300 (S1302). The display unit 108 refers to the main screen display information stored in the RAM 107 from the RAM 107, and displays the image file on the main screen with reference to the main screen display when displaying a plurality of image files (S1303). Other image files are displayed on the display unit in a sub-screen display (S1304). If the total number of items with high priority matches among the plurality of scenario management information files in the priority information determination unit 114, the screen is divided into two (S1305).

ただし、分割表示以外に、ユーザーに選択された映像コンテンツファイルを主画面または子画面として、重畳表示としたり、ユーザーに選択された映像コンテンツファイルのみを優先して主画面表示することも考えられる。図11のT2からT3までの時間帯は、画像ファイル01と画像ファイル001も、上記(3)の条件を満たし、同時に表示を行う対象となるが、図9、10の901と1001のテーマ名が異なるため、重畳表示は行わず、画像ファイル1(1101)の表示のみを行う。また、T3からT4までの時間帯も、画像ファイル01と画像ファイル001において、上記(3)の条件を満たすが、図8の801と図10の1001のテーマ名が異なるため、図13のように画像ファイル1だけを主画面表示する(S1300)。以上まとめると、画像ファイル1が図14の1400、画像ファイル01が図15の1500である場合、図11において、時刻T0からT1までは画像ファイル1(1400)のみ表示部に表示(1104)、時刻T1から時刻T3までは画像ファイル1に画像ファイル01を重畳して表示、時刻T3から時刻T4までは画像ファイル1(1400)を表示(1106)する。   However, in addition to the split display, it is also conceivable that the video content file selected by the user is used as a main screen or a sub-screen to be displayed in a superimposed manner, or only the video content file selected by the user is preferentially displayed on the main screen. In the time period from T2 to T3 in FIG. 11, the image file 01 and the image file 001 also satisfy the above condition (3) and are simultaneously displayed, but the theme names of 901 and 1001 in FIGS. Therefore, only the image file 1 (1101) is displayed. The time period from T3 to T4 also satisfies the condition (3) in the image file 01 and the image file 001, but the theme names of 801 in FIG. 8 and 1001 in FIG. Only image file 1 is displayed on the main screen (S1300). In summary, when the image file 1 is 1400 in FIG. 14 and the image file 01 is 1500 in FIG. 15, only the image file 1 (1400) is displayed on the display unit from the time T0 to T1 in FIG. From time T1 to time T3, image file 01 is superimposed and displayed on image file 1, and from time T3 to time T4, image file 1 (1400) is displayed (1106).

ただし、図8〜10の例から、時刻T0は10:00:00、時刻T1は10:10:00、時刻T2は10:13:00、時刻T3は10:15:00、時刻T4は10:20:00である。   However, from the examples in FIGS. 8 to 10, time T0 is 10:00:00, time T1 is 10:10:00, time T2 is 10:13:00, time T3 is 10:15:00, and time T4 is 10 : 20:00.

尚、本実施例ではHDD100から内蔵メモリーに読み出し手段102で、画像ファイルを読み出したが、HDDインターフェース101を介して、HDD100から直接映像コンテンツデータをRAM107に読み出して、実施しても良い。   In this embodiment, the image file is read from the HDD 100 to the built-in memory by the reading means 102. However, the video content data may be directly read from the HDD 100 to the RAM 107 via the HDD interface 101.

<第2の実施形態>
本発明について、図11を用いて説明する。
<Second Embodiment>
The present invention will be described with reference to FIG.

本発明のシステム図は第1の実施の形態と同様であるので、説明を省略する。図11において、T2からT3までの時間帯は、映像コンテンツファイル01と関連付けて保存されたシナリオ管理情報ファイル図9における901と、映像コンテンツファイル001と関連付けて保存されたシナリオ管理情報ファイル図10における1001のテーマ名が異なるため、表示部109に同時に表示を行わない例を第1の実施例で示した。しかし、ユーザーが映像コンテンツファイル01の表示内容の中で、時刻T2以前に、所望の被写体の表示を目視確認してしまった場合、ユーザーによる操作手段110の操作によって、表示部110の表示内容を映像コンテンツファイル001の表示内容に変更しても良い。   Since the system diagram of the present invention is the same as that of the first embodiment, description thereof is omitted. In FIG. 11, the time zone from T2 to T3 is the scenario management information file 901 in FIG. 9 stored in association with the video content file 01, and the scenario management information file stored in association with the video content file 001 in FIG. Since the theme name of 1001 is different, an example in which the display unit 109 does not display simultaneously is shown in the first embodiment. However, if the user visually confirms the display of the desired subject before the time T2 in the display content of the video content file 01, the display content of the display unit 110 is changed by the operation of the operation means 110 by the user. The display content of the video content file 001 may be changed.

表示内容を変更する際は、優先度情報判定手段114にて、RAM107上の各シナリオ管理情報ファイルの優先度情報を参照し、優先度情報に記録されている、各項目の内容を各シナリオ管理情報同士で比較して、最も優先度の高い項目の項目総数もつシナリオ管理情報ファイルと関連付けられた、映像コンテンツファイルを表示手段108によって表示部109に送信後、表示部に表示する、表示内容の切り替えを行う。   When changing the display contents, the priority information determination unit 114 refers to the priority information of each scenario management information file on the RAM 107, and manages the contents of each item recorded in the priority information for each scenario. The content of the display contents displayed on the display unit is displayed after the video content file is transmitted to the display unit 109 by the display means 108 and is associated with the scenario management information file having the total number of items of the highest priority compared with the information. Switch.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。   Although the present invention has been described in detail based on preferred embodiments thereof, the present invention is not limited to these specific embodiments, and various forms within the scope of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined.

100 HDD(Hard Disc Drive)
101 HDDのインターフェース
100 HDD (Hard Disc Drive)
101 HDD interface

Claims (5)

画像情報を表示する表示部
画像情報を再生する再生手段
画像情報を読み出す読み出し手段
画像情報の撮影日時情報を検出する撮影日時情報検出手段
複数の画像情報から前記撮影日時情報検出手段にて検出した撮影日時情報が同一、または、重複する部分が存在するかどうかを判定する撮影日時情報判定手段
複数画像情報対して、前記撮影日時情報判定手段にて撮影日時情報が同一、または、重複する部分が存在した場合、同一または重複する時間帯のみ、前記撮影日時情報判定手段にて判定された複数画像を前記表示部に同時に表示する表示手段
ある撮影規則に基づいて撮影された画像情報の撮影規則を検出する撮影規則検出手段
複数の画像情報に対して前記撮影規則検出手段にて検出した撮影規則が同一かどうかを判定する撮影規則判定手段
をもち、
前記複数の画像情報に対して、前記撮影日時情報判定手段、及び前記撮影規則判定手段にて判定した結果、全てまたは一部の画像情報において、前記撮影日時情報が同一または重複しており、前記撮影規則が異なる場合は前記表示手段にて前記表示部に、同一または重複する時間帯に同時に画像情報を表示しないことを特徴とする表示装置。
Display unit for displaying image information Playback unit for reproducing image information Reading unit for reading out image information Shooting date and time information detecting unit for detecting shooting date and time information of image information Shooting detected by the shooting date and time information detecting unit from a plurality of pieces of image information Shooting date / time information determining means for determining whether or not there is an overlapping part with the same date / time information. For multiple image information, there is a part with the same or overlapping shooting date / time information in the shooting date / time information determining means. In this case, only in the same or overlapping time zone, a plurality of images determined by the shooting date and time information determination unit are displayed simultaneously on the display unit. A shooting rule of image information captured based on a shooting rule is detected. Shooting rule detecting means for determining whether or not the shooting rules detected by the shooting rule detecting means are the same for a plurality of pieces of image information. A rice cake,
As a result of determination by the shooting date / time information determination unit and the shooting rule determination unit for the plurality of image information, the shooting date / time information is the same or duplicated in all or a part of the image information, The display device, wherein when the shooting rule is different, the display means does not simultaneously display image information on the display unit in the same or overlapping time zone.
前記撮影日時判定手段にて判定した日時情報が同一または重複しており、前記撮影規則が異なる場合でも、画像情報の優先度を判別して、異なる撮影規則を持つ画像情報の表示に切り替えることを特徴とする請求項1に記載の表示装置。 Even when the date and time information determined by the shooting date and time determination means is the same or overlapped and the shooting rules are different, the priority of the image information is determined and switching to display of image information having different shooting rules is performed. The display device according to claim 1. 前記撮影規則判定手段は、シナリオ、及び、シナリオの撮影テーマを判定することを特徴とする請求項1又は請求項2に記載の表示装置。 The display device according to claim 1, wherein the shooting rule determination unit determines a scenario and a shooting theme of the scenario. 前記表示部は外部機器であることを特徴とする請求項1乃至請求項3の何れか1項に記載の表示装置。 The display device according to claim 1, wherein the display unit is an external device. 画像表示手段は、複数の画像情報を重畳、分割して表示することを特徴とする請求項1乃至請求項4の何れか1項に記載の表示装置。
The display device according to claim 1, wherein the image display unit displays a plurality of pieces of image information by superimposing and dividing the information.
JP2011013727A 2011-01-26 2011-01-26 Display device Pending JP2012156756A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011013727A JP2012156756A (en) 2011-01-26 2011-01-26 Display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011013727A JP2012156756A (en) 2011-01-26 2011-01-26 Display device

Publications (1)

Publication Number Publication Date
JP2012156756A true JP2012156756A (en) 2012-08-16

Family

ID=46838036

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011013727A Pending JP2012156756A (en) 2011-01-26 2011-01-26 Display device

Country Status (1)

Country Link
JP (1) JP2012156756A (en)

Similar Documents

Publication Publication Date Title
JP4168837B2 (en) Information generating apparatus, recording apparatus, reproducing apparatus, recording / reproducing system, method thereof, and program
US20090228508A1 (en) Recording Device and Method, Imaging Apparatus, Playing Device and Method, and Program
JP2005333557A (en) Imaging apparatus
JP4937592B2 (en) Electronics
JP6270555B2 (en) Image processing system, imaging apparatus, and control method thereof
JP5358306B2 (en) Imaging apparatus and method for starting the same
JP2007259390A (en) Camera capable of taking image of moving picture
JP2005117083A (en) Reproducing apparatus, recording apparatus, reproduction program and computer-readable recording medium with reproduction program recorded thereon
JP4297073B2 (en) Image generating apparatus, processing method of these apparatuses, and program causing computer to execute the method
JP5882764B2 (en) Imaging apparatus and control method
JP5677008B2 (en) Imaging apparatus, control method and program thereof, and recording medium
JP2008283708A (en) Playback apparatus
JP2012156756A (en) Display device
JP2012142723A (en) Imaging device, control method of the same, and program
JP4798215B2 (en) Electronics
US10410674B2 (en) Imaging apparatus and control method for combining related video images with different frame rates
JP2006092681A (en) Image management method, image management device and image management system
JP5938749B2 (en) Video information capture device
JP2011234180A (en) Imaging apparatus, reproducing device, and reproduction program
JP2005135554A (en) Reproducing device and method
JP2006074548A (en) Image reproducing device and program
JP2008035238A (en) Camera capable of photographing moving picture
JP2010252386A (en) Display control apparatus, and camera
KR20080041837A (en) Multimedia data recorder
JP2014035778A (en) Recording device and recording method