WO2014049989A1 - 映像出力装置 - Google Patents
映像出力装置 Download PDFInfo
- Publication number
- WO2014049989A1 WO2014049989A1 PCT/JP2013/005371 JP2013005371W WO2014049989A1 WO 2014049989 A1 WO2014049989 A1 WO 2014049989A1 JP 2013005371 W JP2013005371 W JP 2013005371W WO 2014049989 A1 WO2014049989 A1 WO 2014049989A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- frame
- video
- image
- unit
- processing unit
- Prior art date
Links
- 238000012545 processing Methods 0.000 claims abstract description 38
- 239000000284 extract Substances 0.000 claims abstract description 14
- 230000033001 locomotion Effects 0.000 claims description 15
- 239000013598 vector Substances 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 9
- 238000003384 imaging method Methods 0.000 claims description 3
- 238000012935 Averaging Methods 0.000 claims 1
- 230000002194 synthesizing effect Effects 0.000 abstract 2
- 238000000034 method Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 8
- 239000002131 composite material Substances 0.000 description 4
- 230000008602 contraction Effects 0.000 description 3
- 238000007792 addition Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/37—Details of the operation on graphic patterns
- G09G5/377—Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/36—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
- G09G5/39—Control of the bit-mapped memory
- G09G5/391—Resolution modifying circuits, e.g. variable screen formats
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
- H04N21/4316—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/432—Content retrieval operation from a local storage medium, e.g. hard-disk
- H04N21/4325—Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/434—Disassembling of a multiplex stream, e.g. demultiplexing audio and video streams, extraction of additional data from a video stream; Remultiplexing of multiplex streams; Extraction or processing of SI; Disassembling of packetised elementary stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
- H04N21/440281—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the temporal resolution, e.g. by frame skipping
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
- H04N5/772—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
Definitions
- This disclosure relates to a video output device for combining a plurality of videos and displaying them on the same screen.
- Playing multiple videos simultaneously and comparing each other is widely done, for example, in sport training, comparing the model's action with its own action, or comparing the current action with the good condition Usage is conceivable.
- Patent Document 1 a plurality of video signals are recorded, a specific phenomenon to be noticed at the time of reproduction is detected, time information at the moment when the phenomenon occurs is recorded together, and this phenomenon is displayed substantially simultaneously at the time of reproduction.
- a video recording / reproducing apparatus characterized by controlling the reproduction timing is disclosed.
- the video output device in the present disclosure is a video output device that synthesizes and displays a plurality of videos.
- Image processing for extracting a plurality of reference frames from one arbitrary reference image out of a plurality of images taken by the photographing unit, and extracting a corresponding frame most similar to each reference frame for each of the images other than the reference image
- an output unit that outputs a combined frame obtained by combining the reference frame generated by the image processing unit and the corresponding frame.
- FIG. 1 is a block diagram illustrating a configuration of a video output device according to an embodiment of the present disclosure.
- FIG. 2 is a flowchart showing a flow of video output processing in the video output apparatus according to the present embodiment.
- FIG. 3 is a flowchart showing a flow of processing for extracting a corresponding frame.
- FIG. 4 is an explanatory view schematically showing a state in which two images S1 and S2 obtained by shooting a golf swing are arranged on the same time axis.
- FIG. 5 is an explanatory view schematically showing a state in which the reproduction start position is adjusted so that the start timings of the swing movements coincide with each other.
- FIG. 6 is an explanatory diagram schematically showing how the timing is adjusted by expanding and contracting the video on the time axis.
- FIG. 7 is an explanatory view schematically showing a state in which video is discretized in units of frames.
- FIG. 8 is an explanatory diagram schematically showing the case where the time corresponding to one frame is
- FIG. 1 is a block diagram illustrating a configuration of a video output device according to an embodiment of the present disclosure.
- a video output device 1 includes a shooting unit 2 such as a video camera for shooting a video, a controller 3 for a user to instruct the operation of the video output device 1, and a video output device.
- a display unit 4 such as an external monitor for displaying video information output from 1 is connected by means capable of data transmission.
- the video output device 1 performs an operation of combining a plurality of videos shot by the shooting unit 2 and displaying them on the display unit 4.
- the controller 3 gives instructions such as an operation for selecting a plurality of videos to be played back and an operation for selecting a reference video from among the videos to be played back, and is constituted by an input device such as a keyboard and a mouse.
- the video output device 1 includes an image processing unit 11, an output unit 12, a recording medium 13, an internal memory 14, and a control unit 15 including a CPU. Each unit is connected via a bus line. Data transmission is possible.
- the image processing unit 11 includes a reference frame extraction unit 11a that extracts a plurality of reference frames from one arbitrary reference image among a plurality of images captured by the imaging unit 2, and a reference frame for each image other than the reference image.
- a corresponding frame extracting unit 11b for extracting a corresponding frame most similar to the frame.
- the image processing unit 11 arranges the operation for extracting the frame from the video, the operation for determining the similarity between the frames, and the corresponding frame extracted for each of the reference frame and the reference frame on the same screen.
- Various image processing including an operation of generating a composite frame is performed.
- the image processing unit 11 is configured by a signal processing device such as a digital signal processor (DSP) or a microcomputer, or a combination of a signal processing device and software.
- DSP digital signal processor
- the output unit 12 is for outputting a composite frame obtained by combining the reference frame generated by the image processing unit 11 and the corresponding frame.
- the recording medium 13 is used to record video data to be reproduced in advance or to record a composite frame generated by the output unit 12 as a still image or video data, and is configured by a hard disk or the like.
- the internal memory 14 is used as a work memory for the image processing unit 11 and the output unit 12, and is constituted by a DRAM or the like.
- the control unit 15 is means for controlling the overall operation of the video output apparatus 1.
- FIG. 2 is a flowchart showing the flow of video output processing in the video output device according to the present embodiment.
- step S101 the user selects a plurality of videos to be reproduced through the controller 3 (step S101).
- step S102 one reference image is determined from the plurality of images selected in step S101 (step S102).
- any one video from the plurality of videos selected in step S101 may be used as the reference video.
- the image processing unit 11 extracts a reference frame from the designated reference video (step S103).
- a method of extracting the reference frame a method of extracting the reference frame from the reference image at a predetermined time interval, or a method of extracting, as a reference frame, an average of a predetermined number of consecutive frames from the reference image is used. Can be realized.
- one frame having the maximum similarity with the reference frame is extracted as a corresponding frame from the video other than the reference video (step S104).
- a specific procedure for extracting the corresponding frame will be described later.
- the image processing unit 11 When the corresponding frame is extracted, the image processing unit 11 combines the reference frame and the corresponding frame to generate a composite frame for output (step S105).
- step S106 it is determined whether any video has reached the end. If none of the videos has reached the end, the processes in and after step S103 are repeated.
- FIG. 3 is a flowchart showing a flow of processing for extracting a corresponding frame.
- the position of the search frame to be subjected to similarity calculation is designated as the position of the corresponding frame extracted immediately before, and the maximum similarity Rmax is initialized to 0. (Step S201).
- the similarity R between the reference frame extracted in step S103 of FIG. 2 and the search frame is calculated (step S202).
- a method of calculating the similarity a method of calculating the similarity with the reference frame based on the difference between the pixel values of the frames may be used. For example, image similarity such as SAD (Sum of Absolute Difference) or SSD (Sum of Squared Difference) of each pixel value, the difference between the motion vector of the reference frame and the motion vector of the reference frame, or the autocorrelation coefficient of the image.
- SAD Sud of Absolute Difference
- SSD Sud of Squared Difference
- a general method for calculating can be used.
- the calculation is performed when an index is used such that the value is larger as the images are not similar, such as a pixel value SAD or SSD, or a difference of motion vectors. It is desirable to perform processing such as obtaining the reciprocal of the value or multiplying by ( ⁇ 1), and change the value so that the value is larger as the images are more similar.
- the motion vector of the reference frame is “the motion vector between the reference frame extracted immediately before and the latest reference frame”.
- the motion vector of the search frame it is desirable to use “the motion vector between the corresponding frame extracted immediately before and the latest search frame”.
- the similarity R calculated in this way is compared with the maximum similarity Rmax so far (step S203). If the similarity R is greater than the maximum similarity Rmax, the value of the maximum similarity Rmax is replaced with the similarity R, and the position of the search frame at this time is stored (step S204).
- step S205 it is determined whether the position of the current search frame has reached the end of a predetermined search range. If the end has not been reached, a process for advancing the position of the search frame by one frame is performed (step S206). After the position of the search frame is advanced by one frame, the process of calculating the similarity R is performed again in step S202. If it is determined that the end has been reached, a frame at a position corresponding to the maximum similarity Rmax is extracted as a corresponding frame (step S207).
- Corresponding frames can be extracted by the above processing flow.
- the search range is determined by searching for a predetermined number of frames or searching for a number of frames corresponding to a predetermined time. More preferably, it is desirable that the user can designate these through the controller 3.
- FIG. 5 is an explanatory view schematically showing a state in which the reproduction start position is adjusted so that the start timings of the swing movements coincide. Since only the playback start position is adjusted, the image of S2 is shifted to the left as a whole as compared with FIG. 4, but the timing is only the start of the operation, and the other timings are still Remains unfit.
- FIG. 6 is an explanatory diagram schematically showing how the timing is adjusted by expanding and contracting the video on the time axis.
- FIG. 7 is an explanatory diagram schematically showing how video is discretized in units of frames.
- FIG. 8 is an explanatory diagram schematically illustrating a case where the time corresponding to one frame is long.
- the entire video of S2 is expanded or contracted in the time direction, and each point of the video of S1 is compared with the corresponding point in the video of S2. What is necessary is just to match timing.
- the shooting frame rate Since each frame of a general moving image is discretized on the time axis, the resolution of expansion and contraction on the time axis is equal to the time resolution of one frame as shown in FIG. Also, as shown in FIG. 8, in the case of a video with a long time of one frame, that is, with a low frame rate, the amount of timing shift becomes shorter than the time of one frame, and adjustment is difficult by expansion and contraction in units of frames. Therefore, it is desirable that the video shot by the shooting unit is shot at a frame rate higher than the frame rate output from the output unit to increase the resolution of expansion and contraction on the time axis.
- the video output device extracts a plurality of reference frames from any one reference video out of a plurality of videos shot by the shooting unit, and each video other than the reference video is most similar to each reference frame.
- An image processing unit for extracting each corresponding frame, and an output unit for outputting a combined frame obtained by combining the reference frame generated by the image processing unit and the corresponding frame are provided.
- similar videos can be extracted from other videos with respect to a specific reference video, and can be reproduced in time with the entire video.
- a video output apparatus includes an image processing unit that extracts a plurality of reference frames from an arbitrary reference video and extracts a corresponding frame most similar to each reference frame for each video other than the reference video. Therefore, a plurality of images having temporal fluctuations in operation can be displayed at substantially the same time by automatically absorbing the fluctuations.
- the video output device extracts similar videos from other videos with respect to a specific reference video for a plurality of videos shot by the shooting unit, and matches the timing of the entire video. Therefore, it is possible to improve the convenience when comparing operations using video.
- not only one reference image but also a plurality of reference images may exist.
- the timing is matched only between a specific pair.
- the user can designate through the controller 3 which reference video is associated with a certain video.
- an image such as SAD or SSD of a pixel value, a difference between motion vectors, and the like. It is also possible to use an index whose value increases as the degree of similarity is not similar as it is as the dissimilarity, and a frame with the smallest dissimilarity may be used as the corresponding frame. This eliminates the need to convert dissimilarity into similarity.
- each block may be individually made into one chip by a semiconductor device such as an LSI, or may be made into one chip so as to include a part or the whole.
- LSI semiconductor device
- it may be called IC, system LSI, super LSI, or ultra LSI depending on the degree of integration.
- the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
- An FPGA Field Programmable Gate Array
- a reconfigurable processor that can reconfigure the connection and setting of circuit cells inside the LSI may be used.
- each processing in the above embodiment may be realized by hardware or software. Furthermore, it may be realized by mixed processing of software and hardware. Needless to say, when the digital camera according to the above-described embodiment is realized by hardware, it is necessary to adjust timing for performing each process. In the above embodiment, for convenience of explanation, details of timing adjustment of various signals generated in actual hardware design are omitted.
- the technique of the present disclosure can be applied to a video output device that combines a plurality of videos and displays them on the same screen.
- the technology of the present disclosure can be applied to a video server or the like.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Psychiatry (AREA)
- Human Computer Interaction (AREA)
- Social Psychology (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Marketing (AREA)
- Television Signal Processing For Recording (AREA)
- Studio Devices (AREA)
Abstract
本開示における映像出力装置は、複数の映像を合成して表示する映像出力装置である。撮影部で撮影された複数の映像のうち、任意の1つの基準映像から複数の基準フレームを抽出し、基準映像以外の各映像について、各基準フレームと最も類似した対応フレームをそれぞれ抽出する画像処理部(11)と、画像処理部(11)で生成された基準フレームと対応フレームとを合成した合成フレームを出力する出力部(12)とを備えている。
Description
本開示は、複数の映像を合成し、同一画面上に表示するための映像出力装置に関する。
複数の映像を同時に再生しそれぞれの比較を行うことは広く行われており、例えばスポーツのトレーニングでは手本となる動作と自身の動作を比較する、あるいは好調時と現状の動作を比較するなどの用法が考えられる。
特許文献1において、複数の映像信号を記録するとともに、再生時に着目すべき特定の現象を検出し、現象が発生した瞬間の時刻情報を併せて記録を行い、再生時にはこの現象が略同時に表示されるよう再生タイミングを制御することを特徴とする映像記録再生装置が開示されている。特許文献1に記載の装置を用いることで、例えばゴルフのスイングフォームを比較する際に、各映像におけるインパクトの瞬間がほぼ同時に表示されるよう映像を再生することができる。
本開示における映像出力装置は、複数の映像を合成して表示する映像出力装置である。撮影部で撮影された複数の映像のうち、任意の1つの基準映像から複数の基準フレームを抽出し、基準映像以外の各映像について、各基準フレームと最も類似した対応フレームをそれぞれ抽出する画像処理部と、画像処理部で生成された基準フレームと対応フレームとを合成した合成フレームを出力する出力部とを備えている。
以下、本開示の一実施の形態による映像出力装置について、図1~図8を用いて説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者らは、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
[1-1.構成]
図1は、本開示の一実施の形態における映像出力装置の構成を示すブロック図である。
図1は、本開示の一実施の形態における映像出力装置の構成を示すブロック図である。
図1に示すように、映像出力装置1には、映像を撮影するためのビデオカメラなどの撮影部2と、利用者が映像出力装置1の動作を指示するためのコントローラ3と、映像出力装置1から出力される映像情報を表示するための外部モニタなどの表示部4が、データ伝送が可能な手段により接続されている。これにより、映像出力装置1は、撮影部2により撮影した複数の映像を合成して表示部4に表示する動作を行う。コントローラ3は、例えば再生する複数の映像を選択する動作、再生する映像の中から基準映像を選択する動作などの指示を与えるもので、キーボードやマウスなどの入力装置によって構成されている。
また、映像出力装置1は、画像処理部11と、出力部12と、記録媒体13と、内部メモリ14と、CPUからなる制御部15とを有し、それぞれの各部は、バスラインを介してデータの伝送が可能なように構成されている。
画像処理部11は、撮影部2で撮影された複数の映像のうち、任意の1つの基準映像から複数の基準フレームを抽出する基準フレーム抽出部11aと、基準映像以外の各映像について、各基準フレームと最も類似した対応フレームをそれぞれ抽出する対応フレーム抽出部11bとを有している。これにより、画像処理部11は、映像からフレームを抽出する動作と、フレーム間の類似性を判定する動作と、基準フレームと基準フレームのそれぞれについて抽出された対応フレームとを同一画面上に配置した合成フレームを生成する動作を含む、種々の画像処理を行う。画像処理部11は、デジタル・シグナル・プロセッサ(DSP)やマイクロコンピュータなどの信号処理装置、または信号処理装置とソフトウェアの組み合わせによって構成される。
また、出力部12は、画像処理部11で生成される基準フレームと対応フレームとを合成した合成フレームを出力するためのものである。記録媒体13は、再生したい映像データを予め記録する、あるいは出力部12によって生成された合成フレームを静止画、あるいは映像データとして記録するために用いるもので、ハードディスクなどによって構成される。内部メモリ14は、画像処理部11、および出力部12のワークメモリとして用いるもので、DRAMなどによって構成される。制御部15は映像出力装置1の全体の動作を制御する手段である。
[1-2.動作]
以上のように構成された本実施の形態による映像出力装置について、図2を用いて、その動作を説明する。図2は、本実施の形態による映像出力装置における映像出力処理の流れを示すフローチャートである。
以上のように構成された本実施の形態による映像出力装置について、図2を用いて、その動作を説明する。図2は、本実施の形態による映像出力装置における映像出力処理の流れを示すフローチャートである。
図2に示すように、まず初めに、利用者はコントローラ3を通して再生すべき複数の映像を選択する(ステップS101)。次いで、ステップS101で選択された複数の映像の中から1本の基準映像を決定する(ステップS102)。基準映像はコントローラ3を通して利用者が指定する他、ステップS101で選択された複数の映像から任意の1つの映像を基準映像としてもよい。
次いで、画像処理部11は、指定された基準映像から基準フレームを抽出する(ステップS103)。基準フレームを抽出する方法としては、基準映像から所定の時間間隔で基準フレームを抽出する方法、あるいは基準映像から連続したフレームを所定の数だけ平均したものを基準フレームとして抽出する方法などを用いることにより実現することができる。
次に、基準映像以外の映像から、基準フレームとの類似度が最大となる1フレームを対応フレームとして抽出する(ステップS104)。対応フレームを抽出する具体的な手順については後述する。
対応フレームが抽出されたら、画像処理部11によって基準フレームと対応フレームを合成して出力用の合成フレームを生成する(ステップS105)。
最後に、いずれかの映像が終端に達したかを判定する(ステップS106)。いずれの映像も終端に達していない場合は、ステップS103以降の処理を繰り返す。
<対応フレームを抽出する具体的な手順>
以下、対応フレームを抽出する手順について、図3を参照しながら説明する。図3は対応フレームを抽出する処理の流れを示すフローチャートである。
以下、対応フレームを抽出する手順について、図3を参照しながら説明する。図3は対応フレームを抽出する処理の流れを示すフローチャートである。
図3に示すように、まず、初期化処理として、類似度算出の対象となる探索フレームの位置を、直前に抽出された対応フレームの位置に指定するとともに、最大類似度Rmaxを0に初期化する(ステップS201)。
次に、図2のステップS103で抽出された基準フレームと、探索フレームとの間の類似度Rを算出する(ステップS202)。類似度を算出する方法としては、フレームの画素値の差分に基づいて基準フレームとの類似度を算出する方法を用いてもよい。例えば、各画素値のSAD(Sum of Absolute Difference)やSSD(Sum of Squared Difference)、基準フレームの動きベクトルと探索フレームの動きベクトルの差分、または画像の自己相関係数など、画像の類似度を算出するための一般的な手法を用いることができる。
なお、類似度Rを算出する方法として、画素値のSADやSSD、動きベクトルの差分などのように、画像が類似していない程、値が大きくなるような指標を用いる場合は、算出された値の逆数を求めるか、(-1)を乗じるなどの処理を行い、画像が類似している程、値が大きくなるように変更するのが望ましい。
また、フレーム間の動きベクトルに基づいて基準フレームとの類似度を算出する際には、基準フレームの動きベクトルは、「直前に抽出された基準フレームと最新の基準フレームとの間の動きベクトル」を、探索フレームの動きベクトルは、「直前に抽出された対応フレームと最新の探索フレームとの間の動きベクトル」を、それぞれ用いることが望ましい。
このようにして算出した類似度Rは、これまでの最大類似度Rmaxと比較する(ステップS203)。類似度Rが最大類似度Rmaxより大きい場合は、最大類似度Rmaxの値を類似度Rに置き換え、この時の探索フレームの位置を記憶する(ステップS204)。
次いで、現在の探索フレームの位置が、予め定められた探索範囲の終端に達したかを判定する(ステップS205)。終端に達していない場合は、探索フレームの位置を1フレーム進める処理を行う(ステップS206)。探索フレームの位置を1フレーム進めた後、再びステップS202により、類似度Rを算出する処理を行う。終端に達したと判定された場合は、最大類似度Rmaxに対応する位置のフレームを対応フレームとして抽出する(ステップS207)。
以上の処理フローにより、対応フレームを抽出することができる。
なお、探索範囲は、所定のフレーム数だけ探索する、所定の時間に相当するフレーム数だけ探索する、などで定める。更に好ましくは、コントローラ3を通して利用者がこれらを指定することができるのが望ましい。
<対応フレームを抽出する手順の変形例>
上記実施の形態の例では、類似度Rが最大となる1フレームを対応フレームとして抽出する例について説明した。変形例としては、基準フレームとの類似度Rが最大となるように同一の映像に含まれる複数のフレームを平均したものを対応フレームとして抽出するように構成してもよい。特に、基準フレームが複数のフレームを平均したものである場合は、単一の探索フレームとの間で比較を行うよりも類似度Rを高めることが可能となる。
上記実施の形態の例では、類似度Rが最大となる1フレームを対応フレームとして抽出する例について説明した。変形例としては、基準フレームとの類似度Rが最大となるように同一の映像に含まれる複数のフレームを平均したものを対応フレームとして抽出するように構成してもよい。特に、基準フレームが複数のフレームを平均したものである場合は、単一の探索フレームとの間で比較を行うよりも類似度Rを高めることが可能となる。
[1-3.効果等]
本開示における実施の形態の効果について、特定の動作として、ゴルフのスイングの動作を撮影した映像を処理して出力する場合を例にとって説明する。
本開示における実施の形態の効果について、特定の動作として、ゴルフのスイングの動作を撮影した映像を処理して出力する場合を例にとって説明する。
図4は、ゴルフのスイングを撮影した2つの映像S1、S2を同一の時間軸上に並べた様子を模式的に表した説明図である。なお、図中では、スイング動作の代表的な部分のみを表記している。t=0から2つの映像を同時に再生する場合、動作のどの地点もタイミングは一致していない。
一方、図5は、スイング動作の開始タイミングが一致するように、再生開始位置を調整した様子を模式的に表す説明図である。再生開始位置のみを調整しているため、図4に比較すると、S2の映像が全体的に左に寄っているが、タイミングが合っているのは動作の開始のみで、それ以外のタイミングは依然合っていないままである。
図6は、映像を時間軸上で伸縮させてタイミングを合わせる様子を模式的に表した説明図である。図7は、映像がフレーム単位で離散化されている様子を模式的に表した説明図である。図8は、1フレームにあたる時間が長い場合を模式的に表した説明図である。
図6に示すように、映像全体でタイミングを合わせて再生するためには、S2の映像全体を時間方向に伸縮させ、S1の映像の各ポイントに対して、S2の映像において、対応するポイントのタイミングを一致させればよい。
なお、実際にこのような画像処理を行う際には、撮影フレームレートの制約を受ける。一般的な動画像の各フレームは、時間軸上で離散化されているため、時間軸上での伸縮の分解能は、図7に示すように、1フレームの時間の分解能に等しくなる。また、図8に示すように、1フレームの時間が長い、すなわちフレームレートが低い映像の場合、タイミングのずれ量が1フレームの時間より短くなり、フレーム単位の伸縮では調整が困難になる。従って、撮影部で撮影する映像は、出力部から出力されるフレームレートよりも高いフレームレートで撮影を行い、時間軸上での伸縮の分解能を高めることが望ましい。
本開示における映像出力装置は、撮影部で撮影された複数の映像のうち、任意の1つの基準映像から複数の基準フレームを抽出し、基準映像以外の各映像について、各基準フレームと最も類似した対応フレームをそれぞれ抽出する画像処理部と、画像処理部で生成された基準フレームと対応フレームとを合成した合成フレームを出力する出力部を備えている。
これにより、撮影部で撮影された複数の映像について、特定の基準映像に対し、その他の映像から類似する映像を抽出して、映像全体でタイミングを合わせて再生することができる。
また、動作のスピードが異なる映像を比較する場合や映像のフレーム間で差分をとって異なる箇所を明確にする場合など、特定の瞬間だけでなく動作全体のタイミングを合わせた方がよい場合がある。この際、動作の各段階でスピードの違いが一定ではなく、スピードの違いに時間的なゆらぎがあることが考えられる。本開示による映像出力装置は、任意の1つの基準映像から複数の基準フレームを抽出し、基準映像以外の各映像について、各基準フレームと最も類似した対応フレームをそれぞれ抽出する画像処理部を有しているため、動作に時間的なゆらぎがある複数の映像を、ゆらぎを自動的に吸収して略同時に表示することができる。
以上のように、本開示による映像出力装置は、撮影部で撮影された複数の映像について、特定の基準映像に対し、その他の映像から類似する映像を抽出して、映像全体でタイミングを合わせて再生することができ、映像による動作の比較を行う際の利便性を向上させることができる。
(他の実施の形態)
以上のように、本出願において開示する技術の例示として、実施の形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
以上のように、本出願において開示する技術の例示として、実施の形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施の形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。
そこで、以下、他の実施の形態を例示する。
上記実施の形態では2つの映像を利用する例について説明したが、3つ以上の映像を扱うようにしてもよい。この場合は、1つの基準映像に対して残りの映像からそれぞれ対応フレームを抽出する。これによって、より多数の映像を同時に表示することができる。
また、基準映像は1つだけでなく、複数の基準映像が存在するようにしてもよい。これによって、例えばある特定のペア間でのみタイミングを合わせるということができる。さらに、ある映像がどの基準映像と対応付けられるかを利用者がコントローラ3を通して指定することができることが好ましい。
また、実施の形態におけるフレーム間の類似度を算出し、類似度が最大となる1フレームを対応フレームとするという処理の流れに対して、画素値のSADやSSD、動きベクトルの差分などの画像が類似していないほど値が大きくなるような指標を、そのまま非類似度として用い、非類似度が最小となるフレームを対応フレームとしてもよい。これによって非類似度を類似度に変換する必要がなくなる。
また、上記実施の形態で説明した映像出力装置において、各ブロックは、LSIなどの半導体装置により個別に1チップ化されてもよいし、一部、または全部を含むように1チップ化されてもよい。なお、ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路または汎用プロセサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
さらには、半導体技術の進歩または派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適用等が可能性としてあり得る。
また、上記実施の形態の各処理は、ハードウェアにより実現してもよいし、ソフトウェアにより実現してもよい。さらに、ソフトウェアおよびハードウェアの混在処理により実現してもよい。なお、上記実施形態に係るデジタルカメラをハードウェアにより実現する場合、各処理を行うためのタイミング調整を行う必要があるのは言うまでもない。上記実施の形態においては、説明便宜のため、実際のハードウェア設計で生じる各種信号のタイミング調整の詳細については省略している。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
また、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
本開示の技術によれば、複数の映像を合成し、同一画面上に表示する映像出力装置に適用可能である。具体的には、ビデオサーバーなどに本開示の技術は適用可能である。
1 映像出力装置
2 撮影部
3 コントローラ
4 表示部
11 画像処理部
11a 基準フレーム抽出部
11b 対応フレーム抽出部
12 出力部
13 記録媒体
14 内部メモリ
15 制御部
2 撮影部
3 コントローラ
4 表示部
11 画像処理部
11a 基準フレーム抽出部
11b 対応フレーム抽出部
12 出力部
13 記録媒体
14 内部メモリ
15 制御部
Claims (9)
- 複数の映像を合成して表示する映像出力装置であって、
撮影部で撮影された複数の映像のうち、任意の1つの基準映像から複数の基準フレームを抽出し、前記基準映像以外の各映像について、各基準フレームと最も類似した対応フレームをそれぞれ抽出する画像処理部と、
前記画像処理部で生成された基準フレームと対応フレームとを合成した合成フレームを出力する出力部と、
を備えたことを特徴とする映像出力装置。 - 前記画像処理部は、撮影部で撮影された複数の映像のうち、任意の1つの基準映像から複数の基準フレームを抽出する基準フレーム抽出部と、基準映像以外の各映像について、各基準フレームと最も類似した対応フレームをそれぞれ抽出する対応フレーム抽出部とを有することを特徴とする請求項1に記載の映像出力装置。
- 前記撮影部で撮影される映像は、出力部が出力するフレームレートよりも高いフレームレートで撮影されていることを特徴とする請求項1に記載の映像出力装置。
- 前記画像処理部の基準フレーム抽出部は、基準映像から所定の時間間隔で基準フレームを抽出するものであることを特徴とする請求項2に記載の映像出力装置。
- 前記画像処理部の基準フレーム抽出部は、基準映像から連続したフレームを所定の数だけ平均したものを基準フレームとして抽出するものであることを特徴とする請求項2に記載の映像出力装置。
- 前記画像処理部の対応フレーム抽出部は、基準フレームとの類似度が最大となる1フレームを対応フレームとして抽出するものであることを特徴とする請求項2に記載の映像出力装置。
- 前記画像処理部の対応フレーム抽出部は、基準フレームとの類似度が最大となるように同一の映像に含まれる複数のフレームを平均したものを対応フレームとして抽出するものであることを特徴とする請求項2に記載の映像出力装置。
- 前記画像処理部の対応フレーム抽出部は、フレーム間の動きベクトルに基づいて基準フレームとの類似度を算出するものであることを特徴とする請求項2に記載の映像出力装置。
- 前記画像処理部の対応フレーム抽出部は、フレームの画素値の差分に基づいて基準フレームとの類似度を算出するものであることを特徴とする請求項2に記載の映像出力装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014538135A JPWO2014049989A1 (ja) | 2012-09-28 | 2013-09-11 | 映像出力装置 |
US14/667,654 US20150201150A1 (en) | 2012-09-28 | 2015-03-24 | Video output device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012215897 | 2012-09-28 | ||
JP2012-215897 | 2012-09-28 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US14/667,654 Continuation US20150201150A1 (en) | 2012-09-28 | 2015-03-24 | Video output device |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2014049989A1 true WO2014049989A1 (ja) | 2014-04-03 |
Family
ID=50387436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2013/005371 WO2014049989A1 (ja) | 2012-09-28 | 2013-09-11 | 映像出力装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20150201150A1 (ja) |
JP (1) | JPWO2014049989A1 (ja) |
WO (1) | WO2014049989A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2018212013A1 (ja) * | 2017-05-18 | 2020-03-19 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
JP6780131B1 (ja) * | 2019-05-31 | 2020-11-04 | 日本電信電話株式会社 | 身体運動フィードバック装置、身体運動フィードバック方法、プログラム |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10805627B2 (en) | 2015-10-15 | 2020-10-13 | Cisco Technology, Inc. | Low-complexity method for generating synthetic reference frames in video coding |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08106543A (ja) * | 1994-10-05 | 1996-04-23 | Hitachi Ltd | 動画像の再生方法および動画像の再生システム |
JP2001186471A (ja) * | 1999-12-27 | 2001-07-06 | Hisaya Sato | 映像比較装置及び映像比較プログラムを記録した記録媒体 |
JP2003339010A (ja) * | 2002-05-20 | 2003-11-28 | Sony Corp | 信号記録再生装置及び方法、信号再生装置及び方法、並びにプログラム及び記録媒体 |
JP2004260765A (ja) * | 2003-02-27 | 2004-09-16 | Nihon Knowledge Kk | 実技分析システム及びプログラム |
JP2007324663A (ja) * | 2006-05-30 | 2007-12-13 | Sharp Corp | ビデオカメラ |
JP2008047998A (ja) * | 2006-08-11 | 2008-02-28 | Casio Comput Co Ltd | 動画再生装置及び動画再生方法 |
JP2010130084A (ja) * | 2008-11-25 | 2010-06-10 | Casio Computer Co Ltd | 画像処理装置及びプログラム |
JP2010206593A (ja) * | 2009-03-04 | 2010-09-16 | Sony Corp | 画像処理装置、画像処理方法、及びプログラム |
JP2011155477A (ja) * | 2010-01-27 | 2011-08-11 | Canon Inc | 映像処理装置、映像処理方法及びプログラム |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3622618C1 (de) * | 1986-07-05 | 1987-05-21 | Willy Bogner | Verfahren zur gleichzeitigen Darstellung mindestens zweier zeitlich nacheinander ablaufender Ereignisse im TV sowie Vorrichtung zur Durchfuehrung dieses Verfahrens |
US6320624B1 (en) * | 1998-01-16 | 2001-11-20 | ECOLE POLYTECHNIQUE FéDéRALE | Method and system for combining video sequences with spatio-temporal alignment |
US7843510B1 (en) * | 1998-01-16 | 2010-11-30 | Ecole Polytechnique Federale De Lausanne | Method and system for combining video sequences with spatio-temporal alignment |
EP1247255A4 (en) * | 1999-11-24 | 2007-04-25 | Dartfish Sa | COORDINATION AND COMBINATION OF VIDEO SEQUENCES WITH SPATIAL AND TEMPORAL NORMALIZATION |
US20020064764A1 (en) * | 2000-11-29 | 2002-05-30 | Fishman Lewis R. | Multimedia analysis system and method of use therefor |
-
2013
- 2013-09-11 JP JP2014538135A patent/JPWO2014049989A1/ja active Pending
- 2013-09-11 WO PCT/JP2013/005371 patent/WO2014049989A1/ja active Application Filing
-
2015
- 2015-03-24 US US14/667,654 patent/US20150201150A1/en not_active Abandoned
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08106543A (ja) * | 1994-10-05 | 1996-04-23 | Hitachi Ltd | 動画像の再生方法および動画像の再生システム |
JP2001186471A (ja) * | 1999-12-27 | 2001-07-06 | Hisaya Sato | 映像比較装置及び映像比較プログラムを記録した記録媒体 |
JP2003339010A (ja) * | 2002-05-20 | 2003-11-28 | Sony Corp | 信号記録再生装置及び方法、信号再生装置及び方法、並びにプログラム及び記録媒体 |
JP2004260765A (ja) * | 2003-02-27 | 2004-09-16 | Nihon Knowledge Kk | 実技分析システム及びプログラム |
JP2007324663A (ja) * | 2006-05-30 | 2007-12-13 | Sharp Corp | ビデオカメラ |
JP2008047998A (ja) * | 2006-08-11 | 2008-02-28 | Casio Comput Co Ltd | 動画再生装置及び動画再生方法 |
JP2010130084A (ja) * | 2008-11-25 | 2010-06-10 | Casio Computer Co Ltd | 画像処理装置及びプログラム |
JP2010206593A (ja) * | 2009-03-04 | 2010-09-16 | Sony Corp | 画像処理装置、画像処理方法、及びプログラム |
JP2011155477A (ja) * | 2010-01-27 | 2011-08-11 | Canon Inc | 映像処理装置、映像処理方法及びプログラム |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2018212013A1 (ja) * | 2017-05-18 | 2020-03-19 | ソニー株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
JP7143846B2 (ja) | 2017-05-18 | 2022-09-29 | ソニーグループ株式会社 | 情報処理装置、情報処理方法および情報処理プログラム |
US11599263B2 (en) | 2017-05-18 | 2023-03-07 | Sony Group Corporation | Information processing device, method, and program for generating a proxy image from a proxy file representing a moving image |
JP6780131B1 (ja) * | 2019-05-31 | 2020-11-04 | 日本電信電話株式会社 | 身体運動フィードバック装置、身体運動フィードバック方法、プログラム |
WO2020240821A1 (ja) * | 2019-05-31 | 2020-12-03 | 日本電信電話株式会社 | 身体運動フィードバック装置、身体運動フィードバック方法、プログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2014049989A1 (ja) | 2016-08-22 |
US20150201150A1 (en) | 2015-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7856145B2 (en) | Image processing system and method therefor, image processing apparatus and method, image capturing apparatus and method, program recording medium, and program | |
US11871127B2 (en) | High-speed video from camera arrays | |
US20120105657A1 (en) | Image processing apparatus, image pickup apparatus, image processing method, and program | |
US10734029B2 (en) | Signal processing apparatus, signal processing method, and non-transitory computer-readable storage medium | |
JP2014096757A (ja) | 画像処理装置および画像処理方法、並びにプログラム | |
JP2006094058A (ja) | 静止画を動画再生するための前処理を行う画像処理装置、プログラム、および方法 | |
JP2010050795A (ja) | カメラ、画像合成方法、およびプログラム | |
JP2007266713A (ja) | 監視システム、監視方法、及びプログラム | |
JP2007036748A (ja) | 監視システム、監視装置、監視方法、及びプログラム | |
US10747492B2 (en) | Signal processing apparatus, signal processing method, and storage medium | |
JP2009182817A (ja) | 映像処理装置及びその制御方法 | |
WO2014049989A1 (ja) | 映像出力装置 | |
JP4998439B2 (ja) | 画像処理装置、画像処理方法およびプログラム | |
US20150162049A1 (en) | Image processing device, image processing method, and program | |
US10536685B2 (en) | Method and apparatus for generating lens-related metadata | |
JP2008021110A (ja) | 画像処理装置、画像処理手順およびプログラム | |
JP6039500B2 (ja) | 映像再生装置及び映像再生プログラム | |
KR101988157B1 (ko) | 소리 파형을 이용한 다수 동영상 간 시간축 동기화 방법 및 장치 | |
JP2010536220A (ja) | 入力ビデオから修正ビデオを作成する方法及びデバイス | |
GB2541713A (en) | Processing of high frame rate video data | |
JP4525388B2 (ja) | 撮像信号記録装置 | |
JP2007324663A (ja) | ビデオカメラ | |
JP2005039711A (ja) | 撮像装置 | |
JP5948927B2 (ja) | 画像処理装置と画像処理方法とプログラムおよび撮像装置 | |
JP5602818B2 (ja) | カメラ、画像再生装置、画像合成方法、およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 13840849 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2014538135 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 13840849 Country of ref document: EP Kind code of ref document: A1 |