WO2007126096A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2007126096A1
WO2007126096A1 PCT/JP2007/059282 JP2007059282W WO2007126096A1 WO 2007126096 A1 WO2007126096 A1 WO 2007126096A1 JP 2007059282 W JP2007059282 W JP 2007059282W WO 2007126096 A1 WO2007126096 A1 WO 2007126096A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
video
image processing
video data
parameter
Prior art date
Application number
PCT/JP2007/059282
Other languages
English (en)
French (fr)
Inventor
Junichi Ogikubo
Original Assignee
Sony Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corporation filed Critical Sony Corporation
Priority to US11/993,764 priority Critical patent/US8780756B2/en
Priority to CN2007800006311A priority patent/CN101326819B/zh
Priority to JP2007551884A priority patent/JP5453716B2/ja
Priority to EP07742717A priority patent/EP2012533A4/en
Publication of WO2007126096A1 publication Critical patent/WO2007126096A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/743Browsing; Visualisation therefor a collection of video files or sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7834Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/785Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/786Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/7864Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using domain-transform features, e.g. DCT or wavelet transform coefficients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/032Electronic editing of digitised analogue information signals, e.g. audio or video signals on tapes
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • G11B27/323Time code signal, e.g. on a cue track as SMPTE- or EBU-time code
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • H04N1/00442Simultaneous viewing of a plurality of images, e.g. using a mosaic display arrangement of thumbnails
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • H04N1/00442Simultaneous viewing of a plurality of images, e.g. using a mosaic display arrangement of thumbnails
    • H04N1/00453Simultaneous viewing of a plurality of images, e.g. using a mosaic display arrangement of thumbnails arranged in a two dimensional array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32106Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title separate from the image data, e.g. in a different computer file
    • H04N1/32112Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title separate from the image data, e.g. in a different computer file in a separate computer file, document page or paper sheet, e.g. a fax cover sheet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32106Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title separate from the image data, e.g. in a different computer file
    • H04N1/32122Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title separate from the image data, e.g. in a different computer file in a separate device, e.g. in a memory or on a display separate from image data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/443OS processes, e.g. booting an STB, implementing a Java virtual machine in an STB or power management in an STB
    • H04N21/4438Window management, e.g. event handling following interaction with the user interface
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/482End-user interface for program selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals

Definitions

  • the present invention relates to an image processing apparatus and an image processing method.
  • a subject such as a person, an object, or a landscape is imaged using an imaging device, and the captured still image is compressed according to the JPEG standard or JPEG200 standard, and stored on a recording medium.
  • the recording media there are a built-in memory built in the imaging device, a removable media that can be attached to and detached from the imaging device, and the like.
  • the user collectively stores (archives) the still image data stored on the recording medium on a large-capacity recording medium such as a hard disk or an optical disk.
  • a large-capacity recording medium such as a hard disk or an optical disk.
  • high-bandwidth / high-speed lines and sometimes broadband lines have become relatively popular. Users can use such a broadband line to send a large amount of still images via e-mail, a general web site, a group of individuals and several people, and so on. It is posted on a diary-like Web site (B 10 g: blog) that is operated and updated by the Internet.
  • users can use image management software, etc. to make it easy to view and search many still images stored in large-capacity recording media. They are managed while being classified according to the shooting date and time.
  • the user edits the target still image using image editing software as necessary.
  • programs provided by terrestrial digital broadcasting / digital satellite broadcasting, etc., and programs provided by network distribution, etc. are recorded on large-capacity recording media such as hard disks and optical discs, and necessary.
  • large-capacity recording media such as hard disks and optical discs, and necessary.
  • the user may search for a specific program from a number of programs and then only view a specific scene in the searched specific program.
  • a large number of programs are classified and displayed by recording date, program category (sports, drama, reports, etc.), and the top screen of each scene of each program is displayed as a thumbnail with still images. Play the corresponding scene by selecting.
  • Patent Document 1 As described above, as the number of still image data and recorded program data increases, it becomes more difficult to search for specific data from a large number of data. Technologies related to this have been proposed (see, for example, Patent Document 1 to Patent Document 3). Furthermore, there is a display form in which the still image itself is analyzed and classified and arranged on the display screen according to the feature amount obtained by the analysis. Patent Document 1 WO 2 0 0 0/0 3 3 4 5 5 publication.
  • Patent Document 2 WO 2 0 0 0/0 3 3 5 7 0 gazette.
  • Patent Document 3 WO 2 0 0 0/0 3 3 5 7 2 Publication.
  • the number of still image data and recorded program data can be determined by simply classifying and displaying still image data or program data according to the shooting date / time, recording date / time, category, etc. If the amount of data is enormous, it is easy for the user to understand.
  • the target data is a video (video), —Easy-to-understand, 'As a user-friendly display format, no specific technology has been proposed for how to classify and arrange.
  • the user can intuitively recognize what kind of features the entire video has and where the specific scene that the user wants is contained in the entire video. There was a problem of poor usability. Disclosure of the invention
  • the present invention has been made in view of the above points, and proposes an image processing apparatus and an image processing method that can easily perform search, management, and the like for video data.
  • the present invention is an image processing device, and is associated with a feature parameter indicating a video display or an audio display feature, or a video display or an audio display.
  • a feature parameter indicating a video display or an audio display feature, or a video display or an audio display.
  • the feature value or the associated parameter parameter is displayed in the display space.
  • memorize the acquired feature parameters or associated parameters so that the video data is displayed on the display window in the display space. It was made to generate as evening de overnight. ''
  • the present invention is also an image processing method, characterized in that a feature parameter indicating a video data or audio feature or an associated parameter that links to a video feature or an audio feature is displayed together with the video data.
  • a parameter or an accompanying parameter overnight is generated as evening data.
  • the video display can be displayed in a user-friendly and user-friendly form, and the features of the video display can be intuitively recognized by the user. Search and management for overnight can be easily executed.
  • FIG. 1 is a schematic block diagram showing the configuration of an image processing apparatus according to the present invention.
  • FIG. 2 is a schematic diagram showing the configuration of the editing screen according to the present embodiment.
  • FIG. 3 is a schematic diagram showing an image group.
  • FIG. 4 is a schematic block diagram showing a first configuration example for realizing a video display function by a microprocessor and GPU.
  • FIG. 5 is a schematic block diagram showing a second configuration example for realizing a video display function by a microprocessor and GPU.
  • FIG. 6 is a schematic block diagram showing a third configuration example for realizing the video data display function by the microprocessor and GPU.
  • FIG. 7 is a schematic block diagram showing the configuration of the main data extraction part.
  • FIG. 8 is a schematic diagram for explaining the processing of the average value calculation unit.
  • FIG. 9 is a schematic diagram for explaining the processing of the motion detection unit.
  • FIG. 10 is a schematic block diagram showing another configuration example of the motion detection unit.
  • Fig. 11 is a schematic diagram for explaining the processing of the motion information calculation unit.
  • FIG. 12 is a schematic block diagram showing a configuration example of the frequency analysis unit.
  • FIG. 13 is a schematic diagram for explaining the processing of the fineness information calculation unit.
  • FIG. 14 is a schematic diagram for explaining the HLS space.
  • Figure 15 is a schematic diagram showing the specific contents of the main data file.
  • Figure 16 shows the display processing of the pictures (still images) that make up the video display It is a flowchart showing the procedure.
  • FIG. 17 is a schematic diagram showing display axes in the three-dimensional display space.
  • FIG. 18 is a schematic diagram showing an example of a zoom map display of an image group arranged near the DCT horizontal frequency axis. ⁇
  • FIG. 19 is a schematic diagram showing a zoom-up display example of an image group arranged near the R axis.
  • FIG. 20 is a schematic diagram illustrating a zoom-up display example of an image group arranged near the G axis.
  • Figure 21 is a flowchart showing the video data display processing procedure.
  • Figure 22 is a flowchart showing the display processing procedure for multiple video events.
  • Fig. 23 is a schematic diagram for explaining the movement of the display window.
  • FIG. 24 is a flowchart showing the coordinate correction processing procedure.
  • Figure 25 is a schematic diagram showing a scene change.
  • Fig. 26 is a schematic diagram for explaining the movement of the display window during a scene change.
  • FIG. 27 is a flowchart showing the relocation processing procedure.
  • FIG. 28 is a schematic perspective view showing a group of images before and after rearrangement.
  • Figure 29 is a schematic diagram for explaining the group display process.
  • FIG. 30 is a flowchart showing the group display processing procedure.
  • Figure 31 is a schematic diagram showing a display example (1) when the 3D display space is moved with the display window fixed.
  • Figure 32 is a schematic diagram showing a display example (2) when the 3D display space is moved with the display window fixed.
  • Figure 33 is a schematic diagram showing a display example (3) when the 3D display space is moved with the display window fixed.
  • Figure 34 shows the display processing procedure for a video display with a fixed display window. It is a flowchart to show.
  • FIG. 35 is a schematic diagram showing a display example in the enlarged display window.
  • FIG. 36 is a schematic diagram showing the display pattern (1) in the all-trajectory display mode.
  • FIG. 37 is a flowchart showing the trajectory display processing procedure.
  • FIG. 38 is a schematic diagram showing the past-side trajectory display.
  • Fig. 39 is a schematic diagram showing the trajectory display on the future side.
  • FIG. 40 is a schematic diagram showing the entire trajectory display.
  • FIG. 41 is a schematic diagram showing the display pattern (2) in the all-trajectory display mode.
  • Fig. 42 is a schematic diagram showing the display pattern (3) in the all-trajectory display mode.
  • FIG. 43 is a schematic diagram showing the display pattern (4) in the all-trajectory display mode.
  • Fig. 44 is a schematic diagram showing a trajectory display example using a typical scene.
  • Fig. 45 is a schematic diagram showing a trajectory display example including a scene change.
  • FIG. 46 is a schematic diagram showing an example of movement speed control.
  • FIG. 47 is a schematic diagram showing a trajectory display example with a time code added. 4 and 8 are schematic diagrams for explaining the display window control process.
  • FIG. 49 is a schematic diagram for explaining the two-dimensional display space in another embodiment.
  • FIG. 50 is a schematic diagram showing a four-dimensional display space in another embodiment.
  • FIG. 51 is a schematic diagram for explaining the movement display process of the display window in conjunction with the movement of the knob according to another embodiment.
  • Figure 52 is a schematic diagram used to explain examples of applicable applications.
  • Figure 53 is a schematic diagram showing an example (1) of the table when the accompanying parameters are used.
  • FIG. 54 is a schematic diagram showing a display example (2) when the accompanying parameter overnight is used.
  • Fig. 55 is a schematic diagram showing a display example (3) when the accompanying parameter overnight is used.
  • 1 shows the image processing system according to the present embodiment as a whole, and is roughly divided into an image processing device 2, a storage device 22 and a plurality of video tape recorders. 2 3 1 23 n, etc. It is composed of
  • the image processing system 1 can create an edit list that defines edit contents for obtaining desired edited video and audio by connecting the AV data captured in the storage device 2 2 to a desired state.
  • the editing process is actually executed according to the created editing list AV, and the AV data obtained as a result is stored in the storage device 22 as a new copy, or the video tape recorder 2 3 1 2 3 n It is designed to be recorded on videotape via
  • the microprocessor 3 On the other hand, GPU 4, XD R (Extre me Data Rate) — RAM 5 and South Bridge 6 are connected, Hard Disk Device 7 and USB Interface 8 are connected to South Bridge 6 Sound input / output codec 9 is connected. A speaker 41 is connected to the sound input / output cord 9.
  • the south page 6 is connected to a mouse 3 8, a keyboard 3 9, a video tape recorder 2 3 1 to 2 3 n, a storage device 2 2, and an operation controller 3 7 through a PCI bus 15. .
  • a display 40 is connected to the GP 4.
  • the microprocessor 3 is O S (O p e r a t i n g
  • General-purpose main CPU core 3 M that executes basic programs (System, etc.) and multiple RISC (educed I ns) connected to the main CPU core 3 M via the internal bus 12 truction S et C o mp uter)
  • the microprocessor 3 of this image processing system 1 is mainly composed of M PE G 2, H. 26 4 / A V C (A d v a n c e d V i d e o
  • the main CPU core 3M performs processing and management other than those performed by the eight sub CPU cores 3 SA to 3 SH.
  • the mouse 38 and the key board 3 are connected via the south bridge 6.
  • 9 or operation controller 3 7 Receives commands supplied from 7 and executes various processes according to the commands.
  • the microprocessor 3 can decode the video stream in parallel by the eight sub CPU cores 3 SA to 3 SH, and between the microprocessor 3 and the GPU 4.
  • a high-bandwidth bus 10 can be transferred overnight at a transfer rate of up to 30 [G byte / sec], so many high-definition video streams can be decoded. It can be transferred overnight in a short time.
  • the GPU 4 displays the video image and the still image data. It has functions to perform coordinate transformation calculation processing when displaying images on the display 40, enlargement / reduction processing of still images of video playback and still image data, and reduce the processing load on the microprocessor 3 It is made like that.
  • the microprocessor 3 reads out the necessary application program stored in the hard disk device 7 based on the control program stored in the hard disk device 7 and expands it to the XDR-RAM 5. After this, this application program and user operation Necessary control processing is executed based on the operation.
  • Microprocessor 3 has a mouse 3 8, a keyboard 3 9 or an operation controller 3 7 that are operated by a user, and a AV stream recorded on a video tape is stored in storage device 2 2.
  • the AV device corresponding to the display instruction is read by controlling the hard disk device 7 in response to the display instruction.
  • the GPU 4 controls the above clip capture window based on the AV data is displayed on the display 40.
  • the microprocessor 3 is operated by the user with the mouse 3 8, keyboard 3 9 or operation controller 3 7, and a playback operation command for the video tape recorder 2 3 1 to 2 3 ⁇ is input. Then, in response to this, the video tape recorders 2 3 1 to 2 3 ⁇ are controlled to execute a reproduction operation for the AV data recorded on the video tape.
  • this video tape recorder 2 3 1 to 2 3 n outputs an AV stream that is played back from the video tape loaded in the video tape recorder 2 3 1 to 2 3 n, and PCI It is given to GPU 4 via bus 15, south bridge 6 and microprocessor 3 in order.
  • the GPU 4 performs predetermined signal processing on the supplied video under the control of the microprocessor 3, and sends the resulting video data to the display 40.
  • the playback video based on the video data is displayed at a predetermined position in the clip capture window.
  • the microprocessor 3 causes the speaker 41 to output the sound based on the sound signal by sending the sound signal extracted from the AV data to the speaker 41 via the sound input / output coder 9.
  • the user can replay the video displayed on display 40.
  • the video / audio part is clipped, and the video length is recorded at the in and out points.
  • the length of the clip, the clip ID, the clip name, and the AV data are recorded.
  • Management information such as the date and time and the creation date and time of the clip can be registered as memory data. Then, the management information of the clip registered as this message is registered in the clip management information data pace in the hard disk device 7 under the control of the microprocessor 3. .
  • the microprocessor 3 is not limited to the clip management information as described above, but also extracts feature amounts of various parameters included in the video data constituting the AV device. These are registered as files for the evening.
  • the microprocessor 3 responds to the video tape. Controls recorder 2 3 1 to 2 3 n to execute playback operation of the specified AV stream.
  • the video tape recorders 2 3 1 to 2 3 n output the video stream contained in the AV stream played from the video tape, of which the video stream is stored on the PC.
  • 'It is given to GPU 4 through I bus 1 5, South page 6, Microprocessor 3 and Bus 10.
  • the user can cause the display 40 to display an editing screen (described later) for performing an editing operation by a predetermined operation using the mouse 38, the keyboard 39, or the operation controller 37 thereafter. You can use this editing screen to see which clip and how to connect It is possible to create an edit list that defines the edit contents. Also, the user can check the edited video and the edited audio based on the edited list after or during the creation of the edited list.
  • the microprocessor 3 makes all of the edit lists specified in the edit list.
  • the editing data set by the user is filed and registered in the editing list data base in the hard disk drive 7.
  • the microprocessor 3 operates the mouse 38, the keyboard 39, or the operation controller 37 to edit based on the edit list.
  • the storage device 22 2 is controlled in response to the command, thereby storing the video stream and video stream included in the required AV stream. 2 Read to 2.
  • the video stream and the audio stream included in the AV stream read from the storage device 22 are transferred to the PCI bus 15, the south bridge 6, the microprocessor 3 and the bus 10. It is given to the GPU 4 sequentially, and thereafter, under the control of the microprocessor 3, the video special effect processing is performed on the GPU 4 as necessary.
  • the GPU 4 performs predetermined signal processing on the video data obtained by performing the video special effect processing on the supplied video data under the control of the microprocessor 3.
  • the resulting video signal is sent to the display 40.
  • the microprocessor 3 performs audio mixing processing on the audio data in the video data and audio data included in the AV data, and the sound data obtained as a result is sounded.
  • the editing operation can be executed while allowing the user to visually check the reproduced video and the reproduced sound based on the editing list.
  • the microprocessor 3 and the GPU 4 of the image processing device 2 execute video display processing with special effects on the playback video of the editing screen displayed on the display 40.
  • various expansion operations and editing processes can be executed.
  • the video data decoded simultaneously in parallel by the 8 sub CPU cores 3 SA to 3 SH in the microprocessor 3 is transferred to the GP U 4 via the bus 10.
  • the maximum transfer speed is 30 [Gbyte / sec], so that even complex video images with special effects can be displayed quickly and smoothly.
  • the image processing system 1 has an editing mode and a view mode.
  • editing processing such as the generation of edited video data as described above is executed, whereas in the view mode, a storage device is used. 22
  • a large amount of moving images stored in 2 and still image AV data are classified and displayed so that the operator can easily manage or search.
  • the microprocessor 3 of the image processing device 2 is configured such that the hard disk device 7 when the mouse 3 8, the keyboard 39 or the operation controller 3 7 is operated by the user and an instruction to display the editing screen is input. And the transition to view mode by controlling GPU 4 and editing screen as shown in Fig. 2. Display 5 0 on display 40.
  • This edit screen 50 is unique to the clip list display section 51, the storyboard section 52, the timeline section 53, and the effect information display section 54. Display unit 5 5 having the following functions.
  • the editing work is mainly performed using the display unit 55. Therefore, the storyboard unit 52 and the timeline unit 53 are provided supplementarily. It has been.
  • the clip list display section 51 selects one desired bin or file from various bins and files registered in the image processing apparatus 2 and stores the selected bin or file in the bin or file.
  • a list of stored AV data can be displayed.
  • the user selects a desired AV data from the video AV data displayed in the list on the clip list display unit 51 and drags and drops it on the display unit 55. It is possible to display a plurality of display windows W 57 that display the first image of the AV display (the first still image in the case of video data) on the display unit 55.
  • the reproduced video can be displayed on the display unit 55, and the displayed reproduced video can be fast-forwarded, rewound or stopped.
  • the user can visually check the playback video of the video data included in the AV display via a plurality of display windows W 5 7 displayed on the display unit 55, while viewing a desired frame.
  • the start point (hereinafter referred to as “in point”) and end point (hereinafter referred to as “out point”) of the video / audio portion to be searched and cut out from the video / AV data can be designated.
  • the microprocessor 3 of the image processing device 2 When the edit mode is entered by specifying the IN point and OUT point, the AV data with the IN point and OUT point specified is newly inserted between the IN point and OUT point. As an AV device, it can be pasted on the storyboard 52 according to the drag and drop of the user. As a result, on the editing screen 50, a clip of AV data to be used for editing is arranged in advance in the storyboard section 52, so that the user can easily imagine the editing result. ing. At this time, the storyboard unit 52 displays thumbnails and detailed information of representative images corresponding to the top image of each pasted clip.
  • the user sequentially pastes the clips pasted on the stream board part 52 so as to arrange them on the video track of the timeline part 53 by drag and drop. Try to put it on.
  • a band (not shown) of a length corresponding to the material length of the pasted clip is displayed on the video track using the timeline as an index. If there is audio in the clip at this time, a band (not shown) of the same length is displayed at the same position on the timeline of the audio track.
  • the clock corresponding to the band at the time indicated on the timeline when the edited video / audio is output It means that the video of the lip is displayed or the sound is output. Therefore, it is possible to create an edit list that sequentially defines clip images or audios that are displayed as edited video or output as edited audio by such an operation.
  • the microprocessor 3 of the image processing apparatus 2 is selected by the user from the list displayed in the clip list display section 51 and is displayed on the display section 5 5.
  • a predetermined image frame that shows the night By displaying a plurality of display windows W 5 7 on the display section 5 5 of the editing screen 50, the image group 5 8 can be presented.
  • the microprocessor 3 of the image processing apparatus 2 uses the AV list display window W 5 7 that has been selected and dragged and dropped from the clip list display section 51 by the user later. Can be added to the display unit 55, and can be deleted from the display unit 55 in response to a selection / deletion operation on the display window W57.
  • the image group 58 includes, for example, “red (R)” on the X axis, “blue (B)” on the Y axis, and “luminance” on the Z axis.
  • the first picture (still picture) or representative picture (still picture) of the video display is recorded in the feature quantity (for example, picture unit or G 0 P unit) of the video data. Based on the individual display window W57.
  • the parameters that make up each display axis (X-axis, Y-axis, and Z-axis) in this 3D display space are feature parameters that indicate the characteristics of the AV data that includes video data. Basically, the feature values shown in the feature parameters are different for each picture that makes up the video feature unless the same still picture continues in time.
  • the display unit 55 of the editing screen 50 does not explicitly display each display axis of the above-described three-dimensional display space as shown in FIG. 3, but in this three-dimensional display space.
  • the display window W 5 7 being arranged, the display window W showing a picture (still image) with a high red level included in the video data in the image group 58 in the lower right of the screen. .5 7 is placed.
  • a display window W 5 7 in which a picture with a high luminance level included in the video display is displayed in the image group 58 in the upper center of the screen.
  • a display window W 5. 7 is arranged.
  • a user who confirms a plurality of video images can intuitively recognize the general tendency (distribution) of brightness and color components included in the plurality of video images as an image.
  • the X-axis “red”, Y-axis “blue” and Z-axis “luminance” are used only in the positive direction from the origin.
  • Multiple display windows W 5 7 are arranged in the.
  • the present invention is not limited to this, and a plurality of display windows W 57 can be arranged in all the quadrants including the minus direction from the origin with respect to the X axis, the Y axis, and the Z axis. .
  • the microprocessor 3 of the image processing device 2 changes its feature amount every time the picture constituting the video data of the image group 58 is updated, so that the display window is displayed according to the feature amount.
  • the video data display window W 5 7 can be displayed while being moved in the 3D display space.
  • it is also possible to adjust the playback speed of the video by changing the update speed for the picture, and if the update speed is increased, fast-forward playback can be performed, so the display window
  • the moving speed of W 5 7 will increase and the 3D display space will move at high speed.
  • the update speed is lowered, the moving speed of the display window W 5 7 will decrease, and it will move slowly as if it floated on the 3D display space.
  • the image processing apparatus 2 can also rewind and play back the video data in the display window W 57, and in that case, the image processing apparatus 2 can move over the 3D display space.
  • the display window W 5 7 can be moved and displayed in the reverse direction.
  • the image processing apparatus 2 stops at the timing desired by the user during the moving display of the forward or backward display window W 57, and the picture corresponding to the stopped timing ( (Still images) can also be displayed.
  • a feature parameter indicating the feature amount of the picture is extracted in advance as a menu image for a picture constituting the video data, and a playback image of the video image is displayed.
  • the display window W 57 is rearranged in the three-dimensional virtual space according to the feature amount of each picture when the picture is updated.
  • the feature parameters are extracted as metadata from the individual pictures that make up the video data in advance, and the video data is displayed using the extracted feature parameters. Generate video data from each picture while displaying video data using the second configuration example. When video data is encoded and recorded, feature parameters are generated as metadata. However, a total of three types of the third configuration example that uses it to display video events will be explained.
  • the main event / night extraction unit 61 extracts feature parameters indicating various feature amounts including the video data / night and includes them in the unit of the picture for the video data / night. Or, it is registered as a metadata file MDF in multiple picture units (for example, GOP unit) in the “Maiten-de-Yon-de-Yon-base”.
  • the compressed image generation unit 6 3 is supplied via the main event / night extraction unit 6 1. Compresses each picture of the recorded video data into the main video stream
  • HD 1 is registered in the video database in the subsequent stage (hereinafter referred to as the video DB) 64, and the number of pixels of each picture in the video display is thinned out at a predetermined rate.
  • Sub-video stream LD 1 as an image is registered in the video DB 64.
  • the video DB 64 does not decimate the number of pixels.
  • the display space control unit 6 6 generates a three-dimensional display question specified by the user via a GUI (Graphical User Interface) 65 displayed on the display unit 55. Recognize the parameters of the display axis used, recognize the viewpoint coordinates when displaying the image group 58 to the user, and place the AV data selected by the user in the 3D display space Various decisions regarding display, such as deciding to use as, are made.
  • GUI Graphic User Interface
  • the display space control unit 6 6 determines the frame numbers for a plurality of pictures constituting the video data to be displayed on the display unit 55 as the image group 58 (FIG. 3) based on the determination result. 6 By outputting to 2, the corresponding feature parameter parameter corresponding to the frame number is read from the DB 6 2 as the metadata, and the coordinate data is calculated by reading the MDF file MDF. Send to part 6 7. In addition, the display space control unit 6 6 displays the playback video of the video data by outputting frame numbers for a plurality of pictures constituting the video data to the video DB 64 based on the determination result.
  • the sub video stream LD 1 corresponding to the frame number is sent to the decoder 68, and when displaying the playback video of the video display in an enlarged manner, The main video stream HD 1 corresponding to the frame number is sent to the decoder 68.
  • the decoder 6 8 decodes the sub video stream LD 1 and main 'video stream HD 1 supplied from the video DB 64 and the resulting decoded sub video stream, main Send the video to the image display unit 69.
  • the coordinate calculation unit 67 sets the feature parameter supplied from the display space control unit 66 as the display axis of the display space, and sets the feature parameter to the coordinates (coordinate parameter) in the three-dimensional display space. It is converted by calculation, and the arrangement position in the 3D display space is determined according to the converted parameter value. Then, based on the viewpoint coordinates for the image group 58 consisting of a plurality of display windows W 57 to be arranged in the three-dimensional display space and the location of each display window W 57, each display The display size of the window W 57 is determined, and various information (display parameters) related to the display of each display window W 57 is transferred to the image display unit 69.
  • the image display unit 69 uses the coordinate parameter received from the coordinate calculation unit 67 and uses the 3D display space in which the sub-video data supplied from the decoder 68 is to be placed. Based on the coordinate position, the display window W 57 corresponding to the sub-video is arranged on the 3D display space. After performing this series of processing on the display window W 5 7 corresponding to other video data, the coordinate parameters of the plurality of display windows W 5 7 are displayed on the display unit 55. Two-dimensional coordinate position (display position parameter) By converting to and displaying, an image group 58 composed of a plurality of display windows W 5 7 is presented to the display unit 5 5.
  • the display space control unit 6 6 is the three-dimensional specified by the user via the GUI 65 displayed on the display unit 55. It recognizes the feature parameters set on the display axis of the display space, and recognizes the viewpoint coordinates when displaying the image group 58 to the user. Furthermore, the display space control unit 66 makes various decisions regarding the display such as determining that the video selection selected by the user is to be used as an arrangement target for the three-dimensional display space, and coordinates the information as coordinates. Send to calculator 6 7. '
  • the display space control unit 6 6 displays the playback video of the video data by outputting the frame numbers for the plurality of pictures constituting the video data to the video DB 64 based on the determination result.
  • the display space control unit 6 6 displays the playback video of the video data by outputting the frame numbers for the plurality of pictures constituting the video data to the video DB 64 based on the determination result.
  • the main video stream HD 1 encoded without thinning out the number of pixels and the number of pixels are thinned out and encoded.
  • Both sub-video stream LD 1 are stored in advance.
  • the decoder 68 decodes the sub video stream LD 1 and main 'video stream HD 1 supplied from the video DB 64 and stores the resulting decoded main video data. Sends the evening / overnight extraction unit 6 1 to the sub-video data to the image display unit 69.
  • the main video / night extraction unit 61 is the main bidet supplied from the decoder 68.
  • the feature parameters included in the video are extracted as data, and the extracted data is registered in the DB 6 2 as a file MF.
  • the corresponding metadata file MDF is sent to the coordinate calculation unit 67.
  • the coordinate calculation unit 67 generates a three-dimensional display space by setting the feature parameter supplied from the display space control unit 66 as a display axis by calculation, and displays the video data to be displayed in each display window W57.
  • the feature value of the evening feature parameter is converted to the coordinate parameter in the 3D display space, and the arrangement location in the 3D display space is determined according to the value of the coordinate parameter.
  • the coordinate calculation unit 6 7 is based on the viewpoint coordinates for the image group 58 consisting of a plurality of display windows W 57 to be arranged in the three-dimensional display space and the arrangement location of each window screen.
  • the display size of each display window W 5 7 (display parameters-evening) is determined, and various information (display parameters) for each display window W 5 7 is displayed in the image display section. 6 Pass to 9
  • the image display unit 6 9 should place the sub video supplied from the decoder 68 in the 3D display space.
  • the display window W57 corresponding to the sub video data is placed in the 3D display space.
  • the three-dimensional coordinate positions of the plurality of display windows W5.7 are displayed on the display unit 55.
  • an image group 58 consisting of a plurality of display windows W 57 is presented to the display unit 55.
  • the display space control unit 6 6 is a 3D display space specified by the user via the GUI 65 displayed on the display unit 55. Recognize the feature parameters set for the display axis Or recognize the viewpoint coordinates when displaying the image group 58 to the user. Further, the display space control unit 66 makes various decisions regarding the display, such as deciding to use the video event selected by the user as an object to be arranged in the three-dimensional display space, and calculates the information as coordinates. Send to part 6 7.
  • the display space control unit 66 determines the video data for the video data base and the video data base (hereinafter referred to as the video data video DB) 70. Outputs frame numbers corresponding to the multiple pictures that make up the evening.
  • the video DB 70 is stored in the main video stream HD 1 in addition to the main video stream HD 1 registered by the imaging device.
  • Sub-video stream LD 1 that encodes sub-video data with thinned out evening pixels is also registered.
  • Video DB 7 0 displays video data playback video in the display window W 5 7, sends sub-video stream LD 1 corresponding to the frame number to decoder 6 8 In some cases, however, when the playback image of the video display is enlarged, the main video stream HD 1 corresponding to the frame number is sent to the decoder 68.
  • the metadata video DB 70 contains the feature parameters included in the main video extracted by the metadata extraction unit built into the imaging device when the main video was captured.
  • the evening data file is also registered as an MDF.
  • the meta data / video DB 70 transmits the characteristic parameters corresponding to the frame number supplied from the display space control unit 66 to the coordinate calculation unit 67 as the data / video file M DF.
  • the coordinate calculation unit 67 generates a three-dimensional display space in which the feature parameter supplied from the display space control unit 66 is set as the display axis by calculation, and displays each display unit.
  • Window W 5 7 Characteristic parameters of video data to be displayed are converted into coordinate parameters in the 3D space to determine the placement position, and multiple displays are placed in the 3D display space.
  • Window W5 Determines the display size of each display window W57 based on the viewpoint coordinates for the image group 58 consisting of 7 and the placement location of each window screen, and each of these display windows W5 Various information related to the display of 7 is transferred to the image display unit 69.
  • the decoder 68 decodes the sub-video stream LD 1 or the main video stream HD 1 supplied from the video DB 70, and the resulting decoded sub-video decoder. Send overnight or main video to the image display unit 69.
  • the image display unit 6 9 is based on the value of the coordinate parameter to which the sub-video data supplied from the decoder 68 is to be placed, based on the display information passed from the coordinate calculation unit 67. Then, the display window W5 7 corresponding to the sub video data is arranged in the 3D display space. In addition, the image display unit 69 performs the above-described series of processing on the display window W57 corresponding to other video data, and then performs a tertiary operation on the display windows W57. By converting the original coordinate position to the two-dimensional coordinate position (display position parameter) of the display unit 5 5 and displaying it, an image group 5 8 consisting of multiple display windows W 5 7 is displayed on the display unit 5 5 To present.
  • the video data extraction unit 61 for example, details (complexity), motion vector noise, DCT (D iscrete C) of each picture constituting the video data.
  • osine T ransfo rm Detail information calculation unit 7 1, motion detection unit 72, DCT vertical and horizontal frequency component detection to extract features and parameters, including various feature quantities based on vertical and horizontal frequency components, color components, audio levels, etc.
  • the main event / night extraction unit 61 may be provided with various detection units for extracting feature parameters other than these parameters.
  • the fineness information calculation unit 7 1 includes an average value calculation unit 1 0 7 1, a difference value calculation unit 1 0 7 2 and an integration unit 1 07 3, and the average value calculation unit 1 0 7 1 and the difference value Video data is supplied to the arithmetic unit 1 0 72.
  • the average value calculation unit 1071 sequentially uses the frames of the video data as the frame of interest, and divides the frame of interest into 8 ⁇ 8 pixel blocks as shown in FIG. 8, for example. Further, the average value calculation unit 10 71 calculates the average value of the pixel values of each block in the frame of interest and supplies this to the difference value calculation unit 10 72.
  • the difference value calculation unit 1 072 divides the target frame into blocks of 8 ⁇ 8 pixels, and each pixel value P k of the block and the average value calculation unit The absolute value IP k ⁇ P a V e
  • the integration unit 1 0 73 integrates the absolute value IP k— P a V e
  • of the difference value obtained for each pixel of the block supplied from the difference value calculation unit 1 72, and the integrated value Q ⁇ IP k -Find P a V e
  • the shark Q in the integrated value Q
  • represents the shark with k changed from 1 to 8 x 8 ( 6 4).
  • the accumulating unit 1 073 obtains the sum of the accumulated values Q obtained for all the blocks of the frame of interest, and uses this as the fineness information QS 1 of the frame of interest. Output to.
  • the total sum of accumulated values Q obtained for the frame of interest is called intra AC (Intra-AC), and the larger the value, the greater the variation in pixel values in the frame of interest. Therefore, the greater the fineness information Q S 1 that is the sum of the integrated values Q, the finer (complex) still image of the frame of interest.
  • the motion vector detector 1041 divides the previous frame into macro blocks of 16 ⁇ 16 pixels, and each macro block of the previous frame For, a block of 16 x 16 pixels (hereinafter referred to as a similar block) of the target frame most similar to the macroblock is detected. Then, the motion vector detection unit 1 04 1 uses the macro block motion vector AF O (h, ⁇ )
  • the position of the h-th macroblock from the left of the previous frame and the V-th macroblock from the top is expressed as F 0 (h, V), and from the macro block F 0 (h, V), the macroblock F 0 (h, V) motion vector F 0 (h, V) moved by a 16 x 16 pixel block of the target frame, that is, the position of a similar block F l
  • the statistic calculation unit 1 042 calculates, for example, the magnitude of the motion vector AF O (h, v) of all macroblocks in the previous frame as the motion vector statistic obtained for the previous frame's Mac mouth procedure.
  • the magnitude of the motion vector AF O (h, v) in each macro process F 0 (h, V) in the previous frame is large, the sum of the motion information D O is also large. Therefore, when the motion information D O of the frame of interest is large, the motion of the image of the frame of interest is also large (violent).
  • the magnitude of the motion vector AF O (h, v) for all macroblocks in the previous frame is used as the statistic of the motion vector obtained for the macroframe in the previous frame
  • D 0
  • ⁇ F 0 (h, v) I was calculated, but there are other statistics for the motion vector obtained for the macroframe of the previous frame. For example, it is possible to employ the motion vector variance required for the macroblock of the previous frame.
  • the statistic calculator 1 0 4 2 obtains the average value ⁇ a V e of the motion vectors ⁇ F 0 (h, V) in all macro blocks in the previous frame, and calculates all macro blocks in the previous frame.
  • the sharks in the dispersion 0 ⁇ ( ⁇ F 0 (h, V) - ⁇ a ⁇ ) 2 are h from 1 to the number of horizontal macro-blocks in the previous frame.
  • V represents sharking from 1 to the number of vertical macroblocks in the previous frame.
  • this variance 0 Similar to the total DO, this variance 0 also has a large movement of the image of the frame of interest. It grows with the threshold.
  • FIG. 10 shows another configuration example of the motion detection unit 72 in FIG. 7.
  • This motion detection unit 72 A includes a histogram creation unit 1 0 5 1, a histogram storage unit 1 0 5 2 and a difference. It comprises an arithmetic unit 1 0 5 3.
  • the video creation section 1 0 5 1 is supplied with video data.
  • the video data frames are sequentially used as the frame of interest, and a simple histogram of the pixel value of the frame of interest is created.
  • the histogram of the frame of interest is supplied to the histogram storage unit 1 052 and the difference calculation unit 1 053.
  • the histogram storage unit 1 05 2 stores the histogram of the frame of interest supplied from the histogram creation unit 1 0 5 1.
  • the histogram storage unit 1 0 52 has a storage capacity sufficient to store at least 2 frames of histogram, and is supplied from the histogram generation unit 1 0 5 1.
  • the histogram for the current frame of interest and the previous frame of interest, that is, the histogram for the previous frame are stored.
  • the difference calculation unit 1 0 53 is the difference between the histogram for the frame of interest supplied from the histogram creation unit 1 0 5 1 and the histogram for the previous frame stored in the histogram storage unit 1 0 5 2, which will be described later.
  • the absolute value sum is obtained and output as motion information D 0 of the own frame. '
  • Histogram creation unit 1 0 5 If the pixel value of the video data supplied to 1 is represented by 8 bits that can be expressed by integer values from 0 to 255, for example, the histogram creation unit 1 0 5 1 ranges from 0 to 2 5 5, for example, 0 to 3 1, 3 2 to 6 3, 64 to 9 5, 9 6 to 1 2 7, 1 2 8 to 1 5 9, 1 6 0 to 1 9 1, 1 9 2 to 2 23, 224 to 2 5 5 is divided into 8 equal ranges, and the frequency of the pixel value included in each sub range is calculated to obtain a simple histogram of the frame of interest. Create — —
  • the difference calculation unit 1 0 5 3 has a histogram of the i + 1 frame, which is the frame of interest, and the i frame, which is the previous frame.
  • the absolute value of the difference value between the frequencies in the same small range ⁇ (the part shaded in Fig. 11) is obtained.
  • the difference calculation unit 1 0 5 3 obtains the sum of absolute values of the difference values of the frequencies obtained for the eight small ranges of the histogram (sum of the absolute values of differences) ⁇ ⁇ as the motion information DO of the frame of interest. It is output to the memory file generator 86.
  • FIG. 12 shows a configuration example of the frequency analysis unit 74 in the DC / vertical / horizontal frequency component detection unit 73 (FIG. 7).
  • the frequency analysis unit 74 includes a DC conversion unit 10 61, a weight coefficient calculation unit 10 62, and an integration unit 10 63.
  • the video data is supplied to the DC conversion unit 1 0 6 1, and the frames of the video data are sequentially set as the attention frame, and the attention frame is divided into, for example, blocks of 8 ⁇ 8 pixels. Further, the DC conversion unit 10 06 1 performs DC conversion on each block of the frame of interest, and supplies 88 DCT coefficients obtained for each block to the integration unit 10 63. '
  • the weight coefficient calculation unit 1 06 2 calculates the weight assigned to each of the 8 ⁇ 8 DCT coefficients of the block and supplies it to the integration unit 1 0 6 3.
  • the accumulating unit 1063 adds the weights supplied from the weighting factor calculating unit 1062 to each of the 8 ⁇ 8 DCT coefficients of the block supplied from the DCT converting unit 1061, and integrates them. Thus, the integrated value is obtained.
  • the integration unit 1 0 6 3 The total sum of the calculated values for each block is calculated and sent to the vertical streak / horizontal streak level calculator 7 5 (Fig. 7) as detailed information on the frame of interest.
  • the left side of Fig. 13 shows the base image of DCT conversion.
  • the base image consists of 8 x 8 patterns (frequency components).
  • the pattern on the right side and the pattern on the lower side become higher frequency component patterns.
  • the degree (degree) that the frequency component of the pattern is included in the block.
  • the numbers written in the left base image in FIG. 13 indicate the weights G (i ⁇ 1, j 1: L) calculated by the weight coefficient calculation unit 10 62 in FIG.
  • This weight G (i—1, j—1) is a weight attached to the DCT coefficient F (i—1, j-1), and the weight coefficient calculator 1 0 6 2 uses the weight G (i- 1, j-1) is determined according to, for example, the equation G (i- 1, j-1) ii ixj. As a result, the weight coefficient calculator 1 0 6 2 has a weight G (i ⁇ 1, j ⁇ 1) that has a larger value for the DCT coefficient F (i ⁇ 1, j ⁇ 1) of the high frequency component. Desired.
  • the accumulating unit 10 6 3 (Fig. 12) is supplied from the weighting factor calculation unit 10 06 2 to the DCT coefficient F (i—1, j-1) of the block supplied from the DCT conversion unit 10.61. Multiplied by the weight G ( ⁇ -1, j-1) to obtain the multiplication value G (i — 1, j-1) F (i — 1, j-1).
  • integrated value V ⁇ G (i- l, j-1) x F (i- l,
  • the shark ⁇ in j-1) represents a shark yon with i and j changed from 1 to 8, respectively.
  • the integration unit 10 63 calculates the sum K of the integration values V obtained for all the blocks of the frame of interest, and outputs this to the vertical streak and horizontal streak level calculation unit 75 as the fineness information of the frame of interest. .
  • the fineness information that is the sum K of the integrated values V increases, so the image of the frame of interest is a fine (complex) still image.
  • DCT vertical / horizontal frequency component detector 7 3 Vertical streak / horizontal streak level calculator 7 5 ⁇ Based on the DCT coefficient in the area AR 2 of the frame of interest, it is detected that the image is an image, that is, an image with fine horizontal stripes, that is, an image with a high vertical frequency.
  • the DCT vertical / horizontal frequency component detection unit 73 can determine whether the image of the frame of interest is a fine (complex) still image or not in the frequency analysis unit 74, and can also determine the horizontal frequency and the vertical direction. The level of the frequency is discriminated, and it is output as DCT vertical / horizontal frequency component information FVH to the data file generator 86.
  • the color component detection unit 76 includes a pixel RGB level detection unit 77, an RGB level statistical dispersion detection unit 78, and an HLS level statistical dispersion detection unit 79, which detects the supplied video data as a pixel RGB level. Input to part 7 7 o
  • the pixel RGB level detector 7 7 detects the RGB level of each pixel in the frame of interest in the video data, and the detection result is the RGB level statistical variance detector 7 8 and the HLS level statistical variance detector 7. Send to 9. W
  • the RGB level statistical variance detector 7 8 calculates the statistics and variance for the R GB level of each pixel in the target frame supplied from the pixel R GB level detector 7 7, and determines which R GB color component in the target frame is Color component information CL 1 is a statistical value that indicates whether the color component is at a certain level, and a variance value that indicates whether the color component in the target frame is assigned as an overall color or a local color. Is output to the main data file generator 8 6.
  • the HLS level statistical variance detection unit 7 9 calculates the R GB level of each pixel in the target frame supplied from the pixel RGB level detection unit 7 7, by calculating the hue (Hue), saturation (Saturation), and luminance (Lumi). -nance / Lightness), and as shown in Fig. 14, 'calculated as the statistics and variance of each element in HLS space consisting of these hue, saturation and luminance, and the detection result Is output as the HLS information CL 2 to the file generation unit 86.
  • the hue in the HLS space is the hue expressed as an angle in the range of 0 degrees to 3 59 degrees, where 0 degrees is red and 1800 degrees located on the opposite side is the opposite of red It becomes the blue-green which hits. In other words, it is easy to find the opposite color in the HLS space.
  • Saturation in the HLS space is the ratio of chromatic colors mixed, especially in the HLS space, which is different from the HSV (Hue, Satura tion and Value) space.
  • HSV Human, Satura tion and Value
  • the HLS level statistical dispersion detector 79 can output the HLS information CL 2 expressing the hue more easily than the RGB space to the file generator 86.
  • the mode of extracting the feature parameters overnight for video data has been described.
  • the feature value indicating the characteristics of the video data is calculated from the audio data corresponding to the video data as the characteristic parameter data. Both are possible.
  • the feature parameter overnight is a parameter overnight that can be applied to both video data and audio overnight.
  • the voice detection unit 80 (FIG. 7) includes a frequency analysis unit 8 1 and a level detection unit 8 2, and inputs the supplied signal to the frequency analysis unit 8 1.
  • the frequency analysis unit 8 1 analyzes the audio frequency corresponding to the target frame of the video data and notifies the level detection unit 8 2 of the frequency band.
  • the level detector 82 detects the level of the audio data in the frequency band notified from the frequency analyzer 81, and outputs the audio level information AL to the metadata file generator 86. .
  • Luminance color difference detection unit 8 3 (Fig. 7) is composed of Y, C b, C r level detection unit 8 4 and Y, C b, C r level statistical variance detection unit 85, and is supplied The video data is input to the Y, C b, C r level detector 84.
  • the Y, C b, C r level detection unit 84 detects the luminance level of the luminance signal Y of each pixel and the signal level of the color difference signals C b, C r in the target frame of the video data. Supplied to C b and C r level statistical variance detector 85.
  • the Y, C b, C r level statistical variance detector 8 5 is used to calculate the luminance signal Y of each pixel in the target frame supplied from the Y, C b, C r level detector 8 4. Statistics and variances are calculated for the luminance level and chrominance signals C b and C r, and statistics indicating the level of the luminance signal Y and chrominance signals C b and C r in the frame of interest, and attention
  • the dispersion value of the luminance signal Y and the color difference signals C b and C r in the frame is output as color component information CL 3 to the data file generator 86.
  • the evening data generation unit 8 6 is the fineness information QS 1 obtained from the fineness information calculation unit 7 1, the motion information D 0 of the frame of interest obtained from the motion detection unit 7 2, and DCT vertical and horizontal frequency component detection DCT longitudinal and horizontal frequency component information FVH obtained from the unit 73, color component information CL1 and HLS information CL2 obtained from the color component detection unit 76, audio level information AL obtained from the audio detection unit 80, and luminance color difference Based on the color component information CL 3 obtained from the detector 83, the feature parameters of the pictures that make up the video data or the feature parameters of the audio data corresponding to the video data are displayed.
  • a data file including a data file is created as an MDF file and output as an MDF file.
  • the “time code” is set for each of a plurality of pictures from one frame to the last frame constituting the video data.
  • Various feature parameters such as “streak”, “horizontal streak”, “motion dispersion” and “sound level” are registered.
  • the normalized relative value between 0 and 1 is used as the feature value for each feature parameter in the MDF file, but it is not limited to this. May be used.
  • the content of the MDF file is not limited to the above-mentioned feature parameters of the feature parameter.
  • the display window W 5 7 is displayed in 3D. After the placement in the display space, the coordinate values in the 3D virtual space where the display window W57 is actually placed may be registered as a kind of event. .
  • the video display window W5 7 is displayed in the 3D display space. Therefore, it is not necessary to recalculate the coordinate parameters in the 3D display space based on the feature parameters, and the display window W 5 7 can be arranged instantaneously.
  • the microprocessor 3 in the image processing device 2 enters the routine RT 1 and moves to the next step SP 1 to display the 3D display space specified by the user. Determine the axis and viewpoint coordinates for displaying the image group 58 to the user, and go to the next step SP2.
  • the microprocessor 3 of the image processing apparatus 2 has a three-dimensional display space composed of an R axis, a G axis, and a B axis representing each RGB color component, as shown in FIG. 17 (A), for example.
  • FIG. 17 (E) R axis, DCT vertical 3D display space consisting of frequency axis, DCT transverse frequency axis, 3D display space consisting of DCT longitudinal frequency axis, Cb axis and Cr axis as shown in Fig. 17 (F), Fig. 17 (G) Shown in Each display axis so as to generate various three-dimensional display spaces consisting of L (Lum inance) axis, H (Hue) axis, and S (Saturation) axis, which are the elements of HLS space.
  • L Light inance
  • H Human
  • S aturation
  • step S P 2 the microprocessor 3 of the image processing device 2 recognizes the picture (still image) to be reproduced designated by the user and proceeds to the next step S P 3.
  • step SP 3 the microprocessor 3 uses the still image as the frame of interest, decodes the sub video stream LD 1, and uses the resulting decoded sub-video data as the GPU 4. To the next step SP4.
  • step SP4 the microprocessor 3 of the image processing device 2 uses the feature parameter used for the display axis of the three-dimensional display space from the feature file MDF associated with the still image. Inquire and receive and move to next step SP 5.
  • step SP 5 the microprocessor 3 of the image processing device 2 is to display a still image display window W 57 based on the feature parameters received in step SP 4. Calculate the coordinate position in space (calculate the coordinate parameters), and go to the next step SP6.
  • the microprocessor 3 of the image processing apparatus 2 converts the feature amount of the display axis of the still image with respect to the parameters to the coordinate position on the three-dimensional display space.
  • step SP 6 the microprocessor 3 of the image processing apparatus 2 determines whether or not the still image to be displayed ends here. If an affirmative result is obtained here, this means that the other still image is indicated by the user. This means that there is no other display window W 5 7 to be displayed. At this time, the microprocessor 3 moves to the next step SP 7.
  • step SP6 if a negative result is obtained in step SP6, this means that a picture (still image) of other video data is specified by the user, and a display window corresponding to the other still image is displayed. This indicates that there is another Dow W 57.At this time, the microprocessor 3 of the image processing apparatus 2 returns to Step SP 2 and repeats the above processing to cope with a plurality of still images.
  • the coordinate positions in the 3D display space for the multiple display windows W 57 are calculated according to the feature values shown in the feature parameters of the still image. ,
  • step SP 7 the Migroprocessor 3 of the image processing device 2 responds to the still image based on the coordinate parameter (coordinate position) in the three-dimensional display space calculated in step SP 5 by the GPU 4.
  • Display window W 5 7 is pasted into the 3D display space, and the coordinate parameter (coordinate position) of the 3D display space is displayed based on the viewpoint coordinates determined in step SP 1.
  • step SP 8 the next step SP 8.
  • the microprocessor 3 of the image processing device 2 displays a plurality of display windows W 5 corresponding to the plurality of still images. 7 is placed at the coordinate position in the 3D display space according to the feature parameters of the still image (the position indicated in the coordinate parameters), and these multiple display windows W 5 7 It is presented as an image group consisting of 5 8.
  • step SP 8 the microprocessor 3 of the image processing device 2 It is determined whether or not to end the display process of the display window W 57 based on whether there is an end instruction from the user or a predetermined time has passed, and if an affirmative result is obtained, the next step SP 1 Go to 1 and end the display process of the display window W 5 7.
  • step SP 8 the microprocessor 3 of the image processing device 2 proceeds to the next step SP 9 without ending the display processing of the display window W 5 7. .
  • step SP 9 the microprocessor 3 of the image processing apparatus 2 waits until the viewpoint coordinates for the display window W 5 7 are changed according to the cursor operation by the user, and the next step SP 1 0 Move on.
  • step SP 10 the microprocessor 3 of the image processing device 2 determines whether or not the viewpoint coordinates for the display window W 5 7 have actually been changed by the user, and if a negative result is obtained, the step SP Return to 7 and continue to display the still image display window W 5 7 with the original coordinate position, but if an affirmative result is obtained, return to step SP1 to determine the new viewpoint coordinates after the change. Then, the processing after step SP 2 is repeated, and the display window W 5 7 is rearranged in the 3D display space based on the new viewpoint coordinates.
  • the microprocessor 3 of the image processing device 2 rearranges the display window W 5 7 with respect to the three-dimensional display space based on the new viewpoint coordinates, the display window regardless of the viewpoint change.
  • the window W 5 7 By arranging the window W 5 7 so that it always faces the user, the display window W 5 7 can always be visually confirmed by the user from the front.
  • the microprocessor 3 of the image processing device 2 arranges the still image display window W 5 7 at the coordinate position in the three-dimensional display space according to the characteristic parameters of the still image of the video display.
  • Display window for still images corresponding to the multiple video data are specified.
  • W 5 7 can be presented as an image group 5 8 (Fig. 3), and the overall tendency of multiple video data can be presented as an intuitive image to the user via the image group 58. It can be recognized.
  • the microprocessor 3 of the image processing device 2 displays a display window corresponding to a picture (still image) of a video display for a three-dimensional display space composed of, for example, a DCT horizontal frequency axis, an R axis, and a G axis. 5
  • the viewpoint coordinate is moved to a position where the horizontal frequency from the DCT horizontal frequency axis is large according to the user's zoom-up operation, the vertical direction is fine as shown in Figure 18
  • a still image display window W 5 7 in which streaks are present can be presented as a zoom-up image group 5 8 Z 1 in which a large number of DCT lateral frequency axes are arranged.
  • the microprocessor 3 of the image processing device 2 displays a display window W 5 7 corresponding to a still image of a video display for a three-dimensional display space composed of, for example, a DCT transverse frequency axis, an R axis, and a G axis.
  • a display window W 5 7 corresponding to a still image of a video display for a three-dimensional display space composed of, for example, a DCT transverse frequency axis, an R axis, and a G axis.
  • the viewpoint coordinates are moved to a position where R from the R axis is large according to the zoom-up operation of the user while the is placed and displayed, it contains a lot of red components as shown in Fig. 19
  • Such a still image display window W 5 7 can present a zoom-up image group 5 8 Z 2 in which a large number of images are arranged near the R axis.
  • the migroprocessor 3 of the image processing device 2 displays a display window corresponding to a picture (still image) for a 3D display space consisting of, for example, a DCT transverse frequency axis, an R axis, and a G axis. If the viewpoint coordinates are moved to a position where G is larger than the G axis according to the zoom-up operation of the zoomer with the window W 5 7 placed and displayed, the green color as shown in Fig. 20 A zoom-in image group 5 8 Z 3 in which a number of display windows W 57 corresponding to still images containing many components are arranged near the G axis can be presented.
  • the microprocessor 3 of the image processor 2 enters the routine RT 2 start step and moves on to the next step SP 2 1, which is specified by the user 3.
  • the display axis of the three-dimensional display space and the viewpoint coordinates for displaying the image group 58 to the user are determined, and the process proceeds to the next step SP 22.
  • step S P 2 2 the migroprocessor 3 of the image processing apparatus 2 recognizes the video ⁇ —evening still image specified by the user and proceeds to the next step S P 2 3.
  • step SP 23 the microprocessor 3 of the image processing device 2 uses the still image as the frame of interest, decodes the sub-video stream LD 1 and obtains the decoded result. Sub 'Transfer the video data to the GPU 4 overnight, and move to the next step SP 2 4.
  • step SP 24 the microprocessor 3 of the image processing device 2 inquires the feature parameter used for the display axis of the 3D display space from the meta data file MDF associated with the still image. Then, go to the next step SP 25.
  • step SP 25 the microprocessor 3 of the image processing apparatus 2 displays the display window corresponding to each still image constituting the video image based on the feature parameter data received in step SP 24. Measure the coordinate parameter (coordinate position) in the 3D display space to which the dough W 5 7 Calculate and move to next subroutine SRT 1.
  • the microprocessor 3 of the image processing device 2 has the coordinate parameters on the three-dimensional display space with the feature amount of each of a plurality of pictures (still images) constituting the video display as a display axis ( Coordinate position).
  • the microprocessor 3 of the image processing device 2 sets the coordinate parameters in the 3D display space of the still image that was previously displayed among the plurality of still images constituting the video data (coordinate position). ) And the coordinate position on the 3D display space of the still image to be displayed next after the update (coordinate position) to calculate the corrected coordinates. Move to next step SP 26.
  • the coordinate correction processing procedure in this subroutine S R T 1 will be described later.
  • step SP 2 6 the microprocessor 3 of the image processing apparatus 2 uses the GPU 4 based on the coordinate position in the three-dimensional display space calculated in step SP 25 or the corrected coordinates obtained in the subroutine SRT 1.
  • the display window W5.7 corresponding to each still image making up the video display on the 3D display space, and display the 3D display based on the viewpoint coordinates determined in step SP21.
  • the coordinate position in space is converted to the two-dimensional coordinate position (display position parameter) on the two-dimensional screen of the display unit 55, and the display size of the display window W 5 7 is determined.
  • the display window W 5 7 is drawn and displayed at the two-dimensional coordinate position in the order of update of the still image, and the process proceeds to the next step SP 27.
  • step SP 2 7 the microprocessor 3 of the image processing device 2 uses the display window W 5 7 corresponding to the video data based on whether there is an end instruction from the user or a predetermined time has passed. It is determined whether or not to end the display process. If an affirmative result is obtained, the process proceeds to the next step SP 2 8 and the display process of the display window W 5 7 is ended.
  • step SP 27 image processing
  • the microprocessor 3 of the device 2 returns to step SP 21 without ending the display process of the display window W 5 7 and displays the display window W 5 7 corresponding to the next specified video data. Execute the process.
  • the microprocessor 3 of the image processing apparatus 2 has the still image of the still image at the coordinate position on the three-dimensional display space in which the feature parameter of the still image constituting the video data is set as the display axis.
  • the display window W5 7 is arranged and the still image of the display window W5 7 arranged in the 3D display space is updated according to the frame frequency, the feature parameter of the still image is changed.
  • Update the still image in the display window W57 by changing the coordinate position (coordinate parameter) in the 3D display space and rearranging it according to the change in the feature value Since it is possible to give the user the impression that the display window W57 is floating on the 3D display space, the time-series characteristics (trends) of the video data can be obtained. As the playback video progresses, It was as I main temporary due to the change of the display Huy down dough W 5 7 movement, are made to be able to recognize intuitively and instantly the user.
  • the procedure for simultaneous display processing for multiple video data is explained, but the basic concept is the same as that for RT 2 display processing procedure for one video data, and the multiple still images that make up the video display.
  • the video data is displayed in the display window W 5 7 while moving the display location in the 3D display space according to changes in the feature parameters of each still image. It is designed to execute in parallel every time.
  • the microprocessor 3 of the image processing device 2 actually enters the start step of the routine RT 3 and moves to the next step SP 3 1, and the 3D specified by the user.
  • the viewpoint coordinates for displaying the image group 58 are determined, and the process proceeds to the next step SP 3 2.
  • step SP 3 2 the microprocessor 3 of the image processing device 2 recognizes still images in a plurality of video data to be played, which are designated by the user, respectively.
  • step SP 3 6 step Move to SP 39.
  • step SP 3 3 6 and step SP 39 the microprocessor 3 of the image processing apparatus 2 takes each still image as a frame of interest and decodes its sub video tsuto reaming LD 1.
  • the decoded sub-video data obtained as a result is transferred to the GPU 4 respectively, and the process proceeds to the next step SP 3 4, step SP 3 7, and step SP 40.
  • step SP 3 4 step SP 3 7 and step SP 40, the microprocessor 3 of the image processing device 2 uses the metadata file MDF associated with each still image as the display axis in the 3D display space. Each feature parameter used is inquired and received, and the process proceeds to the next step SP 3 5, step SP 3 8, and step SP 4 1.
  • step SP 35, step SP 38, and step SP 41 the microprocessor 3 of the image processing apparatus 2 receives it in step S S 3 4, step S ⁇ 3 7, and step S ⁇ 40. Based on the feature values of the feature parameters, calculate the coordinate parameters (coordinate positions) in the 3D display space to which each still image display window W 5 7. Then move to the next subroutine SR ⁇ 1 respectively.
  • the microprocessor 3 of the image processing device 2 is a coordinate parameter in a three-dimensional display space in which the feature parameters of each still image constituting a plurality of video images are set as display axes. It is designed to convert to evening (coordinate position).
  • the microprocessor 3 of the image processing apparatus 2 sets the coordinate parameters in the 3D display space of the previously displayed still image among the plurality of still images making up the video display (coordinates). Position) and the coordinate position of the still image to be displayed next in the 3D display space (coordinate position ⁇ ). Go to S 2 4 2.
  • step S ⁇ 4 2 the microprocessor 3 of the image processing device 2 uses the GPU 4 on the 3D display space calculated in step S ⁇ 3 5, step S ⁇ 3 8, and step S ⁇ 4 1.
  • the display window W 5 7 of each still image constituting the video display is pasted in the 3D display space, and based on the viewpoint coordinates determined in step S ⁇ 31.
  • the coordinate position in the 3D display space is converted to the 2D coordinate position (display position parameter) on the 2D screen of the display unit 55, and each display window W 5, 7
  • Each display size is determined, and each display window W 5 7 is arranged at the two-dimensional coordinate position to display the image group 58, and the process proceeds to the next step SP 43.
  • step S ⁇ 4 3 the microprocessor 3 of the image processing apparatus 2 determines whether or not to end the display processing of the image group 58 based on whether there is an end instruction from the user or whether a predetermined time has elapsed. If the result is affirmative and the result is affirmative, the process proceeds to the next step SP 44 and the display processing of the image group 58 including the plurality of display windows W 5 7 corresponding to the plurality of video data is terminated.
  • step S ⁇ 4 4 the microprocessor 3 of the image processing device 2 returns to step S 1 3 1 without ending the display processing of the image group 58. Then, display processing for the next specified video window W 5 7 is executed.
  • the microprocessor 3 of the image processing device 2 can display the characteristic parameters of the display axis of each still image in a plurality of videos.
  • the multiple still image display windows W 5 7 are arranged in the coordinate parameter (coordinate position) in the three-dimensional display space, and are arranged in the three-dimensional virtual space.
  • the coordinate parameter in the 3D display space changes according to the change in the feature value of the feature parameter of the still image.
  • the display window W 5 7 By changing the (coordinate position) and re-arranging, each time a still image of the display window W 5 7 corresponding to multiple video displays is updated, the display window W 5 7 It is possible to give the user an impression that the image is floating in the 3D display space, so that multiple video display features (trends) can be displayed in multiple display windows. As an image by It allows the user to recognize intuitively and instantaneously.
  • the display window W 5 7 corresponding to each video data floats in the direction and direction. Will also be complete.
  • the features of the still images that make up multiple video displays are different, the movement and direction of the display window W 5 7 corresponding to each video data will be different. Become.
  • the image processing apparatus 2 if only the video data to be noticed is selected by the user for the movement of the display window W5 7 among the plurality of video data, the video data is displayed. It becomes easier to focus only on the movement of the display window W57 corresponding to the evening, and the characteristics (inclination) of the video data are expressed in the impact that represents the change in the movement of the display window W57. Impress the user as an image.
  • the microprocessor 3 of the image processing apparatus 2 is the first in the display window W 5 7 corresponding to a video display in the image group 58. If the still image contains a strong B-axis blue component, The display window W 5 7 is arranged at the position P 0 1 at the lower left corner of the screen according to the feature amount indicated by the B-axis feature parameter of the still image.
  • the microprocessor 3 of the image processing device 2 updates the still image of the video data
  • the still image display window W 5 7 according to the feature amount of the blue component in the next still image after the update. Is moved to position PO 2 moved from position P 0 1.
  • the microprocessor 3 of the image processing apparatus 2 when the microprocessor 3 of the image processing apparatus 2 further updates the still image of the video data, the still image display window is displayed according to the feature amount of the blue component in the next still image after the update. Reposition W 5 7 to position P 0 3 which has been moved further from the previous position P 0 2.
  • the microprocessor 3 of the image processing device 2 updates the still image of the video display according to the feature amount indicated by the feature parameter of each still image. By repositioning while changing the coordinate position, the user can visually confirm that the display window W5 corresponding to the video data is floating and moving on the screen of the display unit 55. Has been made to get.
  • the display window W5 7 can be moved and displayed while the user can follow the movement of the display window W57.
  • the microprocessor 3 of the image processing device 2 enters the start step of the subroutine SRT 1 and moves to the next step SP 61.
  • the display screen corresponding to the current still image is displayed. From the position P 0 n in the 3D display space of window W 5 7 to the position P 0 n + 1 in the 3D display space of the display window W 5 7 corresponding to the next still image
  • calculate the temporary movement distance (u-grid distance) calculate the temporary movement distance (u-grid distance).
  • Next step SP 6 Move to 2.
  • step SP 62 the microprocessor 3 of the image processing device 2 calculates the difference between the movement destination coordinates and the current coordinates, and obtains a vector whose size is “1” as the movement direction vector. Move on to next step SP 63.
  • step S P 63 the microprocessor 3 of the image processing apparatus 2 determines whether or not the temporary movement distance obtained in step S P 61 is smaller than a predetermined minimum movement value. If a positive result is obtained here, this means that the temporary moving distance is smaller than the minimum moving value, that is, from the position P 0 n of the display window W 57 corresponding to the current still image.
  • the display window W 5 7 corresponding to the position of the display window W 5 7 is moved to the position P 0 n + 1. Even if the display window W 5 7 is moved, the distance is short, and the user can see the movement of the display window W 5 7 visually. This indicates that it is sufficiently possible to follow, and at this time, the microprocessor 3 proceeds to the next step SP64.
  • step SP 64 the microprocessor 3 of the image processing device 2 UD ⁇ 6 .
  • the destination coordinate to which the display window W 5 7 should be moved next is the coordinate value itself determined according to the feature quantity of the next still image, and displays the display window W 5 7 at that coordinate value. After zeroing, go to step SP 68 and end the process.
  • step SP 63 if a negative result is obtained in step SP 63, this means that the temporary moving distance is larger than the minimum moving value, that is, the position P of the display window W 5 7 corresponding to the current still image.
  • the display window W 5 8 corresponding to the next still image from 0 n is moved to the position P 0 n + 1, and the display window W 5 7 is moved to a very long distance. This indicates that it is difficult to follow the movement of the node W 5 7 with eyes.
  • the microprocessor 3 of the image processing apparatus 2 moves to the next step SP 65.
  • step SP 65 the microprocessor 3 of the image processing apparatus 2 is 1 ⁇ 2 of the temporary movement distance obtained in step SP 61 from the predetermined predetermined movement maximum value (hereinafter referred to as “temporary movement distance”). It is determined whether or not (travel distance / 2) is greater. If a positive result is obtained here, this means that the temporary movement distance / 2 is larger than the maximum movement value, that is, the display window W57 corresponding to the current still image from the position P0n of the window P5n. Even if the display window W5 7 is moved to the position of the correction coordinate corresponding to the movement distance / 2, the distance is still long, and the user can follow the movement of the display window W5 7 with his eyes. At this time, the microprocessor 3 of the image processing apparatus 2 moves to the next step SP66.
  • step SP 66 the microprocessor 3 of the image processing apparatus 2 obtains the corrected coordinates (two current coordinates + moving direction vector X moving maximum value) and displays the obtained corrected coordinates in the display window W 5 7.
  • the destination coordinates are determined, and the process proceeds to the next step SP 68 to end the process.
  • step SP 65 In contrast, if a negative result is obtained in step SP 65, this Indicates that the temporary movement distance / 2 is smaller than the maximum movement value, that is, from the position P 0 n of the display window W 57 corresponding to the current still image to the position of the correction coordinate corresponding to the temporary movement distance / 2 This indicates that the distance when the display window W 5 7 is moved is short, and it is easy for the user to follow the movement of the display window W 5 7 with eyes.
  • the microprocessor 3 moves to the next step SP 67.
  • the microprocessor 3 of the image processing device 2 is positioned at the position P corresponding to the still image at that time, as shown in FIG. If there is a scene change that instantaneously moves from the current coordinate of 0 n to the position P 0 n + 1 corresponding to the next still image, by executing the coordinate correction processing procedure SRT 1 described above, Display window W 5 7 Position PO n to be moved to the next destination coordinate position; if the temporary movement distance from P 0 11 + 1 is greater than the minimum movement value, the temporary movement distance Z 2 Or, find the correction coordinate so that it is moved by the maximum moving value (in this case, the coordinate position of the temporary movement distance Z 2) ', and display the display window W 5 7 at the position PO m corresponding to the correction coordinate.
  • the maximum moving value in this case, the coordinate position of the temporary movement distance Z 2
  • the second microprocessor 3 of the image processing device displays the still image after the scene change in the display window W 5 7, but this is not restrictive, and the position after the scene change P 0 n + 1 Until then, the still image before the scene change may be displayed in the display window W 57, and the still image before the scene change is displayed until the middle position from before the scene change to after the scene change. 5 is displayed in 7 and after that, the still image after the scene change is displayed in the display window W 5 7 until after the scene change. May show.
  • the microprocessor 3 of the image processing apparatus 2 still has a temporary movement distance from the position PO m of the display window W 57 to the position P 0 n + 2 corresponding to the next updated still image. If it is larger than the minimum movement value, the correction coordinate is calculated again so that it is moved by the temporary movement distance / 2 or the maximum movement value, and the window is displayed at the position P 0 m + 1 corresponding to the correction coordinate. C W 5 7 is temporarily placed and displayed.
  • the microprocessor 3 of the image processing apparatus 2 has a temporary movement distance from the position PO m + 1 of the display window W57 to the position P0n + 3 corresponding to the updated still image. If it is still larger than the minimum movement value, the correction position is calculated again so that it is moved by the temporary movement distance / 2 or the maximum movement value, and the display window appears at the position PO m + 2 corresponding to the correction coordinate. W 5 7 is temporarily placed and displayed.
  • the microprocessor 3 of the image processing apparatus 2 has a temporary movement distance from the position PO m + 2 of the display window W 57 to the position corresponding to the updated still image: P 0 n + 4.
  • the display window W 5 7 is moved directly to the position P 0 n + 4 of the destination coordinate corresponding to the temporary movement distance and displayed. .
  • the display window W 57 is changed to the feature of the still image.
  • the frame is re-arranged for each frame according to the feature amount indicated by the parameter, but even if it becomes necessary to jump the display window W 5 7 due to a scene change, the display window W 5 Instead of jumping 7 at a stretch, the display window at the time of scene change is changed by gradually moving the moving distance gradually closer as the target destination is approached.
  • the image processing apparatus 2 determines the display axis of the three-dimensional display space, arranges the video display window W 5 7 in the three-dimensional display space, and then selects the user.
  • the display window W 57 can be rearranged by arbitrarily changing the display axis of the three-dimensional display space according to the operation, and the rearrangement process will be described.
  • the microprocessor 3 of the image processing apparatus 2 arranges the video data display window W 5 7 in the three-dimensional display space, and then displays the display axis parameters via the GUI 65 (FIGS. 4 to 6) by the user.
  • a new 3D display space with a new display axis is regenerated according to the operation to change the evening.
  • the microprocessor 3 of the image processing device 2 starts from the routine RT 4 start step shown in FIG. 27 and proceeds to the next step SP 71, and performs the feature parameter change operation for the user display axis. After recognizing the contents and confirming the feature parameters corresponding to the new display axis to be changed from the current display axis, proceed to the next step SP72.
  • step S P 72 the microprocessor 3 of the image processing device 2 determines the display axis of the new three-dimensional display space and the viewpoint coordinates at that time, and moves to the next step S P 73.
  • the microprocessor 3 is configured to use the previous viewpoint coordinates as they are if there is no change in the viewpoint coordinates.
  • step S 72 the microprocessor 3 of the image processing apparatus 2 displays the still image of the video display that has already been displayed via the plurality of display windows W 5 7 constituting the image group 58.
  • the feature parameter used for the display axis of the new 3D display space is inquired from the MDF file associated with the frame of interest as the frame of interest, and received. And go to the next step SP 74.
  • step SP 74 the microprocessor 3 of the image processing apparatus 2 adds a new still image display window 'W 5 7 to be pasted based on the feature parameter data received in step SP 73. Recalculate the coordinate parameters (coordinate position) in the 3D display space, and go to the next step SP75.
  • step SP 75 the microprocessor 3 of the image processing device 2 determines whether or not the video still image to be displayed in the display window W 57 is now over.
  • step SP 75 of image processing apparatus 2 the microprocessor 3 Moves to SP 7 6.
  • step SP 75 of image processing apparatus 2 the microprocessor 3 returns to step SP 7 2 and repeats the above-described processing to thereby display a plurality of display windows W 5 7 respectively corresponding to a plurality of video images.
  • the coordinate position in the new 3D display space is calculated according to the feature parameters of each still image.
  • step SP 76 the microprocessor 3 causes the GPU 4 to display the video display window W 5 7 based on the coordinate position of the new three-dimensional display space calculated in step SP 74.
  • 2D coordinates display position
  • the display size of multiple display windows W 5 7 is determined, and these multiple display windows W 5 7 are displayed on the two-dimensional coordinates.
  • Dimensional display space An image group 5 8 composed of a plurality of display windows W 5 7 rearranged can be presented, and the process proceeds to the next step SP 7 7.
  • step SP 77 the microprocessor 3 determines whether or not to end the display of the image group 58 based on whether there is an end instruction from the user or whether a predetermined time has elapsed. If a positive result is obtained, the process proceeds to the next step SP 80 and the display processing of the image group 58 is terminated.
  • step S P 7 7 the microprocessor 3 proceeds to the next step S P 78 without terminating the display of the image group 58.
  • step SP 78 the microprocessor 3 waits until the next view coordinate for the display window W 57 is changed in response to the user's forceful operation. Go to next step SP 79 Move.
  • step SP79 the microprocessor 3 determines whether or not the viewpoint coordinates for the display window W57 has actually been changed by the user, and if a negative result is obtained, step SP7 Return to 6 and continue to display the image group 5 8 as it is, but if an affirmative result is obtained, return to step SP 7 1 to recognize the contents of the feature parameter change operation for the display axis of the user, and After confirming the feature parameters of the new display axis that should be changed from the display axis, repeat the processing from the next step SP72. ⁇
  • the microprocessor 3 of the image processing device 2 initially uses, for example, the B-axis, DCT longitudinal frequency according to the feature amount indicated by the feature parameter of the still image of the video data.
  • the display axis is changed to, for example, the R axis, B axis and G axis If it is rearranged in the newly created 3D display space, the placement results of the display windows W 5 71 and W 5 72 can be re-presented in a greatly changed state. ing.
  • the microprocessor 3 of the image processing device 2 has a three-dimensional display space.
  • the display axis of the display according to the user's preference and rearranging the display window W 5 7, the overall characteristics (trend) of the video display will be shown to the user via the rearrangement result. It is designed to allow intuitive recognition.
  • the user has only visually confirmed the display windows W 5 7 1 and W 5 7 2 arranged in the 3D display space consisting of the original B axis, DCT vertical frequency axis and DCT horizontal frequency axis.
  • the image only the impression that the blue component of the still image of the sea is similar is received, but then it is classified and arranged on the new 3D display space changed to R axis, B axis and G axis.
  • the display windows W 5 7 1 and W 5 7 2 are visually confirmed, the impression that the green and red components of the still image are different from each other is received, and video data management and The search can be executed easily.
  • the image processing apparatus 2 can display the display windows W 57 having similar characteristics in the still image of the video data as a group, and here, the group display process will be described.
  • the microphone opening processor 3 of the image processing apparatus 2 has, for example, a plurality of display windows W 5 71 to 1 corresponding to a plurality of video images, respectively.
  • W 5 7 8 is placed in the 3D display space and displayed, these multiple display windows W 5 7 1 to W 5. 7. 8
  • the 3 ⁇ 4 display window W 57 1 to W 5 78 is gradually moved in the direction of the arrow. .
  • the microprocessor 3 of the image processing apparatus 2 displays the adjacent display windows W 5 7 1 to W 5 7 8 at the middle of the playback of the video display or at the end of the playback. Calculate the distance L 1 between them, and the distance L 1 If the threshold value is less than the predetermined threshold TH 1, the similarity in the feature quantity between the still images adjacent to each other is high. For example, display windows W 5 7 1 and W 5 7 3 with high similarity are set as the first group, and the display frames of the display windows W 5 7 1 and W 5 7 3 are set as the first frame. Colored to a predetermined color and displayed.
  • the display windows W5 7 2, W 5 7 7, and W 5 78 are colored as the second group and displayed as the second group.
  • the microprocessor 3 of the image processing apparatus 2 has, for example, the display windows W 5 7 4, W 5 7 6, and W 5 7 5, the mutual distance L 1 is equal to or greater than the threshold value TH 1 and is adjacent to each other. Since the similarity in the feature quantity of the still image is low, it is excluded from the grouping target, for example, by lowering the luminance level of the display window W5 7 4s W 5 7 6, W 5 75. It is designed to make a visual difference from the first group and the second group.
  • the microprocessor 3 of the image processing device 2 enters the routine: the start step of T 5, moves to the next step SP 9 1, and displays the image displayed on the display unit 55.
  • the distance L 1 between the display windows W 5 7 adjacent to each other among the plurality of display windows W 5 7 1 to W 5 7 8 constituting the group 5 8 is calculated, and Go to step SP 9 2.
  • the microphone mouth processor 3 of the image processing device 2 compares the distance L 1 between the display windows W 5 and 7 adjacent to each other with a predetermined threshold TH 1 and Determine whether the distance L 1. is less than the threshold value T H. 1. If a positive result is obtained, go to the next step SP 93.
  • step SP 93 the microprocessor 3 of the image processing device 2 is very close in the 3D display space because the distance L 1 between the adjacent display windows W 5 7 is less than the threshold TH 1. It is recognized that multiple display windows W 5 7 are placed at the selected position, that is, these multiple display windows It is determined that the feature values of the still image in the window W 57 are similar and similar to each other, and the process proceeds to the next step SP 94.
  • step SP94 the migroprocessor 3 of the image processing apparatus 2 changes the display frames of the plurality of display windows W57 determined to be similar to each other to the first predetermined color or the second predetermined color. By displaying with color, the color is displayed as a group having similar feature values to each other, and the process proceeds to the next step SP 95. '
  • step SP 95 the microprocessor 3 of the image processing device 2 determines whether or not the similarity determination has been completed for all the display windows W 5 7 in the image group 58, and if a negative result is obtained, the step is performed. Returning to SP 9 1 and repeating the above process, the similarity judgment for all display windows W 5 7 is completed, and if a positive result is obtained, the process proceeds to the next step SP 98 and the process is terminated. ,
  • step SP 9 2 the microprocessor 3 of the image processing apparatus 2 moves to the next step SP 96, and the distance L between adjacent display windows W 5 7 L Since 1 is greater than or equal to the threshold TH 1, they are not arranged at close positions in the three-dimensional display space, that is, the feature quantities of the still images in the adjacent display windows W 57 are similar. Therefore, it is judged that they are dissimilar to each other, and the process proceeds to the next step SP97. '
  • step SP97 the microprocessor 3 of the image processing apparatus 2 determines that the plurality of adjacent display windows W57 determined to be dissimilar to each other without grouping them. By reducing the brightness level of 7 to a predetermined level and displaying it, a display window that cannot be grouped W 5 7 is presented so that it can be visually recognized. As a result, a grouped display window is displayed. Dow W 5 7 will be highlighted, and the process moves to the next step SP 9 8 and the process is terminated. In this way, the microprocessor 3 of the image processing device 2 can be used as a display form during playback and at the end of playback on a plurality of display windows W 5 7 each corresponding to a plurality of videos.
  • the display window W 5 7 By displaying the display frame in color and displaying the display window W 5 7 with no similarity, the brightness level of the display window W 5 7 is reduced to display the image group to the user.
  • the trend of the feature value of each display window W 5 7 can be instantly and intuitively recognized by the color-coded groups.
  • the microprocessor 3 of the image processing apparatus 2 may execute the above-described group display processing procedure RT 5 on the basis of the first still image before the start of the reproduction processing for a plurality of video data, '.
  • the above-described group display processing procedure RT 5 may be executed every time a still image being played back is updated.
  • the microprocessor 3 of the image processing device 2 does not display the brightness level for the dissimilar display window W 5 7 at a lower level, but the grouped display window W 5 7 Rather than displaying a colored display that is the opposite color, or displaying a colored display in the grouped display window W 57, display the brightness level very high, or flashing display In short, it is only necessary that the display window W 5 7 of a similar group can be highlighted more than the other display windows W 5 7.
  • similarity information indicating that the feature parameters in the video data are similar or similar groups is used as a new feature parameter or an associated parameter described later. It can also be generated. For example, video data is judged to have a high similarity as described above. In such a case, it is possible to measure the similarity between video data by setting up a count of similar times for each video data and counting up. It is also possible to automatically display only video events that exceed the set threshold.
  • the display window of the display unit 5 5 is changed according to the change of the feature amount for each still image. It is possible to move and rearrange the 3D display space and other display windows W 5 7 while W 5 7 is fixed at that position. Here, such display windows are displayed. The fixed display process is explained. .
  • the present invention is not limited to this, and in the image processing apparatus 2, the display window W 5 7 displayed on the display unit 55 is noticeable while the display position of the display window W 57 is fixed.
  • the 3D display space itself is moved and rotated according to the feature quantity of each still image, and the display window W 5 7 is relative to the coordinates in the 3D display space.
  • the microprocessor 3 of the image processing device 2 displays the display window W 5 7 C, which displays the still image at the position PO 1 in FIG. 23, as shown in FIG.
  • the display is fixed at the center position P 0 c
  • the display window W 5 7 C and other display windows W 5 7 around it are also displayed. 5 7 Displayed in a relative position with respect to C.
  • the microprocessor 3 of the image processing apparatus 2 updates and displays the still image of the display window W 5 7 C as shown in FIG. 32, the display window W 5 7 C Since it remains fixed at the screen center position P 0 c, the other display window W 57 is moved together with the 3D display space according to the updated feature value of the still image.
  • the microprocessor 3 of the image processing apparatus 2 further updates and displays the still image of the display window W 5 7 C. Since it remains fixed at the screen center position P0 c as usual, the other display windows W 5 7 are moved together with the 3D display space according to the feature quantity of the updated still image.
  • the microprocessor 3 of the image processing device 2 is displaying the video data playback image on the display window W 57 C, and the display window W 57 C remains fixed at the center position PO c of the screen.
  • the display window W 5 7 C is visually confirmed. It is as if the user is moving in the 3D display space with the display window W 5 7 C while eliminating the risk of losing sight of the display window W 5 7 C It is designed to give an impression.
  • the display processing procedure for video data with such a display window W 5 7 C fixed will be described. As shown in FIG. 34, the microprocessor 3 of the image processing apparatus 2 enters from the start step of the routine RT 6 and moves to the next step SP 1 0 1.
  • step SP 1 0 the microprocessor 3 of the image processing device 2 determines the display axis of the three-dimensional display space specified by the user and the viewpoint coordinates when displaying the image group 58 to the user. And move to next step SP 1 0 2.
  • step S P 1 0 2 the microprocessor 3 of the image processing apparatus 2 recognizes the still image of the video data to be reproduced designated by the user, and proceeds to the next step S P 1 0 3.
  • step SP 1 ⁇ 3 the microprocessor 3 uses the still image as the frame of interest, decodes the sub video stream LD 1, and obtains the sub-video data after decoding as a result. Transfer overnight to GPU 4 and move to next step SP 1 0 4.
  • step SP 1 0 4 the microprocessor 3 of the image processing apparatus 2 uses the feature parameter used for the display axis of the 3D display space from the main file MDF associated with the still image. Inquires and receives the overnight feature value, and proceeds to the next step SP 1 0 5.
  • step SP 1 0 5 the microprocessor 3 of the image processing device 2 pastes a still image display window W 5 7 C based on the feature parameters received in step SP 1 0 4.
  • step SP 1 0 6 the coordinate parameter (coordinate position) in the 3D display space to be attached, change the viewpoint coordinates so that the coordinate position corresponds to the screen center position P 0 c, and go to the next step SP 1 0 6 Move.
  • step SP 1 0 6 the microprocessor 3 of the image processing apparatus 2 moves the display frame W 5 7 C of the attention frame to the screen center position: P 0 c. chorus composition
  • the first still image is fixed and displayed, and the display windows W 5 7 corresponding to the other video events in the surrounding area are also rearranged and displayed.
  • Next step SP 1 0 Move to 7.
  • step SP 1 07 the microprocessor 3 of the image processing apparatus 2 keeps the display window W 5 7 C fixed at the center position PO c of the screen, and displays the still image of the display window W 5 7 C, for example. Updates according to the frame frequency, inquires and receives the feature parameters used for the display axis from the metadata file MDF associated with the updated still image, and Move to step SP 1 0 8.
  • step SP 1 0 8 the microprocessor 3 of the image processing device 2 uses the GPU 4 to maintain the display window W 5 7 C at the screen center position P 0 c while maintaining the feature value of the updated still image. Move the 3D display space and surrounding display window W 5 7 accordingly to redraw, and go to the next step SP 1 0 9. '
  • step SP 1 0 9 the microprocessor 3 displays the display window W 5 7 C on the screen center position PO c based on whether there is an end instruction from the user or a predetermined time has passed. It is determined whether or not to end the process. If an affirmative result is obtained, the process proceeds to the next step SP 1 1 0 to end the display process of the display window W 5 7 C.
  • step SP 1 0 9 the microphone mouth processor 3 displays the display window W 5 7 C at the screen center position P 0 c. Step SP without ending the processing 1 0 Return to 1 and repeat the above process.
  • the microprocessor 3 of the image processing apparatus 2 is fixing the display window W 5 7 C to the screen center position PO c while displaying the playback image of the video display in the display window W 5 7 C.
  • the 3D display space and other display windows W 5 7 are moved and displayed according to the feature quantity of the still image to be updated.
  • the microprocessor 3 of the image processing apparatus 2 does not necessarily have a large display size of the plurality of display windows W 5 7 constituting the image group 5 8, so that the display window W 5 7 Even when a video playback image is displayed, it may not be possible for the user to check the image sufficiently.
  • the image processing apparatus 2 displays, for example, the display window W out of a plurality of display windows W 5 7 constituting the image group 58.
  • a selection operation such as double-clicking 5 7 1 or W 5 72 is performed by the user, the video data displayed in the display window W 5 7 1 or W 5 7 2 A large live image should be displayed Launch a sub-browser, and display window W 5 7 1, W for the enlarged display window BW 5 7 1, BW 5 7 2 by the sub-browser
  • the same playback video as 5 7 can be enlarged.
  • the image processing device 2 is able to display the playback image very small depending on the location and screen size of the display windows W 5 7 1.
  • the microprocessor 3 of the image processing apparatus 2 is arranged so that the enlarged display windows BW 5 71 and BW 5 7 2 are arranged around the display unit 5 5, and the display window W 5 7 1 And the enlarged display window BW 5 7 1 are displayed in the same color and the display window W 5 7 2 and the enlarged display window are displayed.
  • the display frame of BW 5 7 2 is colored and displayed in the same color different from the display frame of the display window W 5 71 and the enlarged display window BW 5 71.
  • the microprocessor 3 of the image processing device 2 displays to the user the reproduced video displayed in the enlarged display window BW 5 71 or BW 5 7 2 in any of the image groups 5 8. Whether the display window is W 5 7 1 or W 5 7 2 can be easily discriminated by the display frame of the same color.
  • the microprocessor 3 of the image processing apparatus 2 has the enlarged display window BW 5 71 and BW 5 72 arranged so as to be arranged around the display unit 55. If the number of windows BW 5 7 1 and BW 5 7 2 becomes too large, the display window W 5 7 of the image group 5 8 will be hidden, so the enlarged display window BW 5 7 1 When the number of BW 57 2 exceeds the specified value, the screen size is reduced by reducing the vertical and horizontal sizes. '(6) Display window path display processing
  • the 3D display is performed every time a plurality of pictures (still images) constituting the video display are updated. Since the display is performed while changing the coordinate position in the space, the position of the display window W 5 7 at a certain moment often moves to a very distant position after a predetermined period of time. In such a case, the user may not be able to fully remember the features that the playback video had in the past, and may not be able to fully recognize the features (trends) of the video. It is done.
  • the image processing device 2 displays the playback image of the video data in the display window W 5 7 and moves the display window W 5 7 in the 3D display space.
  • W 5 7 By displaying the movement progress of the display window W 5 7 as a trajectory in the 3D display space, W
  • the microprocessor 3 of the image processing unit 2 displays the entire trajectory when the video display window W 5 7 moves and displays in the direction of the arrow every time a still image is updated.
  • the display window W 5 7 arranged according to the currently displayed still image has moved in the past, and the future in which the display window W 5 7 will move
  • the locus is displayed as a line.
  • the microprocessor 3 of the image processing apparatus 2 changes with the movement of the display window W 5 7 when the still image of the display window W 5 7 is updated.
  • a line generated by connecting the center of gravity points of the display window W 57 is displayed as a past locus, for example, in red.
  • the microprocessor 3 of the image processing apparatus 2 displays the future trace, based on the feature amount of the still image scheduled to be updated in the display window W57.
  • the coordinate parameter spot position
  • the generated lines are displayed as the future trajectory, for example, in blue. .
  • the past trajectory presented behind the display window W57 is displayed with a red line, and the future trajectory presented ahead is displayed with a blue color.
  • the display window W 57 can be instantly and intuitively recognized in which direction the display window W 57 will move and display.
  • the microprocessor 3 of the image processing apparatus 2 does not display the past trajectory and the future trajectory by color, but displays the past trajectory as a solid line and displays the past trajectory as a broken line.
  • the trajectory may be expressed by various display methods.
  • the microprocessor 3 of the image processing apparatus 2 displays both the past and future trajectories of the display window W 5 7, but this is not restrictive. By selecting the mode, it is also possible to display only the past or future trajectory.
  • the microprocessor 3 of the image processing device 2 enters from the start step of the routine RT 9 and moves to the next step SP 1 6 1 to identify the video display to display the locus selected by the user, and Go to step SP 1 6 2.
  • step SP 1 62 the microprocessor 3 of the image processing device 2 recognizes the center of gravity in the display window W 5 7 at the position corresponding to each still image constituting the video data, and the next step ⁇ Move to SP 1 6 3.
  • step SP 1 63 the microprocessor 3 of the image processing apparatus 2 connects the center of gravity point recognized in step SP 1 62, thereby moving the trajectory when the video data display window W 5 7 moves. Generate a line representing, and go to the next step SP 1 6 4.
  • step SP 1 6 the microprocessor 3 of the image processing device 2 selects the past trajectory display mode for displaying the past trajectory by the user. If an affirmative result is obtained, the process proceeds to the next step SP 1 65, where the line past the current display window W 5 7 is displayed as a trajectory, and then step Move to SP 1 6 9 to finish the process.
  • step SP 1 6 4 if a negative result is obtained in step SP 1 6 4, this means that the user can display the future trajectory display mode that displays the future trajectory or all past and future trajectories. This indicates that the trajectory display mode is selected.
  • the microprocessor 3 of the image processing apparatus 2 proceeds to the next step SP 1 6 6.
  • step SP 1 6 6 the microprocessor 3 of the image processing apparatus 2 determines whether or not the future trajectory display mode has been selected by the user, and if a positive result is obtained, the next step SP 1 6 7 The process moves to step SP 1 6 9 after the line on the future side of the current display window W 5 7 is displayed as a trajectory, and the process ends.
  • step SP 1 6 6 if a negative result is obtained in step SP 1 6 6, this indicates that the entire trajectory display mode has been selected by the user.
  • the processor 3 moves to the next step SP 1 68, displays all the trajectories composed of the past and future lines on the current display window W 5 7, and then moves to step SP 1 6 9. To complete the process.
  • the display window W 5 7 currently displayed is displayed as shown in FIG. Only the future side, that is, the line ahead Since it is displayed, it is possible to give the user the impression that the moving object is moving forward while illuminating it with a light.
  • the microprocessor 3 of the image processing device 2 displays the trajectory on the future side, it does not display the entire trajectory up to the end position PO e (Fig. 36) from the beginning. It is also possible to display a line of a certain length ahead of the display window W 5 7 as a locus on the future side, so that at any end position P 0 e Rather than telling the user from the beginning whether to place the display window W 5 7
  • the microprocessor 3 of the image processing apparatus 2 displays the current display window as shown in FIG. 40 when displaying all the past and future trajectories for the display window W57. Since the lines representing the trajectory are displayed in front of and behind W 57, it is possible to give the user an impression as if the train is moving on the track.
  • the microprocessor 3 of the image processing apparatus 2 can arbitrarily select a trajectory display method when the display window W 5 7 moves and displays from among three types according to the user's selection.
  • the features (trends) of each still image in the video display can be presented by the trajectory that is most easily recognized by the user. '.
  • the microprocessor 3 of the image processing device 2 is not limited to the display window W 5 7 during moving display as shown in FIG.
  • the display window displaying the still image at the start position PO s of the video and the end position P 0 e of the display window W 57 at the end of video data playback.
  • the windows W 5 7 s and W 5 7 e are displayed on the screen.
  • the display window W5 7 first displays which of the three-dimensional display spaces. After being placed at position P 0 s, the display window W shows the overall flow of the position at which P 0 e is finally placed in the 3D display space and the video data playback process ends. 5 It can be intuitively recognized as an image through the entire trajectory from the start to the end of 7.
  • the microprocessor 3 of the image processing device 2 displays the still images at that time at the start position P 0 s and the end position P 0 e. W 5 7 s, W 5 7 It does not mean that e should always be displayed, but it can also be prevented from being displayed by the user's selection operation.
  • the microprocessor 3 of the image processing apparatus 2 is configured so that when the all-window display button Z 1 (FIG. 36) provided near the start position P 0 s is double-clicked by the user, 4 As shown in Fig. 5, the display window W 5 7 (W 5 7 s to W 5 7 is determined by each of the multiple 'pictures (still images) that make up the video data. e) is displayed at predetermined intervals or all of them, so that multiple display windows W 5 7. (W 5 7 s to W 5 7 e)) can be presented to the user as a feature (trend) of the video overnight.
  • the display window W 5 7 The playback process is started, and the playback video up to the end position PO e display window W 5 7 e is previewed.
  • the image processing apparatus 2 displays the moving image while updating the still image in the display window W 5 7 from the start position PO s to the end position PO e by playing the video data.
  • the microprocessor 3 of the image processing device 2 can be clicked on any point on the trajectory line even while the display window W 57 corresponding to the video display is moving.
  • the display window W 5 7 that has been moved and displayed until then disappears from the viewpoint of legibility and appears on the locus line. Only one display window W 5 7 is moved and displayed. However, if it is determined by the user that the image processing apparatus 2 does not impair visibility, a plurality of display windows W 5 7 can be selected to move and display on the locus ⁇ . It is also possible.
  • the microprocessor 3 of the image processing device 2 moves and displays two display windows W 5 7 in parallel on the locus as shown in FIGS. This makes it easier to search for the desired scene.
  • the microprocessor 3 of the image processing apparatus 2 displays a still image display window previously set as a representative scene at a predetermined position on the locus line of the display window W 5 5.
  • the windows W 5 7 a, W 5 7 b, W 5 7 c, and W 5 7 d can also be displayed.
  • the user can display a still image of a representative scene in the display window W 5 7.
  • the display windows W 5 7 a, W 5 7 b, W 5 7 c, and W 5 7 d are displayed on the trajectory. If a still image of a representative scene display window W 5 7 a, W 5 7 b, W 5 7 c ⁇ W 5 7 d is visually checked, the overall trend of video display In addition to being able to grasp easily, it is also possible to easily grasp the tendency of the characteristics of individual representative scenes.
  • the microprocessor 3 of the image processing apparatus 2 can easily realize the trajectory display processing for displaying the representative scene as described above. .
  • the image processing apparatus 2 is configured to display the display window W 5 7 of a representative scene.
  • the present invention is not limited to this, and the display window W 5 7 remains at a fixed interval. It can also be displayed. In this case, the user can see the still image displayed in the display window W5 7 at regular intervals, so that the video using the display window W5 7 can be visually confirmed. Even after the overnight playback process is completed, the characteristics (trends) of the video display can be immediately grasped via the display window W 5 7 that is displayed at regular intervals. Has been made.
  • the image processing apparatus 2 is displaying a video image of the video display via the display window W 5 7 as shown in FIG. 45, in which a scene change or flash (hereinafter, representative) If the feature amount of the still image before the scene change and the feature amount of the still image after the scene change greatly change, the display window before the scene change W 5 7 before to display window after scene change W 5 7 after may jump a lot.
  • a scene change or flash hereinafter, representative
  • the image processing apparatus 2 performs coordinate correction processing as described above. Execute SRT 1 (Fig. 24) and jump from display window W5 7 before to display window W5 7 after, but move step by step as you approach the target destination The display window at the time of scene change is made to visually confirm the movement from W5 7 before to W5 7 after the distance is gradually shortened. Even so, the above-described coordinate correction processing procedure can be executed.
  • the microprocessor 3 of the image processing device 2 does not cause the display window W 5 7 to jump on the trajectory line, but instead displays the scene from the position of the display window W 57 before before the scene change.
  • Display window after change W5 7 The display moves to the after position in stages, but only this display window W 5 7 that is displayed in stages is displayed in a translucent color, for example. Or highlighting such as blinking.
  • the microprocessor 3 of the image processing apparatus 2 displays both the display window W 57 before before the scene change and the display window W.57 after the scene change.
  • the contents before and after the scene change can be visually confirmed by the user at all times.
  • the microprocessor 3 of the image processing apparatus 2 does not perform the coordinate correction processing procedure SRT 1 described above, but the still image after the scene change between the position before the scene change and the position after the change. It is also possible to repeatedly move and display images at regular intervals using the display window W5 7 after, which displays the moving display speed extremely slower than the jump speed.
  • the microprocessor 3 of the image processing device 2 is displayed in the position of the display window W5 7 before before the scene change as shown in Fig. 46 (A).
  • the display window W after the scene change to the position of the 57 57 position L 2 and the movement time t 2 of the display window W 5 7 relative to the distance L 2 are displayed in a linear relationship.
  • the moving display speed may be set so that the distance L 2 and the moving time t 2 have a non-linear relationship as shown in FIGS. 46 (B) and (C). .
  • the microprocessor 3 of the image processing apparatus 2 moves and displays in stages from the display window W57 before before the scene change to the display window W5 after after the scene change.
  • the display window W 57 can be moved and displayed in a variable speed state so that the movement display speed is gradually reduced.
  • the microprocessor 3 of the image processing device 2 recognizes that the display window W 57 being displayed on the trajectory line is clicked by the user, the feature of the still image at that time is displayed.
  • the display window W 5 7 is displayed for a few seconds or semi-permanently at a position determined according to the amount, and when it is clicked again, the display window W 5 7 is deleted. Or, the playback video of the display window W5 7 can be resumed from that point.
  • the microprocessor 3 of the image processing apparatus 2 reproduces the video window through the display window W57, thereby displaying the display window W57 in the three-dimensional display space.
  • the time code display frames TWl to TWn in the display window W5 7. can be displayed at the position on the locus line.
  • the microprocessor 3 of the image processing device 2 reads the time code information attached to the video data displayed in the time code display frames TWl to TWn from the video file MDF of each still image. Read out, that Using the read time code information, the time code of the evening code display frames TW 1 to TW n is displayed.
  • the microprocessor 3 of the image processing apparatus 2 does not necessarily display the trajectory line, but displays a still image display window W 5 7 composed of a representative scene and an end position PO e display window W 5 7 ⁇ . Even when the remaining display is being performed, the time code at that time is provided by the time code display frames TW 3 and T We for the display windows W 5 7 and W 5 7 e. It is made to show.
  • the image processing device 2 not only displays the trajectory when the display window W 57 is moved according to the video data playback video, but also the position on the trajectory line and the display window.
  • the time information of video data can be presented to the user via the time code display frames TW 1 to TWn to TW e attached to W 57. Therefore, the time code display frames TW 1 to TW 4 can be used. It is designed to allow the user to perform a search operation for a desired scene while allowing the user to recognize the time course of the video overnight.
  • microprocessor 3 of the image processing device 2 displays the moving image of each display window W 5 7 when video data with very similar characteristics is played back using the respective display window W 5 7. This also shows very similar results with respect to the trajectory, and in this case, three very similar trajectories are displayed.
  • the image processing device 2 In addition to displaying the trajectory when the display window W 5 7 is moved and displayed in accordance with the playback video of the video data, the image processing device 2 ,,, "..,,
  • the display window W 5 7 can be displayed while changing its size and shape, and this point will be explained.
  • the microprocessor 3 of the image processing device 2 is, for example, as shown in Fig. 48 (A): In the 3D display space where RGB color components are set as parameters of the display axis, video data When the display window W 5 7 is moved and displayed along its trajectory, the video file of each still image composing the video data is displayed as the feature parameter of the display axis from the MDF. As a parameter other than the feature values in the RGB color component being used, for example, the feature value of still image detail information is also acquired, and the feature value of the detail information is a predetermined threshold value. If it exceeds, the display size of the display window W 57 corresponding to the still image at that time is enlarged and displayed at a predetermined magnification, as shown in FIG. 48 (B).
  • the microprocessor 3 of the image processing device 2 sets the display size of the display window W 5 7 as shown in FIG. 48 (C) when the feature amount of the still image fineness information is less than a predetermined threshold. Reduced display to a predetermined magnification.
  • the microprocessor 3 of the image processing device 2 displays the display window W in the case of a still image containing many high-frequency components such as when the feature amount of the fineness information exceeds a predetermined threshold.
  • the microprocessor 3 of the image processing device 2 makes it easy for the user to view even if the image size is reduced in the case of a still image that contains almost no high-frequency components whose fineness information features are less than a predetermined threshold. In view of this, it is judged that there is little change, and the processing window can be reduced by reducing the display window W57.
  • the display size of the display window W57 is enlarged or reduced by using the fineness information of the still image as a parameter overnight except for the color components constituting the display axis.
  • the display size of the display window W57 can be enlarged or reduced by using various other features such as the amount of movement, hue, audio level, etc.
  • the display size of the display window W57 The display frame shape of the display window W 57 may be modified and displayed, or both the display size and the display frame shape may be controlled. good. (7) Operation and effect
  • the microprocessor 3 of the image processing apparatus 2 displays the video / video playback video on the display window W 57, and generates a 3D display space generated by the display axis selected by the user.
  • the display window W 5 7 is sequentially classified and arranged every time the frame is updated according to the feature amount of each still image constituting the video data.
  • the image processing device 2 every time the frame of the video data is updated, the feature amount changes and the coordinate position of the destination 3D display space changes, so that it is displayed on the 3D display space.
  • Window W 5 7 can be moved and displayed as if floating.
  • the playback that shows the sea is displayed.
  • the image display window W5 7 the video window shot on the beach is moved to the area where there are many display windows W57, and then the still image where the mountains are projected
  • the display window W 5 7 moves to the area where many display windows W 5 7 shot in the forest are placed, and the building is displayed.
  • the display window W5 7 will move to the area where many video display windows W5 7 shot in the city center are located. .
  • the display window W 5 7 Since the movement of the display window W 5 7 itself represents the characteristics of the video display, the display window W 5 7 3 ,
  • the image processing apparatus 2 even if only the first image is displayed as a thumbnail among a plurality of still images constituting video data as in the conventional case, it does not always indicate the tendency of video data.
  • the display window W 5 7 is moved and displayed in accordance with the change in the feature amount of each still image that constitutes the video, the movement is displayed. By letting a user recognize it as a message, the user can accurately understand the characteristics (trends) of the video and can easily manage and search the video.
  • the image processing device 2 displays the 3D image after the scene change or flash from the position in the 3D display space before the scene change or flash. Instead of jumping the display window W 5 7 to a position in the space, the display window W 5 7 is moved and displayed while gradually decreasing the distance. It is possible to prevent the display window W 5 7 from coming off and losing sight of the display window W 5 7, and to prevent the movement image of the display window W 5 7 from being interrupted by the user. In addition, if the image processing device 2 plays back simultaneously using the display window W 5 7 corresponding to each of the plurality of video images, the display corresponding to the video data of the similar feature amount every time the frame is updated.
  • Windows W 5 7 will gather in a specific area in the 3D display space, and the characteristics (trends) of these multiple video data will be collected or distributed in the 3D display space. Through the arrangement of the plurality of display windows W 57, the user can intuitively and easily recognize them.
  • the image processing device 2 reproduces the video by playing the video data.
  • the display window W5 7 is placed in the 3D display space
  • the display axis parameters that make up the 3D display space are changed according to the user's instructions. It is possible to create a new 3D display space and change the layout of the display window W 5 7 displayed on it, and display it according to the parameters desired by the user. You can freely change the placement results of the window W 5 7 and present them.
  • the image processing apparatus 2 displays the past side trajectory, the future side trajectory, and both the past side and future side trajectories according to the user's selection operation in accordance with the moving display of the display window W 57.
  • the image processing apparatus 2 displays the past side trajectory, the future side trajectory, and both the past side and future side trajectories according to the user's selection operation in accordance with the moving display of the display window W 57.
  • the display window W5 7 By displaying it together with the display window W5 7, it is possible to visualize the movement when the display window W5 7 has moved in the past in the 3D display space and the future movement to be moved in the future. Since the user can simply compare the trajectories of the display windows for multiple video data W 57, the multiple video data tend to be similar or have different tendencies. Can be intuitively understood as an image of the locus ⁇ line.
  • the image processing apparatus 2 arranges display windows W 5 7 corresponding to the video data on the display section 5 5 of the edit screen, and displays them as an image group 5 8, but the display section 5 5 has a three-dimensional display space.
  • the display axis is not displayed, and all the display windows W 57 are arranged so as to face the user's line of sight. make it easy to understand that Do W 5 7 is placed in the 3D display space.
  • the image processing device 2 when video data is reproduced, the feature amount of the updated still image changes when the individual still images constituting the video data are updated.
  • the display window W5 7 can be moved and displayed in accordance with the change in the feature of the picture while changing the relative positional relationship between the display window W5 7 and the 3D display space.
  • the present invention is not limited to this, and is applied to a mere computer and a video camera.
  • the present invention is not limited to this, and is applied to a mere computer and a video camera.
  • FIG. 9 a two-dimensional display space may be generated, and the display window W 5 7 may be arranged in this space, or the trace of the display window W 5 7 may be displayed.
  • the picture (still image) constituting the video display itself has the R (red), B (blue), and luminance display axes.
  • the parameter display is a three-dimensional display space.
  • Audio information associated with a still image is used as a parameter for the display axis, or time information is used as a parameter for the display axis.
  • 4D By aligning the 3D display space with B (blue) as the display axis and the 3D display space with the movement amount, DCT vertical frequency, and DCT horizontal frequency as the display axes, along the time axis, 4D Generate a display space and place the video display window W 5 7 in the 4D display space or move the video display display window W 5 7 as playback processing is performed. Can be made.
  • the display window W 57 is moved and displayed in the three-dimensional display space in accordance with the reproduction of the video data.
  • the present invention is not limited to this.
  • the display window W 5 7 is passed in accordance with the user's left / right operation on the knob 6 7 of the bar 6 6 provided on the display section 55 of the editing screen 50. You may make it move and display along the trajectory to the other side or the future side.
  • the user can freely control the position in the three-dimensional display space of the display window W 57 according to his / her own intention, making it easier to search and edit the desired scene. Can be executed.
  • the present invention is not limited to this, and the image group 5 8 For the display windows W 5 7 that are not visible, the playback speed of the still images that make up the video data is reduced to make the playback speed extremely slow, the resolution is not reduced, and the still images are not updated. May be displayed, or nothing may be displayed.
  • the image processing apparatus 2 can reduce the processing load of the microprocessor 3 to the extent that it is not necessary to execute the reproduction display process for the display window W 57 that cannot be visually confirmed by the user.
  • time code notification frame TW (FIG. 47) is displayed on the locus line or in the display window W 57 has been described. Not limited to the user's recognition of elapsed playback time If possible, various other notification frames such as a frame number notification frame and a field number notification frame can be displayed on the track and on the display window W57.
  • a feature parameter or an accessory parameter is obtained for each picture (still image) of a video image, but a feature parameter or an accessory parameter is obtained for each of a plurality of pictures.
  • it can be calculated as multiple pictures, for example, every GOP (unit).
  • the average value of the feature parameters of all the pictures that make up the 1 GOP, the feature parameters of the I picture of the pictures that make up the 1 GOP (attached parameters), the features of the 1 G 0 P It can be adopted as a paramete evening.
  • the feature parameter overnight or the accessory parameter overnight is obtained as a plurality of pictures, for example, when 1 G 0 P is obtained and stored as the night, the feature parameter overnight for each picture is stored.
  • the accessory parameter is stored as “meyu”, it is possible to reduce the size of the “me evening”, and the processing required for analyzing the “me”. Can alleviate the burden.
  • the feature parameters and the accessory parameters for each picture or G 0 P are calculated in the MPEG format. It can be included in a picture or a G 0 P header in a picture in the resulting video stream.
  • the feature parameters of the video (still image) constituting the video data have been described.
  • the parameters that are connected (attached) to the video device are also described. Applicable. For example, time information indicating the time when the video was captured or recorded, video ,
  • Location information (latitude / longitude information) when capturing or recording the video, identification information identifying the owner or creator of the video video, users accessing the video video over the Internet
  • Identification information that identifies the number of accesses made to the video data, group identification information when the video data is grouped, face identification information that identifies a person's face included in the video data, video data Title included in the evening ⁇ Includes category, keystrokes, or caption information.
  • concise here means that it is only possible to link the overnight and the parameters related to this data (metadata) to each other. For example, information that identifies video data on a parame- ter (meta data) or picture number of video data that is recorded on different recording media or transmitted on different transmission paths. Can be made to correspond to each other later. In the present embodiment, it is said that “concatenation” (accompanying) includes such a case.
  • the video data provided from multiple users 1 to N are collectively managed by the server (video DB, main video / video DB).
  • each user can consider an application that accesses and checks the content of the video they are interested in via the network.
  • the data base can manage the above-mentioned accompanying parameters for each video data. For example, when the number of accesses indicating the number of accesses to video data is included in the accompanying parameters, the display size of the display window is changed in accordance with the increase or decrease in the number of accesses (for example, the threshold for the number of accesses is set in advance). For larger video data, As popular video data, the corresponding display window size can be enlarged and the display window can be highlighted.
  • the attached parameter includes identification information that identifies the owner or creator of the video data, a display space can be set for each user. It is also possible to create a display space for each video category.
  • the display window W 5 7 ⁇ 2 / W 5 7 _ 5 / W 5 7 ⁇ 6 is displayed on the display window W 5 7 _ l / W 5 7 ⁇ 3 / W It is displayed larger than 5 7 _ 4. This indicates that there are many accesses to the corresponding video device.
  • FIG. 50 it has been described that the four-dimensional display space is generated using the time axis.
  • various display modes can be realized by using the above-mentioned accompanying parameters. For example,
  • the location information (latitude 'longitude) generated by linking to video data by GPS etc. is included in the accompanying parameters, the location information is added as a display axis as shown in Fig. 54. It is also possible to create a display space in which the video data and the 3D display space move in conjunction with changes in position information.
  • the display space can also be created for each group, with the video data that includes location information in a specific range as a group.
  • applications such as video posting sites and social networking services (SNS) can view the display space generated for each group as a community.
  • SNS social networking services
  • the image processing apparatus includes, for example, a video camera, a digital camera, a game device, a portable information terminal (a portable computer, a mobile phone, a portable game device), a storage device, and a digital device (for example, Optical disk device, home server), processing board equipped with the function according to the invention, and processing power.
  • the casing, the signal processing unit, and the external interface are configured in common, and the peripheral devices according to the product form are combined.
  • the camera unit and a writing circuit for storing the captured video data in a storage medium are provided.
  • a transmission / reception circuit has an antenna in addition to the above-described structure.
  • the microprocessor 3 activates the video processing program stored in the hard disk device 7 so that the display window W 5 is moved and displayed on the three-dimensional display space.
  • the present invention is not limited to this. By installing a program storage medium in which a video processing program is stored in the microprocessor 3, the above-described transfer, moving display processing, and the like are executed.
  • the above-described transfer, moving display processing, and the like are executed.
  • CD -ROM CD om act D isc -R ead On ly M emor
  • D VD D igital V ersatile
  • a wired and wireless communication medium such as a local area network, an internet connection, a digital satellite broadcasting, or the like may be used. It may be stored via various communication interfaces such as a modem or a modem.
  • the image processing apparatus 2 as the image processing apparatus of the present invention is made up of a display space generation means, a micro-processor 3 as a conversion means, a microprocessor 3 as a classification arrangement means, and a GPU.
  • the present invention is not limited to this, and the image of the present invention is not limited to the display space generating means, the converting means, and the classifying arrangement means having various circuit configurations. You may make it comprise a processing apparatus.
  • the image processing apparatus and the image processing method of the present invention can be widely applied to various image processing apparatuses that reproduce video data and display it on a display screen.

Abstract

本発明は、ビデオデータに対する検索や管理等を容易に実行させ得るようにする。本発明は、ビデオデータ又はオーディオデータ特徴を示す特徴パラメータ、又は、ビデオデータ又はオーディオデータにリンクする付随パラメータを、ビデオデータともに取得し、取得された特徴パラメータ又は付随パラメータを表示軸とする表示空間内において、特徴パラメータに示される特徴値又は付随パラメータに示される付随値から変換された座標パラメータを利用して、ビデオデータを表示空間内で表示ウィンドウ上に表示させるように、取得された特徴パラメータ又は付随パラメータをメタデータとして生成するようにする。

Description

画像処理装置及び画像処理方法 技術分野
本発明は、 画像処理装置及び画像処理方法に関する。 背景技術
従来、 人 ·物や風景などの被写体を、 撮像装置を用いて撮像し、 撮像 した静止画を J P E G規格又は J P E G 2 0 0 0規格等で圧縮して記録 メディアに保存している。 そして、 記録メディアとしては、 撮像装置に 内蔵されている内蔵メモリ、 撮像装置と着脱可能なリム一バブルメディ ァなどが存在する。
そして、 ユーザは、 コンピュータなどを用いて、 記録メディアに保存 された静止画データを、 ハードデイスクゃ光ディスクなどの大容量記録 メディアにまとめて保存する (アーカイブする) している。 さらに、 近 年では、 ネッ トワーク技術の進歩により、 高帯域回線 ·高速回線といつ たブロードバンド回線が比較的普及している状況である。 ユーザは、 こ のようなブロードバン ド回線を利用して、 デ一夕量の多い静止画を、 電 子メールで送信したり、 一般的な W e bサイ ト及び個人や数人のグル一 プで運営 ·更新される日記的な W e bサイ ト (B 1 0 g : ブログ) など に掲載したり している。
上記のような様々な利用形態を想定して、 ュ一ザは、 画像管理ソフ ト ウェアなどを用いて、 大容量記録メディァに保存された多数の静止画を、 閲覧 ·検索しやすいように、 撮像日時等で分類分けをしながらして管理 している。 そして、 ユーザは、 必要に応じて、 画像編集ソフ トウエアを 用いて、 目的の静止画を編集している。 また、 地上波ディ ジ夕ル放送 · ディ ジタル衛星放送等により提供され る番組、 ネヅ トワーク配信等によ り提供される番組を、 ハードディスク や光ディスクなどの大容量記録メディ ァ記録し、 必要に応じて視聴する コンビユー夕ゃセヅ ト トップボックスも存在する。
ユーザは、 このように記録した番組を視聴する場合に、 多数の番組の 中から特定の番組を検索した上で、 検索した特定の番組中の特定のシー ンだけを視聴したい場合が考えられる。 この場合、 多数の番組を録画日 時 · 番組カテゴリ (スポーツ · ドラマ ·報道等) で分類分けして表示す るとともに、 各番組の各シーンの先頭画面を静止画像によりサムネイル として表示して、 ユーザの選択によ り対応するシーンを再生する。
以上のように、 静止画データや録画した番組データの数が増えるほど、 多数のデータの中から特定のデータを検索することが困難になることか ら、 ユーザにとって分かりやすく · 使い勝手のよい表示形態に関する技 術が提案されている (例えば、 特許文献 1〜特許文献 3参照) 。 さらに、 静止画自体を解析し、 解析して得られた特徴量に応じて、 表示画面上に 分類して配置する表示形態も存在する。 特許文献 1 WO 2 0 0 0/ 0 3 3 4 5 5号公報。
特許文献 2 WO 2 0 0 0/ 0 3 3 5 7 0号公報。
特許文献 3 WO 2 0 0 0 / 0 3 3 5 7 2号公報。 しかしながら、 従来の表示形態では、 撮像日時 · 録画日時 . カテゴリ 等によ り、 静止画デ一夕や番組データを単純に分類して表示するだけで は、 静止画データや録画した番組データの数が膨大になる場合には、 ュ 一ザにとって分かりやすく · 使い勝手のよい表示形態としては不十分で ある。
さらに、 扱う対象のデータが動画 (ビデオデ一夕) である場合に、 ュ —ザにとって分かりやすく ' 使い勝手のよい表示形態として、 具体的に どのように分類 · 配置するのか等に関する技術は提案されていない。 ま た、 従来の表示形態では、 動画全体がどのような特徴を有しているのか、 ユーザの求める特定のシーンが動画全体のどこに含まれているのか等を ユーザにとって直感的に認識させるには、 使い勝手が悪いという問題が あった。 発明の開示
本発明は、 以上の点を考慮してなされたもので、 ビデオデータに対す る検索や管理等を容易に実行させる画像処理装置及び画像処理方法を提 案する。
かかる課題を解決するため本発明は、 画像処理琴置であって、 ビデオ デ一夕又はオーディオデ一夕特徴を示す特徴パラメ一夕、 又は、 ビデオ デ一夕又はオーディォデ一夕にリ ンクする付随パラメ一夕を、 ビデオデ —夕ともに取得し、 取得された特徴パラメ一夕又は付随パラメ一夕を表 示軸とする表示空間内において、 特徴パラメ一夕に示される特徴値又は 付随パラメ一夕に示される付随値から変換された座標パラメ一夕を利用 して、 ビデオデータを表示空間内で表示ゥイ ン ドウ上に表示させるよう に、 取得された特徴パラメ一夕又は付随パラメ一夕をメ夕デ一夕として 生成するようにした。 . ' '
また本発明は、 画像処理方法であって、 ビデオデータ又はオーディオ デ一夕特徴を示す特徴パラメ一夕、 又は、 ビデオデ一夕又はオーディオ デ一夕にリ ンクする付随パラメ一夕を、 ビデオデータともに取得し、 取 得された特徴パラメ一夕又は付随パラメ一夕を表示軸とする表示空間内 において、 特徴パラメータに示される特徴値又は付随パラメ一夕に示さ れる付随値から変換された座標パラメ一夕を利用して、 ビデオデ一夕を 表示空間内で表示ウィ ン ドウ上に表示させるように、 得された特徴パ ラメータ又は付随パラメ一夕をメ夕データとして生成するようにした。 本発明によれば、 ビデオデ一夕を、 ユーザにとって分かりやすく ·使 い勝手のよい形態で表示させることができ、 ビデオデ一夕の特徴をュ一 ザにとって直感的に認識させることができるので、 ビデオデ一夕に対す る検索や管理等を容易に実行させることができる。 図面の簡単な説明
図 1は、 本発明における画像処理装置の構成を示す略線的プロック図 である。
図 2は、 本実施の形態による編集画面の構成を示す略線図である。 図 3は、 画像群を示す略線図である。
図 4は、 マイクロプロセヅサ及び G P Uによるビデオデ一夕の表示機 能を実現する第 1構成例を示す略線的プロック図である。
図 5は、 マイクロプロセッサ及び G P Uによるビデオデ一夕の表示機 能を実現する第 2構成例を示す略線的ブロック図である。
図 6は、 マイクロプロセヅサ及び G P Uによるビデオデータの表示機 能を実現する第 3構成例を示す略線的プロック図である。
図 7ほ、 メ夕デ一夕抽出部の構成を示す略線的プロック図である。 図 8は、 平均値算出部の処理の説明に供する略線図である。
図 9は、 動き検出部の処理の説明に供する略線図である。
図 1 0は、 動き検出部の他の構成例を示す略線的プロック図である。 図 1 1は、 動き情報算出部の処理の説明に供する略線図.である。
図 1 2は、 周波数分析部の構成例を示す略線的プロック図である。 図 1 3は、 細かさ情報算出部の処理の説明に供する略線図である。 図 1 4は、 H L S空間の説明に供する略線図である。
図 1 5は、 メ夕データフアイルの具体的内容を示す略線図である。 図 1 6は、 ビデオデ一夕を構成するピクチャ (静止画像) の表示処理 手順を示すフローチャー トである。
図 1 7は、 3次元表示空間の表示軸を示す略線図である。
図 1 8は、 D C T横周波数軸寄りに配置された画像群のズームァヅプ 表示例を示す略線図である。 ·
図 1 9は、 ; R軸寄りに配置された画像群のズームアツプ表示例を示す 略線図である。
図 2 0は、 G軸寄りに配置された画像群のズームアツプ表示例を示す 略線図である。
図 2 1は、 ビデオデータの表示処理手順を示すフローチヤ一トである。 図 2 2は、 複数のビデオデ一夕に対する表示処理手順を示すフローチ ャ一トである。
図 2 3は、 表示ウィンドゥの動きの説明に供する略線図である。
図 2 4は、 座標補正処理手順を示すフローチャートである。
図 2 5は、 シーンチヱンジを示す略線図である。
図 2 6は、 シーンチェンジのときの表示ウイ ンドウの移動の説明に供 する略線図である。
図 2 7は、 再配置処理手順を示すフローチャートである。
図 2 8は、 再配置前後の画像群を示す略線的斜視図である。
'図 2 9は、 グループ表示処理の説明に供する略線図である。
図 3 0は、 グループ表示処理手順を示すフローチヤ一トである。
図 3 1は、 表示ウィ ン ドウを固定したまま 3次元表示空間を動かした ときの表示例 ( 1 ) を示す略線図である。
図 3 2は、 表示ウィン ドウを固定したまま 3次元表示空間を動かした ときの表示例 ( 2 ) を示す略線図である。
図 3 3は、 表示ウィ ン ドウを固定したまま 3次元表示空間を動かした ときの表示例 ( 3 ) を示す略線図である。
図 3 4は、 表示ウィン ドウを固定したビデオデ一夕の表示処理手順を 示すフローチャートである。
図 3 5は、 拡大表示ウイ ンドウにおける表示例を示す略線図である。 図 3 6は、 全軌跡表示モードの表示パターン ( 1 ) を示す略線図であ る。
図 3 7は、 軌跡表示処理手順を示すフローチャートである。
図 3 8は、 過去側の軌跡表示を示す略線図である。
図 3 9は、 未来側の軌跡表示を示す略線図である。
図 4 0は、 全軌跡表示を示す略線図である。
図 4 1は、 全軌跡表示モードの表示パターン ( 2 ) を示す略線図であ る。
図 4 2は、 全軌跡表示モードの表示パターン ( 3 ) を示す略線図であ る。
図 4 3は、 全軌跡表示モードの表示パターン ( 4 ) を示す略線図であ る。
図 4 4は、 代表的なシーンを用いた軌跡表示例を示す略線図である。 図 4 5は、 シーンチェンジを含む軌跡表示例を示す略線図である。 図 4 6は、 移動速度の制御例を示す略線図である。
図 4 7は、 タイムコードを付加した軌跡表示例を示す略線図である。 図 4, 8は、 表示ウイ ンドゥの制御処理の説明に供する略線図である。 図 4 9は、 他の実施の形態における 2次元表示空間の説明に供する略 線図である o
図 5 0は、 他の実施の形態における 4次元表示空間を示す略線図であ る。
図 5 1は、 他の実施の形態におけるつまみの動きと連動した表示ウイ ンドウの移動表示処理の説明に供する略線図である。
図 5 2は、 適用可能なアプリケーションの例の説明に供する略線図で ある。 図 5 3は、 付随パラメ一夕を利用した場合の表.示例 ( 1 ) を示す略線 図である。
図 54は、 付随パラメ一夕を利用した場合の表示例 ( 2 ) を示す略線 図である。
図 5 5は、 付随パラメ一夕を利用した場合の表示例 ( 3 ) を示す略線 図である。 発明を実施するための最良の形態
以下、 図面について、 本発明の一実施の形態を詳述する。
( 1 ) 本実施の形態による画像処理システムの構成
図 1に示すように、 1は全体として本実施の形態による画像処理シス テムを示し、 大き く分けて画像処理装置 2、 記憶装置 2 2及び複数台の ビデオテープレコーダ.2 3 1 23 n等から構成されている。
この画像処理システム 1においは、 ビデオテープに記録された A V
(Au d i o /V i s u a 1 ) デ一夕の一部又は全部をク リ ップとして 画像処理装置 2を介して R A I D (R e dund a n t A r r a s o f I nd e p e n d e n t D i s k s ) でなる大容量の記憶装置 2 2に取り込んだり、 或いはビデオテープに記録された静止画デ一夕に ついても記憶装置 2 2に取り込んだりするようになされている。
また、 この画像処理システム 1では、 記憶装置 2 2に取り込まれた A Vデ一夕を所望状態につなぎ合わせて所望の編集映像音声を得るための 編集内容を規定した編集リス トを作成でき、 さらにこの作成した編集リ ス 卜に従って実際に編集処理を実行し、 その結果得られた AVデータを 新たなク リ ヅプとして記憶装置 2 2に蓄積したり、 ビデオテープレコー ダ 2 3 1 2 3 nを介してビデオテープに記録した りするようになされ ている。
この場合、 画像処理システム 1においては、 マイ クロプロセッサ 3に 対して G P U 4、 XD R (E x t r e me D a t a R a t e ) — R AM 5及びサウスブリ ッジ 6が接続されると共に、 当該サウスブリ ッジ 6にハ一ドディスク装置 7、 U S Bイ ン夕フェース 8及びサゥン ド入出 カコーデック 9が接続されている。 このサウン ド入出力コ一デヅク 9に はスピーカ 4 1が接続されている。
また、 サウスプリ ヅジ 6には、 P C Iバス 1 5を介してマウス 3 8、 キーボード 3 9、 ビデオテープレコーダ 2 3 1〜 2 3 n、 記憶装置 2 2 及び操作コン トローラ 3 7が接続されている。 なお、 G P U 4にはディ スプレイ 4 0が接続されている。
ところで、 マイクロプロセヅサ 3は、 O S (O p e r a t i n g
S y s t e m) 等の基本プログラムを実行する汎用のメイン C P Uコ ァ 3 Mと、 当該メイン C P Uコア 3 Mに内部バス 1 2を介して接続され た複数 (この場合 8個) の R I S C ( e d u c e d I ns t r u c t i o n S e t C o mp u t e r) タイ プの ί雪号処理プ 口セヅサ (以下、 これをサブ C P Uコアと呼ぶ) 3 S A〜 3 S Hと、 例 えば 2 5 6 [MB y t e ] の容量を持つ XD R— R AM 5に対するメモ リコン トロールを行うメモリコン トローラ 1 3と、 サウスブリ ッジ 6 と の間でデ一夕の入出力を管理する I /0 ( I n/O u t ) コン ト ローラ 1 4とが 1チップに集積されたマルチコア構成でなり、 例えば動作周波 数 4 [ GH z ] を実現している。.
この画像処理システム 1のマイ クロプロセ ッサ 3は、 主に M P E G 2、 、 H . 2 6 4 /A V C (A d v a n c e d V i d e o
C o d i n g ) 等のコ一デックの役割を担い、 デコードした結果得られ るビデオデータの再生映像を G P U 4へデータ転送した り、 ビデオデ一 夕の再生映像に対する再生速度 (後述する) 等の設定を変更した り、 静 止画データを G P U 4へデ一夕転送したり、 或いは物理演算等を行うよ うになされている。 特に、 マイクロプロセッサ 3では、 8個のサブ CPUコア 3 SA〜 3 S Hが、 ビデオデータをエンコードして得られたビデオス ト リームに対 するデコーダの役割をそれぞれ担い、 当該 8個のサブ CPUコア 3 S A 〜3 S Hが HD (H i gh D e f i n i t i o n) のビデオス ト リー ムを並列的にデコー ドすることが可能である。
また、 メイ ン C PUコア 3Mは、 8個のサブ CPUコア 3 SA〜 3 S Hが行う以外の処理や管理を行うようになされており、 サウスブリ ッジ 6を介してマウス 38、 キ一ボード 3 9或いは操作コン トロ一ラ 3 7か ら供給された命令を受け付け、 当該命令に応じた種々の処理を実行する。 このようにマイクロプロセッサ 3は、 8個のサブ CP Uコア 3 SA〜 3 S Hによって同並列的にビデオス ト リームをデコードすることができ るようになされており、 かつマイクロプロセッサ 3と GPU4との間を 帯域幅の大きなバス 1 0によ り例えば最大 3 0 [ G b y t e / s e c ] の転送速度でデ一夕転送し得るようになされているため、 多くの高精細 なビデオス ト リームをデコードして短時間にデ一夕転送し得るようにな されている。
一方、 GPU4は、 ディスプレイ 40に表示するビデオデ一夕の再生 映像を動かすときのテクスチャの張り込みなどに関する最終的なレンダ リ ング処理に加えて、 ビデオデ一夕の再生映像及び静止画デ一夕の静止 画像をディスプレイ 40に表示するときの座標変換計算処理や、 ビデオ デ一夕再生映像及び静止画データの静止画像に対する拡大 .縮小処理等 を行う機能を有し、 マイクロプロセッサ 3の処理負担を軽減させるよう になされている。
実際上、 マイクロプロセッサ 3は、 起動時、 ハードディスク装置 7に 格納された制御プログラムに基づき、 当該ハ一 ドディスク装置 7に格納 されている必要なアプリケーショ ンプログラムを読み出して X D R— R A M 5に展開し、 この後このアプリケーションプログラム及びユーザ操 作に基づいて必要な制御処理を実行する。
マイ クロプロセヅサ 3は、 マウス 3 8、 キーボー ド 3 9或いは操作コ ン トロ一ラ 3 7がュ一ザによって操作され、 ビデオテープに記録された A Vス ト リームを記憶装置 2 2に取り込むためのク リ ヅプ取込みゥィ ン ドウの表示命令が入力されると、 これに応動してハードディスク装置 7 を制御することによ り、 当該表示命令に対応する A Vデ一夕を読み出さ せる一方、 これと併せて G P U 4を制御することによ り、 この A Vデー 夕に基づく上述のク リ ップ取込みゥイ ン ドウをディスプレイ 4 0に表示 させる。
また、 マイクロプロセッサ 3は、 この状態でマウス 3 8、 キーボ一ド 3 9或いは操作コン トローラ 3 7がユーザによつて操作され、 ビデオテ —プレコーダ 2 3 1〜 2 3 ηに対する再生動作命令が入力されると、 こ れに応動してビデオテープレコーダ 2 3 1〜 2 3 ηを制御することによ り、 ビデオテープに記録された A Vデータに対する再生動作を実行させ る。
この結果、 このビデオテープレコーダ 2 3 1〜 2 3 nからは、 当該ビ デォテープレコーダ 2 3 1〜 2 3 nに装填されたビデオテープから再生 される A Vス ト リームが出力されて、 P C Iバス 1 5、 サウスブリ ッジ 6及びマイクロプロセヅサ 3を順次介して G P U 4に与えられる。
G P U 4は、 マイクロプロセッサ 3の制御のもとに、 供給されたビデ ォデ一夕に対して所定の信号処理を施し、 その結果得られた映像デ一夕 をディスプレイ 4 0へ送出することにより、 当該映像データに基づく再 生映像をク リ ップ取込みゥイ ン ドゥ内の所定位置に表示させる。 一方、 マイクロプロセッサ 3は、 A Vデ一夕から抽出した音声信号をサウン ド 入出カコーデヅク 9を介してスピーカ 4 1へ送出することによ り、 当該 音声信号に基づく音声をスピーカ 4 1から出力させる。
かく してユーザは、 ディスプレイ 4 0に表示されたビデオデ一夕の再 生映像及びスピー力 4 1から出力されるオーディォデ一夕の再生音声に 基づいて、 マウス 3 8、 キーボ一ド 3 9或いは操作コン トローラ 3 7を 用いて再生映像及び再生音声の所望部分を指定することができ、 さらに その映像音声部分をク リ ップとしてそのィ ン点及びァゥ ト点の夕ムコ一 ドゃ素材長、 ク リ ップ I D、 ク リ ップ名、 その A Vデータの撮影日時、 そのク リ ツプの作成日時等の管理情報をメ夕データとして登録すること ができる。 そしてこのメ夕デ一夕 として登録されたそのク リ ヅプの管理 情報が、. マイ クロプロセッサ 3の制御のもとに、 ハードディスク装置 7 内のク リ ップ管理情報データペースに登録される。
また、 マイクロプロセッサ 3は、 後述するが、 上述のようなク リ ップ の管理情報だけに限らず、 A Vデ一夕を構成しているビデオデータが有 する種々のパラメータの特徴量を抽出し、 これらをメ夕デ一夕ファイル として登録しておく ようになされている。
また、 マイクロプロセッサ 3は、 この後マウス 3 8、 キーボード 3 9 或いは操作コン トローラ 3 7が操作されて、 その A Vス ト リームの取込 み命令が入力されると、 これに応動してビデオテープレコーダ 2 3 1〜 2 3 nを制御することによ り、 指定された A Vス ト リームの再生動作を 実行させる。
この結果、 ビデオテープレコーダ 2 3 1〜 2 3 nからは、 ビデオテ一 プから再生された A Vス ト リームに含まれるビデオス ト リームゃォ一デ ィォス ト リームが出力され、 そのうちビデオス ト リームが P C' Iバス 1 5、 サウスプリ ヅジ 6、. マイクロプロセヅサ 3及びバス 1 0を順次介し て G P U 4に与えられる。
一方、 ユーザは、 この後マウス 3 8、 キーボード 3 9或いは操作コン ト ローラ 3 7 を用いた所定操作によ り編集作業を行うための編集画面 (後述する) をディスプレイ 4 0に表示させることができ、 この編集画 面を用いてどのク リ ヅプとどのク リ ヅプとをどのように繋ぎ合わせるか といった編集内容を規定した編集リス トを作成することができる。 また ュ一ザは、 編集リス トの作成後又は作成途中において、 その編集リス ト に基づく編集映像及び編集音声を確認することができるようになされて いる。
そして、 マイクロプロセヅサ 3は、 編集リス トが作成された後マウス 3 8が操作されてその編集リス トの登録命令が入力された場合には、 そ の編集リス トにおいて規定された全てのユーザによる設定の編集データ をフアイル化してハードディスク装置 7内の編集リス トデ一夕ベースに 登録する。
また、 マイ クロプロセッサ 3は、 編集リス トの作成後又は作成途中に おいて、 マウス 3 8、 キ一ボー ド 3 9或いは操作コン トローラ 3 7が操 作されて、 その編集リス トに基づく編集映像音声の再生命令が入力され ると、 これに応動して記憶装置 2 2を制御することによ り、 必要な A V ス ト リームに含まれるビデオス ト リーム及びォ"ディォス ト リームを記 憶装置 2 2に読み出させる。
かく してこ、 の記憶装置 2 2から読み出された A Vス ト リームに含ま れるビデオス ト リーム及びオーディオス ト リームが P C Iバス 1 5、 サ ウスブリ ッジ 6、 マイ クロプロセッサ 3及びバス 1 0を順次介して G P U 4に与えられ、 この後マイクロプロセッサ 3の制御のもとに、 当該 G P U 4において必要に応じて映像特殊効果加工処理が施される。
そして、 G P U 4は、 マイ クロプロセッサ 3の制御のもとに、 供給さ れるビデオデータに対して映像特殊効果加工処理を施すことによ り得ら れたビデオデータに対して所定の信号処理を施し、 その結果得られたビ デォ信号をディスプレイ 4 0へ送出する。
一方、 マイ クロプロセッサ 3は、 A Vデ一夕に含まれるビデオデ一夕 及びオーディオデ一夕のうち、 オーディオデータに対して音声ミキシン グ処理を施し、 その結果得られた音声デ一夕を、 サウン ド入出力コ一デ ック 9を介してスピーカ; 1へ送出する。 ' この結果、 編集画面内の所定位置にビデオデ一夕の再生映像が表示さ れ、 スピーカ .4 1から音声デ一夕の再生音声が出力される。 このように して、 この画像処理システム 1においては、 編集リス トに基づく再生映 像及び再生音声をユーザに目視確認させながら編集作業を実行させ得る ようになされている。
従って、 画像処理システム 1では、 画像処理装置 2のマイクロプロセ ヅサ 3及び G P U 4により、 ディスプレイ 40に表示した編集画面の再 生映像に対して、 特殊効果の施された映像表示処理を実行し得ると共に、 種々の拡張操作や編集処理を実行し得るようになされている。
ところで、 マイクロプロセヅサ 3における 8個のサブ CPUコア 3 S A〜 3 S Hで同時並列的にデコードされたビデオデータは、 バス 1 0を 介して GP U 4へデータ転送されるのだが、 このときの転送速度は例え ば最大 3 0 [Gb y t e/s e c] であり、 特殊効果の施された複雑な ビデオデ一夕であっても高速かつ滑らかに表示し得るようになされてい る。
( 2) ビデオデ一夕に対する表示
画像処理システム 1においては、 編集モ一 ドとビューモードとが存在 し、 編集モ一ドでは上述したような編集映像データを生成する等の編集 処理を実行するのに対し、 ビューモードでは記憶装置 2 2に格納された 大量の動画 A Vデ一夕や静止画 A Vデータをオペレー夕が容易に管理又 は検索するための分類表示を実行するようになされている。
( 2— 1 ) 編集画面の表示内容
画像処理装置 2のマイクロプロセッサ 3は、 マウス 3 8、 キ一ボー ド 39或いは操作コン トローラ 3 7がユーザにより操作されて編集画面を 表示すべき命令が入力されると、 ハ一 ドディスク装置 7及び G P U 4を 制御することによ り ビューモー ドに遷移し、 図 2に示すような編集画面 5 0をディスプレイ 4 0に表示させる。 . この編集画面 5 0は、 ク リ ップ一覧表示部 5 1、 ス ト一リーボ一 ド部 5 2、 タイムライ ン部 5 3及びエフェク ト情報表示部 5 4 と、 この編集 画面 5 0に固有の機能を有する表示部 5 5 とから構成される。 なお、 編 集画面 5 0の場合、 後述のように編集作業は主として表示部 5 5を用い て行われるため、 ス ト一リーボ一 ド部 5 2及びタイムライ ン部 5 3は補 助的に設けられている。
この場合、 ク リ ップ一覧表示部 5 1 には、 その画像処理装置 2に登録 されている各種ビン及びファイルの中から所望の 1つのビン又はフアイ ルを選択して、 そのビン又はフアイルに収納されている A Vデータ一覧 を表示させることができるようになされている。
そして、 ユーザは、 これらク リ ツプ一覧表示部 5 1に一覧表示された 動画 A Vデータの中から所望の A Vデ一夕を選択し、 これを表示部 5 5 に ドラ ッグアン ド ドロヅプすることによって、 その A Vデ一夕の先頭画 像 (ビデオデータであればその先頭の静止画像) を写し出した表示ウイ ン ドウ W 5 7を表示部 5 5内に複数表示させることができる。
また、 ユーザは、 その状態で表示ウィ ン ドウ W 5 7をク リ ックするこ とによって、 かかる ドラッグアン ド ドロヅプされた A Vデ一夕の再生処 理 'を画像処理装置 2に対して開始させ、 その再生映像を表示部 5 5に表 示させることや、 その表示された再生映像を早送り、 巻ぎ戻し又は停止 等させることができる。
かく して、 ユーザは、 表示部 5 5に表示される複数の表示ウイ ン ドウ W 5 7 を介して A Vデ一夕に含まれるビデオデータの再生映像を目視確 認しながら、 所望のフレームを探索し、 その動画 A Vデータから切り取 るべき映像音声部分の開始点 (以下、 イン点) 及び終了点 (以下、 ァゥ ト点) をそれぞれ指定することができる。
そして、 画像処理装置 2のマイ クロプロセヅサ 3は、 このようにして イン点及びアウ ト点が指定されたことにより編集モードに遷移すると、 イ ン点及びアウ ト点が指定された A Vデ一夕について、 当該イ ン点及び ァゥ ト点で挟まれるを新たな A Vデ一夕として、 ュ一ザの ドラッグアン ド ド口ップに応じてス トーリ一ボ一ド部 5 2に貼り付けることができる。 これにより、 編集画面 5 0においては、 編集に使用する A Vデータの ク リ ヅプを予めス ト一リーボ一ド部 5 2に並べることによって、 ユーザ が編集結果を容易にイメージし得るようになされている。 なお、 このと きス トーリーボ一 ド部 5 2には、 貼り付けられた各ク リ ップの先頭画像 等に相当する代表画像のサムネィル及び詳細情報が表示される。
そして、 ユーザは、 この後かかるス ト一リーボ一ド部 5 2に貼り付け た各ク リ ップを、 それぞれドラッグアン ド ドロップによ りタイムライ ン 部 5 3のビデオトラヅク上に並べるように順次貼り付けるようにする。 このときビデオトラックには、 タイムラインを指標として、 貼り付けら れたク リ ップの素材長に応じた長さの帯 (図示せず) が表示される。 ま たこのときそのク リ ップに音声がある場合には、 オーディオトラックに おけるタイムライ ン上の同じ位置に同じ長さの帯 (図示せず) が表示さ れる。
ここで、 このようにタイムライ ン部 5 3のビデオ トラ ヅクゃオーディ ォ トラックに帯が表示されることは、 編集映像音声の出力時にタイムラ ィ ン上で表された時間にその帯に対応するク リ ップの映像が表示され又 は音声が出力されることを意味する。 従って、 このような操作によ り編 集映像として表示され、 又は編集音声として出力されるク リ ツプの映像 又は音声を順次規定してなる編集リス トを作成することができる。
( 2 - 2 ) 画像群の表示
さらに、 画像処理装置 2のマイクロプロセッサ 3は、 ク リ ップ一覧表 示部 5 1に一覧表示された中からユーザによって選択され、 表示部 5 5 に ドラ ツグアン ド ド口ップされた A Vデ一夕を写し出した所定の画枠サ ィズでなる表示ゥイ ン ドウ W 5 7を編集画面 5 0の表示部 5 5に複数表 示することにより画像群 5 8 を提示させ得るようになされている。
また、 画像処理装置 2のマイクロプロセッサ 3は、 後からユーザによ つてク リ ツプ一覧表示部 5 1から選択して ドラッグアン ド ドロップされ た A Vデ一夕の表示ウィ ン ドウ W 5 7については表示部 5 5に追加する ことが可能であり、 また表示ウィ ン ドウ W 5 7に対する選択削除操作に 応じて表示部 5 5から消去することも可能である。
ここで、 画像群 5 8 とは、 図 3 に示すように例えば X軸に 「赤色 ( R ) 」 、 Y軸に 「青色 (B ) 」 及び Z軸に 「輝度」 を表示軸のパラメ —夕とする 3次元表示空間内において、 ビデオデ一夕の先頭のピクチャ (静止画像) も しくは代表的なピクチャ (静止画像) が、 ビデオデータ が有する特徴量 (例えばピクチャ単位又は G 0 P単位) に基づいて個々 の表示ウイ ン ドウ W 5 7上で配置されたものである。
この 3次元表示空間におけるそれぞれの表示軸 ( X軸、 Y軸及び Z 軸) を構成するパラメ一夕としては、 ビデオデータ含む A Vデ一夕の特 徴を示す特徴パラメ一夕である。 基本的に、 特徴パラメ一夕に示される 特徴量は、 同一静止画のピクチャが時間的に継続していない限り、 ビデ ォデ一夕を構成するビクチャ毎に異なる。
実際上、 編集画面 5 0の表示部 5 5では、 図 3に示したような上述の 3次元表示空間の各表示軸を明示的に表示することはないが、 この 3次 元表示空間上に表示ウイ ン ドウ W 5 7が配置された結果、 画面右下方向 には画像群 5 8のうち、 ビデオデータに含まれる赤色レベルの高いピク チヤ (静止画像) が映し出された表示ウイ ン ドウ W.5 7が配置される。 また、 画面中央上方向には画像群 5 8のうち、 ビデオデ一夕に含まれる 輝度レベルの強いピクチャが映し出された表示ウイ ン ドウ W 5 7が配置 される。 また、 画面左下方向には分画像群 5 8のうち、 ビデオデ一夕に 含まれる青色レベルの高いビクチャが写し出された表示ウィ ン ドウ W 5 . 7が配置される。 これにより、 複数のビデオデ一夕を確認するユーザに 対して、 複数のビデオデ一夕に含まれる明るさや色成分の大まかな傾向 (分布) をイメージとして直感的に認識させ得るようになされている。 因みに、 この 3次元表示空間では X軸の 「赤色」 、 Y軸の 「青色」 及 び Z軸の 「輝度」 について原点からプラス方向だけの象現が用いられて おり、 その象現に相当する空間に複数の表示ウィ ン ドウ W 5 7が配置さ れている。 但し、 これに限るものではなく、 X軸、 Y軸及び Z軸につい て原点からマイナス方向をも含めた全ての象現に複数の表示ゥイ ン ドウ W 5 7が配置されることも可能である。
ところで、 画像処理装置 2のマイクロプロセッサ 3では、 画像群 5 8 のうちビデオデ一夕に対して、 表示ウィ ン ドウ W 5 7内で所定のフレー ム周波数に従った更新速度により順次表示さるピクチャを更新し、 動画 の再生映像として表示させることができる。 '
その際、 画像処理装置 2のマイ クロプロセッサ 3は、 画像群 5 8のう ちビデオデータを構成するピクチャを更新する度にその特徴量も変化す るので、 当該特徴量に応じて表示ウィ ン ドウ W 5 7 を 3次元表示空間内 で再配置することによ り、 あたかもビデオデータの表示ウィ ン ドウ W 5 7を 3次元表示空間上で移動させながら表示し得るようになされている。 なお、 画像処理装置 2では、 ピクチャに対する更新速度を変更するこ とにより ビデオデ一夕の再生速度を調整することも可能であり、 更新速 度を上げれば早送り再生することができるので表示ウィ ン ドウ W 5 7の 移動速度が上がって 3次元表示空間上を高速移動させることになる。 逆 に、 更新速度を下げれば表示ウイ ン ドウ W 5 7の移動速度が下がって 3 次元表示空間上をあたかも浮遊するかのように低速移動させることにな る
更に、 画像処理装置 2は、 表示ウィ ン ドウ W 5 7内のビデオデ一夕を 巻き戻し再生することも可能であ り、 そのときには 3次元表示空間上を これまでとは逆方向に当該表示ゥイ ン ドウ W 5 7を移動表示させ得るよ うになされている。 因みに、 画像処理装置 2は、 順方向又は逆方向への 表示ウイ ン ドウ W 5 7の移動表示中にユーザ所望のタイ ミ ングで停止さ せて、 停止させたタイ ミ ングに対応するピクチャ (静止画像) を表示さ せることもできる。
( 2 - 3 ) ビデオデ一夕の表示
続いて、 画像処理装置 2では、 ビデオデータを構成しているピクチャ に対して、 ピクチャの特徴量を示す特徴パラメ一夕をメ夕デ一夕として 予め抽出しておき、 ビデオデ一夕の再生映像を表示ウイ ン ドウ W 5 7に 表示する際に、 ピクチャを更新する際の各ピクチャの特徴量に従って当 該表示ウイ ン ドウ W 5 7を 3次元仮想空間上に再配置する。 これにより、 その表示ウィ ン ドウ W 5 7を移動表示するための構成を、 マイ クロプロ セヅサ 3及び G P U 4による機能ブロックとして説明する。
ここでは、 ビデオデ一夕を構成している個々のピクチャから特徴パラ メータを予めメタデータとして抽出しておき、 それを用いてビデオデ一 夕を表示する第 1構成例、 ビデオデータを構成している個々のピクチャ からメ夕デ一夕を生成しながら、 それを用いてビデオデータを表示する 第 2構成例、 ビデオデータをェンコ一 ドして記録する際に特徴パラメ一 夕をメタデータとして生成しながら、 それを用いてビデオデ一夕を表示 する第 3構成例の合計 3種類について説明する。
( 2— 3— 1 ) 第 1構成例
図 4に示すように、 メ夕デ一夕抽出部 6 1は、 ビデオデ一夕を含む A デ 夕まれる種々の特徴量を示す特徴パラメ一夕を抽出し、 これらを ビデオデ一夕に対するビクチャ単位又は複数ピクチャ単位 (例えば G〇 P単位) のメタデータファイル M D F と してメ夕デ一夕デ一夕ベース (以下、 これをメ夕デ一夕 D Bと呼ぶ) 6 2に登録する。
一方、 圧縮画像生成部 6 3は、 メ夕デ一夕抽出部 6 1 を介して供給さ れたビデオデータの各ピクチャを圧縮して、 メイン . ビデオス ト リーム
HD 1 として後段のビデオデータベース (以下、 これをビデオ DBと呼 ぶ) 64に登録すると共に、 ビデオデ一夕における各ピクチャの画素数 を所定の割合で間引き、 その結果得られる画素数の少ないサブ · 画像と してのサブ ' ビデオス ト リーム LD 1をビデオ DB 64に登録するよう になされている。
これにより、 ビデオ D B 64は、 画素数を間引く こと ©ないメイ ン - ビデオス ト リーム HD 1と、 画素数が間引かれたサブ . ビデオス ト リー ム L D 1との双方をビデオデ一夕単位又は所定時間単位で蓄積すること が出来るので、 マイクロプロセッサ 3が 3次元表示空間上の配置場所に 応じて画枠サイズの小さな表示ウィ ン ドウ W 57に表示するときにはサ プ · ビデオス ト リーム LD 1を用いた り、 ときに拡大表示する際にはメ イ ン · ビデオス ト リーム HD 1を用いたり、 等の使い分けが出来るよう になされている。
続いて、 表示空間制御部 6 6は、 表示部 5 5に表示された G U I ( G r a p h i c a l U s e r I n t e r f a c e) 6 5を介してュ 一ザによ り指定された 3次元表示空問の生成に用いられる表示軸のパラ メータを認識したり、 ユーザに対して画像群 58を表示する際の視点座 標を認識したり、 ユーザによ り選択された A Vデータを当該 3次元表示 空間に対する配置対象として用いることを決定する等の表示に関する 種々の決定を行うようになされている。
従って、 表示空間制御部 6 6は、 その決定結果に基づき画像群 5 8 (図 3 ) として表示部 5 5に表示すべきビデオデータを構成する複数の ピクチャに対するフレーム番号をメ夕デ一夕 D B 6 2へ出力することに より、 当該メ夕デ一夕 DB 6 2からフ レーム番号に対応したピクチヤの 特徴パラメ一夕をメタデータとしてメ夕デ一夕ファイル MD Fを読み出 させて座標計算部 6 7へ送出させる。 また、 表示空間制御部 6 6は、 その決定結果に基づきビデオ D B 6 4 に対してもビデオデータを構成する複数のピクチャに対するフレーム番 号を出力することによ り、 ビデオデータの再生映像を表示ウイ ン ドウ W 5 7に表示する場合にはフレーム番号に対応したサブ . ビデオス ト リ一 ム L D 1 をデコーダ 6 8へ送出させ、 ビデオデ一夕の再生映像を拡大表 示する場合には、 そのフレーム番号に対応したメイ ン · ビデオス ト リ一 ム H D 1 をデコ ダ 6 8へ送出させるようになされている。
デコーダ 6 8は、 ビデオ D B 6 4から供給されたサブ . ビデオス ト リ ーム L D 1、 メイ ン ' ビデオス ト リーム H D 1をデコードし、 その結果 得られるデコード後のサプ ' ビデオデータ、 メイ ン · ビデオデ一夕を画 像表示部 6 9へ送出する。
座標計算部 6 7は、 表示空間制御部 6 6から供給された特徴パラメ一 夕を表示空間の表示軸に設定し、 特徴パラメ一夕を 3次元表示空間内の 座標 (座標パラメ一夕) に計算によ り変換し、 変換した座檫パラメ一夕 の値に応じて 3次元表示空間内の配置位置を決定する。 そして、 3次元 表示空間内に配置されるべき複数の表示ウイ ン ドウ W 5 7からなる画像 群 5 8に対する視点座標及び各表示ウイ ン ドウ W 5 7の配置場所に基づ いて、 それぞれの表示ウィ ン ドウ W 5 7の表示サイズを決定し、 これら 各表示ゥイ ン ドウ W 5 7の表示に関する種々の情報 (表示パラメ一夕) を画像表示部 6 9へ受け渡す。
画像表示部 6 9は、 座標計算部 6 7から受け渡された座標パラメ一夕 を利用して、 デコーダ 6 8から供給されたサブ · ビデオデータを配置す べき当該 3次元表示空間上の 3次元座標位置に基づいて、 当該サブ · ビ デォデ一夕に対応する表示ウイ ン ドウ W 5 7を 3次元表示空間上に配置 する。 これら一連の処理を、 他のビデオデータに対応する表示ウィ ン ド ゥ W 5 7に対しても実行した後、 これら複数の表示ウイ ン ドウ W 5 7の 座標パラメ一夕を表示部 5 5の 2次元座標位置 (表示位置パラメ一夕) に変換して表示することによ り、 複数の表示ウイ ン ドウ W 5 7からなる 画像群 5 8を表示部 5 5に対して提示する。
( 2— 3— 2 ) 第 2構成例
図 4 との対応部分に同一符号を付して示す図 5において、 表示空間制 御部 6 6は、 表示部 5 5に表示された G U I 6 5を介してユーザによ り 指定された 3次元表示空間の表示軸に設定された特徴パラメ一夕を認識 したり、 ユーザに対して画像群 5 8を表示する際の視点座標を認識した りする。 さらに、 表示空間制御部 6 6は、 ユーザにより選択されたビデ ォデ一夕を当該 3次元表示空間に対する配置対象として用いることを決 定する等の表示に関する種々の決定を行い、 その情報を座標計算部 6 7 へ送出する。 '
従って、 表示空間制御部 6 6は、 その決定結果に基づきビデオ D B 6 4に対しても、 ビデオデータを構成する複数のビクチャに対するフ レー ム番号を出力することにより、 ビデオデータの再生映像を表示ウイ ン ド ゥ W 5 7に表示する場合には、 フレーム番号に対応したサブ · ビデオス ト リーム L D 1 をデコーダ 6 8へ送出させ、 ときにビデオデ一夕の再生 映像を拡大表示する場合には、 そのフ レーム番号に対応したメイン · ビ デォス ト リーム H D 1をデコーダ 6 8へ送出させる。
因みに、 このビデオ D B 6 4には、 第 1構成例と同様に、 画素数を間 引く ことのなくエンコードされたメイ ン · ビデオス ト リーム H D 1 と、 画素数が間引かれてェンコ一 ドされたサブ · ビデオス ト リ一ム L D 1 と の双方が予め蓄積されている。
デコーダ 6 8は、 ビデオ D B 6 4から供給されたサブ · ビデオス ト リ —ム L D 1、 メイ ン ' ビデオス ト リーム H D 1をデコー ドし、 その結果 得られるデコード後のメイ ン · ビデオデータをメ夕デ一夕抽出部 6 1へ 送出し、 サブ · ビデオデータを画像表示部 6 9へ送出する。
メ夕デ一夕抽出部 6 1は、 デコーダ 6 8から供給されたメイ ン · ビデ ォデ一夕に含まれる特徴パラメ一夕をメ夕データとして抽出レ、 抽出し たメ夕デ一夕をメ夕デ一夕ファイル M Fとしてメ夕デ一夕 D B 6 2に登 録すると共に、 当該メタデータファイル M D Fを座標計算部 6 7へ送出 する。
座標計算部 6 7は、 表示空間制御部 6 6から供給された特徴パラメ一 夕を表示軸に設定した 3次元表示空間を計算により生成し、 各表示ウイ ン ドウ W 5 7に表示するビデオデ一夕の特徴パラメ一夕の示す特徴量を 3次元表示空間内の座標パラメ一夕に変換し、 座標パラメ一夕の値に応 じて 3次元表示空間内の配置場所を決定する。 そして、 座標計算部 6 7 は、 3次元表示空間内に配置されるべき複数の表示ウイ ン ドウ W 5 7か らなる画像群 5 8に対する視点座標及び各ゥイ ン ドゥ画面の配置場所に 基づいて、 それぞれの表示ゥイ ン ドウ W 5 7の表示サイズ (表示パラメ —夕) を決定し、 これら各表示ウィ ン ドウ W 5 7の表示に関する種々の 情報 (表示パラメ一夕) を画像表示部 6 9へ受け渡す。
画像表示部 6 9は、 座標計算部 6 7から受け渡された表示パラメ一夕 を基に、 デコーダ 6 8から供給されたサブ ' ビデオデ一夕を配置すべき 当該 3次元表示空間内の 3次元座標位置 (座標パラメ一夕) に基づいて,、 当該サブ ' ビデオデーダに対応する表示ウイ ン ドウ W 5 7を 3次元表示 空間内に配置する。 これら一連の処理を、 他のビデオデータに対応する 表示ウイ ン ドウ W 5 7に対しても実行した後、 複数の表示ウイ ン ドウ W 5 .7の 3次元座標位置を表示部 5 5の 2次元座標位置 (表示位置パラメ 一夕) に変換して表示することによ り、 複数の表示ウイ ン ドウ W 5 7か らなる画像群 5 8を表示部 5 5に対して提示する。
( 2 - 3 - 3 ) 第 3構成例
図 5 との対応部分に同一符号を付して示す図 6において、 表示空間制 御部 6 6は、 表示部 5 5に表示された G U I 6 5を介してユーザにより 指定された 3次元表示空間の表示軸に設定された特徴パラメ一夕を認識 したり、 ユーザに対して画像群 5 8を表示する際の視点座標を認識した りする。 さらに、 表示空間制御部 6 6は、 ユーザにより選択されたビデ ォデ一夕を 3次元表示空間に対する配置対象として用いることを決定す る等の表示に関する種々の決定を行い、 その情報を座標計算部 6 7へ送 出する。
従って、 表示空間制御部 6 6は、 その決定結果に基づき、 メ夕デ一夕 及びビデオデ一夕ベース (以下、 これをメ夕デ一夕 . ビデオ D B と呼 ぶ) 7 0に対して、 ビデオデ一夕を構成している複数のビクチャに対応 したフレーム番号を出力する。
このメ夕デ一夕 ■ ビデオ D B 7 0は、 撮像装置によ り撮像 ' ェンコ一 ドされたメイ ン · ビデオス ト リーム H D 1が登録されていることに加え て、 そのメイ ン ' 画像デ一夕の画素数が間引かれたサブ · ビデオデータ をエンコードしたサブ ' ビデオス ト リーム L D 1についても登録されて いる。 メ夕デ一夕 · ビデオ D B 7 0は、 ビデオデータの再生映像を表示 ウィ ン ドウ W 5 7に表示する場合には、 フレーム番号に対応したサブ - ビデオス ト リーム L D 1 をデコーダ 6 8へ送出し、 ときにはビデオデ一 夕の再生映像を拡大表示する場合には、 そのフレーム番号に対応したメ イ ン ' ビデオス ト リーム H D 1をデコーダ 6 8へ送出する。
さらに、 メタデータ · ビデオ D B 7 0には、 メイ ン . ビデオデ一夕の 撮像時に、 当該撮像装置に内蔵されているメタデ 夕抽出部によって抽 出されたメイ ン ' ビデオデ一夕に含まれる特徴パラメ一夕についてもメ 夕データファイル M D Fとして登録されている。
従って、 メタデ一夕 · ビデオ D B 7 0は、 表示空間制御部 6 6から供 給されたフレーム番号に対応した特徴パラメ一夕をメ夕デ一夕ファイル M D F として座標計算部 6 7へ送出する。
座標計算部 6 7は、 表示空間制御部 6 6から供給された特徴パラメ一 夕が表示軸に設定された 3次元表示空間を計算によ り生成し、 各表示ゥ イ ン ドウ W 5 7に表示すべきビデオデータの特徴パラメ一夕を 3次元空 間内の座標パラメ一夕に変換して配置位置を決定し、 3次元表示空間内 に配置される複数の表示ウイ ン ドウ W5 7か.らなる画像群 58に対する 視点座標及び各ゥィ ン ドウ画面の配置場所に基づいて、 それぞれの表示 ウィ ン ドウ W57の表示サイズを決定し、 これら各表示ウイ ン ドウ W5 7の表示に関する種々の情報を画像表示部 6 9へ受け渡す。
デコーダ 6 8は、 メ夕デ一夕 · ビデオ D B 70から供給されたサブ - ビデオス ト リーム L D 1又はメイ ン · ビデオス ト リーム H D 1をデコ一 ドし、 その結果得られるデコード後のサブ · ビデオデ一夕又はメイ ン · ビデオデ一夕を画像表示部 6 9へ送出する。
画像表示部 6 9は、 座標計算部 6 7から受け渡された表示に関する情 報を基に、 デコーダ 6 8から供給されたサブ · ビデオデ一夕を配置すベ き座標パラメ一夕の値に基づいて、 サブ ' ビデオデータに対応する表示 ウィ ン ドウ W 5 7を 3次元表示空間内に配置する。 さらに、 画像表示部 6 9は、 これら一連の処理を、 .他のビデオデータに対応する表示ゥィ ン ドウ W 5 7に対しても実行した後、 複数の表示ウイ ン ドウ W5 7の 3次 元座標位置を表示部 5 5の 2次元座標位置 (表示位置パラメ一夕) に変 換して表示することにより、 複数の表示ウイ ン ドウ W 5 7からなる画像 群 5 8を表示部 5 5に対して提示する。
( 2— 4) メタデータ抽出部の具体的構成
続いて、 上述したメ夕デ一夕抽出部 6 1の具体的な構成について説明 する。 図 7に示すように、 このメ夕デ一夕抽出部 6 1では、 ビデオデー 夕を構成している各ピクチャの例えば、 細かさ (複雑さ) 、 動きべク ト ノレ、 D C T (D i s c r e t e C o s i n e T r a n s f o rm) 縦横周波数成分、 色成分、 音声レベル等による種々の特徴量を含む特徴 パラメ一夕を抽出するため、 細かさ情報算出部 7 1、 動き検出部 7 2、 D C T縦横周波数成分検出部 73、 色成分検出部 7 6、 音声検出部 8 0、 輝度色差検出部 8 3及びメ夕データフアイル生成部 8 6によって形成さ れている。 但し、 メ夕デ一夕抽出部 6 1は、 これら以外のパラメ一夕の 特徴量を抽出するための種々の検出部が設けられていても良い。
( 2 - 4 - 1 ) 細かさ情報算出部の構成
この細かさ情報算出部 7 1は、 平均値算出部 1 0 7 1、 差分値演算部 1 0 7 2及び積算部 1 07 3から構成されており、 平均値算出部 1 0 7 1及び差分値演算部 1 0 72に対してビデオデータが供給される。
平均値算出部 1 07 1は、 ビデオデータのフレームを順次、 注目フ レ —ムとし、 その注目フ レームを、 例えば、 図 8に示すように、 8 x 8画 素のプロヅクに分割する。 さらに、 平均値算出部 1 0 7 1は、 注目フ レ ームにおける各プロックの画素値の平均値を求め、 これを差分値演算部 1 0 7 2へ供給する。
ここで、 8 X 8画素のプロックのラス夕スキャン順で、 k番目の画素 の画素値を P kと表した場合、 平均値算出部 1 07 1では、 平均値 P a v eを、 次式の P av e = l / ( 8 x 8 ) x∑ P.kに従って求める。 な お、 平均値 P av e = l/ ( 8 x 8 ) x∑ P kにおけるサメーシヨン∑ は、 kを 1から 8 x 8 (= 64) までに変えてのサメ一シヨンを表す。 差分値演算部 1 072は、 平均値算出部 1 0 7 1と同様に、 注目フ レ —ムを、 8 X 8画素のブロックに分割し、 ブロックの各画素値 P kと、 平均値算出部 1 0 7 1から供給される、 そのプロックの画素値の平均値 P av eとの差分値の絶対値 I P k— P a V e | を求め、 積算部 1 07 3に供給する。
積算部 1 0 73は、 差分値演算部 1 0 72から供給されるプロックの 各画素について求められた差分値の絶対値 I P k— P a V e | を積算し、 積算値 Q=∑ I P k - P a V e | を求める。 ここで、 積算値 Q =∑ | P k一 P a v e | におけるサメ一シヨン∑は、 kを、 1から 8 x 8 (= 6 4 ) までに変えてのサメ一シヨンを表す。 さらに、 積算部 1 073は、 注目フ レームのすべてのプロックについ て得られた積算値 Qの総和を求め、 これを注目フレームの細かさ情報 Q S 1と してメ夕デ一タフアイル生成部 8 6へ出力する。
なお、 注目フ レームについて求められる積算値 Qの総和は、 イ ン トラ AC ( I n t r a— AC) と呼ばれるもので、 その値が大きいほど、 注 目フ レームにおける画素値にばらつきが大きい。 従って、 積算値 Qの総 和である細かさ情報 Q S 1が大きいほど、 注目フ レームが細かな (複雑 な) 静止画像であるということになる。
( 2 - 4 - 2 ) 動き検出部の構成
動き検出部 72 (図 7 ) では、 図 9に示すように動きぺク トル検出部 1 04 1が、 前フ レームを 1 6 x 1 6画素のマクロブロックに分割し、 前フレームの各マクロブロックについて、 そのマクロブロックに最も類 似する注目フ レームの 1 6 X 1 6画素のブロック (以下、 類似ブロック という) を検出する。 そして、 動きべク トル検出部 1 04 1は、 マクロ ブロックの、 例えば、 左上を始点とすると共に、 類似ブロックの左上を 終点とするベク トルを、 マクロブロ ックの動きベク トル AF O ( h , ν ) どして求める。
いま、 前フ レームの左から h番目で、 上から V番目のマクロブロック の位置を F 0 ( h , V ) と表すと共に、 マクロプロ ック F 0 ( h , V ) から、 そのマクロブロック F 0 ( h , V ) の動きベク トル厶 F 0 ( h , V ) だけ移動した位置の注目フ レームの 1 6 x 1 6画素のプロ ック、 即 ち、 類似ブロ ックの位置を F l ( , V ) と表すこととすると、 マクロ ブロック; F 0 ( h, V ) の動きべク トル△ F 0 ( h , V ) は、 次式△ F 0 (h, V ) = F 1 ( h, v) - F 0 (h, v) の差分として表される。 統計量算出部 1 042は、 前フレームのマク口プロヅクについて求め られた動きベク トルの統計量として、 例えば、 前フ レームにおける全て のマクロブロ ックの動きベク トル AF O (h, v) の大きさ | AF 0 (h, v) Iの総和 D 0 =∑ | A F 0 ( h, v) | を求め、 この総和 D 0を、 注目フ 'レームの動き情報として出力する。
なお、 総和 D 0 =∑ I△ F 0 ( h , V ) I におけるサメ一シヨン∑は、 hを、 1から、 前フレームの横方向のマクロブロックの数までに変える と共に、 Vを、 1から、 前フレームの縦方向のマクロプロックの数まで に変えてのサメ一シヨンを表す。
ここで、 前フレームの各マクロプロ ヅク F 0 ( h , V ) における動き ベク トル AF O (h, v) の大きさが大きいと、 その和である動き情報 D O も大きくなる。 従って、 注目フレームの動き情報 D Oが大きい場合 には、 注目フレームの画像の動きも大きい (激しい) ということになる。 なお、 上述の場合には、 前フレームのマクロプロヅクについて求めら れた動きべク トルの統計量として、 前フレームの全てのマクロブロ ック における動きベク トル AF O ( h , v) の大きさ | AF 0 ( h , ν ) | の総和 D 0 =∑ | 厶 F 0 ( h , v) I を求めるようにしたが、 前フレー ムのマクロプロヅクについて求められた動きベク トルの統計量としては、 その他、 例えば、 前フレームのマクロプロックについて求められた動き べク トルの分散を採用することが可能である。
この場合、 統計量算出部 1 0 4 2では、 前フレームの全てのマクロブ ロヅクにおける動きベク トル△ F 0 ( h , V ) の平均値△ a V eが求め られ、 前フレームの全てのマクロプロック F 0 ( h , V ) における動き べク.トル AF O (h, v) の分散び 0が、 例えば、 次式び 0 =∑ (AF 0 ( h , v.) -Δ a V e ) 2を演算することで求められる。
なお、 分散び 0 =∑ (Δ F 0 ( h , V ) -Δ a Θ ) 2におけるサメ —シヨ ン∑は、 hを、 1から、 前フレームの横方向のマクロプロ ックの 数までに変えると共に、 Vを、 1から、 前フレームの縦方向のマクロブ ロックの数までに変えてのサメ一シヨンを表す。
この分散び 0 も、 総和 D O と同様に、 注目フレームの画像の動きが大 きい (激しい) と大きくなる。
次に、 図 1 0は、 図 7における動き検出部 72の他の構成例を示し、 この動き検出部 72 Aは、 ヒス トグラム作成部 1 0 5 1、 ヒス トグラム 記憶部 1 0 5 2及び差分演算部 1 0 5 3から構成されている。
ヒス トグラム作成部 1 0 5 1には、 ビデオデ一夕が供給され、 このビ デォデ一夕のフレームを、 順次、 注目フレームとし、 注目フレームの画 素値のいわば簡略的なヒス トグラムを作成し、 注目フレームのヒス トグ ラムと して、 ヒス トグラム記憶部 1 0 52及び差分演算部 1 0 5 3へ供 給する。
ヒス トグラム記憶部 1 05 2は、 ヒス トグラム作成部 1 0 5 1から供 給される注目フレームのヒス トグラムを記憶する。 ここで、 ヒス トグラ ム記憶部 1 0 52は、 少なく とも 2フレーム分のヒス トグラムを記憶す ることができるだけの記憶容量を有しており.、 ヒス トグラム作成部 1 0 5 1から供給される今回の注目フレームに対するヒス トグラムと、 前回 の注目フレーム、 即ち、 前フレームに対するヒス トグラムとを記憶する。 差分演算部 1 0 53は、 ヒス トグラム作成部 1 0 5 1から供給される 注目フ レームに対するヒス トグラムと、 ヒス トグラム記憶部 1 0 5 2に 記憶された前フレームに対するヒス トグラムとの後述する差分絶対値和 を求め、 注自フレームの動き情報 D 0として出力する。 '
図 1 1を参照して、 図 1 0の動き検出部 7 2 Aの処理について、 さら に説明する。 ヒス トグラム作成部 1 0 5 1に供給されるビデオデータの 画素値が、 例えば、 0 ~ 25 5の整数値によ り表現可能な 8ビッ トで表 されるとすると、 ヒス トグラム作成部 1 0 5 1は、 0〜2 5 5の範囲を、 例えば、 0〜3 1, 3 2〜 6 3, 64〜9 5, 9 6〜 1 2 7 , 1 2 8〜 1 5 9 , 1 6 0〜 1 9 1 , 1 9 2〜 2 23 , 224〜 2 5 5の 8つの小 範囲に 8等分し、 各小範囲に含まれる画素値の度数を求めることにより、 注目フレームの簡略的なヒス トグラムを作成する。 — —
例えば、 いま、 第 i + 1フレームが注目フレームであるとすると、 差 分演算部 1 0 5 3では、 注目フレームである第 i + 1 フレームと、 前フ レームである第 iフレームとのヒス トグラムの同一の小範囲における度 数同士の差分値の絶対値△ (図 1 1において影を付して示す部分) が求 められる。 さらに、 差分演算部 1 0 5 3では、 ヒス トグラムの 8つの小 範囲について求められた度数の差分値の絶対値の総和 (差分絶対値和) ∑△が求められ、 注目フレームの動き情報 D Oとしてメ夕デ一タフアイ ル生成部 8 6へ出力される。
ここで、 注目フレームの動きが大きい (激しい) 場合には、 注目フレ ームの画素値の度数分布は、 前フレームの画素値の度数分布と異なるも のになる。 従って、 注目フレームの差分絶対値和∑△が大きい場合には、 注目フレームの画像の動きも大きい (激しい) ということになる。
( 2— 4— 3 ) D C''T縦横周波数成分検出部の構成
次に、 図 1 2は、 D C Τ縦横周波数成分検出部 7 3 (図 7 ) における 周波数分析部 7 4の構成例を示している。 この周波数分析部 7 4は、 D C Τ変換部 1 0 6 1、 重み係数算出部 1 0 6 2及び積算部 1 0 6 3から 構成されている。
D C Τ変換部 1 0 6 1には、 ビデオデータが供給され、 このビデオデ 一夕のフレームを、 順次、 注目フレームとし、 注目フレームを、 例えば、 8 X 8画素のブロックに分割する。 更に D C Τ変換部 1 0 6 1は、 注目 フレ.一ムの各プロヅクを D C Τ変換し、 各ブロヅクについて得られる 8 8個の D C T係数を積算部 1 0 6 3へ供給する。'
重み係数算出部 1 0 6 2は、 ブロックの 8 X 8個の D C T係数それぞ れに付す重みを求めて積算部 1 0 6 3へ供給する。 積算部 1 0 6 3は、 D C T変換部 1 0 6 1から供給されるブロックの 8 X 8個の D C T係数 それぞれに、 重み係数算出部 1 0 6 2から供給される重みを付して積算 することにより積算値を求める。 更に積算部 1 0 6 3は、 注目フレーム の各プロックについて求められた積算値の総和を求め、 注目フレームの 細かさ情報として縦すじ横すじレベル算出部 7 5 (図 7) へ送出する。
図 1 3を参照して、 図 1 2の周波数分析部 74の処理について更に説 明する。 図 1 3左は、 D C T変換の基底画像を示している。 基底画像は、 8 x 8個のパターン (周波数成分) からなり、 右側のパターンほど、 ま た下側のパターンほど、 高い周波数成分のパターンとなる。
図 1 3右はプロックにおける 8 X 8個の D CT係数のうちの、 左から i ( i = 1 , 2, · · ·, 8 ) 番目で、 上から j ( j = 1 , 2 , · · · , 8 ) 番目の D CT係数 F ( i— 1 , j - 1 ) を示し、 当該 D C T係数 F ( i— 1 , j一 1 ) は、 基底画像の左から i番目で、 上から j番目のパ ターンの周波数成分がブロックに含まれている程度 (度合い) を表す。 図 1 3左の基底画像中に記されている数字は、 図 1 2の重み係数算出 部 1 0 62が算出する重み G ( i— 1 , j一 : L ) を示している。. この重 み G ( i— 1 , j— 1 ) は、 D C T係数 F ( i— 1, j - 1 ) に付す重 みであり、 重み係数算出部 1 0 6 2は、 重み G ( i - 1 , j - 1 ) を、 例えば式 G ( i— 1 , j - 1 ) 二 i x jに従って求めるようになされて いる。 これにより重み係数算出部 1 0 6 2では、 高い周波数成分の D C T係数 F ( i— 1, j - 1 ) に付す重み G ( i— 1, j— 1 ) ほど、 大 きな値の重みが求められる。
積算部 1 0 6 3 (図 1 2 ) は、 D C T変換部 1 0.6 1から供給される ブロックの D C T係数 F ( i— 1 , j - 1 ) に、 重み係数算出部 1 0 6 2から供給される重み G ( ΐ - 1 , j - 1 ) を乗算し、 乗算値 G ( i— 1 , j - 1 ) F ( i — 1 , j - 1 ) を求める。 そして積算部 1 0 6 3 は、 ブロックにおける 8 X 8個の D C T係数 F ( i — 1, j - 1 ) それ それについて得られる乗算値 G ( i - 1 , j - 1 ) x F ( i— l , j - 1 ) を積算し、 積算値 V =∑ G ( i— l , j - 1 ) xF ( i— 1, j 一 1 ) を求める。 ここで積算値 V=∑ G ( i— l , j - 1 ) x F ( i— l , j - 1 ) におけるサメ一シヨン∑は、 i , j をそれぞれ 1から 8までに 変えてのサメ一シヨンを表す。
更に積算部 1 0 6 3は、 注目フレームのすべてのブロックについて得 られた積算値 Vの総和 Kを求め、 これを注目フレームの細かさ情報とし て縦すじ横すじレベル算出部 7 5へ出力する。
ここで注目フレームに高周波成分が含まれるほど、 積算値 Vの総和 K である細かさ情報は大きくなるので、 注目フレームの画像が細かな (複 雑な) 静止画像であるということになる。
D C T縦横周波数成分検出部 7 3の縦すじ横すじレベル算出部 7 5·は、 注目フレームのうちエリア A R 1における D C T係数に基づいて縦方向 に細かいスジが存在する画像すなわち横方向の周波数が高い画像である ことや、 注目フレームのうちエリア A R 2における D C T係数に基づい て横方向に細かいスジが存在する画像すなわち縦方向の周波数が高い画 像であることを検出するようになされている。
これにより D C T縦横周波数成分検出部 7 3では、 周波数分析部 7 4 で注目フレームの画像が細かな (複雑な) 静止画像であるか否かを判別 し得ると共に、 横方向の周波数及び縦方向の周波数がどのく らいのレべ ルにあるのかを判別し、 それを D C T縦横周波数成分情報 F V Hとして メ夕デ一夕ファイル生成部 8 6へ出力するようになされている。
( 2— 4— 4 ) 色成分検出部の構成
色成分検出部 7 6は、 画素 R G Bレベル検出部 7 7、 R G B レベル統 計分散検出部 7 8及び H L S レベル統計分散検出部 7 9から構成されて おり、 供給されたビデオデータを画素 R G Bレベル検出部 7 7に入力す る o
画素 R G Bレベル検出部 7 7は、 ビデオデ一夕の注目フレームにおけ る各画素の R G Bレベルをそれぞれ検出し、 その検出結果を R G Bレべ ル統計分散検出部 7 8及び H L S レベル統計分散検出部 7 9へ送出する。 W
R G Bレベル統計分散検出部 7 8は、 画素 R GBレベル検出部 7 7か ら供給された注目フレームにおける各画素の R GBレベルに対する統計 及び分散を算出し、 注目フレームにおける R GBの各色成分がどのよう なレベルにあるのかを示す統計値や、 注目フレームにおける色成分が全 体的な色として付されているのか、 局所的な色としてふされているのか を示す分散値を色成分情報 C L 1 としてメ夕デ一タフアイル生成部 8 6 へ出力する。
H L Sレベル統計分散検出部 7 9は、 画素 R G B レベル検出部 7 7か ら供給された注目フレームにおける各画素の R GBレベルを、 色相 ( H u e ) , 彩度 ( S a t u r a t i o n) 及び輝度(L u m i - n a n c e / L i g h t n e s s)の 3つの成分に変換し、 図 1 4に示 すように、' これら色相、 彩度及び輝度からなる H L S空間における各要 素の統計及び分散として算出し、 その検出結果を H L S情報 C L 2 とし てメ夕デ一夕ファイル生成部 8 6へ出力するようになされている。
ここで H L S空間における色相とは、 色味を 0度〜 3 5 9度の範囲の 角度で表したものであり、 0度は赤で、 その反対側に位置する 1 8 0度 は赤の反対にあたる青緑となる。 すなわち、 H L S空間では反対色を見 つけるのも容易である。
H L S空間における彩度とは、 有彩色が混ざる割合のことであり、 特 に H L S空間では H S V (色相 (H u e ) 、 彩度(S a t u r a - t i o n)及び明度 (V a l u e ) ) 空間とは異なり、 純色から彩度が 落ちるということは、 すなわち灰色になっていく という考え方に基づい ているので、 灰色に近いと彩度が低く、 灰色から遠いと彩度が高いとい うことになる。
H L S空間における輝度とは、 H S V空間のように明度 1 0 0 %を純 色とし、 そこからどれだけ明るさが失われるかを示すのとは異なり、 輝 度 0 %を黒、 輝度 1 0 0 %を白とし、 その中間を純白としたものである。 従って H L Sレベル統計分散検出部 7 9は、 R G B空間に比べて色相 を一段と分かり易く表現した H L S情報 C L 2をメ夕デ一夕ファイル生 成部 8 6へ出力することができる。
( 2 - 4 - 5 ) 音声検出部の構成 '
上述した実施例では、 ビデオデータを対象として特徴パラメ一夕を抽 出する形態を説明した。 ごこでは、 A Vデ一夕にオーディオデ一夕が含 まれている場合に、 ビデオデータに対応するオーディオデータから、 ォ —ディォデ一夕の特徴を示す特徴量を特徴パラメ一夕として算出するこ とも可能である。 つまり、 特徴パラメ一夕は、 ビデオデータ又はオーデ ィォデ一夕双方に適用可能なパラメ一夕である。
音声検出部 8 0 (図 7 ) は、 周波数分析部 8 1及びレベル検出部 8 2 から構成されており、 供給されたを周波数分析部 8 1に入力する。 . 周波数分析部 8 1では、 ビデオデータの注目フレームに対応したォー ディォデ一夕の周波数を分析し、 その周波数帯域をレベル検出部 8 2へ 通知する。 レベル検出部 8 2は、 周波数分析部 8 1から通知された周波 数帯域における音声データのレベルを検出し.、 その音声レベル情報 A L をメタデータフアイル生成部 8 6へ出力するようになされている。
( 2— 4— 6 ) 輝度色差検出部の構成
輝度色差検出部.8 3 (図 7 ) は、 Y、 C b、 C r レベル検出部 8 4と、 Y、 C b、 C rレベル統計分散検出部 8 5とから構成されており、 供給 された.ビデオデ一夕を Y、 C b、 C rレベル検出部 8 4に入力する。
Y、 C b、 C r レベル検出部 8 4は、 ビデオデータの注目フレームに おける各画素の輝度信号 Yの輝度レベル、 色差信号 C b、 C rの信号レ ベルを検出し、 これらを Y、 C b、 C rレベル統計分散検出部 8 5へ供 給する。
Y、 C b、 C r レベル統計分散検出部 8 5は、 Y、 C b、 C r レベル 検出部 8 4から供給された注目フレームにおける各画素の輝度信号 Yの 輝度レベル、 色差信号 C b、 C rの信号レベルに対する統計及び分散を 算出し、 注目フレームにおける輝度信号 Y、 色差信号 C b、 C rがどの ようなレベルにあるのかを示す統計値や、 注目フレームにおける輝度信 号 Y、 色差信号 C b、 C rの分散値を色成分情報 C L 3 としてメ夕デ一 夕ファイル生成部 8 6へ出力する。
( 2 - 4 - 7 ) メ夕デ一夕ファイル生成部の構成
メ夕デ一夕ファイル生成部 8 6は、 細かさ情報算出部 7 1から得られ る細かさ情報 Q S 1、 動き検出部 7 2から得られる注目フレームの動き 情報 D 0、 D C T縦横周波数成分検出部 7 3から得られる D C T縦横周 波数成分情報 F V H、 色成分検出部 7 6から得られる色成分情報 C L 1 や H L S情報 C L 2、 音声検出部 8 0から得られる音声レベル情報 A L、 及び輝度色差検出部 8 3から得られる色成分情報 C L 3を基に、 ビデオ デ一夕を構成しているピクチャの特徴パラメ一夕又はビデオデータに対 応するオーディォデ一夕の特徴パラメ一夕を、 メ夕デ一夕を含むメ夕デ —夕ファイル M D Fとしてそれぞれ生成し、 これを出力するようになさ れている。
このメタデ一夕フアイル M D Fでは、 図 1 5に示すように例えばビデ ォデ—夕であれば、 そのビデオデ一夕を構成している 1 フレームから最 終フレームまでの複数のピクチャ毎に 「タイムコード」 、 「動き量」 、 「細かさ」 、 「赤」 、 「青」 、 「緑」 、 「輝度」 、 「赤分散」 、 「緑分 散」 、 「色相」 、 「飽和度」 、 「縦スジ」 、 「横スジ」 、 「動き分散」 及び 「音声レベル」 等の様々な特徴パラメ一夕が登録されている。
なお、 メ夕デ一夕フアイル M D Fの各特徴パラメ一夕における特徴量 の値としては、 0〜 1の間の正規化された相対値を用いているが、 これ に限るものではなく、 絶対値を用いても良い。 また、 メ夕デ一夕フアイ ル M D Fの内容と しても、 上述した特徴パラメ一夕の特徴量に限られる ものではなく、 これら以外にも、 例えば表示ウィ ン ドウ W 5 7を 3次元 表示空間に配置した後であれば、 その表示ゥイ ン ドウ W 57が実際に配 置された 3次元仮想空間上の座標値についてもメ夕デ一夕の一種として 登録しておいても良い。
このように画像処理装置 2では、 メ夕データファイル MD Fに 3次元 表示空間上の座標値についても登録しておけば、 次にビデオデ一夕の表 示ウィ ンドウ W5 7を 3次元表示空間上に配置する際、 特徴パラメ一夕 に基づいて 3次元表示空間内の座標パラメ一夕を再度計算する必要がな く、 瞬時に表示ウィ ン ドウ W 5 7を配置することができる。
( 2 - 5 ) 表示処理手順
次に、 画像処理装置 2のマイクロプロセッサ 3によるビデオデ一夕に 対する表示処理手順及び複数のビデオデ一夕に対する表示処理手順につ いて具体的にフローチャートを用いて説明する。
( 2— 5— 1 ) ビデオデータのピクチャ (静止画像) に対する分類表示 処理手順
図 1.6に示すように、 画像処理装置 2のマイクロプロセッサ 3は、 ル —チン; R T 1の開始ステップから入って次のステップ S P 1へ移り、 ュ —ザにより指定された 3次元表示空間の表示軸や、 ユーザに対して画像 群 58を表示する際の視点座標を決定し、 次のステップ S P 2へ移る。
ここで、 画像処理装置 2のマイクロプロセッサ 3は、 例えば図 1 7 (A) に示すように、 R G Bの各色成分を表す R軸、 G軸及び B軸から なる 3次元表示空間、 図 1 7 (B) に示すように、 輝度レベル軸、 ; R軸 及び B軸からなる 3次元表示空間、 図 1 7 ( C) に示すように、 動き量 軸、 C b舳及び C r軸からなる 3次元表示空間、 図 1 7 (D) に示すよ うに、 細かさ情報軸、 輝度レベル軸、 及び色相軸からなる 3次元表示空 間、 図 1 7 (E) に示すように、 R軸、 D C T縦周波数軸、 D C T横周 波数軸からなる 3次元表示空間、 図 1 7 ( F ) に示すように D C T縦周 波数軸、 Cb軸及び C r軸からなる 3次元表示空間、 図 1 7 ( G) に示 すように H L S空間の各要素である L (L um i n a n c e ) 軸、 H (Hu e) 軸、 及び S (S a t u r a t i o n) 軸からなる種々の 3次 元表示空間等を生成するように各表示軸を決定することができるが、 こ れらに限られるものではなく、 メ夕デ一タフアイルに登録された種々の 特徴パラメ一夕を表示軸とした 3次元表示空間を生成するように決定す ることが可能である。
ステップ S P 2において、 画像処理装置 2のマイ クロプロセッサ 3は、 ユーザによって指定された再生すべきビデオデ一夕のピクチャ (静止画 像) を認識し、 次のステップ S P 3へ移る。 ステップ S P 3において、 マイ クロプロセッサ 3は、 その静止画像を注目フレームと し、 そのサ ブ ' ビデオス ト リ一ム L D 1をデコー ドし、 その結果得られるデコード 後のサブ · ビデオデータを G P U 4へデータ転送し、 次のステヅプ S P 4へ移る。
ステップ S P 4において、 画像処理装置 2のマイクロプロセッサ 3は、 その静止画像に対応付けられているメ夕デ一夕ファイル MDFから、 3 次元表示空間の表示軸に用いられる特徴パラメ一夕の特徴量を照会して 受け取り、 次のステップ S P 5へ移る。
ステップ S P 5において、 画像処理装置 2のマイ クロプロセヅサ 3は、 ステップ S P 4で受け取った特徴パラメ一夕の特徴量に基づいて、 静止 画像の表示ゥイ ン ドウ W 57を貼り付けるべき、 3次元表示空間上の座 標位置を計算し (座標パラメ一夕を算出し) 、 次のステップ S P 6へ移 る。 すなわち、 画像処理装置 2のマイ クロプロセッサ 3は、 静止画像が 有する表示軸のパラメ一夕に対する特徴量を 3次元表示空間上の座標位 置に変換するようになされている。
ステップ S P 6において、 画像処理装置 2のマイ クロプロセッサ 3は、 表示すべき静止画像がこれで終わりか否かを判定する。 ここで肯定結果 が得られると、 このことはユーザによつてこれ以外の他の静止画像が指 定されておらず、 他に表示すべき表示ウイ ン ドウ W 5 7が他には存在し ないことを表しており、 このときマイ クロプロセヅサ 3は次のステップ S P 7へ移る。
これに対して、 ステップ S P 6で否定結果が得られると、 このことは ユーザによってこれ以外の他のビデオデータのピクチャ (静止画像) が 指定されており、 他の静止画像に対応した表示ウイ ン ドウ W 5 7が他に も存在することを表しており、 このとき画像処理装置 2のマイ クロプロ セヅサ 3はステップ S P 2へ戻って上述の処理を繰り返すことにより、 複数の静止画像に対.応した複数の表示ウイ ン ドウ W 5 7に対する 3次元 表示空間上の座標位置をその静止画像の特徴パラメ一夕に示される特徴 量に従って計算する。 ,
ステップ S P 7において、 画像処理装置 2のマイグロプロセッサ 3は G P U 4によ り、 ステップ S P 5で計算した 3次元表示空間上の座標パ ラメ一夕 (座標位置) に基づいて静止画像に対応する表示ウィ ン ドウ W 5 7を 3次元表示空間に貼り付け、 ステップ S P 1で決定した視点座標 に基づいて 3次元表示空間の座標パラメ一夕 (座標位置) を、 表示部 5 5の 2次元画面における 2次元座標位置 (表示位置パラメ一夕) に変換 すると共に、 各表示ウィ ン ドウ W 5 7の表示サイズを決定し、 その 2次 元座標位置にその表示ウイ ン ドウ W 5 7を描画して表示し、' 次のステツ プ S P 8へ移る。
このとき、 画像処理装置 2のマイクロプロセッサ 3は、 複数のビデオ データの静止画像 (ピクチャ) がユーザによって指定されているときに は、 当該複数の静止画像に対応する複数の表示ウィ ン ドウ W 5 7を、 そ の静止画像の特徴パラメ一夕に従ってそれぞれ 3次元表示空間上の座標 位置 (座標パラメ一夕に示される位置) に配置することになり、 これら 複数の表示ゥイ ン ドウ W 5 7からなる画像群 5 8 として提示する。
ステップ S P 8において、 画像処理装置 2のマイクロプロセッサ 3は、 ユーザからの終了指示があるか、 もしくは所定時間が経過したかを基準 に表示ウィ ン ドウ W 5 7の表示処理を終了するか否かを判定し、 肯定結 果が得られると次のステップ S P 1 1へ移って表示ウィ ン ドウ W 5 7の 表示処理を終了する。
これに対して、 ステップ S P 8で否定結果が得られると、 画像処理装 置 2のマイクロプロセッサ 3は、 表示ウイ ン ドウ W 5 7の表示処理を終 了することなく次のステップ S P 9へ移る。 ステップ S P 9において、 画像処理装置 2のマイクロプロセッサ 3は、 ュ一ザによるカーソル操作 に応じて、 表示ウイ ン ドウ W 5 7に対する視点座標が変更されるまで待 ち受け、 次のステップ S P 1 0へ移る。
ステップ S P 1 0において、 画像処理装置 2のマイクロプロセッサ 3 は、 ユーザによって表示ウイ ン ドウ W 5 7に対する視点座標が実際に変 更されたか否かを判定じ、 否定結果が得られると、 ステップ S P 7へ戻 つて当初の座標位置のまま静止'画像の表示ウイ ン ドウ W 5 7を表示させ 続けるのに対し、 肯定結果が得られるとステップ S P 1へ戻って変更後 の新たな視点座標を決定し、 ステップ S P 2以降の処理を繰り返し、 新 たな視点座標を基準とした 3次元表示空間に対して、 表示ウィ ン ドウ W 5 7を再配置する。
ここで、 画像処理装置 2のマイクロプロセッサ 3は、 新たな視点座標 を基準とした 3次元表示空間に対して表示ウィ ン ドウ W 5 7を再配置す る際、 視点変更に拘わらず、 表示ウィ ン ドウ W 5 7 を常にュ一ザに対し て正対するように配置することにより、 表示ウィ ン ドウ W 5 7を常に正 面からユーザに目視確認させ得るようになされている。 ·
このように、 画像処理装置 2のマイクロプロセッサ 3は、 ビデオデ一 夕の静止画像が持つ特徴パラメ一夕に従って、 3次元表示空間上の座標 位置に当該静止画像の表示ウイ ン ドウ W 5 7を配置することができるの で、 複数のビデオデータのピクチャ (静止画像) が指定されているとき には、 それら複数のビデオデータに対応する静止画像の表示ゥイ ン ドウ
W 5 7が配置されてなる画像群 5 8 (図 3 ) として提示することができ、 当該画像群 5 8を介して複数のビデオデータの全体的な傾向をユーザに 対して直感的なィメージとして認識させ得るようになされている。
ところで、 画像処理装置 2のマイクロプロセッサ 3は、 例えば D C T 横周波数軸、 R軸及び G軸からなる 3次元表示空間に対して、 ビデオデ 一夕のピクチャ (静止画像) に対応した表示ウィ ン ドウ W 5 7を配置し て表示している状態で、 ユーザのズームアツプ操作に応じて視点座標を D C T横周波数軸よりの横周波数が大きい位置に動かした場合、 図 1 8 に示すように縦方向に細かいスジが存在するような静止画像の表示ゥィ ン ドウ W 5 7が D C T横周波数軸寄りに多数配置されたズームァップ画 像群 5 8 Z 1を提示し得るようになされている。
また、 画像処理装置 2のマイクロプロセッサ 3は、 例えば D C T横周 波数軸、 R軸及び G軸からなる 3次元表示空間に対してビデオデ一夕の 静止画像に対応した表示ゥイ ン ドウ W 5 7を配置して表示している状態 で、 ユーザのズームアツ.プ操作に応じて視点座標を R軸よりの Rが大き い位置に動かした場合、 .図 1 9に示すように赤色成分を多く含むような 静止画像の表示ゥイ ン ドウ W 5 7が R軸寄りに多数配置されたズームァ ップ画像群 5 8 Z 2を提示し得るようになされている。
更に、 画像処理装置 2のマイグロプロセッサ 3は、 例えば D C T横周 波数軸、 R軸及び. G軸から.なる 3次元表示空間に対してビデオデ一夕の ビクチャ (静止画像) に対応した表示ウイ ン ドウ W 5 7を配置して表示 している状態で、 ュ一ザのズームアツプ操作に応じて視点座標を G軸よ りの Gが大きい位置に動かした場合、 図 2 0に示すように緑色成分を多 く含むような静止画像に対応する表示ウイ ン ドウ W 5 7が G軸寄りに多 数配置されたズームアツプ画像群 5 8 Z 3を提示し得るようになされて いる。 ( 2— 5— 2 ) ビデオデ一夕 (動画像) に対する分類表示処理手順 続けて、 ビデオデ一夕 (動画) に対する表示処理手順を説明するが、 基本的にはビデオデ一ダのピクチャ (静止画像) に対する表示処理手順 R T 1 と考え方は同じであり、 ビデオデ一夕を構成している複数のピク チヤ (静止画像) をフレーム周波数に従って更新する度に上述の静止画 像に対する表示処理手順 R T 1 を実行するのと同様の処理を実行するよ うになされている。
. 実際上、 図 2 1 に示すように、 画像処理装置 2のマイクロプロセッサ 3は、 ル一チン R T 2の開始ステップから入って次のステップ S P 2 1 へ移り、 ユーザによ り指定された 3次元表示空間の表示軸や、 ユーザに 対して画像群 5 8を表示する際の視点座標を決定し、 次のステップ S P 2 2へ移る。
ステップ S P 2 2において、 画像処理装置 2のマイグロプロセッサ 3 は、 ユーザによつて指定された再生すべきビデオ^—夕の静止画像を認 識し、 次のステップ S P 2 3へ移る。 ステップ S P 2 3において、 画像 処理装置 2のマイ クロプロセッサ 3は、 その静止画像を注目フレームと し、 そのサブ · ビデオス ト リ一ム L D 1 をデコ一ドし、 その結果得られ るデコード後のサブ ' ビデオデ一夕を G P U 4へデ一夕転送し、 次のス テヅプ S P 2 4へ移る。
ステップ S P 2 4において、 画像処理装置 2のマイクロプロセッサ 3 は、 その静止画像に対応付けられているメタデ一夕フアイル M D Fから 3次元表示空間の表示軸に用いられる特徴パラメ一夕の特徴量を照会し て受け取り、 次のステップ S P 2 5へ移る。
ステヅプ S P 2 5において、 画像処理装置 2のマイクロプロセッサ 3 は、 ステップ S P 2 4で受け取った特徴パラメ一夕の特徴量に基づいて、 ビデオデ一夕を構成している各静止画像対応する表示ウイ ン ドウ W 5 7 を貼り付けるべき 3次元表示空間上の座標パラメ一夕 (座標位置) を計 算し、 次のサブルーチン S R T 1へ移る。 すなわち、 画像処理装置 2の マイクロプロセッサ 3 ·は、. ビデオデ一夕を構成している複数のピクチャ (静止画像) がそれぞれ有する特徴量を表示軸とする 3次元表示空間上 の座標パラメ一夕 (座標位置) に変換するようになされている。
サブルーチン S R T 1において、 画像処理装置 2のマイクロプロセヅ サ 3は、 ビデオデータを構成している複数の静止画像のうち前回表示し た静止画像の 3次元表示空間上の座標パラメ一夕 (座標位置) と、 更新 後の次に表示すべき静止画像の 3次元表示空間上の座標パラメ一夕 (座 標位置) との相互位置関係に基づいて、 座標補正処理を行うことにより 補正座標を計算し、 次のステップ S P 2 6へ移る。 因みに、 このサブル —チン S R T 1における座標補正処理手順については、 後述する。
ステップ S P 2 6において、 画像処理装置 2のマイクロプロセヅサ 3 は、 G P U 4により、 ステップ S P 2 5で計算した 3次元表示空間上の 座標位置、 又はサブルーチン S R T 1で得られた補正座標に基づいて、 ビデオデ一夕を構成している各静止画像に対応する表示ウィン ドウ W 5 .7を 3次元表示空間上に貼り付け、 ステップ S P 2 1で決定した視点座 標に基づいて、 3次元表示空間上の座標位置を、 表示部 5 5の 2次元画 面における 2次元座標位置 (表示位置パラメ一タ) に変換すると共に、 表示ゥイ ン ドウ W 5 7の表示サイズをそれぞれ決定し、 その 2次元座標 位置に当該表示ウイン ドウ W 5 7を静止画像の更新順に描画して表示し、 次のステップ S P 2 7へ移る。 . ステップ S P 2 7において、 画像処理装置 2のマイクロプロセッサ 3 は、 ユーザからの終了指示があるか、 もしくは所定時間が経過したかを 基準にビデオデータのに対応する表示ウイ ン ドウ W 5 7の表示処理を終 了するか否かを判定し、 肯定結果が得られると次のステヅプ S P 2 8へ 移って、 表示ウイ ンドウ W 5 7の表示処理を終了する。
これに対して、 ステップ S P 2 7で否定結果が得られると、 画像処理 装置 2のマイクロプロセッサ 3は、 表示ウィ ン ドウ W 5 7の表示処理を 終了することなくステップ S P 2 1へ戻って次に指定されるビデオデー 夕に対応する表示ウイ ン ドウ W 5 7に対する表示処理を実行する。
このように、 画像処理装置 2のマイクロプロセッサ 3は、 ビデオデー 夕を構成する静止画像が有する特徴量パラメ一夕が表示軸に設定された 3次元表示空間上の座標位置に、 当該静止画像の表示ウイ ン ドウ W 5 7 を配置し、 . 3次元表示空間上に配置された表示ウイ ン ドウ W 5 7の静止 画像をフレーム周波数に従って更新する度に、 当該静止画像の特徴パラ メ一夕の示す特徴量が変化することに応じて、 3次元表示空間上の座標 位置 (座標パラメ一夕) を変更して配置し直すことによ り、 表示ウィ ン ドウ W 5 7の静止画像を更新する度にあたかも当該表示ウイ ン ドウ W 5 7が 3次元表示空間上を浮遊して移動するかのような印象をユーザに与 えることができるので、 ビデオデータの時系列的な特徴 (傾向) を、 そ の再生映像の進行に伴った表示ウイ ン ドウ W 5 7の動きの変化によるィ メ一ジとして、 ユーザに直感的かつ瞬時に認識させ得るようになされて いる。
( 2— 5— 3 ) 複数のビデオデータ (動画像) に対する同時表示処理手 順
同様に、 複数のビデオデータに対する同時表示処理手順を説明するが、 基本的には 1つのビデオデータに対する表示処理手順 R T 2 と考え方は 同じであり、 ビデオデ一夕.を構成している複数の静止画像を更新する度 に、 各静止画像の特徴パラメ一夕の変化に応じて、 3次元表示空間上の 配置場所を変更しながら、 表示ウィ ン ドウ W 5 7を移動表示することを、 ビデオデータ毎に同時並行して実行するようになされている。
図 2 2に示すように、 実際上、 画像処理装置 2のマイクロプロセヅサ 3は、 ルーチン R T 3の開始ステヅプから入って次のステップ S P 3 1 へ移り、 ユーザによ り指定された 3次元表示空間の表示軸や、 ユーザに 対して画像群 5 8を表示する際の視点座標を決定し、 次のステップ S P 3 2へ移る。
ステップ S P 3 2において、 画像処理装置 2のマイクロプロセッサ 3 は、 ユーザによって指定された再生すべき複数のビデオデ一夕における 静止画像をそれぞれ認識し、 次のステップ S P 3 3、 ステップ S P 3 6、 ステップ S P 3 9へ移る。
ステップ S P 3 3、 ステップ S P 3 6及びステップ S P 3 9において、 画像処理装置 2のマイ クロプロセッサ 3は、 各静止画像を注目フ レーム とし、 そのサブ ' ビデオ津砥リーム L D 1をデコー ド、し、 その結果得ら れるデコード後のサブ . ビデオデータをそれぞれ G P U 4へデータ転送 し、 次のステップ S P 3 4、 ステップ S P 3 7、 ステップ S P 4 0へ移 る。
ステップ S P 3 4、 ステップ S P 3 7及びステップ S P 4 0において、 画像処理装置 2のマイクロプロセッサ 3は、 各静止画像に対応付けられ ているメタデ一夕ファイル MD Fから 3次元表示空間の表示軸に用いら れる特徴パラメ一夕の特徴量をそれぞれ照会して受け取り、 次のステツ プ S P 3 5、 ステップ S P 3 8、 ステップ S P 4 1へ移る。
ステップ S P 3 5、 ステップ S P 3 8及びステップ S P 4 1において、 画像処理装置 ·2のマイクロプロセヅサ 3は、 ステップ S Ρ 3 4、 ステツ プ S Ρ 3 7、 ステップ S Ρ 4 0で受け取った特徴パラメ一夕の特徴量に 基づいて、 各ビデオデ一夕.における各静止画像の表示ウィ ン ドウ W 5 7 . を貼り付けるべき 3次元表示空間上の座標パラメ一夕 (座標位置) を計 算し、 次のサブルーチン S R Τ 1へそれぞれ移る。 すなわち、 画像処理 装置 2のマイ クロプロセッサ 3は、 複数のビデオデ一夕をそれぞれ構成 している各静止画像が有する特徴パラメ一夕が表示軸に設定された 3次 元表示空間内の座標パラメ一夕 (座標位置) に変換するようになされて いる。 サブルーチン S R T 1において、 画像処理装置 2のマイクロプロセヅ サ 3は、 ビデオデ一夕を構成している複数の静止画像のうち、 前回表示 した静止画像の 3次元表示空間内の座標パラメ一夕 (座標位置) と、 次 に表示する静止画像の 3次元表示空間上の座標パラメ一夕 (座標位脣) との相互位置関係に基づいて、 それぞれ座標補正を行うことにより補正 座標を得、 次のステップ S Ρ 4 2へ移る。
ステップ S Ρ 4 2において、 画像処理装置 2のマイクロプロセッサ 3 は、 G P U 4 によ り、 ステップ S Ρ 3 5、 ステップ S Ρ 3 8、 ステッ プ S Ρ 4 1で計算した 3次元表示空間上の座標位置に基づいて、 ビデオデ 一夕を構成している各静止画像の表示ウイ ン ドウ W 5 7を 3次元表示空 間内にそれぞれ貼り付け、 ステップ S Ρ 3 1で決定した視点座標に基づ いて、 3次元表示空間内の座標位置を、 表示部 5 5の 2次元画面におけ る .2次元座標位置 (表示位置パラメ一夕) にそれぞれ変換すると共に、 各表示ウィ ン ドウ W 5 ,7の表示サイズをそれぞれ決定し、 その 2次元座 標位置にその各表示ゥイ ン ドウ W 5 7をそれぞれ配置することにより画 像群 5 8を表示し、 次のステップ S P 4 3へ移る。
ステップ S Ρ 4 3において、 画像処理装置 2のマイクロプロセッサ 3 は、 ユーザからの終了指示があるか、 もしくは所定時間が経過したかを 基準に画像群 5 8の表示処理を終了するか否かを判定し、 肯定結果が得 られると次のステップ S P 4 4へ移って複数のビデオデータに対応した 複数の表示ウイ ン ドウ W 5 7 ·からなる画像群 5 8の表示処理を終了する。
これに対して、 ステ ヅプ S Ρ 4 4で否定結果が得られると、 画像処理 装置 2のマイクロプロセッサ 3は、 画像群 5 8の表示処理を終了するこ となくステップ S Ρ 3 1へ戻って次に指定されるビデオデ一夕の表示ゥ イン ドウ W 5 7に対する表示処理を実行する。
このように、 画像処理装置 2のマイクロプロセッサ 3は、 複数のビデ ォデ一夕におけるそれぞれの静止画像が有する表示軸の特徴パラメ一夕 に対する特徴量に従って、 3次元表示空間内の座標パラメ一夕 (座標位 置) に、 当該複数の静止画像の表示ウイ ン ドウ W 5 7をそれぞれ配置し、 3次元仮想空間内にそれぞれ配置された表示ウイ ン ドウ W 5 7の静止画 像をフレーム周波数に従って更新する度に、 当該静止画像の特徴パラメ 一夕の示す特徴量が変化することに応じて 3次元表示空間内の座標パラ メ一夕 (座標位置) をそれぞれ変更して配置し直すことによ り、 複数の ビデオデ.一夕に対応した表示ウイ ン ドウ W 5 7の静止画像を更新する度 にあたかも当該表示ウィ ン ドウ W 5 7が 3次元表示空間内を浮遊移動す るかのような印象をユーザに与えることができるので、 複数のビデオデ —夕の特徴 (傾向) を、 複数の表示ウイ ン ドウ W 5 7の動きの変化によ るイメージとしてユーザに直感的かつ瞬時に認識させ得るようになされ ている。
すなわち、 画像処理装置 2では、 複数のビデオデータを構成している 静止画像の特徴が非常に似ていれば、 それぞれのビデオデータに対応し た表示ウイ ン ドウ W 5 7が浮遊する動き · 方向も揃ったものになる。.一 方、 複数のビデオデ一夕を構成している静止画像の特徴が異なっている 場合には、 それぞれのビデオデータに対応した表示ウイ ン ドウ W 5 7の 動き · 方向は全て異なったものになる。
従って、 このような場合、 画像処理装置 2では、 複数のビデオデータ のうち、 表示ウィ ン ドウ W 5 7の動きを、 注目したいビデオデータのみ がュ一ザに選択されていれば、 そのビデオデ一夕に対応した表示ウイ ン ドウ W 5 7の動きだけに着目し易くなり、 そのビデオデータの特徴 (傾 向) を、 その表示ウィ ン ドウ W 5 7の動きの変化を表したイ ンパク トの あるイメージとしてュ一ザに印象付けることができる。
具体的には、 図 2 3に示すように、 画像処理装置 2のマイクロプロセ . ヅサ 3は、 画像群 5 8のうち、 あるビデオデ一夕に対応する表示ウィ ン ドウ W 5 7の最初の静止画像に B軸の青色成分が強く含まれている場合、 その静止画像が有する B軸の特徴パラメ一夕の示す特徴量に応じて表示 ウィ ン ドウ W 5 7を画面左下隅の位置 P 0 1に配置する。
その後、 画像処理装置 2のマイクロプロセッサ 3は、 ビデオデータの 静止画像を更新すると、 その更新後の次の静止画像における青色成分の 特徴量に応じて、 当該静止画像の表示ウイ ン ドウ W 5 7を位置 P 0 1か ら移動させた位置 P O 2へ配置し直す。
さらに、 画像処理装置 2のマイクロプロセヅサ 3は、 ビデオデータの 静止画像を更に更新すると、 その更新後の次の静止画像における青色成 分の特徴量に応じて、 当該静止画像の表示ゥイン ドウ W 5 7を先程の位 置 P 0 2から更に移動させた位置 P 0 3へ配置し直す。 · このように、 画像処理装置 2のマイクロプロセッサ 3は、 ビデオデ一 夕の静止画像を更新する度に、 それぞれの静止画像の特徴パラメ一夕の 示す特徴量に応じて、 3次元表示空間内の座標位置を変更しながら配置 し直していく ことにより、 ビデオデータに対応した表示ウイ ン ドウ W 5 があたかも表示部 5 5の画面上を浮遊して移動いる様子をユーザに対 して目視確認させ得るようになされている。
( 2— 5— 4 ) 座標補正処理手順
次に、 上述のルーチン; R T 2におけるサブルーチン S R T 1 (図 2 1 ) の座標補正処理 · '
手順及びルーチン R T 3におけるサブルーチン S R T 1 (図 2 2 ) にお ける座標補正処理
手順について説明するが、 これらは全て同じ処理手順である。
図 2 4に示すように、 この座標補正処理手順 S R T 1では、 表示ウイ ンドウ W 5 7の静止画像を更新する際、 当該表示ウイン ドウ W 5 7を静 止画像の特徴量に応じて順次移動させるときに、 図 2 5に示すように、 シーンチェンジ等により大きく表示ウィンドウ W 5 7をジャンプさせる 場合、 一気にジャンプしてしまうのではなく、 移動スピードを調整しな W
がら (段階的に移動させながら) 最終的に目的の移動先に配置させるよ うになされており、 その際に本来の移動先となる座標位置ではなく補正 計算により算出した次の補正座標の位置まで移動させることにより、 ュ
—ザに表示ウィン ドウ W 5 7の動きを目で追わせながら当該表示ウイ ン ドウ W 5 7を移動表示させ得るようになされている。
実際上、 画像処理装置 2のマイクロプロセッサ 3は、 サブルーチン S R T 1の開始ステップかち入って次のステヅプ S P 6 1へ移り、 ビデオ データの静止画像を更新する際、 現在の静止画像に対応した表示ゥィ ン ドウ W 5 7の 3次元表示空撣内の位置 P 0 n,から次の静止画像に対応し た表示ウイ ン ドウ W 5 7の 3次元表示空間内の位置 P 0 n + 1へを移動 させるときの移動先座標 (位置 P O n + 1 ) と現在座標 (位置 P O n ) との差分を算出することにより、 仮移動距離 (ュ一クリ ッ ド距離) を求 め、 次のステップ S P 6 2へ移る。
ステップ S P 6 2において、 画像処理装置 2のマイクロプロセヅサ 3 は、 移動先座標と現在座標との差分を算出し、 その大きさが 「 1」 のべ ク トルを移動方向べク トルとして求め、 次のステップ S P 6 3へ移る。 ステップ S P 6 3において、 画像処理装置 2のマイクロプロセッサ 3 は、 ステップ S P 6 1で求めた仮移動距離の方が予め定めておいた所定 の移動最小値よりも小さいか否かを判定する。 ここで肯定結果が得られ ると、 このことは仮移動距離が移動最小値よりも小さいこと、 すなわち 現在の静止画像に対応した表示ウイ ンドウ W 5 7の位置 P 0 nから.次の 静止画像に対応した表示ウイ ン ドウ W 5 7の位置 P 0 n + 1へ当該表示 ウィン ドウ W 5 7を移動させた場合でもその距離が短く、 ユーザに表示 ウィ ン ドウ W 5 7の動きを目で追わせることが十分可能であることを表 しており、 このときマイクロプロセッサ 3は次のステップ S P 6 4へ移 る。
ステップ S P 6 4において、 画像処理装置 2のマイクロプロセッサ 3 U D ^ 6,
WO 2007/126096
は、 表示ウィ ン ドウ W 5 7を次に移動させるべき移動先座標が次の静止 画像の特徴量に応じて定められる座標値そのものであると認識し、 その 座標値に表示ウイ ンドウ W 5 7を配零した後、 ステップ S P 6 8へ移つ て処理を終了する。
これに対して、 ステップ S P 6 3で否定結果が得られると、 このこと は仮移動距離が移動最小値よりも大きいこと、 すなわち現在の静止画像 に対応した表示ウイ ン ドウ W 5 7の位置 P 0 nから次の静止画像に対応 した表示ウイ ン ドウ W 5 8の位置 P 0 n + 1へ当該表示ウイン ドウ W 5 7を移動させた場合にはその距離が非常に長く、 ユーザに表示ウイ ン ド ゥ W 5 7の動きを目で追わせることが困難であることを表しており、 こ のとき画像処理装置 2のマイ クロプロセヅサ 3は、 次のステヅプ S P 6 5へ移る。
ステヅプ S P 6 5において、 画像処理装置 2のマイクロプロセヅサ 3 は、 予め定めておいた所定の移動最大値よりもステップ S P 6 1で求め た仮移動距離の 1 / 2 (以下、 これを仮移動距離 / 2 と表現する) の方 が大きいか否かを判定する。 ここで肯定結果が得られると、' このことは 仮移動距離/ 2が移動最大値よりも大きいこと、 すなわち現在の静止画 像に対応した表示ウイ ン ドウ W 5 7の位置 P 0 nから仮移動距離/ 2に 相当する補正座標の位置へ当該表示ウイ ンドウ W 5 7を移動させた場合 でも未だその距離が長く.、 ユーザに表示ウィ ン ドウ W 5 7の動きを目で 追わせることが困難であることを表しており、 このとき画像処理装置 2 のマイ クロプロセッサ 3は次のステップ S P 6 6へ移る。
ステップ S P 6 6において、 画像処理装置 2のマイ クロプロセッサ 3 は、 補正座標 (二現在座標 +移動方向ベク トル X移動最大値) を求め、 この求めた補正座標を表示ウイ ン ドウ W 5 7の移動先座標として決定し、 次のステップ S P 6 8へ移って処理を終了する。
これに対して、 ステップ S P 6 5で否定結果が得られると、 このこと は仮移動距離 / 2が移動最大値よ りも小さいこと、 すなわち現在の静止 画像に対応した表示ウイ ン ドウ W 5 7の位置 P 0 nから仮移動距離/ 2 に相当する補正座標の位置へ当該表示ウイ ン ドウ W 5 7 を移動させた場 合の距離が短く、 ユーザに表示ゥイ ン ドウ W 5 7の動きを目で追わせる ことが容易であることを表しており、 このときマイ クロプロセッサ 3は 次のステップ S P 6 7へ移る。
ステップ S P 6 7において、 画像処理装置 2のマイクロプロセッサ 3 は、 補正座標 (=現在座標 +移動方向ベク トル X仮移動距離 / 2 ) 'を求 め、 この求めた補正座標を表示ゥイ ン ドウ W 5 7の移動先座標として決 定し、 次のステップ S P 6 8へ移って処理を終了する。
このようにすれば、 画像処理装置 2のマイクロプロセッサ 3は、 例え ば図 2 6に示すように、 あるビデオデ一夕の表示ウイ ン ドウ W 5 7がそ のときの静止画像に対応した位置 P 0 nの現在座標から、 次の静止画像 に対応した位置 P 0 n + 1へ瞬時に移動するシ一ンチェンジがあった場 合、 上述の座標補正処理手順 S R T 1 を実行することにより、 当初、 表 示ウィ ン ドウ W 5 7の位置 P O nから次に移動する予定の移動先座標の 位置; P 0 11 + 1 までの仮移動距離が移動最小値より も大きい場合、 仮移 動距離 Z 2か、 若しくは移動最大値の分だけ移動させるように補正座標 を求め (この場合、 仮移動距離 Z 2の座標位置)'、 その補正座標に対応 した位置 P O mに表示ウイ ン ドウ W 5 7を一時的に配置して表示する。 このとき、 画像処理装置 2めマイクロプロセッサ 3は、 シーンチェン ジ後の静止画像を表示ウイ ン ドウ W 5 7に表示するが、 これに限るもの ではなく、 シーンチェンジ後の位置 P 0 n + 1 まではシーンチェンジ前 の静止画像を表示ウィ ン ドウ W 5 7に表示しても良く、 また、 シーンチ ェンジ前からシーンチェンジ後までの中間位置まではシーンチェンジ前 の静止画像を表示ウイ ン ドウ W 5 7に表示し、 それ以降シーンチェンジ 後までは当該シーンチェンジ後の静止画像を表示ウイ ン ドウ W 5 7に表 示しても良い。
そして、 画像処理装置 2のマイクロプロセッサ 3は、 その表示ウィ ン ドウ W 5 7の位置 P O mから、 その次の更新した静止画像に対応した位 置 P 0 n + 2までの仮移動距離が未だ移動最小値よりも大きい場合、 仮 移動距離 / 2か、 若しくは移動最大値の分だけ移動させるように補正座 標を再度求め、 その補正座標に対応した位置 P 0 m + 1に表示ウイ ン ド ゥ W 5 7を一時的に配置して表示する。
続けて、 画像処理装置 2のマイクロプロセッサ 3は、 その表示ウィ ン ドウ W 5 7の位置 P O m + 1から、 更に更新した静止画像に対応した位 置 P 0 n + 3までの仮移動距離が未だ移動最小値よりも大きい場合、 仮 移動距離 / 2か、 若しくは移動最大値の分だけ移動させるように補正座 檫を再度求め、 その補正座標に対応した位置 P O m + 2に表示ウイ ンド ゥ W 5 7を一時的に配置して表示する。
その後、 画像処理装置 2のマイクロプロセッサ 3は、 その表示ウィ ン ドウ W 5 7の位置 P O m + 2から、 更に更新した静止画像に対応した位 置: P 0 n + 4までの仮移動距離が遂に移動最小値よりも小さくなった場 合、 その仮移動距離に対応した移動先座標の位置 P 0 n + 4に.表示ゥィ ンドウ W 5 7を直接移動させて表示するようになされている。
即ち、 画像処理装置' 2のマイクロプロセッサ 3は、 ビデオデータに対 応した表示ゥイン ドウ W 5 7の静止画像をそのフレーム周波数に従って 更新する際、 当該表示ウイ ン ドウ W 5 7を静止画像の特徴パラメ一夕の 示す特徴量に応じてフレーム毎に配置し直すが、 シーンチェンジ等によ り大きく表示ウイ ンドウ W 5 7をジャンプさせる必要が生じたときであ つても、 当該表示ウィ ンドウ W 5 7を一気にジャンプしてしまうのでは なく、 目的の移動先に近付くに連れて段階的に移動距離を次第に短く し ながら近付けさせるように配置し直していく ことにより、 シーンチェン ジ時における表示ウイ ン ドウ W 5 7の動きをユーザが見失うことなく追 従させ得るようになされている。
( 3 ) 再配置処理
次に、 画像処理装置 2では、 3次元表示空間の表示軸を決めて、 ビデ . ォデ一夕の表示ウィ ン ドウ W 5 7を 3次元表示空間内にそれぞれ配置し た後に、 ュ一ザの操作に応じて 3次元表示空間の表示軸を任意に変更し て表示ウイ ン ドウ W 5 7を再度配置し直すことが可能であり、 その再配 置処理について説明する。
画像処理装置 2のマイクロプロセッサ 3は、 ビデオデータの表示ウイ ン ドウ W 5 7 を 3次元表示空間内に配置した後に、 ユーザによる G U I 6 5 (図 4〜図 6 ) を介した表示軸のパラメ一夕を変更する操作に応じ て、 新たな表示軸による新たな 3次元表示空間を生成し直すようになさ れている。
このとき、 画像処理装置 2のマイクロプロセッサ 3は、 図 2 7に示す ル一チン R T 4め開始ステップから入って次のステヅプ S P 7 1へ移り、 ユーザの表示軸に対する特徴パラメ一夕変更操作の内容を認識し、 現在 の表示軸から変更すべき新たな表示軸に対応する特徴パラメ一夕を確認 した後、 次のステップ S P 7 2へ移る。
ステップ S P 7 2において、 画像処理装置 2のマイクロプロセッサ 3 は、 新たな 3次元表示空間の表示軸と、 そのときの視点座標を決定し、 次のステヅプ S. P 7 3へ移る。 但しマイクロプロセッサ 3は、 視点座標 について何ら変更がなければ、 従前の視点座標をそのまま用いるように なされている。
ステップ S 7 2において、 画像処理装置 2のマイクロプロセヅサ 3 は、 既に画像群 5 8を構成する複数の表示ゥイ ン ドウ W 5 7を介して表 示していたビデオデ一夕の静止画像を注目フレームとし、 その注目フレ ームに対応付けられているメ夕デ一夕ファイル M D Fから新たな 3次元 表示空間の表示軸に用いられる特徴パラメ一夕の特徴量を照会して受け 取り、 次のステップ S P 7 4へ移る。
ステップ S P 7 4において、 画像処理装置 2のマイクロプロセッサ 3 は、 ステップ S P 7 3で受け取った特徴パラメ一夕の特徴量に基づいて 静止画像の表示ウィ ン ドウ' W 5 7を貼り付けるべき新たな 3次元表示空 間内の座標パラメ一夕 (座標位置) を再計算し、 次のステップ S P 7 5 へ移る。
' ステップ S P 7 5において、 画像処理装置 2のマイクロプロセッサ 3 は、 表示ウィ ン ドウ W 5 7に表示すべきビデオデ一夕の静止画像がこれ で終わりか否かを判定する。
ここで肯定結果が得られると、 このことはこれら以外のビデオデータ を表示すべき表示ウイ ン ドウ W 5 7が他には存在しないことを表してお り、 このときマイクロプロセッサ 3は次のステップ S P 7 6へ移る。 これに対して、 画像処理装置 2のステップ S P 7 5で否定結果が得ら れると、 このことは他に表示すべきビデオデータの表示ゥイ ン ドウ W 5 7が他にも存在することを表しており、 このときマイクロプロャヅサ 3 はステップ S P 7 2へ戻って、 上述の処理を繰り返すことによ り、 複数 のビデオデ一夕にそれぞれ対応した複数の表示ウイ ン ドウ W 5 7に対す る新たな 3次元表示空間上の座標位置をそれぞれの静止画像の特徴パラ メ一ダに従って計算する。
ステップ S P 7 6において、 マイクロプロセッサ 3は、 G P U 4によ り、 ステップ S P 7 4で計算した新たな 3次元表示空間の座標位置に基 づいて、 ビデオデ一夕の表示ウイ ン ドウ W 5 7を新たな 3次元表示空間 に描画して貼り付けると共に、 ステップ S P 7 2で決定した視点座標に 基づいて新たな 3次元表示空間の座標位置を 2次元画面に表示するため の 2次元座標 (表示位置パラメ一夕) に変換すると共に、 複数の表示ゥ イ ン ドウ W 5 7の表示サイズを決定し、 その 2次元座標にこれら複数の 表示ウィ ン ドウ W 5 7を表示することにより、 新たな 3次元表示空間上 に再配置し直した複数の表示ウイ ン ドウ W 5 7からなる画像群 5 8を提 示し得、 次のステップ S P 7 7へ移る。
ステップ S P 7 7において、 マイクロプロセッサ 3は、 ユーザからの 終了指示があるか、 も しくは所定時間が経過したかを基準にして、 画像 群 5 8の表示を終了するか否かを判定し、 肯定結果が得られると次のス テツプ S P 8 0へ移って画像群 5 8の表示処理を終了する。
これに対して、 ステップ S P 7 7で否定結果が得られると、 マイ クロ プロセヅサ 3は画像群 5 8の表示を終了することなく次のステツプ S P 7 8へ移る。 ステヅプ S P 7 8において、 マイクロプロセッサ 3は、 ュ —ザによる力一ソル操作に応じて表示ウイ ン ドウ W 5 7に対する視点座 標が次に変更されるまで待ち受け、. 次のステップ S P 7 9へ移る。
ステップ S P 7 9において、 マイクロプロセッサ 3は、 ュ一ザによつ て表示ウィ ン ドウ W 5 7に対する視点座標が実際に変更されたか否かを 判定し、 否定結果が得られると、 ステップ S P 7 6へ戻ってそのまま画 像群 5 8を表示させ続けるのに対し、 肯定結果が得られるとステップ S P 7 1へ戻ってユーザの表示軸に対する特徴パラメ一夕変更操作の内容 を認識し、 現在の表示軸から変更すべき新たな表示軸の特徴パラメ一夕 を確認した後、 次のステップ S P 7 2以降の処理を繰り返す。 ·
このように、 画像処理装置 2のマイクロプロセッサ 3は、 図 2 8に示 すように、 ビデオデータの静止画像の特徴パラメ一夕の示す特徴量に従 つて、 当初は例えば B軸、 D C T縦周波数軸及び D C T横周波数軸から なる 3次元表示空間内に配置された表示ウイ ン ドウ W 5 7 1及び W 5 7 2であっても、 そめ表示軸が例えば R軸、 B軸及び G軸に変更された新 たな 3次元表示空間内に配置し直した場合には、 その表示ウィ ン ドウ W 5 7 1及び W 5 7 2の分置結果を大きく変更した状態で再提示し得るよ うになされている。
従って、 画像処理装置 2のマイ クロプロセッサ 3は、 3次元表示空間 の表示軸をユーザの好みに合わせて任意に変更し、 表示ウィン ドウ W 5 7を再配置することにより、 その再配置結果を介して、 ビデオデ一夕の 全体的な特徴 (傾向) をユーザに対して直感的に認識させ得るようにな されている。
これにより、 ュ一ザは、 当初の B軸、 D C T縦周波数軸及び D C T横 周波数軸からなる 3次元表示空間内に配置された表示ウイ ンドウ W 5 7 1及び W 5 7 2を目視確認しただけでは 「海」 の静止画像が有する青色 成分の特徴量が似通っている印象しか受けないが、 次に R軸、 B軸及び G軸に変更された新たな 3次元表示空間上に分類配置された表示ウイン ドウ W 5 7 1及び W 5 7 2を目視確認したときには、 その静止画像にお ける緑色成分及び赤色成分の特徴量がそれぞれ異なつている印象を受け ることになり、 ビデオデータの管理及び検索を容易に実行することがで きるようになる。
( 4 ) グループ表示処理 ,
また、 画像処理装置 2では、 ビデオデータの静止画像における特徴が 類似している表示ウイ ン ドウ W 5 7同士をグループ化して表示すること が可能であり、 ここではそのグループ表示処理について説明する。
例えば、 図 2 9 · ( A ) 及び (B ) に示すように、 画像処理装置 2のマ イク口プロセッサ 3は、 例えば複数のビデオデ一夕にそれぞれ対応した 複数の表示ウイン ドウ W 5 7 1〜W 5 7 8を 3次元表示空間内に配置し て表示する場合、 これら複数の表示ゥイ ンドウ W 5 7 1〜W 5. 7. 8につ いては、 複数のビデオデータをそれぞれ再生する際、 そこに表示する静 止画像を更新する度に、 当該 ¾示ウイ ンドウ W 5 7 1〜W 5 7 8が矢印 方向へ少しずつ移動していく。 .
そして、 図 2 9 ( C ) に示すように画像処理装置 2のマイクロプロセ ッサ 3は、 ビデオデ一夕の再生途中段階又は再生終了時に、 隣合う表示 ウィン ドウ W 5 7 1〜W 5 7 8同士の距離 L 1を算出し、 その距離 L 1 が所定の閾値 T H 1未満であれば互いに隣接する静止画像同士の特徴量 における類似性が高く、 閾値 T H 1以上であれば互いに隣接する静止画 像同士の特徴量における類似性が低いと判断し、 例えば類似性が高いも の同士の表示ウィ ン ドウ W 5 7 1、 W 5 7 3を第 1グループとし、 当該 表示ゥイ ンドウ W 5 7 1、 W 5 7 3の表示枠を第 1の所定色に色付けし て表示し、 同様に表示ウィ ン ドウ W 5 7 2、 W 5 7 7、 W 5 7 8を第 2 グループとして第 2の所定色に色付けして表示するようになされている。 この場合、 画像処理装置 2のマイクロプロセッサ 3は、 例えば表示ゥ イ ンドウ W 5 7 4、 W 5 7 6、 W 5 7 5に関しては互いの距離 L 1が閾 値 T H 1以上であり、 互いに隣接する静止画像の特徴量における類似性 が低いのでグループ分けの対象から外し、 例えばその表示ウイ ンドウ W 5 7 4 s W 5 7 6、 W 5 7 5の輝度レベルを落として表示することによ り、 第 1グループや第 2グループと視覚的な違いを持たせるようになさ れている。
実際上、 図 3 0に示すように、 画像処理装置 2のマイ.クロプロセッサ 3は、 ルーチン: T 5の開始ステヅプから入って次のステヅプ S P 9 1 へ移り、 表示部 5 5に表示した画像群 5 8を構成している複数の表示ゥ ィ ン ドウ W 5 7 1〜 W 5 7 8のうち互いに隣接している表示ウィ ン ドウ W 5 7間の距離 L 1をそれぞれ算出し、 次のステヅプ S P 9 2へ移る。 ステヅプ S P 9 2において、 画像処理装置 2のマイク口プロセヅサ 3 は、 互いに隣接している表示ウイ ンドウ W 5, 7間の距離 L 1.と予め設定 された所定の閾値 T H 1 とを比較し、 距離 L 1.が閾値 T H. 1未満である か否かを判定し、.肯定結果が得られると次のステツプ S P 9 3へ移る。 ステヅプ S P 9 3において、 画像処理装置 2のマイクロプロセッサ 3 は、 隣接している表示ウイ ン ドウ W 5 7間の距離 L 1が閾値 T H 1未満 であるので、 3次元表示空間内で非常に近接した位置に複数の表示ウイ ン ドウ W 5 7が配置されていると認識し、 すなわちこれら複数の表示ゥ イ ン ドウ W 5 7の静止画像が有する特徴量が似通っており、 互いに類似 していると判断し、 次のステップ S P 9 4へ移る。
ステップ S P 9 4において、 画像処理装置 2のマイグロプロセッサ 3 は、 互いに類似していると判断した複数の表示ウイ ン ドウ W 5 7の表示 枠を第 1の所定色や第 2の所定色に色付け表示することにより、 互いに 似通つた特徴量を持つグループとして色分け表示し、 次のステップ S P 9 5へ移る。 '
ステップ S P 9 5において、 画像処理装置 2のマイクロプロセッサ 3 は、 画像群 5 8における全ての表示ウイ ン ドウ W 5 7について類似判断 が終了したか否かを判定し、 否定結果が得られるとステップ S P 9 1へ 戻って上述の処理を繰り返し、 全ての表示ウィ ン ドウ W 5 7に対する類 似判断が終了し、 肯定結果が得られると次のステップ S P 9 8へ移って 処理を終了する。 ,
これに対して、 ステップ S P 9 2で否定結果が得られると、 画像処理 装置 2のマイクロプロセッサ 3は次のステップ S P 9 6へ移り、 隣接し ている表示ウィ ン ドウ W 5 7間の距離 L 1が閾値 T H 1以上であるので、 両者は 3次元表示空間内の近接した位置に配置されておらず、 すなわち これら隣接した表示ウイ ン ドウ W 5 7の静止画像が有する特徴量が似通 つていないので互いに非類似であると判断し、 次のステップ S P 9 7へ 移る。 '
ステップ S P 9 7において、 画像処理装置 2のマイクロプロセッサ 3 は、 互いに非類似であると判断した隣接した複数の表示ウイ ン ドウ W 5 7についてはグループ化することなく、 それらの表示ウィ ンドウ W 5 7 の輝度レベルを所定レベルに落として表示することによ り、 グループ化 できない表示ウィ ン ドウ W 5 7であることを視覚的に認識できるように 提示すると共に、 結果としてグループ化した表示ウイ ン ドウ W 5 7を強 調表示することになり、 次のステップ S P 9 8へ移って処理を終了する。 このように、 画像処理装置 2のマイ クロプロセッサ 3は、 複数のビデ ォデ一夕にそれぞれ対応した複数の表示ゥイ ン ドウ W 5 7上で、 再生途 中 · 再生終了時の表示形態として、 静止画像を基準としてその類似性を 判断することによ り類似性のあるグループと類似性のないグル一プに分 け、 類似性のあるグループに対しては表示ウイ ン ドウ W 5 7の表示枠を 色付け表示し、 類似性のない表示ウイ ン ドウ W 5 7に対しては表示ウイ ン ドウ W 5 7の輝度レベルを低下して表示することによ り、 ユーザに対 して画像群 5 8の各表示ウイ ン ドウ W 5 7が持つ特徴量の傾向を色分け されたグループによって瞬時かつ直感的に認識させ得るようになされて いる。
ところで、 画像処理装置 2のマイクロプロセッサ 3は、 複数のビデオ データに対する再生処理を開始する前の時点における最初の静止画像を 基準に上述のグループ表示処理手順 R T 5を実行しても良く、 また、 '.動 画再生中の静止画像を更新する度に上述のグループ表示処理手順 R T 5 を実行しても良い。
因みに、'画像処理装置 2のマイクロプロセッサ 3は、 類似性のない表 示ウィ ン ドウ W 5 7に対する輝度レベルを落として表示するのではなく、 グループ化された表示ウイ ン ドウ W 5 7 とは反対色になるような色付け 表示を行ったり、 グループ化された表示ウイ ン ドウ W 5 7の表示枠に色 付け表示を行うのではなく、 輝度レベルを非常に上げて表示したり、 点 滅表示させるようにしても良く、 要は類似性のあるグループの表示ゥィ ン ドウ W 5 7を他の表示ウィ ン ドウ W 5 7よ り も強調表示できるように すれば良い。
上述したように、 ビデオデータにおける特徴パラメ一夕が類似してい ること、 又は、 類似性のあるグループであることを示す類似度情報を、 新たな特徴パラメ一夕又は後述する付随パラメ一夕として生成すること も可能である。 例えば、 ビデオデータが上述した類似性が高いと判断さ れた場合に、 類似した回数を示すカウン夕をビデオデータ毎に設けて、 カウン トアップすることによ り、 ビデオデータ間の類似性を測定するこ ともできる。 そして、 カウン夕が設定された閾値以上のビデオデ一夕の みを自動的に表示させることも可能である。
( 5 ) 表示応用例
続いて、 画像処理装置 2のマイクロプロセッサ 3が実行可能な表示ゥ イ ン ドウ W 5 7に対する表示応用例について説明する。
( 5 - 1 ) 表示ウィ ン ドウを固定したまま ·3次元表示空間を動かすとき の表示処理
画像処理装置 2では、 ビデオデ一夕に対応した表示ウイ ン ドウ W 5 7 の静止画像を更新する際、 静止画像毎に特徴量が変化することに応じて、 表示部 5 5の表示ウィ ン ドウ W 5 7をその位置に固定したまま、 3次元 表示空間及び他の表示ウィ ン ドウ W 5 7を移動して再配置することが可 能であ り、 ここではそのような表示ウィ ン ドウを固定した表示処理につ いて説明する。 .
これまで、 画像処理装置 2では、 図 2 3に示したように、. .3次元表示 空間を固定したまま、 表示ウィ ン ドウ W 5 7の静止画像を更新する度に、 その静止画像の特徴量に応じて配置先となる 3次元表示空間内の座標パ ラメ一夕 (座標位置) を変更することにより、 表示ウィ ン ドウ W 5 7を あたかも浮遊させるかのように、 その位置 Ρ 0 1〜Ρ 0 3 まで移動表示 する場合について説明してきた。
しかし.ながら、 これに限るものではなく、 画像処理装置 2では、 表示 部 5 5に表示したユーザが注目すべき表示ウィ ン ドウ W 5 7の表示位置 を固定させたまま、 その表示ウィ ン ドウ W 5 7の静止画像を更新する度 に、 各静止画像の特徴量に応じて 3次元表示空間自体を移動 · 回転させ て表示ウイ ン ドウ W 5 7 と 3次元表示空間内の座標との相対的位置関係 を変化させることにより、 固定した表示ウィ ン ドウ W 5 7に対して 3次 元表示空間内の他の表示ウイ ン ドウ W 5 7を近づけさせたり、 遠ざけさ せたりするように浮遊させながら移動表示し得るようになされている。 実際上、 画像処理装置 2のマイクロプロセッサ 3は、 図 3 1に示すよ うに、 図 2 3における位置 P O 1の静止画像を写し出した表示ウイ ン ド ゥ W 5 7 Cを表示部 5 5の画面中央位置 P 0 cに固定させて表示した場 合、 その表示ウイ ン ドウ W 5 7 Cを中心としてその周囲に存在する他の 表示ゥイ ン ドウ W 5 7についても当該表示ゥイ ン ドウ W 5 7 Cとの相対 的位置関係を保った状態で表示する。
この後、 画像処理装置 2のマイクロプロセッサ 3は、 図 3 2に示すよ うに、 表示ウィンドウ W 5 7 Cの静止画像を更新して表示する際、 当該 表示ゥイ ン ドウ W 5 7 Cについては画面中央位置 P 0 cに固定したまま であるため、 更新した静止画像の特徴量に応じて 3次元表示空間と共に 他の表示ウイ ンドウ W 5 7についても移動させる。 ' さらに、 画像処理装置 2のマイクロプロセッサ 3は、 図 3 3に示すよ うに、 表示ウィン ドウ W 5 7 Cの静止画像を更に更新して表示するとき、 当該表示ウイ ンドウ W 5 7 Cについては相変わらず画面中央位置 P〇 c に固定したままであるため、 更新した静止画像の特徴量に応じて 3次元 表示空間と共に他の表示ウイ ンドウ W 5 7についても移動させる。
すなわち、 画像処理装置 2のマイクロプロセッサ 3は、 表示ウィ ン ド ゥ W 5 7 Cにビデオデータの再生映像を表示中、 この表示ウィ ンドウ W 5 7 Cについては画面中央位置 P O cに固定したまま、 フレーム毎に変 化する静止画像の特徴量に応じて 3次元表示空間及び他の表示ウィ ン ド ゥ W 5 7を移動表示させることにより、.その表示ゥイン ドウ W 5 7 Cを 目視確認しているユーザに対しては表示ウイ ンドウ W 5 7 Cを見失うと いう リスクを排除しつつ、 表示ウィ ン ドウ W 5 7 Cと共にユーザ自身が 3次元表示空間の中を移動しているかのような印象を与え得るようにな されている。 このような表示ウィ ン ドウ W 5 7 Cを固定したビデオデータの表示処 理手順を続けて説明する。 図 3 4に示すように、 画像処理装置 2のマイ クロプロセッサ 3は、 ル一チン R T 6の開始ステツプから入って次のス テヅ プ S P 1 0 1へ移る。
ステップ S P 1 0 1において、 画像処理装置 2のマイクロプロセッサ 3は、 ユーザによ り指定された 3次元表示空間の表示軸や、 ユーザに対 して画像群 5 8を表示する際の視点座標を決定し、 次のステップ S P 1 0 2へ移る。
ステップ S P 1 0 2において、 画像処理装置 2のマイ クロプロセッサ 3は、 ユーザによって指定された再生すべきビデオデ一夕の静止画像を 認識し、 次のステップ S P 1 0 3へ移る。 ステップ S P 1 ◦ 3において マイ クロプロセ ヅサ 3は、 その静止画像を注目フ レームと し、 そのサ ブ · ビデオス ト リーム L D 1 をデコ一 ドし、 その結果得られるデコ一 ド 後のサブ ' ビデオデ一夕を G P U 4へデ一夕転送し、 次のステップ S P 1 0 4へ移る。
ステップ S P 1 0 4において、 画像処理装置 2のマイクロプロセッサ 3は、 その静止画像に対応付けられているメ夕デ一夕フ ァイル M D Fか ら 3次元表示空間の表示軸に用いられている特徴パラメ一夕の特徴量を 照会して受け取り、 次のステップ S P 1 0 5へ移る。
ステップ S P 1 0 5において、 画像処理装置 2のマイ クロプロセヅサ 3は、 ステップ S P 1 0 4で受け取った特徴パラメ一夕の特徴量に基づ いて、 静止画像の表示ウイ ン ドウ W 5 7 Cを貼り付けるべき 3次元表示 空間内の座標パラメ一夕 (座標位置) を計算し、 その座標位置が画面中 央位置 P 0 cに相当するように視点座標を変更し、 次のステップ S P 1 0 6へ移る。
ステップ S P 1 0 6において、 画像処理装置 2のマイクロプロセッサ 3は、 注目フ レームの表示ウィ ン ドウ W 5 7 Cを画面中央位置: P 0 cに „„ リ
固定して最初の静止画像を表示すると共に、 その周囲に存在する他のビ デォデ一夕にそれぞれ対応した表示ゥィ ン ドウ W 5 7についても配置し 直して表示し、 次のステップ S P 1 0 7へ移る。
ステップ S P 1 0 7において、 画像処理装置 2のマイクロプロセッサ 3は、 画面中央位置 P O cに表示ウィ ン ドウ W 5 7 Cを固定したまま、 その表示ウィ ン ドウ W 5 7 Cの静止画像を例えばフレーム周波数に従つ て更新し、 その更新後の静止画像に対応付けられているメタデータファ ィル M D Fから表示軸に用いられている特徴パラメ一夕の特徴量を照会 して受け取り、 次のステップ S P 1 0 8へ移る。
ステップ S P 1 0 8において、 画像処理装置 2のマイクロプロセッサ 3は、 G P U 4により、 画面中央位置 P 0 cの表示ゥイ ン ドウ W 5 7 C を固定したまま、 更新後の静止画像の特徴量に応じて 3次元表示空間及 び周囲の表示ウイ ン ドウ W 5 7を動かして描画し直し、 次のステップ S P 1 0 9へ移る。 '
ステップ S P 1 0 9 において、 マイクロプロセッサ 3は、 ユーザから の終了指示があるか、 もしくは所定時間が経過したかを基準にして、 画 面中央位置 P O cの表示ウィ ン ドウ W 5 7 Cの表示処理を終了するか否 かを判定し、 肯定結果が得られると次のステツプ S P 1 1 0へ移って表 示ウィ ン ドウ W 5 7 Cの表示処理を終了する。
これに対して、 ステップ S P 1 0 9で否定結果が得られると、 マイク 口プロセヅサ 3は画面中央位置 P 0 cの表示ゥイ ン ドウ W 5 7 Cの表示. 処理を終了することなくステップ S P 1 0 1へ戻って上述の処理を繰り 返す。
このように、 画像処理装置 2のマイクロプロセッサ 3は、 表示ウィ ン ドウ W 5 7 Cにビデオデ一夕の再生映像を表示中、 この表示ウイ ン ドウ W 5 7 Cを画面中央位置 P O cに固定し、 更新する静止画像の特徴量に 応じて 3次元表示空間及び他の表示ウィ ン ドウ W 5 7を移動表示させる ことにより、 その表示ウイ ン ドウ W 5 7 Cと 3次元表示空間及び他の表 示ウィ ン ドウ W 5 7との相対的位置関係の変化を通して、 ビデオデータ の特徴をュ一ザにィメージとして直感的に認識させ得るようになされて いる。
( 5 - 3 ) サブブラウザによる拡大表示例
更に、 画像処理装置 2のマイクロプロセッサ 3は、 画像群 5 8を構成 している複数の表示ウイ ン ドウ W 5 7の表示サイズが必ずしも大き くな いため、 表示ウイ ン ドウ W 5 7を介してビデオの再生映像を表示したと きでも、 ユーザに対して十分に目視確認させ得ない場合がある。
このような場合、 画像処理装置 2は、 例えば図 3 5に示すように、 画 像群 5 8を構成している複数の表示ゥイ ン ドウ W 5 7のうち、 例えば表 示ウイ ン ドウ W 5 7 1、 W 5 7 2がユーザによってダブルク リ ックされ る等の選択操作が行われると、 当該表示ウィ ン ドウ W 5 7 1、 W 5 7 2 に表示されるビデオデータを画面サイズの大きな 生映像で表示すベく サブブラウザを立ち上げ、 そのサブブラウザによる所定サイズの拡大表 示ウィ ン ドウ BW 5 7 1、 BW 5 7 2に対して、 表示ウィ ン ドウ W 5 7 1、 W 5 7 と同じ再生映像を拡大表示し得るようになされている。' これにより、 画像処理装置 2は、 表示ウイ ン ドウ W 5 7 1.、 W 5 7 2 の配置場所や画面サイズによつて再生映像が非常に小さ く表示されてい た場合であっても、 ユーザに対して拡大表示ウイ ン ドウ BW 5 7 1、 B W 5 7 2を介してその再生映像の内容を目視確認させることができるの で、 複数のビデオデ一夕にそれぞれ対応した複数の表示ウイ ン ドウ W 5 7の中からユーザ所望のビデオデータを容易に探索させることができる。 ここで、 画像処理装置 2のマイ クロプロセッサ 3は、 拡大表示ウィ ン ドウ BW 5 7 1、 BW 5 7 2を表示部 5 5の周囲に並べるように配置し、 表示ウィ ン ドウ W 5 7 1及び拡大表示ウイ ン ドウ BW 5 7 1の表示枠を 同色で色付け表示し、 表示ウィ ン ドウ W 5 7 2及び拡大表示ウイ ン ドウ B W 5 7 2の表示枠を表示ウイ ン ドウ W 5 7 1及び拡大表示ウイ ン ドウ B W 5 7 1の表示枠とは異なる同色で色付け表示するようになされてい る。
これによ り、 画像処理装置 2のマイクロプロセッサ 3は、 ユーザに対 して、 拡大表示ウイ ン ドウ BW 5 7 1、 B W 5 7 2で表示している再生 映像が画像群 5 8の何れの表示ウイ ン ドウ W 5 7 1、 W 5 7 2であるか を同色の表示枠によって容易に判別させ得るようになされている。
なお、 画像処理装置 2のマイクロプロセッサ 3は、 拡大表示ウイ ン ド ゥ BW 5 7 1、 B W 5 7 2を表示部 5 5の周囲に並べるように配置して いる関係で、 この拡大表示ウィ ン ドウ BW 5 7 1、 BW 5 7 2の数が多 くなり過ぎると、 画像群 5 8の表示ウイ ン ドウ W 5 7を隠蔽してしまう ことになるので、 拡大表示ウィ ン ドウ BW 5 7 1、 B W 5 7 2の数が所 定値以上になると、 その縦横サイズを小さ く して画面サイズを縮小する ようになされている。 ' ( 6 ) 表示ウィ ン ドウの軌跡表示処理
ところで、 画像処理装置 2では、 ビデオデータの再生映像を表示ウイ ン ドウ W 5 7によ り表示する場合、 ビデオデ一夕を構成する複数のピク チヤ (静止画像) を更新する度に 3次元表示空間内の座標位置を変えな がら表示することになるため、 ある瞬間の表示ウィ ン ドウ W 5 7の位置 が所定時間経過後には非常に離れた位置にまで移動していることも多く、 そのような場合ユーザはその再生映像の過去のタイ ミ ングではどのよう な特徴を有していたのかを記憶し切れず、 ビデオデ一夕の特徴 (傾向) を十分に認識させ得ないという事態が考えられる。 ' そのような点を考慮し、 画像処理装置 2では、 ビデオデータの再生映 像を表示ウイ ン ドウ W 5 7に表示し、 その表示ウィ ン ドウ W 5 7を 3次 元表示空間内で移動させながら、 その表示ウィ ン ドウ W 5 7の移動経過 を、 3次元表示空間内の軌跡として表示することにより、 ユーザに対し W
てビデオデータの再生映像を表示中にその過去又は未来、 若しく'は双方 の夕ィ ミングではどのような特徴を有しているのかをュ一ザに対して視 覚的に目視確認させ、 そのビデオデータにおける再生映像の表示終了後 であってもビデオデータの特徴 (傾向) を十分に認識させ得るようにな されており、 そのための軌跡表示処理について以下説明する。
( 6 - 1 ) 通常の軌跡表示モード
画像—処理装置 2のマイクロプロセッサ 3は、 図 3 6に示すように、 ビ デォデ一夕の表示ウィ ン ドウ W 5 7が静止画像を更新する度に矢印方向 へ移動表示する際、 全軌跡表示モードが選択されている場合、 現在表示 している静止画像に応じて配置されている表示ウイ ン ドウ W 5 7が過去 に移動してきた軌跡と、 これから表示ウイ ン ドウ W 5 7が移動する未来 の軌跡を線として表示するようになされている。
ここで、 画像処理装置 2のマイクロプロセッサ 3は、 過去の軌跡を表 示する場合、 表示ウィ ンドウ W 5 7の静止画像を更新したときに、 当該 表示ゥイ ン ドウ W 5 7の移動と共に移り変わる表示ウイ ン ドウ W 5 7の 重心点を結ぶことにより生成した線を過去の軌跡として、 例えば赤色で 表示するようになされている。
これに対して、 画像処理装置 2のマイクロプロセヅサ 3は、 未来の軌 跡を表示する場合、 表示ウイ ンドウ W 5 7のこれから更新する予定の静 止画像の特徴量に基づいて当該表示ウイ ンドウ W 5 7が移動する予定の 座標パラメ一夕 (座檫位置) を算出し、 その移動する予定の座標位置に おける未来の表示ウイ ンドウ W 5 7の重心点を順次結んでいく ことによ り生成した線を未来の軌跡として、 例えば青色で表示するようになされ ている。 .
従って、 画像処理装置 2では、 表示ウイ ン ドウ W 5 7の後方に提示し た過去の軌跡については赤色の線で表示し、 前方に提示した未来の軌跡 については青色で表示するように色分けした状態で、 ユーザに目視確認 させることにより、 表示ウイ ン ドウ W 5 7がこれから何れの方向へ向か つて移動表示するかを瞬時かつ直感的に認識させ得るようになされてい る。
なお、 画像処理装置' 2のマイクロプロセッサ 3は、 過去の軌跡及び未 来の軌跡を色分け表示するのではなく、 過去の軌跡を実線で表示し、 未 来の軌跡を破線で表示する等のその他種々の表示方法により軌跡を表現 するようにしても良い。
ところで、 画像処理装置 2のマイクロプロセッサ 3は、 表示ウィ ン ド ゥ W 5 7の過去及び未来の双方の軌跡を表示するようにしたが、 これに 限るものではなく、 ユーザの選択操作に応じたモー ド選択によ り過去又 は未来のいずれか一方の軌跡だけを表示することも可能である。
このような画像処理装置 2のマイク口.プロセッサ 3が行う軌跡表示処 理手順について図 3 .7のフローチャー トを用いて説明する。
画像処理装置 2のマイクロプロセッサ 3は、 ルーチン R T 9の閧始ス テツプから入って次のステップ S P 1 6 1へ移り、 ユーザによって選択 された軌跡表示を行うべきビデオデ一夕を特定し、 次のステップ S P 1 6 2へ移る。
ステップ S P 1 6 2において、 画像処理装置 2のマイ クロプロセッサ 3は、 そのビデオデータを構成する各静止画像にそれぞれ対応した位置 の表示ウイ ン ドウ W 5 7における重心点を認識し、 次のス^ップ S P 1 6 3へ移る。
ステップ S P 1 6 3において、 画像処理装置 2のマイクロプロセッサ 3は、 ステヅプ S P 1 6 2で認識した重心点を結ぶことによ り、 ビデオ データの表示ウィ ン ドウ W 5 7が移動する際の軌跡を表した線を生成し、 次のステップ S P 1 6 4へ移る。
ステップ S P 1 6 4において、 画像処理装置 2のマイクロプロセッサ 3は、 ユーザによって過去の軌跡を表示する過去軌跡表示モ一 ドが選択 されているか否かを判定し、 肯定結果が得られると次のステップ S P 1 6 5へ移り、 現在の表示ウイ ン ドウ W 5 7よ りも過去側の線を軌跡とし て表示した後、 ステップ S P 1 6 9へ移って処理を終了する。
これに対して、 ステップ S P 1 6 4で否定結果が得られると、 このこ とはユーザによつて未来の軌跡を表示する未来軌跡表示モードも しくは 過去及び未来の全ての軌跡を表示する全軌跡表示モードが選択されてい ることを表しており、 このとき画像処理装置 2のマイクロプロセッサ 3 は次のステヅプ S P 1 6 6へ移る。
ステップ S P 1 6 6において画像処理装置 2のマイクロプロセッサ 3 は、 ユーザによつて未来軌跡表示モ一ドが選択されているか否かを判定 し、 肯定結果が得られると次のステップ S P 1 6 7へ移り、 現在の表示 ウィ ン ドウ W 5 7 よりも未来側の線を軌跡と して表示した後、 ステップ S P 1 6 9へ移って処理を終了する。
これに対して、 ステップ S P 1 6 6で否定結果が得られると、 このこ とはユーザによつて全軌跡表示モードが選択されていることを表してお り、 このとき画像処理装置 2のマイクロプロセッサ 3は、 次のステヅプ S P 1 6 8へ移り、 現在の表示ウィ ン ドウ W 5 7に対して過去側及び未 来側の線からなる全軌跡を表示した後、 ステップ S P 1 6 9へ移って処 理を終了する。
これにより.、 画像処理装置 2のマイクロプロセッサ 3は、 表示ウィ ン ドウ W 5 7に対する過去側の軌跡だけを表示する場合、 図 3 8に示すよ うに、 現在表示中の表示ウイ ン ドウ W 5 7よ りも過去側すなわち後方の 線だけを表示することになるため、 あたかも移動物体が排気しながら進 行するかのような印象をユーザに与え得るようになされている。
また、 画像処理装置 2のマイ クロプロセッサ 3は、 表示ウィ ン ドウ W 5 7に対する未来の軌跡だけを表示する場合、 図 3 9に示すように、 現 在表示中の表示ウィ ン ドウ W 5 7 より も未来側すなわち前方の線だけを 表示することになるため、 あたかも移動物体が前方をライ トによって照 らしながら進行するかのような印象をユーザに与え得るようになされて いる。
因みに、 画像処理装置 2のマイ クロプロセヅサ 3は、 未来側の軌跡を 表示する際には、 エン ド位置 P O e (図 3 6 ) までの軌跡を最初から全 て表示するのではなく、 現在表示中の表示ゥイ ン ドウ W 5 7 よ りも前方 に所定長さ分の線を未来側の軌跡として表示することも可能であり、 こ うすれば最終的に何れのェン ド位置 P 0 eに表示ゥイ ン ドウ W 5 7を配 置するのかを最初からユーザに示してしまうのではなく、 エン ド位置 P
0 Θが何れの場所になるのかをユーザに対する楽しみとして残すことも できる。
さらに、 画像処理装置 2のマイ クロプロセッサ 3は、 表示ウィ ン ドウ W 5 7に対する過去側及び未来側の全軌跡を表示する場合、 図 4 0に示 すように現在表示中の表示ウイ ン ドウ W 5 7の前方及び後方に軌跡を表 した線を表示することになるため、 あたかも線路上を電車が移動するか のような印象をユーザに与え得るようになされている。
このように、 画像処理装置 2のマイ クロプロセッサ 3は、 表示ウィ ン ドウ W 5 7が移動表示する際の軌跡表示方法をユーザの選択によって 3 通りの中から任意に選択させることが出来るため、 ビデオデ 夕の各静 止画像が持つ特徴 (傾向) をユーザに最も認識させ易い軌跡により提示 し得るようになされている。 ' .
( 6— 2 ) 複数の表示ウイ ン ドゥを使用した軌跡表示モード
ところで、 画像処理装置 2のマイクロプロセッサ 3は、 図 3 6に示し たように移動表示中の表示ウイ ン ドウ W 5 7だけではなく、 ビデオデ一 夕の再生開始時点における表示ウイ ン ドウ W 5 7のスタート位置 P O s 及び、 ビデオデータの再生終了時点における表示ウイ ン ドウ W 5 7のェ ン ド位置 P 0 eに、 そのときの静止画像をそれぞれ映し出した表示ゥィ , "
ン ドウ W 5 7 s及び W 5 7 eを残存表示するようになされている。
これにより、 画像処理装置 2では、 このビデオデータに対応した表示 ウィ ン ドウ W 5 7を目視確認しているユーザに対し、 表示ウィ ン ドウ W 5 7が最初に 3次元表示空間内のどのの位置 P 0 sに配置されてから、 3次元表示空間内のどの位置 P 0 eに最終的に配置されて、 ビデオデー 夕の再生処理が終了するのかという全体の流れを当該表示ウイ ン ドウ W 5 7の開始から終了までの全体の軌跡を介したィメ一ジとして直感的に 認識させ得るようになされている。
. もちろん、 .画像処理装置 2のマイ クロプロセッサ 3は、 スタート位置 P 0 s及びェン ド位置 P 0 eに、 そのときの静止画像を映し出した表示 ウィ ン ドウ W 5 7 s、 W 5 7 eを必ず残存表示させなければならないと いうことではなく、 ユーザの選択操作によ り残存表示させないようにす ることもできる。
また、 画像処理装置 2のマイクロプロセヅサ 3は、 スタート位置 P〇 sの近傍に設けられた全ウイ ン ドウ表示ボタン Z 1 (図 3 6 ) がユーザ によってダブルク リ ックされると、 図 4 5に示すように、 ビデオデータ を構成している複数の'ピクチャ (静止画像) によってそれぞれ決まる .3 次元表示空間内の位置に表示ウイ ン ドウ W 5 7 (W 5 7 s〜W 5 7 e ) を所定間隔毎又は全て表示するようになされており、 これによ り過去の 軌跡及び未来の軌跡を表示する代わり、 もしくは軌跡と共に、 複数の表 示ウイ ン ドウ W 5 7 .(W 5 7 s〜W 5 7 e ).による連続的な流れをビデ ォデ一夕の特徴 (傾向) としてユーザに提示し得るようになされている。
さらに、 画像処理装置 2のマイクロプロセッサ 3は、 図 4 2に示すよ うに軌跡上の任意の点がユーザによってク リ ック操作されたことを認識 すると、 その時点から表示ウィ ン ドウ W 5 7による再生処理を開始し、 ェン ド位置 P O eの表示ウイ ン ドウ W 5 7 eまでの再生映像をプレビュ 一表示するようになされている。 これにより、 画像処理装置 2では、 ビデオデ一夕を再生することによ りスタート位置 P O s〜ェン ド位置 P O eまで表示ウイ ン ドウ W 5 7の 静止画像を更新させながら移動表示した様子をュ一ザに目視確認させた 後、 ユーザの希望する任意の位置から表示ウイ ン ドウ W 5 7による移動 表示処理を再開させることが可能であり、 ユーザの操作性を大幅に向上 させ得るようになされている。
因みに、 画像処理装置 2のマイクロプロセッサ 3は、 ビデオデ一夕に 対応した表示ウイ ン ドウ W 5 7の移動表示中であっても、 軌跡線上の任 意の点がク リ ック操作されると、 その任意の点から表示ウィ ン ドウ W 5 7による再生処理を開始すると共に、 それまで移動表示していた表示ゥ ィ ン ドウ W 5 7については見易さの観点から消滅させ、 軌跡線上に一つ の表示ウイ ン ドウ W 5 7だけを移動表示させるようになされている。 但し、 画像処理装置 2では見易さが損なわれることはないとユーザに 判断された場合、 軌跡錄上を複数の表示ウイ ン ドウ W 5 7が同 に移動 表示するように選択できるようにすることも可能である。
この場合、 画像処理装置 2のマイクロプロセッサ 3は、 ,4 3に示す ように、 この軌跡上を 2個の表示ゥイ ン ドウ W 5 7を並行して移動表示 させることになり、 ユーザに対して所望シーンの画探し作業を一段と容 易に実行させ得るようになされている。
また、 画像処理装置 2のマイクロプロセッサ 3は、 図 44に示すよう に、 表示ウイ ン ドウ W 5 Ύの軌跡線上の所定位置に予め代表的なシ一ン として設定されていた静止画像の表示ウイ ンドウ W 5 7 a、 W 5 7 b、 W 5 7 c、 W 5 7 dを残存表示することも可能である。
これにより、 ユーザは、 スター ト位置 P 0 s〜エン ド位置 P 0 eまで 表示ウィ ン ドウ W 5 7を移動表示した後であっても、 その中で代表的な シーンの静止画像を映し出している表示ウイ ン ドウ W 5 7 a、 W 5 7 b、 W 5 7 c、 W 5 7 dについては軌跡上に残存表示されているため、 それ らの残存表示された代表的なシーンの表示ゥイ ン ドウ W 5 7 a、 W 5 7 b、 W 5 7 c\ W 5 7 dの静止画像を目視確認すれば、 ビデオデ一夕の 全体傾向を容易に把握できるだけでなく、 個々の代表的なシーンの特徴 についてもその傾向を容易に把握することができる。
このような代表的なシーンとしては、 例えばビデオデ一夕のソースが D V D等であれば、 チャプター毎に予め設定された代表的な静止画像が 相当することになるため、 D V Dのビデオデ一夕を表示ウィ ン ドウ W 5 7によ り再生する場合、 画像処理装置 2のマイクロプロセッサ 3は、 上 述のような代表的なシーンを残存表示させる軌跡表示処理を容易に実現 し得るようになされている。
ここで、 画像処理装置 2は、 代表的なシーンの表示ウィ ン ドウ W 5 7 を残存表示するようにしたが、 これに限るものではなく、 一定間隔毎に 表示ウィ ン ドウ W 5 7を残存表示させることも可能である。 この場合、 ユーザは一定間隔毎の表示ウイ ン ドウ W 5 7に写し出されてい..る静止画 像を目.視確認することができるので、 表示ゥイ ン ドウ W 5 7を用いたビ デォデ一夕の再生処理を終了した後であっても、 一定間隔毎に残存表示 された表示ゥイ ンドウ W 5 7を介してビデオデ一夕の特徴 (傾向) を直 ちに把握することができるようになされている。
( 6 - 3 ) シーンチェンジ又はフラッシュ時の軌跡表示モ―ド
また、 画像処理装置 2は、 図 4 5に示すように表示ウイ ン ドウ W 5 7 を介してビデオデ一夕の再生映像を表示中、 その中でシーンチェンジ又 はフラ ッシュ (以降、 代表して単にフラッシュと称する) があ り、 シ一 ンチェンジ前の静止画像が有する特徴量と、 シーンチェンジ後の静止画 像が有する特徴量とが大きく変化する場合、 シーンチェンジ前の表示ゥ イ ン ドウ W 5 7 b e f o r eからシーンチェンジ後の表示ウィ ン ドウ W 5 7 a f t e rまで大きくジャンプすることがある。
このようなとき、 画像処理装置 2は、 上述したように座標補正処理手 順 S R T 1 (図 24 ) を実行し、 表示ウィ ン ドウ W5 7 b e f o r eか ら表示ウイ ン ドウ W5 7 a f t e rまで一気にジャンプしてしまうので はなく、 目的の移動先に近付くに連れて段階的に移動距離を次第に短く しながら順次分類配置させることによ り、 シーンチヱンジ時における表 示ウィ ン ドウ W5 7 b e f o r e〜W5 7 a f t e rまでの動きをユー ザに目視確認させるようになされているが、 軌跡表示モードであっても 上述の座標補正処理手順を実行し得るようになきれている。
この場合、 画像処理装置 2のマイクロプロセッサ 3は、 軌跡線上を表 示ウィ ン ドウ W 5 7がー気にジャンプするのではなく、 シーンチェンジ 前の表示ゥイ ン ドウ W 57 b e f o r eの位置からシーンチェンジ後の 表示ウィ ン ドウ W5 7 a f t e rの位置まで段階的に移動表示するが、 この段階的に移動表示している表示ウイ ン ドウ W 5 7に対してのみ、 例 えば半透明色で表示させたり、 若しくは、 点滅表示させたり等の強調表 示を実行するようになされている。
なお、 画像処理装置 2のマイクロプロセッサ 3は、 このときシーンチ ェンジ前の表示ゥイ ン ドウ W 57 b e f o r e及びシーンチェンジ後の 表示ウィ ン ドウ W.5 7 a f t e rの双方共に残存表示するようになされ ており、 シーンチヱンジ前後の内容をュ一ザに対して常時目視確認させ 得るようになされている。
因みに、 画像処理装置 2のマイ クロプロセッサ 3は、 上述の座標補正 処理手順 S R T 1を行うのではなく、 シーンチェンジ前の位置からシ一 ンチヱンジ後の位置までの間を、 シーンチェンジ後の静止画像を映し出 した表示ウイ ン ドウ W5 7 a f t e rによって一定間隔毎に繰り返し移 動表示することも可能であり、 そのときには移動表示速度をジャンプ速 度より も極端に遅くする。
ここで、 画像処理装置 2のマイ クロプロセッサ 3は、 図 4 6 ( A) に 示すようにシーンチェンジ前の表示ウィ ン ドウ W5 7 b e f o r eの位 置からシーンチェンジ後の表示ウィ ン ドウ W 57 a f t e rの位置まで の距離 L 2と、 その距離 L 2に対する表示ウィ ン ドウ W 5 7の移動時間 t 2とが線形の関係を有するように移動表示速度を設定するばかりでは なく、 図 46 (B ) 及び ( C ) に示すように距離 L 2と移動時間 t 2と が非線形の関係を有するように移動表示速度を設定するようにしても良 い。
この場合、 画像処理装置 2のマイクロプロセッサ 3は、 シーンチェン ジ前の表示ウイ ン ドウ W57 b e f o r eからシーンチェンジ後の表示 ウィ ン ドウ W5 7 a f t e rまで段階的に移動表示させる際、. 当初は高 速に移動し、 次第に移動表示速度を下げるように当該表示ウイ ン ドウ W 5 7を可変速状態で移動表示することができる。
更に、 画像処理装置 2のマイ クロプロセッサ 3は、 軌跡線上を移動表 示中の表示ウィ ン ドウ W 57がユーザによってク リ ックされたことを認 識すると、 その時点での静止画像の特徴量に応じて決まる位置に表示ゥ イ ン ドウ W 5 7を数秒間も しくは半永久的に残存表示し、 再度ク リ ック されたことを認識すると、 当該表示ウィ ン ドウ W 5 7を消去させ、 も し くはその時点から表示ウイ ン ドウ W5 7の再生映像を再開させ得るよう になされている。
( 6— 4) タイムコードを用いた軌跡表示モー ド
画像処理装置 2のマイクロプロセッサ 3は、 図 4 7に示すように、 表 示ウィ ン ドウ W5 7を介してビデオデ一夕を再生することによ り、 表示 ウィ ン ドウ W57を 3次元表示空間内で移動表示させた際、 その軌跡線 上の位置に表示ゥィ ン ドウ W5 7.のタイムコード表示枠 TW l〜TWn を表示することができる。 ,
ここで、 画像処理装置 2のマイクロプロセッサ 3は、 タイムコー ド表 示枠 TW l〜TWnに表示しているビデオデータに付随するタイムコー ド情報を、 各静止画像のメ夕デ一夕ファイル MD Fから読み出し、 その 読み出したタイムコード情報を用いて夕ィムコ一ド表示枠 T W 1〜 T W nのタイムコードを表示するようになされている。
また、 画像処理装置 2のマイクロプロセッサ 3は、 必ずしも軌跡線上 ではなく、 代表的なシーンからなる静止画像の表示ウイ ン ドウ W 5 7や エン ド位置 P O eの表示ウイ ン ドウ W 5 7 Θを残存表示しているときに も、 その残存表示した表示ウィ ン ドウ W 5 7及び W 5 7 eに対して、 そ のときのタイムコ一.ドをタイムコ一ド表示枠 TW 3、 T Weによって提 示するようになされている。
これによ り、 画像処理装置 2は、 ビデオデータの再生映像に合わせて 表示ゥイ ン ドウ W 5 7を移動表 '示したときの軌跡だけでなく、 その軌跡 線上の位置や表示ウィ ン ドウ W 5 7に付随したタイムコード表示枠 T W 1〜TWn〜 TW eを介してビデオデータの時間倩報をユーザに提示す ることができる.ので、 タイムコード表示枠 TW 1 ~ TW 4を介してビデ ォデ一夕の時間的な経過状態をユーザに認識させながら所望シーンの画 探し作業を実行させ得るようになされている。
なお、 画像処理装置 2のマイ クロプロセッサ 3は、 その特徴が非常に 似通ったビデオデータをそれぞれの表示ウイ ン ドウ W 5 7によつて再生 した場合、 各表示ウィ ン ドウ W 5 7が移動表示するときの軌跡について も非常に似通った結果を示すことになり、 この場合、 3本の非常に似通 つた軌跡を表示する。
これを目視確認したユーザは、 3個のビデオデ一夕の傾向をその軌跡 が似通つていることに基づいて、 同じような内容であることを推測する ことができるので、 ビデオデ一夕の管理や検索を容易に実行することが できる。
( 6— 5 ) 軌跡表示中の表示ウイ ン ドウ制御モード
画像処理装置 2は、 ビデオデータの再生映像に合わせて表示ウィ ン ド ゥ W 5 7を移動表示したときの軌跡を表示することに加えて、 移動中の , , , " .., ,
表示ゥイ ン ドウ W 5 7のサイズ及び形状を変化させながら表示し得るよ うになされており、 その点について説朋する。
実際上、 画像処理装置 2のマイ クロプロセッサ 3は、 例えば図 4 8 ( A ) に示すように: R G Bの色成分を表示軸のパラメ一夕として設定し た 3次元表示空間上で、 ビデオデータの表示ウィ ン ドウ W 5 7をその軌 跡に沿って移動表示する際、 そのビデオデータを構成している各静止画 像のメ夕デ一夕フ ァイル M D Fから表示軸の特徴パラメ一夕として用い られている R G Bの色成分における特徴量以外の他のパラメ'一夕と して、 例えば静止画像の細かさ情報の特徴量についても取得し、 その細かさ情 報の特徴量が所定の閾値を超えているときには、 図 4 8 ( B ) に示すよ うに、 その時点の静止画像に対応した表示ゥイ ン ドウ W 5 7の表示サイ ズを所定倍に拡大表示す.る。
更に、 画像処理装置 2のマイクロプロセッサ 3は、 静止画像の細かさ 情報の特徴量が所定の閾値未満のときには、 図 4 8 ( C ) に示すように 表示ウィ ン ドウ W 5 7の表示サイズを所定倍に縮小表示する。
すなわち、 画像処理装置 2のマイクロプロセッサ 3は、 細かさ情報の 特徴量が所定の.閾値を超えているときのような高周波成分が多く含まれ ている静止画像の場合、 その表示ウィ ン ドウ W 5 7を拡大表示すること により、 ュ一ザに対する見易さを向上させ得るようになされている。
また、 画像処理装置 2のマイクロプロセッサ 3は、 細かさ情報の特徴 量が所定の閾値未満のような高周波成分が殆ど含まれていない静止画像 の場合、 画像サイズを縮小させてもユーザに対する見易さについては殆 ど変化しないと判断し、 表示ウィ ン ドウ W 5 7を縮小表示することによ り処理負担を軽減させ得るようになされている。
因みに、 画像処理装置 2では、 表示軸を構成している色成分以外のパ ラメ一夕として静止画像の細かさ情報を用いて表示ウイ ン ドウ W 5 7の 表示サイズを拡大又は縮小するようにしたが、 これに限るものではなく、 y , , , t , ,
υ ι / ur U U / U D y
動き量、 色相、 音声レベル等のその他種々の特徴量を用いて表示ウィ ン ドウ W 5 7の表示サイズを拡大又は縮小することが可能であり、 また表 示ウィ ン ドウ W 5 7の表示サイズを拡大又は縮小するだけに留まらず、 表示ゥイ ン ドウ W 5 7の表示枠形状を変形させて表示するようにしても 良いし、 表示サイズ及び表示枠形状の双方を制御するようにしても良い。 ( 7 ) 動作及び効果
以上の構成において、 画像処理装置 2のマイクロプロセッサ 3は、 ビ デォデ一夕の再生映像を表示ウィ ン ドウ W 5 7に表示する際、 ユーザに よって選定された表示軸によって生成した 3次元表示空間内に、 ビデオ データを構成している各静止画像の特徴量に応じてフレーム更新する度 に表示ウィ ン ドウ W 5 7 を順次分類配置していく。
ここで、 画像処理装置 2では、 ビデオデ一夕のフレームを更新する度 に、 特徴量が変化して配置する先の 3次元表示空間座標位置が移り変わ るので、 あたかも 3次元表示空間上を表示ウィ ン ドウ W 5 7が浮遊する かのように移動表示させることができる。
例えば、 旅行先でビデオカメラにより撮影したビデオデ一夕一夕を、 3次元表示空間内に配置し、 ビデオデータの再生映像を表示ウイ ン ドウ W 5 7によって表示する場合、 海が映し出された再生画像の表示ウイ ン ドゥ W 5 7では、 .浜辺で撮影されたビデオデ一夕の表示ウィ ン ドウ W 5 7が多く配置されているエリァへ移動していき、 その次に山が写し出さ れた静止画像に更新されると、 その表示ウィ ン ドウ W 5 7は山林で撮影 されたビデオデ一夕の表示ウィ ン ドウ W 5 7が多く配置されているエリ ァへ移動していき、 ビルが写し出された静止画像に更新されると、 その 表示ウィ ン ドウ W 5 7は都心で撮影されたビデオデ一夕の表示ウィ ン ド ゥ W 5 7が多く配置されているエリアへ移動していく ことになる。
このような表示ウィ ン ドウ W 5 7の動き自体が、 ビデオデ一夕の特徴 を表したものであるため、 ユーザにとっては表示ウィ ン ドウ W 5 7の 3 ,
次元表示空間内の動きに応じた 3次元表示空間内での位置変化や、 表示 ウィ ン ドウ W 5 7 自体の動きのイメージを介して、 ビデオデータの特徴 (傾向) を直感的に認識することができる。
特に、 画像処理装置 2では、 従来のように、 ビデオデータを構成して いる複数の静止画像のうち先頭画像だけをサムネイル表示して配置して も、 それが必ずしもビデオデ一夕の傾向を示していることにはならない が、 本発明のように、 デオデ一夕を構成している各静止画像の特徴量 の変化に応じて表示ゥイ ン ドウ W 5 7を移動表示させたときの動きのィ メ一ジとしてユーザに認識させることにより、 当該ユーザに対してビデ ォデ一夕の特徴 (傾向) を正確に理解させ、 ビデオデ一夕の管理及び検 索を容易に実行させることができる。
ここで、 画像処理装置 2は、 ビデオデ一夕の再生中にシーンチェンジ 又はフラッシュがあった場合、 シ一ンチェンジ又はフラッシュ前の 3次 元表示空間内の位置からシーンチヱンジ又はフラ ッシュ後の 3次元表示 空間内の位置まで表示ウィ ン ドウ W 5 7を大きく ジャンプするのではな く、 段階的に距離を詰めながら表示ウイ ン ドウ W 5 7を移動表示するよ うにしたことによ り、 ユーザの視線から表示ゥ.イ ン ドウ W 5 7が外れて しまって見失うことを回避し、 ユーザによる表示ウィ ン ドウ W 5 7の動 きのィメージが途切れてしまうことを未然に防止することができる。 また、 画像処理装置 2では、 複数のビデオデ一夕にそれぞれ対応した 表示ウィ ン ドウ W 5 7を用いて同時に再生すれば、 フ レーム更新する度 に似通った特徴量のビデオデ一夕に対応する表示ゥイ ン ドウ W 5 7が 3 次元表示空間内における特定のェリアに集まることになり、 これら複数 のビデオデータが持つ特徼 (傾向) を、 3次元表示空間上に集められた 若しく は分散された複数の表示ウイ ン ドウ W 5 7の配置状態を通じて、 ユーザに直感的かつ容易に認識させることができる。
更に、 画像処理装置 2では、 ビデオデ一夕を再生することにより、 表 示ウィ ン ドウ W 5 7を 3次元表示空間内に配置しているときに、 その 3 , 次元表示空間を構成している表示軸のパラメ一夕がユーザの指示に応じ て変更された場合、 新たな 3次元表示空間を生成し、 そこに表示する表 示ウィ ン ドウ W 5 7の配置状態を大きく変化させることが可能であり'、 ュ一ザが所望するパラメ一夕に合わせて表示ウィ ン ドウ W 5 7の配置結 果を自在に変更して提示することできる。
更に、 画像処理装置 2は、 表示ウィ ンドウ W 5 7の移動表示に伴って、 その過去側の軌跡、 未来側の軌跡、 過去側及び未来側の双方の全軌跡を ユーザの選択操作に応じて表示ゥイン ドウ W 5 7と共に表示するように したことにより、 表示ウィ ン ドウ W 5 7が 3次元表示空間内を過去に移 動してきたときの動きや、 これから移動しょうとする未来の動きを視覚 的に提示することができるので、 ユーザに対しては複数のビデオデータ に対する表示ウイ ンドウ W 5 7の軌跡をそれぞれ比較させるだけで、 複 数のビデオデータ同士が似通った傾向を有するのか、 異なる傾向を有す るのかを軌跡 φ線によるイメージとして直感的に理解させることができ る。
ところで、 画像処理装置 2は、 編集画面の表示部 5 5にビデオデータ にそれぞれ対応した表示ウインドウ W 5 7を配置し、 画像群 5 8 として 表示するが、 表示部 5 5には 3次元表示空間の表示軸を表示することが なく、 かつ全ての表示ゥイ ン ドウ W 5 7をユーザの視線方向に対して正 面を向くように配置しているため、 ユーザに対して複数の表示ウィ ン ド ゥ W 5 7が 3次元表示空間内に配置されていることを理解させ易くする。 以上の構成によれば、 画像処理装置 2,では、 ビデオデータを再生する 場合、 当該ビデオデ一夕を構成している個々の静止画像を更新するとき に、 更新した静止画像の特徴量が変化することに応じて、 表示ウィ ン ド ゥ W 5 7と 3次元表示空間との相対的位置関係を変化させながら当該表 示ウイ ン ドウ W 5 7を絵柄の特徴変化に応じて、 移動表示させることに よ り、 ビデオデ一夕が有する再生映像の特徴 (傾向) を表示ウイ ン ドウ
W 5 7の動きとして表現し、 ユーザにその動きのイメージを直感的に認 識させることができるので、 大量にあるビデオデ一夕の分類、 管理、 検 索を直感的なイメージを通じて容易化することができる。
( 8 ) 他の実施の形態
なお、 上述の実施の形態においては、 本発明の映像処理装置を、 画像 処理装置 2に適用するようにした場合について述べたが、 本発明はこれ に限らず、 単なるコンピュータに適用し、 ビデオカメラで撮影した複数 のビデオデ一夕を内部のハー ドディスク ドライブに蓄積し、 その全ての ビデオデ一夕を 3次元表示空間に配置して表示することによ り、 静止画 ビデオデータの特徴や全体傾向をユーザに対して直感的に認識させ、 か つ所望のシーンに対する画探し作業を容易に実行させるようにしても良 い。. . '
また、 上述の実施の形態においては、 3次元表示空間を生成し、 これ に表示ウィ ン ドウ W 5. 7を配置するようにした場合について述べたが、 本発明はこれに限らず、 図 4 9に示すように、 2次元表示空間を生成し、 これに表示ウィ ン ドウ W 5 7 を配置したり、 表示ウイ ン ドウ W 5 7の軌 跡を表示したりするようにしても良い。
さらに、 上述の実施の形態においては、 ビデオデ一夕を構成するピク チヤ (静止画像) 自体が持つ R (赤) 、 B (青) 、 輝度の表示軸を特徴 パラメ一夕として、 3次元表示空間を生成するようにした場合について 述べたが、 本発明はこれに限らず、 静止画像に対応付けられた音声情報 を表示軸のパラメ一夕として用いたり、 時間情報を表示軸のパラメ一夕 · として用いたり、 R (赤) 、 B (青) の双方を一つの表示軸のパラメ一 夕として用いる等のュ一ザの好みに合わせて配置のための種々の多次元 表示空間を生成するようにしても良い。
例えば、 図 5 0に示すように、 画像処理装置 2では、 輝度、 R (赤) 、 FCT/JP 2007 / 05S 2 S
B (青) を表示軸とした 3次元表示空間と、 動き量、 D C T縦周波数及 び D C T横周波数を表示軸とした 3次元表示空間とを時間軸に沿って並 ベることにより、 4次元表示空間を生成し、 その 4次元表示空間内にビ デォデ一夕の表示ウイ ン ドウ W 5 7を配置させたり、 ビデオデ一夕の表 示ウィ ン ドウ W 5 7を再生処理に伴って移動表示させることができる。
さらに、 上述の実施の形態においては、 ビデオデータの再生に合わせ て表示ウィ ン ドウ W 5 7を 3次元表示空間内で移動表示させるようにし た場合について述べたが、 本発明はこれに限らず、 例えば図 5 1に示す ように、 編集画面 5 0の表示部 5 5に設けられたバ一 6 6のつまみ 6 7 に対するユーザの左右方向操作に合わせて、 表示ウィ ン ドウ W 5 7を過 去側あるいは未来側へその軌跡に沿って移動表示させるようにしても良 い。
この場合、 ユーザは、 表示ウィ ン ドウ W 5 7の 3次元表示空間内の位 置を自らの意思により 自在にコン トロールすることが出来るので、 所望 シーンの画探し作業や編集作業を一段と容易に実行することができる。
さらに、 上述の実施の形態においては、 ビデオデ一夕の再生映像を表 示ウィ ン ドウ W 5 7に表示するようにした場合について述べたが、 本発 明はこれに限らず、 画像群 5 8のうち重なり合って見えない表示ウィ ン ドウ W 5 7については、 ビデオデータを構成する静止画像の更新率を下 げて再生速度を極めて遅ぐしたり、 解像度を落としたり、 静止画像を更 新せずに表示したり、 あるいは何も表示しないようにしても良い。 これ により画像処理装置 2は、 ユーザにとって目視確認できない表示ゥィ ン ドウ W 5 7に対しては再生表示処理を実行しなくて済む分だけマイクロ プロセッサ 3の処理負荷を軽減することができる。
さらに、 上述の実施の形態においては、 軌跡線上や表示ウィ ン ドウ W 5 7にタイムコ一ド通知枠 T W (図 4 7 ) を表示するようにした場合に ついて述べたが、 本発明はこれに限らず、 再生経過時刻をユーザに認識 させることが出来れば、 軌跡上や表示ゥイ ン ドウ W 5 7に対してフレー ム番号通知枠ゃフィールド番号通知枠等のその他種々の通知枠を表示す ることができる。
さらに、 本実施の形態では、 ビデオデ一夕のピクチャ (静止画像) ご とに特徴パラメ一夕又は付属パラメ一夕を求めが、 特徴パラメ一夕又は 付属パラメ一夕は、 複数ピクチャごとに求めることが可能である即.ち、 複数ピクチャとしての、 例えば、 1 G O Pごと (単位) に求めることも できる。 例えば、 その 1 G O Pを構成するすべてのピクチャの特徴パラ メータの平均値や、 1 G O Pを構成するピクチャのうちの I ピクチャの 特徴パラメ一夕 (付属パラメ一夕) を、 1 G 0 Pの特徴パラメ一夕とし て採用することができる。
このように、 特徴パラメ一夕や付属パラメ一夕を、 複数ピクチャとし ての、 例えば、 1 G 0 Pごと求めてメ夕デ一夕として格納する場合には、 ピクチャごとの特徴パラメ一夕や付属パラメ一夕をメ夕デ一夕として格 納する場合に比較して、 メ夕デ一夕のサイズを小さ くすることができ、 また、 メ夕デ一夕の解析 (パース) に要する処理の負担を軽減すること ができる。
なお、 メ夕デ一夕の作成時に、 ビデオデ一夕を例えば M P E G方式で 符号化する場合において、 ピクチャ毎又は G 0 Pごとの特徴パラメ一夕 や付属パラメ一夕をを求めるときには、 M P E G方式での符号化の結果 得られるビデオス ト リーム中のピクチャへヅダ又は G 0 Pヘッダに含め るようにすることができる。
( 9 ) ビデオデ一夕に連結する付随パラメ一夕について
上述した実施の形態においては、 ビデオデータを構成するビクチヤ (静止画像) の特徴パラメ一夕について述べたが、 ビデオデ一夕に連結 (付随) しているパラメ一夕 (付随パラメ一夕) にも適用可能である。 例えば、 ビデオデ一夕を撮像又は記録した時刻を示す時刻情報、 ビデオ ,
デ一夕を撮像又は記録した際の位置情報 (緯度 · 経度情報) 、 ビデオデ 一夕の所有者又'は作成者を識別する識別情報、 ビデオデ一夕にネッ トヮ —ク経由でアクセスしたユーザを識別する識別情報、 ビデオデ一夕にァ クセスした数を示すアクセス数、 ビデオデ一夕をグループ分けした際の グループ識別情報、 ビデオデ一夕に含まれる人物の顔を識別する顔識別 情報、 ビデオデ一夕に含まれるタイ トル · カテゴリ又はキーヮ一ド又は 字幕情報などが含まれる。 これらの付随パラメ一夕は、 周知の技術を採 用して生成可能なパラメ一夕である。
ここで言う連結 (付随) とは、 '一夕と、 このデータに関するパラメ 一夕 (メタデータ) が、 互いにリ ンクされている状態であれば良い。 例 えば、 互いに別の記録媒体に記録されていり、 別の伝送路で伝送された ものであっても、 パラメ一夕 (メタデ一夕) にビデオデータを識別する 情報やビデオデ一夕のピクチャ番号が含まれているようにしていれば、 後で互いに対応させることができる。 本実施の形態では、 このような場 合も含めて連結'(付随) しているという。
このような付随パラメ一夕を、 特徴パラメ一夕とともに、 同様の処理 手順で利用して、 上述した表示形態を実現することも可能である。
ここで、 図 5 2のように、 複数のュ一ザ 1 〜 Nから提供 (アップ口一 ド) されたビデオデータ.を、 サーバ (ビデオ D B、 メ夕デ一夕 · ビデオ D B ) で一括管理し、 ユーザはそれぞれネッ トワークを介して、 自分の 興味のあるビデオデ一夕にアクセスして内容を確認するアプリケ一ショ ンが考えられる。
この場合、 デ一夕ベースは、 上述した付随パラメ一夕をビデオデ一夕 毎に管理することができる。 例えば、 ビデオデータにアクセスした数を 示すアクセス数が付随パラメ一夕に含まれる場合、 アクセス数の増減に 対応して表示ウイ ン ドウの表示サイズを変更する (例えばアクセス数が 予め設定された閾値よ りも大きくなつたビデオデータについては、 ユー ザから人気のあるビデオデータとして、 対応する表示ゥイ ン ドウのサイ ズを大きく表示させり、 表示ウィ ン ドウを強調表示させるたりする) こ とができる。 また、 ビデオデータの所有者又は作成者を識別する識別情 報が付属パラメ一夕に含まれる場合、 ユーザ毎に表示空間を設定するこ とも可能である。 また、 ビデオデ一夕のカテゴリ毎に表示空間を生成す ることも可能である。
例えば、 図 5 3に示すように、 表示ウィ ン ドウ W 5 7— 2 / W 5 7 _ 5 / W 5 7— 6は、 表示ウィ ン ドウ W 5 7 _ l /W 5 7— 3 / W 5 7 _ 4に比べて大きく表示されている。 これは、 対応するビデオデ一夕に対 するアクセス数が多いことを示している。
次に、 図 5 0においては、 時間軸を用いて 4次元表示空間を生成する ことを述べたが、 上述した付随パラメ一夕を利用すれば、 様々な表示形 態を実現することができる。 例えば、
G P Sなどによ り ビデオデータに リ ンク して生成された位置情報 (緯 度 ' 経度) が付随パラメ一夕に含まれる場合、 図 5 4に示しているよう に、 位置情報を表示軸として追加した表示空間を生成して、 位置情報の 変化とともにビデオデータと 3次元表示空間とが連動して移動する表示 形態も考えられる。
さらに、 図 5 2にょうに多数のュ一ザが多数のビデオデータを提供す るケースでは、 特徴パラメ一夕の類似度、 付随パラメ一夕を利用して、 図 5 5にょうに、 互いに類似度が高く ·位置情報も特定範囲に含まれる ビデオデ一夕をグループとして、 グループ毎に表示空間を生成すること もできる。 この場合、 特に動画投稿サイ ト · S N S (ソ一シャル . ネヅ トヮ一キング ' サービス) のようなアプリケーションでは、 グループ毎 に生成された表示空間をコミュニティ として捉えることができるので、 投稿したビデオデータを用いてユーザ間のコ ミュニケーションの促進を 実現する一面もある。 ( 1 0 ) 本願発明の適用可能な装置について
さらに上述の実施の形態においては、 本発明を図 1のように構成され た画像処理装置 2に適用するようにした場合について述べたが、 本発明 はこれに限らず、 画像処理装置としての機能の提供が可能な装置であれ ば、 この他種々の構成の画像処理装置に広く適用することができる。 なお、 この画像処理装置には、 例えばコンビュ一夕、 ビデオカメラ、 ディ ジタルカメラ、 ゲーム機器、 携帯情報端末 (携帯型のコンピュータ、 携帯電話機、 携帯型ゲーム機器) 、 ス トレ,一ジ機器 (例えば光ディスク 装置、 ホームサーバ) 、 発明に係る機能を搭載した処理ボードや処理力 — ドが含まれる。
これら何れの画像処理装置の場合にも、 筐体と、 信号処理部と、 外部 イ ンタフエースとを共通構成とし、 商品形態に応じた周辺装置が組み合 わされて構成される。 例えば、 ビデオカメラやディ ジタルカメラであれ ば、 前述の構成に加え、 カメラユニッ トや撮像された映像デ一夕を記憶 媒体に保存するための書込み回路を有する。 また例えば携帯電話機その 他の通信機能を有する電子機器であれば、 前述の構成に加え、 送受信回 路ゃアンテナを有する。
さらに、 上述の実施の形態においては、 マイクロプロセッサ 3がハー ドディスク装置 7に格納'された映像処理プログラムを起動して、 3次元 表示空間上で表示ウイ ン ドウ W 5を移動表示させるようにした場合につ いて述べたが、 本発明はこれに限らず、 映像処理プログラムが格納され たプログラム格納媒体をマイクロプロセッサ 3にイ ンス トールすること により上述の移,動表示処理等を実行するようにしても良い。
このように、 上述した移動表示処理等を実行するための映像処理プロ グラムをハー ドディスク装置 7にイ ンス トールして実行可能な状態にす るためのプログラム格納媒体としては、 例えばフレキシプルデイスク、 CD -ROM (C om a c t D i s c -R e a d On l y M e m o r ) s D VD (D i g i t a l V e r s a t i l e
D i s c ) 等のパ ヅケージメディアのみならず、 映像処理プログラムが 一時的もしくは永続的に格納される半導体メモリや磁気ディスク等で実 現しても良い。 また、 これらプログラム格納媒体に映像処理プログラム を格納する手段として、 ローカルエリアネ ヅ トワークやイン夕一ネ ヅ ト、 ディジ夕ル衛星放送等の有線及び無線通信媒体を利用してもよく、 ルー 夕やモデム等の各種通信ィン夕フエースを介して格納するようにしても 良い。
さらに、 上述の実施の形態においては、 本発明の画像処理装置として の画像処理装置 2を、' 表示空間生成手段、 変換手段としてのマイクロプ 口セヅサ 3、 分類配置手段としてのマイクロプロセッサ 3及び GP U 4 によつて構成するようにした場合について述べたが、 本発明はこれに限 らず、 その他種々の回路構成でなる表示空間生成手段、 変換手段及び分 類配置手段によつて本発明の画像処理装置を構成するようにしても良い。
なお、 発明の趣旨の IS囲内で上述のほかに様々な変形例が考えられる。 また本明細書の記載に基づいて創作される各種の変形例及び応用例も考 えられる。 産業上の利用可能性 '
本発明の画像処理装置及び画像処理方法は、 ビデオデータを再生して 表示画面上に表示させる種々の画像処理装置に広く適用することができ る。

Claims

請 求 の 範 囲
1 . ビデオデータ又はオーディォデ一夕の特徴を示す特徴パラメ一夕、 又は、' 上記ビデオデ一夕又はオーディォデ一夕にリ ンクする付随パラメ 一夕を、 上記ビデオデータともに取得する取得手段と、
上記取得手段によ り取得された上記特徴パラメ一夕又は上記付随パラ メータを表示軸とする表示空間内において、 上記特徴パラメ一夕に示さ れる特徴値又は上記付随パラメ一夕に示される付随値から変換された座 標パラメ一夕を利用して、 上記ビデオデータを上記表示空間内で表示ゥ ィ ン ドウ上に表示させるように、 上記取得手段によ り取得された特徴パ ラメ一夕又は付随パラメ一夕をメ夕デ一夕として生成するメ夕デ一夕生 成手段と '
を備える画像処理装置。
2 . 上記取得手段は、 上記ビデオデ一夕から、 ピクチャ単位又は GOP 単位で、 上記特徴パラメ一夕を取得する、
請求項 1に記載の画像処理装置。
3 . 上記取得手段は、 上記オーディオデータから、 所定時間間隔で、 上 記特徴パラメ一夕を取得する
請求項 1に記載の画像処理装置。
4 . 上記ビデオデ一夕をエンコードしてビデオス ト リームを生成するビ デォェンュ一ダを更に備える . 請求項 1に記載の画像処理装置。
5 . 上記メタデ一夕生成手段によ り生成されたメ夕デ一夕を、 上記ェン コーダにより生成されたビデオス ト リ一ムとともに記録媒体に記録する 記録手段を更に備える
請求項 4に記載の画像処理装置。
6 . 上記ビデオエンコーダは、 上記ビデオデータから第 1 の解像度を 有する第 1 のビデオデータ及び第 1 の解像度より も低い解像度を有す る第 2のビデオデータを生成し、 生成した第 1のビデオデータ及び第 2 のビデオデータをそれぞれエンコードして、 第 1 のビデオス ト リーム 及び第 2のビデオス ト リームを生成する
請求項 4に記載の画像処理装置。
7 . 上記ビデオエンコーダは、 上記ビデオデ一夕を第 1 のフォーマツ トでエンコードして第 1 のビデオス ト リームを生成し、 上記ビデオデ 一夕を第 1 のフォーマッ トより もデ一夕量の少ない第 2 のフォーマヅ トでエンコードして第 2のビデオス ト リームを生成する
請求項 4に記載の画像処理装置。
8 . 上記記録手段は、 上記第 1 のビデオス ト リーム及び上記第 2 のビ デォス ト リームをそれぞれ異なる記録媒体に記録する
請求項 6に記載の画像処理装置。
9 . 上記記録手段は、 上記第 1 のビデオス ト リーム及び上記第 2 のビ デォス ト リームをそれぞれ異なる記録媒体に記録する
請求項 7に記載の画像処理装置。
1 0 . 上記記録媒体に記録されたメ夕デ一夕と上記ビデオス ト リームを、 上記ビデオス ト リームを再生する再生装置に送信する送信手段を更に更 に備える
請求項 5に記載の画像処理装置。
1 1 . 複数の上記特徴パラメ一夕又は上記付随パラメ一夕の中から、 上 記ビデオデータを表示さる表示ウィ ン ドウの表示形態を変更する際に利 用する上記特徴パラメ一夕又は上記付随パラメータを、 表示パラメ一夕 として選択する選択手段を更に備え、
上記メ夕データ生成手段は、 上記選択手段によ り選択された表示パラ メ一夕の値に応じて上記ビデオデータを表示する表示ウイ ン ドウの表示 形態を変更して表示させるように、 上記表示パラメ一夕を含むメ夕デー PCT/JP2007/059282 ' , , n n
WO 2007/126096
タを生成する
請求項 1に記載の画像処理装置。
1 2 . 上記表示形態は、 表示ウイ ン ドウのサイズ、 又は、 表示ウイ ン ド ゥ内の明暗、 又は、 表示ウィ ン ドウ内の透過度、 表示ウィ ン ドウ枠の強 調、 を含む
請求項 1 1 に記載の画像処理装置。 ,
1 3 . 複数の上記特徴パラメ一夕又は上記付随パラメ一夕の中から、 第 1 の解像度を有する高解像度ビデオデ一夕を表示さるか · 第 1 の解像度 よ り も低い低解像度ビデオデータを表示させるかを選択する際に利用す る上記特徴パラメ一夕又は上記付随パラメ一夕を、 再生モードパラメ一 夕として選択する選択手段を更に備え、
上記メタデータ生成手段は、 上記選択手段により選択された再生モー ドパラメ一夕の値に応じて高解像度ビデオデ一夕又は低解像度ビデオデ 一夕を選択して表示させるように、 上記再生モードパラメ一夕を含むメ 夕データを生成する
請求項 1に記載の画像処理装置。 ,
1 4 . 上記選択手段により選択された表示パラメータの値に応じて、 上 記高解像度ビデオデ一夕をェンコ一ドした高解像度ビデ'ォス ト リーム又 は上記低解像度ビデオデータをエンコードした低解像度ビデオス ト リ一 ムを選択して送信する送信手段を更に有する
請求項 1 3に記載の.画像処理装置。 .
1 5 . 複数の上記特徴パラメ一夕又は上記付随パラメ一夕の中から、 第 1 のフォーマヅ トのビデオデ一夕を表示さるか '第 1のフォーマヅ トよ り もデ一夕量の少ない第 2 のフォーマツ 卜のビデオデ一夕を.表示させ るかを選択する際に利用する上記特徴パラメ一夕又は上記付随パラメ一 夕を、 再生モードパラメ一夕として選択する選択手段を更に備え、
上記メタデータ生成手段は、 上記選択手段により選択された再生モー - ' ' v > *J
ドパラメ一夕の値に応じて第 1のフォーマツ トのビデオデ一夕又は第 2 のフォーマツ 卜のビデオデータを選択して表示させるように、 上記再生 モードパラメ一夕を含むメ夕データを生成する
請求項 1に記載の画像処理装置。
1 6 . 上記選択手段により選択された表示パラメ一夕の値に応じて、 上 記第 1 のフォーマッ トのビデオデータをエンコードした第 1 のビデオ ス ト リーム又は第 2のフォーマツ トのビデオデータをエンコードした第 2のビデオス ト リームを選択して送信する送信手段を更に有する
請求項 1 5に記載の画像処理装置。
1 7 . 上記メ夕デ一夕生成手段は、 上記表示空間内において複数のビデ ォデ一夕間の距離が所定距離以内になつた場合に上記ビデオデ一夕の絵 柄が類似した状態であることを示す類似度情報を、 メ夕データとして生 成する
請求項 1に記載の画像処理装置。
1 8 . 上記表示空間は、 3つの異なる特徴パラメ一夕又は付随パラメ一 夕を表示軸とする 3次元の表示空間を含む
請求項 1に記載の画像処理装置。
1 9 . 上記特徴パラメ一夕は、 上記ビデオデータに対する動き量、 輝度、 色相、 赤色成分、 青色成分、 緑色成分のうち少なく とも 1つを含む
請求項 1に記載の画像処理装置。
2 0 ..上記特徴パラメ一夕は、 上記ォ ディォに対する信号レベルを含 む
請求項 3に記載の画像処理装置。 '
2 1 . 上記付随パラメ一夕は、 上記ビデオデ一夕のタイムコードを含む 請求項 1に記載の画像処理装置。
2 2 . 上記付随パラメ一夕は、 上記ビデオデ一夕を撮像又は記録した時 刻を示す時刻情報を含む 請求項 1に記載の画像処理装置。
2 3 . 上記付随パラメ一夕は、 上記ビデオデータを撮像又は記録した際 の位置情報を含む
請求項 1に記載の画像処理装置。
2 4 . 上記付随パラメ一夕は、 上記ビデオデ一夕の所有者又は作成者を 識別する識別情報を含む
請求項 1 に記載の画像処理装置。
2 5 . 上記付随パラメ一夕は、 上記ビデオデ一夕にアクセスしたユーザ を識別する識別情報を含む
請求項 1に記載の画像処理装置。 '
2 6 . 上記付随パラメータは、 上記ビデオデ一夕にアクセスした数を示 すアクセス数を含む (
請求項 1 に記載の画像処理装置。
2 7 . 上記付随パラメ一夕は、 上記ビデオデ一夕をグループ分けした際 のグループ識別情報を含む
請求項 1 に記載の画像処理装置。
2 8 . 上記付随パラメ一夕は、 上記ビデオデータに含まれる人物の顔を 識別する顔識別情報を含む
請求項 1に記載の画像処理装置。
2 9 . 上記付随パラメ一夕は、 上記ビデオデ一夕に含まれる夕ィ トル又 はキーワード又は字幕情報を含む
請求項 1に記載の画像処理装置。
3 0 . ビデオデータ又はオーディォデ一夕特徴を示す特徴パラメ一夕、 又は、 上記ビデオデータ又はオーデ,ィォデ一夕にリンクする付随パラメ —夕を、 上記ビデオデータともに取得する取得ステップと、
上記取得ステップにおいて取得された上記特徴パラメ一夕又は上記付 随パラメ一夕を表示軸とする表示空間内において、 上記特徴パラメ一夕 に示される特徴値又は上記付随パラメ一夕に示される付随値から変換さ れた座標パラメ一夕を利用して、 上記ビデオデ一夕を上記表示空間内で 表示ゥイ ン ドゥ上に表示させるように、 上記取得ステップにおいて取得 された特徴パラメ一夕又は付随パラメ一夕をメ夕デ一夕として生成する メ夕デ一夕生成ステップと を含む画像処理方法。
PCT/JP2007/059282 2006-04-24 2007-04-23 画像処理装置及び画像処理方法 WO2007126096A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US11/993,764 US8780756B2 (en) 2006-04-24 2007-04-23 Image processing device and image processing method
CN2007800006311A CN101326819B (zh) 2006-04-24 2007-04-23 图像处理设备和图像处理方法
JP2007551884A JP5453716B2 (ja) 2006-04-24 2007-04-23 画像処理装置及び画像処理方法
EP07742717A EP2012533A4 (en) 2006-04-24 2007-04-23 IMAGE PROCESSING DEVICE AND IMAGE PROCESSING METHOD

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-119655 2006-04-24
JP2006119655 2006-04-24

Publications (1)

Publication Number Publication Date
WO2007126096A1 true WO2007126096A1 (ja) 2007-11-08

Family

ID=38655616

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/059282 WO2007126096A1 (ja) 2006-04-24 2007-04-23 画像処理装置及び画像処理方法

Country Status (7)

Country Link
US (1) US8780756B2 (ja)
EP (1) EP2012533A4 (ja)
JP (1) JP5453716B2 (ja)
KR (1) KR20080110704A (ja)
CN (1) CN101326819B (ja)
TW (1) TW200809764A (ja)
WO (1) WO2007126096A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008694A (ja) * 2009-06-29 2011-01-13 Toshiba Corp 表示処理装置、プログラムおよび表示処理方法
WO2011083676A1 (ja) * 2010-01-07 2011-07-14 1stホールディングス株式会社 オブジェクト処理装置およびオブジェクト選択方法
WO2012117442A1 (ja) * 2011-03-01 2012-09-07 パイオニア株式会社 画像配置方法、ブラウズ方法、表示制御装置、サーバー、ユーザー端末、通信システム、画像配置システムおよびプログラム
US8600215B2 (en) 2011-04-20 2013-12-03 Funai Electric Co., Ltd. Electronic device, playback device and server device
CN106775210A (zh) * 2016-11-29 2017-05-31 北京小米移动软件有限公司 壁纸更换的方法和装置

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8117281B2 (en) * 2006-11-02 2012-02-14 Addnclick, Inc. Using internet content as a means to establish live social networks by linking internet users to each other who are simultaneously engaged in the same and/or similar content
JP5338228B2 (ja) * 2008-09-29 2013-11-13 カシオ計算機株式会社 画像生成装置、及びプログラム
US9110927B2 (en) * 2008-11-25 2015-08-18 Yahoo! Inc. Method and apparatus for organizing digital photographs
US9262120B2 (en) * 2009-09-11 2016-02-16 Nokia Technologies Oy Audio service graphical user interface
US8723877B2 (en) 2010-05-20 2014-05-13 Apple Inc. Subbuffer objects
US8320644B2 (en) 2010-06-15 2012-11-27 Apple Inc. Object detection metadata
US9323438B2 (en) 2010-07-15 2016-04-26 Apple Inc. Media-editing application with live dragging and live editing capabilities
US8819557B2 (en) 2010-07-15 2014-08-26 Apple Inc. Media-editing application with a free-form space for organizing or compositing media clips
US8875025B2 (en) 2010-07-15 2014-10-28 Apple Inc. Media-editing application with media clips grouping capabilities
US9513883B2 (en) 2010-10-01 2016-12-06 Apple Inc. Method and apparatus for designing layout for user interfaces
US20120151413A1 (en) * 2010-12-08 2012-06-14 Nokia Corporation Method and apparatus for providing a mechanism for presentation of relevant content
US8745499B2 (en) * 2011-01-28 2014-06-03 Apple Inc. Timeline search and index
US9099161B2 (en) 2011-01-28 2015-08-04 Apple Inc. Media-editing application with multiple resolution modes
US8621355B2 (en) 2011-02-02 2013-12-31 Apple Inc. Automatic synchronization of media clips
US9997196B2 (en) 2011-02-16 2018-06-12 Apple Inc. Retiming media presentations
US11747972B2 (en) 2011-02-16 2023-09-05 Apple Inc. Media-editing application with novel editing tools
US8966367B2 (en) 2011-02-16 2015-02-24 Apple Inc. Anchor override for a media-editing application with an anchored timeline
US9390752B1 (en) * 2011-09-06 2016-07-12 Avid Technology, Inc. Multi-channel video editing
US20130073933A1 (en) 2011-09-20 2013-03-21 Aaron M. Eppolito Method of Outputting a Media Presentation to Different Tracks
US9536564B2 (en) 2011-09-20 2017-01-03 Apple Inc. Role-facilitated editing operations
US9111579B2 (en) 2011-11-14 2015-08-18 Apple Inc. Media editing with multi-camera media clips
US9311310B2 (en) * 2012-10-26 2016-04-12 Google Inc. System and method for grouping related photographs
EP2763422B1 (en) * 2013-01-31 2018-02-21 Samsung Electronics Co., Ltd Method and system for displaying object, and method and system for providing the object
CN104023245B (zh) * 2013-12-19 2017-07-21 北京观止创想科技有限公司 一种基于b/s架构的视频直播流快编收录系统及实现方法
USD760771S1 (en) * 2014-02-10 2016-07-05 Tencent Technology (Shenzhen) Company Limited Portion of a display screen with graphical user interface
USD760770S1 (en) * 2014-02-10 2016-07-05 Tencent Technology (Shenzhen) Company Limited Portion of a display screen with animated graphical user interface
EP2916325A1 (en) * 2014-03-06 2015-09-09 Thomson Licensing Method and device for processing a picture
US11100234B2 (en) * 2014-06-13 2021-08-24 Hitachi Systems, Ltd. Work recording apparatus, system, program, and method preventing confidential information leaks
JP6376873B2 (ja) * 2014-07-16 2018-08-22 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
US10542233B2 (en) * 2014-10-22 2020-01-21 Genetec Inc. System to dispatch video decoding to dedicated hardware resources
WO2016076515A1 (ko) * 2014-11-13 2016-05-19 삼성전자 주식회사 영상의 주파수 특성 정보를 포함하는 메타 데이터를 생성하는 방법 및 장치
US9955191B2 (en) 2015-07-01 2018-04-24 At&T Intellectual Property I, L.P. Method and apparatus for managing bandwidth in providing communication services
CN106803234B (zh) * 2015-11-26 2020-06-16 腾讯科技(深圳)有限公司 图片编辑中的图片显示控制方法及装置
CN105430516A (zh) * 2015-11-30 2016-03-23 天脉聚源(北京)科技有限公司 显示支持者头像的方法和装置
CN105430518A (zh) * 2015-11-30 2016-03-23 天脉聚源(北京)科技有限公司 动态显示支持者头像的方法和装置
CN105430517A (zh) * 2015-11-30 2016-03-23 天脉聚源(北京)科技有限公司 动态显示支持者头像的方法和装置
US10366122B2 (en) * 2016-09-14 2019-07-30 Ants Technology (Hk) Limited. Methods circuits devices systems and functionally associated machine executable code for generating a searchable real-scene database
CN108596735A (zh) * 2018-04-28 2018-09-28 北京旷视科技有限公司 信息推送方法、装置及系统
CN111279688A (zh) * 2019-02-27 2020-06-12 深圳市大疆创新科技有限公司 拍摄装置的视频回放方法和拍摄装置
KR20210078218A (ko) * 2019-12-18 2021-06-28 삼성전자주식회사 전자장치 및 그 제어방법
CN113132947A (zh) * 2019-12-30 2021-07-16 中国移动通信集团福建有限公司 基于高铁用户的位置信息处理方法
CN112887665B (zh) * 2020-12-30 2023-07-18 重庆邮电大学移通学院 视频图像处理方法及相关装置
TWI828575B (zh) * 2023-04-14 2024-01-01 欣時代數位科技有限公司 環景佈景生成系統及其控制方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000033570A1 (fr) 1998-11-30 2000-06-08 Sony Corporation Procede et dispositif de fourniture d'informations
WO2000033572A1 (fr) 1998-11-30 2000-06-08 Sony Corporation Dispositif et procede de delivrance d'information
WO2000033455A1 (fr) 1998-12-02 2000-06-08 Seiko Epson Corporation Dispositif piezo-electrique et son procédé de fabrication
JP2001309269A (ja) * 2000-04-25 2001-11-02 Fujitsu Ltd デジタル映像コンテンツ閲覧装置及び方法

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1066008A (ja) * 1996-08-23 1998-03-06 Kokusai Denshin Denwa Co Ltd <Kdd> 動画像検索編集装置
US6937273B1 (en) * 1997-05-28 2005-08-30 Eastman Kodak Company Integrated motion-still capture system with indexing capability
JP3586549B2 (ja) 1997-12-08 2004-11-10 株式会社日立製作所 画像検索方法およびその装置
JPH11175534A (ja) 1997-12-08 1999-07-02 Hitachi Ltd 画像検索方法およびその装置およびこれを利用した検索サービス
US6088029A (en) * 1998-06-26 2000-07-11 Tektronix, Inc. Enhanced display of a control window in a measurement instrument
US6833865B1 (en) * 1998-09-01 2004-12-21 Virage, Inc. Embedded metadata engines in digital capture devices
JP3572215B2 (ja) 1999-02-18 2004-09-29 日本電信電話株式会社 検索画像の空間表示方法及び装置及びこの方法のプログラムを記憶した記憶媒体
US7356830B1 (en) 1999-07-09 2008-04-08 Koninklijke Philips Electronics N.V. Method and apparatus for linking a video segment to another segment or information source
JP2001265812A (ja) 2000-03-21 2001-09-28 Fujitsu Ltd 映像の3dブラウジング装置及び方法
JP2001325294A (ja) 2000-05-17 2001-11-22 Olympus Optical Co Ltd 類似画像検索方法および類似画像検索装置
US6948124B2 (en) * 2000-12-20 2005-09-20 Eastman Kodak Company Graphical user interface utilizing three-dimensional scatter plots for visual navigation of pictures in a picture database
JP3950718B2 (ja) 2001-03-19 2007-08-01 株式会社リコー 画像空間表示方法
US6990498B2 (en) * 2001-06-15 2006-01-24 Sony Corporation Dynamic graphical index of website content
US7425963B2 (en) 2001-07-16 2008-09-16 Hewlett-Packard Development Company, L.P. Hierarchical image feature-based visualization
AU2003219823A1 (en) 2002-02-20 2003-09-09 Bitpipe, Inc. Electronic document tracking
KR100612852B1 (ko) * 2003-07-18 2006-08-14 삼성전자주식회사 GoF/GoP의 질감 표현 방법과, 이를 이용한GoF/GoP 검색 방법 및 장치
JP2005086770A (ja) * 2003-09-11 2005-03-31 Nec Corp 情報提供システム、携帯端末、無線アクセスポイント、課金サーバおよび情報提供方法
JP4401740B2 (ja) * 2003-10-28 2010-01-20 キヤノン株式会社 編集装置
JP2005175839A (ja) 2003-12-10 2005-06-30 Canon Inc 画像表示装置、画像表示方法、プログラムおよび記憶媒体
JP2005182196A (ja) * 2003-12-16 2005-07-07 Canon Inc 画像表示方法および画像表示装置
US20050135790A1 (en) * 2003-12-23 2005-06-23 Sandisk Corporation Digital media player with resolution adjustment capabilities
JP4536402B2 (ja) * 2004-03-05 2010-09-01 ソニー株式会社 映像再生装置、映像再生方法及びその方法をコンピュータに実行させるためのプログラム
JP4708733B2 (ja) * 2004-05-21 2011-06-22 キヤノン株式会社 撮像装置
US7275065B2 (en) * 2004-05-24 2007-09-25 International Business Machines Corporation Method and system for supporting per-user-per-row read/unread tracking for relational databases
JP4140579B2 (ja) * 2004-08-11 2008-08-27 ソニー株式会社 画像処理装置および方法、撮影装置、並びにプログラム
US8020110B2 (en) * 2005-05-26 2011-09-13 Weisermazars Llp Methods for defining queries, generating query results and displaying same
TWI384413B (zh) * 2006-04-24 2013-02-01 Sony Corp An image processing apparatus, an image processing method, an image processing program, and a program storage medium

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000033570A1 (fr) 1998-11-30 2000-06-08 Sony Corporation Procede et dispositif de fourniture d'informations
WO2000033572A1 (fr) 1998-11-30 2000-06-08 Sony Corporation Dispositif et procede de delivrance d'information
WO2000033455A1 (fr) 1998-12-02 2000-06-08 Seiko Epson Corporation Dispositif piezo-electrique et son procédé de fabrication
JP2001309269A (ja) * 2000-04-25 2001-11-02 Fujitsu Ltd デジタル映像コンテンツ閲覧装置及び方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2012533A4

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008694A (ja) * 2009-06-29 2011-01-13 Toshiba Corp 表示処理装置、プログラムおよび表示処理方法
WO2011083676A1 (ja) * 2010-01-07 2011-07-14 1stホールディングス株式会社 オブジェクト処理装置およびオブジェクト選択方法
JP2011141748A (ja) * 2010-01-07 2011-07-21 1St Holdings Inc オブジェクト処理装置およびオブジェクト選択方法
CN102640099A (zh) * 2010-01-07 2012-08-15 第一控股株式会社 对象处理装置和对象选择方法
US8787661B2 (en) 2010-01-07 2014-07-22 Wingarcist Inc. Object processing device and object selection method
WO2012117442A1 (ja) * 2011-03-01 2012-09-07 パイオニア株式会社 画像配置方法、ブラウズ方法、表示制御装置、サーバー、ユーザー端末、通信システム、画像配置システムおよびプログラム
JP5706960B2 (ja) * 2011-03-01 2015-04-22 パイオニア株式会社 画像配置方法、ブラウズ方法、表示制御装置、サーバー、通信システム、画像配置システムおよびプログラム
US8600215B2 (en) 2011-04-20 2013-12-03 Funai Electric Co., Ltd. Electronic device, playback device and server device
CN106775210A (zh) * 2016-11-29 2017-05-31 北京小米移动软件有限公司 壁纸更换的方法和装置

Also Published As

Publication number Publication date
JP5453716B2 (ja) 2014-03-26
US20100158471A1 (en) 2010-06-24
JPWO2007126096A1 (ja) 2009-09-17
CN101326819B (zh) 2013-05-22
TW200809764A (en) 2008-02-16
US8780756B2 (en) 2014-07-15
CN101326819A (zh) 2008-12-17
KR20080110704A (ko) 2008-12-19
EP2012533A4 (en) 2011-11-16
EP2012533A1 (en) 2009-01-07
TWI355645B (ja) 2012-01-01

Similar Documents

Publication Publication Date Title
WO2007126096A1 (ja) 画像処理装置及び画像処理方法
US8015490B2 (en) Image processing device and image processing method
US20180204381A1 (en) Image processing apparatus for generating virtual viewpoint image and method therefor
US8045850B2 (en) Image pickup apparatus, image recording apparatus and image recording method
JP4505760B2 (ja) 情報処理装置および方法、プログラム、並びに、記録媒体
US9251765B2 (en) Image processing device, image processing method, and program for generating composite image
US20020051081A1 (en) Special reproduction control information describing method, special reproduction control information creating apparatus and method therefor, and video reproduction apparatus and method therefor
US8004594B2 (en) Apparatus, method, and program for controlling display of moving and still images
US11343594B2 (en) Methods and systems for an augmented film crew using purpose
JP2007049332A (ja) 記録再生装置および記録再生方法、並びに、記録装置および記録方法
WO2015125815A1 (ja) 映像編集装置
US20080320046A1 (en) Video data management apparatus
WO2009081732A1 (ja) 画像処理装置、動画再生装置、これらにおける処理方法およびプログラム
WO2013132557A1 (ja) コンテンツ加工装置とその集積回路、方法、およびプログラム
US20120251081A1 (en) Image editing device, image editing method, and program
JP5070179B2 (ja) シーン類似判定装置、そのプログラム及びサマリ映像生成システム
US10474743B2 (en) Method for presenting notifications when annotations are received from a remote device
US20060080591A1 (en) Apparatus and method for automated temporal compression of multimedia content
JP2005260748A (ja) 電子カメラ、及び電子カメラの制御プログラム
US20140150043A1 (en) Scene fragment transmitting system, scene fragment transmitting method and recording medium
JP2015126392A (ja) 画像処理装置及び画像処理装置の制御方法
JP2015109606A (ja) 撮像装置、撮像制御方法およびプログラム
JP2011078028A (ja) 電子機器、メタデータ生成方法及びプログラム
JP2005175532A (ja) 映像処理装置および代表画像設定方法
KR20070073371A (ko) 바탕화면이 동영상으로 제공되는 홈페이지

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780000631.1

Country of ref document: CN

ENP Entry into the national phase

Ref document number: 2007551884

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2007742717

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 11993764

Country of ref document: US

Ref document number: 1020077029926

Country of ref document: KR

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07742717

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE