CN101945212A - 图像捕获设备、图像处理方法和程序 - Google Patents

图像捕获设备、图像处理方法和程序 Download PDF

Info

Publication number
CN101945212A
CN101945212A CN2010102183719A CN201010218371A CN101945212A CN 101945212 A CN101945212 A CN 101945212A CN 2010102183719 A CN2010102183719 A CN 2010102183719A CN 201010218371 A CN201010218371 A CN 201010218371A CN 101945212 A CN101945212 A CN 101945212A
Authority
CN
China
Prior art keywords
image
subject
information
highlight scene
capture device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2010102183719A
Other languages
English (en)
Other versions
CN101945212B (zh
Inventor
长尾研一郎
前笃
冈田俊二
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN101945212A publication Critical patent/CN101945212A/zh
Application granted granted Critical
Publication of CN101945212B publication Critical patent/CN101945212B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • G11B27/105Programmed access in sequence to addressed parts of tracks of operating record carriers of operating discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • H04N9/8047Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Studio Devices (AREA)

Abstract

在此公开了图像捕获设备、图像处理方法和程序。所述图像捕获设备包括:多个图像捕获单元,其从多个视角拍摄图像;记录控制器,其执行将所述多个图像捕获单元中的每一个所测量的多个被摄体距离记录在记录单元上作为拍摄图像的属性信息的处理;以及图像选择控制器,其通过使用属性信息中包括的被摄体距离信息来执行精彩场景提取处理。所述图像选择控制器执行如下处理:通过使用对应于所述多个图像捕获单元中的每一个且包括在所述属性信息中的多个被摄体距离来确定被摄体是否位于图像帧的中心区域,并选择确定被摄体位于中心区域的图像作为精彩场景。

Description

图像捕获设备、图像处理方法和程序
技术领域
本发明涉及图像捕获设备、图像处理方法和程序。更具体地,本发明涉及执行从拍摄的图像中选择精彩场景(highlight scene)作为代表性图像的处理的图像捕获设备、图像处理方法和程序。
背景技术
在由能够拍摄运动图像的图像捕获设备拍摄多个运动图像并将其存储在该图像捕获设备中的情况下,需要长时间来再现运动图像。在这样的情况下,精彩场景提取和显示处理用于从拍摄的图像中选择代表性场景并显示该代表性场景。例如,在日本待审查专利申请公开No.2007-134771中公开了精彩场景提取和显示处理。
各种方案用于提取精彩场景。例如,已经提出了从组成运动图像(拍摄的图像)的各帧中提取面部检测帧并通过使用面部识别技术而采用面部检测帧作为精彩场景的方案。另外,已经提出了记录变焦操作信息(在拍摄时相机的操作信息)等作为拍摄图像的属性信息,并提取允许与指示用户操作的产生的属性信息对应的帧图像作为精彩场景的方案等。
与此分离地,近年来,作为图像捕获器材,已经开发了配备有多个镜头以及从不同视角拍摄图像以便执行三维图像显示的图像捕获器件的设备。例如,在由相机中提供的多个镜头和图像捕获器件拍摄用于三维图像显示的左眼图像(L图像)和右眼图像(R图像)之后,显示设备通过使用这些图像来显示三维图像。
然而,上述精彩场景提取方案不适于这种三维图像。由于考虑二维图像已经提出了精彩场景提取方案,因此可以获取适于二维图像场景的精彩场景。然而,在将图像再现为三维图像的情况下,可能出现图像不适于精彩场景的情况。
例如,当选择已经识别出面部图像的帧作为精彩场景时,即使面部位于帧的尾部,也提取该帧作为精彩场景。然而,对于这种图像来说可能难以具有三维效果。进一步,当选择已经执行了变焦操作的帧作为精彩场景时,可能将被摄体逐渐后退(recede)的场景设置为精彩场景。关于这种场景,由于降低了对被摄体的关注程度,因此提取该场景作为精彩场景可能不是优选的。
发明内容
鉴于以上问题,期望提供能够提取用作适于三维图像的代表性图像的精彩场景的图像捕获设备、图像处理方法和程序。
根据本发明的一个实施方式,提供了一种图像捕获设备,包括:多个图像捕获单元,其从多个视角拍摄图像;记录控制器,其执行将所述多个图像捕获单元中的每一个所测量的多个被摄体距离记录在记录单元上作为拍摄图像的属性信息的处理;以及图像选择控制器,其通过使用属性信息中包括的被摄体距离信息来执行精彩场景提取处理,其中,所述图像选择控制器执行如下处理:通过使用对应于所述多个图像捕获单元中的每一个且包括在所述属性信息中的多个被摄体距离来确定被摄体是否位于图像帧的中心区域,并选择确定被摄体位于中心区域的图像作为精彩场景。
另外,根据本发明的图像捕获设备的一个实施方式,所述图像选择控制器执行如下处理:参照时间序列的拍摄图像的被摄体距离、根据时间的经过而确定被摄体靠近所述图像捕获设备的图像的存在,并选择确定被摄体靠近所述图像捕获设备的图像作为精彩场景。
另外,根据本发明的图像捕获设备的一个实施方式,所述图像选择控制器执行选择运动图像作为精彩场景的处理,所述运动图像由包括确定被摄体位于图像帧的中心区域的图像的连续拍摄图像配置。
另外,根据本发明的图像捕获设备的一个实施方式,所述记录控制器在剪辑信息文件和存储再现列表的播放列表文件中的任意一个中记录被摄体距离信息,所述剪辑信息文件用作与设置为拍摄的运动图像的记录文件的流文件对应的管理文件。
另外,根据本发明的图像捕获设备的一个实施方式,当在剪辑信息文件中记录被摄体距离信息时,所述记录控制器记录所述剪辑信息文件中规定的、从剪辑的呈现时间开始时间起的偏移时间作为表示测量被摄体距离的图像的位置的时间偏移信息,而当在播放列表文件中记录被摄体距离信息时,所述记录控制器记录播放列表中包括的、从与播放项对应地设置的开始时间(InTime)起的偏移时间作为表示测量被摄体距离的图像位置的时间偏移信息。
另外,根据本发明的图像捕获设备的一个实施方式,所述记录控制器执行如下处理:允许在所述属性信息中包括表示面部区域是否包括在所述图像捕获单元拍摄的图像中的面部识别信息,并在记录单元上记录所述属性信息;并且所述图像选择控制器执行如下处理:参照所述属性信息中包括的所述面部识别信息,选择已经执行了面部识别的图像作为精彩场景。
另外,根据本发明的图像捕获设备的一个实施方式,所述记录控制器执行如下处理:允许表示所述图像捕获单元拍摄图像的位置的GPS信息包括在所述属性信息中,并将所述属性信息记录在记录单元上;并且所述图像选择控制器执行如下处理:参照所述属性信息中包括的GPS信息,选择特定位置处拍摄的图像作为精彩场景。
另外,根据本发明的图像捕获设备的一个实施方式,所述多个图像捕获单元由至少三个图像捕获单元配置,所述记录控制器执行将至少三个图像捕获单元中的每一个测量的被摄体距离记录在记录单元上作为拍摄图像的属性信息的处理,并且图像选择控制器执行如下处理:通过使用所述属性信息中包括的且对应于至少三个图像捕获单元中的每一个的多个被摄体距离来确定被摄体是否位于图像帧的中心区域,并选择确定被摄体位于中心区域的图像作为精彩场景。
根据本发明的另一个实施方式,提供了一种由图像捕获设备执行的图像处理方法,所述图像处理方法包括如下步骤:由多个图像捕获单元从多个视角拍摄图像;由记录控制器将所述多个图像捕获单元中的每一个所测量的各被摄体距离记录在记录单元上作为拍摄图像的属性信息;以及由图像选择控制器通过使用属性信息中包括的被摄体距离信息来执行精彩场景提取处理,其中,在执行精彩场景提取处理的步骤中,通过使用所述属性信息中包括的且对应于多个图像捕获单元中的每一个的多个被摄体距离来确定被摄体是否位于图像帧的中心区域,并选择确定被摄体位于中心区域的图像作为精彩场景。
根据本发明的再一个实施方式,提供了一种程序,其使得图像捕获设备执行如下功能:允许多个图像捕获单元从多个视角拍摄图像;允许记录控制器将所述多个图像捕获单元中的每一个所测量的各被摄体距离记录在记录单元上作为拍摄图像的属性信息;以及允许图像选择控制器通过使用属性信息中包括的被摄体距离信息来执行精彩场景提取处理,其中,在精彩场景提取处理中,通过使用所述属性信息中包括的且对应于多个图像捕获单元中的每一个的多个被摄体距离来确定被摄体是否位于图像帧的中心区域,并选择确定被摄体位于中心区域的图像作为精彩场景。
另外,例如,可以通过计算机可读记录介质或通信介质向能够执行各种类型的程序代码的图像处理器和计算机系统提供根据本发明实施方式的程序。可以以计算机可读格式提供这种程序,使得可以在图像处理器和计算机系统中执行根据所述程序的处理。
本发明的其他目标、特征和优点将通过本发明的实施方式和基于附图的详细描述而变得明显。进一步,说明书中的系统对应于多个设备的逻辑集合,并且不需要在同一外壳中存在具有每一个配置的多个设备。
根据本发明的一个实施方式,在从多个视角记录拍摄的图像的图像捕获设备中,将对应于每个视角的多个图像捕获单元所测量的被摄体距离信息记录为拍摄图像的属性信息。进一步,当执行精彩场景选择处理时,在通过使用来自多个图像捕获单元的被摄体距离信息确定被摄体是否位于拍摄图像的中心部分之后,在确定被摄体处于中心部分时选择精彩场景。另外,在确定被摄体是否正在靠近之后,在确定被摄体正在靠近时选择精彩场景。利用这种配置,可以实现对于三维(3D)图像显示而言最佳的精彩场景选择。
附图说明
图1A和图1B是图示根据本发明的一个实施方式的图像捕获设备的配置示例的图;
图2是图示根据本发明的一个实施方式的图像捕获设备的硬件配置示例的框图;
图3A到图3B是图示测量被摄体距离的示例的图形;
图4是图示精彩场景选择基准的一个示例的图;
图5A到图5D是图示精彩场景选择基准的一个示例的图;
图6是图示精彩场景选择基准的一个示例的图;
图7是图示精彩场景选择基准的示例的图;
图8是图示由根据本发明的一个实施方式的图像捕获设备执行的精彩场景选择处理的顺序的流程图;
图9是图示根据本发明的一个实施方式的图像捕获设备的记录数据的目录的配置示例的图;
图10是图示记录了精彩场景选择信息的示例的图;
图11是图示由根据本发明的一个实施方式的图像捕获设备执行的精彩场景选择处理的顺序的流程图;
图12是图示在精彩场景选择信息中记录的时间偏移的图;
图13是图示根据本发明的一个实施方式的图像捕获设备的记录数据的目录的配置示例的图;
图14是图示记录了精彩场景选择信息的示例的图;
图15是图示在精彩场景选择信息中记录的时间偏移的图;
图16是图示记录了精彩场景选择信息的示例的图;
图17是图示记录了精彩场景选择信息的示例的图;
图18是图示记录了精彩场景选择信息的示例的图;
图19是图示记录了精彩场景选择信息的示例的图;
图20A到图20C是图示在图像捕获设备中测量距离的示例的图;以及
图21A到图21C是图示图像捕获设备中被摄体距离的测量示例以及精彩场景选择处理的图。
具体实施方式
在下文中,将参照附图详细描述根据本发明实施方式的图像捕获设备、图像处理方法和程序。将以如下项目的次序给出描述。
1.图像捕获设备的配置示例
2.基于被摄体距离的精彩场景提取处理
3.记录精彩场景选择信息的配置示例
3-a.在剪辑信息文件中记录精彩场景选择信息的示例
3-b.在播放列表文件中记录精彩场景选择信息的示例
4.用作精彩场景选择信息的其他片段信息的示例
5.在具有多镜头配置的图像捕获设备的情况下被摄体距离信息的获取和精彩场景选择的示例
[1.图像捕获设备的配置示例]
首先,将参照图1描述根据本发明的一个实施方式的图像捕获设备的配置示例。
图1A和图1B是图示根据本发明的一个实施方式的图像捕获设备的外观的图。根据本发明实施方式的图像捕获设备100配备有多个镜头和图像捕获器件,并且被配置为从多个视角拍摄图像。也就是说,图像捕获设备100被配置为从不同视角拍摄图像,用于三维图像显示处理。
图1A和图1B图示根据本发明的一个实施方式的图像捕获设备的外观,其中图1A是图像捕获设备的前视图,而图1B是图像捕获设备的后视图。如图1A的前视图中所示,图像捕获设备100包括用于从多个视角拍摄图像的两个镜头,即镜头101和102。操作快门103以拍摄图像。进一步,图像捕获设备100能够拍摄运动图像和静止图像。
根据图像捕获设备100,可以设置模式,即静止图像拍摄模式和运动图像拍摄模式。在静止图像拍摄模式中,按下快门103一次以拍摄静止图像。在运动图像拍摄模式中,按下快门103一次以开始运动图像的记录,然后按下一次以完成运动图像的记录。关于静止图像和运动图像,将经由镜头101和102来自不同视角的图像分别记录在图像捕获设备100的存储器中。
进一步,根据图像捕获设备100,可以切换普通图像拍摄模式(2D模式)和三维图像拍摄模式(3D模式)。在普通图像拍摄模式的情况下,与一般相机类似地,仅使用镜头101和102之一执行拍摄。
如图1B的后视图中所示,图像捕获设备100在其后表面上配备有显示拍摄图像或用作用户界面的显示单元104。显示单元104显示作为由图像捕获设备拍摄的当前图像的直通图像(through image)以及在存储器和记录介质上记录的图像。可以根据用户的指令将显示的图像切换到静止图像、运动图像和三维图像。
另外,可以执行精彩场景显示作为存储器和记录介质上记录的运动图像的显示模式。也就是说,在根据预定算法从组成运动图像的多个图像帧中提取精彩场景之后,仅顺序地显示提取出的精彩场景图像。后面将详细描述提取精彩场景的方案。
图2是图示根据本发明的一个实施方式的图像捕获设备100的硬件配置的框图。第一图像捕获单元(L)151对应于图1中所示的、配备有镜头101的图像拍摄单元,而第二图像捕获单元(R)152对应于图1中所示的、配备有镜头102的图像拍摄单元。每一个图像捕获单元151和152均包括镜头和图像捕获器件,其接收通过镜头获得的被摄体图像,并输出通过对被摄体图像执行光电转换而获得的电信号。当以三维图像拍摄模式(3D模式)执行拍摄时,第一图像捕获单元(L)151拍摄左眼图像(L图像),而第二图像捕获单元(R)152拍摄右眼图像(R图像)。
将每一个图像捕获单元151和152的输出经由图像捕获控制器153输入到系统控制器156。系统控制器156根据拍摄模式的每一种设置模式(即,静止图像模式、运动图像模式、二维模式和三维模式)设置用于来自每一个图像捕获单元的输入信号的处理模式,控制图像捕获设备的每一个元件,并将作为处理结果而产生的记录数据记录在记录介质166或外部记录介质167上。系统控制器156以这种方式用作记录控制器。
例如,关于运动图像记录,运动图像处理器163执行对于MPEG2TS数据的编码处理。关于静止图像记录,静止图像处理器164执行对于JPEG数据的编码处理。进一步,当以三维模式执行图像拍摄时,运动图像处理器163或静止图像处理器164基于由图像捕获单元151和152拍摄的图像,产生用于显示三维图像的图像数据。例如,产生遵循AVCHD格式的记录数据作为运动图像数据。
另外,当将运动图像数据记录为三维图像(3D图像)时,将由第一图像捕获单元(L)151和第二图像捕获单元(R)152拍摄的两个图像记录为成对图像。关于显示处理,交替地显示这些成对图像。用户戴上快门型眼睛以观看显示图像。也就是说,用户仅通过左眼观看由第一图像捕获单元(L)151拍摄的图像,并仅通过右眼观看由第二图像捕获单元(R)152拍摄的图像。由于这种处理,可以观看三维图像(3D图像)。另外,这仅仅是3D图像记录显示方案的一个示例,也可以采用其他方案。
此外,关于在介质(记录介质166和外部记录介质167)上记录由图像捕获单元151和152拍摄的图像的处理,还记录每一个图像帧的属性信息。属性信息包括根据焦距计算出的被摄体距离信息。进一步,图像捕获设备具有自动对焦功能,并且当图像捕获单元151和152分别地执行自动对焦处理时,顺序地测量从图像捕获单元151和152到被摄体的距离。
将测量到的距离信息暂时存储在距离信息记录单元161中。当已经执行了拍摄处理时,将被摄体距离信息记录为与每一个拍摄图像对应的属性信息。也就是说,与图像一起,在记录拍摄图像的介质(记录介质166和外部记录介质167)上记录被摄体距离信息。下面将详细描述记录配置。
另外,图像捕获设备100包括图像捕获单元151和152,并且分别测量焦距和被摄体距离作为与图像捕获单元对应的距离。在下文中,与左(L)镜头拍摄的L图像对应的被摄体距离将称为[被摄体距离L],而与右(R)镜头拍摄的R图像对应的被摄体距离将称为[被摄体距离R]。将这些片断的信息记录为与图像对应的属性信息。
此外,在音频信息的情况下,在麦克风154获得音频并经A/D转换器155将其转换为数字信号之后,将数字信号记录在介质(记录介质166和外部记录介质167)上,作为与图像对应的声音信息。
显示单元160用于显示直通图像和介质(记录介质166和外部记录介质167)上记录的图像、显示设置信息等。扬声器159输出记录的声音信息等。例如,当执行再现介质(记录介质166和外部记录介质167)上记录的图像数据的处理时,D/A转换器158将记录的数字数据转换为模拟信号。
用户界面157用作用户的操作单元。例如,用户界面157用作接收拍摄操作的开始和结束、拍摄模式(如,静止图像模式、运动图像模式、2D模式和3D模式)的设置的指令信息、指定显示单元160的显示模式的指令信息等的输入单元。另外,显示单元160的显示处理包括各种显示模式,如静止图像显示、运动图像显示、2D显示、3D显示和精彩场景显示。
此外,当执行从记录介质上记录的拍摄图像(如,运动图像)中仅选择特定精彩场景并显示特定精彩场景的精彩场景显示时(这将在后面详细描述),执行处理以参照与拍摄图像对应地记录的属性信息来选择特定图像。在系统控制器156的控制之下执行精彩场景选择和显示处理。即,系统控制器156还用作图像选择控制器和显示控制器。
存储器165用作图像捕获设备所拍摄的图像的临时存储区,以及处理图像捕获设备中执行的程序和用于系统控制器156和其他处理单元中执行的处理的参数和数据的工作区。
GPS单元162通过与GPS卫星通信获取图像捕获设备的位置信息。将获得的位置信息记录在介质(记录介质166和外部记录介质167)上作为与每一个拍摄图像对应的属性信息。
[2.基于被摄体距离的精彩场景提取处理]
如上所述,根据本发明实施方式的图像捕获设备100与图像一起记录被摄体距离信息(作为图像捕获单元151和152的焦距而测量)作为每一个拍摄图像的属性信息。另外,以预定采样间隔测量被摄体距离。将参照图3A到图3B描述用于测量被摄体距离的处理的示例。
图像捕获设备测量第一图像捕获单元(L)151的镜头的焦距作为被摄体距离L,并测量第二图像捕获单元(R)152的镜头的焦距作为被摄体距离R。图3A到图3B是图示当将采样间隔T设置为三秒时对于每一个采样时间的距离测量结果的图形。
图3A图示被摄体距离L,而图3B图示被摄体距离R。在图3A到图3B中,水平轴表示时间,而垂直轴表示被摄体距离。根据本发明实施方式的图像捕获设备记录被摄体距离信息(被摄体距离L和被摄体距离R)作为拍摄图像的属性信息。
图像捕获设备通过使用被摄体距离信息执行精彩场景的自动提取处理。
为了从组成运动图像的多个图像帧中选择精彩场景,使用预定精彩场景选择基准。在下文中,将参照图4及其后面的图描述用于根据本发明实施方式的图像捕获设备的精彩场景选择基准。
当执行精彩场景选择处理时,根据本发明实施方式的图像捕获设备使用一个或多个选择基准。在下文中,将参照图4描述精彩场景选择基准的一个示例。
图4中所示的精彩场景选择基准1表示“被摄体距离L与被摄体距离R之差小”。对于满足该条件的图像,由于确定被摄体位于屏幕的中心,因此提取图像作为精彩场景。
图4图示了三种类型的图像帧,包括(1)NG帧、(2)精彩场景和(3)NG场景。
(1)在NG场景中,被摄体位于屏幕的左端。在这种情况下,由于被摄体距离L小于被摄体距离R,因此不选择该图像帧作为精彩场景的图像。
(2)在精彩场景中,被摄体位于屏幕的中心。在这种情况下,由于被摄体距离L近似等于被摄体距离R,因此选择该图像帧作为精彩场景的图像。
(3)在NG场景中,被摄体位于屏幕的右端。在这种情况下,由于被摄体距离L大于被摄体距离R,因此不选择该图像帧作为精彩场景的图像。
另外,在实际的处理中,使用预定阈值,并且被摄体距离L与被摄体距离R之差小于该阈值(即,|被摄体距离L-被摄体距离R|<阈值)。
当满足以上等式时,可以执行选择对应的图像帧作为精彩场景的处理。
将参照图5A到图5D描述详细的处理示例。可以根据图5A到图5C的三种模式来设置被摄体距离L和被摄体距离R的值。即,图5A图示了第一模式(被摄体距离L<被摄体距离R),图5B图示了第二模式(被摄体距离L≈被摄体距离R),而图5C图示了第三模式(被摄体距离L>被摄体距离R)。
根据本发明实施方式的图像捕获设备通过使用如上所述的被摄体距离信息的各种模式执行如图5D所示的被摄体位置确定处理,来执行精彩场景选择。即,如图5D所示,图像捕获设备执行如下选择处理。
|被摄体L|>|被摄体R|-ΔD2:
由于确定被摄体位于屏幕的中心(参照图5B),因此选择该图像帧作为精彩场景。
|被摄体L|<|被摄体R|-ΔD2:
由于确定被摄体偏置到屏幕的左侧(参照图5A)(即,NG),因此不选择该图像帧作为精彩场景。
|被摄体R|>|被摄体L|-ΔD2:
由于确定被摄体位于屏幕的中心(参照图5B),因此选择该图像帧作为精彩场景。
|被摄体R|<|被摄体L|-ΔD2:
由于确定被摄体偏移到屏幕的右侧(参照图5C)(即,NG),因此不选择该图像帧作为精彩场景。
通过这样的确定处理来执行精彩场景选择。
在下文中,将参照图6描述用于根据本发明实施方式的图像捕获设备的另一个精彩场景选择基准的一个示例。
图6中所示的精彩场景选择基准2表示“被摄体正在靠近屏幕的中心”。在满足该条件的图像中,由于确定被摄体正在逐渐地靠近图像捕获设备并且拍摄者注意被摄体,因此提取该图像作为精彩场景。
图6图示包括(1)精彩场景(正在靠近的被摄体)和(2)NG场景(正在后退的被摄体)的运动图像帧的示例。
图6图示了根据时间经过从上面起的帧f01到f03。
图像捕获设备执行如下处理:从与组成运动图像的连续帧对应地记录的属性信息中获得距离信息,选择被摄体距离根据帧的前进而减小的帧组,并且提取距离变为场景中最短之前和之后几秒的帧作为精彩场景。在这种情况下,精彩场景变为短时间(几秒)运动图像。
图7是统一地图示用于本发明实施方式的精彩场景选择基准的示例的图。例如,用于本发明实施方式的精彩场景选择基准如下:
选择基准1:当被摄体距离L和R之差小(小于预定阈值ΔD2)时,由于确定被摄体位于屏幕的中心,因此选择该图像帧作为精彩场景。
选择基准2:选择被摄体正在靠近屏幕中心的场景作为精彩场景。
选择基准3:当被摄体连续地停留在中心达t秒或更多秒时,选择其中五秒的帧作为精彩场景。
选择基准4:当被摄体距离小于预定阈值ΔD1时,选择关于其五秒的帧作为精彩场景。
选择基准5:如果被摄体距离的变化大,则选择其中五秒的帧作为精彩场景。
例如,根据本发明实施方式的图像捕获设备通过使用所述五个选择基准执行精彩场景提取。另外,可以采用选择性地使用五个选择基准中的一个或多个的配置。此外,选择基准1对应于参照图4和图5A到图5D所述的选择基准,而选择基准2对应于参照图6所述的选择基准。
此外,图7中所示的选择基准1到5中的任意一个基于与拍摄图像对应地记录的属性信息的距离信息。根据本发明实施方式的图像捕获设备通过使用如上所述的距离信息执行精彩场景选择。
例如,响应于来自用户的精彩场景显示处理的执行指令,执行精彩场景选择处理。用户通过用户界面来执行精彩场景显示处理。另外,当执行精彩场景选择处理时,用户可以任意地选择选择基准1到5中的任意一个。
例如,响应于来自用户的精彩场景再现处理的指令,执行精彩场景选择处理,并且在显示单元上仅显示基于选择基准而选择的精彩场景。
在下文中,将参照图8的流程图描述根据本发明实施方式的图像捕获设备中执行的精彩场景选择处理的顺序示例。图8中所示的流程表示当基于选择基准1和4执行精彩场景选择时的顺序。在系统控制器156的控制之下执行该处理。
另外,图8图示了在剪辑信息文件中记录作为精彩场景选择信息的距离信息的示例。在给出关于图8的流程的描述之前,将描述当记录运动图像数据时设置的文件。图9是图示作为在介质上记录运动图像数据的配置的示例的BDMV目录的图。这是遵循AVCHD格式的目录配置。
如图9所示,在BDMV目录中记录播放列表文件(PLAYLIST)、剪辑信息文件(CLIPINF)、流文件(STREAM)、索引文件(INDEX.BDM)、电影对象文件(MOVIEOBJ.BDM)。
与向用户展示的标题对应地提供播放列表文件(PLAYLIST),并且播放列表文件(PLAYLIST)用作包括至少一个播放项(PlayItem)的再现列表。每一个播放项具有剪辑的再现开始点(IN点)和再现结束点(OUT点),以指定其再现部分。在时间轴上排列播放列表中的多个播放项,使得可以指定各个再现部分的再现顺序。
剪辑信息文件(CLIPINF)与存储运动图像数据的流文件(STREAM)作为配对而一起存在,并且包括关于再现实际流所需的流的信息。流文件(STREAM)存储要再现的运动图像数据。将运动图像数据存储为MPEG数据。
索引文件(INDEX.BDM)是管理信息文件,并用于管理向用户展示的标题的指定信息、以及电影对象(与标题对应的再现节目)等。
电影对象文件(MOVIEOBJ.BDM)是与标题对应的再现节目,以管理用于再现的播放列表。
图8中所示的流程图的处理图示了在剪辑信息文件(CLIPINF)中记录精彩场景选择信息(即,距离信息)并使用剪辑信息文件(CLIPINF)执行精彩场景选择的示例。
在下文中,将描述图8中所示的流程图的每一步骤的处理。
在步骤S101,获得并打开剪辑信息文件。另外,在剪辑信息文件中设置如图10所示的制造者的数据区域(MakerPrivateData),并且在数据区域中记录精彩场景选择信息301。
在步骤S102,获得在如图10所示的、制造者的数据区域(MakerPrivateData)的精彩场景选择信息301中设置的索引信息。在精彩场景选择信息301中,设置每一个图像的索引信息,并且与每一个索引对应地记录距离信息(即,被摄体距离L和被摄体距离R)。
如图10所示,在精彩场景选择信息301中记录关于时间偏移、被摄体距离L和被摄体距离R的信息。
时间偏移指示从剪辑的呈现时间开始时间(其被规定在剪辑信息文件中)起的偏移时间。在[TIME_OFFSET]字段中记录时间偏移。将在后面描述该信息。
被摄体距离L是与第一图像捕获单元(L)151的焦距对应的被摄体距离信息,并且记录在[SUBJECTDISTANCE_L]字段中。
被摄体距离R是与第二图像捕获单元(R)152的焦距对应的被摄体距离信息,并且记录在[SUBJECTDISTANCE_R]字段中。
另外,如上所述,当将运动图像数据记录为三维图像(3D图像)时,将第一图像捕获单元(L)151和第二图像捕获单元(R)152所拍摄的两个图像记录为一对配对图像。将与这一对配对图像对应的信息记录在图10中所示的剪辑信息文件(CLIPINF)的精彩场景选择信息301中。
在流程的步骤S102,在获得精彩场景选择信息301中包括的一个索引之后,执行步骤S103。在步骤S103,在提取图10中所示的精彩场景选择信息301的一个索引的登记信息之后,读取记录的被摄体距离L(SUBJECTDISTANCE_L)。
在步骤S104,将在步骤S103获得的被摄体距离L(SUBJECTDISTANCE_L)与预定阈值ΔD1比较。
等式1
被摄体距离L<ΔD1
等式1涉及与参照图7所述的选择基准4对应的精彩场景选择基准的应用处理。
当等式1成立时,执行步骤S105。然而,当等式1不成立时,执行步骤S109以确定未处理的索引的存在。当在步骤S109未处理的索引存在时,执行步骤S102以处理后续的未处理的索引。
如果等式1成立并且执行步骤S105,则在提取图10中所示的精彩场景选择信息301的一个索引的登记信息之后,读取记录的被摄体距离R(SUBJECTDISTANCE_R)。
在步骤S106,将在步骤S105从剪辑信息文件获得的被摄体距离R(SUBJECTDISTANCE_R)与预定阈值ΔD1比较。
等式2
被摄体距离R<ΔD1
等式2同样涉及与参照图7所述的选择基准4对应的精彩场景选择基准的应用处理。
当等式2成立时,执行步骤S107。然而,当等式2不成立时,执行步骤S109以确定未处理的索引的存在。当未处理的索引存在时,执行步骤S102以处理后续的未处理的索引。
如果等式2成立并且执行步骤S107,则将被摄体距离L与被摄体距离R之差与预定阈值ΔD2比较,以便确定被摄体是否位于屏幕(图像帧)的中心。即,确定以下等式3是否成立。
等式3
|被摄体距离L-被摄体距离R|<ΔD2
步骤S107的确定处理是基于与参照图7所述的选择基准1对应的精彩场景选择基准的应用处理。即,确定处理是参照图4和图5A到图5D所述的精彩场景选择基准的应用处理。
当等式3成立时,可以确定被摄体距离L与被摄体距离R之差小,并且被摄体几乎位于屏幕的中心。然而,当等式3不成立时,确定被摄体距离L与被摄体距离R之差大,并且被摄体位于屏幕的一端。在这种情况下,执行步骤S109以确定未处理的索引的存在。当未处理的索引存在时,执行步骤S102以处理后续的未处理的索引。
当等式3成立时,可以确定被摄体距离L与被摄体距离R之差小,并且被摄体几乎位于屏幕的中心。在这种情况下,执行步骤S108以选择图像作为精彩场景。进一步,例如,将一对左眼图像和右眼图像设置为用于三维显示的图像,并且使用左右眼图像二者呈现三维显示图像(3D图像),以便选择这些图像作为精彩场景图像。
进一步,对于运动图像的精彩场景显示,一个静止图像是不够的,并且选择短时间(如五秒)运动图像作为用于显示的精彩场景图像。在这种设置中,执行处理以显示五秒之前和之后的图像(包括在步骤S108选择的精彩场景图像)作为精彩场景图像。可替代地,在采用步骤S108中选择的精彩场景图像作为开始图像之后,可以设置五秒图像以作为精彩场景显示。
如果在步骤S108选择精彩场景图像,则执行步骤S109以确定未处理的索引的存在。当在步骤S109存在未处理的索引时,执行步骤S102以处理后续的未处理的索引。
在步骤S109,如果确定不存在未处理的索引,则完成精彩场景选择处理。如果以这种方式完成精彩场景选择处理,则选择与作为精彩场景而选择的索引编号对应的图像,以便执行精彩场景显示处理。另外,可以采用使用包括如上所述选择图像之前和之后的图像的短时间运动图像来执行精彩场景图像显示的配置。
此外,可以采用在管理信息文件等中记录并保存作为精彩场景而选择的索引编号的配置。如果进行这样的配置,则例如,仅执行一次根据图8中所示的流程的精彩场景选择处理,以便然后可以选择并显示根据参照管理信息而获得的索引编号的精彩场景图像。
参照图8所述的流程对应于当基于图7中所示的选择基准1和4执行精彩场景选择时的顺序。
接下来,将参照图11中所示的流程描述基于图7中所示的选择基准1、2和4执行精彩场景选择时的顺序。即,除了图8中所示的流程之外,图11的流程还包括当如参照图6所述的那样被摄体正在靠近时选择精彩场景的处理(选择基准2)。
如上所述,图11中所示的流程表示当基于选择基准1、2和4执行精彩场景选择时的顺序。在系统控制器156的控制之下执行该处理。
另外,图11图示了在剪辑信息文件中记录作为精彩场景选择信息的距离信息的示例。图11中所示的流程图的处理图示了在剪辑信息文件(CLIPINF)中记录精彩场景选择信息(即,距离信息)并且使用剪辑信息文件(CLIPINF)来执行精彩场景选择的示例。在下文中,将描述图11中所示的流程图的每一步骤的处理。
在步骤S201,获得并打开剪辑信息文件。在剪辑信息文件中设置上述如图10所示的制造者的数据区域(MakerPrivateData),并且在数据区域中记录精彩场景选择信息301。
在步骤S202,执行初始化处理以将作为内部变量的过去被摄体距离(SUBJECTDISTANCE_PAST)设置到无穷。
在步骤S203,获得如图10所示的制造者的数据区域(MakerPrivateData)的精彩场景选择信息301中设置的索引信息。在精彩场景选择信息301中,设置每一个图像的索引信息,并且与每一个索引对应地记录距离信息(即,被摄体距离L和被摄体距离R)。
在流程的步骤S203,获得精彩场景选择信息301中包括的一个索引并执行步骤S204。在步骤S204,在提取图10中所示的精彩场景选择信息301的一个索引的登记信息之后,读取记录的被摄体距离L(SUBJECTDISTANCE_L)。
在步骤S205,将在步骤S204获得的被摄体距离L(SUBJECTDISTANCE_L)与预定阈值ΔD1比较。
等式1
被摄体距离L<ΔD1
等式1涉及与参照图7所述的选择基准4对应的精彩场景选择基准的应用处理。
当等式1成立时,执行步骤S206。然而,当等式1不成立时,执行步骤S211以确定未处理的索引的存在。当存在未处理的索引时,执行步骤S212以更新内部变量。即,将过去被摄体距离(SUBJECTDISTANCE_PAST)更新为(被摄体距离L+被摄体距离R)/2。另外,当未获得被摄体距离L和被摄体距离R中的任意一个时,将过去被摄体距离(SUBJECTDISTANCE_PAST)设置到无穷。此外,执行步骤S203以处理后续的未处理的索引。
如果等式1成立且执行步骤S206,则在提取图10中所示的精彩场景选择信息301的一个索引的登记信息之后,读取记录的被摄体距离R(SUBJECTDISTANCE_R)。
在步骤S207,将在步骤S206从剪辑信息文件获取的被摄体距离R(SUBJECTDISTANCE_R)与预定阈值ΔD1比较。
等式2
被摄体距离R<ΔD1
等式2同样涉及与参照图7所述的选择基准4对应的精彩场景选择基准的应用处理。
当等式2成立时,执行步骤S208。然而,当等式2不成立时,执行步骤S211以确定未处理的索引的存在。当存在未处理的索引时,执行步骤S212以更新内部变量。然后,执行步骤S203以处理后续的未处理的索引。
如果等式2成立且执行步骤S208,则将被摄体距离L与被摄体距离R之差与预定阈值ΔD2比较,以便确定被摄体是否位于屏幕(图像帧)的中心。即,确定以下等式3是否成立。
等式3
|被摄体距离L-被摄体距离R|<ΔD2
步骤S208的确定处理是基于与参照图7所述的选择基准1对应的精彩场景选择基准的应用处理。即,确定处理是参照图4和图5A到图5D所述的精彩场景选择基准的应用处理。
当等式3成立时,可以确定被摄体距离L和被摄体距离R之差小且被摄体几乎位于屏幕的中心。在这种情况下,执行步骤S209。然而,当等式3不成立时,确定被摄体距离L和被摄体距离R之差大且被摄体位于屏幕的一端。在这种情况下,执行步骤S211以确定未处理的索引的存在。当存在未处理的索引时,执行步骤S212以更新内部变量。然后,执行步骤S203以处理后续的未处理的索引。
当等式3成立时,可以确定被摄体距离L和被摄体距离R之差小且被摄体几乎位于屏幕中心。在这种情况下,执行步骤S209以确定以下等式4是否成立。
等式4
(被摄体距离L+被摄体距离R)/2<过去被摄体距离
等式4表示根据图像帧的前进(时间的经过)被摄体正在靠近。即,它表示获得图6的(1)的场景,其中被摄体靠近。
在这种情况下,执行步骤S210以选择图像作为精彩场景。然而,当等式3不成立时,执行步骤S211以确定未处理的索引的存在。当存在未处理的索引时,执行步骤S212以更新内部变量。然后,执行步骤S203以处理后续的未处理的索引。
如上所述,例如,将一对左眼图像和右眼图像设置为用于三维显示的图像,并且使用左右眼图像二者呈现三维显示图像(3D图像),以便选择这些图像作为精彩场景图像。
进一步,对于运动图像的精彩场景显示,一个静止图像是不够的,并且选择短时间(如五秒)运动图像作为用于显示的精彩场景图像。在这种设置中,执行处理以显示五秒之前和之后的图像(包括在步骤S210选择的精彩场景图像)作为精彩场景图像。可替代地,在采用步骤S210中选择的精彩场景图像作为开始图像之后,可以设置五秒图像以作为精彩场景显示。
如果在步骤S210选择精彩场景图像,则执行步骤S211以确定未处理的索引的存在。当在步骤S211存在未处理的索引时,执行步骤S212以更新内部变量。然后,执行步骤S203以处理后续的未处理的索引。
在步骤S211,如果确定不存在未处理的索引,则完成精彩场景选择处理。如果以这种方式完成精彩场景选择处理,则选择与作为精彩场景选择的索引编号对应的图像,以便执行精彩场景显示处理。另外,可以采用使用短时间运动图像(包括如上所述所选图像之前和之后的图像)来执行精彩场景图像显示的配置。
此外,可以采用在管理信息文件等中记录和保存作为精彩场景而选择的索引编号的配置。如果进行这种设置,则例如,仅执行一次根据图8中所示的流程的精彩场景选择处理,以便然后可以根据参照管理信息获得的索引编号选择和显示精彩场景图像。
[3.记录精彩场景选择信息的配置示例]
如上所述,例如,将用于精彩场景选择处理的信息记录在如图10所示的剪辑信息文件的制造者的数据区域(MakerPrivateData)中。然而,可以将精彩场景选择信息记录在其他文件以及如图10所示的剪辑信息文件中。在下文中,将描述在剪辑信息文件中记录精彩场景选择信息的示例(a),以及在播放列表文件中记录精彩场景选择信息的示例(b)。
(3-a.在剪辑信息文件中记录精彩场景选择信息的示例)
将参照图10详细描述精彩场景选择信息301。如图10所示,将关于时间偏移、被摄体距离L和被摄体距离R的信息记录在精彩场景选择信息301中。对于与图像对应的每一个索引编号分离地记录这些片段的信息。
时间偏移是从剪辑的呈现时间开始时间起的偏移时间。将参照图12描述时间偏移。图12图示了播放列表、播放列表中包括的播放项和由剪辑信息文件定义的剪辑之间的对应性。
剪辑信息文件表示登记了关于剪辑的信息的文件,并且允许一个剪辑以一对一的方式与一个流文件(STREAM)对应。
允许图12中所示的每一个剪辑(即,(clip#srcl-1)、(clip#src1-2)、(clip#src1-2)和(clip#src2-2))以一对一的方式与各个流文件(STREAM)对应。
首先,与向用户展现的标题对应地提供已经参照图9所述的播放列表(PlayList),并且播放列表(PlayList)是包括至少一个播放项(PlayItem)的再现列表。每一个播放项(PlayItem)具有剪辑的再现开始点(IN点)和再现结束点(OUT点)以指定其再现部分。例如,可以由图12中所示的播放列表标记(PlayListMark)任意地设置作为再现部分的章节。播放列表标记(PlayListMark)和章节可以通过用户执行的编辑处理而设置在任意位置。
图12中所示的每一个索引p到t(Index#p到#t)是与作为精彩场景而选择的图像对应的索引编号。
每一个索引与如图10所示的剪辑信息文件的制造者的数据区域(MakerPrivateData)中记录的精彩场景选择信息301的索引编号对应。
用作精彩场景选择信息301中记录的信息的时间偏移(TIME_OFFSET)是从剪辑的呈现时间开始时间起的偏移时间,并且对应于从如图12所示的每一个剪辑的开头起的偏移。
当执行精彩场景再现处理时,可以参照用作图10中所示的精彩场景选择信息301中记录的信息的时间偏移(TIME_OFFSET)指定剪辑中的索引位置,并从流文件(STREAM)中提取与指定的剪辑的索引位置对应的图像数据。
(3-b.在播放列表文件中记录精彩场景选择信息的示例)
诸如被摄体距离信息(被摄体距离L和被摄体距离R)之类的精彩场景选择信息也可以存储在其他文件以及剪辑信息文件中。将参照图13以及图13之后的图描述在播放列表文件中记录精彩场景选择信息的示例。
图13是图示与参照图9所述的BDMV目录相同的BDMV目录。在BDMV目录中记录播放列表文件(PLAYLIST)、剪辑信息文件(CLIPINF)、流文件(STREAM)、索引文件(INDEX.BDM)、电影对象文件(MOVIEOBJ.BDM)。
根据该示例,在播放列表文件(PLAYLIST)中记录精彩场景选择信息(即,距离信息)。与参照图10所述的剪辑信息文件类似地,如图14所示,也在播放列表文件(PLAYLIST)中记录制造者的数据区域(MakerPrivateData),并且在如图14所示的制造者的数据区域(MakerPrivateData)中记录精彩场景选择信息302。
如图14所示,在精彩场景选择信息302中记录关于时间偏移、被摄体距离L和被摄体距离R的信息。对于与图像对应的每一个索引编号分离地记录这些片段的信息。
被摄体距离L是与第一图像捕获单元(L)151的焦距对应的被摄体距离信息。
被摄体距离R是与第二图像捕获单元(R)152的焦距对应的被摄体距离信息。
然而,与在剪辑信息文件中记录精彩场景选择信息的先前示例不同,根据该示例,在[TIME_OFFSET]字段中记录从播放项(PlayItem)的开始时间(Intime)起的偏移时间。
将参照图15描述偏移时间。图15图示了播放列表与播放列表中包括的播放项之间的对应性。与向用户展现的标题对应地提供播放列表(PlayList),并且播放列表(PlayList)用作包括至少一个播放项(PlayItem)的再现列表。
图15中所示的每一个索引p到t(Index#p到#t)是与作为精彩场景而选择的图像对应的索引编号。
每一个索引与如图14所示的播放列表文件的制造者的数据区域(MakerPrivateData)中记录的精彩场景选择信息302的索引编号对应。
用作精彩场景选择信息302中记录的信息的时间偏移(TIME_OFFSET)是从播放项(PlayItem)的开始时间起的偏移时间,并且对应于从如图15所示的每一个播放项的开头起的偏移。
当执行精彩场景再现处理时,可以参照用作图14中所示的精彩场景选择信息302中记录的信息的时间偏移(TIME_OFFSET)指定播放列表中的索引的对应位置,并从流文件(STREAM)中提取与指定的播放项的索引位置对应的图像数据。
[4.用作精彩场景选择信息的其他片段的信息的示例]
在先前的实施方式中,已经描述了记录作为精彩场景选择信息的被摄体距离信息(被摄体距离L和被摄体距离R)的配置。然而,在下面的描述中,将描述记录与被摄体距离信息不同的信息作为精彩场景选择信息的处理示例。
在下文中,将描述按照如下设置作为精彩场景选择信息而记录的数据的示例。
记录(a)被摄体距离信息(被摄体距离L和被摄体距离R)、(b)面部识别信息和(c)GPS测量位置信息作为精彩场景选择信息。
图16是图示在上述剪辑信息文件或播放列表文件中设置的制造者的数据区域(MakerPrivateData)中记录的精彩场景选择信息的配置示例的图。
在该示例中,可以将三种类型的信息记录在制造者的数据区域(MakerPrivateData)中。
将信息(a)到(c)中的任意一个或多个片段的信息记录为根据索引编号的精彩场景选择信息。
在该示例中,如图16所示,精彩场景选择信息包括时间偏移(TIME_OFFSET)、索引类型(INDEX_TYPE)和索引元信息(INDEX_META)。
当记录了精彩场景选择信息的文件是剪辑信息文件时,时间偏移(TIME_OFFSET)是从剪辑的呈现时间开始时间起的偏移时间,与参照图10和图12描述的时间偏移类似。
进一步,当记录了精彩场景选择信息的文件是播放列表文件时,时间偏移(TIME_OFFSET)是从播放项(PlayItem)的开始时间起的偏移时间,与参照图14和图15描述的时间偏移类似。
索引类型(INDEX_TYPE)指示记录了表示后续数据区域中记录的元数据类型的信息[索引元信息(INDEX_META)]的字段。
索引类型与索引元之间的对应性如下。
当索引类型是被摄体距离时,将被摄体距离信息(被摄体距离L和被摄体距离R)记录在后续的索引元信息字段中。
当索引类型是面部识别信息时,将面部识别信息记录在后续的索引元信息字段中。
当索引类型是GPS信息时,将GPS单元测量的图像捕获设备的位置信息记录在后续的索引元信息字段中。
可替代地,也可以在一个索引图像中记录所有三种类型的信息,或者可以仅记录一个片段的信息或两种类型的信息。当在一个索引图像中记录了所有三种类型的信息时,以如下顺序记录信息:当索引类型是被摄体距离时作为索引元的被摄体距离信息(被摄体距离L和被摄体距离R);当索引类型是面部识别信息时作为索引元的面部识别信息;以及当索引类型是GPS信息时作为索引元的GPS测量位置信息。
在下文中,将参照图17和图19描述每一个片段的信息的细节和记录形式。
图17是图示当索引类型是被摄体距离时索引元信息的细节和记录形式的图。当索引类型是被摄体距离时,记录与上述实施方式中所述的信息相同的信息作为索引元信息。
即,记录关于被摄体距离L和被摄体距离R的信息。
被摄体距离L是与第一图像捕获单元(L)151的焦距对应的被摄体距离信息,并且记录在[SUBJECTDISTANCE_L]字段中。
被摄体距离R是与第一图像捕获单元(R)152的焦距对应的被摄体距离信息,并且记录在[SUBJECTDISTANCE_R]字段中。
在被摄体距离的情况下,由于两个镜头(即,图像捕获单元151和152)测量的距离值是独立的且有意义的,因此通过镜头数量记录各个被摄体距离。
另外,在该实施方式中,已经描述了双镜头配置。然而,在具有三个或更多个图像捕获单元(其每一个均配备有镜头)的多镜头配置的情况下,记录图像捕获单元所测量的所有片段的距离信息。即,通过镜头数量记录距离信息。
图18是图示当索引类型是面部识别时索引元信息的细节和记录形式的图。当索引类型是面部识别时,记录面部识别的存在(即,关于面部存在的信息)(其表示在拍摄的图像中包括作为面部而识别的面部图像区域)作为索引元信息。另外,由图2中所示的系统控制器156执行用于确定在拍摄的图像中是否包括面部区域的处理。系统控制器156使用关于面部图像的先前存储的特征信息,以基于与拍摄的图像中的特征信息一致或类似的区域来确定眼的存在,由此确定面部区域的存在。
另外,假设从图像捕获单元151和152同时拍摄的两个图像中识别面部的情况。在这种情况下,分离地存储每一个图像的信息可能引起记录容量的浪费。就此而言,例如,当从任意一个图像捕获单元拍摄的图像中检测到面部图像时,记录关于面部图像的检测信息。此外,当从图像捕获单元之一拍摄的图像中检测到面部区域时,即使从图像捕获单元的另一个拍摄的图像中检测到面部,也不记录预定时间(如,五秒)作为元数据。
在这种设置中,执行处理以仅记录有意义的面部识别信息作为元数据。
图19是图示当索引类型是GPS信息时索引元信息的细节和记录形式的图。当索引类型是GPS信息时,记录GPS单元162测量的图像捕获设备的当前位置信息作为索引元信息。
另外,在GPS信息的情况下,由于无论单个镜头和多个镜头,都针对图像捕获设备为每一个测量时刻仅获得一个片段的测量信息,因此无论镜头数量如何,为每一个测量时间都只记录一个片段的测量信息。
以这种方式,记录(a)被摄体距离信息(被摄体距离L和被摄体距离R)、(b)面部识别信息和(c)GPS测量位置信息作为精彩场景选择信息。
在选择精彩场景的情况下,根据用户的指定,例如,执行处理以选择识别出面部的图像作为精彩场景,或者执行处理以仅选择在特定位置处拍摄的图像作为精彩场景,并对其进行显示。
系统控制器156根据这些片段的信息执行精彩场景选择处理。
另外,可以采用通过使用信息(a)到(c)的适当组合来选择精彩场景的配置。
例如,可以执行仅选择通过使用参照图7所述的被摄体距离信息而满足精彩场景选择基准1到5中的任意一个或多个且识别出面部的图像作为精彩场景的处理。
可替代地,可以执行仅选择通过使用参照图7所述的被摄体距离信息而满足精彩场景选择基准1到5中的任意一个或多个且在指定位置处拍摄的图像作为精彩场景的处理。
[5.在具有多镜头配置的图像捕获设备的情况下被摄体距离信息的获得和精彩场景选择的示例]
在先前的实施方式中,已经描述了双镜头配置。即,在关注图像捕获单元151配备有镜头101且图像捕获单元152配备有镜头102(如图1和2所示)的配置示例的同时给出了以上描述。
然而,本发明不限于双镜头配置。例如,也可以将本发明应用于具有每一个均配备有多个镜头的三个或更多个图像捕获单元的多镜头配置。即,可以采用记录并使用由三个或更多个图像捕获单元测量的所有片段的距离信息的配置。在这种情况下,记录与镜头数量对应的距离信息,并且使用距离信息执行精彩场景选择。
将参照图20A到20C以及21A到21C描述详细示例。图20A到图20C是图示了具有单镜头配置、双镜头配置和三镜头配置的图像捕获设备的距离测量点的示例的图。
根据单镜头配置,提供作为现有相机且具有一个镜头的图像捕获单元511的配置。例如,可以通过使用自动对焦功能测量到图20A中所示的三个点(p、q和r)的距离。在这种情况下,测量的距离由图20A中所示的箭头指示,并且表示距图像捕获单元511的镜头中心的距离。即,对于点p和r,测量倾斜方向上的距离。
双镜头配置例如对应于根据先前实施方式所述的图1中所示的图像捕获设备。即,提供了均配备有镜头的两个图像捕获单元521和522的配置。在这种情况下,图像捕获单元可以分离地测量到三个点的距离。结果,可以由两个图像捕获单元521和522测量到图20B中所示的六个点(p、q、r、s、t和u)的距离。
根据三镜头配置,例如,将配备有一个镜头的图像捕获单元添加到图1中所示的图像捕获设备。如图20C所示,提供了每一个均配备有镜头的三个图像捕获单元531到533。例如,可以通过使用自动对焦功能测量到图20C中所示的九个点(p、q、r、s、t、u、v、w和x)的距离。
以这种方式,随着距离测量点的数量随镜头数量的增大而增大时,例如,可以以更高的精度执行关于被摄体存在于屏幕中心还是屏幕一端的确定。
将参照图21A到图21C描述具有这种单镜头配置、双镜头配置和三镜头配置的图像捕获设备基于被摄体距离测量信息所执行的精彩场景选择处理的示例。图21A到图21C是图示由具有单镜头配置、双镜头配置和三镜头配置的图像捕获设备获得的、在每一个距离测量点的被摄体距离信息Dn的示例的图。另外,图21A到图21C中的距离Dn表示由图21A到图21C中所示的粗箭头指示的部分的距离以及距图像捕获设备511、521、522、531、532和533的表面的垂直方向上的距离。
在单镜头配置的情况下,计算图21A中所示的被摄体距离D1到D3作为与拍摄图像对应的被摄体距离信息,然后将其记录为属性信息。距离D2对应于到图20A中所示的点q的距离。基于到图20A中所述的点p和r的距离(距镜头的倾斜方向上的距离)以及关于镜头的入射角、使用三角测量来计算距离D1和D3。
例如,当获得三个被摄体距离D1到D3时,可以使用由以下等式表达的如下基准作为精彩场景选择基准。
D2<(D1+D3)/2
当满足以上等式时,表示屏幕中心部分处的被摄体距离短于屏幕外围部分处的被摄体距离。即,表示目标被摄体位于其中心的短距离处。选择这样的场景作为精彩场景。
在双镜头配置的情况下,计算图21B中所示的被摄体距离D1到D6作为与拍摄图像对应的被摄体距离信息,然后将其记录为属性信息。距离D2和D5分别对应于到图20B中所示的点q和t的距离。与单镜头配置的情况类似地,使用三角测量来计算距离D1、D3、D4和D6。
例如,当获得六个被摄体距离D1到D6时,可以使用由以下等式表达的如下基准作为精彩场景选择基准。
D2<(D1+D3+D4+D6)/4,以及
D5<(D1+D3+D4+D6)/4
当以上等式成立时,选择精彩场景。
满足以上等式表示屏幕中心部分(在D2和D5附近)处的被摄体距离短于屏幕外围部分处的被摄体距离。即,表示目标被摄体位于其中心的短距离处。选择这样的场景作为精彩场景。
在三镜头配置的情况下,计算图21C中所示的被摄体距离D1到D9作为与拍摄图像对应的被摄体距离信息,然后将其记录为属性信息。距离D2、D5和D8分别对应于到图20C中所示的点q、t和w的距离。与单镜头配置的情况类似地,使用三角测量来计算距离D1、D3、D4、D6、D7和D9。
例如,当获得九个被摄体距离D1到D9时,可以使用由以下等式表达的如下基准作为精彩场景选择基准。
D2<(D1+D3+D4+D6+D7+D9)/6,
D5<(D1+D3+D4+D6+D7+D9)/6,以及
D8<(D1+D3+D4+D6+D7+D9)/6
当以上等式成立时,选择精彩场景。
满足以上等式表示屏幕中心部分处(在D2、D5和D8的附近)的被摄体距离短于屏幕外围部分处的被摄体距离。即,表示目标被摄体位于其中心的短距离处。选择这样的场景作为精彩场景。
以这种方式,在多镜头配置的情况下,可测量被摄体距离的数量增大,并且根据可测量被摄体距离的数量的增大来设置精彩场景选择基准,并将其应用于精彩场景选择处理。
虽然已经描述了目前被看作本发明的特定实施方式的内容,但是本领域的技术人员应该理解,根据设计要求和其他因素可以出现各种修改、组合、部分组合和变更,只要它们落在所附权利要求书及其等价物的范围内即可。必须基于所附权利要求书确定本发明的范围。
进一步,说明书中描述的一系列处理可以由硬件、软件或其复合配置来执行。当由软件执行处理时,可以在其中具有专用硬件的计算机中的存储器中安装记录处理顺序的程序以便执行。可替代地,可以将程序安装在能够执行各种类型的处理的通用计算机中,以便执行程序。例如,可以预先将程序记录在记录介质上。除了从记录介质在计算机中安装程序的情况之外,可以通过LAN(局域网)或称为因特网的网络下载程序,并且将其安装在记录介质(如,计算机中所嵌入的硬盘)上。
另外,说明书中描写的各种类型的处理可以以所描写的时间序列执行,也可以根据执行处理的设备的处理性能或情形的要求而分离地执行或者以并行方式执行。进一步,说明书中的系统对应于多个设备的逻辑集合配置,并且不需要在同一外壳中存在具有每一个配置的多个设备。
本申请包含与2009年7月3日向日本专利局提交的日本优先权专利申请JP 2009-158570中公开的主题有关的主题,将其全部内容通过引用的方式合并在此。
本领域的技术人员应该理解,根据设计要求和其他因素,可以出现各种修改、组合、部分组合和变更,只要它们落在所附权利要求及其等价物的范围内即可。

Claims (10)

1.一种图像捕获设备,包括:
多个图像捕获单元,其从多个视角拍摄图像;
记录控制器,其执行将所述多个图像捕获单元中的每一个所测量的多个被摄体距离记录在记录单元上作为拍摄图像的属性信息的处理;以及
图像选择控制器,其通过使用属性信息中包括的被摄体距离信息来执行精彩场景提取处理,
其中,所述图像选择控制器执行如下处理:通过使用与所述多个图像捕获单元中的每一个对应且包括在所述属性信息中的多个被摄体距离来确定被摄体是否位于图像帧的中心区域,并选择确定被摄体位于中心区域的图像作为精彩场景。
2.根据权利要求1所述的图像捕获设备,其中,所述图像选择控制器执行如下处理:参照时间序列的拍摄图像的被摄体距离、根据时间的经过而确定被摄体靠近所述图像捕获设备的图像的存在,并选择确定被摄体靠近所述图像捕获设备的图像作为精彩场景。
3.根据权利要求1或2所述的图像捕获设备,其中,所述图像选择控制器执行选择运动图像作为精彩场景的处理,所述运动图像由包括确定被摄体位于图像帧的中心区域的图像的连续拍摄图像来配置。
4.根据权利要求1所述的图像捕获设备,其中,所述记录控制器在剪辑信息文件和存储再现列表的播放列表文件中的任意一个中记录被摄体距离信息,其中所述剪辑信息文件用作与设置为拍摄的运动图像的记录文件的流文件对应的管理文件。
5.根据权利要求4所述的图像捕获设备,其中,当在剪辑信息文件中记录被摄体距离信息时,所述记录控制器记录所述剪辑信息文件中规定的、从剪辑的呈现时间开始时间起的偏移时间作为表示测量被摄体距离的图像的位置的时间偏移信息,而当在播放列表文件中记录被摄体距离信息时,所述记录控制器记录播放列表中包括的、从与播放项对应地设置的开始时间InTime起的偏移时间作为表示测量被摄体距离的图像的位置的时间偏移信息。
6.根据权利要求1所述的图像捕获设备,其中,所述记录控制器执行如下处理:允许在所述属性信息中包括表示面部区域是否包括在所述图像捕获单元拍摄的图像中的面部识别信息,并在记录单元上记录所述属性信息;并且所述图像选择控制器执行如下处理:参照所述属性信息中包括的所述面部识别信息,选择已经执行了面部识别的图像作为精彩场景。
7.根据权利要求1所述的图像捕获设备,其中,所述记录控制器执行如下处理:允许表示所述图像捕获单元拍摄图像的位置的GPS信息包括在所述属性信息中,并将所述属性信息记录在记录单元上;并且所述图像选择控制器执行如下处理:参照所述属性信息中包括的GPS信息,选择特定位置处拍摄的图像作为精彩场景。
8.根据权利要求1所述的图像捕获设备,其中,所述多个图像捕获单元由至少三个图像捕获单元配置,所述记录控制器执行如下处理:将至少三个图像捕获单元中的每一个测量的被摄体距离记录在记录单元上作为拍摄图像的属性信息;并且图像选择控制器执行如下处理:通过使用所述属性信息中包括的、且对应于所述至少三个图像捕获单元中的每一个的多个被摄体距离来确定被摄体是否位于图像帧的中心区域,并选择确定被摄体位于中心区域的图像作为精彩场景。
9.一种由图像捕获设备执行的图像处理方法,所述图像处理方法包括如下步骤:
由多个图像捕获单元从多个视角拍摄图像;
由记录控制器将所述多个图像捕获单元中的每一个所测量的被摄体距离记录在记录单元上作为拍摄图像的属性信息;以及
由图像选择控制器通过使用属性信息中包括的被摄体距离信息来执行精彩场景提取处理,
其中,在执行精彩场景提取处理的步骤中,通过使用所述属性信息中包括的、且对应于多个图像捕获单元中的每一个的多个被摄体距离来确定被摄体是否位于图像帧的中心区域,并选择确定被摄体位于中心区域的图像作为精彩场景。
10.一种程序,其使得图像捕获设备执行如下功能:
允许多个图像捕获单元从多个视角拍摄图像;
允许记录控制器将所述多个图像捕获单元中的每一个所测量的被摄体距离记录在记录单元上作为拍摄图像的属性信息;以及
允许图像选择控制器通过使用属性信息中包括的被摄体距离信息来执行精彩场景提取处理,
其中,在精彩场景提取处理中,通过使用所述属性信息中包括的、且对应于多个图像捕获单元中的每一个的多个被摄体距离来确定被摄体是否位于图像帧的中心区域,并选择确定被摄体位于中心区域的图像作为精彩场景。
CN201010218371.9A 2009-07-03 2010-06-28 图像捕获设备、图像处理方法 Expired - Fee Related CN101945212B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009158570A JP5531467B2 (ja) 2009-07-03 2009-07-03 撮像装置、および画像処理方法、並びにプログラム
JP158570/09 2009-07-03

Publications (2)

Publication Number Publication Date
CN101945212A true CN101945212A (zh) 2011-01-12
CN101945212B CN101945212B (zh) 2014-06-11

Family

ID=43412413

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201010218371.9A Expired - Fee Related CN101945212B (zh) 2009-07-03 2010-06-28 图像捕获设备、图像处理方法

Country Status (3)

Country Link
US (1) US20110001800A1 (zh)
JP (1) JP5531467B2 (zh)
CN (1) CN101945212B (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012115253A1 (ja) * 2011-02-24 2012-08-30 京セラ株式会社 電子機器、画像表示方法及び画像表示プログラム
CN103942694A (zh) * 2012-11-02 2014-07-23 索尼公司 用于提供基于地点数据的内容的方法和系统
CN111475086A (zh) * 2015-06-07 2020-07-31 苹果公司 用于捕获增强型数字图像和与之交互的设备和方法
CN115802148A (zh) * 2021-09-07 2023-03-14 荣耀终端有限公司 一种获取图像的方法及电子设备
US11740785B2 (en) 2015-08-10 2023-08-29 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11947724B2 (en) 2012-05-09 2024-04-02 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US11977726B2 (en) 2015-03-08 2024-05-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US12045451B2 (en) 2012-05-09 2024-07-23 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US12050761B2 (en) 2012-12-29 2024-07-30 Apple Inc. Device, method, and graphical user interface for transitioning from low power mode
US12067229B2 (en) 2012-05-09 2024-08-20 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US12135871B2 (en) 2022-07-27 2024-11-05 Apple Inc. Device, method, and graphical user interface for switching between user interfaces

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009036022B4 (de) 2009-08-04 2014-04-03 Northrop Grumman Litef Gmbh Optischer Transceiver und Faseroptischer Kreisel
JP5489223B2 (ja) * 2010-06-09 2014-05-14 Necカシオモバイルコミュニケーションズ株式会社 画像表示装置及びプログラム
JP2012175694A (ja) * 2011-02-24 2012-09-10 Kyocera Corp 電子機器
WO2013186962A1 (ja) * 2012-06-11 2013-12-19 パナソニック株式会社 映像処理装置、撮影装置、およびプログラム
US20150215530A1 (en) * 2014-01-27 2015-07-30 Microsoft Corporation Universal capture
WO2016208788A1 (ko) * 2015-06-26 2016-12-29 엘지전자 주식회사 이동단말기 및 그 제어방법
CN112839170B (zh) * 2020-12-31 2022-07-05 上海米哈游天命科技有限公司 拍摄方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1954610A (zh) * 2004-03-29 2007-04-25 松下电器产业株式会社 累积显示装置和联动显示方法和系统
US7224831B2 (en) * 2004-02-17 2007-05-29 Honda Motor Co. Method, apparatus and program for detecting an object
CN101072305A (zh) * 2007-06-08 2007-11-14 华为技术有限公司 镜头分类方法、场景提取方法、摘要生成方法及装置
US20080129728A1 (en) * 2006-12-01 2008-06-05 Fujifilm Corporation Image file creation device, imaging apparatus and file structure

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1040420A (ja) * 1996-07-24 1998-02-13 Sanyo Electric Co Ltd 奥行き感制御方法
JP3925299B2 (ja) * 2002-05-15 2007-06-06 ソニー株式会社 モニタリングシステムおよび方法
JP2005167310A (ja) * 2003-11-28 2005-06-23 Sharp Corp 撮影装置
JP4525558B2 (ja) * 2005-11-08 2010-08-18 ソニー株式会社 情報処理装置、撮像装置、および情報処理方法、並びにコンピュータ・プログラム
JP4893641B2 (ja) * 2007-02-19 2012-03-07 株式会社Jvcケンウッド ダイジェスト生成装置及びダイジェスト生成方法
JP4757812B2 (ja) * 2007-02-20 2011-08-24 富士フイルム株式会社 立体撮影装置および方法並びにプログラム
JP4356762B2 (ja) * 2007-04-12 2009-11-04 ソニー株式会社 情報提示装置及び情報提示方法、並びにコンピュータ・プログラム
JP2008310187A (ja) * 2007-06-15 2008-12-25 Fujifilm Corp 画像処理装置及び画像処理方法
WO2009154597A1 (en) * 2008-06-19 2009-12-23 Thomson Licensing Adaptive video key frame selection

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7224831B2 (en) * 2004-02-17 2007-05-29 Honda Motor Co. Method, apparatus and program for detecting an object
CN1954610A (zh) * 2004-03-29 2007-04-25 松下电器产业株式会社 累积显示装置和联动显示方法和系统
US20080129728A1 (en) * 2006-12-01 2008-06-05 Fujifilm Corporation Image file creation device, imaging apparatus and file structure
CN101072305A (zh) * 2007-06-08 2007-11-14 华为技术有限公司 镜头分类方法、场景提取方法、摘要生成方法及装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012115253A1 (ja) * 2011-02-24 2012-08-30 京セラ株式会社 電子機器、画像表示方法及び画像表示プログラム
US12067229B2 (en) 2012-05-09 2024-08-20 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US12045451B2 (en) 2012-05-09 2024-07-23 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US11947724B2 (en) 2012-05-09 2024-04-02 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
CN103942694A (zh) * 2012-11-02 2014-07-23 索尼公司 用于提供基于地点数据的内容的方法和系统
CN103942694B (zh) * 2012-11-02 2017-07-21 索尼公司 用于提供基于地点数据的内容的方法和系统
US12050761B2 (en) 2012-12-29 2024-07-30 Apple Inc. Device, method, and graphical user interface for transitioning from low power mode
US11977726B2 (en) 2015-03-08 2024-05-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US11835985B2 (en) 2015-06-07 2023-12-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
CN111475086B (zh) * 2015-06-07 2023-09-12 苹果公司 用于捕获增强型数字图像和与之交互的设备和方法
US11681429B2 (en) 2015-06-07 2023-06-20 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
CN111475086A (zh) * 2015-06-07 2020-07-31 苹果公司 用于捕获增强型数字图像和与之交互的设备和方法
US11740785B2 (en) 2015-08-10 2023-08-29 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
CN115802148B (zh) * 2021-09-07 2024-04-12 荣耀终端有限公司 一种获取图像的方法及电子设备
CN115802148A (zh) * 2021-09-07 2023-03-14 荣耀终端有限公司 一种获取图像的方法及电子设备
US12135871B2 (en) 2022-07-27 2024-11-05 Apple Inc. Device, method, and graphical user interface for switching between user interfaces

Also Published As

Publication number Publication date
JP2011015256A (ja) 2011-01-20
US20110001800A1 (en) 2011-01-06
CN101945212B (zh) 2014-06-11
JP5531467B2 (ja) 2014-06-25

Similar Documents

Publication Publication Date Title
CN101945212B (zh) 图像捕获设备、图像处理方法
US8599243B2 (en) Image processing device, image processing method, and program
JP4760892B2 (ja) 表示制御装置、表示制御方法及びプログラム
CN101175187B (zh) 图像存储设备、成像设备以及图像存储方法
TWI399082B (zh) Display control device, display control method and program
CN101917579B (zh) 显示控制设备和显示控制方法
CN102265597B (zh) 摄像装置
CN101263706B (zh) 摄像装置、记录方法
TW200536389A (en) Intelligent key-frame extraction from a video
CN101796814A (zh) 显示控制设备、摄像设备、显示控制方法和程序
JP2007134770A (ja) 撮像装置、および情報処理方法、並びにコンピュータ・プログラム
CN101267523A (zh) 信息处理和成像设备、图像显示控制方法及计算机程序
CN102215339A (zh) 电子设备及摄像装置
JP4506832B2 (ja) 画像処理装置、インデックス生成装置、撮像装置、インデックス生成方法およびプログラム
KR101319544B1 (ko) 인물의 등장 장면을 검출하는 촬영장치 및 이를 이용한검출 방법
JPWO2009150827A1 (ja) コンテンツ編集装置
CN100471247C (zh) 图像管理方法、图像管理装置和记录装置
JP4297073B2 (ja) 画像生成装置、これらの装置の処理方法およびその方法をコンピュータに実行させるプログラム
JP4798215B2 (ja) 電子機器
WO2015098668A1 (en) Image processing apparatus, image processing method, and program
JP6263002B2 (ja) 撮像装置およびその制御方法、プログラム
JP2006135394A (ja) 動画と静止画の画像検索方法及び管理方法
JP4217528B2 (ja) 動画像処理方法及び装置
JP2005236891A (ja) 画像処理装置およびその方法
JP2010141628A (ja) 画像再生装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140611

Termination date: 20150628

EXPY Termination of patent right or utility model