CN109565565A - 信息处理装置、信息处理方法和信息处理程序 - Google Patents

信息处理装置、信息处理方法和信息处理程序 Download PDF

Info

Publication number
CN109565565A
CN109565565A CN201880002905.9A CN201880002905A CN109565565A CN 109565565 A CN109565565 A CN 109565565A CN 201880002905 A CN201880002905 A CN 201880002905A CN 109565565 A CN109565565 A CN 109565565A
Authority
CN
China
Prior art keywords
label
video
input
display
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880002905.9A
Other languages
English (en)
Other versions
CN109565565B (zh
Inventor
中塚盛雄
若月雅史
金子哲夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN109565565A publication Critical patent/CN109565565A/zh
Application granted granted Critical
Publication of CN109565565B publication Critical patent/CN109565565B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/034Electronic editing of digitised analogue information signals, e.g. audio or video signals on discs
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • G11B27/036Insert-editing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • G11B27/3036Time code signal
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/92Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

提供了一种信息处理装置,该信息处理装置将视频内容作为第一视频显示在显示部240的第一显示区域110上,将视频内容作为从第一视频延迟预定时间的第二视频显示在显示部240的第二显示区域120上,以及将由用户输入到第一视频中的第一标签和由用户输入到第二视频中的第二标签设置为视频内容的标签。

Description

信息处理装置、信息处理方法和信息处理程序
技术领域
本技术涉及信息处理装置、信息处理方法和信息处理程序。
背景技术
现有的做法是将称为标签的标记信息添加到记录的视频、实时实况视频等,以便用作编辑点、再现开始位置等(参考下面的专利文献1)。
引用列表
专利文献
[专利文献1]JP 2016-123083A
发明内容
技术问题
对于实况视频,如果要标记的场景连续出现,则标记可能失败。在标记实况视频时,一旦标记失败,则由于无法倒回视频,因此无法之后立即标记失败的场景。重新标记花费时间,因为需要在记录实况视频后再现记录的视频,搜索失败的场景,然后标记找到的场景。
因此,本技术处理了与相关技术的方法和装置相关联的上述和其他问题,并通过提供被配置为容易地执行对视频的标记的信息处理装置、信息处理方法和信息处理程序来解决所处理的问题。
问题的解决方案
在执行本发明时,根据其第一方面,提供了一种信息处理装置,包括:将视频内容作为第一视频显示在显示部中的第一显示区域110上,将上述视频内容作为从上述第一视频延迟预定时间的第二视频显示在上述显示部中的第二显示区域120上,以及将用户输入到上述第一视频中的第一标签和由上述用户输入到上述第二视频中的第二标签设置为上述视频内容的标签。
在执行本发明时,根据其第二方面,提供了一种信息处理方法。该信息处理方法包括:将视频内容作为第一视频显示在显示部中的第一显示区域110上,将上述视频内容作为从上述第一视频延迟预定时间的第二视频显示在上述显示部中的第二显示区域120上,以及将由用户输入到上述第一视频中的第一标签和由上述用户输入到上述第二视频中的第二标签设置为上述视频内容的标签。
在执行本发明时,根据其第三方面,提供了一种用于使计算机执行信息处理方法的信息处理程序。该信息处理方法包括:将视频内容作为第一视频显示在显示部中的第一显示区域110上,将上述视频内容作为从上述第一视频延迟预定时间的第二视频显示在上述显示部中的第二显示区域120上,以及将由用户输入到上述第一视频中的第一标签和由上述用户输入到上述第二视频中的第二标签设置为上述视频内容的标签。
发明的有利效果
根据本技术,可以容易地执行对视频的标记。应注意,这里提到的效果不限于此。因此,本说明书中提到的任何其他效果被认为是有效的。
附图说明
图1是示出用户界面的配置的示图。
图2是描述第一显示区域和第二显示区域中的视频显示的示图。
图3是示出终端装置的配置的框图。
图4是示出信息处理部的配置的框图。
图5是指示标记处理的流程的流程图。
图6是描述在预定间隔中存在两个相同类型的标签的情况下要执行的处理的示图。
图7是示出具有标签添加按钮的用户界面的配置的示图。
图8是示意性地描绘手术室系统的一般配置的视图。
图9是描绘集中操作面板的操作屏幕图像的显示示例的视图。
图10是示出手术室系统所应用于的手术的状态的示例的视图。
图11是描绘图10中描绘的相机头部和相机控制单元(CCU)的功能配置的示例的框图。
图12是示出与变体有关的用户界面的配置的示图。
具体实施方式
在下文中,将在参考附图的同时给出本技术的实施例。应注意,将根据以下顺序给出描述。
1.实施例
1-1.用户界面的配置
1-2.终端装置的配置
1-3.标记处理
2.应用示例
3.变体示例
1.实施例
1-1.用户界面的配置
与本技术相关的信息处理装置在诸如个人计算机、平板终端或智能电话之类的终端装置上操作,以便根据由用户完成的输入来标记从诸如摄像机之类的外部装置发送的视频内容。在本实施例中,假设信息处理装置作为信息处理部260在具有带有触摸板功能的显示部240的终端装置200上操作。另外,通过使用作为视频内容实时分发的实况视频被标记的示例来描述本实施例。
首先,参考图1,描述在终端装置200的显示部240上显示的用户界面100。用户界面100具有第一显示区域110、第二显示区域120、第一标签输入部130、第二标签输入部140以及延迟时间输入部150。
第一显示区域110显示实时实况视频。实时实况视频对应于在本文件中的权利要求的范围内记载的第一视频。第二显示区域120显示通过将与在第一显示区域110中显示的实时实况视频相同的视频延迟预定时间而获得的视频(以下称为延迟视频)。延迟视频对应于在本文件中的权利要求的范围中记载的第二视频。应注意,为了便于描述而使用图1中的符号“实况视频”和“延迟视频”;因此,这些字符串实际上不显示在第一显示区域110和第二显示区域120中。
第一标签输入部130具有两个或更多个标签输入按钮。标签输入按钮接受用户在观看实况视频的同时用标记定时完成的标签输入。在本实施例中,第一标签输入部130具有总共四个标签按钮;标签输入按钮A、标签输入按钮B、标签输入按钮C和标签输入按钮D,从而使得能够向视频标记与这些标签输入按钮相对应的四种类型的标签。通过第一标签输入部130输入的每个标签对应于在本文件中的权利要求的范围内记载的第一标签。
第二标签输入部140接受由用户在观看在第二显示区域120中显示的延迟视频的同时用标记定时完成的标签输入。在本实施例中,第二标签输入部140具有总共四个标签按钮;与第一标签输入部130一样的标签输入按钮A、标签输入按钮B、标签输入按钮C和标签输入按钮D,从而使得能够向视频标记与这些标签输入按钮相对应的四种类型的标签。通过第二标签输入部140输入的每个标签对应于在本文件中的权利要求的范围内引用的第二标签。
在本实施例中,由于显示部240是被配置为与终端装置200中的输入部250一体化的触摸面板,因此通过使用户的手指或触笔触摸到标签输入按钮中的对应一个上来执行用户的输入。
标签类型的数量,即标签输入按钮的数量,可以由用户预先设置。例如,如果在足球比赛的实况视频中需要对开球场景、射门场景、守门员扑救场景和进球场景这四个场景执行标记,则用户必须设置信息处理部260以使得第一标签输入部130和第二标签输入部140各自具有四个标签按钮。为此,在实况视频的显示开始之前,可以在显示部240上为用户显示用于输入标签数量的输入屏幕。
延迟时间输入部150接受来自用户的用于设置要在第二显示区域120上显示的延迟视频的延迟时间的输入。在接受特定延迟时间(三秒、五秒等等)的输入的同时,延迟时间输入部150具有用于显示所输入的延迟时间的延迟时间显示部151和用于输入用于将预设延迟时间反映到视频上的指令的延迟反映指令按钮152。
用户界面100被如上所述配置。
如图2中所示,第一显示区域110实时显示实况视频作为视频内容,并且第二显示区域120将该实况视频显示为延迟预定延迟时间(在图2所示的示例中为3秒)。因此,在观看在第一显示区域110上显示的实时实况视频并执行标签输入的同时,如果标签输入失败或者要重新完成标签输入,则用户可以通过观看在第二显示区域120上显示的延迟视频来执行标签输入。
1-2.终端装置的配置
现在,参考图3,下面进行终端装置200的描述。终端装置200具有控制部210、存储部220、通信部230、显示部240、输入部250以及信息处理部260。
控制部210包括CPU(中央处理单元)、RAM(随机存取存储器)以及ROM(只读存储器)。ROM存储由CPU读取和操作的程序等。RAM也用作CPU的工作存储器。CPU通过执行如ROM中存储的程序所指示的各种类型的处理来发出命令,对整个终端装置200执行控制。
存储部220例如是大容量存储介质,诸如硬盘驱动器、SD存储卡等。存储部220能够存储诸如图像、视频和文档文件以及应用程序之类的内容。另外,存储部220还可以用于存储通过对在终端装置中输入的视频信号执行预定处理而生成的视频文件、标签信息等。
通信部230是用于执行与外部装置、因特网等的通信的通信模块、通信连接器等。基于通信部230的通信可以是诸如USB通信之类的有线通信,或是诸如Wi-Fi似的无线LAN、蓝牙(注册商标)、ZigBee(注册商标)、4G(第四代移动通信系统)、宽带之类的无线通信,等等。诸如通过记录的相机记录视频内容之类的从外部装置提供的视频信号由通信部230接收。
显示部240例如是包括LCD(液晶显示器)、PDP(等离子显示面板)或有机EL(电致发光)面板的显示设备。显示部240显示终端装置200的用户界面、存储部220中存储的诸如图像、视频和文档文件之类的内容,以及与参考图1描述的本技术有关的用于标记的用户界面100。
输入部250接受用户在终端装置200上完成的操作的输入。当用户对输入部250进行输入时,生成与该输入相对应的控制信号以输出到控制部210。然后,控制部210执行与该控制信号相对应的终端装置200的控制和算术运算。输入部250由称为以下各项的指示设备实现:与显示部240集成的触摸板、由用户的手指在未与显示部240集成的平面传感器上操作的跟踪板或触摸板、键盘以及鼠标。在本实施例中,显示部240是被配置为与输入部250集成的触摸面板,用户利用输入部250通过将手指或触笔触摸到显示部240上来执行输入操作。
信息处理部260通过在显示部240上显示用户界面100,基于用户完成的输入来执行标记视频的处理。信息处理部260的细节在图4中示出。
信息处理部260包括视频输入部261、视频延迟部262、延迟时间设置部263、时钟部264、标签记录处理部265、标签信息存储部266、视频记录处理部267以及视频文件存储部268。
从外部装置发送到终端装置200的视频信号被供应给视频输入部261,然后该视频信号被从视频输入部261供应给显示部240中的第一显示区域110,从而在第一显示区域110上显示实时实况视频。
另外,视频信号被从视频输入部261供应给视频延迟部262。视频延迟部262是暂时保持视频信号的缓冲器。视频延迟部262保持视频信号的时间是从延迟时间设置部263供应的。
延迟时间设置部263在接收到用户通过延迟时间输入部150输入的延迟时间时设置延迟时间,并将关于该延迟时间的信息供应给视频延迟部262和标签记录处理部265。视频延迟部262在由延迟时间信息指示的时间内保持视频信号,并在经过延迟时间之后将视频信号供应给第二显示区域120。结果,显示部240中的第二显示区域120显示从在第一显示区域110中显示的实时实况视频延迟了延迟时间的延迟视频。例如,延迟时间可以是大约三到五秒。
时钟部264对指示视频内容的进展程度的时间进行计时,并将关于计时时间的信息供应给标签记录处理部265。应当注意的是,时间信息可以是从视频内容开始时的时间起经过的时间或者实际时间。另外,如果时间信息被预先附加到视频信号,则不需要时钟部264,以使得可以使用附加到该视频信号的时间信息。
标签记录处理部265接收从第一标签输入部130和第二标签输入部140供应的标签输入信息,并将标签与时间信息相关联,从而将相关的标签和时间信息存储在标签信息存储部266中。
应当注意的是,需要预先设置要输入到标签记录处理部265的标签的类型的数量(标签输入按钮的数量)。如上所述,由用户输入的用于在足球比赛的实况视频中标记开球场景、射门场景、守门员扑救场景和进球场景的标签的类型的数量“4”例如被设置到标签记录处理部265。
然后,根据标签类型的预设数量,终端装置200使显示部240的第一标签输入部130和第二标签输入部140显示标签输入按钮。应当注意的是,基本上,第一标签输入部130的标签输入按钮的数量和第二标签输入部140中的标签输入按钮的数量是相同的。
当用户对第一标签输入部130进行输入操作时,标签输入信息被从第一标签输入部130供应给标签记录处理部265。标签记录处理部265将从第一标签输入部130供应的标签信息与从时钟部264供应的时间信息相关联,并将相关的标签信息和时间信息存储到标签信息存储部266中作为视频内容的标签信息。应当注意的是,可以通过使用存储部220来构成标签信息存储部266。
另外,当用户对第二标签输入部140进行输入操作时,标签信息被从第二标签输入部140供应给标签记录处理部265。标签记录处理部265将从第二标签输入部140供应的标签信息与通过从在从时钟部264供应的时间信息中指示的时间中减去在延迟时间信息中指示的延迟时间而获得的时间相关联,并将相关的信息和时间存储到标签信息存储部266中作为视频内容的标签信息。由于通过第二标签输入部140输入的标签是用户在观看从实时实况视频延迟的视频的同时输入的标签,因此该标签从实时实况视频延迟了延迟时间。因此,校正如上所述要与通过第二标签输入部140输入的标签相关联的时间信息提供了如下标签,通过第二标签输入部140输入的标签的标签信息对应于正确时间。
视频记录处理部267对从视频输入部261供应的视频信号执行预定的视频文件生成处理以便生成视频文件,从而通过将时间信息与构成该视频文件的每个帧相关联而将生成的视频文件存储到视频文件存储部268中。可以通过使用存储部220来构成视频文件存储部268。
应当注意的是,信息处理部260可以由程序配置,该程序可以预先安装在终端装置200中,或者在通过下载或在记录介质中分发后由用户安装在终端装置200中。另外,控制部210可以起到信息处理部260的功能,或者信息处理部260可以在配置上独立于控制部210。另外,信息处理部260不仅可以由程序实现,而且可以由具有信息处理部260的功能的专用硬件装置和电路的组合来实现。
终端装置200被如上所述配置。
1-3.标记处理
下面参考图5所示的流程图描述信息处理部260所要执行的视频内容标记处理的流程。首先,在步骤S11中,视频内容作为实时实况视频被显示在第一显示区域110中。接下来,在步骤S12中,在第二显示区域120中显示通过将视频内容延迟延迟时间而获得的延迟视频。
接下来,在步骤S13中,判定用户是否已经对第一标签输入部130或第二标签输入部140进行了输入操作。如果未找到用户的标签输入,则步骤S13中的判定被重复直到标签被输入为止(步骤S13中的“否”)。如果找到用户的标签输入,则处理转到步骤S14(步骤S13中的“是”)。
在步骤S14中判定用户的标签输入是否到第一标签输入部130中;如果发现标签输入被输入到第一标签输入部130中,则处理转到步骤S15(步骤S14中的“是”)。然后,在步骤S15中,对在第一标签输入部130中输入的用于实时实况视频的标签执行登记处理。
如果在步骤S14中未发现用户的标签输入是到第一标签输入部130中,则处理转到步骤S16(步骤S14中的“否”)。用户的标签输入不是到第一标签输入部130中意味着该标签输入是到第二标签输入部140中,所以在步骤S16中,对在第二标签输入部140中输入的用于延迟视频的标签执行登记处理。
应当注意的是,步骤S14中的处理不限于用户的标签输入是否是到第一标签输入部130中的判定,所以该处理可以是标签输入是否是到第二标签输入部140中的判定。也就是说,可以执行在输入是到第一标签输入部130中还是到第二标签输入部140中的判定的情况下的任何处理。
接下来,在步骤S17中,判定视频内容是否已经结束。例如,这可以通过向信息处理部260的视频信号的供应是否已经停止达预定的持续时间或者是否已经与视频信号一起供应指示视频内容结束的信号来判定。
如果发现视频内容已经结束,则信息处理部260的标记处理结束。另一方面,如果发现视频内容尚未结束,则处理转到步骤S13,以便重复步骤S13到步骤S17中的处理操作,直到对视频内容的标记处理结束为止。如上所述执行对视频内容的标记处理。
下面参考图6描述由第一标签输入部130和第二标签输入部140输入的相同类型的标签在预定时间范围内的情况。图6指示时间和视频内容从左到右进行,为了便于描述,指示从视频内容的开始起11秒到20秒的每一秒的视频。
如图6A所示,假设如下情况:其中,通过输入到用于实况视频的第一标签输入部130中而设置到视频内容的标签(图6中的“第一标签输入”)和通过输入到用于延迟视频的第二标签输入部140中而设置到视频内容的标签(图6中的“第二标签输入”)具有相同的类型,并且这些标签在预定的时间范围内。在图6中,第一标签输入的标签A和第二标签输入的标签A具有相同的类型并且在预定的时间范围内。
在这种情况下,如图6B所示,可以优先考虑由用于延迟视频的第二标签输入部140输入的标签(第二标签输入),并且可以删除由用于实况视频的第一标签输入部130输入的标签(第一标签输入)。在图6中,由于由第一标签输入部130输入的标签A和由第二标签输入部140输入的标签A在预定的间隔内,所以优先考虑由第二标签输入部140输入的标签A,并且删除由第一标签输入部130输入的标签A。这是因为:用户在观看实况视频的同时输入的标签从期望的定时移位,认为在观看延迟视频的同时以期望的定时再次输入标签。
另外,如图6C所示,可以计算从用于实况视频的第一标签输入部130输入的和从用于延迟视频的第二标签输入部140输入的每个标签的时间信息的平均值,以便创建一个与计算出的平均时间相对应的新标签(图6C中“平均标签”)。应当注意的是,可以预先或根据用户完成的输入将预定时间范围设置到信息处理部260。
如上所述执行本技术中的标记处理。根据本技术,用户在观看第一显示区域110中显示的第一视频的同时执行标签输入,并且如果存在标签输入定时的移位或者忘记了标签输入,则用户可以在观看第二显示区域120中显示的从第一视频延迟的第二视频的同时以正确的定时重做标签输入。因此,同样在执行对实时实况视频的标签输入时,为了重做标签输入,用户不需要对所记录的实况视频执行快退以等待实况视频结束。
另外,根据本技术,容易标记在时间序列中很可能连续发生的场景。例如,假设如下情况:在足球比赛中,对紧接在射门场景之后的守门员扑救场景或对进球场景执行标记。在仅通过实时实况视频进行标记时,需要在执行射门场景的标签输入之后立即执行守门员扑救场景或进球场景的标签输入。如果门将每次都扑救到,则没有问题;然而实际上,进球是可能的,从而使得难以在确定进球的可能性的同时执行标签输入。因此,通过使用本技术,可以在检查实时实况视频的同时对射门场景执行标签输入,以便在检查延迟视频的同时执行对守门员扑救或进球的标签输入,从而允许用户有足够的时间执行标记。
此外,将不同的标签分配给实时实况视频和延迟视频也是可行的。例如,在标记在A队和B队之间进行足球比赛的视频时,针对实时实况视频执行A队的标记并针对延迟视频执行B队的标记便于对这两个队的标记。如上所述,可以使标记比仅使用一个视频执行的标记更容易。
在实施例的描述中,假设标签输入按钮的数量(即,标签类型的数量)是四个;然而,标签类型的数量不限于此。如上所述,标签输入按钮的数量(即,标签类型的数量)可被设置为任何数量。此外,如图7A所示,如果将标签添加按钮160布置到用户界面100并且在视频内容的再现开始之后通过标签添加按钮160执行输入,则如图7B所示可以添加标签输入按钮。在图7B中,新添加了标签输入按钮E。
应当注意的是,如果存在两种或更多种标签类型,则可以设置标签之间的关系。例如,假设在足球比赛中对比赛开始场景、射门场景、守门员扑救场景和进球场景这四个场景执行标记。还假设第一标签按钮是比赛开始场景,第二标签输入按钮是射门场景,第三标签输入按钮是守门员扑救场景,并且第四标签输入按钮是进球场景。
在普通的足球比赛中,由于射门场景很可能接着是守门员扑救场景或进球场景,因此对应于射门场景的第二标签按钮、对应于守门员扑救场景的第三标签输入按钮和对应于进球场景的第四标签输入按钮之间的关系被预先设置。然后,由于很可能的是当已经对第二标签输入按钮执行用户输入时对第三标签输入按钮执行用户输入然后对第四标签输入按钮执行用户输入,因此以突出的方式显示第三标签输入按钮和第四标签输入按钮。对于突出的显示,可以使用允许用户识别的任何方法,诸如闪烁、用粗框包围或放大显示。
标签关系的该设置可以由信息处理部260根据从用户到终端装置200中的输入来执行。另外,可以根据在数据库等中累积的过去的视频和附加到其的标签来确定标记的规律性,从而从所确定的规律性中获得关系。
2.应用示例
根据本公开的技术可以应用于各种产品。例如,根据本公开的技术可以应用于手术室系统。
图8是示意性地描绘根据本公开的实施例的技术所可以应用于的手术室系统5100的一般配置的视图。参考图8,手术室系统5100被配置成使得安装在手术室中的一组装置通过视听(AV)控制器5107和手术室控制装置5109而连接以彼此协作。
在手术室中,可以安装各种装置。在图8中,作为示例,描绘了用于内窥镜手术的各种装置组5101、天花板相机5187、手术视野相机5189、多个显示装置5103A至5103D、记录器5105、病床5183和照明装置5191。天花板相机5187设置在手术室的天花板上并且对外科医生的手进行成像。手术视野相机5189设置在手术室的天花板上并且对整个手术室的状态进行成像。
在所述装置中,装置组5101属于下文描述的内窥镜手术系统5113,并且包括内窥镜、显示由内窥镜拾取的图像的显示装置等。属于内窥镜手术系统5113的各种装置也称为医疗设备。同时,显示装置5103A至5103D、记录器5105、病床5183和照明装置5191是例如在手术室中与内窥镜手术系统5113分开地配备的装置。不属于内窥镜手术系统5113的装置也称为非医疗设备。视听控制器5107和/或手术室控制装置5109相互协作地控制医疗设备和非医疗设备的操作。
视听控制器5107整体控制与图像显示有关的医疗设备和非医疗设备的处理。具体而言,手术室系统5100中提供的装置中的装置组5101、天花板相机5187和手术视野相机5189中的每一个可以是具有发送要在手术期间显示的信息的功能的装置(这种信息在下文中称为显示信息,并且所述装置在下文中称为发送源的装置)。同时,显示装置5103A至5103D中的每一个可以是显示信息所输出到的装置(该装置在下文中也称为输出目的地的装置)。另外,记录器5105可以是用作发送源的装置和输出目的地的装置两者的装置。视听控制器5107具有控制发送源的装置和输出目的地的装置的操作的功能,以从发送源的装置获取显示信息并将该显示信息发送到输出目的地的装置以便被显示或记录。要注意的是,显示信息包括在手术期间拾取的各种图像、与手术有关的各种信息(例如,患者的身体信息、过去的检查结果或关于手术过程的信息),等等。
具体而言,与由内窥镜成像的患者的体腔中的手术区域的图像有关的信息可以作为显示信息而被从装置组5101发送到视听控制器5107。另外,与由天花板相机5187拾取的外科医生的手的图像有关的信息可以作为显示信息而被从天花板相机5187发送。另外,与由手术视野相机5189拾取并且示出整个手术室的状态的图像有关的信息可以作为显示信息而被从手术视野相机5189发送。要注意的是,如果在手术室系统5100中存在具有图像拾取功能的另一装置,则视听控制器5107也可以从该另一装置获取与由该另一装置拾取的图像有关的信息作为显示信息。
替代地,例如,在记录器5105中,由视听控制器5107记录与过去拾取的如上所述的这种图像有关的信息。视听控制器5107可以从记录器5105获取与过去拾取的图像有关的信息作为显示信息。要注意的是,也可以在记录器5105中预先记录与手术有关的各种信息。
视听控制器5107控制作为输出目的地装置的显示装置5103A至5103D中的至少一个,以显示所获取的显示信息(即,在手术期间拾取的图像或与手术有关的各种信息)。在所描绘的示例中,显示装置5103A是安装成从手术室的天花板悬挂的显示装置;显示装置5103B是安装在手术室的墙面上的显示装置;显示装置5103C是安装在手术室中的桌子上的显示装置;并且显示装置5103D是具有显示功能的移动装置(例如,平板个人计算机(PC))。
另外,尽管未在图8中示出,但是手术室系统5100可包括手术室外部的装置。手术室外部的装置可以例如是连接到在医院内外构建的网络的服务器、医务人员所使用的PC、安装在医院的会议室中的投影仪等。在这样的外部装置位于医院外部的情况下,视听控制器5107也可以通过电话会议系统等使显示信息显示在另一医院的显示装置上以执行远程医疗。
手术室控制装置5109整体地控制除了与非医疗设备上的图像显示有关的处理之外的处理。例如,手术室控制装置5109控制病床5183、天花板相机5187、手术视野相机5189和照明装置5191的驱动。
在手术室系统5100中,提供集中操作面板5111,使得可以通过集中操作面板5111向视听控制器5107发出关于图像显示的指令或向手术室控制装置5109发出关于非医疗设备的操作的指令。通过在显示装置的显示面上提供触摸面板来构成集中操作面板5111。
图9是描绘在集中操作面板5111上显示操作屏幕图像的示例的视图。在图9中,作为示例,描绘了操作屏幕图像,其对应于在手术室系统5100中提供两个显示装置作为输出目的地装置的情况。参考图9,操作屏幕图像5193包括发送源选择区域5195、预览区域5197和控制区域5201。
在发送源选择区域5195中,以相互关联的方式显示设置在手术室系统5100中的发送源装置和表示发送源装置具有的显示信息的缩略图屏幕图像。用户可以从在发送源选择区域5195中显示的任何发送源装置中选择要在显示装置上显示的显示信息。
在预览区域5197中,显示在作为输出目的地装置的两个显示装置(监视器1和监视器2)上显示的屏幕图像的预览。在所示的示例中,关于一个显示装置,通过画中画(PinP)显示来显示四个图像。这四个图像对应于从在发送源选择区域5195中选择的发送源装置发送的显示信息。四个图像中的一个以相对大的尺寸显示作为主图像,而剩余三个图像以相对小的尺寸显示作为子图像。用户可以通过从该区域中显示的四个图像中适当地选择图像之一来在主图像和子图像之间进行交换。另外,状态显示区域5199设置在显示这四个图像的区域下方,并且可以在状态显示区域5199中适当地显示与手术有关的状态(例如,手术的经过时间、患者的身体信息等)。
在控制区域5201中提供发送源操作区域5203和输出目的地操作区域5205。在发送源操作区域5203中,显示用于执行发送源装置的操作的图形用户界面(GUI)部分。在输出目的地操作区域5205中,显示用于执行输出目的地装置的操作的GUI部分。在所示的示例中,在发送源操作区域5203中提供用于在具有图像拾取功能的发送源的装置中执行相机的各种操作(平移、倾斜和变焦)的GUI部分。用户可以通过适当地选择任何GUI部分来控制发送源装置的相机的操作。要注意的是,尽管未示出,但是在发送源选择区域5195中选择的发送源的装置是记录器的情况(即,在预览区域5197中显示过去在记录器中记录的图像的情况)下,可以在发送源操作区域5203中提供用于执行诸如图像的再现、再现的停止、倒回、快速馈送等操作的GUI部分。
另外,在输出目的地操作区域5205中,提供了用于在作为输出目的地装置的显示装置上执行各种显示操作(交换、翻转、颜色调整、对比度调整和在二维(2D)显示和三维(3D)显示之间的切换)的GUI部分。用户可以通过适当地选择任何GUI部分来操作显示装置的显示。
要注意的是,要在集中操作面板5111上显示的操作屏幕图像不限于所描绘的示例,并且用户可能能够通过集中操作面板5111对可以由在手术室系统5100中提供的视听控制器5107和手术室控制装置5109控制的每个装置进行操作输入。
图10是示出上述手术室系统所应用于的手术的状态的示例的视图。天花板相机5187和手术视野相机5189设置在手术室的天花板上,使得它可以对外科医生(医生)5181的手和整个手术室进行成像,外科医生(医生)5181对病床5183上的患者5185的受影响区域进行治疗。天花板相机5187和手术视野相机5189可以包括放大率调节功能、焦距调节功能、成像方向调节功能等。照明装置5191设置在手术室的天花板上,并且至少照射在外科医生5181的手上。照明装置5191可被配置成使得照射光量、照射光的波长(颜色)、光的照射方向等可以被适当地调节。
内窥镜手术系统5113、病床5183、天花板相机5187、手术视野相机5189和照明装置5191通过如图8所示的视听控制器5107和手术室控制装置5109(未在图10中示出)连接以彼此协作。集中操作面板5111设置在手术室中,并且用户可以通过如上所述的集中操作面板5111适当地操作存在于手术室中的装置。
在下文中,详细描述内窥镜手术系统5113的配置。如图所示,内窥镜手术系统5113包括内窥镜5115、其他手术工具5131、在其上支撑内窥镜5115的支撑臂装置5141,以及安装有用于内窥镜手术的各种装置的手推车5151。
在内窥镜手术中,代替切开腹壁以进行剖腹手术,使用称为套管针5139a至5139d的多个管状孔设备来刺穿腹壁。然后,通过套管针5139a至5139d将内窥镜5115的镜筒5117和其他手术工具5131插入患者5185的体腔中。在所示的示例中,作为其他手术工具5131,气腹管5133、能量治疗工具5135和钳子5137插入患者5185的体腔中。另外,能量治疗工具5135是用于通过高频电流或超声波振动来执行组织的切开和剥离、血管的密封等的治疗工具。然而,所描绘的手术工具5131仅仅是示例,并且作为手术工具5131,可以使用通常在内窥镜手术中使用的各种手术工具,诸如例如一对镊子或牵开器。
由内窥镜5115拾取的患者5185的体腔中的手术区域的图像被显示在显示装置5155上。外科医生5181将在观看实时显示在显示装置5155上的手术区域的图像的同时使用能量治疗工具5135或钳子5137来进行例如切除受影响区域之类的治疗。要注意的是,尽管未示出,但是在手术期间由外科医生5181、助手等支撑气腹管5133、能量治疗工具5135和钳子5137。
(支撑臂装置)
支撑臂装置5141包括从基座单元5143延伸的臂单元5145。在所示的示例中,臂单元5145包括接合部分5147a、5147b和5147c以及连杆5149a和5149b,并且在臂控制装置5159的控制下被驱动。由臂单元5145支撑内窥镜5115,使得内窥镜5115的位置和姿势被控制。结果,可以实现内窥镜5115的位置的稳定固定。
(内窥镜)
内窥镜5115包括镜筒5117(其具有从其要插入到患者5185的体腔中的远端起的预定长度的区域),以及连接到镜筒5117的近端的相机头部5119。在所示的示例中,描绘了内窥镜5115,其被配置为具有硬型镜筒5117的硬镜。然而,内窥镜5115可以另外被配置为具有软型镜筒5117的软镜。
镜筒5117在其远端具有开口,物镜安装在该开口中。光源装置5157连接到内窥镜5115,使得由光源装置5157生成的光通过在镜筒5117内部延伸的光导而被引入镜筒5117的远端并且通过物镜而被施加到患者5185的体腔中的观察目标。要注意的是,内窥镜5115可以是直视镜,或者可以是透视镜或侧视镜。
光学系统和图像拾取元件设置在相机头部5119内部,使得光学系统将来自观察目标的反射光(观察光)会聚在图像拾取元件上。图像拾取元件对观察光进行光电转换以生成对应于观察光的电信号,即,对应于观察图像的图像信号。图像信号作为RAW(原始)数据被发送到CCU 5153。要注意的是,相机头部5119具有结合在其中的用于适当地驱动相机头部5119的光学系统以调节放大率和焦距的功能。
要注意的是,为了与例如立体视觉(3D显示)建立兼容性,可在相机头部5119上设置多个图像拾取元件。在这种情况下,多个中继光学系统设置在镜筒5117内部,以将观察光引导到多个相应的图像拾取元件。
(手推车中包含的各种装置)
CCU 5153包括中央处理单元(CPU)、图形处理单元(GPU)等,并且整体地控制内窥镜5115和显示装置5155的操作。具体而言,CCU 5153针对从相机头部5119接收的图像信号执行用于基于该图像信号显示图像的各种图像处理,诸如,例如显影处理(去马赛克处理)。CCU 5153将已经对其执行了图像处理的图像信号提供给显示装置5155。另外,图8所示的视听控制器5107连接到CCU 5153。CCU 5153还将已经对其执行了图像处理的图像信号提供给视听控制器5107。另外,CCU 5153将控制信号发送到相机头部5119以控制相机头部5119的驱动。控制信号可以包括与诸如放大率或焦距之类的图像拾取条件有关的信息。与图像拾取条件有关的信息可以通过输入装置5161输入,或者可以通过上述集中操作面板5111输入。
显示装置5155在CCU 5153的控制下基于已被CCU 5153执行图像处理的图像信号来显示图像。如果内窥镜5115为诸如4K(水平像素数3840×垂直像素数2160)、8K(水平像素数7680×垂直像素数4320)等的高分辨率的成像做好准备和/或为3D显示做好准备,则使高分辨率和/或3D显示的对应显示可行的显示装置可以用作显示装置5155。在装置为诸如4K或8K之类的高分辨率的成像做好准备的情况下,如果用作显示装置5155的显示装置具有等于或不小于55英寸的尺寸,则可以获得更加沉浸式的体验。另外,可以根据目的提供具有不同分辨率和/或不同尺寸的多个显示装置5155。
光源装置5157包括诸如例如发光二极管(LED)之类的光源,并且将用于手术区域的成像的照射光供应给内窥镜5115。
臂控制装置5159包括诸如例如CPU之类的处理器,并根据预定程序操作以根据预定控制方法来控制支撑臂装置5141的臂单元5145的驱动。
输入装置5161是内窥镜手术系统5113的输入接口。用户可以通过输入装置5161执行对内窥镜手术系统5113的各种信息的输入或指令输入。例如,用户将通过输入装置5161输入与手术有关的各种信息,诸如患者的身体信息、关于手术的手术过程的信息等等。另外,用户将通过输入装置5161输入例如驱动臂单元5145的指令、通过内窥镜5115改变图像拾取条件(照射光的类型、放大率、焦距等)的指令、驱动能量治疗工具5135的指令等。
输入装置5161的类型不受限制,并且可以是各种已知输入装置中的任何一种。作为输入装置5161,例如,可以应用鼠标、键盘、触摸板、开关、脚踏开关5171和/或杆等。在触摸板用作输入装置5161的情况下,它可以设置在显示装置5155的显示面上。
输入装置5161另外是要安装在用户上的设备(例如,眼镜型可穿戴设备或头戴式显示器(HMD)),并且响应于由所提到的任何设备检测到的用户的手势或视线而执行各种输入。另外,输入装置5161包括可以检测用户的运动的相机,并且响应于从由相机拾取的视频检测到的用户的手势或视线而执行各种输入。另外,输入装置5161包括可以收集用户的语音的麦克风,并且通过该麦克风通过语音执行各种输入。通过以这种方式配置输入装置5161以使得可以以非接触方式输入各种信息,尤其是属于清洁区域的用户(例如,外科医生5181)可以以非接触方式操作属于不洁区域的装置。另外,由于用户可以在不从其手中释放所持有的手术工具的情况下操作装置,因此提高了对用户的便利性。
治疗工具控制装置5163控制用于组织的烧灼或切开、血管的密封等的能量治疗工具5135的驱动。气腹装置5165通过气腹管5133将气体输送到患者5185的体腔中以使体腔充气,以确保内窥镜5115的视野并确保外科医生的工作空间。记录器5167是能够记录与手术有关的各种信息的装置。打印机5169是能够以各种形式(诸如文本、图像或图形)打印与手术有关的各种信息的装置。
在下文中,尤其更详细地描述了内窥镜手术系统5113的特征配置。
(支撑臂装置)
支撑臂装置5141包括用作基座的基座单元5143,以及从基座单元5143延伸的臂单元5145。在所示的示例中,臂单元5145包括多个接合部分5147a、5147b和5147c,以及通过接合部分5147b彼此连接的多个连杆5149a和5149b。在图10中,为了简化说明,以简化的形式描绘了臂单元5145的配置。实际上,可以适当地设置接合部分5147a至5147c以及连杆5149a和5149b的形状、数量和布置以及接合部分5147a至5147c的旋转轴的方向等,使得臂单元5145具有所需的自由度。例如,臂单元5145可被优选地包括,使得它具有等于或不小于6个自由度的自由度。这使得可以在臂单元5145的可移动范围内自由地移动内窥镜5115。因此,将内窥镜5115的镜筒5117从期望的方向插入到患者5185的体腔中成为可能。
致动器设置在接合部分5147a至5147c中,并且接合部分5147a至5147c被配置使得它们通过致动器的驱动可绕其预定旋转轴旋转。由臂控制装置5159控制致动器的驱动,以控制每个接合部分5147a至5147c的旋转角度,从而控制臂单元5145的驱动。结果,可以实现对内窥镜5115的位置和姿势的控制。于是,臂控制装置5159可以通过诸如力控制或位置控制之类的各种已知控制方法来控制臂单元5145的驱动。
例如,如果外科医生5181通过输入装置5161(包括脚踏开关5171)适当地执行操作输入,则臂控制装置5159可以响应于该操作输入而适当地控制臂单元5145的驱动以控制内窥镜5115的位置和姿势。在通过刚刚描述的控制将臂单元5145的远端处的内窥镜5115从任意位置移动到不同的任意位置之后,可以在移动之后的位置处固定地支撑内窥镜5115。要注意的是,可以以主从方式操作臂单元5145。在这种情况下,用户可以通过放置在远离手术室的地方的输入装置5161远程地控制臂单元5145。
另外,在施加力控制的情况下,臂控制装置5159可以执行助力控制以驱动接合部分5147a至5147c的致动器,使得臂单元5145可以接收用户的外力并且跟随外力平稳地移动。这使得当用户直接触摸和移动臂单元5145时可以以相对弱的力移动臂单元5145。因此,用户通过更简单和更容易的操作更直观地移动内窥镜5115成为可能,并且可以提高对用户的便利性。
这里,通常在内窥镜手术中,内窥镜5115由称为内镜医师(scopist)的医生支撑。相比之下,在使用支撑臂装置5141的情况下,可以在没有手的情况下以更高的确定度固定内窥镜5115的位置,因此,可以稳定地获得手术区域的图像并且可以平稳地进行手术。
要注意的是,臂控制装置5159可以不一定设置在手推车5151上。另外,臂控制装置5159可以不一定是单个装置。例如,臂控制装置5159可以设置在支撑臂装置5141的臂单元5145的接合部分5147a至5147c中的每一个中,使得多个臂控制装置5159彼此协作以实现对臂单元5145的驱动控制。
(光源装置)
光源装置5157在对手术区域进行成像时向内窥镜5115供应照射光。光源装置5157包括白色光源,该白色光源包括例如LED、激光光源或它们的组合。在这种情况下,在白色光源包括红色、绿色和蓝色(RGB)激光光源的组合的情况下,由于可以针对每个颜色(每个波长)高精度地控制输出强度和输出定时,因此光源装置5157可以执行拾取图像的白平衡的调节。另外,在这种情况下,如果将来自RGB激光光源的激光束时分地施加在观察目标上并且与照射定时同步地控制相机头部5119的图像拾取元件的驱动,则可以时分地拾取分别对应于R、G和B颜色的图像。根据刚刚描述的方法,即使没有为图像拾取元件提供滤色器,也可以获得彩色图像。
另外,可以控制光源装置5157的驱动,使得针对每个预定时间改变要输出的光的强度。通过与光强度变化的定时同步地控制相机头部5119的图像拾取元件的驱动以时分地获取图像并合成图像,可以创建没有曝光不足的过厚阴影和曝光过度的高光的高动态范围的图像。
另外,光源装置5157可被配置为供应为特殊光观察准备的预定波长带的光。在特殊光观察中,例如,通过利用身体组织的光吸收的波长依赖性,通过施加与普通观察时的照射光(即,白光)相比较窄带的光来执行以高对比度对诸如粘膜等的表面部分的血管之类的预定组织进行成像的窄带光观察(窄带成像)。替代地,在特殊光观察中,也可以执行用于从由激发光的照射生成的荧光获得图像的荧光观察。在荧光观察中,可以通过在身体组织上照射激发光来进行对来自身体组织的荧光的观察(自发荧光观察),或者通过将诸如吲哚菁绿(ICG)之类的试剂局部注入到身体组织中并在身体组织上照射与该试剂的荧光波长相对应的激发光来获得荧光图像。光源装置5157可以被配置为供应适合于如上所述的特殊光观察的这种窄带光和/或激发光。
(相机头部和CCU)
参照图11更详细地描述内窥镜5115的相机头部5119和CCU5153的功能。图11是描绘图10中描绘的相机头部5119和CCU 5153的功能配置的示例的框图。
参考图11,相机头部5119具有作为其功能的透镜单元5121、图像拾取单元5123、驱动单元5125、通信单元5127和相机头部控制单元5129。另外,CCU 5153具有作为其功能的通信单元5173、图像处理单元5175和控制单元5177。相机头部5119和CCU 5153通过传输电缆5179连接以便可以彼此双向通信。
首先,描述相机头部5119的功能配置。透镜单元5121是设置在相机头部5119到镜筒5117的连接位置处的光学系统。从镜筒5117的远端取入的观察光被引入相机头部5119并进入透镜单元5121。透镜单元5121包括包含变焦透镜和聚焦透镜在内的多个透镜的组合。透镜单元5121具有如下光学特性,其被调节使得观察光会聚在图像拾取单元5123的图像拾取元件的光接收面上。另外,变焦透镜和聚焦透镜被配置为使得其在其光轴上的位置是可移动的,以便调节拾取图像的放大率和焦点。
图像拾取单元5123包括图像拾取元件并且设置在透镜单元5121的后一级。使已经通过透镜单元5121的观察光会聚在图像拾取元件的光接收面上,并且通过光电转换生成对应于观察图像的图像信号。由图像拾取单元5123生成的图像信号被提供给通信单元5127。
作为图像拾取单元5123所包括的图像拾取元件,使用具有Bayer阵列并且能够拾取彩色图像的例如互补金属氧化物半导体(CMOS)类型的图像传感器。要注意的是,作为图像拾取元件,可以使用例如为等于或不小于4K的高分辨率的图像的成像做好准备的图像拾取元件。如果以高分辨率获得手术区域的图像,则外科医生5181可以以增强的细节理解手术区域的状态并且可以更平稳地进行手术。
另外,图像拾取单元5123所包括的图像拾取元件被配置成使得其具有一对用于获取与3D显示兼容的右眼和左眼的图像信号的图像拾取元件。在应用3D显示的情况下,外科医生5181可以以更高的准确度理解手术区域中的活体组织的深度。要注意的是,如果图像拾取单元5123被配置为多板类型的图像拾取单元,则对应于图像拾取单元5123的各个图像拾取元件设置多个透镜单元5121的系统。
图像拾取单元5123可以不一定设置在相机头部5119上。例如,图像拾取单元5123可以设置在镜筒5117内部的物镜的正后方。
驱动单元5125包括致动器,并且在相机头部控制单元5129的控制下沿着光轴将透镜单元5121的变焦透镜和聚焦透镜移动预定距离。结果,可以适当地调节图像拾取单元5123的拾取图像的放大率和焦点。
通信单元5127包括用于向CCU 5153发送各种信息和从CCU5153接收各种信息的通信装置。通信单元5127通过传输电缆5179将从图像拾取单元5123获取的图像信号作为RAW数据发送到CCU5153。于是,为了以低等待时间显示手术区域的拾取图像,优选地通过光学通信发送图像信号。这是因为:由于在手术时外科医生5181在通过拾取图像观察受影响区域的状态的同时进行手术,以便以更高程度的安全性和确定性实现手术,因此需要手术区域的移动图像尽可能实时显示。在应用光通信的情况下,在通信单元5127中提供用于将电信号转换为光信号的光电转换模块。在通过光电转换模块将图像信号转换为光信号之后,将其通过传输电缆5179发送到CCU 5153。
另外,通信单元5127从CCU 5153接收用于控制相机头部5119的驱动的控制信号。该控制信号包括与图像拾取条件有关的信息,诸如,例如指定拾取图像的帧速率的信息、指定图像拾取时的曝光值的信息和/或指定拾取图像的放大率和焦点的信息。通信单元5127将所接收的控制信号提供给相机头部控制单元5129。要注意的是,也可以通过光通信发送来自CCU 5153的控制信号。在这种情况下,在通信单元5127中提供用于将光信号转换为电信号的光电转换模块。在通过光电转换模块将控制信号转换为电信号之后,将其提供给相机头部控制单元5129。
要注意的是,CCU 5153的控制单元5177基于所获取的图像信号自动设置诸如帧速率、曝光值、放大率或焦点之类的图像拾取条件。换句话说,自动曝光(AE)功能、自动聚焦(AF)功能和自动白平衡(AWB)功能被包含在内窥镜5115中。
相机头部控制单元5129基于通过通信单元5127接收的来自CCU 5153的控制信号来控制相机头部5119的驱动。例如,相机头部控制单元5129基于指定拾取图像的帧速率的信息和/或指定图像拾取时的曝光值的信息来控制图像拾取单元5123的图像拾取元件的驱动。另外,例如,相机头部控制单元5129基于指定拾取图像的放大率和焦点的信息来控制驱动单元5125,以适当地移动透镜单元5121的变焦透镜和聚焦透镜。相机头部控制单元5129可以包括用于存储用于标识镜筒5117和/或相机头部5119的信息的功能。
要注意的是,通过将诸如透镜单元5121和图像拾取单元5123之类的组件布置在具有高气密性和高防水性的密封结构中,可以向相机头部5119提供对高压灭菌处理的抵抗力。
现在,描述CCU 5153的功能配置。通信单元5173包括用于向相机头部5119发送各种信息和从相机头部5119接收各种信息的通信装置。通信单元5173通过传输电缆5179接收从相机头部5119发送到其的图像信号。于是,如上所述可以优选地通过光通信发送图像信号。在这种情况下,为了与光通信兼容,通信单元5173包括用于将光信号转换为电信号的光电转换模块。通信单元5173将转换为电信号之后的图像信号提供给图像处理单元5175。
另外,通信单元5173向相机头部5119发送用于控制相机头部5119的驱动的控制信号。也可以通过光通信发送控制信号。
图像处理单元5175对从相机头部5119发送到其的RAW数据形式的图像信号执行各种图像处理。图像处理包括各种已知的信号处理,诸如,例如显影处理、图像质量提高处理(带宽增强处理、超分辨率处理、降噪(NR)处理和/或图像稳定处理)和/或放大处理(电子变焦处理)。另外,图像处理单元5175对图像信号执行检测处理以执行AE、AF和AWB。
图像处理单元5175包括诸如CPU或GPU之类的处理器,并且当处理器根据预定程序进行操作时,上述的图像处理和检测处理可以被执行。要注意的是,在图像处理单元5175包括多个GPU的情况下,图像处理单元5175适当地划分与图像信号有关的信息,使得由多个GPU并行执行图像处理。
控制单元5177执行与内窥镜5115对手术区域的图像拾取和所拾取的图像的显示有关的各种控制。例如,控制单元5177生成用于控制相机头部5119的驱动的控制信号。于是,如果用户输入了图像拾取条件,则控制单元5177基于用户的输入生成控制信号。替代地,在内窥镜5115将AE功能、AF功能和AWB功能包含在其中的情况下,控制单元5177响应于图像处理单元5175的检测处理的结果而适当地计算最佳的曝光值、焦距和白平衡,并生成控制信号。
另外,控制单元5177基于已被图像处理单元5175执行图像处理的图像信号来控制显示装置5155显示手术区域的图像。于是,控制单元5177使用各种图像识别技术来识别手术区域图像中的各种对象。例如,控制单元5177可以通过检测手术区域图像中包括的对象的边缘的形状、颜色等来识别诸如钳子之类的手术工具、特定活体区域、出血、使用能量治疗工具5135时的雾等。当控制单元5177控制显示装置5155显示手术区域图像时,控制单元5177使用识别结果使得以与手术区域的图像重叠的方式显示各种手术支撑信息。在手术支撑信息被以重叠方式显示并呈现给外科医生5181时,外科医生5181可以更安全和确定地进行手术。
将相机头部5119和CCU 5153彼此连接的传输电缆5179是为电信号的通信准备的电信号电缆、为光通信准备的光纤或其复合电缆。
这里,虽然在图中所示的示例中使用传输电缆5179通过有线通信执行通信,但是可以通过无线通信以其他方式执行相机头部5119和CCU 5153之间的通信。在通过无线通信执行相机头部5119和CCU 5153之间的通信的情况下,没有必要将传输电缆5179放置在手术室中。因此,可以消除手术室中的医务人员的运动受到传输电缆5179的干扰的情况。
上面已经描述了根据本公开的实施例的技术所可以应用于的手术室系统5100的示例。这里要注意的是,尽管已经描述了手术室系统5100所应用于的医疗系统是内窥镜手术系统5113的情况作为示例,但是手术室系统5100的配置不限于上述例子的配置。例如,手术室系统5100可以应用于用于检查的软内窥镜系统或显微手术系统以代替内窥镜手术系统5113。
在上述应用示例中,与本公开有关的技术可用于将在手术操作期间拍摄的手术操作视频传递到布置在另一房间中的个人计算机、平板终端或监视器以及标记所传递的视频。
3.变体的示例
上面已经具体描述了本技术的实施例。然而,应当注意的是,本技术不限于上述实施例;即,基于本技术的技术概念的变体是可行的。
要在显示部240上显示的显示区域不限于第一显示区域110和第二显示区域120。三个或更多个显示区域可以在执行标记的用户能够处理这些显示区域的范围内在显示部240上显示,从而显示具有不同延迟时间的两个或更多个视频。
要在第一显示区域110中显示的视频不限于实时视频。可以在第一显示区域110中显示记录的视频内容,以便通过将该内容延迟预定时间来在第二显示区域120中显示该记录的视频内容。
如图12所示,延迟时间输入部150可以由滑动条153和根据用户的手指接触等在滑动条153上移动的图标154构成,图标154显示在滑动条153上。如下配置例如允许用户更直观地调节延迟时间:其中,滑动条上的图标的位置与延迟时间有关,并且向右滑动图标增加延迟时间而向左滑动图标减小延迟时间。
另外,延迟时间输入部150可具有通过下拉菜单选择性地输入延迟时间的形式,或者被配置为通过显示软件键盘来输入指示延迟时间的特定数字。
在连接到终端装置200的第一显示设备上显示第一显示区域110和第一标签输入部130并在终端装置200上显示的第二显示设备上显示第二显示区域120和第二标签输入部140也是可行的,从而提供所谓的双显示器。另外,在第一终端装置的显示部上显示第一显示区域110并在与第一终端装置不同的第二终端装置上显示第二显示区域120是可行的,从而允许两个或更多个用户在其视频上执行标记。
在拍摄图像的摄影师所使用的摄像装置(消费者数字摄像机、商用摄像机等)的显示部上显示用户界面100也是可行的,从而允许摄影师在拍摄图像的同时执行标签输入。
在该实施例中,第一标签输入部130的标签输入按钮的数量和第二标签输入部140的标签输入按钮的数量是相同的;然而,第一标签输入部130的标签输入按钮的数量和第二标签输入部140的标签输入按钮的数量(即,标签类型的数量)可以是不同的。例如,可以在对应于延迟视频的第二标签输入部140上仅显示用于输入特别重要的标签的按钮。
用户可以以音频方式输入标签。在这种情况下,用户需要说出与第一视频和第二视频对应的特定单词以便区分要输入的标签是用于第一视频还是用于第二视频,在硬件输入装置中进行输入的同时说出单词,等等。此外,可以以从列表中选择要输入的标签的方式执行用户的标签输入。
本技术的应用不限于视频内容;例如,本技术适用于随时间的进展而改变的任何内容,例如,诸如图像幻灯片放映。
本技术还可以采用以下配置。
(1)一种信息处理装置,包括:
将视频内容作为第一视频显示在显示部中的第一显示区域上;
将上述视频内容作为从上述第一视频延迟预定时间的第二视频显示在上述显示部中的第二显示区域上;以及
将由用户输入到上述第一视频中的第一标签和由上述用户输入到上述第二视频中的第二标签设置为上述视频内容的标签。
(2)根据上面的(1)所述的信息处理装置,其中
上述第一标签与指示上述视频内容的进展程度的时间信息相关,以便被登记为上述视频内容的标签。
(3)根据上面的(2)所述的信息处理装置,其中
为具有从上述时间信息指示的时间中减去上述延迟时间的上述视频内容登记上述第二标签。
(4)根据上面的(1)至(3)中任一项所述的信息处理装置,其中
根据来自上述用户的输入来设置上述第二视频相对上述第一视频的上述延迟时间。
(5)根据上面的(1)至(4)中任一项所述的信息处理装置,其中
在上述显示部上显示被配置为接受用于上述第一视频的来自用户的标签输入的第一标签输入部和被配置为接受用于上述第二视频的来自用户的标签输入的第二标签输入部。
(6)根据上面的(5)所述的信息处理装置,其中
上述第一标签输入部和上述第二标签输入部包括与标签的类型对应的一个或多个标签输入按钮。
(7)根据上面的(6)所述的信息处理装置,其中,
如果上述第一标签和上述第二标签在类型上彼此相同并且在预定时间范围内,则上述第二标签被优先考虑。
(8)根据上面的(6)所述的信息处理装置,其中,
如果上述第一标签和上述第二标签在类型上彼此相同并且在预定时间范围内,则根据与上述第一标签有关的时间信息和与上述第二标签有关的时间信息来生成新标签。
(9)根据上面的(1)至(8)中任一项所述的信息处理装置,其中
上述第一视频是具有实时显示的上述视频内容的实况视频。
(10)一种信息处理方法,包括:
将视频内容作为第一视频显示在显示部中的第一显示区域上;
将上述视频内容作为从上述第一视频延迟预定时间的第二视频显示在上述显示部中的第二显示区域上;以及
将由用户输入到上述第一视频中的第一标签和由上述用户输入到上述第二视频中的第二标签设置为上述视频内容的标签。
(11)一种用于使计算机执行信息处理方法的信息处理程序,该信息处理方法包括:
将视频内容作为第一视频显示在显示部中的第一显示区域上;
将上述视频内容作为从上述第一视频延迟预定时间的第二视频显示在上述显示部中的第二显示区域上;以及
将由用户输入到上述第一视频中的第一标签和由上述用户输入到上述第二视频中的第二标签设置为上述视频内容的标签。
附图标记列表
110...第一显示区域
120...第二显示区域
240...显示部
260...信息处理部

Claims (11)

1.一种信息处理装置,具有一个或多个处理器,所述一个或多个处理器被配置为:
将视频内容作为第一视频显示在显示部中的第一显示区域上;
将视频内容作为从第一视频延迟预定时间的第二视频显示在显示部中的第二显示区域上;以及
将由用户输入到第一视频中的第一标签和由用户输入到第二视频中的第二标签设置为视频内容的标签。
2.根据权利要求1所述的信息处理装置,其中
第一标签与指示视频内容的进展程度的时间信息相关,以便被登记为视频内容的标签。
3.根据权利要求2所述的信息处理装置,其中
为具有从所述时间信息指示的时间中减去延迟时间的视频内容登记第二标签。
4.根据权利要求1所述的信息处理装置,其中
根据来自用户的输入来设置第二视频相对第一视频的延迟时间。
5.根据权利要求1所述的信息处理装置,其中
在所述显示部上显示被配置为接受用于第一视频的来自用户的标签输入的第一标签输入部和被配置为接受用于第二视频的来自用户的标签输入的第二标签输入部。
6.根据权利要求5所述的信息处理装置,其中
第一标签输入部和第二标签输入部包括与标签的类型对应的一个或多个标签输入按钮。
7.根据权利要求6所述的信息处理装置,其中
如果第一标签和第二标签在类型上彼此相同并且在预定时间范围内,则第二标签被优先考虑。
8.根据权利要求6所述的信息处理装置,其中
如果第一标签和第二标签在类型上彼此相同并且在预定时间范围内,则根据与第一标签相关的时间信息和与第二标签相关的时间信息来生成新标签。
9.根据权利要求1所述的信息处理装置,其中
第一视频是具有实时显示的视频内容的实况视频。
10.一种信息处理方法,包括:
将视频内容作为第一视频显示在显示部中的第一显示区域上;
将视频内容作为从第一视频延迟预定时间的第二视频显示在显示部中的第二显示区域上;以及
将由用户输入到第一视频中的第一标签和由用户输入到第二视频中的第二标签设置为视频内容的标签。
11.一种用于使计算机执行信息处理方法的信息处理程序,所述信息处理方法包括:
将视频内容作为第一视频显示在显示部中的第一显示区域上;
将视频内容作为从第一视频延迟预定时间的第二视频显示在显示部中的第二显示区域上;以及
将由用户输入到第一视频中的第一标签和由用户输入到第二视频中的第二标签设置为视频内容的标签。
CN201880002905.9A 2017-05-30 2018-04-20 信息处理装置、信息处理方法和非暂态计算机可读介质 Active CN109565565B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017106906 2017-05-30
JP2017-106906 2017-05-30
PCT/JP2018/016326 WO2018221068A1 (ja) 2017-05-30 2018-04-20 情報処理装置、情報処理方法および情報処理プログラム

Publications (2)

Publication Number Publication Date
CN109565565A true CN109565565A (zh) 2019-04-02
CN109565565B CN109565565B (zh) 2022-06-07

Family

ID=64455752

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880002905.9A Active CN109565565B (zh) 2017-05-30 2018-04-20 信息处理装置、信息处理方法和非暂态计算机可读介质

Country Status (4)

Country Link
US (2) US11114129B2 (zh)
JP (1) JP7188083B2 (zh)
CN (1) CN109565565B (zh)
WO (1) WO2018221068A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022135604A1 (zh) * 2020-12-25 2022-06-30 深圳迈瑞生物医疗电子股份有限公司 医疗信息显示系统及医疗系统

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10888788B2 (en) * 2016-06-30 2021-01-12 Sony Interactive Entertainment Inc. Automated artificial intelligence (AI) control mode for playing specific tasks during gaming applications
CN110035249A (zh) * 2019-03-08 2019-07-19 视联动力信息技术股份有限公司 一种视频打点方法和装置
WO2021010012A1 (ja) * 2019-07-16 2021-01-21 株式会社ディー・エヌ・エー ライブ動画を配信するためのシステム、方法、及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08287656A (ja) * 1995-04-08 1996-11-01 Sony Corp 編集装置
US20080046956A1 (en) * 2006-08-04 2008-02-21 Kulas Charles J User control for displaying tags associated with items in a video playback
US20120210383A1 (en) * 2011-02-11 2012-08-16 Sayers Craig P Presenting streaming media for an event
US20150007032A1 (en) * 2012-07-03 2015-01-01 Hunt K. Brand System and method for visual editing
CN104822092A (zh) * 2015-04-30 2015-08-05 无锡天脉聚源传媒科技有限公司 视频打点、标引和字幕合并处理方法及装置
US20150317906A1 (en) * 2014-05-01 2015-11-05 Pearson Education, Inc. Contemporaneous capture and tagging of media evidence for education evaluation
CN106331824A (zh) * 2016-08-31 2017-01-11 杭州当虹科技有限公司 一种以可变速率播放流媒体视频文件的方法

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6138147A (en) * 1995-07-14 2000-10-24 Oracle Corporation Method and apparatus for implementing seamless playback of continuous media feeds
JP2001045445A (ja) 1999-07-29 2001-02-16 Nippon Telegr & Teleph Corp <Ntt> ライブ映像送受信システム,ライブ映像送信装置および受信装置
US20060015925A1 (en) * 2000-03-28 2006-01-19 Gotuit Media Corp Sales presentation video on demand system
US7409361B2 (en) * 2003-12-08 2008-08-05 Bid Catcher L.P. Auction system for remote bidding and method
US7428501B2 (en) * 2003-12-08 2008-09-23 Bidcatcher, L.P. Auction system for remote bidding and method
US7319397B2 (en) * 2004-08-26 2008-01-15 Avante International Technology, Inc. RFID device for object monitoring, locating, and tracking
JP4659681B2 (ja) 2005-06-13 2011-03-30 パナソニック株式会社 コンテンツタグ付け支援装置およびコンテンツタグ付け支援方法
WO2008005056A2 (en) * 2006-01-17 2008-01-10 University Of Georgia Research Foundation Video analysis tool systems and methods
US20080059170A1 (en) * 2006-08-31 2008-03-06 Sony Ericsson Mobile Communications Ab System and method for searching based on audio search criteria
US7978050B2 (en) * 2007-05-30 2011-07-12 Golba Llc Systems and methods for providing quality of service to RFID
US20090097815A1 (en) * 2007-06-18 2009-04-16 Lahr Nils B System and method for distributed and parallel video editing, tagging, and indexing
US20090070407A1 (en) * 2007-09-06 2009-03-12 Turner Broadcasting System, Inc. Systems and methods for scheduling, producing, and distributing a production of an event
EP2206272B1 (en) * 2007-11-02 2019-05-08 Novatel, Inc. System and method for distributing time and frequency over a network
US8624908B1 (en) * 2008-06-27 2014-01-07 Rovi Guides, Inc. Systems and methods of transitioning from buffering video to recording video
US8330864B2 (en) * 2008-11-02 2012-12-11 Xorbit, Inc. Multi-lingual transmission and delay of closed caption content through a delivery system
TW201042844A (en) * 2009-05-26 2010-12-01 Compal Electronics Inc Electrical connector and terminal connecting element thereof
GB2515926B (en) * 2010-07-19 2015-02-11 Ipsotek Ltd Apparatus, system and method
US8954477B2 (en) * 2011-01-28 2015-02-10 Apple Inc. Data structures for a media-editing application
CA2841565C (en) * 2011-07-21 2019-10-29 Sirius Xm Radio Inc. Method and apparatus for delivery of programs and metadata to provide user alerts to tune to corresponding program channels before high interest events occur during playback of programs
US20130242105A1 (en) * 2012-03-13 2013-09-19 H4 Engineering, Inc. System and method for video recording and webcasting sporting events
US20140010517A1 (en) * 2012-07-09 2014-01-09 Sensr.Net, Inc. Reduced Latency Video Streaming
US20140074855A1 (en) * 2012-09-13 2014-03-13 Verance Corporation Multimedia content tags
US9648357B2 (en) * 2012-11-05 2017-05-09 Ati Technologies Ulc Method and device for providing a video stream for an object of interest
US9525688B2 (en) * 2013-03-11 2016-12-20 Nagravision S.A. Electronic support allowing access to remote audio/video assets
US9440152B2 (en) * 2013-05-22 2016-09-13 Clip Engine LLC Fantasy sports integration with video content
US20170072321A1 (en) * 2013-05-22 2017-03-16 David S. Thompson Highly interactive fantasy sports interleaver
US10437658B2 (en) * 2013-06-06 2019-10-08 Zebra Technologies Corporation Method, apparatus, and computer program product for collecting and displaying sporting event data based on real time data for proximity and movement of objects
US10430018B2 (en) * 2013-06-07 2019-10-01 Sony Interactive Entertainment Inc. Systems and methods for providing user tagging of content within a virtual scene
US9727215B2 (en) * 2013-11-11 2017-08-08 Htc Corporation Method for performing multimedia management utilizing tags, and associated apparatus and associated computer program product
US10958965B2 (en) * 2014-10-31 2021-03-23 Telefonaktiebolaget Lm Ericsson (Publ) Video stream synchronization
CN113766161B (zh) * 2014-12-14 2023-06-20 深圳市大疆创新科技有限公司 视频处理的方法和系统
US9583144B2 (en) * 2015-02-24 2017-02-28 Plaay, Llc System and method for creating a sports video
US10187665B2 (en) * 2015-04-20 2019-01-22 Disney Enterprises, Inc. System and method for creating and inserting event tags into media content
US10299017B2 (en) * 2015-09-14 2019-05-21 Logitech Europe S.A. Video searching for filtered and tagged motion
US9635307B1 (en) * 2015-12-18 2017-04-25 Amazon Technologies, Inc. Preview streaming of video data
US10095696B1 (en) * 2016-01-04 2018-10-09 Gopro, Inc. Systems and methods for generating recommendations of post-capture users to edit digital media content field
US10195531B2 (en) * 2016-06-30 2019-02-05 Sony Interactive Entertainment Inc. Automated artificial intelligence (AI) personal assistant
US10681391B2 (en) * 2016-07-13 2020-06-09 Oath Inc. Computerized system and method for automatic highlight detection from live streaming media and rendering within a specialized media player
US10179290B2 (en) * 2016-07-21 2019-01-15 Sony Interactive Entertainment America Llc Method and system for accessing previously stored game play via video recording as executed on a game cloud system
KR20190065395A (ko) 2016-10-14 2019-06-11 로비 가이드스, 인크. 이벤트 검출 시 정상 속도 비디오 스트림과 동시에 슬로우 모션 비디오 스트림을 제공하기 위한 시스템 및 방법
US10542328B2 (en) * 2016-12-30 2020-01-21 Facebook, Inc. Systems and methods for providing content
US11509944B2 (en) * 2017-05-18 2022-11-22 Nbcuniversal Media, Llc System and method for presenting contextual clips for distributed content

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08287656A (ja) * 1995-04-08 1996-11-01 Sony Corp 編集装置
US20080046956A1 (en) * 2006-08-04 2008-02-21 Kulas Charles J User control for displaying tags associated with items in a video playback
US20120210383A1 (en) * 2011-02-11 2012-08-16 Sayers Craig P Presenting streaming media for an event
US20150007032A1 (en) * 2012-07-03 2015-01-01 Hunt K. Brand System and method for visual editing
US20150317906A1 (en) * 2014-05-01 2015-11-05 Pearson Education, Inc. Contemporaneous capture and tagging of media evidence for education evaluation
CN104822092A (zh) * 2015-04-30 2015-08-05 无锡天脉聚源传媒科技有限公司 视频打点、标引和字幕合并处理方法及装置
CN106331824A (zh) * 2016-08-31 2017-01-11 杭州当虹科技有限公司 一种以可变速率播放流媒体视频文件的方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022135604A1 (zh) * 2020-12-25 2022-06-30 深圳迈瑞生物医疗电子股份有限公司 医疗信息显示系统及医疗系统

Also Published As

Publication number Publication date
WO2018221068A1 (ja) 2018-12-06
JP7188083B2 (ja) 2022-12-13
CN109565565B (zh) 2022-06-07
US20210375323A1 (en) 2021-12-02
US11694725B2 (en) 2023-07-04
US11114129B2 (en) 2021-09-07
JPWO2018221068A1 (ja) 2020-03-26
US20200082849A1 (en) 2020-03-12

Similar Documents

Publication Publication Date Title
JP6950707B2 (ja) 情報処理装置および方法、並びにプログラム
US11694725B2 (en) Information processing apparatus and information processing method
JP7095693B2 (ja) 医療用観察システム
CN109863755A (zh) 信号处理设备、方法和程序
CN110168605A (zh) 用于动态范围压缩的视频信号处理装置、视频信号处理方法和程序
US20210019921A1 (en) Image processing device, image processing method, and program
CN109565563A (zh) 多相机系统、相机、相机的处理方法、确认装置以及确认装置的处理方法
EP3357235B1 (en) Information processing apparatus, multi-camera system and non-transitory computer-readable medium
US11599263B2 (en) Information processing device, method, and program for generating a proxy image from a proxy file representing a moving image
US11022859B2 (en) Light emission control apparatus, light emission control method, light emission apparatus, and imaging apparatus
EP3761637B1 (en) Video-signal-processing device, video-signal-processing method, and imaging device
US11321880B2 (en) Information processor, information processing method, and program for specifying an important region of an operation target in a moving image
WO2020203265A1 (ja) 映像信号処理装置、映像信号処理方法および撮像装置
US11496662B2 (en) Image processing apparatus, image processing method, and image pickup system for displaying information associated with an image
JPWO2019049595A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
WO2020246181A1 (ja) 画像処理装置、画像処理方法、プログラム
JP7444074B2 (ja) 撮像装置、撮像制御装置、撮像方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant