WO2023166981A1 - 情報処理装置、情報処理端末、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理端末、情報処理方法、およびプログラム Download PDF

Info

Publication number
WO2023166981A1
WO2023166981A1 PCT/JP2023/005122 JP2023005122W WO2023166981A1 WO 2023166981 A1 WO2023166981 A1 WO 2023166981A1 JP 2023005122 W JP2023005122 W JP 2023005122W WO 2023166981 A1 WO2023166981 A1 WO 2023166981A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
transmission mode
information
patient
facial
Prior art date
Application number
PCT/JP2023/005122
Other languages
English (en)
French (fr)
Inventor
真人 山根
雅矢 竹本
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023166981A1 publication Critical patent/WO2023166981A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/20Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using video object coding

Definitions

  • the present technology relates to an information processing device, an information processing terminal, an information processing method, and a program, and in particular, an information processing device, an information processing terminal, and an information processing method capable of appropriately selecting a transmission method of information related to facial expressions. , and about the program.
  • a remote surgery has been proposed in which a doctor in a remote location watches real-time video of the surgery being performed in the operating room and gives instructions and advice to the staff in the operating room.
  • a real-time video shows a patient's face, which is personal information
  • Patent Document 1 discloses a technique for generating a surgical image in which a patient's face is replaced with another person's face.
  • transmission of images showing the operative field may be prioritized, and transmission of images showing the patient's face may not be performed.
  • changes in the patient's face are important information for recognizing problems in diagnosis and the progress of surgery, there is a demand for a system that allows doctors in remote locations to know changes in the patient's face.
  • This technology has been developed in view of this situation, and enables the appropriate selection of the transmission method for information related to facial expressions.
  • the information processing apparatus is configured such that, when a surgical image requested from a remote terminal is a face image that may include a patient's face, the remote a transmission mode setting unit for setting a transmission mode based on transmission settings determined for a terminal; and information on the feature amount of the patient's face extracted from the facial image when the first transmission mode is set. to the remote terminal, and transmits the compressed face image to the remote terminal when a second transmission mode is set.
  • the surgical image requested to be transmitted is a facial image that may include the patient's face
  • a transmission destination of the facial image is determined.
  • the transmission mode is set based on the transmission setting, and the first transmission mode is set, the information of the facial feature amount of the patient extracted from the facial image is transmitted, and the second transmission mode is set.
  • a transmission data acquisition unit that acquires information transmitted from an information processing device that transmits the compressed face image; and a display control unit that displays information about the facial expression of the patient based on the acquired information.
  • a surgical image requested from a remote terminal is a facial image that may include a patient's face
  • the remote terminal to which the facial image is to be sent When a transmission mode is set based on the transmission setting determined by the first transmission mode and a first transmission mode is set, the information of the facial feature amount of the patient extracted from the facial image is transmitted to the remote terminal. and when the second transmission mode is set, the compressed facial image is transmitted to the remote terminal.
  • the transmission setting specified for the transmission destination of the facial image is When the transmission mode is set based on, and when the first transmission mode is set, the information of the facial feature amount of the patient extracted from the facial image is transmitted, and when the second transmission mode is set, compression The information transmitted from the information processing device that transmits the face image thus obtained is acquired, and information relating to the facial expression of the patient is displayed based on the acquired information.
  • FIG. 10 is a diagram showing a display example on a remote terminal;
  • FIG. 10 is a diagram showing an example of transmission settings;
  • It is a figure which shows the structural example of an operating room system.
  • It is a block diagram which shows the functional structural example of the operating room server which comprises an operating room system.
  • It is a figure which shows the example of extraction of the feature-value of a face.
  • It is a flow chart explaining processing of an operating room server.
  • 3 is a block diagram showing a functional configuration example of a remote terminal;
  • FIG. 4 is a flowchart describing processing of a remote terminal;
  • FIG. 10 is a diagram showing an example of another device that determines a face image;
  • FIG. 4 is a diagram showing an example of an IP converter that processes surgical images;
  • It is a figure showing other examples of composition of an information processing system concerning one embodiment of this art.
  • It is a block diagram which shows the structural example of the hardware of a computer.
  • FIG. 1 is a diagram illustrating a configuration example of an information processing system according to an embodiment of the present technology.
  • An information processing system is composed of an operating room system 1 and a remote terminal 2.
  • the information processing system of FIG. 1 can be used for so-called remote surgery in which, for example, a doctor in a remote location (user of the remote terminal 2) serves as a supervising doctor and instructs an operator in an operating room how to perform a surgery. system used.
  • the operating room system 1 is provided in a medical facility with an operating room, such as a hospital. As will be described later, the operating room system 1 is provided with a plurality of cameras such as a camera for photographing the surgical site and a camera for photographing the patient's face and the state of the operating room. Persons such as an operator and a patient shown in FIG. 1 do not constitute the operating room system 1 .
  • the remote terminal 2 is a terminal located away from the operating room.
  • the remote terminal 2 is composed of a PC, a tablet terminal, or the like.
  • the remote terminal 2 is operated by a doctor in a remote location as a user.
  • the remote terminal 2 may be used in various locations such as the user's home, a room in the medical facility where the operating room system 1 is located, and the like, as long as it is located away from the operating room. Communication is performed between the operating room system 1 and the remote terminal 2 via the Internet.
  • Communication between the operating room system 1 and the remote terminal 2 may be performed according to control by a server on the Internet. Although only one remote terminal 2 is shown in FIG. 1, a plurality of remote terminals 2 are connected to the operating room system 1 via the Internet.
  • an image showing the state during surgery captured by the camera # 1 that constitutes the operating room system 1 is transmitted to the remote terminal 2 .
  • the surgical video requested by the user of the remote terminal 2 is transmitted to the remote terminal 2 from among multiple surgical videos with different content captured by multiple cameras that configure the operating room system 1 .
  • Camera #1 shown in Figure 1 is a camera installed on the ceiling of the operating room. A surgical video imaged by camera #1 is output to IP converter #2 as indicated by arrow A1 in FIG.
  • the IP converter #2 IP-converts the surgical video supplied from the camera #1, and outputs the IP-converted surgical video to the operating room server 11.
  • the operating room server 11 determines whether or not the surgical video from the camera #1 supplied from the IP converter #2 is a video that may include the patient's face. As will be described later, the determination of the surgical image may be made in camera #1 or IP converter #2. Hereinafter, a surgical image that may include the patient's face will be referred to as a face image as appropriate.
  • the operating room server 11 transmits the facial image.
  • the transmission mode of the face image is set based on the transmission settings determined for the remote terminal 2 that is the destination.
  • the transmission setting is information that defines how to set the transmission mode. For example, transmission settings are prepared for each remote terminal 2 .
  • a first transmission mode and a second transmission mode are prepared as face image transmission modes.
  • the first transmission mode is a mode for transmitting information on the patient's facial feature amount extracted from the facial image.
  • the second transmission mode is a mode for transmitting compressed facial images.
  • a 4K resolution face image captured by camera #1 is converted (reduced in resolution) to an FHD (2K) resolution face image, and the face image obtained by the conversion is transmitted as a compressed face image.
  • the facial image is transmitted according to the transmission mode set by the operating room server 11. As indicated by an arrow A2, when the first transmission mode is set, the information of the patient's facial feature amount is transmitted to the remote terminal 2, and when the second transmission mode is set, the compression is performed. The later facial image will be transmitted to the remote terminal 2 .
  • the remote terminal 2 Upon receiving the information transmitted in the first transmission mode or the second transmission mode, the remote terminal 2 displays a screen including information on the patient's facial expression on the display based on the information transmitted from the operating room server 11. display.
  • FIG. 2 is a diagram showing a display example on the remote terminal 2. As shown in FIG. 1
  • the display 2A of the remote terminal 2 displays information transmitted from the operating room server 11 in various formats.
  • the screen shown in A of FIG. 2 is a screen displayed based on the information transmitted in the first transmission mode.
  • an avatar image P2 expressing the patient's facial expression is displayed together with the surgical field image P1.
  • the facial expression expressed by the avatar image P2 changes based on the information on the patient's face feature amount transmitted from the operating room server 11 .
  • the avatar image P2 is information about the patient's facial expression.
  • the patient's facial expression is presented to the user by the avatar image P2 on the remote terminal 2.
  • the patient's facial expression is presented to the user by changing the provided patient's facial image in accordance with the facial feature amount information. You may do so.
  • the screen shown in B of FIG. 2 is a screen displayed based on the information transmitted in the second transmission mode.
  • an image P11 obtained by restoring (increasing the resolution of) the compressed face image is displayed.
  • the image P11 shows the patient's face.
  • the remote terminal 2 restores the compressed facial image transmitted from the operating room server 11, and restores the compressed facial image.
  • the facial expression of the patient is presented to the user by displaying the facial image.
  • the user of the remote terminal 2 can see the image displayed on the display 2A, check the changes in the patient's face, and issue instructions to the operator in the operating room in real time.
  • FIG. 3 is a diagram showing an example of transmission settings.
  • the transmission setting is either the first transmission mode or the second transmission mode depending on the communication band between the operating room system 1 and the remote terminal 2 and the safety of the communication line. Indicates whether to set the transmission mode of
  • the second transmission mode is set as the transmission mode.
  • a wide communication band means, for example, that a value such as a transmission rate that indicates the state of the communication band is greater than a predetermined threshold.
  • a narrow communication band means that a value such as a transmission rate that indicates the state of the communication band is smaller than a predetermined threshold.
  • the fact that the safety of the communication line is secure means, for example, that the remote terminal 2 to which the facial image is to be sent is a terminal managed by the hospital (hospital cooperation terminal).
  • a VPN Virtual Private Network
  • the remote terminal 2 to which the facial image is to be sent is a hospital-linked terminal. If the remote terminal 2 to which the facial image is to be sent is not a hospital-collaborating terminal, the safety of the communication line is non-secure.
  • the first transmission mode is set as the transmission mode.
  • the first transmission mode is set as the transmission mode.
  • the first transmission mode is set as the transmission mode.
  • the threshold that serves as a reference for the communication band may be set in advance or may be set by the user.
  • transmission settings In addition to the communication band and the safety of the communication line, other conditions such as the presence or absence of patient consent may be stipulated by transmission settings. That is, at least one of the state of the communication band between the operating room system 1 and the remote terminal 2, the safety of the communication line, and the presence or absence of the patient's consent is used to define the contents of the transmission settings. Is possible.
  • the facial video is transmitted according to the transmission mode according to the situation such as the communication line. .
  • FIG. 4 is a diagram showing a configuration example of the operating room system 1 of FIG.
  • the operating room system 1 a group of devices installed in the operating room are connected to each other via an operating room server 11 and an IP switch (SW) 12 so as to be able to cooperate with each other.
  • the operating room system 1 is composed of an IP (Internet Protocol) network capable of transmitting/receiving 4K/8K images, and input/output images and control information for each device are transmitted/received via the IP network.
  • IP Internet Protocol
  • a group of devices 13 for endoscopic surgery a ceiling camera 14 for photographing the operator's hand, an operating field camera 15 for photographing the entire operating room, display devices 16A to 16D, A patient bed 17 and lighting 18 are shown. Both the ceiling camera 14 and the operating field camera 15 are provided on the ceiling of the operating room.
  • the device group 13 may be applied with various medical devices for acquiring images, such as a master-slave endoscopic surgical robot and an X-ray imaging device.
  • the display devices 16A to 16C, the device group 13, the ceiling camera 14, the surgical site camera 15, and the IP SW 12 are connected via IP converters 19A to 19F, respectively.
  • the IP converters 19A to 19F are simply referred to as the IP converter 19 when not distinguished from each other.
  • IP converters 19D, 19E, and 19F which are IP converters 19 on the input source side (camera side) for inputting images, are connected to individual medical imaging devices (endoscopes, surgical microscopes, X-ray imaging devices, surgical field cameras, pathological Image capture device, etc.) is IP-converted and sent over the network.
  • endoscopes surgical microscopes, X-ray imaging devices, surgical field cameras, pathological Image capture device, etc.
  • IP converters 19D, 19E, and 19F correspond to the IP converter #2 in FIG.
  • the IP converters 19A to 19C which are the IP converters 19 on the image output side (monitor side) that output images, convert the images transmitted via the network into a monitor-specific format and output them.
  • the IP converter 19 on the input source side functions as an encoder
  • the IP converter 19 on the image output side functions as a decoder.
  • Input sources include, for example, video sources.
  • the IP converter 19 can be equipped with various image processing functions.
  • the IP converter 19 can have a function of executing resolution conversion processing according to the output destination, rotation correction and camera shake correction of an endoscopic image, object recognition processing, and the like.
  • the IP converter 19 on the image output side can synthesize a plurality of images (such as PinP processing) and superimpose annotation information.
  • the protocol conversion function of the IP converter 19 is a function that converts the received signal into a converted signal conforming to a communication protocol that can be communicated on a network such as the Internet. Any communication protocol may be set as the communication protocol. Also, the protocol-convertible signal received by the IP converter 19 is a digital signal, such as an image signal or a pixel signal. The IP converter 19 may be incorporated inside the device on the input source side or inside the device on the image output side.
  • the device group 13 belongs to, for example, an endoscopic surgery system, and includes an endoscope and a display device that displays images captured by the endoscope.
  • the display devices 16A to 16D, the patient bed 17, and the lighting 18 are devices installed in the operating room separately from the endoscopic surgery system. Each device used for these surgeries or diagnoses is also called a medical device.
  • the operating room server 11 and/or IP SW 12 cooperatively control the operations of these medical devices. If the operating room includes a surgical robot (surgical master-slave) system and a medical image acquisition device such as an X-ray imaging device, these devices are also connected as the device group 13 .
  • the device group 13, the ceiling camera 14, and the operating field camera 15 are devices having a function of transmitting information to be displayed during surgery (hereinafter also referred to as display information).
  • display information hereinafter also referred to as a source device.
  • the display devices 16A to 16D are devices to which display information is output (hereinafter also referred to as output destination devices).
  • the operating room server 11 comprehensively controls the processing within the operating room system 1 .
  • the operating room server 11 has a function of controlling the operations of the source device and the output destination device, acquiring display information from the source device, and transmitting the display information to the output destination device for display or recording.
  • the display information includes various images taken during surgery, various information related to surgery (for example, patient's physical information, past examination results, information on surgical procedure), and the like.
  • the operating room server 11 As display information from the device group 13, information about the image of the surgical site within the patient's body cavity captured by the endoscope is transmitted. In addition, to the operating room server 11, as display information from the ceiling camera 14, information about an image of the operator's hand captured by the ceiling camera 14 is transmitted. Further, to the operating room server 11, as display information from the operating site camera 15, information about an image showing the state of the entire operating room captured by the operating site camera 15 is transmitted. If there are other devices having imaging functions in the operating room system 1, the operating room server 11 also acquires information about images captured by these other devices from those other devices as display information. You may
  • the operating room server 11 causes at least one of the display devices 16A to 16D, which are output destination devices, to display the acquired display information (that is, images captured during surgery and various types of information related to surgery).
  • the display device 16A is a display device that is installed by being suspended from the ceiling of the operating room
  • the display device 16B is a display device that is installed on the wall surface of the operating room.
  • the display device 16C is a display device installed on a desk in the operating room
  • the display device 16D is a mobile device (for example, a tablet PC (Personal Computer) or a smartphone) having a display function.
  • the operating room server 11 also processes surgical images to be transmitted to the remote terminal 2 .
  • the IP SW 12 is configured as one of the input/output controllers that control the input/output of image signals to the connected equipment.
  • the IP SW 12 controls input/output of image signals under the control of the operating room server 11 .
  • the IP SW 12 controls high-speed transfer of image signals between devices arranged on the IP network.
  • the operating room system 1 may include devices outside the operating room.
  • Devices outside the operating room include, for example, servers connected to networks built inside and outside the hospital, PCs used by medical staff, projectors installed in hospital conference rooms, and the like. If such an external device is located outside the hospital, the operating room server 11 can also display the display information on a display device in another hospital via a teleconferencing system or the like for telemedicine.
  • the external server 20 communicates with, for example, an in-hospital server outside the operating room and the remote terminal 2 .
  • Image information in the operating room is transmitted to the remote terminal 2 via the external server 20 .
  • the data to be transmitted may be surgical images themselves such as those from an endoscope, metadata extracted from images, data indicating the operation status of connected equipment, and the like.
  • the IP network may be configured as a wired network, or part or all of the IP network may be configured as a wireless network.
  • the IP converter 19 on the input source side having a wireless communication function outputs the received image via a wireless communication network such as the 5th generation mobile communication system (5G) or the 6th generation mobile communication system (6G). may be sent to the IP converter 19 on the side.
  • 5G 5th generation mobile communication system
  • 6G 6th generation mobile communication system
  • FIG. 5 is a block diagram showing a functional configuration example of the operating room server 11 that configures the operating room system 1. As shown in FIG.
  • an information processing unit 51 is implemented in the operating room server 11 .
  • Each function shown in FIG. 5 is realized by executing a predetermined program by the CPU of the computer that constitutes the operating room server 11 .
  • the operating room server 11 is an information processing device having an information processing section 51 .
  • the information processing section 51 is composed of a face image recognition section 101 , a transmission mode setting section 102 , an image processing section 103 and a transmission control section 104 . Surgical images captured by a plurality of cameras installed in the operating room are supplied to the facial image recognition unit 101 and the image processing unit 103 .
  • the facial image recognition unit 101 determines whether each surgical image transmitted from a plurality of cameras is a facial image.
  • the face image is a surgical image that may show the patient's face.
  • ⁇ Method 1 for judging facial images When the IP converter 19 is connected to a device such as a camera, device data, which is information about the connected device, is transmitted from the device to the IP converter 19 .
  • the equipment data received by the IP converter 19 is transmitted from the IP converter 19 to the operating room server 11 and supplied to the facial image recognition unit 101 .
  • the face image recognition unit 101 Based on the device data transmitted from the IP converter 19, the face image recognition unit 101 identifies which device (camera) is the transmission source of the surgical image to be determined, and recognizes the surgical image. Whether or not it is a face image is determined according to the type of transmission source device.
  • the device data includes information indicating the type of device that is the transmission source of the surgical image. For example, when the device that transmits the surgical image is the surgical field camera 15 that captures the range including the patient bed 17, it is determined that the surgical image to be determined is a face image.
  • Whether or not the surgical video is a face video may be determined based on the metadata of the surgical video.
  • Metadata such as DICOM (Digital Imaging and Communications in Medicine) attached to surgical images includes information indicating the type of device that is the transmission source of the surgical images.
  • the IP converter 19 may add the type of equipment used to capture surgical images as metadata. As a result, when it is known in advance which device is used to image the patient, the surgical image transmitted from the relevant device is determined to be the face image.
  • the determination of whether or not the surgical video is a face video may be made using both the device data and the metadata attached to the surgical video. That is, the facial image recognition unit 101 can determine whether or not the surgical image is a facial image based on at least one of the equipment data and the metadata attached to the surgical image. It is possible.
  • the facial image recognition unit 101 analyzes the surgical image and determines whether or not the target surgical image is a facial image based on the analysis result. In this case, for example, face recognition is performed on each frame that constitutes a surgical video, and if a face is recognized, the target surgical video is determined to be a facial video.
  • the face image recognition unit 101 determines whether or not the image is a face image based on the selection result of the image showing the patient's face. In this case, for example, a user such as an operator selects which surgical image is an image showing the patient's face. In this manner, whether or not the image is a face image may be determined based on the user's selection result.
  • Information indicating the result of determination by the method described above is output from the face image recognition unit 101 to the transmission mode setting unit 102 and the image processing unit 103 .
  • a plurality of determination methods may be combined to determine whether or not the image is a face image.
  • the transmission mode setting unit 102 identifies which of the surgical images supplied from the IP converter 19 is the facial image based on the determination result of the facial image recognition unit 101 .
  • the transmission mode setting unit 102 sets the first transmission mode or the second transmission mode as the transmission mode of each face image.
  • the terminal identification number of the remote terminal 2 used by a doctor in a remote location is linked to the information indicating the content of the transmission settings and managed.
  • the contents of the transmission settings include the state of the communication band between the operating room server 11 and the remote terminal 2, whether or not the patient consents, and whether or not the remote terminal 2 is a hospital cooperation terminal. defined by at least one of
  • the transmission mode setting unit 102 checks the communication state between the operating room server 11 and the remote terminal 2 and determines the communication band state (wide/narrow).
  • ⁇ Presence or absence of consent from the patient In general surgery, confirmation of the patient's consent regarding the release of surgical images, which can be said to be personal information, is performed before surgery.
  • the patient's consent to the handling of personal information is recorded in an electronic medical record, etc., and managed in a database.
  • the transmission mode setting unit 102 for example, cooperates with a device (not shown in FIG. 4) that manages the database to refer to the electronic medical record and confirms the presence or absence of the patient's consent.
  • the second transmission mode is appropriately set according to the state of the communication band, whether it is a hospital-linked terminal, etc.
  • the transmission mode setting unit 102 determines whether or not the remote terminal 2 to which the face image is to be transmitted is a hospital-collaborating terminal. If the remote terminal 2 to which the facial image is to be sent is a hospital-collaborating terminal, it is determined that the remote terminal 2 is a secure terminal (a terminal whose communication line is secure).
  • the hospital It is determined to be a linked terminal.
  • the transmission mode setting unit 102 sets the transmission mode as described with reference to FIG. 3 based on the content of such transmission settings. Information on the transmission mode of each face image set by the transmission mode setting unit 102 is output to the image processing unit 103 .
  • the image processing unit 103 is composed of a face feature extraction unit 131 and an image compression unit 132 .
  • the facial feature amount extraction unit 131 analyzes the facial image and extracts the patient's facial feature amount.
  • FIG. 6 is a diagram showing an example of facial feature amount extraction by the facial feature amount extraction unit 131.
  • FIG. 6 is a diagram showing an example of facial feature amount extraction by the facial feature amount extraction unit 131.
  • information on the position of each part of the patient's face, information on the contour of the face (contour data), etc. are extracted as feature quantities.
  • small colored circles represent positions at which feature values are extracted. If there is a risk that an individual may be identified if the patient's facial contour feature amount is used as is, it may be replaced with a standard facial feature amount and transmitted to the remote terminal 2 .
  • Such feature amount information extracted by analyzing the face image is output to the transmission control unit 104 .
  • the facial expression categories classified based on the features extracted by analyzing the facial video may be output to the transmission control unit 104 as facial feature amounts. Categories of facial expressions include, for example, resting facial expressions, slightly distressed facial expressions, and very distressed facial expressions.
  • the degree of anguish may be calculated based on facial features, and the categories of facial expressions may be classified based on the calculated degree of anguish. Further, the degree of anguish calculated based on the features may be output to the transmission control unit 104 as the feature amount of the face.
  • the image compression unit 132 compresses the facial image.
  • the surgical video sent to the operating room server 11 is, for example, video with a large amount of data such as 4K video or RAW video.
  • the second transmission mode is set as the facial image transmission mode, for example, compression processing is performed to reduce the resolution of a 4K resolution facial image to an FHD resolution facial image.
  • the face video compressed by the video compression unit 132 is output to the transmission control unit 104.
  • the surgical image to be transmitted is appropriately compressed by the image compression unit 132 and output to the transmission control unit 104 .
  • the transmission control unit 104 transmits the facial feature amount information supplied from the facial feature amount extraction unit 131 to the remote terminal 2. to send.
  • the transmission control unit 104 transmits the compressed facial image supplied from the image compression unit 132 to the remote terminal 2. Send.
  • step S1 the facial image recognition unit 101 performs facial image recognition processing on surgical images captured by each camera.
  • step S2 the facial image recognition unit 101 determines whether or not the surgical image selected as a transmission target is a facial image.
  • step S3 the transmission mode setting unit 102 specifies the communication line status and the like, and sets the transmission mode for the face image to be transmitted.
  • the facial feature quantity extraction unit 131 analyzes the facial video and extracts the patient's facial feature quantity in step S4.
  • step S ⁇ b>5 the transmission control unit 104 transmits the facial feature amount information to the remote terminal 2 .
  • the remote terminal 2 displays an avatar image that expresses the patient's facial expression based on the facial feature amount information.
  • step S3 when the second transmission mode is set in step S3, the image compression unit 132 compresses the face image in step S6.
  • step S7 the transmission control unit 104 transmits the compressed facial image to the remote terminal 2.
  • the remote terminal 2 an image showing the patient's face is displayed based on the reconstructed face image.
  • step S2 when it is determined in step S2 that the image is not a face image, the transmission control unit 104 transmits the appropriately compressed surgical image to the remote terminal 2 in step S8.
  • step S5 The transmission of feature amount information in step S5 and the transmission of surgical images in steps S7 and S8 continue while the face image is being transmitted. For example, when the user of the remote terminal 2 selects to end transmission of surgical images, the processing in FIG. 7 ends.
  • the operating room server 11 can appropriately select the transmission method of the information regarding the patient's facial expression.
  • FIG. 8 is a block diagram showing a functional configuration example of the remote terminal 2. As shown in FIG. Each function shown in FIG. 8 is realized by executing a predetermined program by the CPU of the computer that constitutes the remote terminal 2 .
  • a transmission data acquisition unit 201 In the remote terminal 2, a transmission data acquisition unit 201, a video processing unit 202, and a display control unit 203 are implemented.
  • the transmission data acquisition unit 201 controls the communication module provided in the remote terminal 2 and acquires information transmitted from the operating room server 11 .
  • the transmission data acquisition unit 201 acquires information on the facial feature amount transmitted from the operating room server 11 . Further, when the second transmission mode is set as the face image transmission mode, the transmission data acquisition unit 201 acquires the compressed face image transmitted from the operating room server 11 .
  • the transmission data acquisition unit 201 outputs the information of the facial feature amount to the display control unit 203 and outputs the compressed face video to the video processing unit 202 .
  • the transmission data acquisition unit 201 outputs the acquired surgical image to the image processing unit 202 .
  • the surgical image transmitted from the operating room server 11 is a facial image
  • the video processing unit 202 performs restoration processing on the face video supplied from the transmission data acquisition unit 201. Reconstruction of high-resolution facial images is performed, for example, using an inference model generated by machine learning. In this case, the video processing unit 202 is prepared in advance with an inference model configured by a neural network or the like, which receives a low-resolution face video and outputs a high-resolution face video. Also, the restoration of the high-resolution face image may be performed using super-resolution processing.
  • the facial image restored by the image processing unit 202 is output to the display control unit 203 .
  • the display control unit 203 causes the display to display an avatar image with a different facial expression based on the facial feature amount information supplied from the transmission data acquisition unit 201 . Further, when the patient's face image is provided, the display control unit 203 changes the patient's face image in accordance with the information of the facial feature amount and displays it on the display.
  • the display control unit 203 causes the display to display the restored high-resolution face image supplied from the image processing unit 202 .
  • step S ⁇ b>11 the transmission data acquisition unit 201 acquires transmission data transmitted from the operating room server 11 .
  • step S12 the transmission data acquisition unit 201 determines whether or not the data transmitted from the operating room server 11 is information on the patient's facial feature amount.
  • step S12 When it is determined in step S12 that the data transmitted from the operating room server 11 is information on the facial feature amount of the patient, in step S13, the display control unit 203, based on the information on the facial feature amount, Video processing for displaying avatar images, etc. is performed.
  • step S14 the display control unit 203 causes the display to display the avatar image generated by the video processing.
  • step S12 determines whether the data transmitted from the operating room server 11 is not the information of the patient's facial feature amount.
  • the video processing unit 202 receives the data supplied from the transmission data acquisition unit 201 in step S15. Restoration processing is performed on the face image. After the process of step S15 is performed, the process proceeds to step S14. In step S14, the high-resolution facial image obtained by the restoration process is displayed on the display.
  • the user of the remote terminal 2 at a remote location can see the image displayed on the display, confirm the change in the patient's face, and issue instructions to the operator in the operating room in real time. be able to.
  • ⁇ Modification>> ⁇ Regarding the second transmission mode>
  • the first transmission mode is set as the facial image transmission mode
  • the transmission mode may be switched from the first transmission mode to the second transmission mode.
  • the transmission mode setting unit 102 determines the state of the communication band and the presence or absence of patient consent as described above.
  • the transmission mode setting unit 102 switches the transmission mode of the facial image from the first transmission mode to the second transmission mode, and compresses the facial image. to start sending
  • the operating room server 11 transmits a facial image to the remote terminal 2 .
  • Transmitting a facial image instead of information on the facial features of the patient enables a doctor at a remote location to grasp the patient's facial expression more accurately.
  • the transmission mode When the first transmission mode is set as the facial video transmission mode, and information about the degree of agony is transmitted to the remote terminal 2 as the information on the feature amount of the face, the degree of agony is greater than a certain threshold. When this occurs, the transmission mode may be switched from the first transmission mode to the second transmission mode.
  • the user of the remote terminal 2 can more quickly notice changes in the patient's condition by starting to transmit facial images when the degree of anguish exceeds a certain threshold.
  • a third transmission mode may be provided, which is a transmission mode in which the information on the facial feature amount and the compressed facial image are not transmitted to the remote terminal 2 . For example, switching from the first transmission mode or the second transmission mode to the third transmission mode if the distress level is less than a certain threshold.
  • the compression ratio and frame rate may be changed according to the state of the communication band.
  • FIG. 10 is a diagram showing an example of another device that determines face images.
  • determination of the face image may be performed in camera #1.
  • the face image recognition unit 101 is realized by the camera #1.
  • face video determination may be performed in IP converter #2.
  • the face image recognition unit 101 is realized by the IP converter #2.
  • the facial image recognition unit 101 provided in the camera #1 and the IP converter #2 also determines whether or not it is a facial image in the same manner as the facial image recognition unit 101 of the operating room server 11 (FIG. 5).
  • FIG. 11 is a diagram showing an example of IP converter #2 that processes surgical images.
  • the video processing unit 103 is realized by the IP converter #2.
  • the image processing unit 103 provided in the IP converter #2 also processes the surgical image in the same manner as the image processing unit 103 of the operating room server 11 (FIG. 5).
  • the IP converter #2 in FIG. 12 performs video processing such as extraction and compression of facial features on the facial video supplied from camera #1.
  • the IP converter # 2 IP-converts the transmission data obtained by the video processing and transmits the data to the remote terminal 2 .
  • At least part of the functional units that make up the information processing unit 51 can be implemented in devices other than the operating room server 11 .
  • At least some of the functional units that configure the information processing unit 51 may be implemented in another device such as a server on the cloud.
  • the facial image recognition unit 101 of the operating room server 11 measures the reliability of extraction of the facial feature quantity. If the measured reliability is smaller than a certain threshold, an alert (warning information) indicating detection of an abnormality is sent to, for example, the remote terminal 2 together with the facial feature amount information.
  • the alert sent to the remote terminal 2 is an alert indicating that the facial feature quantity may not be accurate.
  • An alert indicating that the facial feature amount could not be extracted may be sent without sending the facial feature amount information.
  • An alert recommending switching the transmission mode from the first transmission mode to the second transmission mode may be generated and transmitted to the remote terminal 2 .
  • the facial feature amount extraction period may not be constant, but may be changed according to changes in the patient's facial feature amount. For example, when the patient's degree of anguish is high, the extraction period is shortened, and feature amounts are extracted for all frames. The value of the extraction cycle may be changed according to the urgency of surgery and the state of the communication band.
  • the power consumption of the camera may be reduced by outputting a face image when the feature amount changes significantly.
  • the degree of agony is calculated on the image sensor based on the feature amount of the face
  • the information of the feature amount of the face and the facial image are output from the camera only when the degree of agony is greater than a certain threshold.
  • the frame rate of the face image may be set high only when the degree of anguish is greater than a certain threshold.
  • the surgical video may be stored on any server along with the analysis results of changes in facial feature values. As a result, even after the day of the surgery, it is possible to replace the face image with the avatar image, and to maintain anonymity for secondary use.
  • the present technology can also be applied when transmitting images other than surgical images to the remote terminal 2 located remotely.
  • this technology can be applied to transmitting face images taken by security cameras installed in urban areas or by cameras installed in live venues.
  • the presentation of information related to the facial expression of a person reflected in the face image may be performed using other transmission means such as audio output, LED light emission, etc., instead of using screen display.
  • the series of processes described above can be executed by hardware or by software.
  • a program that constitutes the software is installed from a program recording medium into a computer built into dedicated hardware or a general-purpose personal computer.
  • FIG. 13 is a block diagram showing an example of the hardware configuration of a computer that executes the series of processes described above by a program.
  • the remote terminal 2 and operating room server 11 each have the same configuration as the configuration shown in FIG.
  • a CPU Central Processing Unit
  • ROM Read Only Memory
  • RAM Random Access Memory
  • An input/output interface 1005 is further connected to the bus 1004 .
  • An input unit 1006 , an output unit 1007 , a storage unit 1008 , a communication unit 1009 and a drive 1010 are connected to the input/output interface 1005 .
  • a drive 1010 drives a removable medium 1011 such as a magnetic disk, optical disk, magneto-optical disk, or semiconductor memory.
  • the CPU 1001 loads, for example, a program stored in the storage unit 1008 into the RAM 1003 via the input/output interface 1005 and the bus 1004, and executes the above-described series of processes. is done.
  • Programs executed by the CPU 1001 are, for example, recorded on a removable medium 1011 or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting, and installed in the storage unit 1008.
  • the program executed by the computer may be a program that is processed in chronological order according to the order described in this specification, or may be executed in parallel or at a necessary timing such as when a call is made. It may be a program in which processing is performed.
  • Embodiments of the present technology are not limited to the above-described embodiments, and various modifications are possible without departing from the gist of the present technology.
  • this technology can take the configuration of cloud computing in which a single function is shared by multiple devices via a network and processed jointly.
  • each step described in the flowchart above can be executed by a single device, or can be shared by a plurality of devices.
  • one step includes multiple processes
  • the multiple processes included in the one step can be executed by one device or shared by multiple devices.
  • the present technology can also take the following configurations.
  • the surgical image requested by the remote terminal is a facial image that may include the patient's face
  • the facial image is transmitted based on transmission settings determined for the remote terminal to which the facial image is to be transmitted.
  • a transmission mode setting unit for setting a mode;
  • the first transmission mode is set, the information of the facial feature amount of the patient extracted from the facial image is transmitted to the remote terminal, and when the second transmission mode is set, the information is compressed.
  • a transmission control unit configured to transmit the facial image to the remote terminal.
  • the transmission setting is determined by at least one of the communication band status, the presence or absence of patient consent, and whether or not the remote terminal is a hospital cooperation terminal.
  • (1) or (2) The information processing device described.
  • (4) The (1 ) to (3).
  • the video processing unit extracts contour data of the patient's face as the feature amount.
  • the video processing unit extracts, as the feature quantity, a category of facial expressions classified based on the facial features of the patient.
  • the video processing unit classifies the facial expressions into categories based on the degree of agony according to the facial features of the patient.
  • the transmission mode setting unit according to any one of (1) to (7), wherein the transmission mode setting unit switches the transmission mode from the first transmission mode to the second transmission mode based on a request from the remote terminal.
  • Information processing equipment (9)
  • the facial image recognition unit determines whether the patient's face is shown in the surgical image based on at least one of information of equipment that captures the surgical image and metadata attached to the facial image.
  • the information processing apparatus according to any one of (2) to (8) above.
  • Device The information processing according to any one of (2) to (8), wherein the face image recognition unit determines whether or not the patient's face is reflected in the surgical image based on an analysis result of the surgical image.
  • the information processing apparatus determines whether or not the patient's face appears in the surgical image based on a user's selection result.
  • the information processing device When the surgical image requested by the remote terminal is a facial image that may include the patient's face, the facial image is transmitted based on transmission settings determined for the remote terminal to which the facial image is to be transmitted. set the mode, when the first transmission mode is set, transmitting to the remote terminal information on the facial feature amount of the patient extracted from the facial image; An information processing method, wherein, when a second transmission mode is set, the compressed facial image is transmitted to the remote terminal.
  • the surgical image requested by the remote terminal is a facial image that may include the patient's face
  • the facial image is transmitted based on transmission settings determined for the remote terminal to which the facial image is to be transmitted. set the mode, when the first transmission mode is set, transmitting to the remote terminal information on the facial feature amount of the patient extracted from the facial image;
  • the transmission mode is set based on the transmission settings determined for the transmission destination of the facial image, and An information processing apparatus that transmits information of the facial feature amount of the patient extracted from the facial image when the first transmission mode is set, and transmits the compressed facial image when the second transmission mode is set.
  • a transmission data acquisition unit for acquiring information transmitted from An information processing terminal comprising: a display control unit that displays information about the facial expression of the patient based on the acquired information.
  • the display control unit changes the display of the avatar image based on the information of the facial feature amount of the patient acquired when the first transmission mode is set. processing terminal.
  • the display control unit changes the image of the patient's face based on the information of the patient's face feature amount acquired when the first transmission mode is set. information processing terminal. (17) further comprising an image processing unit that restores the compressed facial image acquired when the second transmission mode is set; The information processing terminal according to any one of (14) to (16), wherein the display control unit displays the face image after restoration as the information about the facial expression of the patient.
  • the information processing terminal If the surgical image requested to be transmitted is a facial image that may include the patient's face, the transmission mode is set based on the transmission settings determined for the transmission destination of the facial image, An information processing apparatus that transmits information on the feature amount of the patient's face extracted from the facial image when the first transmission mode is set, and transmits the compressed facial image when the second transmission mode is set. Get information sent from An information processing method for displaying information about the facial expression of the patient based on the acquired information.
  • the transmission mode is set based on the transmission settings determined for the transmission destination of the facial image, An information processing apparatus that transmits information on the feature amount of the patient's face extracted from the facial image when the first transmission mode is set, and transmits the compressed facial image when the second transmission mode is set. Get information sent from A program for executing a process of displaying information about the patient's facial expression based on the acquired information. (20) When the image requested by the remote terminal is a face image that may include a person's face, a transmission mode based on transmission settings determined for the remote terminal to which the face image is to be transmitted.
  • a transmission mode setting unit for setting the When the first transmission mode is set, the information of the feature amount of the person's face extracted from the face image is transmitted to the remote terminal, and when the second transmission mode is set, the information is compressed. and a transmission control unit configured to transmit the facial image to the remote terminal.
  • 1 operating room system 1 remote terminal, 11 operating room server, 51 information processing unit, 101 facial image recognition unit, 102 transmission mode setting unit, 103 image processing unit, 104 transmission control unit, 131 facial feature amount extraction unit, 132 image compression unit, 201 transmission data acquisition unit, 202 video processing unit, 203 display control unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Abstract

本技術は、表情に関する情報の伝送方式を適切に選択することができるようにする情報処理装置、情報処理端末、情報処理方法、およびプログラムに関する。 本技術の第1の側面の情報処理装置は、リモート端末から要求された手術映像が、患者の顔が映っている可能性がある顔映像である場合、顔映像の送信先となるリモート端末に対して定められた送信設定に基づいて送信モードを設定し、第1の送信モードが設定された場合、顔映像から抽出された患者の顔の特徴量の情報をリモート端末に対して送信し、第2の送信モードが設定された場合、圧縮した顔映像をリモート端末に対して送信する。本技術は、手術室にいる術者に対して遠隔地から手術の仕方を指導するリモート手術のシステムに適用することができる。

Description

情報処理装置、情報処理端末、情報処理方法、およびプログラム
 本技術は、情報処理装置、情報処理端末、情報処理方法、およびプログラムに関し、特に、表情に関する情報の伝送方式を適切に選択することができるようにした情報処理装置、情報処理端末、情報処理方法、およびプログラムに関する。
 遠隔地にいる医師が、手術室で行われている手術のリアルタイム映像を見て、手術室にいるスタッフに指示や助言を行うリモート手術が提案されている。リアルタイム映像に患者の個人情報となる顔が映っている場合、個人情報保護の観点から、病院外である遠隔地にいる医師に患者の顔の情報を共有してよいかどうかの判断が必要になることがある。
 特許文献1には、患者の顔を別の人の顔に置き換えた手術映像を生成する技術が開示されている。
国際公開第2019/244896号
 手術映像の送受信においては、個人情報の保護ととともに、通信の状況などの様々な状況に対応して適切な映像の送受信を行うことも求められる。
 例えば、遠隔地と手術室との間の通信帯域によっては、術野が映る映像の送信が優先され、患者の顔が映る映像の送信が行われない場合がある。しかしながら、患者の顔の変化は、診断や手術の進行の問題を認識するにあたって重要な情報であるため、遠隔地の医師が患者の顔の変化を知ることができるシステムが望まれている。
 本技術はこのような状況に鑑みてなされたものであり、表情に関する情報の伝送方式を適切に選択することができるようにするものである。
 本技術の第1の側面の情報処理装置は、リモート端末から要求された手術映像が、患者の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先となる前記リモート端末に対して定められた送信設定に基づいて送信モードを設定する送信モード設定部と、第1の送信モードが設定された場合、前記顔映像から抽出された前記患者の顔の特徴量の情報を前記リモート端末に対して送信し、第2の送信モードが設定された場合、圧縮した前記顔映像を前記リモート端末に対して送信する送信制御部とを備える。
 本技術の第2の側面の情報処理端末は、送信が要求された手術映像が、患者の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先に対して定められた送信設定に基づいて送信モードを設定し、第1の送信モードを設定した場合、前記顔映像から抽出された前記患者の顔の特徴量の情報を送信し、第2の送信モードを設定した場合、圧縮した前記顔映像を送信する情報処理装置から送信されてきた情報を取得する送信データ取得部と、取得された情報に基づいて、前記患者の表情に関する情報を表示させる表示制御部とを備える。
 本技術の第1の側面においては、リモート端末から要求された手術映像が、患者の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先となる前記リモート端末に対して定められた送信設定に基づいて送信モードが設定され、第1の送信モードが設定された場合、前記顔映像から抽出された前記患者の顔の特徴量の情報が前記リモート端末に対して送信され、第2の送信モードが設定された場合、圧縮した前記顔映像が前記リモート端末に対して送信される。
 本技術の第2の側面においては、送信が要求された手術映像が、患者の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先に対して定められた送信設定に基づいて送信モードを設定し、第1の送信モードを設定した場合、前記顔映像から抽出された前記患者の顔の特徴量の情報を送信し、第2の送信モードを設定した場合、圧縮した前記顔映像を送信する情報処理装置から送信されてきた情報が取得され、取得された情報に基づいて、前記患者の表情に関する情報が表示される。
本技術の一実施形態に係る情報処理システムの構成例を示す図である。 リモート端末における表示例を示す図である。 送信設定の例を示す図である。 手術室システムの構成例を示す図である。 手術室システムを構成する手術室サーバの機能構成例を示すブロック図である。 顔の特徴量の抽出の例を示す図である。 手術室サーバの処理について説明するフローチャートである。 リモート端末の機能構成例を示すブロック図である。 リモート端末の処理について説明するフローチャートである。 顔映像の判定を行う他の機器の例を示す図である。 手術映像の処理を行うIPコンバータの例を示す図である。 本技術の一実施形態に係る情報処理システムの他の構成例を示す図である。 コンピュータのハードウェアの構成例を示すブロック図である。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.本技術の概要
 2.手術室システムの構成と動作
 3.リモート端末の構成と動作
 4.変形例
<<本技術の概要>>
<情報処理システムの構成>
 図1は、本技術の一実施形態に係る情報処理システムの構成例を示す図である。
 本技術の一実施形態に係る情報処理システムは、手術室システム1とリモート端末2により構成される。図1の情報処理システムは、例えば、遠隔地にいる医師(リモート端末2のユーザ)が指導医となって、手術室にいる術者に対して手術の仕方を指導したりするいわゆるリモート手術に用いられるシステムである。
 手術室システム1は、病院などの、手術室がある医療施設内に設けられる。後述するように、手術室システム1には、術部を撮影するカメラ、患者の顔や手術室の様子を撮影するカメラなどの複数台のカメラが設けられる。図1に示す、術者、患者などの人物は手術室システム1を構成するものではない。
 リモート端末2は、手術室から離れた位置にある端末である。リモート端末2は、PC、タブレット端末などにより構成される。例えば、遠隔地にいる医師がユーザとなってリモート端末2の操作が行われる。手術室から離れた位置であれば、ユーザの自宅、手術室システム1がある医療施設内の部屋などの様々な位置でリモート端末2が使用されるようにしてもよい。手術室システム1とリモート端末2との間では、インターネットを介して通信が行われる。
 手術室システム1とリモート端末2の間の通信が、インターネット上のサーバによる制御に従って行われるようにしてもよい。なお、図1にはリモート端末2が1台しか示されていないが、複数台のリモート端末2がインターネットを介して手術室システム1に接続される。
 このような構成を有する情報処理システムにおいては、手術室システム1を構成するカメラ#1によって撮影された手術中の様子が映る映像が、リモート端末2に対して送信される。例えば、手術室システム1を構成する複数台のカメラによって撮影された、それぞれ異なる内容の複数の手術映像のうち、リモート端末2のユーザが要求する手術映像がリモート端末2に対して送信される。
 図1に示すカメラ#1は、手術室の天井に設置されたカメラである。カメラ#1によって撮影された手術映像は、図1の矢印A1で示すようにIPコンバータ#2に出力される。
 IPコンバータ#2は、カメラ#1から供給された手術映像に対してIP変換を行い、IP変換後の手術映像を手術室サーバ11に出力する。
 手術室サーバ11は、IPコンバータ#2から供給されたカメラ#1の手術映像が、患者の顔が映っている可能性がある映像であるか否かを判定する。後述するように、手術映像に対する判定が、カメラ#1やIPコンバータ#2において行われるようにしてもよい。以下、適宜、患者の顔が映っている可能性がある手術映像を顔映像という。
 カメラ#1の手術映像が顔映像であると判定し、かつ、カメラ#1の手術映像(顔映像)の送信がリモート端末2から要求されている場合、手術室サーバ11は、顔映像の送信先となるリモート端末2に対して定められた送信設定に基づいて、顔映像の送信モードを設定する。送信設定は、送信モードの設定の仕方を規定する情報である。例えば、送信設定がリモート端末2毎に用意される。
 顔映像の送信モードには、例えば、第1の送信モードと第2の送信モードが用意される。
 第1の送信モードは、顔映像から抽出された、患者の顔の特徴量の情報を送信するモードである。
 第2の送信モードは、圧縮した顔映像を送信するモードである。例えば、カメラ#1により撮影された4K解像度の顔映像がFHD(2K)解像度の顔映像に変換(低解像度化)され、変換によって得られた顔映像が圧縮後の顔映像として送信される。
 手術室サーバ11により設定された送信モードに従って、顔映像の送信が行われる。矢印A2に示すように、第1の送信モードが設定されている場合、患者の顔の特徴量の情報がリモート端末2に対して送信され、第2の送信モードが設定されている場合、圧縮後の顔映像がリモート端末2に対して送信されることになる。
 第1の送信モードまたは第2の送信モードで送信されてきた情報を受信したリモート端末2は、手術室サーバ11から送信されてきた情報に基づいて、患者の表情に関する情報を含む画面をディスプレイに表示させる。
<リモート端末2における表示例>
 図2は、リモート端末2における表示例を示す図である。
 図2に示すように、リモート端末2のディスプレイ2Aには、手術室サーバ11から送信されてきた情報が様々な形式で表示される。
 図2のAに示す画面は、第1の送信モードによって送信されてきた情報に基づいて表示される画面である。図2のAに示す画面においては、術野映像P1とともに、患者の表情を表現するアバター画像P2が表示されている。アバター画像P2が表現する表情は、手術室サーバ11から送信されてきた患者の顔の特徴量の情報に基づいて変化する。この例においては、アバター画像P2が、患者の表情に関する情報となる。
 このように、顔映像の送信が第1の送信モードで行われている場合、リモート端末2においては、アバター画像P2によって、患者の表情がユーザに提示される。患者の顔の画像がリモート端末2側にすでに提供されている場合、提供済みの患者の顔の画像を顔の特徴量の情報に合わせて変化させることによって、患者の表情がユーザに提示されるようにしてもよい。
 図2のBに示す画面は、第2の送信モードによって送信されてきた情報に基づいて表示される画面である。図2のBに示す画面においては、圧縮された顔映像を復元(高解像度化)して得られた映像P11が表示されている。映像P11には患者の顔が映っている。
 このように、顔映像の送信が第2の送信モードで行われている場合、リモート端末2においては、手術室サーバ11から送信されてきた圧縮後の顔映像を復元し、復元して得られた顔映像を表示することによって患者の表情がユーザに提示される。
 リモート端末2のユーザは、ディスプレイ2Aに表示された映像を見て、患者の顔の変化を確認し、手術室にいる術者などに対してリアルタイムに指示を出すことができる。
<送信設定について>
 図3は、送信設定の例を示す図である。
 図3に示すように、送信設定は、手術室システム1とリモート端末2の間の通信帯域と、通信回線の安全性に応じて、第1の送信モードと第2の送信モードのうちのいずれの送信モードを設定するのかを表す。
 図3の2行目に示すように、通信帯域がワイドであり、通信回線がセキュアである場合、送信モードとして第2の送信モードが設定される。
 通信帯域がワイドであることは、例えば、通信帯域の状態を示す伝送速度などの値が所定の閾値よりも大きいことを表す。反対に、通信帯域がナローであることは、通信帯域の状態を示す伝送速度などの値が所定の閾値よりも小さいことを表す。
 また、通信回線の安全性がセキュアであることは、例えば、顔映像の送信先となるリモート端末2が、病院が管理する端末(病院連携端末)であることを表す。手術室システム1と、病院連携端末であるリモート端末2の間ではVPN(Virtual Private Network)による接続が確立される。顔映像の送信先となるリモート端末2が病院連携端末ではない場合、通信回線の安全性はノンセキュアとなる。
 図3の3行目に示すように、通信帯域がナローであり、通信回線がセキュアである場合、送信モードとして第1の送信モードが設定される。
 4行目に示すように、通信帯域がワイドであり、通信回線がノンセキュアである場合、送信モードとして第1の送信モードが設定される。
 5行目に示すように、通信帯域がナローであり、通信回線がノンセキュアである場合、送信モードとして第1の送信モードが設定される。
 通信帯域の基準となる閾値は、予め設定されていてもよいし、ユーザが設定できるようにしてもよい。
 通信帯域と通信回線の安全性だけでなく、患者の同意の有無などの他の条件が送信設定により規定されるようにしてもよい。すなわち、手術室システム1とリモート端末2の間の通信帯域の状態、通信回線の安全性、および、患者の同意の有無、のうちの少なくともいずれかによって送信設定の内容が規定されるようにすることが可能である。
 このように、図1の情報処理システムにおいては、撮影された手術映像に患者の顔が映っている可能性がある場合、通信回線などの状況に応じた送信モードに従って顔映像の送信が行われる。
 これにより、患者の表情に関する情報の伝送方式を適切に選択することが可能となる。例えば、患者の顔映像ではなく顔の特徴量の情報だけを送ることによって、患者の個人情報を伝送することなく、遠隔地にいる医師に対して、患者の表情に関する情報を正確に伝えることができる。
<<手術室システムの構成と動作>>
<手術室システム1の構成>
 図4は、図1の手術室システム1の構成例を示す図である。
 手術室システム1においては、手術室内に設置される装置群が、手術室サーバ11とIPスイッチ(SW)12を介して互いに連携可能に接続される。手術室システム1は、4K/8K画像を送受信可能なIP(Internet Protocol)ネットワークで構成され、入出力画像と各機器に対する制御情報がIPネットワークを経由して送受信される。
 手術室には、様々な装置が設置される。図4の例では、内視鏡下手術のための各種の装置群13、術者の手元を撮影するシーリングカメラ14、手術室全体の様子を撮影する術場カメラ15、表示装置16A乃至16D、患者ベッド17、および照明18が示されている。シーリングカメラ14と術場カメラ15は、ともに手術室の天井に設けられる。装置群13には、図示されている内視鏡の他、マスタスレーブ型内視鏡下手術用ロボットやX線撮影装置など、画像を取得する種々の医療用機器が適用されてよい。
 表示装置16A乃至16C、装置群13、シーリングカメラ14、および術場カメラ15と、IP SW12とは、それぞれIPコンバータ19A乃至19Fを介して接続される。以下、IPコンバータ19A乃至19Fなどを互いに区別しない場合、単にIPコンバータ19という。
 画像を入力する入力ソース側(カメラ側)のIPコンバータ19であるIPコンバータ19D,19E,19Fは、個々の医療撮影装置(内視鏡、手術用顕微鏡、X線撮影装置、術場カメラ、病理画像撮影装置など)からの画像をIP変換し、ネットワーク上に送信する。例えば、装置群13の内視鏡カメラ、シーリングカメラ14、術場カメラ15が、図1のカメラ#1に対応し、IPコンバータ19D,19E,19Fが、図1のIPコンバータ#2に対応する。
 画像を出力する画像出力側(モニタ側)のIPコンバータ19であるIPコンバータ19A乃至19Cは、ネットワーク経由で送信された画像をモニタ固有のフォーマットに変換して出力する。入力ソース側のIPコンバータ19はエンコーダとして機能し、画像出力側のIPコンバータ19はデコーダとして機能する。入力ソースは、例えば映像ソースを含む。
 IPコンバータ19は、各種の画像処理機能を備えることができる。例えば、IPコンバータ19は、出力先に応じた解像度変換処理、内視鏡画像の回転補正や手振れ補正、オブジェクト認識処理などを実行する機能を備えることができる。
 これらの画像処理機能は、接続される医療画像装置固有のものであってもよいし、外部からアップグレード可能なものであってもよい。画像出力側(モニタ側)のIPコンバータ19は、複数の画像の合成(PinP処理など)やアノテーション情報の重畳などの処理を行うことも可能である。
 IPコンバータ19のプロトコル変換機能は、受信した信号を、例えばインターネットなどのネットワーク上で通信可能な通信プロトコルに準拠した変換信号に変換する機能である。通信プロトコルには、任意の通信プロトコルが設定されてもよい。また、IPコンバータ19が受信したプロトコル変換可能な信号はデジタル信号であり、例えば画像信号や画素信号である。IPコンバータ19は、入力ソース側の装置の内部や、画像出力側の装置の内部に組み込まれてもよい。
 装置群13は、例えば、内視鏡下手術システムに属するものであり、内視鏡やその内視鏡によって撮影された画像を表示する表示装置などからなる。一方、表示装置16A乃至16D、患者ベッド17、および照明18は、内視鏡下手術システムとは別個に、手術室に備え付けられている装置である。これらの手術または診断に用いられる各機器は、医療用機器とも呼ばれる。手術室サーバ11および/またはIP SW12は、これらの医療用機器の動作を連携して制御する。また、手術室内に手術ロボット(手術用マスタスレーブ)システム、X線撮影装置などの医療画像取得装置を含む場合には、それらの機器も装置群13として接続される。
 ここで、手術室システム1が備える装置のうち、装置群13、シーリングカメラ14、および術場カメラ15は、手術中に表示すべき情報(以下、表示情報ともいう)を発信する機能を有する装置(以下、発信元の装置ともいう)である。また、表示装置16A乃至16Dは、表示情報が出力される装置(以下、出力先の装置ともいう)である。
 手術室サーバ11は、手術室システム1内における処理を、統括的に制御する。
 手術室サーバ11は、発信元の装置と出力先の装置の動作を制御し、発信元の装置から表示情報を取得するとともに、その表示情報を出力先の装置に送信し、表示または記録させる機能を有する。表示情報は、手術中に撮影された各種の画像や、手術に関する各種の情報(例えば、患者の身体情報や、過去の検査結果、術式についての情報)などを含む。
 具体的には、手術室サーバ11には、装置群13からの表示情報として、内視鏡によって撮影された患者の体腔内の術部の画像についての情報が送信される。また、手術室サーバ11には、シーリングカメラ14からの表示情報として、そのシーリングカメラ14によって撮影された術者の手元の画像についての情報が送信される。また、手術室サーバ11には、術場カメラ15からの表示情報として、その術場カメラ15によって撮影された手術室全体の様子を示す画像についての情報が送信される。手術室システム1に撮影機能を有する他の装置が存在する場合には、手術室サーバ11は、表示情報として、それら他の装置からも、それら他の装置によって撮影された画像についての情報を取得してもよい。
 手術室サーバ11は、出力先の装置である表示装置16A乃至16Dの少なくともいずれかに、取得した表示情報(すなわち、手術中に撮影された画像や、手術に関する各種の情報)を表示させる。図4の例では、表示装置16Aは、手術室の天井から吊り下げられて設置される表示装置であり、表示装置16Bは、手術室の壁面に設置される表示装置である。表示装置16Cは、手術室内の机上に設置される表示装置であり、表示装置16Dは、表示機能を有するモバイル機器(例えば、タブレットPC(Personal Computer)やスマートフォン)である。
 後に詳述するように、手術室サーバ11は、リモート端末2に送信する手術映像の処理なども行う。
 IP SW12は、接続された機器に対する画像信号の入出力を制御する入出力コントローラの1つとして構成される。例えば、IP SW12は、手術室サーバ11の制御に基づいて、画像信号の入出力を制御する。IP SW12は、IPネットワーク上に配置された機器間における画像信号の高速な転送を制御する。
 手術室システム1には、手術室の外部の装置が含まれてもよい。手術室の外部の装置は、例えば、病院内外に構築されたネットワークに接続されるサーバや、医療スタッフが用いるPC、病院の会議室に設置されるプロジェクタなどである。このような外部装置が病院外にある場合には、手術室サーバ11は、遠隔医療のために、テレビ会議システムなどを介して、他の病院の表示装置に表示情報を表示させることもできる。
 外部サーバ20は、例えば、手術室外の院内サーバや、リモート端末2と通信を行う。手術室内の画像情報は、外部サーバ20を介してリモート端末2に送信される。送信されるデータは、内視鏡などの手術映像そのものや、画像から抽出されたメタデータ、接続される機器の稼働状況を示すデータなどであってもよい。
 手術室システム1において、IPネットワークは、有線ネットワークで構成されてもよいし、そのIPネットワークの一部または全てが無線ネットワークで構築されてもよい。例えば、無線通信機能を有する入力ソース側のIPコンバータ19が、受信した画像を第5世代移動通信システム(5G)や第6世代移動通信システム(6G)などの無線通信ネットワークを介して、画像出力側のIPコンバータ19に送信してもよい。
<手術室サーバ11の機能構成>
 図5は、手術室システム1を構成する手術室サーバ11の機能構成例を示すブロック図である。
 図5に示すように、手術室サーバ11においては情報処理部51が実現される。図5に示す各機能は、手術室サーバ11を構成するコンピュータのCPUにより所定のプログラムが実行されることによって実現される。手術室サーバ11は、情報処理部51を有する情報処理装置である。
 情報処理部51は、顔映像認識部101、送信モード設定部102、映像処理部103、および送信制御部104により構成される。手術室内に設置された複数のカメラにより撮影された手術映像は、顔映像認識部101と映像処理部103に供給される。
 顔映像認識部101は、複数のカメラから送信されてきたそれぞれの手術映像が顔映像であるか否かを判定する。上述したように、顔映像は、患者の顔が映っている可能性がある手術映像である。
・顔映像の判定方法1
 IPコンバータ19がカメラなどの機器に接続された場合、接続された機器の情報である機器データが、機器からIPコンバータ19に対して送信される。IPコンバータ19により受信された機器データは、IPコンバータ19から手術室サーバ11に対して送信され、顔映像認識部101に供給される。
 顔映像認識部101は、IPコンバータ19から送信されてきた機器データに基づいて、判定対象となっている手術映像の送信元の機器(カメラ)がどの機器であるのかを特定し、手術映像が顔映像であるか否かを送信元の機器の種類などに応じて判定する。機器データには、手術映像の送信元となる機器の種類を示す情報が含まれる。例えば、手術映像の送信元の機器が、患者ベッド17を含む範囲を撮影する術場カメラ15である場合、判定対象となっている手術映像が顔映像であると判定される。
 手術映像が顔映像であるか否かが、手術映像のメタデータに基づいて判定されるようにしてもよい。手術映像に付与されているDICOM(Digital Imaging and Communications in Medicine)などのメタデータには、手術映像の送信元となる機器の種類を示す情報が含まれている。
 IPコンバータ19が、手術映像を撮影する機器の種類をメタデータとして付与するようにしてもよい。これにより、患者を撮影する機器がどの機器であるのかが事前に分かっている場合、該当する機器から送信されてくる手術映像は顔映像であると判定される。
 手術映像が顔映像であるか否かの判定が、機器データと、手術映像に付与されているメタデータとの両方を用いて行われるようにしてもよい。すなわち、機器データと、手術映像に付与されているメタデータのうちの少なくともいずれかに基づいて、手術映像が顔映像であるか否かが顔映像認識部101において判定されるようにすることが可能である。
・顔映像の判定方法2
 顔映像認識部101は、手術映像を解析し、解析結果に基づいて、対象となっている手術映像が顔映像であるか否かを判定する。この場合、例えば、手術映像を構成する各フレームを対象として顔認識が行われ、顔が認識された場合、対象となっている手術映像が顔映像であると判定されることになる。
・顔映像の判定方法3
 顔映像認識部101は、患者の顔が映っている映像の選択結果に基づいて、顔映像であるか否かを判定する。この場合、例えば、どの手術映像が患者の顔が映っている映像であるのかの選択が術者などのユーザによって行われる。このように、顔映像であるか否かの判定がユーザによる選択結果に基づいて行われるようにしてもよい。
 以上のような方法による判定結果を示す情報が、顔映像認識部101から送信モード設定部102と映像処理部103に対して出力される。顔映像であるか否かの判定が、複数の判定方法を組み合わせて行われるようにしてもよい。
 送信モード設定部102は、IPコンバータ19から供給された手術映像のうち、どの手術映像が顔映像であるのかを顔映像認識部101による判定結果に基づいて特定する。送信モード設定部102は、顔映像の送信がリモート端末2のユーザにより要求されている場合、それぞれの顔映像の送信モードとして第1の送信モードまたは第2の送信モードを設定する。
 例えば、遠隔地にいる医師が使用するリモート端末2の端末識別番号に対して、送信設定の内容を示す情報が紐付けて管理されている。上述したように、送信設定の内容は、手術室サーバ11とリモート端末2との間の通信帯域の状態、患者の同意の有無、および、リモート端末2が病院連携端末であるか否かのうちの少なくともいずれかによって規定される。
・通信帯域の状態
 送信モード設定部102は、手術室サーバ11とリモート端末2との間の通信状況を確認し、通信帯域の状態(ワイド/ナロー)を判定する。
・患者の同意の有無
 一般的な手術においては、個人情報といえる手術映像を外部に出すことについての患者の同意の確認が手術前に行われる。個人情報の扱いに対する患者の同意については、電子カルテなどに記載され、データベースにおいて管理される。送信モード設定部102は、例えばデータベースを管理する装置(図4において図示せず)と連携することによって電子カルテを参照し、患者の同意の有無を確認する。
 例えば患者の同意が得られている場合、通信帯域の状態、病院連携端末であるか否かなどに応じて、適宜、第2の送信モードが設定される。
・病院連携端末であるか否か
 送信モード設定部102は、顔映像の送信先となるリモート端末2が病院連携端末であるか否かを判定する。顔映像の送信先となるリモート端末2が病院連携端末である場合、そのリモート端末2がセキュアな端末(通信回線の安全性が確立された端末)であると判定される。
 例えば、リモート端末2の端末識別番号がセキュアな番号として認証されている場合、または、手術室サーバ11とリモート端末2の間がVPN(Virtual Private Network)による専用回線で接続されている場合、病院連携端末であると判定される。
 送信モード設定部102は、このような送信設定の内容に基づいて、図3を参照して説明したようにして送信モードを設定する。送信モード設定部102によって設定されたそれぞれの顔映像の送信モードの情報は、映像処理部103に出力される。
 映像処理部103は、顔特徴量抽出部131と映像圧縮部132により構成される。
 送信対象となる顔映像の送信モードとして第1の送信モードが設定されている場合、顔特徴量抽出部131は、顔映像を解析し、患者の顔の特徴量を抽出する。
 図6は、顔特徴量抽出部131による、顔の特徴量の抽出の例を示す図である。
 図6に示すように、患者の顔の各部位の位置の情報や顔の輪郭の情報(輪郭データ)などが特徴量として抽出される。図6において、色付きの小円は、特徴量が抽出された位置を表す。患者の顔の輪郭の特徴量をそのまま用いた場合に個人を特定される恐れがある場合、標準となる顔の特徴量に置き換えられ、リモート端末2に対して送信されるようにしてもよい。
 顔映像を解析することによって抽出されたこのような特徴量の情報が送信制御部104に対して出力される。顔映像を解析することによって抽出された特徴に基づいて分類した表情のカテゴリが、顔の特徴量として送信制御部104に対して出力されるようにしてもよい。表情のカテゴリには、例えば、安静時の表情、少し苦しい表情、とても苦しい表情などが含まれる。
 顔の特徴に基づいて苦悶度が算出され、算出された苦悶度に基づいて、表情のカテゴリの分類が行われるようにしてもよい。また、特徴に基づいて算出された苦悶度が、顔の特徴量として送信制御部104に対して出力されるようにしてもよい。
 図5の説明に戻り、送信対象となる顔映像の送信モードとして第2の送信モードが設定されている場合、映像圧縮部132は顔映像を圧縮する。
 手術室サーバ11に送信される手術映像は、例えば、4K映像やRAW映像などのデータ量が多い映像である。顔映像の送信モードとして第2の送信モードが設定されている場合、例えば、4K解像度の顔映像をFHD解像度の顔映像に低解像度化する圧縮処理が行われる。
 映像圧縮部132によって圧縮された顔映像は、送信制御部104に出力される。送信対象となる手術映像が顔映像ではないと判定された場合も同様に、適宜、手術映像に対する圧縮処理が映像圧縮部132により施され、送信制御部104に対して出力される。
 送信制御部104は、送信対象となる顔映像の送信モードとして第1の送信モードが設定されている場合、顔特徴量抽出部131から供給された顔の特徴量の情報をリモート端末2に対して送信する。
 また、送信制御部104は、送信対象となる顔映像の送信モードとして第2の送信モードが設定されている場合、映像圧縮部132から供給された圧縮後の顔映像をリモート端末2に対して送信する。
<手術室サーバ11の動作>
 図7のフローチャートを参照して、以上のような構成を有する手術室サーバ11の処理について説明する。図7の処理は、例えば、送信対象となる手術映像がリモート端末2のユーザにより選択されたときに開始される。
 ステップS1において、顔映像認識部101は、それぞれのカメラにより撮影された手術映像を対象として顔映像の認識処理を行う。
 ステップS2において、顔映像認識部101は、送信対象として選択されている手術映像が顔映像であるか否かを判定する。
 顔映像であるとステップS2において判定された場合、ステップS3において、送信モード設定部102は、通信回線の状況などを特定し、送信対象となる顔映像の送信モードを設定する。
 ステップS3において第1の送信モードが設定された場合、ステップS4において、顔特徴量抽出部131は、顔映像を解析し、患者の顔の特徴量を抽出する。
 ステップS5において、送信制御部104は、顔の特徴量の情報をリモート端末2に対して送信する。リモート端末2においては、上述したように、患者の表情を表現するアバター画像の表示などが、顔の特徴量の情報に基づいて行われる。
 一方、ステップS3において第2の送信モードが設定された場合、ステップS6において、映像圧縮部132は顔映像を圧縮する。
 ステップS7おいて、送信制御部104は、圧縮された顔映像をリモート端末2に対して送信する。リモート端末2においては、復元して得られた顔映像に基づいて、患者の顔が映っている映像が表示される。
 顔映像ではないとステップS2において判定された場合も同様に、ステップS8において、送信制御部104は、適宜圧縮された手術映像をリモート端末2に対して送信する。
 ステップS5における特徴量の情報の送信、ステップS7,S8における手術映像の送信が、顔映像の送信中に続けられる。例えば手術映像の送信終了をリモート端末2のユーザが選択した場合、図7の処理は終了となる。
 以上の処理により、手術室サーバ11においては、患者の表情に関する情報の伝送方式を適切に選択することができる。
<<リモート端末の構成と動作>>
<リモート端末2の機能構成>
 図8は、リモート端末2の機能構成例を示すブロック図である。図8に示す各機能は、リモート端末2を構成するコンピュータのCPUにより所定のプログラムが実行されることによって実現される。
 リモート端末2においては、送信データ取得部201、映像処理部202、および表示制御部203が実現される。
 送信データ取得部201は、リモート端末2に設けられた通信モジュールを制御し、手術室サーバ11から送信されてきた情報を取得する。
 例えば、顔映像の送信モードとして第1の送信モードが設定されている場合、送信データ取得部201は、手術室サーバ11から送信されてきた顔の特徴量の情報を取得する。また、顔映像の送信モードとして第2の送信モードが設定されている場合、送信データ取得部201は、手術室サーバ11から送信されてきた圧縮後の顔映像を取得する。
 送信データ取得部201は、顔の特徴量の情報を表示制御部203に出力し、圧縮後の顔映像を映像処理部202に出力する。
 手術室サーバ11から送信されてきた手術映像が顔映像ではない場合、送信データ取得部201は、取得した手術映像を映像処理部202に出力する。ここでは、手術室サーバ11から送信されてきた手術映像が顔映像である場合について主に説明するが、顔映像でない手術映像が圧縮されている場合、適宜、圧縮後の顔映像に対する処理と同様の処理が行われる。
 映像処理部202は、送信データ取得部201から供給された顔映像に対して復元処理を行う。高解像度の顔映像の復元は、例えば、機械学習によって生成された推論モデルを用いて行われる。この場合、映像処理部202には、低解像度の顔映像を入力とし、高解像度の顔映像を出力とする、ニューラルネットワークなどにより構成される推論モデルがあらかじめ用意される。また、高解像度の顔映像の復元が、超解像処理を用いて行われるようにしてもよい。
 これにより、顔映像をリモート端末2に対して送信する場合において、高い圧縮率で顔映像を送信することが可能となる。映像処理部202によって復元された顔映像は表示制御部203に出力される。
 表示制御部203は、送信データ取得部201から供給された顔の特徴量の情報に基づいて、表情を変化させたアバター画像をディスプレイに表示させる。また、患者の顔の画像が提供されている場合、表示制御部203は、患者の顔の画像を顔の特徴量の情報に合わせて変化させ、ディスプレイに表示させる。
 また、表示制御部203は、映像処理部202から供給された、復元された高解像度の顔映像をディスプレイに表示させる。
<リモート端末2の動作>
 図9のフローチャートを参照して、以上のような構成を有するリモート端末2の処理について説明する。図9の処理は、例えば、手術室サーバ11からデータが送信されてきたときに開始される。
 ステップS11において、送信データ取得部201は、手術室サーバ11から送信されてきた送信データを取得する。
 ステップS12において、送信データ取得部201は、手術室サーバ11から送信されてきたデータが、患者の顔の特徴量の情報であるか否かを判定する。
 手術室サーバ11から送信されてきたデータが患者の顔の特徴量の情報であるとステップS12において判定された場合、ステップS13において、表示制御部203は、顔の特徴量の情報に基づいて、アバター画像の表示などを行うための映像処理を行う。
 ステップS14において、表示制御部203は、映像処理によって生成されたアバター画像などをディスプレイに表示させる。
 一方、手術室サーバ11から送信されてきたデータが患者の顔の特徴量の情報ではないとステップS12において判定された場合、ステップS15において、映像処理部202は、送信データ取得部201から供給された顔映像に対して復元処理を行う。ステップS15の処理が行われた後、処理はステップS14に進む。ステップS14においては、復元処理によって得られた高解像度の顔映像がディスプレイに表示される。
 以上のような一連の処理が、例えば、手術映像の送信終了がリモート端末2のユーザによって選択されるまで続けられる。
 以上の処理により、遠隔地にいるリモート端末2のユーザは、ディスプレイに表示された映像を見て、患者の顔の変化を確認し、手術室にいる術者などに対してリアルタイムに指示を出すことができる。
<<変形例>>
<第2の送信モードについて>
 顔映像の送信モードとして第1の送信モードが設定されている場合において、患者の実際の顔が映る映像を送信することがリモート端末2のユーザにより要求されたとき、ユーザによる要求に応じて、送信モードが第1の送信モードから第2の送信モードに切り替えられるようにしてもよい。
 この場合、送信モード設定部102によって、通信帯域の状態や患者の同意の有無などが上述したようにして判定される。通信帯域の状態がワイドであり、患者の同意が得られている場合、送信モード設定部102は、顔映像の送信モードを第1の送信モードから第2の送信モードに切り替え、圧縮した顔映像の送信を開始させる。
 このように、個人情報の伝送が許されており、かつ、通信帯域の状態がワイドである場合、手術室サーバ11においては、リモート端末2に対して顔映像が送信される。患者の顔の特徴量の情報ではなく顔映像が送信されることにより、遠隔地にいる医師は、患者の表情をより正確に把握することが可能となる。
 顔映像の送信モードとして第1の送信モードが設定されており、顔の特徴量の情報として苦悶度の情報がリモート端末2に対して送信されている場合において、苦悶度が一定の閾値より大きくなったときに、送信モードが第1の送信モードから第2の送信モードに切り替えられるようにしてもよい。
 このように、苦悶度が一定の閾値より大きくなったときに顔映像の送信が開始されることによって、リモート端末2のユーザは、患者の容体の変化により迅速に気付くことができる。
 顔の特徴量の情報や圧縮された顔映像をリモート端末2に送信しない送信モードである第3の送信モードが設けられるようにしてもよい。例えば、苦悶度が一定の閾値より小さい場合、第1の送信モードまたは第2の送信モードから第3の送信モードに切り替えられる。
 第3の送信モードに切り替えられることにより、データの通信量を抑えることが可能となる。
 リモート端末2からの要求があった場合に、圧縮比率やフレームレートの変更が通信帯域の状態などに応じて行われるようにしてもよい。
<顔映像の判定が他の機器において行われる例>
 顔映像の判定が手術室サーバ11において行われるものとしたが、他の機器において行われるようにしてもよい。
 図10は、顔映像の判定を行う他の機器の例を示す図である。
 図10のAに示すように、顔映像の判定がカメラ#1において行われるようにしてもよい。この場合、顔映像認識部101がカメラ#1によって実現される。
 図10のBに示すように、顔映像の判定がIPコンバータ#2において行われるようにしてもよい。この場合、顔映像認識部101がIPコンバータ#2によって実現される。
 カメラ#1やIPコンバータ#2に設けられる顔映像認識部101においても、顔映像であるか否かの判定が手術室サーバ11の顔映像認識部101(図5)と同様にして行われる。
<手術映像の処理が他の機器において行われる例>
 手術映像の処理が手術室サーバ11において行われるものとしたが、他の機器において行われるようにしてもよい。
 図11は、手術映像の処理を行うIPコンバータ#2の例を示す図である。
 図11に示すように、手術映像の処理がIPコンバータ#2において行われる場合、映像処理部103がIPコンバータ#2によって実現される。IPコンバータ#2に設けられる映像処理部103においても、手術映像に対する処理が手術室サーバ11の映像処理部103(図5)と同様にして行われる。
 この場合、図12に示すように、顔の特徴量の情報や圧縮された顔映像が、手術室サーバ11を介さずに、IPコンバータ#2からリモート端末2に直接送信されるようにしてもよい。
 図12のIPコンバータ#2は、カメラ#1から供給された顔映像に対して、顔の特徴量の抽出や圧縮などの映像処理を行う。IPコンバータ#2は、映像処理によって得られた送信データに対してIP変換を行い、リモート端末2に対して送信する。
 このように、情報処理部51(図5)を構成する機能部のうちの少なくとも一部が、手術室サーバ11以外の機器において実現されるようにすることが可能である。情報処理部51を構成する機能部のうちの少なくとも一部が、クラウド上のサーバなどの、他の装置において実現されるようにしてもよい。
<顔の特徴量の抽出について>
 患者の顔を覆うものがあり、顔の特徴量の抽出が困難な場合、異常の検知が手術室にいる術者やリモート端末2のユーザに対して通知されるようにしてもよい。
 この場合、例えば、顔の特徴量の抽出の信頼度が手術室サーバ11の顔映像認識部101において測定される。測定された信頼度が一定の閾値より小さい場合、顔の特徴量の情報とともに、異常の検知を表すアラート(警報情報)が例えばリモート端末2に対して送信される。リモート端末2に対して送信されるアラートは、顔の特徴量が正確でない可能性があることを示すアラートとなる。
 顔の特徴量の情報を送信せずに、顔の特徴量を抽出することができなかったことを示すアラートが送信されるようにしてもよい。
 第1の送信モードから第2の送信モードに送信モードを切り替えることを勧めるアラートが生成され、リモート端末2に対して送信されるようにしてもよい。
 顔の特徴量の抽出周期が一定ではなく、患者の顔の特徴量の変化に応じて変更されるようにしてもよい。例えば、患者の苦悶度が大きい場合、抽出周期が短くなり、全てのフレームを対象として特徴量の抽出が行われる。手術の緊急性や通信帯域の状態に応じて、抽出周期の値を変更できるようにしてもよい。
 カメラに搭載されたイメージセンサ上で顔の特徴量の抽出が行われる場合、特徴量の変化が大きいときに顔映像を出力するようにしてカメラの消費電力を抑えるようにしてもよい。例えば、顔の特徴量に基づく苦悶度の計算がイメージセンサ上で行われる場合、苦悶度が一定の閾値より大きいときにのみ、顔の特徴量の情報や顔映像がカメラから出力される。苦悶度が一定の閾値より大きいときにのみ、顔映像のフレームレートが高く設定されるようにしてもよい。
 顔の特徴量の変化の解析結果とともに手術映像が任意のサーバに保管されるようにしてもよい。これにより、手術の日の後においても、顔映像とアバター画像との置き換えなどが可能となり、匿名性を保って二次利用することができる。
<その他>
 図1の情報処理システムが医療現場におけるリモート手術に用いられる場合について説明したが、手術映像以外の映像を遠隔にあるリモート端末2に対して送信する場合にも本技術は適用可能である。例えば、市街地に設置されたセキュリティカメラや、ライブ会場に設置されたカメラによって撮影された顔映像を送信する場合も本技術は適用可能である。
 顔映像に映っている人の表情に関する情報の提示が、画面表示を用いて行われるのではなく、音声の出力、LEDの発光などの他の伝達手段を用いて行われるようにしてもよい。
・プログラムについて
 上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
 図13は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。リモート端末2、手術室サーバ11は、それぞれ、図13に示す構成と同様の構成を有する。
 CPU(Central Processing Unit)1001、ROM(Read Only Memory)1002、RAM(Random Access Memory)1003は、バス1004により相互に接続されている。
 バス1004には、さらに、入出力インタフェース1005が接続されている。入出力インタフェース1005には、入力部1006、出力部1007、記憶部1008、通信部1009、およびドライブ1010が接続されている。ドライブ1010は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブルメディア1011を駆動する。
 以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを入出力インタフェース1005およびバス1004を介してRAM1003にロードして実行することにより、上述した一連の処理が行われる。
 CPU1001が実行するプログラムは、例えばリムーバブルメディア1011に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供され、記憶部1008にインストールされる。
 なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
 本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 例えば、本技術は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
 さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
・構成の組み合わせ例
 本技術は、以下のような構成をとることもできる。
(1)
 リモート端末から要求された手術映像が、患者の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先となる前記リモート端末に対して定められた送信設定に基づいて送信モードを設定する送信モード設定部と、
 第1の送信モードが設定された場合、前記顔映像から抽出された前記患者の顔の特徴量の情報を前記リモート端末に対して送信し、第2の送信モードが設定された場合、圧縮した前記顔映像を前記リモート端末に対して送信する送信制御部と
 を備える情報処理装置。
(2)
 前記手術映像に前記患者の顔が映っているか否かを判定する顔映像認識部をさらに備える
 前記(1)に記載の情報処理装置。
(3)
 前記送信設定は、通信帯域の状態、前記患者の同意の有無、および、前記リモート端末が病院連携端末であるか否かのうちの少なくともいずれかによって決定される
 前記(1)または(2)に記載の情報処理装置。
(4)
 前記第1の送信モードが設定された場合、前記顔映像から前記特徴量を抽出し、前記第2の送信モードが設定された場合、前記顔映像を圧縮する映像処理部をさらに備える
 前記(1)乃至(3)のいずれかに記載の情報処理装置。
(5)
 前記映像処理部は、前記患者の顔の輪郭データを前記特徴量として抽出する
 前記(4)に記載の情報処理装置。
(6)
 前記映像処理部は、前記患者の顔の特徴に基づいて分類した表情のカテゴリを前記特徴量として抽出する
 前記(4)に記載の情報処理装置。
(7)
 前記映像処理部は、前記患者の顔の特徴に応じた苦悶度に基づいて前記表情のカテゴリの分類を行う
 前記(6)に記載の情報処理装置。
(8)
 前記送信モード設定部は、前記リモート端末からの要求に基づいて、前記第1の送信モードから前記第2の送信モードに前記送信モードを切り替える
 前記(1)乃至(7)のいずれかに記載の情報処理装置。
(9)
 前記顔映像認識部は、前記手術映像を撮影する機器の情報と、前記顔映像に付与されているメタデータのうちの少なくともいずれかに基づいて、前記手術映像に前記患者の顔が映っているか否かを判定する
 前記(2)乃至(8)のいずれかに記載の情報処理装置。
(10)
 前記顔映像認識部は、前記手術映像の解析結果に基づいて、前記手術映像に前記患者の顔が映っているか否かを判定する
 前記(2)乃至(8)のいずれかに記載の情報処理装置。
(11)
 前記顔映像認識部は、ユーザによる選択結果に基づいて、前記手術映像に前記患者の顔が映っているか否かを判定する
 前記(2)乃至(8)のいずれかに記載の情報処理装置。
(12)
 情報処理装置が、
 リモート端末から要求された手術映像が、患者の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先となる前記リモート端末に対して定められた送信設定に基づいて送信モードを設定し、
 第1の送信モードを設定した場合、前記顔映像から抽出された前記患者の顔の特徴量の情報を前記リモート端末に対して送信し、
 第2の送信モードを設定した場合、圧縮した前記顔映像を前記リモート端末に対して送信する
 情報処理方法。
(13)
 コンピュータに、
 リモート端末から要求された手術映像が、患者の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先となる前記リモート端末に対して定められた送信設定に基づいて送信モードを設定し、
 第1の送信モードを設定した場合、前記顔映像から抽出された前記患者の顔の特徴量の情報を前記リモート端末に対して送信し、
 第2の送信モードを設定した場合、圧縮した前記顔映像を前記リモート端末に対して送信する
 処理を実行させるためのプログラム。
(14)
 送信が要求された手術映像が、患者の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先に対して定められた送信設定に基づいて送信モードを設定し、第1の送信モードを設定した場合、前記顔映像から抽出された前記患者の顔の特徴量の情報を送信し、第2の送信モードを設定した場合、圧縮した前記顔映像を送信する情報処理装置から送信されてきた情報を取得する送信データ取得部と、
 取得された情報に基づいて、前記患者の表情に関する情報を表示させる表示制御部と
 を備える情報処理端末。
(15)
 前記表示制御部は、前記第1の送信モードが設定されている場合に取得された前記患者の顔の特徴量の情報に基づいて、アバター画像の表示を変化させる
 前記(14)に記載の情報処理端末。
(16)
 前記表示制御部は、前記第1の送信モードが設定されている場合に取得された前記患者の顔の特徴量の情報に基づいて、前記患者の顔の画像を変化させる
 前記(14)に記載の情報処理端末。
(17)
 前記第2の送信モードが設定されている場合に取得された、圧縮された前記顔映像を復元する映像処理部をさらに備え、
 前記表示制御部は、前記患者の表情に関する情報として、復元後の前記顔映像を表示させる
 前記(14)乃至(16)のいずれかに記載の情報処理端末。
(18)
 情報処理端末が、
 送信が要求された手術映像が、患者の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先に対して定められた送信設定に基づいて送信モードを設定し、第1の送信モードを設定した場合、前記顔映像から抽出された前記患者の顔の特徴量の情報を送信し、第2の送信モードを設定した場合、圧縮した前記顔映像を送信する情報処理装置から送信されてきた情報を取得し、
 取得された情報に基づいて、前記患者の表情に関する情報を表示させる
 情報処理方法。
(19)
 コンピュータに、
 送信が要求された手術映像が、患者の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先に対して定められた送信設定に基づいて送信モードを設定し、第1の送信モードを設定した場合、前記顔映像から抽出された前記患者の顔の特徴量の情報を送信し、第2の送信モードを設定した場合、圧縮した前記顔映像を送信する情報処理装置から送信されてきた情報を取得し、
 取得された情報に基づいて、前記患者の表情に関する情報を表示させる
 処理を実行させるためのプログラム。
(20)
 リモート端末から要求された映像が、人物の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先となる前記リモート端末に対して定められた送信設定に基づいて送信モードを設定する送信モード設定部と、
 第1の送信モードが設定された場合、前記顔映像から抽出された前記人物の顔の特徴量の情報を前記リモート端末に対して送信し、第2の送信モードが設定された場合、圧縮した前記顔映像を前記リモート端末に対して送信する送信制御部と
 を備える情報処理装置。
 1 手術室システム, 2 リモート端末, 11 手術室サーバ, 51 情報処理部, 101 顔映像認識部, 102 送信モード設定部, 103 映像処理部, 104 送信制御部, 131 顔特徴量抽出部, 132 映像圧縮部, 201 送信データ取得部, 202 映像処理部, 203 表示制御部

Claims (20)

  1.  リモート端末から要求された手術映像が、患者の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先となる前記リモート端末に対して定められた送信設定に基づいて送信モードを設定する送信モード設定部と、
     第1の送信モードが設定された場合、前記顔映像から抽出された前記患者の顔の特徴量の情報を前記リモート端末に対して送信し、第2の送信モードが設定された場合、圧縮した前記顔映像を前記リモート端末に対して送信する送信制御部と
     を備える情報処理装置。
  2.  前記手術映像に前記患者の顔が映っているか否かを判定する顔映像認識部をさらに備える
     請求項1に記載の情報処理装置。
  3.  前記送信設定は、通信帯域の状態、前記患者の同意の有無、および、前記リモート端末が病院連携端末であるか否かのうちの少なくともいずれかによって決定される
     請求項1に記載の情報処理装置。
  4.  前記第1の送信モードが設定された場合、前記顔映像から前記特徴量を抽出し、前記第2の送信モードが設定された場合、前記顔映像を圧縮する映像処理部をさらに備える
     請求項1に記載の情報処理装置。
  5.  前記映像処理部は、前記患者の顔の輪郭データを前記特徴量として抽出する
     請求項4に記載の情報処理装置。
  6.  前記映像処理部は、前記患者の顔の特徴に基づいて分類した表情のカテゴリを前記特徴量として抽出する
     請求項4に記載の情報処理装置。
  7.  前記映像処理部は、前記患者の顔の特徴に応じた苦悶度に基づいて前記表情のカテゴリの分類を行う
     請求項6に記載の情報処理装置。
  8.  前記送信モード設定部は、前記リモート端末からの要求に基づいて、前記第1の送信モードから前記第2の送信モードに前記送信モードを切り替える
     請求項1に記載の情報処理装置。
  9.  前記顔映像認識部は、前記手術映像を撮影する機器の情報と、前記顔映像に付与されているメタデータのうちの少なくともいずれかに基づいて、前記手術映像に前記患者の顔が映っているか否かを判定する
     請求項2に記載の情報処理装置。
  10.  前記顔映像認識部は、前記手術映像の解析結果に基づいて、前記手術映像に前記患者の顔が映っているか否かを判定する
     請求項2に記載の情報処理装置。
  11.  前記顔映像認識部は、ユーザによる選択結果に基づいて、前記手術映像に前記患者の顔が映っているか否かを判定する
     請求項2に記載の情報処理装置。
  12.  情報処理装置が、
     リモート端末から要求された手術映像が、患者の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先となる前記リモート端末に対して定められた送信設定に基づいて送信モードを設定し、
     第1の送信モードを設定した場合、前記顔映像から抽出された前記患者の顔の特徴量の情報を前記リモート端末に対して送信し、
     第2の送信モードを設定した場合、圧縮した前記顔映像を前記リモート端末に対して送信する
     情報処理方法。
  13.  コンピュータに、
     リモート端末から要求された手術映像が、患者の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先となる前記リモート端末に対して定められた送信設定に基づいて送信モードを設定し、
     第1の送信モードを設定した場合、前記顔映像から抽出された前記患者の顔の特徴量の情報を前記リモート端末に対して送信し、
     第2の送信モードを設定した場合、圧縮した前記顔映像を前記リモート端末に対して送信する
     処理を実行させるためのプログラム。
  14.  送信が要求された手術映像が、患者の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先に対して定められた送信設定に基づいて送信モードを設定し、第1の送信モードを設定した場合、前記顔映像から抽出された前記患者の顔の特徴量の情報を送信し、第2の送信モードを設定した場合、圧縮した前記顔映像を送信する情報処理装置から送信されてきた情報を取得する送信データ取得部と、
     取得された情報に基づいて、前記患者の表情に関する情報を表示させる表示制御部と
     を備える情報処理端末。
  15.  前記表示制御部は、前記第1の送信モードが設定されている場合に取得された前記患者の顔の特徴量の情報に基づいて、アバター画像の表示を変化させる
     請求項14に記載の情報処理端末。
  16.  前記表示制御部は、前記第1の送信モードが設定されている場合に取得された前記患者の顔の特徴量の情報に基づいて、前記患者の顔の画像を変化させる
     請求項14に記載の情報処理端末。
  17.  前記第2の送信モードが設定されている場合に取得された、圧縮された前記顔映像を復元する映像処理部をさらに備え、
     前記表示制御部は、前記患者の表情に関する情報として、復元後の前記顔映像を表示させる
     請求項14に記載の情報処理端末。
  18.  情報処理端末が、
     送信が要求された手術映像が、患者の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先に対して定められた送信設定に基づいて送信モードを設定し、第1の送信モードを設定した場合、前記顔映像から抽出された前記患者の顔の特徴量の情報を送信し、第2の送信モードを設定した場合、圧縮した前記顔映像を送信する情報処理装置から送信されてきた情報を取得し、
     取得された情報に基づいて、前記患者の表情に関する情報を表示させる
     情報処理方法。
  19.  コンピュータに、
     送信が要求された手術映像が、患者の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先に対して定められた送信設定に基づいて送信モードを設定し、第1の送信モードを設定した場合、前記顔映像から抽出された前記患者の顔の特徴量の情報を送信し、第2の送信モードを設定した場合、圧縮した前記顔映像を送信する情報処理装置から送信されてきた情報を取得し、
     取得された情報に基づいて、前記患者の表情に関する情報を表示させる
     処理を実行させるためのプログラム。
  20.  リモート端末から要求された映像が、人物の顔が映っている可能性がある顔映像である場合、前記顔映像の送信先となる前記リモート端末に対して定められた送信設定に基づいて送信モードを設定する送信モード設定部と、
     第1の送信モードが設定された場合、前記顔映像から抽出された前記人物の顔の特徴量の情報を前記リモート端末に対して送信し、第2の送信モードが設定された場合、圧縮した前記顔映像を前記リモート端末に対して送信する送信制御部と
     を備える情報処理装置。
PCT/JP2023/005122 2022-03-03 2023-02-15 情報処理装置、情報処理端末、情報処理方法、およびプログラム WO2023166981A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-032240 2022-03-03
JP2022032240 2022-03-03

Publications (1)

Publication Number Publication Date
WO2023166981A1 true WO2023166981A1 (ja) 2023-09-07

Family

ID=87883410

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/005122 WO2023166981A1 (ja) 2022-03-03 2023-02-15 情報処理装置、情報処理端末、情報処理方法、およびプログラム

Country Status (1)

Country Link
WO (1) WO2023166981A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020060880A (ja) * 2018-10-06 2020-04-16 シスメックス株式会社 手術支援ロボットの遠隔支援方法、および遠隔支援システム
WO2021005381A1 (en) * 2019-07-11 2021-01-14 Cmr Surgical Limited Anonymising robotic data
US20210350025A1 (en) * 2019-05-21 2021-11-11 Verb Surgical Inc. Method and system for anonymizing raw surgical procedure videos
US20220020486A1 (en) * 2018-03-06 2022-01-20 Digital Surgery Limited Methods and systems for using multiple data structures to process surgical data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220020486A1 (en) * 2018-03-06 2022-01-20 Digital Surgery Limited Methods and systems for using multiple data structures to process surgical data
JP2020060880A (ja) * 2018-10-06 2020-04-16 シスメックス株式会社 手術支援ロボットの遠隔支援方法、および遠隔支援システム
US20210350025A1 (en) * 2019-05-21 2021-11-11 Verb Surgical Inc. Method and system for anonymizing raw surgical procedure videos
WO2021005381A1 (en) * 2019-07-11 2021-01-14 Cmr Surgical Limited Anonymising robotic data

Similar Documents

Publication Publication Date Title
US20120162401A1 (en) Imaging system
CN108042090B (zh) 配置人工智能芯片的医用内窥镜系统及图像处理方法
EP3534620B1 (en) Signal processing device and method, and program
US11323679B2 (en) Multi-camera system, camera, processing method of camera, confirmation apparatus, and processing method of confirmation apparatus
CN102164273A (zh) 手术室医学信息重构与交互系统
WO2015046641A1 (ko) 원격진료를 위한 의료영상 처리장치 및 이를 포함한 원격 의료진단 시스템
US20240320371A1 (en) Information processing system, information processing method, and program
JP2004081264A (ja) 遠隔医療システム及び制御モダリティーの遠隔操作装置
WO2023166981A1 (ja) 情報処理装置、情報処理端末、情報処理方法、およびプログラム
WO2018230510A1 (ja) 画像処理装置、画像処理方法および撮像システム
KR101906398B1 (ko) 실시간 객체추적을 이용한 내시경 진료정보 공유 방법
WO2022176531A1 (ja) 医療管理システム、医療管理装置及び医療管理方法
US20230240788A1 (en) Processing of video streams related to surgical operations
KR20020058189A (ko) 인터넷기반의 수술 컨퍼런스 방법 및 장치
WO2023054089A1 (ja) 映像処理システム、並びに、医療情報処理システムおよび動作方法
WO2023189520A1 (ja) 情報処理システム、情報処理方法、及び、プログラム
WO2023145447A1 (ja) 情報処理方法、情報処理システム、およびプログラム
CN111312385A (zh) 控制医疗设备的处理装置、方法和系统
JP4861364B2 (ja) 遠隔診断装置
EP4316410A1 (en) Surgical operation room system, image recording method, program, and medical information processing system
WO2023053524A1 (ja) 医療情報処理システム、判定方法、およびプログラム
RU2788812C2 (ru) Эндоскопическая видеосистема и способ её работы
CN115813572A (zh) 一种综合手术实时监测系统
KR20210135402A (ko) 인터넷을 통한 질병 진단 분석 시스템
KR20230044626A (ko) 의료영상을 roi별로 이벤트 레코딩하는 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23763242

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2024504600

Country of ref document: JP

Kind code of ref document: A