JP2024026718A - Ultrasonic systems and methods of controlling them - Google Patents

Ultrasonic systems and methods of controlling them Download PDF

Info

Publication number
JP2024026718A
JP2024026718A JP2024002426A JP2024002426A JP2024026718A JP 2024026718 A JP2024026718 A JP 2024026718A JP 2024002426 A JP2024002426 A JP 2024002426A JP 2024002426 A JP2024002426 A JP 2024002426A JP 2024026718 A JP2024026718 A JP 2024026718A
Authority
JP
Japan
Prior art keywords
image
ultrasound
information terminal
external device
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2024002426A
Other languages
Japanese (ja)
Inventor
正人 服部
圭司 坪田
知己 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2024026718A publication Critical patent/JP2024026718A/en
Pending legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • A61B8/4472Wireless probes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/56Details of data transmission or power supply
    • A61B8/565Details of data transmission or power supply involving data transmission via a network
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/13Tomography
    • A61B8/14Echo-tomography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device

Abstract

【課題】遠隔地において超音波画像が撮影される場合であっても、適切な超音波画像が得られ且つ超音波診断の精度を向上することができる超音波システムおよび超音波システムの制御方法を提供する。【解決手段】超音波システム(1C)は、超音波プローブ(2C)と携帯情報端末(3C)と外部装置(4C)を備え、携帯情報端末(3C)は、視野画像を取得するカメラ部(33)と、第1の情報が入力される第1の入力装置と、第1の情報伝達部と、視野画像、超音波画像および第1の情報を無線送信する端末側無線通信部(31)とを含み、外部装置(4C)は、外部モニタ(45)と、第2の情報が入力される第2の入力装置と、第2の情報伝達部と、超音波画像と視野画像を外部モニタ(45)に表示する表示制御部(44)と、第2の情報を無線送信する外部無線通信部(46C)とを含み、携帯情報端末(3C)と外部装置(4C)の間で双方向の情報伝達を行う。【選択図】図9[Problem] To provide an ultrasound system and an ultrasound system control method that can obtain appropriate ultrasound images and improve the accuracy of ultrasound diagnosis even when ultrasound images are taken in a remote location. provide. [Solution] An ultrasound system (1C) includes an ultrasound probe (2C), a mobile information terminal (3C), and an external device (4C), and the mobile information terminal (3C) includes a camera unit (4C) that acquires a visual field image. 33), a first input device into which the first information is input, a first information transmission unit, and a terminal-side wireless communication unit (31) that wirelessly transmits the visual field image, the ultrasound image, and the first information. The external device (4C) includes an external monitor (45), a second input device into which the second information is input, a second information transmission unit, and an external monitor that transmits the ultrasound image and the visual field image. (45), and an external wireless communication unit (46C) that wirelessly transmits second information, and bidirectional communication between the mobile information terminal (3C) and the external device (4C). Communicate information. [Selection diagram] Figure 9

Description

本発明は、超音波システムおよび超音波システムの制御方法に係り、特に、携帯情報端末に超音波画像を表示する超音波システムおよび超音波システムの制御方法に関する。 The present invention relates to an ultrasound system and a method of controlling the ultrasound system, and particularly relates to an ultrasound system that displays ultrasound images on a mobile information terminal and a method of controlling the ultrasound system.

従来から、医療分野において、超音波画像を利用した超音波診断装置が実用化されている。一般に、この種の超音波診断装置は、振動子アレイを内蔵した超音波プローブと、この超音波プローブに接続された装置本体とを有しており、超音波プローブから被検体に向けて超音波を送信し、被検体からの超音波エコーを超音波プローブで受信し、その受信信号を装置本体で電気的に処理することにより超音波画像が生成される。 BACKGROUND ART Ultrasonic diagnostic apparatuses that utilize ultrasound images have been put into practical use in the medical field. Generally, this type of ultrasound diagnostic equipment has an ultrasound probe with a built-in transducer array and a device body connected to the ultrasound probe, and the ultrasound probe emits ultrasound waves toward the subject. An ultrasonic image is generated by transmitting an ultrasonic wave, receiving an ultrasonic echo from the subject with an ultrasonic probe, and electrically processing the received signal in the main body of the apparatus.

近年、例えば、特許文献1に開示されているように、超音波プローブを用いて取得された超音波画像を、ユーザから離れた位置に配置された外部モニタに表示し、超音波プローブおよび外部モニタの入力操作を行うための携帯情報端末を備えることにより、超音波診断における利便性を向上させようとする超音波診断装置が開発されている。 In recent years, for example, as disclosed in Patent Document 1, an ultrasound image acquired using an ultrasound probe is displayed on an external monitor placed at a position distant from the user, and Ultrasonic diagnostic apparatuses have been developed that attempt to improve the convenience of ultrasonic diagnosis by including a portable information terminal for performing input operations.

特開2017-86360号公報JP2017-86360A

一般的に、特許文献1に開示されるような超音波診断装置を用いた超音波診断において、超音波画像を確認することにより超音波画像に描出されている被検体内の部位を正確に把握するためには、一定以上の熟練度が必要であることが知られている。また、生成される超音波画像の画質は、操作者の手技に大きく左右されることが知られている。 Generally, in ultrasound diagnosis using an ultrasound diagnostic apparatus such as that disclosed in Patent Document 1, by checking the ultrasound image, it is possible to accurately grasp the region inside the subject depicted in the ultrasound image. It is known that a certain level of skill is required in order to do so. Further, it is known that the image quality of the generated ultrasound image is greatly influenced by the operator's technique.

ここで、例えば、在宅看護等、病院外の遠隔地において超音波画像が撮影される場合には、超音波プローブを操作して超音波画像を撮影する操作者と、撮影された超音波画像を観察して診断を行う医師等の観察者が異なることがある。
この際に、操作者は、通常、得られた超音波画像を自分で確認しながら超音波プローブを操作して、目的とする被検体内の部位の超音波画像を撮影する必要があるため、特に、操作者の熟練度が低い場合には、操作者は、目的とする被検体の部位を正確に観察できているか否かを判断することが困難なことがあった。また、熟練度の低い操作者は、適切な手技を用いて超音波プローブを操作できない場合があり、画質の低い超音波画像が得られてしまうことがあった。また、観察者は、超音波診断装置の操作者が撮影した超音波画像を確認して診断を行うことになるが、操作者が超音波画像を撮影する様子を把握できないため、特に、熟練度の低い操作者により超音波画像が撮影された場合に、撮影された超音波画像が適切な手技により撮影されたものであるか否かを正確に判断することが困難なことがあった。
For example, when ultrasound images are taken in a remote location outside of a hospital, such as during home nursing, an operator who operates an ultrasound probe to take the ultrasound images and an operator who takes the ultrasound images, Observers such as doctors who observe and make diagnoses may be different.
At this time, the operator usually needs to operate the ultrasound probe while checking the obtained ultrasound image himself/herself to capture an ultrasound image of the target area within the subject. Particularly when the operator's skill level is low, it may be difficult for the operator to judge whether or not the target part of the subject is being observed accurately. Furthermore, an operator with low skill level may not be able to operate the ultrasound probe using appropriate techniques, resulting in obtaining ultrasound images with low image quality. In addition, the observer must check the ultrasound images taken by the operator of the ultrasound diagnostic equipment to make a diagnosis, but since the observer cannot see how the operator takes the ultrasound images, it is necessary to When an ultrasound image is taken by an operator with low skill, it may be difficult to accurately determine whether the ultrasound image was taken using an appropriate technique.

本発明は、このような従来の問題点を解消するためになされたものであり、遠隔地において超音波画像が撮影される場合であっても、適切な超音波画像が得られ且つ超音波診断の精度を向上することができる超音波システムおよび超音波システムの制御方法を提供することを目的とする。 The present invention has been made to solve these conventional problems, and even when ultrasound images are taken at a remote location, it is possible to obtain appropriate ultrasound images and perform ultrasound diagnosis. An object of the present invention is to provide an ultrasonic system and a method of controlling the ultrasonic system that can improve the accuracy of the ultrasonic system.

上記目的を達成するために、本発明に係る第1の超音波システムは、超音波プローブと携帯情報端末と外部装置とを備える超音波システムであって、超音波プローブは、振動子アレイと、振動子アレイから超音波を送信し且つ振動子アレイにより取得された受信信号に基づいて音線信号を生成する送受信回路と、送受信回路により生成された音線信号に基づいて超音波画像を生成する超音波画像生成部と、超音波画像を携帯情報端末のみに無線送信するプローブ側無線通信部とを含み、携帯情報端末は、被検体における超音波プローブの走査箇所を撮像した視野画像を取得するカメラ部と、携帯情報端末の操作者により第1の情報が入力される第1の入力装置と、第1の情報伝達部と、外部装置と双方向に無線通信を行い、且つ、カメラ部により取得された視野画像、超音波プローブから受信した超音波画像および第1の入力装置に入力された第1の情報を外部装置に無線送信する端末側無線通信部とを含み、外部装置は、外部モニタと、外部モニタの観察者により第2の情報が入力される第2の入力装置と、第2の情報伝達部と、超音波画像と視野画像とを外部モニタに一緒に表示する表示制御部と、携帯情報端末と双方向に無線通信を行い、且つ、第2の入力装置に入力された第2の情報を携帯情報端末に無線送信する外部無線通信部とを含み、携帯情報端末の第1の情報伝達部が外部装置の第2の入力装置に入力された第2の情報を操作者に伝達し且つ外部装置の第2の情報伝達部が携帯情報端末の第1の入力装置に入力された第1の情報を観察者に伝達することにより、携帯情報端末と外部装置との間において双方向の情報伝達を行うことを特徴とする。 In order to achieve the above object, a first ultrasound system according to the present invention is an ultrasound system that includes an ultrasound probe, a mobile information terminal, and an external device, and the ultrasound probe includes a transducer array, A transmitter/receiver circuit that transmits ultrasound from the transducer array and generates a sound ray signal based on the received signal acquired by the transducer array, and generates an ultrasound image based on the sound ray signal generated by the transmitter/receiver circuit. It includes an ultrasound image generation unit and a probe-side wireless communication unit that wirelessly transmits the ultrasound image only to the mobile information terminal, and the mobile information terminal acquires a visual field image of the scanned location of the ultrasound probe in the subject. A camera section, a first input device into which first information is input by an operator of the mobile information terminal, a first information transmission section, and an external device that performs bidirectional wireless communication; a terminal-side wireless communication unit that wirelessly transmits the acquired visual field image, the ultrasound image received from the ultrasound probe, and first information input to the first input device to an external device; a monitor, a second input device into which second information is input by an observer of the external monitor, a second information transmission section, and a display control section that displays the ultrasound image and the visual field image together on the external monitor. and an external wireless communication unit that performs bidirectional wireless communication with the mobile information terminal and wirelessly transmits second information input to the second input device to the mobile information terminal, The first information transmission unit transmits the second information input to the second input device of the external device to the operator, and the second information transmission unit of the external device inputs the second information to the first input device of the mobile information terminal. The present invention is characterized in that two-way information transmission is performed between the portable information terminal and the external device by transmitting the first information obtained to the observer to the observer.

携帯情報端末は、端末モニタを含み、超音波画像と視野画像とが端末モニタに表示され得る。
携帯情報端末は、超音波画像と視野画像とを互いに同期させる第2の画像同期部を含むことができる。
また、外部装置は、入力装置を含み、外部無線通信部は、入力装置を介して入力された外部入力情報を端末側無線通信部に無線送信し、外部入力情報が端末モニタに表示され得る。
携帯情報端末は、超音波プローブおよび携帯情報端末を操作する操作者の頭部に装着可能であってもよい。
The portable information terminal includes a terminal monitor, and the ultrasound image and the field of view image can be displayed on the terminal monitor.
The mobile information terminal can include a second image synchronization unit that synchronizes the ultrasound image and the visual field image with each other.
Further, the external device includes an input device, and the external wireless communication unit wirelessly transmits external input information input via the input device to the terminal side wireless communication unit, so that the external input information can be displayed on the terminal monitor.
The portable information terminal may be attachable to the head of an operator who operates the ultrasound probe and the portable information terminal.

本発明に係る第1の超音波システムの制御方法は、超音波プローブと携帯情報端末と外部装置とを備える超音波システムの制御方法であって、超音波プローブにおいて、超音波プローブの振動子アレイから超音波を送信し且つ振動子アレイにより取得された受信信号に基づいて音線信号を生成し、生成された音線信号に基づいて超音波画像を生成し、超音波画像を携帯情報端末に無線送信し、携帯情報端末において、被検体における超音波プローブの走査箇所を撮像した視野画像を取得し、携帯情報端末の操作者による第1の情報の入力を受け付け、取得された視野画像、超音波プローブから無線送信された超音波画像および入力が受け付けられた第1の情報を外部装置に無線送信し、外部装置において、超音波画像と視野画像とを一緒に外部モニタに表示し、外部モニタの観察者による第2の情報の入力を受け付け、携帯情報端末が外部装置において入力された第2の情報を操作者に伝達し且つ外部装置が携帯情報端末において入力された第1の情報を観察者に伝達することにより、携帯情報端末と外部装置との間において双方向の情報伝達を行うことを特徴とする。 A first method for controlling an ultrasound system according to the present invention is a method for controlling an ultrasound system including an ultrasound probe, a personal digital assistant, and an external device, the ultrasound probe including a transducer array of the ultrasound probe. transmits ultrasound waves from the transducer array, generates a sound ray signal based on the received signal acquired by the transducer array, generates an ultrasound image based on the generated sound ray signal, and sends the ultrasound image to a mobile information terminal. The mobile information terminal transmits the field of view image of the scanned location of the ultrasound probe on the subject by radio, receives the input of the first information from the operator of the mobile information terminal, and then transmits the field of view image and ultrasound image to the mobile information terminal. The ultrasound image wirelessly transmitted from the sonic probe and the first information whose input has been accepted are wirelessly transmitted to an external device, and the external device displays the ultrasound image and the field of view image together on an external monitor. the mobile information terminal transmits the second information input on the external device to the operator, and the external device observes the first information input on the mobile information terminal. The feature is that two-way information transmission is performed between the portable information terminal and the external device by transmitting the information to the user.

本発明に係る第2の超音波システムは、超音波プローブと携帯情報端末と外部装置とを備える超音波システムであって、超音波プローブは、振動子アレイと、振動子アレイから超音波を送信し且つ振動子アレイにより取得された受信信号に基づいて音線信号を生成する送受信回路と、送受信回路により生成された音線信号に信号処理を施すことにより画像化前の受信データを生成する受信データ生成部と、受信データを携帯情報端末のみに無線送信するプローブ側無線通信部とを含み、携帯情報端末は、被検体における超音波プローブの走査箇所を撮像した視野画像を取得するカメラ部と、携帯情報端末の操作者により第1の情報が入力される第1の入力装置と、第1の情報伝達部と、外部装置と双方向に無線通信を行い、且つ、少なくともカメラ部により取得された視野画像および第1の入力装置に入力された第1の情報を外部装置に無線送信する端末側無線通信部とを含み、外部装置は、外部モニタと、外部モニタの観察者により第2の情報が入力される第2の入力装置と、第2の情報伝達部と、受信データに基づいて生成された超音波画像と視野画像とを外部モニタに一緒に表示する表示制御部とを含み、携帯情報端末の第1の情報伝達部が外部装置の第2の入力装置に入力された第2の情報を操作者に伝達し且つ外部装置の第2の情報伝達部が携帯情報端末の第1の入力装置に入力された第1の情報を観察者に伝達することにより、携帯情報端末と外部装置との間において双方向の情報伝達を行うことを特徴とする。 A second ultrasound system according to the present invention is an ultrasound system that includes an ultrasound probe, a mobile information terminal, and an external device, and the ultrasound probe includes a transducer array and transmits ultrasound waves from the transducer array. and a transmitter/receiver circuit that generates a sound ray signal based on the received signal acquired by the transducer array, and a receiver that generates received data before imaging by performing signal processing on the sound ray signal generated by the transmitter/receiver circuit. The mobile information terminal includes a data generation unit and a probe-side wireless communication unit that wirelessly transmits received data only to the mobile information terminal, and the mobile information terminal includes a camera unit that acquires a visual field image of the scanned location of the ultrasound probe in the subject. , a first input device into which first information is input by an operator of the mobile information terminal, a first information transmission unit, and an external device, and performs bidirectional wireless communication with the external device, and at least information that is acquired by the camera unit. a terminal-side wireless communication unit that wirelessly transmits the field-of-view image and the first information input to the first input device to an external device, and the external device includes an external monitor and a second information input by an observer of the external monitor. A second input device into which information is input, a second information transmission unit, and a display control unit that displays an ultrasound image and a visual field image generated based on the received data on an external monitor, The first information transmitting section of the mobile information terminal transmits the second information input to the second input device of the external device to the operator, and the second information transmitting section of the external device transmits the second information inputted to the second input device of the external device. The present invention is characterized in that bidirectional information transmission is performed between the portable information terminal and the external device by transmitting the first information input to the input device to the observer.

外部装置は、プローブ側無線通信部から無線送信された受信データに基づいて超音波画像を生成する画像処理部を含むことができる。
または、プローブ側無線通信部は、受信データを携帯情報端末に無線送信し、
携帯情報端末は、プローブ側無線通信部から無線送信された受信データに基づいて超音波画像を生成する画像処理部を含み、端末側無線通信部は、画像処理部により生成された超音波画像とカメラ部により取得された視野画像とを外部装置に無線送信することもできる。
この際に、携帯情報端末は、端末モニタを含み、超音波画像と視野画像とが端末モニタに表示され得る。
The external device can include an image processing unit that generates an ultrasound image based on received data wirelessly transmitted from the probe-side wireless communication unit.
Alternatively, the probe-side wireless communication unit wirelessly transmits the received data to the mobile information terminal,
The mobile information terminal includes an image processing unit that generates an ultrasound image based on received data wirelessly transmitted from the probe side wireless communication unit, and the terminal side wireless communication unit generates an ultrasound image and the ultrasound image generated by the image processing unit. It is also possible to wirelessly transmit the visual field image acquired by the camera unit to an external device.
At this time, the portable information terminal includes a terminal monitor, and the ultrasound image and the visual field image can be displayed on the terminal monitor.

外部装置は、入力装置を含み、外部無線通信部は、入力装置を介して入力された外部入力情報を端末側無線通信部に無線送信し、外部入力情報が端末モニタに表示され得る。
携帯情報端末は、超音波プローブおよび携帯情報端末を操作する操作者の頭部に装着可能であってもよい。
The external device includes an input device, and the external wireless communication unit wirelessly transmits external input information input via the input device to the terminal side wireless communication unit, so that the external input information can be displayed on the terminal monitor.
The portable information terminal may be attachable to the head of an operator who operates the ultrasound probe and the portable information terminal.

本発明に係る第2の超音波システムの制御方法は、超音波プローブと携帯情報端末と外部装置とを備える超音波システムの制御方法であって、超音波プローブにおいて、超音波プローブの振動子アレイから超音波を送信し且つ振動子アレイにより取得された受信信号に基づいて音線信号を生成し、生成された音線信号に信号処理を施すことにより画像化前の受信データを生成し、受信データを携帯情報端末に無線送信し、携帯情報端末において、被検体における超音波プローブの走査箇所を撮像した視野画像を取得し、携帯情報端末の操作者による第1の情報の入力を受け付け、少なくとも取得された視野画像および入力が受け付けられた第1の情報を外部装置に無線送信し、外部装置において、受信データに基づいて生成された超音波画像と視野画像とを外部モニタに一緒に表示し、外部モニタの観察者による第2の情報の入力を受け付け、携帯情報端末が外部装置において入力された第2の情報を操作者に伝達し且つ外部装置が携帯情報端末において入力された第1の情報を観察者に伝達することにより、携帯情報端末と外部装置との間において双方向の情報伝達を行うことを特徴とする。 A second method for controlling an ultrasound system according to the present invention is a method for controlling an ultrasound system including an ultrasound probe, a personal digital assistant, and an external device, the ultrasound probe including a transducer array of the ultrasound probe. transmits ultrasonic waves from the transducer array, generates a sound ray signal based on the received signal acquired by the transducer array, performs signal processing on the generated sound ray signal to generate received data before imaging, and receives wirelessly transmitting the data to a mobile information terminal, acquiring a field of view image of the scanned location of the ultrasound probe on the subject in the mobile information terminal, receiving input of first information by an operator of the mobile information terminal, and at least The acquired visual field image and the first information whose input has been accepted are wirelessly transmitted to an external device, and the external device displays the ultrasound image and the visual field image generated based on the received data together on an external monitor. , the mobile information terminal receives the input of second information by the observer of the external monitor, the mobile information terminal transmits the second information input on the external device to the operator, and the external device transmits the first information input on the mobile information terminal. It is characterized by bidirectional information transmission between the portable information terminal and the external device by transmitting information to the observer.

本発明によれば、超音波プローブが、振動子アレイと、振動子アレイから超音波を送信し且つ振動子アレイにより取得された受信信号に基づいて音線信号を生成する送受信回路と、送受信回路により生成された音線信号に基づいて超音波画像を生成する超音波画像生成部と、超音波画像を携帯情報端末のみに無線送信するプローブ側無線通信部とを含み、携帯情報端末が、被検体における超音波プローブの走査箇所を撮像した視野画像を取得するカメラ部と、携帯情報端末の操作者により第1の情報が入力される第1の入力装置と、第1の情報伝達部と、外部装置と双方向に無線通信を行い、且つ、カメラ部により取得された視野画像、超音波プローブから受信した超音波画像および第1の入力装置に入力された第1の情報を外部装置に無線送信する端末側無線通信部とを含み、外部装置が、外部モニタと、外部モニタの観察者により第2の情報が入力される第2の入力装置と、第2の情報伝達部と、超音波画像と視野画像とを外部モニタに一緒に表示する表示制御部と、携帯情報端末と双方向に無線通信を行い、且つ、第2の入力装置に入力された第2の情報を携帯情報端末に無線送信する外部無線通信部とを含み、携帯情報端末の第1の情報伝達部が外部装置の第2の入力装置に入力された第2の情報を操作者に伝達し且つ外部装置の第2の情報伝達部が携帯情報端末の第1の入力装置に入力された第1の情報を観察者に伝達することにより、携帯情報端末と外部装置との間において双方向の情報伝達を行うため、遠隔地において超音波画像が撮影される場合であっても、適切な超音波画像が得られ且つ超音波診断の精度を向上することができる。 According to the present invention, an ultrasonic probe includes a transducer array, a transmitting/receiving circuit that transmits ultrasonic waves from the transducer array and generates a sound ray signal based on a received signal acquired by the transducer array, and a transmitting/receiving circuit. and a probe-side wireless communication unit that wirelessly transmits the ultrasound image only to the mobile information terminal. a camera unit that acquires a field-of-view image of a location scanned by an ultrasound probe in a specimen; a first input device into which first information is input by an operator of a mobile information terminal; and a first information transmission unit; It performs bidirectional wireless communication with an external device, and wirelessly transmits the visual field image acquired by the camera unit, the ultrasound image received from the ultrasound probe, and the first information input to the first input device to the external device. the external device includes an external monitor, a second input device into which second information is input by an observer of the external monitor, a second information transmission section, and an ultrasonic wave transmitting terminal side wireless communication section. A display control unit that displays the image and the visual field image together on an external monitor, and a display control unit that performs bidirectional wireless communication with the mobile information terminal, and transmits second information input to the second input device to the mobile information terminal. an external wireless communication unit that transmits wirelessly, the first information transmission unit of the portable information terminal transmits the second information input to the second input device of the external device to the operator, and the second information transmission unit of the external device transmits the second information input to the second input device of the external device The information transmission unit transmits the first information input to the first input device of the mobile information terminal to the observer, thereby performing two-way information transmission between the mobile information terminal and the external device, Even when an ultrasound image is taken at a remote location, an appropriate ultrasound image can be obtained and the accuracy of ultrasound diagnosis can be improved.

本発明の実施の形態1に係る超音波システムの構成を示すブロック図である。1 is a block diagram showing the configuration of an ultrasound system according to Embodiment 1 of the present invention. FIG. 本発明の実施の形態1における送受信回路の内部構成を示すブロック図である。FIG. 2 is a block diagram showing the internal configuration of a transmitting and receiving circuit in Embodiment 1 of the present invention. 本発明の実施の形態1における携帯情報端末の例を模式的に示す図である。1 is a diagram schematically showing an example of a portable information terminal in Embodiment 1 of the present invention. FIG. 本発明の実施の形態1における外部装置の例を模式的に示す図である。FIG. 3 is a diagram schematically showing an example of an external device in Embodiment 1 of the present invention. 本発明の実施の形態1の変形例において視野画像上に配置されたカーソルの例を模式的に示す図である。FIG. 7 is a diagram schematically showing an example of a cursor placed on a visual field image in a modification of the first embodiment of the present invention. 本発明の実施の形態1の他の変形例における携帯情報端末の構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of a portable information terminal in another modification of the first embodiment of the present invention. 本発明の実施の形態1の他の変形例における外部装置の構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of an external device in another modification of Embodiment 1 of the present invention. 本発明の実施の形態2に係る超音波システムの構成を示すブロック図である。FIG. 2 is a block diagram showing the configuration of an ultrasound system according to Embodiment 2 of the present invention. 本発明の実施の形態3に係る超音波システムの構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of an ultrasound system according to Embodiment 3 of the present invention. 本発明の実施の形態4に係る超音波システムの構成を示すブロック図である。FIG. 3 is a block diagram showing the configuration of an ultrasound system according to Embodiment 4 of the present invention. 本発明の実施の形態5に係る超音波システムの構成を示すブロック図である。It is a block diagram showing the composition of the ultrasonic system concerning Embodiment 5 of the present invention. 本発明の実施の形態5における外部装置に表示される超音波画像と視野画像の例を模式的に示す図である。It is a figure which shows typically the example of the ultrasound image and visual field image displayed on the external device in Embodiment 5 of this invention. 本発明の実施の形態6に係る超音波システムの構成を示すブロック図である。It is a block diagram showing the composition of the ultrasonic system concerning Embodiment 6 of the present invention.

以下、この発明の実施の形態を添付図面に基づいて説明する。
以下に記載する構成要件の説明は、本発明の代表的な実施態様に基づいてなされるが、本発明はそのような実施態様に限定されるものではない。
なお、本明細書において、「~」を用いて表される数値範囲は、「~」の前後に記載される数値を下限値および上限値として含む範囲を意味する。
本明細書において、「同一」、「同じ」は、技術分野で一般的に許容される誤差範囲を含むものとする。
Embodiments of the present invention will be described below based on the accompanying drawings.
Although the description of the constituent elements described below is based on typical embodiments of the present invention, the present invention is not limited to such embodiments.
Note that in this specification, a numerical range expressed using "~" means a range that includes the numerical values written before and after "~" as the lower limit and upper limit.
In this specification, "same" and "same" include error ranges generally accepted in the technical field.

実施の形態1
図1に、本発明の実施の形態1に係る超音波システム1の構成を示す。超音波システム1は、超音波プローブ2と携帯情報端末3と外部装置4とを備えている。超音波プローブ2に、携帯情報端末3および外部装置4が無線通信により接続されており、携帯情報端末3と外部装置4は、無線通信により互いに接続されている。
Embodiment 1
FIG. 1 shows the configuration of an ultrasound system 1 according to Embodiment 1 of the present invention. The ultrasound system 1 includes an ultrasound probe 2, a mobile information terminal 3, and an external device 4. A portable information terminal 3 and an external device 4 are connected to the ultrasound probe 2 by wireless communication, and the portable information terminal 3 and the external device 4 are connected to each other by wireless communication.

超音波プローブ2は、振動子アレイ21を備えており、振動子アレイ21に送受信回路22、信号処理部23およびプローブ側無線通信部24が順次接続されている。プローブ側無線通信部24は、携帯情報端末3および外部装置4に無線通信により接続されている。また、図示しないが、信号処理部23により、受信データ生成部が構成されている。
また、送受信回路22、信号処理部23およびプローブ側無線通信部24に、プローブ制御部26が接続されている。また、信号処理部23、プローブ側無線通信部24およびプローブ制御部26により、プローブ側プロセッサ27が構成されている。
The ultrasound probe 2 includes a transducer array 21, to which a transmitting/receiving circuit 22, a signal processing section 23, and a probe-side wireless communication section 24 are sequentially connected. The probe-side wireless communication unit 24 is connected to the mobile information terminal 3 and the external device 4 by wireless communication. Although not shown, the signal processing section 23 constitutes a received data generation section.
Further, a probe control section 26 is connected to the transmitting/receiving circuit 22, the signal processing section 23, and the probe side wireless communication section 24. Further, the signal processing section 23, the probe side wireless communication section 24, and the probe control section 26 constitute a probe side processor 27.

携帯情報端末3は、超音波プローブ2および外部装置4に無線通信により接続される端末側無線通信部31を備えており、端末側無線通信部31に、画像処理部32が接続されている。また、携帯情報端末3は、カメラ部33を備えており、カメラ部33は、端末側無線通信部31に接続されている。また、画像処理部32とカメラ部33に、画像同期部34が接続されている。
また、画像同期部34に、表示制御部35と端末モニタ36が順次接続されている。また、端末側無線通信部31、画像処理部32、カメラ部33、画像同期部34、表示制御部35に、端末制御部37が接続されている。また、端末制御部37に、入力装置38が接続されている。また、端末側無線通信部31、画像処理部32、画像同期部34、表示制御部35および端末制御部37により、端末側プロセッサ39が構成されている。
The mobile information terminal 3 includes a terminal-side wireless communication section 31 that is connected to the ultrasound probe 2 and the external device 4 by wireless communication, and an image processing section 32 is connected to the terminal-side wireless communication section 31. Furthermore, the mobile information terminal 3 includes a camera section 33, and the camera section 33 is connected to the terminal-side wireless communication section 31. Further, an image synchronization section 34 is connected to the image processing section 32 and the camera section 33.
Further, a display control section 35 and a terminal monitor 36 are connected to the image synchronization section 34 in sequence. Further, a terminal control section 37 is connected to the terminal side wireless communication section 31, image processing section 32, camera section 33, image synchronization section 34, and display control section 35. Further, an input device 38 is connected to the terminal control section 37 . Further, the terminal side processor 39 is composed of the terminal side wireless communication section 31, the image processing section 32, the image synchronization section 34, the display control section 35, and the terminal control section 37.

外部装置4は、超音波プローブ2および携帯情報端末3に無線通信により接続される外部無線通信部41を備えており、外部無線通信部41に、画像処理部42および画像同期部43が接続されている。また、画像処理部42は、画像同期部43に接続されている。また、画像同期部43に、表示制御部44と外部モニタ45が順次接続されている。
また、外部無線通信部41、画像処理部42、画像同期部43および表示制御部44に、外部制御部46が接続されている。また、外部制御部46に、入力装置47が接続されている。また、外部無線通信部41、画像処理部42、画像同期部43、表示制御部44および外部制御部46により、外部装置側プロセッサ48が構成されている。
The external device 4 includes an external wireless communication section 41 that is connected to the ultrasound probe 2 and the mobile information terminal 3 by wireless communication, and an image processing section 42 and an image synchronization section 43 are connected to the external wireless communication section 41. ing. Further, the image processing section 42 is connected to an image synchronization section 43. Further, a display control section 44 and an external monitor 45 are connected to the image synchronization section 43 in sequence.
Further, an external control section 46 is connected to the external wireless communication section 41, the image processing section 42, the image synchronization section 43, and the display control section 44. Furthermore, an input device 47 is connected to the external control section 46 . Further, the external wireless communication section 41, the image processing section 42, the image synchronization section 43, the display control section 44, and the external control section 46 constitute an external device side processor 48.

超音波プローブ2の振動子アレイ21は、1次元または2次元に配列された複数の振動子を有している。これらの振動子は、それぞれ送受信回路22から供給される駆動信号に従って超音波を送信すると共に、被検体からの超音波エコーを受信して、超音波エコーに基づく受信信号を出力する。各振動子は、例えば、PZT(Lead Zirconate Titanate:チタン酸ジルコン酸鉛)に代表される圧電セラミック、PVDF(Poly Vinylidene Di Fluoride:ポリフッ化ビニリデン)に代表される高分子圧電素子およびPMN-PT(Lead Magnesium Niobate-Lead Titanate:マグネシウムニオブ酸鉛-チタン酸鉛固溶体)に代表される圧電単結晶等からなる圧電体の両端に電極を形成することにより構成される。 The transducer array 21 of the ultrasound probe 2 has a plurality of transducers arranged one-dimensionally or two-dimensionally. These transducers transmit ultrasonic waves according to drive signals supplied from the transmitting/receiving circuit 22, receive ultrasonic echoes from the subject, and output reception signals based on the ultrasonic echoes. Each vibrator is made of, for example, a piezoelectric ceramic represented by PZT (Lead Zirconate Titanate), a polymer piezoelectric element represented by PVDF (Poly Vinylidene Di Fluoride), and a PMN-PT ( It is constructed by forming electrodes at both ends of a piezoelectric material made of a piezoelectric single crystal such as Lead Magnesium Niobate-Lead Titanate (lead magnesium niobate-lead titanate solid solution).

送受信回路22は、プローブ制御部26による制御の下で、振動子アレイ21から超音波を送信し且つ振動子アレイ21により取得された受信信号に基づいて音線信号を生成する。送受信回路22は、図2に示すように、振動子アレイ21に接続されるパルサ51と、振動子アレイ21から順次直列に接続される増幅部52、AD(Analog Digital)変換部53、ビームフォーマ54を有している。 The transmitting/receiving circuit 22 transmits ultrasonic waves from the transducer array 21 under the control of the probe controller 26 and generates a sound beam signal based on the received signal acquired by the transducer array 21. As shown in FIG. 2, the transmitting/receiving circuit 22 includes a pulser 51 connected to the transducer array 21, an amplifying section 52, an AD (Analog Digital) converting section 53, and a beam former connected in series from the transducer array 21. It has 54.

パルサ51は、例えば、複数のパルス発生器を含んでおり、プローブ制御部26からの制御信号に応じて選択された送信遅延パターンに基づいて、振動子アレイ21の複数の振動子から送信される超音波が超音波ビームを形成するようにそれぞれの駆動信号を、遅延量を調節して複数の振動子に供給する。このように、振動子アレイ21の振動子の電極にパルス状または連続波状の電圧が印加されると、圧電体が伸縮し、それぞれの振動子からパルス状または連続波状の超音波が発生して、それらの超音波の合成波から、超音波ビームが形成される。 The pulser 51 includes, for example, a plurality of pulse generators, and transmits pulses from the plurality of transducers of the transducer array 21 based on a transmission delay pattern selected according to a control signal from the probe control unit 26. Each drive signal is supplied to the plurality of transducers with the amount of delay adjusted so that the ultrasonic waves form an ultrasonic beam. In this way, when a pulsed or continuous wave voltage is applied to the electrodes of the transducers of the transducer array 21, the piezoelectric material expands and contracts, and pulsed or continuous wave ultrasound is generated from each transducer. , an ultrasonic beam is formed from the composite wave of those ultrasonic waves.

送信された超音波ビームは、例えば、被検体の部位等の対象において反射され、超音波プローブ2の振動子アレイ21に向かって伝搬する。このように振動子アレイ21に向かって伝搬する超音波エコーは、振動子アレイ21を構成するそれぞれの振動子は、伝搬する超音波エコーを受信することにより伸縮して、電気信号である受信信号を発生させ、これらの受信信号を増幅部52に出力する。 The transmitted ultrasound beam is reflected by a target such as a part of the subject, and propagates toward the transducer array 21 of the ultrasound probe 2 . The ultrasonic echoes propagating toward the transducer array 21 in this way are expanded and contracted by each transducer configuring the transducer array 21 by receiving the propagating ultrasonic echoes. and outputs these received signals to the amplifying section 52.

増幅部52は、振動子アレイ21を構成するそれぞれの振動子から入力された信号を増幅し、増幅した信号をAD変換部53に送信する。AD変換部53は、増幅部52から送信された信号をデジタルの受信データに変換し、これらの受信データをビームフォーマ54に送信する。ビームフォーマ54は、プローブ制御部26からの制御信号に応じて選択された受信遅延パターンに基づいて設定される音速または音速の分布に従い、AD変換部53により変換された各受信データに対してそれぞれの遅延を与えて加算することにより、いわゆる受信フォーカス処理を行う。この受信フォーカス処理により、AD変換部53で変換された各受信データが整相加算され且つ超音波エコーの焦点が絞り込まれた音線信号が取得される。 The amplifying section 52 amplifies the signals input from the respective vibrators constituting the vibrator array 21 and transmits the amplified signals to the AD converting section 53. The AD conversion section 53 converts the signal transmitted from the amplification section 52 into digital reception data, and transmits this reception data to the beamformer 54. The beamformer 54 performs the following on each received data converted by the AD converter 53 according to the sound speed or the sound speed distribution set based on the reception delay pattern selected according to the control signal from the probe controller 26. So-called reception focus processing is performed by adding the signals with a delay of . Through this reception focus processing, each reception data converted by the AD converter 53 is phased and added, and a sound ray signal in which the ultrasonic echo is focused is acquired.

信号処理部23は、送受信回路22のビームフォーマ54により生成された音線信号に信号処理を施すことにより、画像化前の受信データを生成する。より具体的には、信号処理部23は、送受信回路22のビームフォーマ54により生成された音線信号に対して、超音波が反射した位置の深度に応じて伝搬距離に起因する減衰の補正を施した後、包絡線検波処理を施して、画像化前の受信データとして、被検体内の組織に関する断層画像情報を表す信号を生成する。 The signal processing unit 23 performs signal processing on the sound ray signal generated by the beamformer 54 of the transmitting/receiving circuit 22 to generate received data before being imaged. More specifically, the signal processing unit 23 corrects the attenuation caused by the propagation distance on the sound ray signal generated by the beamformer 54 of the transmitting/receiving circuit 22 according to the depth of the position where the ultrasonic wave is reflected. After that, envelope detection processing is performed to generate a signal representing tomographic image information regarding the tissue inside the subject as received data before imaging.

プローブ側無線通信部24は、電波の送信および受信を行うためのアンテナを含んでおり、信号処理部23により生成された画像化前の受信データに基づいてキャリアを変調して、画像化前の受信データを表す伝送信号を生成する。プローブ側無線通信部24は、このようにして生成された伝送信号をアンテナに供給してアンテナから電波を送信することにより、画像化前の受信データを携帯情報端末3の端末側無線通信部31および外部装置4の外部無線通信部41に対して順次無線送信する。キャリアの変調方式としては、ASK(Amplitude Shift Keying:振幅偏移変調)、PSK(Phase Shift Keying:位相偏移変調)、QPSK(Quadrature Phase Shift Keying:四位相偏移変調)、16QAM(16 Quadrature Amplitude Modulation:16直角位相振幅変調)等が用いられる。 The probe-side wireless communication unit 24 includes an antenna for transmitting and receiving radio waves, and modulates a carrier based on the received data before imaging generated by the signal processing unit 23, thereby transmitting and receiving radio waves. Generate a transmission signal representing the received data. The probe-side wireless communication unit 24 supplies the transmission signal generated in this manner to the antenna and transmits radio waves from the antenna, thereby transmitting the received data before image formation to the terminal-side wireless communication unit 31 of the mobile information terminal 3. Then, the data is sequentially transmitted wirelessly to the external wireless communication unit 41 of the external device 4. Carrier modulation methods include ASK (Amplitude Shift Keying), PSK (Phase Shift Keying), QPSK (Quadrature Phase Shift Keying), and 16QAM (16 Quadrature Amplitude Keying). Modulation: 16 quadrature phase amplitude modulation) etc. are used.

また、超音波プローブ2のプローブ側無線通信部24、携帯情報端末3の端末側無線通信部31および外部装置4の外部無線通信部41の間の無線通信は、5G(5th Generation:第5世代移動通信システム)、4G(4th Generation:第4世代移動通信システム)等の移動体通信に関する通信規格、WiFi(登録商標)、Bluetooth(登録商標)、UWB(Ultra Wide Band:超広帯域無線システム)等の近距離無線通信に関する通信規格に従ってなされることができる。 Further, wireless communication between the probe-side wireless communication unit 24 of the ultrasound probe 2, the terminal-side wireless communication unit 31 of the mobile information terminal 3, and the external wireless communication unit 41 of the external device 4 is performed using 5G (5th Generation). Communication standards related to mobile communications such as mobile communication systems), 4G (4th Generation), WiFi (registered trademark), Bluetooth (registered trademark), UWB (Ultra Wide Band), etc. This can be done in accordance with communication standards regarding short-range wireless communication.

超音波プローブ2と携帯情報端末3とは、互いに近傍に位置することが想定されるため、超音波プローブ2と携帯情報端末3との間の無線通信として、移動体通信および近距離無線通信のいずれの無線通信方式が採用されることもできる。
また、外部装置4は、超音波プローブ2および携帯情報端末3に対して遠隔地に位置することが想定されるため、外部装置4と超音波プローブ2との間の無線通信および外部装置4と携帯情報端末3との間の無線通信として、移動体通信がなされることが好ましい。特に、外部装置4と超音波プローブ2および携帯情報端末3との間のデータの伝送におけるタイムラグを低減する観点から、外部装置4と超音波プローブ2との間の無線通信および外部装置4と携帯情報端末3との間の無線通信として、5Gに従う移動体通信がなされることが好ましい。
Since the ultrasound probe 2 and the mobile information terminal 3 are assumed to be located close to each other, the wireless communication between the ultrasound probe 2 and the mobile information terminal 3 is based on mobile communication and short-range wireless communication. Any wireless communication method can be adopted.
Furthermore, since it is assumed that the external device 4 is located in a remote location with respect to the ultrasound probe 2 and the mobile information terminal 3, wireless communication between the external device 4 and the ultrasound probe 2 and the connection between the external device 4 and the It is preferable that the wireless communication with the portable information terminal 3 be carried out by mobile communication. In particular, from the viewpoint of reducing the time lag in data transmission between the external device 4 and the ultrasound probe 2 and the mobile information terminal 3, wireless communication between the external device 4 and the ultrasound probe 2 and the wireless communication between the external device 4 and the mobile information terminal 3 are important. As the wireless communication with the information terminal 3, it is preferable that mobile communication according to 5G is performed.

プローブ制御部26は、予め記憶している制御プログラム等に基づいて、超音波プローブ2の各部の制御を行う。
また、図示しないが、プローブ制御部26に、プローブ側格納部が接続されている。プローブ側格納部は、超音波プローブ2の制御プログラム等を記憶している。また、プローブ側格納部としては、例えば、フラッシュメモリ、RAM(Random Access Memory:ランダムアクセスメモリ)、SDカード(Secure Digital card:セキュアデジタルカード)、SSD(Solid State Drive:ソリッドステートドライブ)等を用いることができる。
また、図示しないが、超音波プローブ2には、バッテリが内蔵されており、このバッテリから超音波プローブ2の各回路に電力が供給される。
The probe control unit 26 controls each part of the ultrasound probe 2 based on a control program stored in advance.
Further, although not shown, a probe side storage section is connected to the probe control section 26. The probe-side storage unit stores a control program for the ultrasound probe 2 and the like. Further, as the probe side storage unit, for example, a flash memory, RAM (Random Access Memory), SD card (Secure Digital card), SSD (Solid State Drive), etc. are used. be able to.
Although not shown, the ultrasonic probe 2 has a built-in battery, and power is supplied from the battery to each circuit of the ultrasonic probe 2.

なお、信号処理部23、プローブ側無線通信部24およびプローブ制御部26を有するプローブ側プロセッサ27は、CPU(Central Processing Unit:中央処理装置)、および、CPUに各種の処理を行わせるための制御プログラムから構成されるが、FPGA(Field Programmable Gate Array:フィードプログラマブルゲートアレイ)、DSP(Digital Signal Processor:デジタルシグナルプロセッサ)、ASIC(Application Specific Integrated Circuit:アプリケーションスペシフィックインテグレイテッドサーキット)、GPU(Graphics Processing Unit:グラフィックスプロセッシングユニット)、その他のIC(Integrated Circuit:集積回路)を用いて構成されてもよく、もしくはそれらを組み合わせて構成されてもよい。 The probe-side processor 27, which includes the signal processing section 23, the probe-side wireless communication section 24, and the probe control section 26, includes a CPU (Central Processing Unit) and a control unit for causing the CPU to perform various processes. It consists of programs such as FPGA (Field Programmable Gate Array), DSP (Digital Signal Processor), ASIC (Application Specific Integrated Circuit), and GPU (Graphics Processing Unit). : graphics processing unit), other ICs (Integrated Circuits), or a combination of these.

また、プローブ側プロセッサ27の信号処理部23、プローブ側無線通信部24およびプローブ制御部26は、部分的にあるいは全体的に1つのCPU等に統合させて構成することもできる。 Further, the signal processing section 23, the probe side wireless communication section 24, and the probe control section 26 of the probe side processor 27 can be partially or entirely integrated into one CPU or the like.

携帯情報端末3の端末側無線通信部31は、電波の送信および受信を行うためのアンテナを含んでおり、端末制御部37の制御の下で、超音波プローブ2のプローブ側無線通信部24により送信された画像化前の受信データを表す伝送信号を、アンテナを介して受信し、受信した伝送信号を復調することにより画像化前の受信データを出力する。さらに、端末側無線通信部31は、画像化前の受信データを画像処理部32に送出する。 The terminal-side wireless communication unit 31 of the mobile information terminal 3 includes an antenna for transmitting and receiving radio waves, and is controlled by the probe-side wireless communication unit 24 of the ultrasound probe 2 under the control of the terminal control unit 37. A transmission signal representing the transmitted received data before being imaged is received via an antenna, and the received transmission signal is demodulated to output the received data before being imaged. Furthermore, the terminal-side wireless communication section 31 sends the received data before being imaged to the image processing section 32.

画像処理部32は、端末側無線通信部31から送出された画像化前の受信データを、通常のテレビジョン信号の走査方式に従う画像信号にラスター変換し、変換された画像信号に対して、端末モニタ36用の表示フォーマットに従う明るさ補正、階調補正、シャープネス補正、画像サイズ補正、リフレッシュレート補正、走査周波数補正および色補正等の各種の必要な画像処理を施すことによりBモード(Brightness mode:輝度モード)画像信号を生成する。このようにして生成されたBモード画像信号を、単に、超音波画像Uと呼ぶ。また、画像処理部32は、生成された超音波画像Uを画像同期部34に送出する。 The image processing unit 32 raster-converts the received data sent from the terminal-side wireless communication unit 31 before image formation into an image signal according to the scanning method of a normal television signal, and transmits the converted image signal to the terminal. B mode (Brightness mode: Brightness mode) Generates an image signal. The B-mode image signal generated in this manner is simply referred to as an ultrasound image U. The image processing unit 32 also sends the generated ultrasound image U to the image synchronization unit 34.

カメラ部33は、被検体における超音波プローブ2の走査箇所を撮像した視野画像Cを取得する。図示しないが、カメラ部33は、撮影レンズと、撮影レンズを通して超音波プローブ2の走査箇所を撮影して、アナログ信号である視野画像信号を取得するイメージセンサと、イメージセンサにより取得された視野画像信号を増幅し且つデジタル信号に変換するアナログ信号処理回路と、変換されたデジタル信号に対してゲイン等の各種の補正を行って視野画像Cを生成するデジタル信号処理回路が内蔵されている。アナログ信号処理回路およびデジタル信号処理回路は、端末側プロセッサ39に内蔵されることもできる。カメラ部33は、生成された視野画像Cを、端末側無線通信部31および画像同期部34に送出する。また、端末側無線通信部31に送出された視野画像Cは、端末側無線通信部31により、外部装置4に無線送信される。 The camera unit 33 acquires a visual field image C that captures the scanned location of the ultrasound probe 2 on the subject. Although not shown, the camera unit 33 includes a photographic lens, an image sensor that photographs the scanning location of the ultrasound probe 2 through the photographic lens and obtains a visual field image signal that is an analog signal, and a visual field image acquired by the image sensor. An analog signal processing circuit that amplifies a signal and converts it into a digital signal, and a digital signal processing circuit that performs various corrections such as gain on the converted digital signal to generate a visual field image C are built in. The analog signal processing circuit and the digital signal processing circuit can also be built into the terminal side processor 39. The camera section 33 sends the generated visual field image C to the terminal side wireless communication section 31 and the image synchronization section 34. Further, the visual field image C sent to the terminal-side wireless communication unit 31 is wirelessly transmitted to the external device 4 by the terminal-side wireless communication unit 31.

画像同期部34は、画像処理部32により生成された超音波画像Uと、カメラ部33により生成された視野画像Cとを互いに同期させて、互いに同期された超音波画像Uと視野画像Cに基づいて合成画像Mを生成する。ここで、超音波画像Uと視野画像Cとを互いに同期させるとは、同一のタイミングで撮影された超音波画像Uと視野画像Cとを互いに関連付けることである。例えば、画像処理部32により、超音波画像Uが生成された時刻を表すタイムスタンプが超音波画像Uに対して付与され、カメラ部33により、視野画像Cが生成された時刻を表すタイムスタンプが視野画像Cに対して付与された場合に、画像同期部34は、超音波画像Uのタイムスタンプを超音波画像Uが撮影された時刻を表すものとみなし、視野画像Cのタイムスタンプを視野画像Cが撮影された時刻を表すものとみなして、超音波画像Uおよび視野画像Cのタイムスタンプを参照することにより、同一のタイミングで撮影された超音波画像Uと視野画像Cとを互いに同期することができる。 The image synchronization unit 34 synchronizes the ultrasound image U generated by the image processing unit 32 and the visual field image C generated by the camera unit 33, and converts the ultrasound image U and visual field image C into mutually synchronized ultrasound images U and visual field images C. A composite image M is generated based on the image. Here, to synchronize the ultrasound image U and the visual field image C with each other means to associate the ultrasound image U and the visual field image C that are photographed at the same timing with each other. For example, the image processing unit 32 adds a timestamp to the ultrasound image U indicating the time when the ultrasound image U was generated, and the camera unit 33 adds a timestamp indicating the time when the visual field image C was generated. When added to the visual field image C, the image synchronization unit 34 regards the time stamp of the ultrasound image U as representing the time when the ultrasound image U was taken, and assigns the time stamp of the visual field image C to the visual field image. The ultrasound image U and the visual field image C, which were captured at the same timing, are synchronized with each other by assuming that C represents the time when the image was captured and by referring to the time stamps of the ultrasound image U and the visual field image C. be able to.

また、画像同期部34は、超音波画像Uと視野画像Cとを関連付ける際に、例えば、超音波画像Uのタイムスタンプと視野画像Cのタイムスタンプを参照して、超音波画像Uが撮影された時刻と視野画像Cが撮影された時刻との差が、一定の範囲内、例えば0.1秒以内であれば、超音波画像Uと視野画像Cが同一のタイミングで撮影されたものとみなして、関連付けを行うことができる。また、画像同期部34は、例えば、超音波画像Uのタイムスタンプと視野画像Cのタイムスタンプを参照し、関連付けの対象となる超音波画像Uが撮影された時刻に対して最も近い時刻に撮影された視野画像Cを選択して、選択された視野画像Cと超音波画像Uとを関連付けることもできる。また、画像同期部34は、例えば、関連付けの対象となる視野画像Cが撮影された時刻に対して最も近い時刻に撮影された超音波画像Uを選択して、選択された超音波画像Uと視野画像Cとを関連付けることもできる。
画像同期部34は、このようにして同期した超音波画像Uと視野画像Cを、表示制御部35に送出する。
Furthermore, when associating the ultrasound image U and the visual field image C, the image synchronization unit 34 refers to, for example, the time stamp of the ultrasound image U and the time stamp of the visual field image C, and the ultrasound image U is photographed. If the difference between the time when the visual field image C was taken and the time when the visual field image C was taken is within a certain range, for example within 0.1 seconds, it is assumed that the ultrasound image U and the visual field image C were taken at the same timing. You can make an association by Further, the image synchronization unit 34 refers to the time stamp of the ultrasound image U and the time stamp of the visual field image C, for example, and captures the ultrasound image U at the time closest to the time when the ultrasound image U to be associated is captured. It is also possible to select the selected visual field image C and associate the selected visual field image C with the ultrasound image U. Further, the image synchronization unit 34 selects, for example, an ultrasound image U taken at the closest time to the time when the visual field image C to be associated is taken, and combines the selected ultrasound image U with the ultrasound image U. It is also possible to associate it with the visual field image C.
The image synchronization unit 34 sends the ultrasound image U and visual field image C synchronized in this manner to the display control unit 35.

表示制御部35は、端末制御部37の制御の下、画像同期部34から送出された合成画像Mに所定の処理を施して、図3に示すように、携帯情報端末3の端末モニタ36に、同期された超音波画像Uと視野画像Cとを一緒に表示する。
端末モニタ36は、表示制御部35の制御の下、超音波画像Uおよび視野画像C等を表示するものであり、例えば、LCD(Liquid Crystal Display:液晶ディスプレイ)、有機ELディスプレイ(Organic Electroluminescence Display)等のディスプレイ装置を含む。
The display control unit 35 performs predetermined processing on the composite image M sent from the image synchronization unit 34 under the control of the terminal control unit 37, and displays the image on the terminal monitor 36 of the mobile information terminal 3 as shown in FIG. , the synchronized ultrasound image U and visual field image C are displayed together.
The terminal monitor 36 displays an ultrasound image U, a visual field image C, etc. under the control of the display control unit 35, and is, for example, an LCD (Liquid Crystal Display), an organic EL display (Organic Electroluminescence Display), etc. including display devices such as

携帯情報端末3の入力装置38は、操作者が入力操作を行うためのものであり、端末モニタ36に重ねて配置されたタッチセンサを含んでいる。例えば、入力装置38を介して操作者により、超音波プローブ2を制御するためのプローブ制御情報が入力されることができる。このようにして入力されたプローブ制御情報は、端末制御部37を経由して端末側無線通信部31に送出され、端末側無線通信部31から超音波プローブ2に無線送信される。 The input device 38 of the mobile information terminal 3 is used by the operator to perform input operations, and includes a touch sensor placed over the terminal monitor 36. For example, probe control information for controlling the ultrasound probe 2 can be input by the operator via the input device 38 . The probe control information input in this way is sent to the terminal side wireless communication section 31 via the terminal control section 37, and is wirelessly transmitted from the terminal side wireless communication section 31 to the ultrasound probe 2.

端末制御部37は、予め記憶している制御プログラム等に基づいて、携帯情報端末3の各部の制御を行う。
また、図示しないが、端末制御部37に、端末側格納部が接続されている。端末側格納部は、携帯情報端末3の制御プログラム等を記憶している。また、端末側格納部としては、例えば、フラッシュメモリ、RAM、SDカード、SSD等を用いることができる。
また、図示しないが、携帯情報端末3には、バッテリが内蔵されており、このバッテリから携帯情報端末3の各回路に電力が供給される。
The terminal control section 37 controls each section of the mobile information terminal 3 based on a control program stored in advance.
Further, although not shown, a terminal side storage section is connected to the terminal control section 37. The terminal side storage unit stores a control program for the mobile information terminal 3 and the like. Further, as the terminal side storage unit, for example, a flash memory, RAM, SD card, SSD, etc. can be used.
Although not shown, the mobile information terminal 3 has a built-in battery, and power is supplied from the battery to each circuit of the mobile information terminal 3.

なお、端末側無線通信部31、画像処理部32、画像同期部34、表示制御部35および端末制御部37を有する端末側プロセッサ39は、CPU、および、CPUに各種の処理を行わせるための制御プログラムから構成されるが、FPGA、DSP、ASIC、GPU、その他のICを用いて構成されてもよく、もしくはそれらを組み合わせて構成されてもよい。
また、端末側プロセッサ39の端末側無線通信部31、画像処理部32、画像同期部34、表示制御部35および端末制御部37は、部分的にあるいは全体的に1つのCPU等に統合させて構成することもできる。
Note that the terminal side processor 39, which includes the terminal side wireless communication section 31, the image processing section 32, the image synchronization section 34, the display control section 35, and the terminal control section 37, includes a CPU and a processor for causing the CPU to perform various processes. Although it is constructed from a control program, it may also be constructed using an FPGA, DSP, ASIC, GPU, or other IC, or a combination of these.
Further, the terminal side wireless communication section 31, image processing section 32, image synchronization section 34, display control section 35, and terminal control section 37 of the terminal side processor 39 may be partially or entirely integrated into one CPU, etc. It can also be configured.

外部装置4の外部無線通信部41は、電波の送信および受信を行うためのアンテナを含んでおり、外部制御部46の制御の下で、超音波プローブ2のプローブ側無線通信部24により送信された画像化前の受信データを表す伝送信号および携帯情報端末3の端末側無線通信部31により送信された視野画像Cを表す伝送信号を、アンテナを介して受信し、受信した伝送信号を復調することにより画像化前の受信データおよび視野画像Cを出力する。さらに、外部無線通信部41は、画像化前の受信データを画像処理部42に送出し、視野画像Cを画像同期部43に送出する。 The external wireless communication section 41 of the external device 4 includes an antenna for transmitting and receiving radio waves, and under the control of the external control section 46, radio waves are transmitted by the probe side wireless communication section 24 of the ultrasound probe 2. A transmission signal representing the received data before image formation and a transmission signal representing the visual field image C transmitted by the terminal-side wireless communication unit 31 of the mobile information terminal 3 are received via the antenna, and the received transmission signal is demodulated. As a result, the received data and visual field image C before being imaged are output. Furthermore, the external wireless communication unit 41 sends the received data before being imaged to the image processing unit 42 and sends the visual field image C to the image synchronization unit 43.

画像処理部42は、外部無線通信部41から送出された画像化前の受信データを、通常のテレビジョン信号の走査方式に従う画像信号にラスター変換し、変換された画像信号に対して、外部モニタ45用の表示フォーマットに従う明るさ補正、階調補正、シャープネス補正、画像サイズ補正、リフレッシュレート補正、走査周波数補正および色補正等の各種の必要な画像処理を施すことにより超音波画像Uを生成する。画像処理部42は、生成された超音波画像Uを画像同期部43に送出する。 The image processing unit 42 raster-converts the received data sent from the external wireless communication unit 41 before being converted into an image into an image signal according to a normal television signal scanning method, and displays the converted image signal on an external monitor. The ultrasound image U is generated by performing various necessary image processing such as brightness correction, gradation correction, sharpness correction, image size correction, refresh rate correction, scanning frequency correction, and color correction according to the display format for 45. . The image processing unit 42 sends the generated ultrasound image U to the image synchronization unit 43.

外部装置4の画像同期部43は、画像処理部42から送出された超音波画像Uと外部無線通信部41から送出された視野画像Cとを互いに同期させて、互いに同期された超音波画像Uと視野画像Cに基づいて合成画像Mを生成する。例えば、外部装置4の画像処理部42により、超音波画像Uが生成された時刻を表すタイムスタンプが超音波画像Uに対して付与され、携帯情報端末3のカメラ部33により視野画像Cが生成された時刻を表すタイムスタンプが視野画像Cに対して付与された場合に、画像同期部43は、超音波画像Uのタイムスタンプを超音波画像Uが撮影された時刻を表すものとみなし、視野画像Cのタイムスタンプを視野画像Cが撮影された時刻を表すものとみなして、超音波画像Uおよび視野画像Cのタイムスタンプを参照することにより、同一のタイミングで撮影された超音波画像Uと視野画像Cとを互いに同期することができる。 The image synchronization unit 43 of the external device 4 synchronizes the ultrasound image U sent from the image processing unit 42 and the visual field image C sent from the external wireless communication unit 41, and generates a mutually synchronized ultrasound image U. A composite image M is generated based on the visual field image C. For example, the image processing unit 42 of the external device 4 adds a time stamp indicating the time when the ultrasound image U was generated to the ultrasound image U, and the camera unit 33 of the mobile information terminal 3 generates the visual field image C. When a time stamp representing the time at which the ultrasound image U was taken is added to the visual field image C, the image synchronization unit 43 regards the time stamp of the ultrasound image U as representing the time at which the ultrasound image U was taken, and By regarding the time stamp of image C as representing the time when visual field image C was taken, and referring to the time stamps of ultrasound image U and visual field image C, it is possible to compare ultrasound image U taken at the same timing. The visual field images C can be synchronized with each other.

表示制御部44は、外部制御部46の制御の下、画像同期部43から送出された合成画像Mに所定の処理を施して、図4に示すように、外部装置4の外部モニタ45に、同期された超音波画像Uと視野画像Cとを一緒に表示する。
外部モニタ45は、表示制御部44の制御の下、超音波画像Uおよび視野画像C等を表示するものであり、例えば、LCD、有機ELディスプレイ等のディスプレイ装置を含む。
外部装置4の入力装置47は、操作者が入力操作を行うためのものであり、外部モニタ45に重ねて配置されたタッチセンサを含んでいる。
The display control unit 44 performs predetermined processing on the composite image M sent out from the image synchronization unit 43 under the control of the external control unit 46, and displays the image on the external monitor 45 of the external device 4 as shown in FIG. The synchronized ultrasound image U and visual field image C are displayed together.
The external monitor 45 displays the ultrasound image U, visual field image C, etc. under the control of the display control unit 44, and includes a display device such as an LCD or an organic EL display.
The input device 47 of the external device 4 is used by the operator to perform input operations, and includes a touch sensor placed over the external monitor 45 .

外部制御部46は、予め記憶している制御プログラム等に基づいて、外部装置4の各部の制御を行う。
また、図示しないが、外部装置4に、外部装置側格納部が接続されている。外部装置側格納部は、外部装置4の制御プログラム等を記憶している。また、外部装置側格納部としては、例えば、フラッシュメモリ、RAM、SDカード、SSD等を用いることができる。
また、図示しないが、外部装置4には、バッテリが内蔵されており、このバッテリから外部装置4の各回路に電力が供給される。
The external control section 46 controls each section of the external device 4 based on a control program stored in advance.
Further, although not shown, an external device side storage section is connected to the external device 4. The external device side storage section stores a control program for the external device 4, and the like. Further, as the external device side storage section, for example, a flash memory, RAM, SD card, SSD, etc. can be used.
Although not shown, the external device 4 has a built-in battery, and power is supplied to each circuit of the external device 4 from this battery.

なお、外部無線通信部41、画像処理部42、画像同期部43、表示制御部44および外部制御部46を有する外部装置側プロセッサ48は、CPU、および、CPUに各種の処理を行わせるための制御プログラムから構成されるが、FPGA、DSP、ASIC、GPU、その他のICを用いて構成されてもよく、もしくはそれらを組み合わせて構成されてもよい。
また、外部装置側プロセッサ48の外部無線通信部41、画像処理部42、画像同期部43、表示制御部44および外部制御部46は、部分的にあるいは全体的に1つのCPU等に統合させて構成することもできる。
Note that an external device side processor 48 having an external wireless communication section 41, an image processing section 42, an image synchronization section 43, a display control section 44, and an external control section 46 includes a CPU and a processor for causing the CPU to perform various processes. Although it is constructed from a control program, it may also be constructed using an FPGA, DSP, ASIC, GPU, or other IC, or a combination of these.
Further, the external wireless communication section 41, image processing section 42, image synchronization section 43, display control section 44, and external control section 46 of the external device side processor 48 may be partially or entirely integrated into one CPU or the like. It can also be configured.

次に、本発明の実施の形態1に係る超音波システム1の動作について説明する。
まず、操作者により、被検体の体表面上に超音波プローブ2が接触されて、プローブ制御部26の制御の下で、送受信回路22のパルサ51からの駆動信号に従って振動子アレイ21の複数の振動子から被検体内に超音波ビームが送信される。送信された超音波ビームに基づく超音波エコーは、各振動子により受信され、アナログ信号である受信信号が増幅部52に出力されて増幅され、AD変換部53でAD変換されて受信データが取得される。この受信データに対してビームフォーマ54により受信フォーカス処理が施されることにより、音線信号が生成される。
Next, the operation of the ultrasound system 1 according to the first embodiment of the present invention will be explained.
First, an operator brings the ultrasound probe 2 into contact with the body surface of the subject, and under the control of the probe control unit 26, a plurality of transducer arrays 21 are An ultrasound beam is transmitted from the transducer into the subject. Ultrasonic echoes based on the transmitted ultrasound beams are received by each transducer, and the reception signal, which is an analog signal, is output to the amplification section 52 and amplified, and AD converted by the AD conversion section 53 to obtain reception data. be done. The beamformer 54 performs reception focus processing on this reception data, thereby generating a sound ray signal.

生成された音線信号は、信号処理部23により、被検体内の組織に関する断層画像情報を表す信号である画像化前の受信データに変換される。この際に、信号処理部23は、音線信号に対して、超音波が反射した位置の深度に応じて伝搬距離に起因する減衰の補正を施した後、包絡線検波処理を施す。
プローブ側無線通信部24は、生成された音線信号を携帯情報端末3および外部装置4に対して無線送信する。
The generated sound ray signal is converted by the signal processing unit 23 into received data before imaging, which is a signal representing tomographic image information regarding the tissue within the subject. At this time, the signal processing unit 23 performs envelope detection processing on the sound ray signal after correcting attenuation due to the propagation distance according to the depth of the position where the ultrasonic wave is reflected.
The probe-side wireless communication unit 24 wirelessly transmits the generated sound ray signal to the mobile information terminal 3 and the external device 4.

携帯情報端末3の端末側無線通信部31は、超音波プローブ2から無線送信された画像化前の受信データを受信して、受信された画像化前の受信データを画像処理部32に送出する。画像処理部32は、端末側無線通信部31から送出された画像化前の受信データを、通常のテレビジョン信号の走査方式に従う画像信号にラスター変換し、変換された画像信号に対して、端末モニタ36用の表示フォーマットに従う明るさ補正、階調補正、シャープネス補正、画像サイズ補正、リフレッシュレート補正、走査周波数補正および色補正等の各種の必要な画像処理を施すことにより超音波画像Uを生成する。このようにして生成された超音波画像Uは、画像同期部34に送出される。 The terminal-side wireless communication unit 31 of the mobile information terminal 3 receives the received data before being imaged wirelessly transmitted from the ultrasound probe 2, and sends the received received data before being imaged to the image processing unit 32. . The image processing unit 32 raster-converts the received data sent from the terminal-side wireless communication unit 31 before image formation into an image signal according to the scanning method of a normal television signal, and transmits the converted image signal to the terminal. An ultrasound image U is generated by performing various necessary image processing such as brightness correction, gradation correction, sharpness correction, image size correction, refresh rate correction, scanning frequency correction, and color correction according to the display format for the monitor 36. do. The ultrasound image U generated in this manner is sent to the image synchronization unit 34.

また、携帯情報端末3のカメラ部33は、端末制御部37の制御の下で、被検体における超音波プローブ2の走査箇所を撮像した視野画像Cを取得する。図示しないが、この際に、例えば操作者は、カメラ部33の撮影レンズを被検体における超音波プローブ2の走査箇所に向けながら携帯情報端末3の入力装置38を介して視野画像Cを撮影する旨の制御情報を入力することができる。この場合に、例えば、操作者に入力された制御情報が端末制御部37に入力されることにより、端末制御部37は、制御情報に従って視野画像Cを撮影するようにカメラ部33を制御することができる。このようにして取得された視野画像Cは、端末側無線通信部31および画像同期部34に送出される。 Furthermore, under the control of the terminal control unit 37, the camera unit 33 of the mobile information terminal 3 acquires a visual field image C that captures the scanned location of the ultrasound probe 2 on the subject. Although not shown, at this time, for example, the operator photographs a field of view image C via the input device 38 of the mobile information terminal 3 while directing the photographing lens of the camera unit 33 to the scanning location of the ultrasound probe 2 on the subject. It is possible to input control information indicating that the In this case, for example, the control information input by the operator is input to the terminal control unit 37, so that the terminal control unit 37 controls the camera unit 33 to capture the visual field image C according to the control information. I can do it. The visual field image C acquired in this manner is sent to the terminal side wireless communication section 31 and the image synchronization section 34.

画像同期部34は、画像処理部32から超音波画像Uを受け取り且つカメラ部33から視野画像Cを受け取ると、受け取った超音波画像Uと視野画像Cとを互いに同期させて、互いに同期された超音波画像Uと視野画像Cが1つにまとめられた合成画像Mを生成する。例えば、画像処理部32により、超音波画像Uが生成された時刻を表すタイムスタンプが超音波画像Uに対して付与され、カメラ部33により、視野画像Cが生成された時刻を表すタイムスタンプが視野画像Cに対して付与された場合に、画像同期部34は、超音波画像Uのタイムスタンプを超音波画像Uが撮影された時刻を表すものとみなし、視野画像Cのタイムスタンプを視野画像Cが撮影された時刻を表すものとみなして、超音波画像Uおよび視野画像Cのタイムスタンプを参照することにより、同一のタイミングで撮影された超音波画像Uと視野画像Cとを互いに関連付けることができる。 When the image synchronization unit 34 receives the ultrasound image U from the image processing unit 32 and the visual field image C from the camera unit 33, the image synchronization unit 34 synchronizes the received ultrasound image U and the visual field image C with each other so that they are synchronized with each other. A composite image M in which the ultrasound image U and the visual field image C are combined into one is generated. For example, the image processing unit 32 adds a timestamp to the ultrasound image U indicating the time when the ultrasound image U was generated, and the camera unit 33 adds a timestamp indicating the time when the visual field image C was generated. When added to the visual field image C, the image synchronization unit 34 regards the time stamp of the ultrasound image U as representing the time when the ultrasound image U was taken, and assigns the time stamp of the visual field image C to the visual field image. The ultrasound image U and the visual field image C that were captured at the same timing are correlated with each other by regarding the time stamp of the ultrasound image U and the visual field image C as C representing the time when the image was captured. I can do it.

画像同期部34により互いに同期された超音波画像Uと視野画像Cは、合成画像Mとして表示制御部35に送出される。表示制御部35は、合成画像Mに対して所定の処理を施した後、合成画像Mを端末モニタ36に送出し、図3に示すように、端末モニタ36において、超音波画像Uと視野画像Cとを一緒に表示させる。図3に示す例では、端末モニタ36の上下に視野画像Cと超音波画像Uのそれぞれが表示されている。また、この例では、視野画像Cに、被検体の腹部に超音波プローブ2が接触されている様子が描出され、超音波画像Uに、被検体の腹部の内部組織が描出されている。そのため、操作者は、携帯情報端末3の端末モニタ36を確認することにより、被検体における超音波プローブ2の走査箇所を表す視野画像Cと、視野画像Cに対応する超音波画像Uとを同時に確認して、被検体における超音波プローブ2の走査箇所と、それによって観察される被検体内の組織を容易に対応付けて把握することができる。 The ultrasound image U and visual field image C synchronized with each other by the image synchronization unit 34 are sent to the display control unit 35 as a composite image M. After performing predetermined processing on the composite image M, the display control unit 35 sends the composite image M to the terminal monitor 36, and as shown in FIG. Display C together with C. In the example shown in FIG. 3, a visual field image C and an ultrasound image U are displayed above and below the terminal monitor 36, respectively. Furthermore, in this example, the visual field image C depicts the ultrasound probe 2 in contact with the abdomen of the subject, and the ultrasound image U depicts the internal tissue of the abdomen of the subject. Therefore, by checking the terminal monitor 36 of the mobile information terminal 3, the operator can simultaneously view the visual field image C representing the scanning location of the ultrasound probe 2 on the subject and the ultrasound image U corresponding to the visual field image C. By confirming this, it is possible to easily associate and understand the scanning location of the ultrasound probe 2 in the subject and the tissue within the subject observed thereby.

また、カメラ部33により取得された視野画像Cは、端末側無線通信部31から外部装置4へと無線送信される。
外部装置4の外部無線通信部41は、超音波プローブ2から無線送信された画像化前の受信データと携帯情報端末3から無線送信された視野画像Cを受信して、受信した画像化前の受信データを画像処理部42に送出し、受信した視野画像Cを画像同期部43に送出する。
Further, the visual field image C acquired by the camera unit 33 is wirelessly transmitted from the terminal side wireless communication unit 31 to the external device 4.
The external wireless communication unit 41 of the external device 4 receives the pre-imaging reception data wirelessly transmitted from the ultrasound probe 2 and the visual field image C wirelessly transmitted from the mobile information terminal 3, and receives the received pre-imaging data. The received data is sent to the image processing section 42, and the received visual field image C is sent to the image synchronization section 43.

画像処理部42は、外部無線通信部41から送出された画像化前の受信データを、通常のテレビジョン信号の走査方式に従う画像信号にラスター変換し、変換された画像信号に対して、外部モニタ45用の表示フォーマットに従う明るさ補正、階調補正、シャープネス補正、画像サイズ補正、リフレッシュレート補正、走査周波数補正および色補正等の各種の必要な画像処理を施すことにより超音波画像Uを生成する。画像処理部42は、生成された超音波画像Uを画像同期部43に送出する。 The image processing unit 42 raster-converts the received data sent from the external wireless communication unit 41 before being converted into an image into an image signal according to a normal television signal scanning method, and displays the converted image signal on an external monitor. The ultrasound image U is generated by performing various necessary image processing such as brightness correction, gradation correction, sharpness correction, image size correction, refresh rate correction, scanning frequency correction, and color correction according to the display format for 45. . The image processing unit 42 sends the generated ultrasound image U to the image synchronization unit 43.

画像同期部43は、画像処理部42から送出された超音波画像Uと外部無線通信部41から送出された視野画像Cとを互いに同期させて、互いに同期された超音波画像Uと視野画像Cが1つにまとめられた合成画像Mを生成する。例えば、外部装置4の画像処理部42により、超音波画像Uが生成された時刻を表すタイムスタンプが超音波画像Uに対して付与され、携帯情報端末3のカメラ部33により、視野画像Cが生成された時刻を表すタイムスタンプが視野画像Cに対して付与された場合に、画像同期部43は、超音波画像Uのタイムスタンプを超音波画像Uが撮影された時刻を表すものとみなし、視野画像Cのタイムスタンプを視野画像Cが撮影された時刻を表すものとみなして、超音波画像Uおよび視野画像Cのタイムスタンプを参照することにより、同一のタイミングで撮影された超音波画像Uと視野画像Cとを互いに同期することができる。この際に、携帯情報端末3における時刻と外部装置4における時刻とは、互いに共有されることができる。 The image synchronization unit 43 synchronizes the ultrasound image U sent from the image processing unit 42 and the visual field image C sent from the external wireless communication unit 41, and generates the ultrasound image U and visual field image C that are synchronized with each other. A composite image M is generated in which the images are combined into one. For example, the image processing unit 42 of the external device 4 adds a time stamp to the ultrasound image U indicating the time when the ultrasound image U was generated, and the camera unit 33 of the mobile information terminal 3 adds the visual field image C to the ultrasound image U. When a timestamp representing the generated time is given to the visual field image C, the image synchronization unit 43 regards the timestamp of the ultrasound image U as representing the time when the ultrasound image U was taken, By regarding the time stamp of the visual field image C as representing the time when the visual field image C was taken and referring to the time stamps of the ultrasound image U and the visual field image C, the ultrasound image U taken at the same timing can be obtained. and visual field image C can be synchronized with each other. At this time, the time on the portable information terminal 3 and the time on the external device 4 can be shared with each other.

なお、携帯情報端末3における時刻と外部装置4における時刻は、互いに共有されることができるが、具体的には、例えば、携帯情報端末3と外部装置4のいずれかを基準として、時刻が共有されることができる。また、例えば、携帯情報端末3と外部装置4のいずれか一方がインターネットに接続されている場合には、NTP(Network Time Protocol)、NITZ(Network Identity and Time Zone)等の通信プロトコルを用いて内蔵時計の時刻が設定されてもよい。 Note that the time on the mobile information terminal 3 and the time on the external device 4 can be shared with each other, but specifically, for example, the time can be shared based on either the mobile information terminal 3 or the external device 4. can be done. For example, if either the mobile information terminal 3 or the external device 4 is connected to the Internet, the internal A clock time may be set.

画像同期部43により互いに同期された超音波画像Uと視野画像Cは、合成画像Mとして表示制御部44に送出される。表示制御部44は、合成画像Mに対して所定の処理を施した後、合成画像Mを外部モニタ45に送出し、図4に示すように、外部モニタ45において、超音波画像Uと視野画像Cとを一緒に表示させる。図4の例では、外部装置4が携帯情報端末3と同様の携帯型の端末であることが示されており、外部装置4の端末モニタ36の上下に視野画像Cと超音波画像Uのそれぞれが表示されている。また、この例では、携帯情報端末3の端末モニタ36に表示されている超音波画像Uおよび視野画像Cと同様に、視野画像Cに、被検体の腹部に超音波プローブ2が接触されている様子が描出され、超音波画像Uに、被検体の腹部の内部組織が描出されている。 The ultrasound image U and visual field image C synchronized with each other by the image synchronization unit 43 are sent to the display control unit 44 as a composite image M. After performing predetermined processing on the composite image M, the display control unit 44 sends the composite image M to an external monitor 45, and as shown in FIG. Display C together with C. In the example of FIG. 4, it is shown that the external device 4 is a portable terminal similar to the mobile information terminal 3, and a visual field image C and an ultrasound image U are displayed above and below the terminal monitor 36 of the external device 4, respectively. is displayed. Further, in this example, similarly to the ultrasound image U and the visual field image C displayed on the terminal monitor 36 of the mobile information terminal 3, the ultrasound probe 2 is in contact with the abdomen of the subject in the visual field image C. The situation is depicted, and the internal tissue of the subject's abdomen is depicted in the ultrasound image U.

ここで、携帯情報端末3の端末モニタ36と外部装置4の外部モニタ45には、それぞれ、互いに同期された視野画像Cと超音波画像Uが表示されるが、端末モニタ36と外部モニタ45には、ほぼ同時に同一の視野画像Cと超音波画像Uが表示される。そのため、例えば、外部装置4が携帯情報端末3に対して遠隔地に位置している場合でも、外部モニタ45を観察している観察者は、被検体と操作者が位置している検査の現場において撮影された視野画像Cと超音波画像Uをほぼリアルタイムに観察することができる。 Here, the terminal monitor 36 of the mobile information terminal 3 and the external monitor 45 of the external device 4 display the visual field image C and the ultrasound image U, which are synchronized with each other, respectively. , the same visual field image C and the same ultrasound image U are displayed almost simultaneously. Therefore, for example, even if the external device 4 is located at a remote location relative to the mobile information terminal 3, the observer observing the external monitor 45 can monitor the site of the examination where the subject and operator are located. It is possible to observe the visual field image C and the ultrasound image U taken in almost real time.

ところで、一般的に、超音波画像を確認することにより超音波画像に描出されている被検体内の部位を正確に把握するためには、一定以上の熟練度が必要であることが知られている。また、超音波診断装置において生成される超音波画像の画質は、操作者の手技に大きく左右されることが知られている。 By the way, it is generally known that a certain level of proficiency is required in order to accurately understand the internal parts of a subject depicted in an ultrasound image by checking the ultrasound image. There is. Furthermore, it is known that the image quality of ultrasound images generated by an ultrasound diagnostic apparatus is largely influenced by the operator's technique.

例えば、在宅看護等、病院外の遠隔地において超音波画像が撮影される場合には、超音波プローブを操作して超音波画像を撮影する操作者と、撮影された超音波画像を観察して診断を行う医師等の観察者が互いに異なることがある。この際に、操作者は、通常、得られた超音波画像を自分で確認しながら超音波プローブを操作して、目的とする被検体内の部位の超音波画像を撮影する必要があるため、特に、操作者の熟練度が低い場合には、操作者は、目的とする被検体の部位を正確に観察できているか否かを判断することが困難なことがあった。また、熟練度の低い操作者は、適切な手技を用いて超音波プローブを操作できない場合があり、画質の低い超音波画像が得られてしまうことがあった。 For example, when ultrasound images are taken in a remote location outside of a hospital, such as in home nursing care, there is an operator who operates an ultrasound probe to take ultrasound images, and a person who observes the ultrasound images. Observers such as doctors who perform the diagnosis may be different from each other. At this time, the operator usually needs to operate the ultrasound probe while checking the obtained ultrasound image himself/herself to capture an ultrasound image of the target area within the subject. Particularly when the operator's skill level is low, it may be difficult for the operator to judge whether or not the target part of the subject is being observed accurately. Furthermore, an operator with low skill level may not be able to operate the ultrasound probe using appropriate techniques, resulting in obtaining ultrasound images with low image quality.

また、被検体および操作者に対して遠隔地に位置する観察者は、超音波診断装置の操作者が撮影した超音波画像を確認して診断を行うことになるが、操作者が超音波画像を撮影する様子を把握できないため、特に、熟練度の低い操作者により超音波画像が撮影された場合に、撮影された超音波画像が適切な手技により撮影されたものであるか否かを正確に判断することが困難なことがあった。 In addition, an observer located remotely from the subject and the operator will make a diagnosis by checking the ultrasound images taken by the operator of the ultrasound diagnostic equipment; In particular, when an ultrasound image is taken by an unskilled operator, it is difficult to accurately determine whether or not the ultrasound image was taken using an appropriate technique. It was sometimes difficult to judge.

本発明の実施の形態1に係る超音波システム1によれば、端末モニタ36と外部モニタ45には、ほぼ同時に同一の視野画像Cと超音波画像Uが表示されるため、例えば、外部装置4が携帯情報端末3に対して遠隔地に位置している場合でも、外部モニタ45を観察している観察者は、被検体と操作者が位置している検査の現場において撮影された視野画像Cと超音波画像Uをほぼリアルタイムに観察することができる。これにより、例えば、熟練度の高い観察者が操作者に対してリアルタイムに助言を与えることができるため、観察者に対して遠隔地に位置する操作者の熟練度が低い場合であっても、適切な超音波画像Uが得られ、且つ、超音波診断の精度を向上することができる。 According to the ultrasound system 1 according to the first embodiment of the present invention, since the same visual field image C and ultrasound image U are displayed on the terminal monitor 36 and the external monitor 45 almost simultaneously, for example, the external device 4 Even if C is located at a remote location relative to the mobile information terminal 3, the observer observing the external monitor 45 can view the visual field image C taken at the examination site where the subject and the operator are located. and the ultrasound image U can be observed almost in real time. This allows, for example, a highly skilled observer to give advice to the operator in real time, even if the operator is located remotely from the observer and is less skilled. An appropriate ultrasound image U can be obtained, and the accuracy of ultrasound diagnosis can be improved.

また、本発明の実施の形態1に係る超音波システム1によれば、例えば、熟練度の高い操作者が超音波プローブ2を操作する様子を表す視野画像Cと、その視野画像Cに対応する適切な超音波画像Uを、操作者に対して遠隔地に位置し且つ熟練度の低い観察者に確認させることもできる。このように、本発明の実施の形態1に係る超音波システム1は、教育の観点においても非常に有用である。 Further, according to the ultrasound system 1 according to the first embodiment of the present invention, for example, a visual field image C representing a highly skilled operator operating the ultrasound probe 2, and a visual field image C corresponding to the visual field image C. An appropriate ultrasound image U can also be confirmed by an observer who is located remotely from the operator and who is less skilled. In this way, the ultrasound system 1 according to Embodiment 1 of the present invention is also very useful from the viewpoint of education.

なお、携帯情報端末3の画像処理部32および外部装置4の画像処理部42において、それぞれ、生成された超音波画像Uに対してタイムスタンプが付与されることが説明されているが、携帯情報端末3の画像処理部32および外部装置4の画像処理部42が超音波画像Uに対してタイムスタンプを付与する代わりに、超音波プローブ2の信号処理部23が、包絡線検波処理を施した信号に対してタイムスタンプを付与することもできる。この場合に、例えば、超音波プローブ2における時刻と携帯情報端末3における時刻とが互いに共有されることにより、タイムスタンプが付与された信号に基づいて携帯情報端末3の画像処理部32により生成された超音波画像Uとカメラ部33により生成された視野画像Cとを互いに同期し、且つ、外部装置4の画像処理部42により生成された超音波画像Uとカメラ部33により生成された視野画像Cとを互いに同期することができる。 Although it has been explained that the image processing unit 32 of the mobile information terminal 3 and the image processing unit 42 of the external device 4 each add a time stamp to the generated ultrasound image U, the mobile information Instead of the image processing unit 32 of the terminal 3 and the image processing unit 42 of the external device 4 adding a time stamp to the ultrasound image U, the signal processing unit 23 of the ultrasound probe 2 performs envelope detection processing. A timestamp can also be added to the signal. In this case, for example, the time on the ultrasound probe 2 and the time on the mobile information terminal 3 are shared with each other, so that the image processing unit 32 of the mobile information terminal 3 generates a signal based on a time stamped signal. The ultrasonic image U generated by the image processing unit 42 of the external device 4 and the visual field image C generated by the camera unit 33 are synchronized with each other, and the ultrasonic image U generated by the image processing unit 42 of the external device 4 and the visual field image C generated by the camera unit 33 are synchronized with each other. C can be synchronized with each other.

ここで、超音波プローブ2における時刻と携帯情報端末3における時刻とは、例えば、超音波プローブ2と携帯情報端末3のいずれかを基準として、共有されることができる。また、例えば、超音波プローブ2と携帯情報端末3のいずれか一方がインターネットに接続されている場合には、NTP、NITZ等の通信プロトコルを用いて内蔵時計の時刻が設定されてもよい。 Here, the time on the ultrasound probe 2 and the time on the mobile information terminal 3 can be shared, for example, using either the ultrasound probe 2 or the mobile information terminal 3 as a reference. Further, for example, if either the ultrasound probe 2 or the mobile information terminal 3 is connected to the Internet, the time of the built-in clock may be set using a communication protocol such as NTP or NITZ.

また、超音波画像Uと視野画像Cとを互いに同期する方法は、上述したタイムスタンプを用いる方法に限定されない。例えば、特開2011-183056号公報に開示されているように、超音波プローブ2による超音波画像Uの撮影タイミングと携帯情報端末3のカメラ部33による視野画像Cの撮影タイミングとを同期させ、さらに、超音波画像Uが撮影された時点と視野画像Cが撮影された時点との時間差が一定の範囲内、例えば0.1秒以内である場合に、携帯情報端末3の画像同期部34および外部装置4の画像同期部43は、超音波画像Uと視野画像Cとが同一のタイミングで撮影されたとみなし、超音波画像Uと視野画像Cとを互いに同期することができる。 Further, the method of synchronizing the ultrasound image U and the visual field image C with each other is not limited to the method using the time stamp described above. For example, as disclosed in Japanese Unexamined Patent Application Publication No. 2011-183056, the timing of capturing the ultrasound image U by the ultrasound probe 2 and the timing of capturing the visual field image C by the camera unit 33 of the mobile information terminal 3 are synchronized, Furthermore, when the time difference between the time when the ultrasound image U is taken and the time when the visual field image C is taken is within a certain range, for example, within 0.1 seconds, the image synchronization unit 34 of the mobile information terminal 3 and The image synchronization unit 43 of the external device 4 considers that the ultrasound image U and the visual field image C are taken at the same timing, and can synchronize the ultrasound image U and the visual field image C with each other.

また、携帯情報端末3の画像同期部34は、互いに同期された超音波画像Uと視野画像Cが1つにまとめられた合成画像Mを生成し、生成された合成画像Mを表示制御部35に送出しているが、合成画像Mを生成する代わりに、互いに同期された超音波画像Uと視野画像Cをそれぞれ表示制御部35に送出することもできる。この場合に、表示制御部35は、画像同期部34から送出された超音波画像Uと視野画像Cに対してそれぞれ所定の処理を施し、端末モニタ36において、図3に示すように、互いに同期された超音波画像Uと視野画像Cとを一緒に表示させる。そのため、操作者は、超音波プローブ2の位置と、それに対応した被検体内の組織の様子を同時に確認することができる。 Further, the image synchronization unit 34 of the mobile information terminal 3 generates a composite image M in which the ultrasound image U and visual field image C that are synchronized with each other are combined into one, and displays the generated composite image M to the display control unit 35. However, instead of generating the composite image M, the ultrasonic image U and visual field image C, which are synchronized with each other, can be sent to the display control unit 35, respectively. In this case, the display control unit 35 performs predetermined processing on the ultrasound image U and visual field image C sent from the image synchronization unit 34, and synchronizes them with each other on the terminal monitor 36, as shown in FIG. The obtained ultrasound image U and visual field image C are displayed together. Therefore, the operator can simultaneously confirm the position of the ultrasound probe 2 and the corresponding state of the tissue within the subject.

また、外部装置4の画像同期部43も同様に、合成画像Mを生成する代わりに、互いに同期された超音波画像Uと視野画像Cをそれぞれ表示制御部44に送出することができる。この場合にも、外部モニタ45には、互いに同期された超音波画像Uと視野画像Cが同時に表示されるため、外部モニタ45を見ている観察者は、被検体と操作者が位置している検査の現場において撮影された視野画像Cと超音波画像Uをほぼリアルタイムに観察することができる。 Similarly, the image synchronization unit 43 of the external device 4 can send the ultrasound image U and visual field image C that are synchronized with each other to the display control unit 44 instead of generating the composite image M. In this case as well, since the ultrasonic image U and visual field image C, which are synchronized with each other, are displayed simultaneously on the external monitor 45, the observer looking at the external monitor 45 can see where the subject and the operator are located. The visual field image C and the ultrasound image U taken at the inspection site can be observed almost in real time.

また、超音波プローブ2と携帯情報端末3とは、互いに無線通信により接続されているが、例えば、無線通信による接続の代わりに、有線通信により互いに接続されることもできる。
また、図4において、外部装置4が、携帯情報端末3と同様に、いわゆるスマートフォンまたはタブレットと呼ばれる携帯型の薄型コンピュータであることが例示されているが、外部装置4は、これに限定されない。例えば、外部装置4として、いわゆるノート型のパーソナルコンピュータおよび据え置き型のパーソナルコンピュータ等を用いることもできる。
Further, although the ultrasound probe 2 and the portable information terminal 3 are connected to each other by wireless communication, for example, instead of being connected by wireless communication, they may be connected to each other by wired communication.
Further, in FIG. 4, the external device 4 is illustrated to be a portable thin computer called a so-called smartphone or a tablet, like the mobile information terminal 3, but the external device 4 is not limited to this. For example, a so-called notebook personal computer, a stationary personal computer, or the like may be used as the external device 4.

また、図示しないが、操作者により被検体の検査がなされている現場の近傍に、モニタを有する第2の外部装置を設置して、第2の外部装置を超音波プローブ2および携帯情報端末3を接続し、第2の外部装置のモニタに超音波画像Uと視野画像Cを表示することもできる。特に、第2の外部装置が大型のモニタを有している場合には、操作者は、超音波画像Uと視野画像Cをより明確に確認できるため、被検体における超音波プローブ2の走査箇所と、観察される被検体内の組織を、より明確に対応付けて把握することができる。 Although not shown, a second external device having a monitor is installed near the site where the subject is being examined by the operator, and the second external device is connected to the ultrasound probe 2 and the mobile information terminal 3. It is also possible to connect the ultrasonic image U and the visual field image C to the monitor of a second external device. In particular, when the second external device has a large monitor, the operator can more clearly check the ultrasound image U and visual field image C, so that the operator can see the scanning location of the ultrasound probe 2 on the subject. With this, it is possible to more clearly associate and understand the observed tissues within the subject.

また、図3では、携帯情報端末3は、いわゆるスマートフォンまたはタブレットと呼ばれる携帯型の薄型コンピュータとして例示されているが、携帯型の情報端末であれば、これに限定されない。例えば、携帯情報端末3として、操作者の頭部に装着可能な端末装置を用いることもできる。このような端末装置は、例えば、頭部に装着された状態において操作者の眼に対面するように端末モニタ36が配置され且つカメラ部33により操作者の前方の視野を表す視野画像Cが撮影される。操作者は、前方の視野を直接的に確認する代わりに、端末モニタ36に表示された視野画像Cを確認することにより、間接的に前方の視野を確認することができる。このように、携帯情報端末3が操作者の頭部に装着される場合には、操作者は、携帯情報端末3をその手に持つ必要が無いため、例えば、操作者は、一方の手を用いて超音波プローブ2を操作しながら他方の手を用いて被検体にいわゆる穿刺針を挿入する手技を行う等、より多様な検査を行うことが可能である。 Further, in FIG. 3, the portable information terminal 3 is illustrated as a portable thin computer called a so-called smartphone or a tablet, but the present invention is not limited to this as long as it is a portable information terminal. For example, as the portable information terminal 3, a terminal device that can be worn on the operator's head can also be used. In such a terminal device, for example, a terminal monitor 36 is arranged so as to face the operator's eyes when the terminal device is worn on the head, and a visual field image C representing the front field of view of the operator is captured by the camera unit 33. be done. The operator can indirectly check the front field of view by checking the field of view image C displayed on the terminal monitor 36 instead of directly checking the front field of view. In this way, when the mobile information terminal 3 is attached to the operator's head, the operator does not need to hold the mobile information terminal 3 in his hand. It is possible to perform a variety of examinations, such as inserting a so-called puncture needle into a subject using the other hand while operating the ultrasound probe 2 using the ultrasound probe.

また、図2に示すように、送受信回路22が増幅部52およびAD変換部53と一緒にビームフォーマ54を有しているが、ビームフォーマ54は、送受信回路22の内部ではなく、送受信回路22と信号処理部23との間に配置されていてもよい。この場合に、プローブ側プロセッサ27によりビームフォーマ54を構成することもできる。 Further, as shown in FIG. 2, the transmitting/receiving circuit 22 has a beamformer 54 together with the amplifying section 52 and the AD converting section 53, but the beamformer 54 is not installed inside the transmitting/receiving circuit 22, but inside the transmitting/receiving circuit 22. and the signal processing section 23. In this case, the beam former 54 can also be configured by the probe side processor 27.

また、例えば、図5に示すように、外部装置4の入力装置47を介した観察者の入力操作により移動可能なカーソルA等の外部入力情報を、外部装置4の外部モニタ45と携帯情報端末3の端末モニタ36に同時に表示することができる。この場合に、例えば、外部装置4の外部モニタ45に表示されたカーソルAが外部装置4の入力装置47を介した観察者の入力操作により移動されると、携帯情報端末3の端末モニタ36に表示されているカーソルAも同様に移動される。これにより、例えば、超音波プローブ2および携帯情報端末3Aの操作者と外部装置4Aの近傍に位置する観察者との間において、より詳細な情報共有を行うことができる。例えば、外部装置4Aの外部モニタ45で超音波画像Uと視野画像Cを観察している熟練度の高い観察者が超音波プローブ2および携帯情報端末3Aの熟練度の低い操作者に対して、超音波プローブ2を走査させるべき位置を、カーソルAを用いて示す等、操作者が行う検査を容易に支援することができる。 For example, as shown in FIG. 5, external input information such as a cursor A that can be moved by an input operation by an observer via the input device 47 of the external device 4 is transmitted to the external monitor 45 of the external device 4 and the mobile information terminal. 3 terminal monitors 36 at the same time. In this case, for example, when the cursor A displayed on the external monitor 45 of the external device 4 is moved by an input operation by the observer via the input device 47 of the external device 4, the cursor A displayed on the external monitor 45 of the external device 4 is displayed on the terminal monitor 36 of the mobile information terminal 3. The displayed cursor A is also moved in the same way. Thereby, for example, more detailed information can be shared between the operator of the ultrasound probe 2 and the portable information terminal 3A and the observer located near the external device 4A. For example, a highly skilled observer who is observing the ultrasound image U and the visual field image C on the external monitor 45 of the external device 4A may respond to a less skilled operator of the ultrasound probe 2 and the mobile information terminal 3A. The inspection performed by the operator can be easily supported by using the cursor A to indicate the position where the ultrasound probe 2 should be scanned.

また、例えば、携帯情報端末3の入力装置38を介した操作者の入力操作により移動可能なカーソルAを、携帯情報端末3の端末モニタ36と外部装置4の外部モニタ45に同時に表示することもできる。この場合には、例えば、熟練度の高い操作者が、外部装置4Aの近傍に位置する熟練度の低い観察者に対して、より容易に且つ詳細に超音波診断についての教育を行うことができる。
なお、カーソルAの形状は、矢印形状には限定されず、円形状、多角形状等の任意の形状を有することができる。
Furthermore, for example, the cursor A, which can be moved by an input operation by the operator via the input device 38 of the mobile information terminal 3, may be displayed simultaneously on the terminal monitor 36 of the mobile information terminal 3 and the external monitor 45 of the external device 4. can. In this case, for example, a highly skilled operator can more easily and in detail educate a less skilled observer located near the external device 4A about ultrasound diagnosis. .
Note that the shape of the cursor A is not limited to the arrow shape, but can have any shape such as a circular shape or a polygonal shape.

また、例えば、携帯情報端末3と外部装置4との間で音声データを双方向に無線通信することもできる。図6に、本発明の実施の形態1の変形例における携帯情報端末3Aの構成を示す。携帯情報端末3Aは、図1に示す携帯情報端末3において、マイク61とスピーカ62が追加され、端末制御部37の代わりに端末制御部37Aが備えられ、端末側プロセッサ39の代わりに端末側プロセッサ39Aが備えられたものである。携帯情報端末3Aにおいて、端末側無線通信部31に、マイク61とスピーカ62が接続されている。 Furthermore, for example, audio data can be wirelessly communicated bidirectionally between the portable information terminal 3 and the external device 4. FIG. 6 shows the configuration of a mobile information terminal 3A in a modification of the first embodiment of the present invention. The mobile information terminal 3A is the same as the mobile information terminal 3 shown in FIG. 39A is provided. In the mobile information terminal 3A, a microphone 61 and a speaker 62 are connected to the terminal side wireless communication section 31.

また、図7に、本発明の実施の形態1の変形例における外部装置4Aの構成を示す。外部装置4Aは、図1に示す外部装置4において、マイク63とスピーカ64が追加され、外部制御部46の代わりに外部制御部46Aが備えられ、外部装置側プロセッサ48の代わりに外部装置側プロセッサ48Aが備えられたものである。外部装置4Aにおいて、外部無線通信部41に、マイク63とスピーカ64が接続されている。 Further, FIG. 7 shows the configuration of an external device 4A in a modification of the first embodiment of the present invention. The external device 4A is the same as the external device 4 shown in FIG. It is equipped with 48A. In the external device 4A, a microphone 63 and a speaker 64 are connected to the external wireless communication section 41.

本発明の実施の形態1の変形例では、携帯情報端末3Aと外部装置4Aの間で音声データが双方向に送受信される。例えば、携帯情報端末3Aに向かって超音波プローブ2および携帯情報端末3Aの操作者が音声を発すると、発せられた音声は、携帯情報端末3Aのマイク61に入力され、マイク61により音声データが生成される。生成された音声データは、端末側無線通信部31から外部装置4Aに無線送信される。外部装置4Aの外部無線通信部41は、携帯情報端末3Aから無線送信された音声データを受信して、受信した音声データをスピーカ64に送出する。スピーカ64は、外部無線通信部41から受け取った音声データに基づいて、超音波プローブ2および携帯情報端末3Aの操作者が発した音声を再生する。 In a modification of the first embodiment of the present invention, audio data is transmitted and received bidirectionally between the mobile information terminal 3A and the external device 4A. For example, when the ultrasound probe 2 and the operator of the mobile information terminal 3A emit voice toward the mobile information terminal 3A, the emitted voice is input to the microphone 61 of the mobile information terminal 3A, and the microphone 61 converts the voice data into generated. The generated audio data is wirelessly transmitted from the terminal side wireless communication unit 31 to the external device 4A. External wireless communication section 41 of external device 4A receives audio data wirelessly transmitted from mobile information terminal 3A, and sends the received audio data to speaker 64. The speaker 64 reproduces the sounds emitted by the operators of the ultrasound probe 2 and the portable information terminal 3A based on the audio data received from the external wireless communication unit 41.

また、例えば、外部装置4Aの外部モニタ45で超音波画像Uと視野画像Cを観察している観察者が、外部装置4Aに向かって音声を発すると、発せられた音声は、外部装置4Aのマイク63に入力され、マイク63により音声データが生成される。生成された音声データは、外部無線通信部41から携帯情報端末3Aに無線送信される。携帯情報端末3Aの端末側無線通信部31は、外部装置4Aから無線送信された音声データを受信して、受信した音声データをスピーカ62に送出する。スピーカ62は、端末側無線通信部31から受け取った音声データに基づいて、外部装置4の近傍に位置する観察者が発した音声を再生する。 Further, for example, when an observer who is observing the ultrasound image U and visual field image C on the external monitor 45 of the external device 4A emits a sound toward the external device 4A, the emitted sound is transmitted to the external device 4A. The audio data is input to the microphone 63, and the microphone 63 generates audio data. The generated audio data is wirelessly transmitted from the external wireless communication unit 41 to the mobile information terminal 3A. The terminal-side wireless communication unit 31 of the mobile information terminal 3A receives audio data wirelessly transmitted from the external device 4A, and sends the received audio data to the speaker 62. The speaker 62 reproduces the sound emitted by the observer located near the external device 4 based on the sound data received from the terminal-side wireless communication section 31 .

このようにして、携帯情報端末3Aと外部装置4Aの間で音声データが双方向に送受信されることにより、超音波プローブ2および携帯情報端末3Aの操作者と外部装置4Aの近傍に位置する観察者との間において、より詳細な情報共有を行うことができる。例えば、外部装置4Aの外部モニタ45で超音波画像Uと視野画像Cを観察している熟練度の高い観察者が超音波プローブ2および携帯情報端末3Aの熟練度の低い操作者に対して、より容易に且つ詳細に助言を行うことが可能となる。また、例えば、熟練度の高い操作者が、外部装置4Aの近傍に位置する熟練度の低い観察者に対して、より容易に且つ詳細に超音波診断についての教育を行うことも可能である。 In this way, by bidirectionally transmitting and receiving audio data between the mobile information terminal 3A and the external device 4A, an observer located near the operator of the ultrasound probe 2 and the mobile information terminal 3A and the external device 4A can You can share more detailed information with other people. For example, a highly skilled observer who is observing the ultrasound image U and the visual field image C on the external monitor 45 of the external device 4A may respond to a less skilled operator of the ultrasound probe 2 and the mobile information terminal 3A. It becomes possible to provide advice more easily and in detail. Furthermore, for example, it is also possible for a highly skilled operator to more easily and in detail educate a less skilled observer located near the external device 4A about ultrasonic diagnosis.

また、携帯情報端末3Aのマイク61に入力された操作者の音声を操作者の入力操作として使用することもできる。例えば、端末制御部37Aが、マイク61により操作者の音声に基づいて生成された音声データを解析することにより指示情報を取得し、取得された指示情報に従って、カメラ部33による視野画像Cの撮影開始および撮影停止等、携帯情報端末3Aの各部の制御を行うことができる。さらに、端末制御部37Aにより解析された音声データに基づいて超音波プローブ2の制御が行われることもできる。この場合に、例えば、端末制御部37Aにより解析された音声データが、操作者からの入力情報として端末側無線通信部31から超音波プローブ2に無線送信され、プローブ側無線通信部24を経由してプローブ側制御部26に入力される。プローブ制御部26は、入力情報に基づいて、例えば振動子アレイ21による超音波の送信開始および送信停止、カメラ部33による視野画像Cの撮影開始および撮影停止等、超音波プローブ2の各部を制御することができる。 Further, the operator's voice input into the microphone 61 of the mobile information terminal 3A can also be used as the operator's input operation. For example, the terminal control unit 37A acquires instruction information by analyzing audio data generated by the microphone 61 based on the operator's voice, and the camera unit 33 captures the visual field image C according to the acquired instruction information. It is possible to control each part of the mobile information terminal 3A, such as starting and stopping photography. Furthermore, the ultrasound probe 2 can also be controlled based on the audio data analyzed by the terminal control unit 37A. In this case, for example, audio data analyzed by the terminal control unit 37A is wirelessly transmitted from the terminal side wireless communication unit 31 to the ultrasound probe 2 as input information from the operator, and is transmitted via the probe side wireless communication unit 24. and is input to the probe side control section 26. The probe control unit 26 controls each part of the ultrasound probe 2 based on the input information, such as starting and stopping the transmission of ultrasound by the transducer array 21, starting and stopping the imaging of the visual field image C by the camera unit 33, etc. can do.

また、外部装置4Aのマイク63に入力された観察者の音声を、観察者の入力操作として使用することもできる。例えば、外部制御部46Aが、マイク63により観察者の音声に基づいて生成された音声データを解析することにより指示情報を取得し、取得された指示情報に従って、携帯情報端末3Aのカメラ部33による視野画像Cの撮影開始および撮影停止等の携帯情報端末3Aの各部の制御および超音波プローブ2の振動子アレイ21による超音波の送信開始および送信停止等の、超音波プローブ2の各部の制御を行うこともできる。 Furthermore, the observer's voice input into the microphone 63 of the external device 4A can also be used as the observer's input operation. For example, the external control unit 46A acquires instruction information by analyzing voice data generated by the microphone 63 based on the observer's voice, and according to the acquired instruction information, the camera unit 33 of the mobile information terminal 3A Controls each part of the portable information terminal 3A, such as starting and stopping imaging of the visual field image C, and controlling each part of the ultrasound probe 2, such as starting and stopping transmission of ultrasound by the transducer array 21 of the ultrasound probe 2. You can also do this.

実施の形態2
実施の形態1では、超音波プローブ2において、音線信号に対して包絡線検波処理がなされた画像化前の受信データが生成され、生成された画像化前の受信データが携帯情報端末3および外部装置4に無線送信されているが、超音波プローブ2において超音波画像Uが生成され、生成された超音波画像Uが携帯情報端末3および外部装置4に無線送信されることもできる。
Embodiment 2
In the first embodiment, the ultrasonic probe 2 generates pre-imaging reception data in which the sound ray signal is subjected to envelope detection processing, and the generated pre-imaging reception data is transmitted to the mobile information terminal 3 and Although the ultrasound image U is wirelessly transmitted to the external device 4 , the ultrasound image U can also be generated by the ultrasound probe 2 and wirelessly transmitted to the mobile information terminal 3 and the external device 4 .

図8に、本発明の実施の形態2に係る超音波システム1Bの構成を示す。超音波システム1は、図1に示す実施の形態1の超音波システム1において、超音波プローブ2の代わりに超音波プローブ2Aが備えられ、携帯情報端末3の代わりに携帯情報端末3Bが備えられ、外部装置4の代わりに外部装置4Bが備えられたものである。 FIG. 8 shows the configuration of an ultrasound system 1B according to Embodiment 2 of the present invention. The ultrasonic system 1 is the same as the ultrasonic system 1 of the first embodiment shown in FIG. , an external device 4B is provided instead of the external device 4.

超音波プローブ2Bは、実施の形態1における超音波プローブ2において、画像処理部71が追加され、プローブ制御部26の代わりにプローブ制御部26Bが備えられ、プローブ側プロセッサ27の代わりにプローブ側プロセッサ27Bが備えられたものである。超音波プローブ2Bにおいて、信号処理部23に、画像処理部71が接続されている。また、画像処理部71に、プローブ側無線通信部24およびプローブ制御部26Bが接続されている。図示しないが、信号処理部23と画像処理部71により、超音波画像生成部が構成されている。 The ultrasonic probe 2B is the same as the ultrasonic probe 2 in the first embodiment except that an image processing section 71 is added, a probe control section 26B is provided in place of the probe control section 26, and a probe side processor is provided in place of the probe side processor 27. 27B is provided. In the ultrasound probe 2B, an image processing section 71 is connected to the signal processing section 23. Further, the image processing section 71 is connected to the probe side wireless communication section 24 and the probe control section 26B. Although not shown, the signal processing section 23 and the image processing section 71 constitute an ultrasound image generation section.

携帯情報端末3Bは、実施の形態1における携帯情報端末3において、画像処理部32が取り除かれ、端末制御部37の代わりに端末制御部37Bが備えられ、端末側プロセッサ39の代わりに端末側プロセッサ39Bが備えられたものである。携帯情報端末3Bにおいて、端末側無線通信部31に画像同期部34およびカメラ部33が接続されている。
外部装置4Bは、実施の形態1における外部装置4において、画像処理部42が取り除かれ、外部制御部46の代わりに外部制御部46Bが備えられ、外部装置側プロセッサ48の代わりに外部装置側プロセッサ48Bが備えられたものである。
In the mobile information terminal 3B, the image processing unit 32 is removed from the mobile information terminal 3 in the first embodiment, a terminal control unit 37B is provided in place of the terminal control unit 37, and a terminal side processor is provided in place of the terminal side processor 39. 39B is provided. In the mobile information terminal 3B, an image synchronization section 34 and a camera section 33 are connected to the terminal side wireless communication section 31.
In the external device 4B, the image processing section 42 is removed from the external device 4 in the first embodiment, an external control section 46B is provided in place of the external control section 46, and an external device side processor is provided in place of the external device side processor 48. 48B is provided.

超音波プローブ2Bの画像処理部71は、信号処理部23により包絡線検波処理がなされた信号を、通常のテレビジョン信号の走査方式に従う画像信号にラスター変換し、変換された画像信号に対して、明るさ補正、階調補正、シャープネス補正、画像サイズ補正、リフレッシュレート補正、走査周波数補正および色補正等の各種の必要な画像処理を施すことにより、携帯情報端末3Bの端末モニタ36用の表示フォーマットに従う超音波画像Uと外部装置4Bの外部モニタ45用のフォーマットに従う超音波画像Uを生成する。さらに、画像処理部71は、携帯情報端末3Bの端末モニタ36用の表示フォーマットに従う超音波画像Uをプローブ側無線通信部24から携帯情報端末3Bに無線送信し、外部装置4Bの外部モニタ45用のフォーマットに従う超音波画像Uをプローブ側無線通信部24から外部装置4Bに無線送信する。 The image processing unit 71 of the ultrasound probe 2B raster-converts the signal subjected to envelope detection processing by the signal processing unit 23 into an image signal according to the scanning method of a normal television signal, and performs raster conversion on the converted image signal. By performing various necessary image processing such as brightness correction, gradation correction, sharpness correction, image size correction, refresh rate correction, scanning frequency correction, and color correction, the display for the terminal monitor 36 of the mobile information terminal 3B is An ultrasound image U according to the format and an ultrasound image U according to the format for the external monitor 45 of the external device 4B are generated. Furthermore, the image processing unit 71 wirelessly transmits the ultrasound image U according to the display format for the terminal monitor 36 of the mobile information terminal 3B from the probe side wireless communication unit 24 to the mobile information terminal 3B, and The ultrasound image U according to the format is wirelessly transmitted from the probe side wireless communication unit 24 to the external device 4B.

携帯情報端末3Bの端末側無線通信部31は、超音波プローブ2Bから無線送信された超音波画像Uを受信し、受信した超音波画像Uを画像同期部34に送出する。
画像同期部34は、端末側無線通信部31から送出された超音波画像Uとカメラ部33により生成された視野画像Cとを互いに同期させて、互いに同期された超音波画像Uと視野画像Cに基づいて合成画像Mを生成する。例えば、超音波プローブ2Bの画像処理部71により、超音波画像Uが生成された時刻を表すタイムスタンプが超音波画像Uに対して付与され、携帯情報端末3Bのカメラ部33により、視野画像Cが生成された時刻を表すタイムスタンプが視野画像Cに対して付与された場合に、画像同期部34は、超音波画像Uと視野画像Cに付与されたタイムスタンプに基づいて、超音波画像Uと視野画像Cとを互いに同期させることができる。
The terminal-side wireless communication unit 31 of the mobile information terminal 3B receives the ultrasound image U wirelessly transmitted from the ultrasound probe 2B, and sends the received ultrasound image U to the image synchronization unit 34.
The image synchronization unit 34 synchronizes the ultrasound image U sent from the terminal-side wireless communication unit 31 and the visual field image C generated by the camera unit 33, so that the ultrasound image U and the visual field image C are synchronized with each other. A composite image M is generated based on. For example, the image processing unit 71 of the ultrasound probe 2B adds a time stamp to the ultrasound image U indicating the time when the ultrasound image U was generated, and the camera unit 33 of the mobile information terminal 3B adds the visual field image C to the ultrasound image U. When a timestamp indicating the time at which the visual field image C was generated is assigned to the visual field image C, the image synchronization unit 34 generates the ultrasound image U based on the timestamp assigned to the ultrasound image U and the visual field image C. and visual field image C can be synchronized with each other.

表示制御部35は、画像同期部34により生成された合成画像Mに対して所定の処理を施した後、合成画像Mを端末モニタ36に送出し、図3に示すように、端末モニタ36において、互いに同期された超音波画像Uと視野画像Cを一緒に表示させる。 After performing predetermined processing on the composite image M generated by the image synchronization unit 34, the display control unit 35 sends the composite image M to the terminal monitor 36, and as shown in FIG. , the ultrasound image U and the visual field image C, which are synchronized with each other, are displayed together.

外部装置4Bの外部無線通信部41は、超音波プローブ2Bから無線送信された超音波画像Uと携帯情報端末3Bから無線送信された視野画像Cを受信し、受信した超音波画像Uと視野画像Cを画像同期部43に送出する。
画像同期部43は、外部無線通信部41から送出された超音波画像Uと視野画像Cとを互いに同期させて、互いに同期された超音波画像Uと視野画像Cに基づいて合成画像Mを生成する。
表示制御部44は、画像同期部43により生成された合成画像Mに対して所定の処理を施した後、合成画像Mを外部モニタ45に送出し、図4に示すように、外部モニタ45において、互いに同期された超音波画像Uと視野画像Cを一緒に表示させる。
The external wireless communication unit 41 of the external device 4B receives the ultrasound image U wirelessly transmitted from the ultrasound probe 2B and the visual field image C wirelessly transmitted from the mobile information terminal 3B, and transmits the received ultrasound image U and visual field image. C is sent to the image synchronization section 43.
The image synchronization unit 43 synchronizes the ultrasound image U and visual field image C sent from the external wireless communication unit 41, and generates a composite image M based on the ultrasound image U and visual field image C that are synchronized with each other. do.
After performing predetermined processing on the composite image M generated by the image synchronization unit 43, the display control unit 44 sends the composite image M to the external monitor 45, and as shown in FIG. , the ultrasound image U and the visual field image C, which are synchronized with each other, are displayed together.

以上のように、本発明の実施の形態2に係る超音波システム1Bによれば、超音波プローブ2Bが画像処理部71を備えている場合であっても、携帯情報端末3が画像処理部32を備え且つ外部装置4が画像処理部42を備える実施の形態1の超音波システム1と同様に、端末モニタ36と外部モニタ45にほぼ同時に同一の視野画像Cと超音波画像Uが表示される。そのため、例えば、超音波プローブ2Bおよび携帯情報端末3Bの操作者に対して、遠隔地に配置された外部装置4Bにより視野画像Cと超音波画像Uを観察する観察者が助言を与えることができるため、適切な超音波画像Uが得られ、且つ、超音波診断の精度を向上することができる。 As described above, according to the ultrasound system 1B according to the second embodiment of the present invention, even if the ultrasound probe 2B is equipped with the image processing section 71, the mobile information terminal 3 is equipped with the image processing section 32. Similar to the ultrasound system 1 of the first embodiment, in which the external device 4 includes the image processing section 42, the same visual field image C and ultrasound image U are displayed on the terminal monitor 36 and the external monitor 45 almost simultaneously. . Therefore, for example, an observer who observes the visual field image C and the ultrasound image U using the external device 4B located at a remote location can give advice to the operator of the ultrasound probe 2B and the mobile information terminal 3B. Therefore, an appropriate ultrasound image U can be obtained, and the accuracy of ultrasound diagnosis can be improved.

また、図1に示す実施の形態1の超音波システム1では、携帯情報端末3に画像処理部32が備えられ且つ外部装置4に画像処理部42が備えられているが、実施の形態2に係る超音波システム1Bでは、超音波プローブ2Bに画像処理部71が備えられているため、携帯情報端末3Bおよび外部装置4Bがそれぞれ画像処理部32、42を有する必要がなく、携帯情報端末3Bおよび外部装置4Bの内部構成は、実施の形態1の超音波システム1における携帯情報端末3および外部装置4の内部構成と比較して簡略化されている。そのため、実施の形態2に係る超音波システム1Bによれば、実施の形態1の超音波システム1と比べて、携帯情報端末3Bおよび外部装置4Bの消費電力および計算負荷等を軽減することが可能である。 Furthermore, in the ultrasound system 1 of the first embodiment shown in FIG. In the ultrasound system 1B, since the ultrasound probe 2B is equipped with the image processing unit 71, it is not necessary for the mobile information terminal 3B and the external device 4B to have the image processing units 32 and 42, respectively. The internal configuration of external device 4B is simplified compared to the internal configurations of portable information terminal 3 and external device 4 in ultrasound system 1 of the first embodiment. Therefore, according to the ultrasound system 1B according to the second embodiment, it is possible to reduce the power consumption, calculation load, etc. of the mobile information terminal 3B and the external device 4B, compared to the ultrasound system 1 of the first embodiment. It is.

実施の形態3
実施の形態1では、携帯情報端末3と外部装置4において、それぞれ、超音波画像Uと視野画像Cを同期しているが、例えば、携帯情報端末3においてのみ超音波画像Uと視野画像Cを同期することもできる。
Embodiment 3
In the first embodiment, the ultrasound image U and the visual field image C are synchronized in the mobile information terminal 3 and the external device 4, respectively. However, for example, the ultrasound image U and the visual field image C are synchronized only in the mobile information terminal 3. It can also be synchronized.

図9に、本発明の実施の形態3に係る超音波システム1Cの構成を示す。超音波システム1は、図1に示す実施の形態1の超音波システム1において、超音波プローブ2と同一の内部構成を有する超音波プローブ2Cが備えられ、携帯情報端末3の代わりに携帯情報端末3Cが備えられ、外部装置4の代わりに外部装置4Cが備えられたものである。超音波プローブ2Cは、携帯情報端末3Cにのみ無線通信により接続され、外部装置4Cは、携帯情報端末3Cにのみ無線通信により接続される。 FIG. 9 shows the configuration of an ultrasound system 1C according to Embodiment 3 of the present invention. The ultrasonic system 1 includes an ultrasonic probe 2C having the same internal configuration as the ultrasonic probe 2 in the ultrasonic system 1 of the first embodiment shown in FIG. 3C is provided, and an external device 4C is provided instead of the external device 4. The ultrasonic probe 2C is connected only to the mobile information terminal 3C by wireless communication, and the external device 4C is connected only to the mobile information terminal 3C by wireless communication.

携帯情報端末3Cは、実施の形態1における携帯情報端末3において、端末制御部37の代わりに端末制御部37Cが備えられ、端末側プロセッサ39の代わりに端末側プロセッサ39Cが備えられたものである。携帯情報端末3Cにおいて、端末側無線通信部31に、画像同期部34が接続されている。また、カメラ部33は、画像同期部34に接続されている。 The mobile information terminal 3C is the same as the mobile information terminal 3 in the first embodiment, except that the terminal control unit 37 is replaced by a terminal control unit 37C, and the terminal processor 39 is replaced by a terminal processor 39C. . In the mobile information terminal 3C, an image synchronization unit 34 is connected to the terminal side wireless communication unit 31. Further, the camera section 33 is connected to an image synchronization section 34.

外部装置4Cは、実施の形態1における外部装置4において、画像処理部42と画像同期部43が取り除かれ、外部制御部46の代わりに外部制御部46Cが備えられ、外部装置側プロセッサ48の代わりに外部装置側プロセッサ48Cが備えられている。外部装置4Cにおいて、外部無線通信部41に、表示制御部44が接続されている。 In the external device 4C, the image processing section 42 and the image synchronization section 43 are removed from the external device 4 in the first embodiment, an external control section 46C is provided in place of the external control section 46, and the external device side processor 48 is replaced with the external device 4C. is equipped with an external device side processor 48C. In the external device 4C, a display control section 44 is connected to the external wireless communication section 41.

超音波プローブ2Cのプローブ側無線通信部24は、信号処理部23により包絡線検波処理がなされた画像化前の受信データを携帯情報端末3Cのみに無線送信する。
携帯情報端末3Cの端末側無線通信部31は、超音波プローブ2Cから無線送信された画像化前の受信データを受信して、受信した画像化前の受信データを画像処理部32に送出する。
The probe-side wireless communication unit 24 of the ultrasound probe 2C wirelessly transmits the received data, which has been subjected to envelope detection processing by the signal processing unit 23 and has not yet been imaged, to only the mobile information terminal 3C.
The terminal-side wireless communication unit 31 of the mobile information terminal 3C receives the received data before imaging wirelessly transmitted from the ultrasound probe 2C, and sends the received data before imaging to the image processing unit 32.

画像処理部32は、端末側無線通信部31から送出された画像化前の受信データを、通常のテレビジョン信号の走査方式に従う画像信号にラスター変換し、変換された画像信号に対して、明るさ補正、階調補正、シャープネス補正、画像サイズ補正、リフレッシュレート補正、走査周波数補正および色補正等の各種の必要な画像処理を施すことにより、携帯情報端末3Bの端末モニタ36用の表示フォーマットに従う超音波画像Uと外部装置4Bの外部モニタ45用のフォーマットに従う超音波画像Uを生成する。さらに、画像処理部32は、携帯情報端末3Bの端末モニタ36用の表示フォーマットに従う超音波画像Uと外部装置4Bの外部モニタ45用のフォーマットに従う超音波画像Uを画像同期部34に送出する。 The image processing unit 32 raster-converts the received data sent from the terminal-side wireless communication unit 31 before image formation into an image signal according to the scanning method of a normal television signal, and adjusts the brightness of the converted image signal. By performing various necessary image processing such as image size correction, gradation correction, sharpness correction, image size correction, refresh rate correction, scanning frequency correction, and color correction, the display format for the terminal monitor 36 of the mobile information terminal 3B is followed. The ultrasound image U is generated in accordance with the format for the ultrasound image U and the external monitor 45 of the external device 4B. Furthermore, the image processing section 32 sends the ultrasound image U according to the display format for the terminal monitor 36 of the mobile information terminal 3B and the ultrasound image U according to the format for the external monitor 45 of the external device 4B to the image synchronization section 34.

カメラ部33は、被検体における超音波プローブ2Cの走査箇所を撮像した視野画像Cを取得し、取得された視野画像Cを画像同期部34に送出する。
画像同期部34は、画像処理部32から送出された超音波画像Uとカメラ部33から送出された視野画像Cとを互いに同期させる。より具体的には、画像同期部34は、携帯情報端末3Bの端末モニタ36用の表示フォーマットに従う超音波画像Uと視野画像Cとを互いに同期させて合成画像Mを生成し、さらに、外部装置4Cの外部モニタ45用の表示フォーマットに従う超音波画像Uと視野画像Cとを互いに同期させて合成画像Mを生成する。
The camera unit 33 acquires a visual field image C that captures the scanned location of the ultrasound probe 2C on the subject, and sends the acquired visual field image C to the image synchronization unit 34.
The image synchronization unit 34 synchronizes the ultrasound image U sent out from the image processing unit 32 and the visual field image C sent out from the camera unit 33. More specifically, the image synchronization unit 34 generates a composite image M by synchronizing the ultrasound image U and the visual field image C according to the display format for the terminal monitor 36 of the mobile information terminal 3B, and further generates a composite image M A composite image M is generated by synchronizing the ultrasound image U and visual field image C according to the display format for the external monitor 45 of 4C.

また、画像同期部34は、互いに同期された携帯情報端末3Bの端末モニタ36用の表示フォーマットに従う超音波画像Uと視野画像Cに基づいて生成された合成画像Mを、表示制御部35に送出する。表示制御部35は、画像同期部34から送出された合成画像Mに対して所定の処理を施した後、合成画像Mを端末モニタ36に送出し、図3に示すように、端末モニタ36において、互いに同期された超音波画像Uと視野画像Cを一緒に表示させる。また、画像同期部34は、外部装置4Cの外部モニタ45用の表示フォーマットに従う超音波画像Uと視野画像Cに基づいて生成された合成画像Mを端末側無線通信部31に送出する。 Further, the image synchronization unit 34 sends to the display control unit 35 a composite image M generated based on the ultrasound image U and visual field image C that follow the display format for the terminal monitor 36 of the mobile information terminal 3B that are synchronized with each other. do. After performing predetermined processing on the composite image M sent from the image synchronization unit 34, the display control unit 35 sends the composite image M to the terminal monitor 36, and as shown in FIG. , the ultrasound image U and the visual field image C, which are synchronized with each other, are displayed together. Further, the image synchronization unit 34 sends to the terminal-side wireless communication unit 31 a composite image M generated based on the ultrasound image U and visual field image C in accordance with the display format for the external monitor 45 of the external device 4C.

端末側無線通信部31は、画像同期部34から送出された合成画像Mを外部装置4Cに無線送信する。
外部装置4Cの外部無線通信部41は、携帯情報端末3Cから無線送信された合成画像Mを受信し、受信した合成画像Mを表示制御部44に送出する。表示制御部44は、外部無線通信部41から送出された合成画像Mに対して所定の処理を施した後、合成画像Mを外部モニタ45に送出し、図4に示すように、外部モニタ45において、互いに同期された超音波画像Uと視野画像Cを一緒に表示させる。
The terminal-side wireless communication unit 31 wirelessly transmits the composite image M sent out from the image synchronization unit 34 to the external device 4C.
The external wireless communication unit 41 of the external device 4C receives the composite image M wirelessly transmitted from the mobile information terminal 3C, and sends the received composite image M to the display control unit 44. The display control unit 44 performs predetermined processing on the composite image M sent from the external wireless communication unit 41, and then sends the composite image M to the external monitor 45, as shown in FIG. , the ultrasonic image U and visual field image C, which are synchronized with each other, are displayed together.

以上から、本発明の実施の形態3に係る超音波システム1Cによれば、画像処理部32と画像同期部34が携帯情報端末3Cにのみ備えられている場合であっても、携帯情報端末3が画像処理部32を備え且つ外部装置4が画像処理部42を備える実施の形態1の超音波システム1と同様に、端末モニタ36と外部モニタ45にほぼ同時に同一の視野画像Cと超音波画像Uが表示される。そのため、例えば、超音波プローブ2Cおよび携帯情報端末3Cの操作者に対して、遠隔地に配置された外部装置4Cにより視野画像Cと超音波画像Uを観察する観察者が助言を与えることができるため、適切な超音波画像Uが得られ、且つ、超音波診断の精度を向上することができる。 From the above, according to the ultrasound system 1C according to the third embodiment of the present invention, even if the image processing section 32 and the image synchronization section 34 are provided only in the portable information terminal 3C, the portable information terminal Similar to the ultrasound system 1 of the first embodiment in which the external device 4 includes the image processing unit 32 and the external device 4 includes the image processing unit 42, the same visual field image C and the same ultrasound image are displayed on the terminal monitor 36 and the external monitor 45 almost simultaneously. U will be displayed. Therefore, for example, an observer who observes the visual field image C and the ultrasound image U using the external device 4C located at a remote location can give advice to the operator of the ultrasound probe 2C and the mobile information terminal 3C. Therefore, an appropriate ultrasound image U can be obtained, and the accuracy of ultrasound diagnosis can be improved.

また、図1に示す実施の形態1の超音波システム1では、外部装置4に画像処理部42および画像同期部43が備えられているが、実施の形態3に係る超音波システム1Cでは、携帯情報端末3Cから超音波画像Uと視野画像Cに基づいて生成された合成画像Mが外部装置4Cに無線送信されるため、外部装置4Cが画像処理部42と画像同期部43を有する必要がなく、外部装置4Cの内部構成は、実施の形態1における外部装置4の内部構成よりも簡略化されている。そのため、実施の形態3に係る超音波システム1Cによれば、外部装置4Cの消費電力および計算負荷等を軽減することが可能である。 Furthermore, in the ultrasound system 1 according to the first embodiment shown in FIG. Since the composite image M generated based on the ultrasound image U and visual field image C is wirelessly transmitted from the information terminal 3C to the external device 4C, there is no need for the external device 4C to have the image processing section 42 and the image synchronization section 43. , the internal configuration of the external device 4C is simpler than the internal configuration of the external device 4 in the first embodiment. Therefore, according to the ultrasound system 1C according to the third embodiment, it is possible to reduce the power consumption, calculation load, etc. of the external device 4C.

実施の形態4
実施の形態3では、超音波プローブ2の信号処理部23により包絡線検波処理がなされた画像化前の受信データが携帯情報端末3と外部装置4に無線送信されているが、超音波プローブ2において超音波画像Uが生成されることもできる。
Embodiment 4
In Embodiment 3, the reception data before imaging that has been subjected to envelope detection processing by the signal processing unit 23 of the ultrasound probe 2 is wirelessly transmitted to the mobile information terminal 3 and the external device 4. An ultrasound image U can also be generated at .

図10に、本発明の実施の形態4に係る超音波システム1Dの構成を示す。超音波システム1Dは、図9に示す実施の形態3の超音波システム1Cにおいて、超音波プローブ2Cの代わりに超音波プローブ2Dが備えられ、携帯情報端末3Cの代わりに携帯情報端末3Dが備えられ、外部装置4Cの代わりに外部装置4Dが備えられたものである。超音波プローブ2Dは、携帯情報端末3Dにのみ無線通信により接続され、外部装置4Dは、携帯情報端末3Dにのみ無線通信により接続される。 FIG. 10 shows the configuration of an ultrasound system 1D according to Embodiment 4 of the present invention. The ultrasonic system 1D is the same as the ultrasonic system 1C of the third embodiment shown in FIG. 9, except that an ultrasonic probe 2D is provided in place of the ultrasonic probe 2C, and a portable information terminal 3D is provided in place of the portable information terminal 3C. , an external device 4D is provided instead of the external device 4C. The ultrasonic probe 2D is connected only to the mobile information terminal 3D by wireless communication, and the external device 4D is connected only to the mobile information terminal 3D by wireless communication.

超音波プローブ2Dは、実施の形態3における超音波プローブ2Cにおいて、画像処理部81が追加され、プローブ制御部26の代わりにプローブ制御部26Dが備えられ、プローブ側プロセッサ27の代わりにプローブ側プロセッサ27Dが備えられたものである。超音波プローブ2Dにおいて、信号処理部23に画像処理部81が接続されており、画像処理部81に、プローブ側無線通信部24とプローブ制御部26Dが接続されている。図示しないが、信号処理部23と画像処理部81により、超音波画像生成部が構成されている。 The ultrasonic probe 2D is the same as the ultrasonic probe 2C in the third embodiment except that an image processing section 81 is added, a probe control section 26D is provided instead of the probe control section 26, and a probe side processor is provided instead of the probe side processor 27. 27D is equipped. In the ultrasound probe 2D, an image processing section 81 is connected to the signal processing section 23, and a probe side wireless communication section 24 and a probe control section 26D are connected to the image processing section 81. Although not shown, the signal processing section 23 and the image processing section 81 constitute an ultrasound image generation section.

携帯情報端末3Dは、実施の形態3における携帯情報端末3Cにおいて、画像処理部32が取り除かれ、端末制御部37Cの代わりに端末制御部37Dが備えられ、端末側プロセッサ39Cの代わりに端末側プロセッサ39Dが備えられたものである。携帯情報端末3Dにおいて、端末側無線通信部31に画像同期部34が接続されている。また、カメラ部33は、画像同期部34に接続している。 In the mobile information terminal 3D, the image processing unit 32 is removed from the mobile information terminal 3C in the third embodiment, a terminal control unit 37D is provided in place of the terminal control unit 37C, and a terminal side processor is provided in place of the terminal side processor 39C. 39D is equipped. In the mobile information terminal 3D, an image synchronization unit 34 is connected to the terminal side wireless communication unit 31. Further, the camera section 33 is connected to an image synchronization section 34.

外部装置4Dは、実施の形態3における外部装置4Cにおいて、外部制御部46Cの代わりに外部制御部46Dが備えられ、外部装置側プロセッサ48Cの代わりに外部装置側プロセッサ48Dが備えられたものである。 The external device 4D is the same as the external device 4C in the third embodiment except that an external control section 46D is provided in place of the external control section 46C, and an external device-side processor 48D is provided in place of the external device-side processor 48C. .

超音波プローブ2Dの画像処理部81は、信号処理部23により包絡線検波処理がなされた信号を、通常のテレビジョン信号の走査方式に従う画像信号にラスター変換し、変換された画像信号に対して、明るさ補正、階調補正、シャープネス補正、画像サイズ補正、リフレッシュレート補正、走査周波数補正および色補正等の各種の必要な画像処理を施すことにより、携帯情報端末3Dの端末モニタ36用の表示フォーマットに従う超音波画像Uと外部装置4Dの外部モニタ45用のフォーマットに従う超音波画像Uを生成する。また、画像処理部81は、生成されたこれらの超音波画像Uをプローブ側無線通信部24に送出する。 The image processing unit 81 of the ultrasound probe 2D raster-converts the signal subjected to envelope detection processing by the signal processing unit 23 into an image signal according to the scanning method of a normal television signal, and performs raster conversion on the converted image signal. By performing various necessary image processing such as brightness correction, gradation correction, sharpness correction, image size correction, refresh rate correction, scanning frequency correction, and color correction, the display for the terminal monitor 36 of the mobile information terminal 3D is improved. An ultrasound image U according to the format and an ultrasound image U according to the format for the external monitor 45 of the external device 4D are generated. The image processing unit 81 also sends these generated ultrasound images U to the probe-side wireless communication unit 24.

プローブ側無線通信部31は、画像処理部81から送出された超音波画像Uを携帯情報端末3Dに無線送信する。
端末側無線通信部31は、超音波プローブ2Dから無線送信された超音波画像Uを受信し、受信された超音波画像Uを画像同期部34に送出する。
カメラ部33は、被検体における超音波プローブ2Dの走査箇所を撮像した視野画像Cを取得し、取得された視野画像Cを画像同期部34に送出する。
The probe-side wireless communication unit 31 wirelessly transmits the ultrasound image U sent from the image processing unit 81 to the mobile information terminal 3D.
The terminal-side wireless communication unit 31 receives the ultrasound image U wirelessly transmitted from the ultrasound probe 2D, and sends the received ultrasound image U to the image synchronization unit 34.
The camera unit 33 acquires a visual field image C that captures the scanning location of the ultrasound probe 2D in the subject, and sends the acquired visual field image C to the image synchronization unit 34.

画像同期部34は、端末側無線通信部31から送出された超音波画像Uとカメラ部33から送出された視野画像Cとを互いに同期させ、互いに同期された超音波画像Uと視野画像Cに基づいて合成画像Mを生成する。具体的には、画像同期部34は、携帯情報端末3Dの端末モニタ36用のフォーマットに従う超音波画像Uと視野画像Cとを互いに同期させ、さらに、外部装置4Dの外部モニタ45用のフォーマットに従う超音波画像Uと視野画像Cとを互いに同期させる。 The image synchronization unit 34 synchronizes the ultrasound image U transmitted from the terminal-side wireless communication unit 31 and the visual field image C transmitted from the camera unit 33, and synchronizes the ultrasound image U and visual field image C that are synchronized with each other. A composite image M is generated based on the image. Specifically, the image synchronization unit 34 mutually synchronizes the ultrasound image U and the visual field image C according to the format for the terminal monitor 36 of the mobile information terminal 3D, and further synchronizes the ultrasound image U and the visual field image C according to the format for the external monitor 45 of the external device 4D. The ultrasound image U and the visual field image C are synchronized with each other.

画像同期部34は、互いに同期された端末モニタ36用のフォーマットに従う超音波画像Uと視野画像Cに基づいて生成された合成画像Mを表示制御部35に送出する。
表示制御部35は、画像同期部34から送出された合成画像Mに対して所定の処理を施した後、合成画像Mを端末モニタ36に送出し、図3に示すように、端末モニタ36において、互いに同期された超音波画像Uと視野画像Cを一緒に表示する。
The image synchronization unit 34 sends to the display control unit 35 a composite image M generated based on the ultrasound image U and visual field image C that are synchronized with each other in a format for the terminal monitor 36 .
After performing predetermined processing on the composite image M sent from the image synchronization unit 34, the display control unit 35 sends the composite image M to the terminal monitor 36, and as shown in FIG. , the ultrasound image U and the visual field image C, which are synchronized with each other, are displayed together.

また、画像同期部34は、互いに同期された外部モニタ45用のフォーマットに従う超音波画像Uと視野画像Cに基づいて生成された合成画像Mを端末側無線通信部31に送出する。
端末側無線通信部31は、画像同期部34から送出された合成画像Mを外部装置4Dに無線送信する。
Further, the image synchronization unit 34 sends to the terminal side wireless communication unit 31 a composite image M generated based on the ultrasonic image U and the visual field image C in accordance with the format for the external monitor 45 that are synchronized with each other.
The terminal-side wireless communication unit 31 wirelessly transmits the composite image M sent out from the image synchronization unit 34 to the external device 4D.

外部装置4Dの外部無線通信部41は、携帯情報端末3Dから無線送信された合成画像Mを受信し、受信した合成画像Mを表示制御部44に送出する。
表示制御部44は、外部無線通信部41から送出された合成画像Mに対して所定の処理を施した後、合成画像Mを外部モニタ45に送出し、図4に示すように、外部モニタ45において、互いに同期された超音波画像Uと視野画像Cを一緒に表示する。
The external wireless communication unit 41 of the external device 4D receives the composite image M wirelessly transmitted from the mobile information terminal 3D, and sends the received composite image M to the display control unit 44.
The display control unit 44 performs predetermined processing on the composite image M sent from the external wireless communication unit 41, and then sends the composite image M to the external monitor 45, as shown in FIG. , an ultrasound image U and a visual field image C that are synchronized with each other are displayed together.

以上から、実施の形態4に係る超音波システム1Dによれば、画像処理部81が超音波プローブ2Dのみに備えられ、画像同期部34が携帯情報端末3Dにのみ備えられている場合であっても、携帯情報端末3Cが画像処理部32を備え且つ外部装置4が画像処理部42を備える実施の形態3の超音波システム1Cと同様に、端末モニタ36と外部モニタ45にほぼ同時に同一の視野画像Cと超音波画像Uが表示される。そのため、例えば、超音波プローブ2Dおよび携帯情報端末3Dの操作者に対して、遠隔地に配置された外部装置4Dにより視野画像Cと超音波画像Uを観察する観察者が助言を与えることができるため、適切な超音波画像Uが得られ、且つ、超音波診断の精度を向上することができる。 From the above, according to the ultrasound system 1D according to the fourth embodiment, the image processing section 81 is provided only in the ultrasound probe 2D, and the image synchronization section 34 is provided only in the mobile information terminal 3D. Similarly to the ultrasound system 1C of the third embodiment in which the mobile information terminal 3C includes the image processing unit 32 and the external device 4 includes the image processing unit 42, the terminal monitor 36 and the external monitor 45 are provided with the same field of view almost simultaneously. Image C and ultrasound image U are displayed. Therefore, for example, an observer who observes the visual field image C and the ultrasound image U using the external device 4D located at a remote location can give advice to the operator of the ultrasound probe 2D and the mobile information terminal 3D. Therefore, an appropriate ultrasound image U can be obtained, and the accuracy of ultrasound diagnosis can be improved.

実施の形態5
実施の形態3において、外部装置4Cは、携帯情報端末3Cから合成画像Mを受信し、受信した合成画像Mを外部モニタ45に表示しているため、外部モニタ45に表示される超音波画像Uおよび視野画像Cの配置および大きさを外部装置4C側で自由に変更することができなかったが、図11に示す実施の形態5の超音波診断装置1Eによれば、外部モニタ45に表示される超音波画像Uおよび視野画像Cの配置および大きさを、外部装置4E側で任意に変更可能にすることができる。
Embodiment 5
In the third embodiment, the external device 4C receives the composite image M from the mobile information terminal 3C and displays the received composite image M on the external monitor 45. Therefore, the ultrasound image U displayed on the external monitor 45 However, according to the ultrasonic diagnostic apparatus 1E of the fifth embodiment shown in FIG. The arrangement and size of the ultrasound image U and visual field image C can be arbitrarily changed on the external device 4E side.

図11に、本発明の実施の形態5に係る超音波システム1Eの構成を示す。超音波システム1Eは、実施の形態3の超音波システム1Cにおいて、超音波プローブ2Cと同一の内部構成を有する超音波プローブ2Eが備えられ、携帯情報端末3Cの代わりに携帯情報端末3Eが備えられ、外部装置4Cの代わりに外部装置4Eが備えられたものである。超音波プローブ2Eは、携帯情報端末3Eとのみ無線通信により接続され、外部装置4Eは、携帯情報端末3Eとのみ無線通信により接続されている。 FIG. 11 shows the configuration of an ultrasound system 1E according to Embodiment 5 of the present invention. The ultrasonic system 1E is equipped with an ultrasonic probe 2E having the same internal configuration as the ultrasonic probe 2C in the ultrasonic system 1C of Embodiment 3, and is equipped with a mobile information terminal 3E instead of the mobile information terminal 3C. , an external device 4E is provided instead of the external device 4C. The ultrasonic probe 2E is connected only to the mobile information terminal 3E by wireless communication, and the external device 4E is connected only to the mobile information terminal 3E by wireless communication.

携帯情報端末3Eは、実施の形態3における携帯情報端末3Cにおいて、端末制御部37の代わりに端末制御部37Eが備えられ、端末側プロセッサ39の代わりに端末側プロセッサ39Eが備えられたものである。携帯情報端末3Eにおいて、カメラ部33に画像同期部34が接続され、画像同期部34は、端末側無線通信部31に接続している。 The portable information terminal 3E is the same as the portable information terminal 3C in the third embodiment, except that the terminal controller 37 is replaced by a terminal controller 37E, and the terminal processor 39 is replaced by a terminal processor 39E. . In the mobile information terminal 3E, an image synchronization section 34 is connected to the camera section 33, and the image synchronization section 34 is connected to the terminal side wireless communication section 31.

外部装置4Eは、実施の形態3における外部装置4Cにおいて、外部制御部46の代わりに外部制御部46Eが備えられ、外部装置側プロセッサ48の代わりに外部装置側プロセッサ48Eが備えられたものである。 The external device 4E is the same as the external device 4C in the third embodiment, except that an external control section 46E is provided in place of the external control section 46, and an external device-side processor 48E is provided in place of the external device-side processor 48. .

超音波プローブ2Eのプローブ側無線通信部24は、信号処理部23により包絡線検波処理がなされた画像化前の受信データを携帯情報端末3Eに無線送信する。
携帯情報端末3Eの端末側無線通信部31は、超音波プローブ2Eから無線送信された画像化前の受信データを受信し、受信した画像化前の受信データを画像処理部32に送出する。
The probe-side wireless communication unit 24 of the ultrasound probe 2E wirelessly transmits the received data, which has been subjected to envelope detection processing by the signal processing unit 23 and has not yet been imaged, to the mobile information terminal 3E.
The terminal-side wireless communication unit 31 of the mobile information terminal 3E receives the received data before imaging that is wirelessly transmitted from the ultrasound probe 2E, and sends the received data before imaging to the image processing unit 32.

画像処理部32は、端末側無線通信部31から送出された画像化前の受信データに基づいて、携帯情報端末3Eの端末モニタ36用のフォーマットに従う超音波画像Uと外部装置4Eの外部モニタ45用の表示フォーマットに従う超音波画像Uを生成する。また、画像処理部32は、これらの超音波画像Uを画像同期部34に送出する。
カメラ部33は、被検体における超音波プローブ2Eの走査箇所を撮像した視野画像Cを取得し、取得された視野画像Cを画像同期部34に送出する。
The image processing unit 32 generates an ultrasonic image U according to the format for the terminal monitor 36 of the mobile information terminal 3E and the external monitor 45 of the external device 4E based on the received data sent from the terminal side wireless communication unit 31 before image formation. An ultrasound image U is generated according to the display format for. The image processing unit 32 also sends these ultrasound images U to the image synchronization unit 34.
The camera unit 33 acquires a visual field image C that captures the scanned location of the ultrasound probe 2E in the subject, and sends the acquired visual field image C to the image synchronization unit 34.

画像同期部34は、端末側無線通信部31から送出された超音波画像Uとカメラ部33から送出された視野画像Cとを互いに同期させる。具体的には、画像同期部34は、携帯情報端末3Eの端末モニタ36用のフォーマットに従う超音波画像Uと視野画像Cとを互いに同期させ、さらに、外部装置4Eの外部モニタ45用のフォーマットに従う超音波画像Uと視野画像Cとを互いに同期させる。 The image synchronization unit 34 synchronizes the ultrasound image U transmitted from the terminal-side wireless communication unit 31 and the visual field image C transmitted from the camera unit 33 with each other. Specifically, the image synchronization unit 34 mutually synchronizes the ultrasound image U and the visual field image C according to the format for the terminal monitor 36 of the mobile information terminal 3E, and further synchronizes the ultrasound image U and the visual field image C according to the format for the external monitor 45 of the external device 4E. The ultrasound image U and the visual field image C are synchronized with each other.

画像同期部34は、互いに同期された端末モニタ36用のフォーマットに従う超音波画像Uと視野画像Cに基づいて1つの合成画像Mを生成することなく、超音波画像Uと視野画像Cを、それぞれ、表示制御部35に送出する。
表示制御部35は、画像同期部34から送出された超音波画像Uと視野画像Cに対して所定の処理を施して、図3に示すように、端末モニタ36において、互いに同期された超音波画像Uと視野画像Cを一緒に表示する。
The image synchronization unit 34 generates the ultrasound image U and the visual field image C, respectively, without generating one composite image M based on the ultrasound image U and the visual field image C that follow the format for the terminal monitor 36 that are synchronized with each other. , is sent to the display control section 35.
The display control unit 35 performs predetermined processing on the ultrasound image U and visual field image C sent from the image synchronization unit 34, and displays ultrasound images synchronized with each other on the terminal monitor 36, as shown in FIG. Image U and visual field image C are displayed together.

また、画像同期部34は、互いに同期された外部モニタ45用のフォーマットに従う超音波画像Uと視野画像Cに基づいて1つの合成画像Mを生成することなく、超音波画像Uと視野画像Cを、それぞれ、端末側無線通信部31に送出する。
端末側無線通信部31は、画像同期部34から送出された超音波画像Uと視野画像Cを外部装置4Eに無線送信する。
外部装置4Eの外部無線通信部41は、携帯情報端末3Eから無線送信された超音波画像Uと視野画像Cを受信し、受信した超音波画像Uと視野画像Cをそれぞれ表示制御部44に送出する。
Furthermore, the image synchronization unit 34 generates the ultrasound image U and the visual field image C without generating one composite image M based on the ultrasound image U and the visual field image C that follow the format for the external monitor 45 that are synchronized with each other. , respectively, to the terminal side wireless communication section 31.
The terminal-side wireless communication unit 31 wirelessly transmits the ultrasound image U and visual field image C sent from the image synchronization unit 34 to the external device 4E.
The external wireless communication unit 41 of the external device 4E receives the ultrasound image U and visual field image C wirelessly transmitted from the mobile information terminal 3E, and sends the received ultrasound image U and visual field image C to the display control unit 44, respectively. do.

表示制御部44は、外部無線通信部41から送出された超音波画像Uと視野画像Cに対して所定の処理を施し、外部モニタ45において、互いに同期された超音波画像Uと視野画像Cを一緒に表示する。
ここで、外部モニタ45に表示される超音波画像Uと視野画像Cの表示位置および大きさ等の配置および大きさは、入力装置47を介した観察者の入力操作により、調整されることができる。例えば、観察者が入力装置47を介して超音波画像Uと視野画像Cの外部モニタ45における配置および大きさを調整する旨の指示情報を入力すると、入力された指示情報は、外部制御部46Eを経由して表示制御部44に入力される。表示制御部44は、入力された指示情報に基づいて、例えば、図12に示すような配置および大きさにより、互いに同期された超音波画像Uと視野画像Cを表示する。図12に示す例では、図4に示す例と比較して外部装置4E、超音波画像Uおよび視野画像Cが90度回転しており、超音波画像Uの一部に視野画像Cが重畳されるように、超音波画像Uと視野画像Cが外部モニタ45に表示されている。
The display control unit 44 performs predetermined processing on the ultrasound image U and visual field image C sent from the external wireless communication unit 41, and displays the ultrasound image U and visual field image C that are synchronized with each other on the external monitor 45. Display together.
Here, the display position and size of the ultrasound image U and visual field image C displayed on the external monitor 45 can be adjusted by an input operation by the observer via the input device 47. can. For example, when an observer inputs instruction information to adjust the arrangement and size of the ultrasound image U and visual field image C on the external monitor 45 via the input device 47, the input instruction information is transmitted to the external control unit 46E. The information is input to the display control unit 44 via. Based on the input instruction information, the display control unit 44 displays an ultrasound image U and a visual field image C that are synchronized with each other, for example, in the arrangement and size as shown in FIG. 12. In the example shown in FIG. 12, the external device 4E, ultrasound image U, and visual field image C are rotated by 90 degrees compared to the example shown in FIG. An ultrasound image U and a visual field image C are displayed on the external monitor 45 as shown in FIG.

以上から、本発明の実施の形態5に係る超音波システム1Eによれば、外部装置4Eの外部モニタ45において表示される超音波画像Uと視野画像Cの配置および大きさを調整できるため、外部モニタ45に表示される超音波画像Uと視野画像Cを観察する観察者は、その好みに合わせて、より明確に超音波画像Uと視野画像Cを確認することができる。 From the above, according to the ultrasound system 1E according to the fifth embodiment of the present invention, the arrangement and size of the ultrasound image U and visual field image C displayed on the external monitor 45 of the external device 4E can be adjusted. An observer who observes the ultrasound image U and visual field image C displayed on the monitor 45 can check the ultrasound image U and visual field image C more clearly according to his or her preference.

実施の形態6
実施の形態5では、信号処理部23により包絡線検波処理がなされた画像化前の受信データが、プローブ側無線通信部24により、携帯情報端末3Eに無線送信されているが、超音波プローブ2において超音波画像Uが生成されることもできる。
Embodiment 6
In Embodiment 5, the reception data before imaging that has been subjected to envelope detection processing by the signal processing unit 23 is wirelessly transmitted to the mobile information terminal 3E by the probe side wireless communication unit 24. An ultrasound image U can also be generated at .

図13に、本発明の実施の形態6に係る超音波システム1Fの構成を示す。超音波システム1Fは、図11に示す実施の形態5に係る超音波システム1Eにおいて、超音波プローブ2Eの代わりに超音波プローブ2Fが備えられ、携帯情報端末3Eの代わりに携帯情報端末3Fが備えられ、外部装置4Eの代わりに外部装置4Fが備えられたものである。超音波プローブ2Fは、携帯情報端末3Fにのみ無線通信により接続され、外部装置4Fは、携帯情報端末3Fにのみ無線通信により接続される。 FIG. 13 shows the configuration of an ultrasound system 1F according to Embodiment 6 of the present invention. The ultrasonic system 1F is the ultrasonic system 1E according to the fifth embodiment shown in FIG. 11, except that an ultrasonic probe 2F is provided instead of the ultrasonic probe 2E, and a portable information terminal 3F is provided instead of the portable information terminal 3E. In this case, an external device 4F is provided in place of the external device 4E. The ultrasonic probe 2F is connected only to the mobile information terminal 3F by wireless communication, and the external device 4F is connected only to the mobile information terminal 3F by wireless communication.

超音波プローブ2Fは、実施の形態5における超音波プローブ2Eにおいて、画像処理部91が追加され、プローブ制御部26の代わりにプローブ制御部26Eが備えられ、プローブ側プロセッサ27の代わりにプローブ側プロセッサ27Eが備えられたものである。超音波プローブ2Fにおいて、信号処理部23に画像処理部91が接続されており、画像処理部91に、プローブ側無線通信部24とプローブ制御部26Fが接続されている。図示しないが、信号処理部23と画像処理部91により、超音波画像生成部が構成されている。 The ultrasonic probe 2F is the same as the ultrasonic probe 2E in the fifth embodiment except that an image processing section 91 is added, a probe control section 26E is provided instead of the probe control section 26, and a probe side processor is provided instead of the probe side processor 27. 27E is equipped. In the ultrasound probe 2F, an image processing section 91 is connected to the signal processing section 23, and a probe side wireless communication section 24 and a probe control section 26F are connected to the image processing section 91. Although not shown, the signal processing section 23 and the image processing section 91 constitute an ultrasound image generation section.

携帯情報端末3Fは、実施の形態5における携帯情報端末3Eにおいて、画像処理部32が取り除かれ、端末制御部37Eの代わりに端末制御部37Fが備えられ、端末側プロセッサ39Eの代わりに端末側プロセッサ39Fが備えられたものである。携帯情報端末3Fにおいて、端末側無線通信部31に画像同期部34が接続されている。また、カメラ部33は、画像同期部34に接続している。 The mobile information terminal 3F is the same as the mobile information terminal 3E in the fifth embodiment, except that the image processing unit 32 is removed, a terminal control unit 37F is provided in place of the terminal control unit 37E, and a terminal side processor is provided in place of the terminal side processor 39E. It is equipped with 39F. In the mobile information terminal 3F, an image synchronization unit 34 is connected to the terminal side wireless communication unit 31. Further, the camera section 33 is connected to an image synchronization section 34.

外部装置4Fは、実施の形態5における外部装置4Eにおいて、外部制御部46Eの代わりに外部制御部46Fが備えられ、外部装置側プロセッサ48Eの代わりに外部装置側プロセッサ48Fが備えられたものである。 The external device 4F is the same as the external device 4E in the fifth embodiment except that an external control section 46F is provided in place of the external control section 46E, and an external device-side processor 48F is provided in place of the external device-side processor 48E. .

超音波プローブ2Fの画像処理部91は、信号処理部23により包絡線検波処理がなされた信号を、通常のテレビジョン信号の走査方式に従う画像信号にラスター変換し、変換された画像信号に対して、明るさ補正、階調補正、シャープネス補正、画像サイズ補正、リフレッシュレート補正、走査周波数補正および色補正等の各種の必要な画像処理を施すことにより、携帯情報端末3Fの端末モニタ36用の表示フォーマットに従う超音波画像Uと外部装置4Fの外部モニタ45用のフォーマットに従う超音波画像Uを生成する。また、画像処理部91は、生成されたこれらの超音波画像Uをプローブ側無線通信部24に送出する。 The image processing unit 91 of the ultrasound probe 2F raster-converts the signal subjected to envelope detection processing by the signal processing unit 23 into an image signal according to the scanning method of a normal television signal, and performs raster conversion on the converted image signal. By performing various necessary image processing such as brightness correction, gradation correction, sharpness correction, image size correction, refresh rate correction, scanning frequency correction, and color correction, the display for the terminal monitor 36 of the mobile information terminal 3F is An ultrasound image U according to the format and an ultrasound image U according to the format for the external monitor 45 of the external device 4F are generated. Further, the image processing unit 91 sends these generated ultrasound images U to the probe-side wireless communication unit 24.

端末側無線通信部31は、超音波プローブ2Fから無線送信された超音波画像Uを受信し、受信された超音波画像Uを画像同期部34に送出する。
カメラ部33は、被検体における超音波プローブ2Fの走査箇所を撮像した視野画像Cを取得し、取得された視野画像Cを画像同期部34に送出する。
The terminal-side wireless communication unit 31 receives the ultrasound image U wirelessly transmitted from the ultrasound probe 2F, and sends the received ultrasound image U to the image synchronization unit 34.
The camera unit 33 acquires a visual field image C that captures the scanning location of the ultrasound probe 2F in the subject, and sends the acquired visual field image C to the image synchronization unit 34.

画像同期部34は、端末側無線通信部31から送出された超音波画像Uとカメラ部33から送出された視野画像Cとを互いに同期させる。具体的には、画像同期部34は、携帯情報端末3Fの端末モニタ36用のフォーマットに従う超音波画像Uと視野画像Cとを互いに同期させ、さらに、外部装置4Fの外部モニタ45用のフォーマットに従う超音波画像Uと視野画像Cとを互いに同期させる。 The image synchronization unit 34 synchronizes the ultrasound image U transmitted from the terminal-side wireless communication unit 31 and the visual field image C transmitted from the camera unit 33 with each other. Specifically, the image synchronization unit 34 mutually synchronizes the ultrasound image U and the visual field image C according to the format for the terminal monitor 36 of the mobile information terminal 3F, and further synchronizes the ultrasound image U and the visual field image C according to the format for the external monitor 45 of the external device 4F. The ultrasound image U and the visual field image C are synchronized with each other.

画像同期部34は、互いに同期された端末モニタ36用のフォーマットに従う超音波画像Uと視野画像Cに基づいて1つの合成画像Mを生成することなく、超音波画像Uと視野画像Cを、それぞれ、表示制御部35に送出する。
表示制御部35は、画像同期部34から送出された超音波画像Uと視野画像Cに対して所定の処理を施して、端末モニタ36において、互いに同期された超音波画像Uと視野画像Cを一緒に表示する。
The image synchronization unit 34 generates the ultrasound image U and the visual field image C, respectively, without generating one composite image M based on the ultrasound image U and the visual field image C that follow the format for the terminal monitor 36 that are synchronized with each other. , is sent to the display control section 35.
The display control unit 35 performs predetermined processing on the ultrasound image U and visual field image C sent from the image synchronization unit 34, and displays the ultrasound image U and visual field image C that are synchronized with each other on the terminal monitor 36. Display together.

また、画像同期部34は、互いに同期された外部モニタ45用のフォーマットに従う超音波画像Uと視野画像Cに基づいて1つの合成画像Mを生成することなく、超音波画像Uと視野画像Cを、それぞれ、端末側無線通信部31に送出する。
端末側無線通信部31は、画像同期部34から送出された超音波画像Uと視野画像Cを外部装置4Fに無線送信する。
Furthermore, the image synchronization unit 34 generates the ultrasound image U and the visual field image C without generating one composite image M based on the ultrasound image U and the visual field image C that follow the format for the external monitor 45 that are synchronized with each other. , respectively, to the terminal side wireless communication section 31.
The terminal-side wireless communication unit 31 wirelessly transmits the ultrasound image U and visual field image C sent from the image synchronization unit 34 to the external device 4F.

外部装置4Fの外部無線通信部41は、携帯情報端末3Fから無線送信された超音波画像Uと視野画像Cを受信し、受信した超音波画像Uと視野画像Cをそれぞれ表示制御部44に送出する。
表示制御部44は、外部無線通信部41から送出された超音波画像Uと視野画像Cに対して所定の処理を施して、外部モニタ45において、互いに同期された超音波画像Uと視野画像Cを一緒に表示する。
The external wireless communication unit 41 of the external device 4F receives the ultrasound image U and visual field image C wirelessly transmitted from the mobile information terminal 3F, and sends the received ultrasound image U and visual field image C to the display control unit 44, respectively. do.
The display control unit 44 performs predetermined processing on the ultrasound image U and visual field image C sent from the external wireless communication unit 41, and displays the ultrasound image U and visual field image C synchronized with each other on the external monitor 45. displayed together.

この際に、表示制御部44は、入力装置47を介した観察者の入力操作に従って外部モニタ45に表示される超音波画像Uと視野画像Cの配置および大きさを調整することができる。これにより、例えば、図12に示すように、外部モニタ45において、互いに同期された超音波画像Uと視野画像Cが一緒に表示される。 At this time, the display control unit 44 can adjust the arrangement and size of the ultrasound image U and visual field image C displayed on the external monitor 45 in accordance with input operations by the observer via the input device 47. As a result, for example, as shown in FIG. 12, the ultrasound image U and visual field image C that are synchronized with each other are displayed together on the external monitor 45.

以上から、本発明の実施の形態6に係る超音波システム1Fによれば、超音波プローブ2Fが画像処理部91を備えている場合であっても、外部装置4Fの外部モニタ45において表示される超音波画像Uと視野画像Cの配置および大きさを調整できるため、外部モニタ45に表示される超音波画像Uと視野画像Cを観察する観察者は、その好みに合わせて、より明確に超音波画像Uと視野画像Cを確認することができる。 From the above, according to the ultrasound system 1F according to the sixth embodiment of the present invention, even if the ultrasound probe 2F is equipped with the image processing unit 91, the image displayed on the external monitor 45 of the external device 4F is Since the placement and size of the ultrasonic image U and visual field image C can be adjusted, the observer who observes the ultrasonic image U and visual field image C displayed on the external monitor 45 can adjust the ultrasonic image more clearly according to his/her preference. The acoustic wave image U and the visual field image C can be confirmed.

1,1B,1C,1D,1E,1F 超音波システム、2,2B,2C,2D,2E,2F 超音波プローブ、3,3A,3B,3C,3D,3E,3F 携帯情報端末、4,4A,4B,4C,4D,4E,4F 外部装置、21 振動子アレイ、22 送受信回路、23 信号処理部、24 プローブ側無線通信部、26,26B,26D,26F プローブ制御部、27,27B,27D,27F プローブ側プロセッサ、31 端末側無線通信部、32,42,71,81,91 画像処理部、33 カメラ部、34,43 画像同期部、35,44 表示制御部、36 端末モニタ、37,37A,37B,37C,37D,37E,37F 端末制御部、38,47 入力装置、39,39A,39B,39C,39D,39E,39F 端末側プロセッサ、41 外部無線通信部、45 外部モニタ、46,46A,46B,46C,46D,4E6,46F 外部制御部、48,48A,48B,48C,48D,48E,48F 外部装置側プロセッサ、51 パルサ、52 増幅部、53 AD変換部、54 ビームフォーマ、61,63 マイク、62,64 スピーカ、A カーソル、C 視野画像、U 超音波画像。 1, 1B, 1C, 1D, 1E, 1F Ultrasonic system, 2, 2B, 2C, 2D, 2E, 2F Ultrasonic probe, 3, 3A, 3B, 3C, 3D, 3E, 3F Mobile information terminal, 4, 4A , 4B, 4C, 4D, 4E, 4F External device, 21 Transducer array, 22 Transmission/reception circuit, 23 Signal processing section, 24 Probe side wireless communication section, 26, 26B, 26D, 26F Probe control section, 27, 27B, 27D , 27F probe side processor, 31 terminal side wireless communication section, 32, 42, 71, 81, 91 image processing section, 33 camera section, 34, 43 image synchronization section, 35, 44 display control section, 36 terminal monitor, 37, 37A, 37B, 37C, 37D, 37E, 37F Terminal control unit, 38, 47 Input device, 39, 39A, 39B, 39C, 39D, 39E, 39F Terminal side processor, 41 External wireless communication unit, 45 External monitor, 46, 46A, 46B, 46C, 46D, 4E6, 46F External control section, 48, 48A, 48B, 48C, 48D, 48E, 48F External device side processor, 51 Pulser, 52 Amplification section, 53 AD conversion section, 54 Beam former, 61 , 63 microphone, 62, 64 speaker, A cursor, C visual field image, U ultrasound image.

Claims (14)

超音波プローブと携帯情報端末と外部装置とを備える超音波システムであって、
前記超音波プローブは、
振動子アレイと、
前記振動子アレイから超音波を送信し且つ前記振動子アレイにより取得された受信信号に基づいて音線信号を生成する送受信回路と、
前記送受信回路により生成された前記音線信号に基づいて超音波画像を生成する超音波画像生成部と、
前記超音波画像を前記携帯情報端末のみに無線送信するプローブ側無線通信部と
を含み、
前記携帯情報端末は、
被検体における前記超音波プローブの走査箇所を撮像した視野画像を取得するカメラ部と、
前記携帯情報端末の操作者により第1の情報が入力される第1の入力装置と、
第1の情報伝達部と、
前記外部装置と双方向に無線通信を行い、且つ、前記カメラ部により取得された前記視野画像、前記超音波プローブから受信した前記超音波画像および前記第1の入力装置に入力された前記第1の情報を前記外部装置に無線送信する端末側無線通信部と
を含み、
前記外部装置は、
外部モニタと、
前記外部モニタの観察者により第2の情報が入力される第2の入力装置と、
第2の情報伝達部と、
前記超音波画像と前記視野画像とを前記外部モニタに一緒に表示する表示制御部と、
前記携帯情報端末と双方向に無線通信を行い、且つ、前記第2の入力装置に入力された前記第2の情報を前記携帯情報端末に無線送信する外部無線通信部と
を含み、
前記携帯情報端末の前記第1の情報伝達部が前記外部装置の前記第2の入力装置に入力された前記第2の情報を前記操作者に伝達し且つ前記外部装置の前記第2の情報伝達部が前記携帯情報端末の前記第1の入力装置に入力された前記第1の情報を前記観察者に伝達することにより、前記携帯情報端末と前記外部装置との間において双方向の情報伝達を行う超音波システム。
An ultrasound system comprising an ultrasound probe, a mobile information terminal, and an external device,
The ultrasound probe includes:
a transducer array,
a transmitting/receiving circuit that transmits ultrasonic waves from the transducer array and generates a sound ray signal based on a received signal acquired by the transducer array;
an ultrasound image generation unit that generates an ultrasound image based on the sound ray signal generated by the transmission/reception circuit;
a probe-side wireless communication unit that wirelessly transmits the ultrasound image only to the mobile information terminal;
The mobile information terminal is
a camera unit that acquires a field-of-view image of a scanned location of the ultrasound probe in the subject;
a first input device into which first information is input by an operator of the mobile information terminal;
a first information transmission section;
Bidirectional wireless communication is performed with the external device, and the visual field image acquired by the camera unit, the ultrasound image received from the ultrasound probe, and the first input device are input to the first input device. a terminal-side wireless communication unit that wirelessly transmits the information to the external device;
The external device is
external monitor and
a second input device into which second information is input by an observer of the external monitor;
a second information transmission section;
a display control unit that displays the ultrasound image and the visual field image together on the external monitor;
an external wireless communication unit that performs bidirectional wireless communication with the mobile information terminal and wirelessly transmits the second information input to the second input device to the mobile information terminal,
The first information transmitting unit of the mobile information terminal transmits the second information input to the second input device of the external device to the operator, and transmits the second information of the external device. The unit transmits the first information input to the first input device of the mobile information terminal to the observer, thereby performing bidirectional information transmission between the mobile information terminal and the external device. Perform ultrasound system.
前記携帯情報端末は、端末モニタを含み、
前記超音波画像と前記視野画像とが前記端末モニタに表示される請求項1に記載の超音波システム。
The mobile information terminal includes a terminal monitor,
The ultrasound system according to claim 1, wherein the ultrasound image and the field of view image are displayed on the terminal monitor.
前記携帯情報端末は、前記超音波画像と前記視野画像とを互いに同期させる第2の画像同期部を含む請求項2に記載の超音波システム。 The ultrasound system according to claim 2, wherein the portable information terminal includes a second image synchronization unit that synchronizes the ultrasound image and the visual field image with each other. 前記外部装置は、入力装置を含み、
前記外部無線通信部は、前記入力装置を介して入力された外部入力情報を前記端末側無線通信部に無線送信し、
前記外部入力情報が前記端末モニタに表示される請求項2または3に記載の超音波システム。
The external device includes an input device,
The external wireless communication unit wirelessly transmits external input information input via the input device to the terminal side wireless communication unit,
The ultrasound system according to claim 2 or 3, wherein the external input information is displayed on the terminal monitor.
前記携帯情報端末は、前記超音波プローブおよび前記携帯情報端末を操作する操作者の頭部に装着可能である請求項1~4のいずれか一項に記載の超音波システム。 The ultrasound system according to any one of claims 1 to 4, wherein the mobile information terminal is attachable to the head of an operator who operates the ultrasound probe and the mobile information terminal. 超音波プローブと携帯情報端末と外部装置とを備える超音波システムの制御方法であって、
前記超音波プローブにおいて、
前記超音波プローブの振動子アレイから超音波を送信し且つ前記振動子アレイにより取得された受信信号に基づいて音線信号を生成し、
生成された前記音線信号に基づいて超音波画像を生成し、
前記超音波画像を前記携帯情報端末に無線送信し、
前記携帯情報端末において、
被検体における前記超音波プローブの走査箇所を撮像した視野画像を取得し、
前記携帯情報端末の操作者による第1の情報の入力を受け付け、
取得された前記視野画像、前記超音波プローブから無線送信された前記超音波画像および入力が受け付けられた前記第1の情報を前記外部装置に無線送信し、
前記外部装置において、
前記超音波画像と前記視野画像とを一緒に外部モニタに表示し、
前記外部モニタの観察者による第2の情報の入力を受け付け、
前記携帯情報端末が前記外部装置において入力された前記第2の情報を前記操作者に伝達し且つ前記外部装置が前記携帯情報端末において入力された前記第1の情報を前記観察者に伝達することにより、前記携帯情報端末と前記外部装置との間において双方向の情報伝達を行う
超音波システムの制御方法。
A method for controlling an ultrasound system comprising an ultrasound probe, a mobile information terminal, and an external device, the method comprising:
In the ultrasound probe,
transmitting ultrasound from a transducer array of the ultrasound probe and generating a sound ray signal based on a received signal acquired by the transducer array;
Generating an ultrasound image based on the generated sound ray signal,
wirelessly transmitting the ultrasound image to the mobile information terminal;
In the mobile information terminal,
Obtaining a field of view image of the scanned location of the ultrasound probe in the subject;
accepting input of first information by an operator of the mobile information terminal;
wirelessly transmitting the acquired visual field image, the ultrasound image wirelessly transmitted from the ultrasound probe, and the first information whose input is accepted to the external device;
In the external device,
displaying the ultrasound image and the visual field image together on an external monitor;
accepting input of second information by an observer of the external monitor;
The mobile information terminal transmits the second information input on the external device to the operator, and the external device transmits the first information input on the mobile information terminal to the observer. A method for controlling an ultrasound system, wherein information is transmitted bidirectionally between the portable information terminal and the external device.
超音波プローブと携帯情報端末と外部装置とを備える超音波システムであって、
前記超音波プローブは、
振動子アレイと、
前記振動子アレイから超音波を送信し且つ前記振動子アレイにより取得された受信信号に基づいて音線信号を生成する送受信回路と、
前記送受信回路により生成された前記音線信号に信号処理を施すことにより画像化前の受信データを生成する受信データ生成部と、
前記受信データを前記携帯情報端末のみに無線送信するプローブ側無線通信部と
を含み、
前記携帯情報端末は、
被検体における前記超音波プローブの走査箇所を撮像した視野画像を取得するカメラ部と、
前記携帯情報端末の操作者により第1の情報が入力される第1の入力装置と、
第1の情報伝達部と、
前記外部装置と双方向に無線通信を行い、且つ、少なくとも前記カメラ部により取得された前記視野画像および前記第1の入力装置に入力された前記第1の情報を前記外部装置に無線送信する端末側無線通信部と
を含み、
前記外部装置は、
外部モニタと、
前記外部モニタの観察者により第2の情報が入力される第2の入力装置と、
第2の情報伝達部と、
前記受信データに基づいて生成された超音波画像と前記視野画像とを前記外部モニタに一緒に表示する表示制御部と
を含み、
前記携帯情報端末の前記第1の情報伝達部が前記外部装置の前記第2の入力装置に入力された前記第2の情報を前記操作者に伝達し且つ前記外部装置の前記第2の情報伝達部が前記携帯情報端末の前記第1の入力装置に入力された前記第1の情報を前記観察者に伝達することにより、前記携帯情報端末と前記外部装置との間において双方向の情報伝達を行う超音波システム。
An ultrasound system comprising an ultrasound probe, a mobile information terminal, and an external device,
The ultrasound probe includes:
a transducer array,
a transmitting/receiving circuit that transmits ultrasonic waves from the transducer array and generates a sound ray signal based on a received signal acquired by the transducer array;
a received data generation unit that generates received data before imaging by performing signal processing on the sound ray signal generated by the transmitting and receiving circuit;
a probe-side wireless communication unit that wirelessly transmits the received data only to the mobile information terminal;
The mobile information terminal is
a camera unit that acquires a field-of-view image of a scanned location of the ultrasound probe in the subject;
a first input device into which first information is input by an operator of the mobile information terminal;
a first information transmission section;
A terminal that performs bidirectional wireless communication with the external device and wirelessly transmits at least the visual field image acquired by the camera unit and the first information input to the first input device to the external device. including a side wireless communication section and
The external device is
external monitor and
a second input device into which second information is input by an observer of the external monitor;
a second information transmission section;
a display control unit that displays the ultrasound image generated based on the received data and the visual field image together on the external monitor;
The first information transmitting unit of the mobile information terminal transmits the second information input to the second input device of the external device to the operator, and transmits the second information of the external device. The unit transmits the first information input to the first input device of the mobile information terminal to the observer, thereby performing bidirectional information transmission between the mobile information terminal and the external device. Perform ultrasound system.
前記外部装置は、前記プローブ側無線通信部から無線送信された前記受信データに基づいて超音波画像を生成する画像処理部を含む請求項7に記載の超音波システム。 The ultrasound system according to claim 7, wherein the external device includes an image processing unit that generates an ultrasound image based on the received data wirelessly transmitted from the probe-side wireless communication unit. 前記プローブ側無線通信部は、前記受信データを前記携帯情報端末に無線送信し、
前記携帯情報端末は、前記プローブ側無線通信部から無線送信された前記受信データに基づいて超音波画像を生成する画像処理部を含み、
前記端末側無線通信部は、前記画像処理部により生成された前記超音波画像と前記カメラ部により取得された前記視野画像とを前記外部装置に無線送信する請求項7に記載の超音波システム。
The probe-side wireless communication unit wirelessly transmits the received data to the mobile information terminal,
The mobile information terminal includes an image processing unit that generates an ultrasound image based on the received data wirelessly transmitted from the probe-side wireless communication unit,
The ultrasound system according to claim 7, wherein the terminal-side wireless communication unit wirelessly transmits the ultrasound image generated by the image processing unit and the visual field image acquired by the camera unit to the external device.
前記携帯情報端末は、端末モニタを含み、
前記超音波画像と前記視野画像とが前記端末モニタに表示される請求項9に記載の超音波システム。
The mobile information terminal includes a terminal monitor,
The ultrasound system according to claim 9, wherein the ultrasound image and the field of view image are displayed on the terminal monitor.
前記携帯情報端末は、前記超音波画像と前記視野画像とを互いに同期させる第2の画像同期部を含む請求項10に記載の超音波システム。 The ultrasound system according to claim 10, wherein the mobile information terminal includes a second image synchronization unit that synchronizes the ultrasound image and the visual field image with each other. 前記外部装置は、入力装置を含み、
前記外部無線通信部は、前記入力装置を介して入力された外部入力情報を前記端末側無線通信部に無線送信し、
前記外部入力情報が前記端末モニタに表示される請求項10または11に記載の超音波システム。
The external device includes an input device,
The external wireless communication unit wirelessly transmits external input information input via the input device to the terminal side wireless communication unit,
The ultrasound system according to claim 10 or 11, wherein the external input information is displayed on the terminal monitor.
前記携帯情報端末は、前記超音波プローブおよび前記携帯情報端末を操作する操作者の頭部に装着可能である請求項7~12のいずれか一項に記載の超音波システム。 The ultrasound system according to any one of claims 7 to 12, wherein the mobile information terminal is attachable to the head of an operator who operates the ultrasound probe and the mobile information terminal. 超音波プローブと携帯情報端末と外部装置とを備える超音波システムの制御方法であって、
前記超音波プローブにおいて、
前記超音波プローブの振動子アレイから超音波を送信し且つ前記振動子アレイにより取得された受信信号に基づいて音線信号を生成し、
生成された前記音線信号に信号処理を施すことにより画像化前の受信データを生成し、
前記受信データを前記携帯情報端末に無線送信し、
前記携帯情報端末において、
被検体における前記超音波プローブの走査箇所を撮像した視野画像を取得し、
前記携帯情報端末の操作者による第1の情報の入力を受け付け、
少なくとも取得された前記視野画像および入力が受け付けられた前記第1の情報を前記外部装置に無線送信し、
前記外部装置において、
前記受信データに基づいて生成された超音波画像と前記視野画像とを外部モニタに一緒に表示し、
前記外部モニタの観察者による第2の情報の入力を受け付け、
前記携帯情報端末が前記外部装置において入力された前記第2の情報を前記操作者に伝達し且つ前記外部装置が前記携帯情報端末において入力された前記第1の情報を前記観察者に伝達することにより、前記携帯情報端末と前記外部装置との間において双方向の情報伝達を行う
超音波システムの制御方法。
A method for controlling an ultrasound system comprising an ultrasound probe, a mobile information terminal, and an external device, the method comprising:
In the ultrasound probe,
transmitting ultrasound from a transducer array of the ultrasound probe and generating a sound ray signal based on a received signal acquired by the transducer array;
generating received data before imaging by performing signal processing on the generated sound ray signal;
wirelessly transmitting the received data to the mobile information terminal;
In the mobile information terminal,
Obtaining a field of view image of the scanned location of the ultrasound probe in the subject;
accepting input of first information by an operator of the mobile information terminal;
wirelessly transmitting at least the acquired visual field image and the first information whose input has been accepted to the external device;
In the external device,
displaying the ultrasound image generated based on the received data and the visual field image together on an external monitor;
accepting input of second information by an observer of the external monitor;
The mobile information terminal transmits the second information input on the external device to the operator, and the external device transmits the first information input on the mobile information terminal to the observer. A method for controlling an ultrasound system, wherein information is transmitted bidirectionally between the portable information terminal and the external device.
JP2024002426A 2019-08-15 2024-01-11 Ultrasonic systems and methods of controlling them Pending JP2024026718A (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2019149113 2019-08-15
JP2019149113 2019-08-15
JP2021539176A JP7210749B2 (en) 2019-08-15 2020-07-16 Ultrasonic system and method of controlling the ultrasonic system
PCT/JP2020/027714 WO2021029179A1 (en) 2019-08-15 2020-07-16 Ultrasonic system and method for controlling ultrasonic system
JP2023002122A JP7420980B2 (en) 2019-08-15 2023-01-11 Ultrasonic systems and methods of controlling them

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2023002122A Division JP7420980B2 (en) 2019-08-15 2023-01-11 Ultrasonic systems and methods of controlling them

Publications (1)

Publication Number Publication Date
JP2024026718A true JP2024026718A (en) 2024-02-28

Family

ID=74570570

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2021539176A Active JP7210749B2 (en) 2019-08-15 2020-07-16 Ultrasonic system and method of controlling the ultrasonic system
JP2023002122A Active JP7420980B2 (en) 2019-08-15 2023-01-11 Ultrasonic systems and methods of controlling them
JP2024002426A Pending JP2024026718A (en) 2019-08-15 2024-01-11 Ultrasonic systems and methods of controlling them

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2021539176A Active JP7210749B2 (en) 2019-08-15 2020-07-16 Ultrasonic system and method of controlling the ultrasonic system
JP2023002122A Active JP7420980B2 (en) 2019-08-15 2023-01-11 Ultrasonic systems and methods of controlling them

Country Status (5)

Country Link
US (1) US20220117579A1 (en)
EP (1) EP4014889A4 (en)
JP (3) JP7210749B2 (en)
CN (1) CN114269257A (en)
WO (1) WO2021029179A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112135566A (en) * 2018-05-18 2020-12-25 富士胶片株式会社 Ultrasonic system and control method of ultrasonic system

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4127785B2 (en) * 2002-10-31 2008-07-30 株式会社東芝 Treatment system
JP2011183056A (en) * 2010-03-10 2011-09-22 Fujifilm Corp Ultrasonic diagnostic apparatus
US9232934B2 (en) * 2012-12-14 2016-01-12 General Electric Company Systems and methods for communicating ultrasound probe location and image information
US10646199B2 (en) * 2015-10-19 2020-05-12 Clarius Mobile Health Corp. Systems and methods for remote graphical feedback of ultrasound scanning technique
CN108289613B (en) * 2015-10-22 2021-07-06 泰拓卡尔有限公司 System, method and computer program product for physiological monitoring
JP6059789B1 (en) 2015-11-09 2017-01-11 株式会社日立製作所 Ultrasound diagnostic system
KR102578755B1 (en) * 2016-01-28 2023-09-15 삼성메디슨 주식회사 Ultrasonic probe and ultrasonic diagnostic system including the same
KR20170093632A (en) * 2016-02-05 2017-08-16 삼성전자주식회사 Electronic device and operating method thereof
JP2019514476A (en) * 2016-04-19 2019-06-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Positioning of ultrasound imaging probe
TWI765895B (en) * 2016-06-20 2022-06-01 美商蝴蝶網路公司 Systems and methods of automated image acquisition for assisting a user to operate an ultrasound device

Also Published As

Publication number Publication date
EP4014889A1 (en) 2022-06-22
WO2021029179A1 (en) 2021-02-18
JPWO2021029179A1 (en) 2021-02-18
JP2023029556A (en) 2023-03-03
US20220117579A1 (en) 2022-04-21
JP7210749B2 (en) 2023-01-23
CN114269257A (en) 2022-04-01
EP4014889A4 (en) 2022-10-05
JP7420980B2 (en) 2024-01-23

Similar Documents

Publication Publication Date Title
KR101643620B1 (en) Ultrasound diagnostic apparatus and operating method thereof
JP7119127B2 (en) Ultrasonic system and method of controlling the ultrasonic system
JP2024026718A (en) Ultrasonic systems and methods of controlling them
JP6744132B2 (en) Medical diagnostic system and medical diagnostic device
JP6258014B2 (en) Ultrasonic diagnostic system, ultrasonic diagnostic apparatus and terminal device
JP7391974B2 (en) Ultrasonic systems and methods of controlling them
JP2023130474A (en) Ultrasonic system and control method of ultrasonic system
JP7183262B2 (en) Ultrasonic system and method of controlling the ultrasonic system
JP5525709B2 (en) Ultrasonic diagnostic equipment
JP7428801B2 (en) Ultrasonic diagnostic device, control method for ultrasonic diagnostic device, and processor for ultrasonic diagnostic device
JP7350179B2 (en) Ultrasonic diagnostic device, control method for ultrasonic diagnostic device, and processor for ultrasonic diagnostic device
WO2021049148A1 (en) Ultrasonic system and method for controlling ultrasonic system
WO2023281987A1 (en) Ultrasonic system and method for controlling ultrasonic system
JPWO2021029179A5 (en)
WO2023281997A1 (en) Ultrasound system and control method for ultrasound system
WO2023008155A1 (en) Ultrasonic diagnostic device and method for controlling ultrasonic diagnostic device
US20230414205A1 (en) Ultrasound diagnostic apparatus and control method for ultrasound diagnostic apparatus
WO2022202351A1 (en) Ultrasonic diagnostic device and method for controlling ultrasonic diagnostic device
WO2022264805A1 (en) Ultrasonic diagnostic device, ultrasonic system, and method for controlling ultrasonic diagnostic device
US20240000431A1 (en) Ultrasound system and control method of ultrasound system
WO2023021943A1 (en) Ultrasonic diagnostic device and method for controlling ultrasonic diagnostic device
WO2022044654A1 (en) Ultrasonic diagnostic device and method for controlling ultrasonic diagnostic device
JP2023108868A (en) Ultrasonic diagnostic apparatus, ultrasonic diagnostic system, and ultrasonic diagnostic apparatus control program
WO2020137162A1 (en) Ultrasonic diagnosis device and control method for ultrasonic device
JP2024025865A (en) Control method for ultrasonic diagnostic equipment and ultrasonic diagnostic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240111