JP2017169210A - Device, control method of the same, program, and storage medium - Google Patents

Device, control method of the same, program, and storage medium Download PDF

Info

Publication number
JP2017169210A
JP2017169210A JP2017087519A JP2017087519A JP2017169210A JP 2017169210 A JP2017169210 A JP 2017169210A JP 2017087519 A JP2017087519 A JP 2017087519A JP 2017087519 A JP2017087519 A JP 2017087519A JP 2017169210 A JP2017169210 A JP 2017169210A
Authority
JP
Japan
Prior art keywords
imaging
instruction
photographing
human body
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017087519A
Other languages
Japanese (ja)
Other versions
JP6338733B2 (en
Inventor
健一 阿部
Kenichi Abe
健一 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2017087519A priority Critical patent/JP6338733B2/en
Publication of JP2017169210A publication Critical patent/JP2017169210A/en
Application granted granted Critical
Publication of JP6338733B2 publication Critical patent/JP6338733B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve the problem that it was a burden for a photographer to photograph a patient without omitting a photographing instruction from a medical doctor.SOLUTION: A photographing apparatus comprises: photographing instruction acquisition means for receiving a photographing instruction to designate a photographing area of a subject; means for displaying the photographing instruction on a figure showing the subject, on a screen; and means for receiving the photographing instruction while the photographing instruction is displayed on the display screen.SELECTED DRAWING: Figure 4

Description

本発明は、撮影装置及び撮影方法に関する。   The present invention relates to a photographing apparatus and a photographing method.

近年、病院などの医療機関において情報化が進み、患者の診断情報を管理する電子カルテを導入する機関が増えている。電子カルテ上には、患者の診断履歴、投薬情報、手術情報、患部画像、X線画像などが一元管理され、データの共有や再利用が簡単にできるようになってきている。また、近年のストレージの大容量化によって、患部などのデジタル画像を大量に撮影して電子カルテに格納できるようになった。   In recent years, computerization has progressed in medical institutions such as hospitals, and an increasing number of institutions have introduced electronic medical records that manage patient diagnosis information. On the electronic medical record, patient diagnosis history, medication information, surgery information, affected area images, X-ray images, and the like are centrally managed, and data can be easily shared and reused. Also, with the recent increase in storage capacity, it has become possible to take a large number of digital images of affected areas and store them in an electronic medical record.

このような環境の中で、デジタルカメラを利用して患者を撮影し、撮影した画像を診療の記録として電子カルテに格納するような利用法が頻繁に行われている。特に皮膚科や外科、介護の現場では、患者の傷口や手術痕、褥瘡(床ずれ)を定期的にデジタルカメラで撮影し、患部の経時変化を観察することが行われている。   In such an environment, a method is frequently used in which a patient is photographed using a digital camera and the photographed image is stored in an electronic medical record as a medical record. In particular, in the field of dermatology, surgery, and nursing care, a patient's wound, surgical scar, and pressure ulcer (bed slip) are regularly photographed with a digital camera, and changes over time of the affected area are observed.

このようなデジタルカメラの利用シーンでは、必ずしも診察した医師が撮影するとは限らない。医師の指示の元に院内の撮影スタッフ、看護師、或いは院外の訪問看護師などが撮影する場合がある。この場合、医師が対象患者の名前、ID等の基本情報に加え、撮影部位、枚数等の撮影指示を発行し、撮影者が医師の指示を確認しながら撮影する必要がある。   In such a use scene of a digital camera, a doctor who has examined does not necessarily take a picture. In some cases, an in-hospital imaging staff, a nurse, or an out-of-hospital visiting nurse takes pictures under the direction of a doctor. In this case, in addition to basic information such as the name and ID of the target patient, the doctor issues a photographing instruction such as a photographing part and the number of images, and the photographer needs to photograph while confirming the doctor's instruction.

このような利用シーンに対し、特許文献1では、医師の撮影オーダ発行の際に患者の3次元画像を画面に表示し、医師が画像上の撮影部位を直接指定することにより簡単にオーダが発行される患者部位指定入力方法が提案されている。   With respect to such usage scenes, in Patent Document 1, a 3D image of a patient is displayed on a screen when a doctor's imaging order is issued, and an order is issued simply by the doctor directly specifying an imaging region on the image. A patient site designation input method has been proposed.

特開2001−60239号公報JP 2001-60239 A

しかしながら、上記特許文献1においては、医師の撮影オーダ発行のみ言及しており、撮影者が撮影オーダを確認しながらどのように撮影するのかについて言及されていない。   However, in the above-mentioned Patent Document 1, only a doctor's issuance of an imaging order is mentioned, and there is no mention of how a photographer performs imaging while confirming the imaging order.

上記の問題を解決するために、本発明は、被写体の撮影部位を指定する撮影指示を受け付ける撮影指示取得手段と、画面上の被写体を示す図上に前記撮影指示を表示する手段と、表示画面に撮影指示を表示した状態で撮影命令を受け付ける手段を備える。   In order to solve the above problem, the present invention provides an imaging instruction acquisition unit that receives an imaging instruction that specifies an imaging region of a subject, a unit that displays the imaging instruction on a diagram showing the subject on the screen, and a display screen Means for receiving a shooting command in a state in which the shooting instruction is displayed.

また、本発明は、上述した撮影処理システムにおける撮影処理方法、及び、当該における撮影処理方法をコンピュータに実行させるためのプログラム、並びに、当該プログラムを記憶するコンピュータ読み取り可能な記憶媒体を含む。   The present invention also includes a shooting processing method in the above-described shooting processing system, a program for causing a computer to execute the shooting processing method, and a computer-readable storage medium storing the program.

本発明によれば、医師の撮影指示の元に被写体である撮影対象患者を撮影する際に、撮影者の負担を軽減することができる。   According to the present invention, it is possible to reduce a burden on a photographer when photographing a patient to be photographed, which is a subject, based on a doctor's photographing instruction.

本発明の第1の実施形態に係る撮影処理システムの概略構成の一例を示す模式図である。It is a schematic diagram which shows an example of schematic structure of the imaging | photography processing system which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る撮影処理システムにおける撮影処理方法の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of the process sequence of the imaging | photography processing method in the imaging | photography processing system which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態を示し、医師が入力する撮影指示の一例を示す模式図である。It is a schematic diagram which shows the 1st Embodiment of this invention and shows an example of the imaging | photography instruction | indication which a doctor inputs. 図2のステップS202における撮影処理の詳細な処理手順の一例を示すフローチャートである。3 is a flowchart illustrating an example of a detailed processing procedure of photographing processing in step S202 of FIG. 本発明の第1の実施形態を示し、撮影指示を表示する人体図の一例を示す模式図である。It is a schematic diagram which shows the 1st Embodiment of this invention and shows an example of the human body figure which displays a photography instruction | indication. 本発明の第1の実施形態を示し、人体図と表示可能な撮影部位との関係を表すテーブルを示す模式図である。It is a schematic diagram which shows the 1st Embodiment of this invention and shows the table showing the relationship between a human body figure and the imaging | photography site | part which can be displayed. 本発明の第1の実施形態を示し、図4のステップS402における参照図選択処理の詳細を示すフローチャートである。FIG. 5 is a flowchart illustrating details of a reference diagram selection process in step S402 of FIG. 4 according to the first embodiment of this invention. 図4のステップS403における全撮影指示を表示するユーザインタフェースの一例を示す模式図である。FIG. 5 is a schematic diagram illustrating an example of a user interface that displays all shooting instructions in step S403 in FIG. 4. 図4のステップS404における撮影指示を表示するユーザインタフェースの一例を示す模式図である。FIG. 5 is a schematic diagram illustrating an example of a user interface that displays a shooting instruction in step S <b> 404 of FIG. 4. 図4のステップS404における撮影指示を表示するユーザインタフェースの一例を示す模式図である。FIG. 5 is a schematic diagram illustrating an example of a user interface that displays a shooting instruction in step S <b> 404 of FIG. 4.

以下に、図面を参照しながら、本発明を実施するための形態(実施形態)について説明する。   Hereinafter, embodiments (embodiments) for carrying out the present invention will be described with reference to the drawings.

(第一の実施形態)
本実施形態は、医師の撮影指示に基づき、訪問看護師や介護士等の撮影者が撮影装置であるデジタルカメラを用いて、被写体である撮影対象患者を撮影する場合を想定した形態である。
(First embodiment)
In the present embodiment, it is assumed that a photographer such as a visiting nurse or a caregiver uses a digital camera that is a photographing apparatus to photograph a photographing subject patient as a subject based on a doctor's photographing instruction.

<撮影処理システムの構成>
図1は、本発明の第1の実施形態に係る撮影処理システムの概略構成の一例を示す模式図である。
<Configuration of shooting processing system>
FIG. 1 is a schematic diagram illustrating an example of a schematic configuration of an imaging processing system according to the first embodiment of the present invention.

本実施形態に係る撮影処理システム100は、図1に示すように、クライアント装置110、画像管理サーバ装置120、撮影装置130、ネットワーク140、及び、無線ネットワーク150を有して構成されている。   As illustrated in FIG. 1, the imaging processing system 100 according to the present embodiment includes a client device 110, an image management server device 120, an imaging device 130, a network 140, and a wireless network 150.

ここで、クライアント装置110と画像管理サーバ装置120とは、ネットワーク140を通じて通信接続されている。また、画像管理サーバ装置120と撮影装置130とは、無線ネットワーク150を通じて無線通信接続されている。   Here, the client device 110 and the image management server device 120 are communicatively connected via the network 140. In addition, the image management server device 120 and the imaging device 130 are connected by wireless communication through the wireless network 150.

クライアント装置110は、医師が利用する装置である。このクライアント装置110は、撮影指示入力部111、及び、画像表示部112を有して構成されている。撮影指示入力部111は、医師が撮影オーダ(撮影指示)を発行(入力)するための入力手段である。画像表示部112は、医師が撮影画像を閲覧するために撮影画像を表示する表示手段である。   The client device 110 is a device used by a doctor. The client device 110 includes a photographing instruction input unit 111 and an image display unit 112. The imaging instruction input unit 111 is input means for a doctor to issue (input) an imaging order (imaging instruction). The image display unit 112 is a display unit that displays a captured image so that a doctor can view the captured image.

画像管理サーバ装置120は、撮影画像を管理する装置である。この画像管理サーバ装置120は、撮影指示格納部121、及び、画像格納部122を有して構成されている。撮影指示格納部121は、クライアント装置110(撮影指示入力部111)に入力された撮影指示を格納する格納手段である。画像格納部122は、撮影装置130の撮影部134で撮影された撮影画像を格納する格納手段である。   The image management server device 120 is a device that manages captured images. The image management server device 120 includes a shooting instruction storage unit 121 and an image storage unit 122. The shooting instruction storage unit 121 is a storage unit that stores a shooting instruction input to the client device 110 (shooting instruction input unit 111). The image storage unit 122 is a storage unit that stores a photographed image photographed by the photographing unit 134 of the photographing apparatus 130.

撮影装置130は、被写体である撮影対象患者を撮影するカメラ(具体的には汎用デジタルカメラ)である。この撮影装置130は、記憶部131、入力部132、撮影指示並び換え部133、撮影部134、表示部135、及び、画像格納制御部136を有して構成されている。記憶部131は、各種の情報や各種のデータ、各種のテーブル等を記憶する記憶手段である。入力部132は、撮影者が各種の情報や各種の指示等を入力するための入力手段である。撮影指示並び換え部133は、撮影指示入力部111に入力された撮影指示(撮影指示格納部121に格納されている撮影指示)の並び換えを行う手段である。撮影部134は、レンズ等の光学系を通した被写体の光学像を電子的な画像に変換する撮像センサを備える撮影手段である。表示部135は、撮影部134の撮像センサから得られるライブビュー画像及び撮影画像を表示する液晶表示画面を備える表示手段である。画像格納制御部136は、撮影指示入力部111に入力された撮影指示(撮影指示格納部121に格納されている撮影指示)の順序に従って、撮影部134で撮影された撮影画像を画像格納部122に格納する制御を行う制御手段である。   The imaging device 130 is a camera (specifically, a general-purpose digital camera) that captures an imaging subject patient as a subject. The photographing apparatus 130 includes a storage unit 131, an input unit 132, a photographing instruction rearranging unit 133, a photographing unit 134, a display unit 135, and an image storage control unit 136. The storage unit 131 is a storage unit that stores various information, various data, various tables, and the like. The input unit 132 is an input unit for the photographer to input various information, various instructions, and the like. The shooting instruction rearrangement unit 133 is a unit that rearranges the shooting instructions (shooting instructions stored in the shooting instruction storage unit 121) input to the shooting instruction input unit 111. The imaging unit 134 is an imaging unit that includes an imaging sensor that converts an optical image of a subject through an optical system such as a lens into an electronic image. The display unit 135 is a display unit including a liquid crystal display screen that displays a live view image and a captured image obtained from the imaging sensor of the imaging unit 134. The image storage control unit 136 follows the order of shooting instructions input to the shooting instruction input unit 111 (shooting instructions stored in the shooting instruction storage unit 121), and the image storage unit 122 It is a control means which performs control stored in.

ネットワーク140は、クライアント装置110と画像管理サーバ装置120とを通信接続する通信網である。   The network 140 is a communication network that connects the client apparatus 110 and the image management server apparatus 120 for communication.

無線ネットワーク150は、画像管理サーバ装置120と撮影装置130とを無線通信接続する通信網である。   The wireless network 150 is a communication network that connects the image management server device 120 and the imaging device 130 by wireless communication.

<撮影処理方法の処理手順>
図2は、本発明の第1の実施形態に係る撮影処理システムにおける撮影処理方法の処理手順の一例を示すフローチャートである。
<Processing procedure of shooting processing method>
FIG. 2 is a flowchart illustrating an example of a processing procedure of the imaging processing method in the imaging processing system according to the first embodiment of the present invention.

医師がクライアント装置110の撮影指示入力部111に対して撮影指示を入力すると、ステップS201において、クライアント装置110は、当該入力された撮影指示を受け付ける。例えば、医師は入力部111により撮影部位を入力する。すなわち、撮影指示入力部111は被写体の撮影部位を含む撮影指示を入力する手段の一例に相当する。   When the doctor inputs an imaging instruction to the imaging instruction input unit 111 of the client apparatus 110, the client apparatus 110 receives the input imaging instruction in step S201. For example, the doctor inputs an imaging region using the input unit 111. That is, the imaging instruction input unit 111 corresponds to an example of a unit that inputs an imaging instruction including an imaging part of a subject.

撮影指示を受け付けた後、クライアント装置110は、当該撮影指示を、ネットワーク140を通して画像管理サーバ装置120に送信し、画像管理サーバ装置120は、受信した撮影指示を撮影指示格納部121に格納する。すなわち、クライアント装置110に備えられた送信部は撮影指示を撮影装置に送信する手段の一例に相当する。   After receiving the shooting instruction, the client apparatus 110 transmits the shooting instruction to the image management server apparatus 120 via the network 140, and the image management server apparatus 120 stores the received shooting instruction in the shooting instruction storage unit 121. That is, the transmission unit provided in the client device 110 corresponds to an example of a unit that transmits a photographing instruction to the photographing device.

ここで、医師が入力する撮影指示の一例について図3を用いて後述する。   Here, an example of the imaging instruction input by the doctor will be described later with reference to FIG.

続いて、ステップS202において、撮影装置130は、まず、無線ネットワーク150を通して画像管理サーバ装置120の撮影指示格納部121から撮影指示を読み込む(ロードする)。例えば、撮影装置130が備えるプロセッサ等により撮影指示を読み込む。または、撮影装置130は画像管理サーバ装置120により送信された撮影指示を、撮影装置130が備えるインターフェース部で受信することによって撮影指示を取得する。すなわち、撮影装置130の備えるプロセッサまたはインターフェース部は被写体の撮影部位を指定する撮影指示を取得する撮影指示取得手段の一例に相当する。   Subsequently, in step S <b> 202, the imaging apparatus 130 first reads (loads) an imaging instruction from the imaging instruction storage unit 121 of the image management server apparatus 120 through the wireless network 150. For example, a photographing instruction is read by a processor or the like included in the photographing apparatus 130. Alternatively, the photographing apparatus 130 acquires the photographing instruction by receiving the photographing instruction transmitted from the image management server apparatus 120 by the interface unit included in the photographing apparatus 130. That is, the processor or interface unit included in the imaging apparatus 130 corresponds to an example of an imaging instruction acquisition unit that acquires an imaging instruction that specifies an imaging region of a subject.

撮影指示を取得後、撮影装置130は、撮影指示の並び換えを行った後、当該並び換えを行った撮影指示を表示部135に表示する。その後、撮影者が表示部135に表示された撮影指示に従って撮影を行うと、撮影装置130は、撮影対象患者の撮影処理を行う。そして、撮影装置130は、撮影処理により得た撮影対象患者の撮影画像を、無線ネットワーク150を介して画像管理サーバ装置120に送信し、画像格納部122に格納させる。このステップS202の詳細な処理手順については、図4を用いて後述する。   After acquiring the shooting instruction, the shooting apparatus 130 rearranges the shooting instruction, and then displays the rearranged shooting instruction on the display unit 135. Thereafter, when the photographer performs photographing according to the photographing instruction displayed on the display unit 135, the photographing apparatus 130 performs photographing processing of the photographing target patient. Then, the imaging apparatus 130 transmits the captured image of the patient to be acquired obtained by the imaging process to the image management server apparatus 120 via the wireless network 150 and causes the image storage unit 122 to store the image. The detailed processing procedure of step S202 will be described later with reference to FIG.

続いて、ステップS203において、クライアント装置110は、画像管理サーバ装置120の画像格納部122に格納されている撮影画像を医師が閲覧できるように当該撮影画像を画像表示部112に表示する処理を行う。この際、画像表示部112には、医師が撮影指示した順序で撮影画像が表示され閲覧することができる。本ステップでは、クライアント装置110は、ネットワーク140を介して画像管理サーバ装置120の画像格納部122にある撮影画像を画像表示部112に閲覧可能に表示する。   Subsequently, in step S203, the client device 110 performs a process of displaying the captured image on the image display unit 112 so that the doctor can view the captured image stored in the image storage unit 122 of the image management server device 120. . At this time, the captured images are displayed on the image display unit 112 in the order instructed by the doctor, and can be viewed. In this step, the client device 110 displays the captured image in the image storage unit 122 of the image management server device 120 via the network 140 on the image display unit 112 so as to be viewable.

ステップS203の処理が終了すると、図2のフローチャートの処理が終了する。   When the process of step S203 ends, the process of the flowchart of FIG. 2 ends.

図3は、本発明の第1の実施形態を示し、医師が入力する撮影指示の一例を示す模式図である。   FIG. 3 is a schematic diagram illustrating an example of an imaging instruction input by a doctor according to the first embodiment of this invention.

撮影指示300には、図3に示すように、患者名、患者ID、年齢、性別等の撮影対象患者の患者基本情報と、指示医名、撮影方法、撮影部位(撮影患部)、注意事項等の撮影情報が含まれる。図3に示す例では、単純に撮影部位を複数列挙しているが、各撮影部位に対して撮影枚数や撮影角度、撮影理由、注意事項等を詳細に設定するようにしてもよい。   As shown in FIG. 3, the imaging instruction 300 includes basic patient information of an imaging subject patient such as a patient name, patient ID, age, and gender, an instructing physician name, an imaging method, an imaging site (imaging affected area), a precaution, and the like Shooting information is included. In the example shown in FIG. 3, a plurality of imaging regions are simply listed, but the number of images, imaging angle, imaging reason, precautions, etc. may be set in detail for each imaging region.

<撮影処理>
図4は、図2のステップS202における撮影処理の詳細な処理手順の一例を示すフローチャートである。
<Shooting process>
FIG. 4 is a flowchart showing an example of a detailed processing procedure of the photographing process in step S202 of FIG.

まず、ステップS401において、撮影装置130は、無線ネットワーク150を通して画像管理サーバ装置120から撮影指示格納部121に格納されている撮影指示を、例えば記憶部131にロードする。ここで、画像管理サーバ装置120と撮影装置130とは、Bluetooth(登録商標)に代表される短距離無線通信や赤外線通信等の無線ネットワーク150で接続されている。   First, in step S <b> 401, the photographing apparatus 130 loads the photographing instruction stored in the photographing instruction storage unit 121 from the image management server apparatus 120 through the wireless network 150, for example, into the storage unit 131. Here, the image management server device 120 and the imaging device 130 are connected by a wireless network 150 such as short-range wireless communication or infrared communication represented by Bluetooth (registered trademark).

次に、ステップS402において、撮影装置130は、記憶部131に格納されているシェーマ(人体部分図)の中からステップS401でロードした撮影指示部位を含むシェーマを選択する。すなわち、撮影装置130の備えるプロセッサは撮影入力手段により入力された撮影部位を含む部分人体図を選択する手段の一例に相当する。   Next, in step S <b> 402, the imaging apparatus 130 selects a schema including the imaging instruction site loaded in step S <b> 401 from the schemas (human body partial view) stored in the storage unit 131. That is, the processor included in the imaging device 130 corresponds to an example of a unit that selects a partial human body diagram including an imaging region input by the imaging input unit.

本ステップの目的は、撮影時に撮影指示を重畳して参照する最適なシェーマを自動選択するものであり、詳細は図5から図7において後述する。なお、本実施例では本ステップのシェーマ選択を撮影装置130上で行うとしているが、画像管理サーバ120上で処理をおこない、選択されたシェーマをステップS401の撮影指示の一部としてロードしてもよい。   The purpose of this step is to automatically select an optimal schema to be referred to by superimposing shooting instructions during shooting, and details will be described later with reference to FIGS. In this embodiment, the schema selection in this step is performed on the photographing apparatus 130. However, even if processing is performed on the image management server 120 and the selected schema is loaded as a part of the photographing instruction in step S401. Good.

続いて、ステップS403において、撮影装置130は、表示部135に、撮影すべき撮影指示部位を表示する。すなわち、撮影装置130が備える表示制御部は表示部135に撮影すべき撮影指示部位を表示させる。ここでは、例えば後述する図8のように、ステップS402で取得したシェーマ上に医師が指示した全ての撮影指示部位を重畳して表示する。   Subsequently, in step S <b> 403, the imaging device 130 displays an imaging instruction site to be imaged on the display unit 135. That is, the display control unit included in the imaging apparatus 130 causes the display unit 135 to display the imaging instruction site to be imaged. Here, for example, as shown in FIG. 8 to be described later, all the imaging instruction parts instructed by the doctor are superimposed and displayed on the schema acquired in step S402.

続いて、撮影者がステップS402で表示された撮影部位から1つの撮影部位を選択すると、ステップS404において、撮影装置130は、表示部135に選択した撮影部位の撮影指示を表示する。なお、撮影部位の選択は表示部135がタッチパネル機能を有している場合はタッチパネルを用いて選択してもよいし、撮影装置130に備えられた他の操作部(ボタン等)により選択してもよい。撮影装置130が備えるプロセッサは医師等による撮影部位の入力を受け付け撮影指示部位を選択する。   Subsequently, when the photographer selects one imaging region from the imaging regions displayed in step S402, the imaging device 130 displays an imaging instruction for the selected imaging region on the display unit 135 in step S404. The imaging part may be selected using the touch panel when the display unit 135 has a touch panel function, or may be selected by another operation unit (button or the like) provided in the imaging apparatus 130. Also good. The processor included in the imaging apparatus 130 receives an imaging part input by a doctor or the like and selects an imaging instruction part.

すなわち、撮影装置130が備えるプロセッサは撮影装置の表示手段に表示された人体図上の撮影指示部位を選択する手段する手段の一例に相当する。   That is, the processor included in the imaging device 130 corresponds to an example of a unit that selects an imaging instruction portion on the human body diagram displayed on the display unit of the imaging device.

ここでは、例えば後述する図9のように、撮影装置130のファインダから覗いたライブビュー画像に重畳して撮影指示を表示する。すなわち、表示部135は撮影指示を被写体を示す図上に表示する撮影指示表示手段の一例に相当する。具体的には、表示部135は撮影指示部位を人体図上に表示する撮影指示表示手段の一例に相当する。   Here, for example, as shown in FIG. 9 described later, a shooting instruction is displayed superimposed on a live view image viewed from the viewfinder of the shooting device 130. That is, the display unit 135 corresponds to an example of a shooting instruction display unit that displays a shooting instruction on a diagram showing a subject. Specifically, the display unit 135 corresponds to an example of an imaging instruction display unit that displays an imaging instruction site on a human body diagram.

続いて、撮影者が撮影ボタンを押下すると、ステップS405において、撮影装置103の撮影部134は、レンズから取り込んだ被写体(撮影対象患者)の光学像を電子的な画像に変換して撮影画像を得る撮影処理を行う。ここで、撮影ボタンは表示画面に撮影指示を表示した状態で撮影命令を受け付ける手段の一例に相当する。   Subsequently, when the photographer presses the photographing button, in step S405, the photographing unit 134 of the photographing apparatus 103 converts the optical image of the subject (photographing target patient) captured from the lens into an electronic image and converts the photographed image. Get the shooting process. Here, the shooting button corresponds to an example of a unit that receives a shooting command in a state where a shooting instruction is displayed on the display screen.

続いて、ステップS406において、撮影装置130(例えば撮影部134)は、ステップS405の撮影処理で得られた撮影画像に対し、撮影情報をメタデータとして付与する。本ステップで付与する撮影情報としては、撮影日時や撮影場所のような撮影時に得られる情報に加えて、撮影対象患者の患者基本情報や撮影部位等の撮影指示から得られる情報である。撮影画像に撮影情報を付与することで、例えば、後日「右肘頭」のようなキーワードで撮影部位を指定して撮影画像を検索することができる。すなわち、撮影装置130が備えるプロセッサは撮影部位選択手段により選択された撮影部位情報を撮影画像に関連付けて記録する。   Subsequently, in step S406, the imaging device 130 (for example, the imaging unit 134) adds imaging information as metadata to the captured image obtained by the imaging process in step S405. The imaging information given in this step is information obtained from imaging instructions such as basic patient information and imaging site of the patient to be imaged, in addition to information obtained at the time of imaging such as imaging date and time and imaging location. By adding shooting information to the shot image, for example, the shot image can be searched by designating a shooting site with a keyword such as “right elbow” at a later date. That is, the processor included in the imaging device 130 records the imaging site information selected by the imaging site selection unit in association with the captured image.

続いて、ステップS407において、撮影装置130は、全ての撮影指示に対して撮影を終了したか否かを判断する。   Subsequently, in step S407, the photographing apparatus 130 determines whether or not photographing has been completed for all photographing instructions.

ステップS407の判断の結果、全ての撮影指示に対しては未だ撮影を終了していない場合には、ステップS403に戻り、撮影すべき撮影部位の撮影指示を表示して、ステップS403以降の処理を再度行う。   If the result of determination in step S407 is that imaging has not yet been completed for all imaging instructions, the process returns to step S403 to display the imaging instruction for the imaging region to be imaged, and the processing in and after step S403 is performed. Try again.

一方、ステップS407の判断の結果、全ての撮影指示に対して撮影を終了した場合には、ステップS408に進む。   On the other hand, if the result of determination in step S407 is that shooting has been completed for all shooting instructions, processing proceeds to step S408.

ステップS408に進むと、撮影装置130の画像格納制御部136は、ステップS405の撮影処理で得られた撮影画像を、撮影者による撮影順ではなく、図3の撮影指示における撮影部位の指示順で、画像管理サーバ装置120の画像格納部122に格納する。   In step S408, the image storage control unit 136 of the imaging device 130 displays the captured images obtained by the imaging processing in step S405 in the order of imaging parts in the imaging instruction of FIG. And stored in the image storage unit 122 of the image management server device 120.

ステップS408の処理が終了すると、図4のフローチャートの処理が終了する。   When the process of step S408 ends, the process of the flowchart of FIG. 4 ends.

図5乃至図7は、本発明の第1の実施形態を示し、図4のステップS402における参照図選択処理に使用する模式図及びフローチャートである。   FIGS. 5 to 7 show a first embodiment of the present invention and are a schematic diagram and a flowchart used for the reference diagram selection process in step S402 of FIG.

図5は、図4のステップS402において選択する候補となる参照図を示す模式図である。   FIG. 5 is a schematic diagram showing a reference diagram that is a candidate to be selected in step S402 of FIG.

図5において、撮影装置130には、複数のシェーマと呼ばれる部分人体図を保持している。シェーマには、501や502のように「全身」「頭部」のような人体上の表示範囲を示す分類名が付与されており、それぞれの分類が人体を正面から見たシェーマと背後から見たシェーマを保持している。ここでは、説明のため「全身」と「頭部」だけを示しているが、その他にも「右前腕」「右手掌」などの、想定される撮影シーンに応じて必要な部分人体図を予め用意しておく。   In FIG. 5, the photographing apparatus 130 holds a partial human body diagram called a plurality of schemas. The schema is assigned a classification name indicating the display range on the human body, such as “whole body” and “head”, such as 501 and 502, and each classification is a schema when the human body is viewed from the front and a rear view. Holding a schema. Here, only “whole body” and “head” are shown for the sake of explanation, but other partial human body diagrams such as “right forearm” and “right palm” are also shown in advance depending on the assumed shooting scene. Have it ready.

図6は、図4のステップS402における参照図選択処理に使用するテーブルを示す模式図である。この図6に示すテーブルは、例えば、撮影装置130の記憶部131に記憶されている。   FIG. 6 is a schematic diagram showing a table used for the reference diagram selection process in step S402 of FIG. The table shown in FIG. 6 is stored in the storage unit 131 of the photographing apparatus 130, for example.

シェーマ分類601は、図5の501及び502で示した人体上の表示範囲を示す分類名を表す。601の分類それぞれについて、人体の正面から見たシェーマと、背後から見たシェーマが603に格納される。   The schema classification 601 represents a classification name indicating the display range on the human body indicated by 501 and 502 in FIG. For each of the categories 601, a schema viewed from the front of the human body and a schema viewed from behind are stored in 603.

要素605は、シェーマ603に含まれる各シェーマに表示する人体上の部位名を格納する。なお、この要素605に格納される部位は、必ずしも正確に人体構造上表示可能でなくてもよい。例えば、603のシェーマ名「全身前面」に含まれる要素「右肘頭」は正確には「全身背面」に含まれるべきであるが、撮影時には図8のように、人体の正面から肘を曲げて撮影することになるため、撮影者に対する表示のわかりやすさを優先して「全身前面」に配置している。   The element 605 stores a part name on the human body to be displayed on each schema included in the schema 603. Note that the part stored in the element 605 does not necessarily have to be accurately displayed on the human body structure. For example, the element “right elbow head” included in the schema name “front of the whole body” 603 should be accurately included in “back of the whole body”, but at the time of shooting, the elbow is bent from the front of the human body as shown in FIG. Therefore, priority is given to easy-to-understand display for the photographer, and it is placed “front of the whole body”.

要素数604は、各シェーマ名603に含まれる要素605の数であり、要素数602は、各分類601に含まれる要素605の数である。これらは図4のステップS402参照図選択のための計算に使用する。   The number of elements 604 is the number of elements 605 included in each schema name 603, and the number of elements 602 is the number of elements 605 included in each classification 601. These are used for calculation for selecting a reference diagram in step S402 in FIG.

図7は、本発明の第1の実施形態を示し、図4のステップS402における参照図選択処理の詳細を示すフローチャートである。   FIG. 7 is a flowchart illustrating details of the reference diagram selection processing in step S402 of FIG. 4 according to the first embodiment of this invention.

まず、ステップS701において、全ての撮影部位を含むシェーマを検索する。   First, in step S701, a schema including all imaging regions is searched.

続いて、ステップS702において、全ての撮影指示部位を含むシェーマがあるか否かを判断する。   Subsequently, in step S702, it is determined whether or not there is a schema including all imaging instruction parts.

ステップS702の判断の結果、全ての撮影指示部位を含むシェーマがあった場合には、ステップS706に進む。一方、ステップS702の判断の結果、全ての撮影指示部位を含むシェーマが存在しなかった場合は、ステップS703に進む。   As a result of the determination in step S702, if there is a schema including all the imaging instruction parts, the process proceeds to step S706. On the other hand, as a result of the determination in step S702, if there is no schema including all the imaging instruction parts, the process proceeds to step S703.

ステップS703に進むと、全ての撮影部位を含む分類を取得する。ステップS702で全ての撮影指示部位を含むシェーマが存在しないと判断されたということは、人体の前面だけ、或いは背面だけのシェーマでは全ての指示を表示できないことを意味する。例えば、具体的に、図3の撮影指示{右肘頭、左肘頭、右殿部、左膝蓋}について、図6の要素605を検索すると、右殿部は人体の背面を示すシェーマにしか存在せず、左膝蓋は人体の前面を示すシェーマにしか存在しないため、全ての撮影部位を含むシェーマは存在しない。したがって、前面、背面のシェーマのペアを持つシェーマ分類に対して検索範囲を広げる。   In step S703, a classification including all imaging regions is acquired. If it is determined in step S702 that there is no schema including all the imaging instruction portions, it means that not all instructions can be displayed with the schema only on the front surface of the human body or only on the back surface. For example, when the element 605 in FIG. 6 is searched for the imaging instruction {right cubital, left cubital, right gluteal, left patella} in FIG. 3, the right gluteal part is only a schema indicating the back of the human body. It does not exist, and the left patella exists only in the schema showing the front surface of the human body, so there is no schema including all the imaging regions. Therefore, the search range is expanded for a schema classification having a pair of front and back schemas.

ステップS704において、ステップS703で取得した分類が複数あった場合、図6の要素数602を参照して最も小さい要素数を持つ分類601を取得する。これは、全ての指示を表示することができる最小の部分人体図を取得することを意味する。図3の撮影指示では、{右肘頭、左肘頭、右殿部、左膝蓋}の全てを含む分類は「全身」しか存在しないため、「全身」の分類を取得する。   In step S704, when there are a plurality of classifications acquired in step S703, the classification 601 having the smallest number of elements is acquired with reference to the number of elements 602 in FIG. This means obtaining the smallest partial human body figure that can display all instructions. In the imaging instruction of FIG. 3, since there is only “whole body” in the classification including all of {the right elbow head, the left elbow head, the right buttocks, the left patella}, the classification of “whole body” is acquired.

続いて、ステップS705において、ステップS704で取得した分類に含まれるシェーマを参照図として取得する。図3の撮影指示の例では、「全身前面」と「全身背面」を取得する。   Subsequently, in step S705, the schema included in the classification acquired in step S704 is acquired as a reference diagram. In the example of the imaging instruction in FIG. 3, “front of whole body” and “back of whole body” are acquired.

ステップS705の処理が終了すると、図7のフローチャートの処理が終了する。   When the process of step S705 ends, the process of the flowchart of FIG. 7 ends.

次に、ステップS706は、ステップS702の判断の結果、全ての撮影指示部位を含むシェーマがあった場合に、そのシェーマを取得する。例えば、撮影指示が{前頭部、右頬}であった場合、図6の要素605を検索して、全ての撮影指示部位を含むシェーマ「全身前面」及び「頭部前面」を取得する。   Next, in step S706, when there is a schema including all the imaging instruction parts as a result of the determination in step S702, the schema is acquired. For example, when the imaging instruction is {frontal head, right cheek}, the element 605 in FIG. 6 is searched to acquire schemas “front of the whole body” and “front of the head” including all imaging instruction parts.

次に、ステップS707において、ステップS706で取得したシェーマから、図6の要素数604が最も小さいシェーマを取得する。ステップS706で取得したシェーマ「全身前面」と「頭部前面」について要素数604を比較して、要素数604が小さいシェーマ「頭部前面」を取得する。   Next, in step S707, the schema having the smallest number of elements 604 in FIG. 6 is acquired from the schema acquired in step S706. The number of elements 604 is compared for the schema “front of the whole body” and “front of the head” acquired in step S706, and a schema “front of the head” having a smaller number of elements 604 is acquired.

ステップS707の処理が終了すると、図7のフローチャートの処理が終了する。   When the process of step S707 ends, the process of the flowchart of FIG. 7 ends.

このような処理により、撮影指示部位を全て含み、かつ最も細部を表示可能な部分人体図を参照図として取得する。すなわち、撮影装置130が備えるプロセッサは部分人体図選択手段は、撮影指示に含まれる撮影部位を含み、かつ最も細部を表示可能な部分人体図を自動選択する手段の一例に相当する。   Through such processing, a partial human body diagram that includes all of the imaging instruction parts and can display the most details is acquired as a reference figure. That is, the processor included in the imaging apparatus 130 corresponds to an example of a unit that automatically selects a partial human body diagram that includes the imaging region included in the imaging instruction and that can display the most details.

図8は、図4のステップS403における全撮影指示を表示するユーザインタフェースの一例を示す模式図である。   FIG. 8 is a schematic diagram showing an example of a user interface that displays all shooting instructions in step S403 of FIG.

図8において、汎用デジタルカメラである撮影装置130には、液晶表示画面801や、撮影ボタン802が設けられている。液晶表示画面801は、タッチパネル操作で入力が可能となっている。   In FIG. 8, a photographing apparatus 130 that is a general-purpose digital camera is provided with a liquid crystal display screen 801 and a photographing button 802. The liquid crystal display screen 801 can be input by a touch panel operation.

液晶表示画面801には、以下の803乃至805の構成が設けられている。   The liquid crystal display screen 801 has the following configurations 803 to 805.

表示領域803は、現在の画面が撮影指示部位であることを表示する領域である。   A display area 803 is an area for displaying that the current screen is an imaging instruction part.

表示領域804は、撮影指示を、図7の処理で取得したシェーマ上に図示して表示する領域である。例えば、図3の撮影指示に対し、図7の処理で、シェーマ「全身前面」及び「全身背面」が取得され、参照図として804に表示される。   A display area 804 is an area for displaying a shooting instruction on the schema acquired by the processing of FIG. For example, the schema “front of whole body” and “back of whole body” are acquired by the processing of FIG. 7 in response to the imaging instruction of FIG.

表示領域805は、表示領域804に表示されたシェーマ上に撮影指示部位を表示する領域である。例えば、撮影装置130の記憶部131に、複数のシェーマセットと、それぞれのシェーマ上の座標と部位の組み合わせをインデックスとして記憶させておき、撮影指示部位に対応する座標上にマーキングをする。   A display area 805 is an area for displaying an imaging instruction site on the schema displayed in the display area 804. For example, the storage unit 131 of the imaging apparatus 130 stores a plurality of schema sets and combinations of coordinates and parts on each schema as indexes, and marks the coordinates corresponding to the imaging instruction parts.

表示領域805上の指示部位名のテキストまたは、マーキング部分をタッチすると、図9に示すような、選択した各部位の撮影画面に移行する。   When the text of the designated part name on the display area 805 or the marking part is touched, the screen shifts to the imaging screen of each selected part as shown in FIG.

図9は、図4のステップS404におけるライブビューを表示するユーザインタフェースの一例を示す模式図である。   FIG. 9 is a schematic diagram illustrating an example of a user interface that displays a live view in step S404 of FIG.

図9において、汎用デジタルカメラである撮影装置130には、液晶表示画面901や撮影ボタン902が設けられている。   In FIG. 9, a photographing apparatus 130 that is a general-purpose digital camera is provided with a liquid crystal display screen 901 and a photographing button 902.

液晶表示画面901は、レンズを通して見える映像をライブビューとして表示しており、タッチパネル操作で入力が可能となっている。   The liquid crystal display screen 901 displays an image that can be seen through the lens as a live view, and can be input by a touch panel operation.

撮影者が撮影ボタン902を押下すると、撮影装置130は、レンズから取り込んだ被写体(撮影対象患者)の光学像を電子的な画像に変換して撮影画像を得る撮影処理を行う。   When the photographer presses the photographing button 902, the photographing apparatus 130 performs a photographing process for converting the optical image of the subject (captured patient) captured from the lens into an electronic image and obtaining a photographed image.

液晶表示画面901には、以下の903乃至505の構成が設けられている。   The liquid crystal display screen 901 is provided with the following configurations 903 to 505.

表示領域903は、撮影者が次に撮影すべき撮影部位を表示する領域である。図8における805から選択した撮影部位が表示される。   A display area 903 is an area for displaying an imaging region to be imaged next by the photographer. The imaging region selected from 805 in FIG. 8 is displayed.

表示領域904は、表示領域903に示された撮影部位に係る撮影指示を図8の804に表示されたシェーマ上に図示して表示する領域である。例えば、撮影装置130の記憶部131に、複数のシェーマセットと、それぞれのシェーマ上の座標と部位の組み合わせをインデックスとして記憶させておき、撮影指示部位に対応する座標上にマーキングをする。なお、表示領域903及び904は、どちらか一方を表示するようにしてもよい。   The display area 904 is an area for displaying an imaging instruction related to the imaging region shown in the display area 903 on the schema displayed in 804 of FIG. For example, the storage unit 131 of the imaging apparatus 130 stores a plurality of schema sets and combinations of coordinates and parts on each schema as indexes, and marks the coordinates corresponding to the imaging instruction parts. Note that either one of the display areas 903 and 904 may be displayed.

表示領域905は、全ての撮影指示のうち、現在、何番目の撮影指示の撮影を行っているのかを表示する領域である。   A display area 905 is an area for displaying which shooting instruction is currently being shot among all shooting instructions.

撮影ボタン902が押下され、指示された撮影部位が撮影されるたびに撮影済み枚数がカウントアップされる。   Every time the photographing button 902 is pressed and the designated photographing part is photographed, the number of photographed images is counted up.

なお、本発明は図9に示す例に限定されるものではなく、例えばどのような角度から撮影対象患者を撮影すべきかを示す情報やどのような体位で撮影すべきかを示す情報を表示することとしても良い。これらの情報は文字で示しても良いし、図で示すこととしてもよい。   Note that the present invention is not limited to the example shown in FIG. 9, for example, displaying information indicating from what angle the patient to be imaged should be imaged and information indicating what position should be imaged. It is also good. Such information may be indicated by characters or may be indicated by a diagram.

また、撮影部位を示す情報、撮影枚数を示す情報、撮影角度を示す情報、撮影体位を示す情報は、全て表示することとしも良いし、任意の情報を選択的に表示することとしても良い。すなわち、表示部135は、撮影部位、撮影枚数、撮影角度、撮影体位のいずれかまたは全てを含む撮影指示を表示する。   In addition, the information indicating the imaging region, the information indicating the number of images to be captured, the information indicating the imaging angle, and the information indicating the imaging position may all be displayed, or arbitrary information may be selectively displayed. That is, the display unit 135 displays an imaging instruction including any or all of the imaging region, the number of images, the imaging angle, and the imaging posture.

本実施形態によれば、撮影装置130による撮影対象患者の撮影に際し、撮影装置上に人体図を表示し、撮影指示を重畳して表示することによって、撮影者が簡単に撮影指示にある撮影部位を漏れなく撮影することができる。   According to the present embodiment, when imaging the patient to be imaged by the imaging apparatus 130, a human body diagram is displayed on the imaging apparatus, and the imaging instruction is superimposed on the imaging apparatus so that the imaging person can easily find the imaging area in the imaging instruction. Can be taken without omission.

また、図4のステップS406に示すように、撮影画像に対して撮影部位のメタデータが自動的に付与することにより、撮影画像を確認しながら撮影部位を入力する作業が回避される。また、後日、撮影部位をキーワードとして画像を検索することができる。   Further, as shown in step S406 in FIG. 4, by automatically adding the imaging region metadata to the captured image, the operation of inputting the imaging region while confirming the captured image is avoided. In addition, the image can be retrieved at a later date using the imaging region as a keyword.

(第2の実施形態)
第1の実施形態では、図4のステップS402参照図取得処理において、人体図を取得し、ステップS404ライブビュー上に人体図と撮影部位を重畳して表示する場合について説明を行ったが、本実施形態では、主として指示部位の撮影構図の指示に着目し、参照図として過去に撮影された同一部位の画像を取得する。
(Second Embodiment)
In the first embodiment, the case has been described in which the human body diagram is acquired and the human body diagram and the imaging region are superimposed and displayed on the live view in step S404 in the reference diagram acquisition process in step S402 of FIG. In the embodiment, paying attention mainly to the instruction of the imaging composition of the designated part, an image of the same part photographed in the past is acquired as a reference diagram.

なお、以下の第2の実施形態の説明では、第1の実施形態と同様の内容については説明を省略し、第1の実施形態の内容と異なる部分について説明を行う。   In the following description of the second embodiment, description of the same contents as those of the first embodiment will be omitted, and parts different from the contents of the first embodiment will be described.

図10は、図4のステップS404におけるライブビューを表示するユーザインタフェースの一例を示す模式図である。   FIG. 10 is a schematic diagram illustrating an example of a user interface that displays a live view in step S404 of FIG.

撮影装置130及び表示領域1001、撮影ボタン1002は、表示領域1003、表示領域1005は、それぞれ、図9の901、902、903、905と同様である。   The imaging device 130, the display area 1001, and the imaging button 1002 are the same as the display area 1003 and the display area 1005, respectively, 901, 902, 903, and 905 in FIG.

表示領域1004は、撮影指示部位1003と同様の撮影部位を持つ画像を表示する。表示する画像は、図4のステップS402参照図取得処理において、画像管理サーバ120内の画像格納部122を、表示領域1003に表示された撮影部位をキーワードとして検索し、検索結果から選択してもよいし、例えば訪問看護のように定期的に同一人物を撮影する場合なら、同一患者の前回の撮影における同一部位の画像を表示してもよい。或いは、図2の撮影指示入力201において、撮影指示をテキストで入力するのではなく、撮影したい部位と同一部位を撮影した画像を撮影指示として入力してもよい。この場合、指示として選択されていた画像のメタデータから部位名を抽出すれば、以降第1の実施例と同様の処理をすることができる。   A display area 1004 displays an image having an imaging part similar to the imaging instruction part 1003. The image to be displayed can be selected by searching the image storage unit 122 in the image management server 120 using the imaged region displayed in the display area 1003 as a keyword and selecting from the search result in the reference diagram acquisition process in step S402 in FIG. For example, when the same person is photographed regularly as in home-visit nursing, an image of the same part in the previous photographing of the same patient may be displayed. Alternatively, in the imaging instruction input 201 of FIG. 2, instead of inputting the imaging instruction as text, an image obtained by imaging the same part as the part to be imaged may be input as the imaging instruction. In this case, if the part name is extracted from the metadata of the image selected as the instruction, the same processing as in the first embodiment can be performed thereafter.

本実施形態によれば、撮影装置130による撮影対象患者の撮影に際し、撮影装置上に、撮影指示と同一部位の過去に撮影した画像を表示しすることによって、撮影者が簡単に撮影指示にある撮影部位を撮影すべき構図を参照しながら漏れなく撮影することができる。   According to the present embodiment, when a patient to be imaged is imaged by the imaging device 130, the photographer can easily receive the imaging instruction by displaying an image captured in the past of the same part as the imaging instruction on the imaging device. It is possible to take an image without omission while referring to the composition to be imaged.

(その他の実施形態)
なお、本発明は上記の実施例に限定されるものではない。例えば、撮影装置130において行っていた処理の一部をクライアント装置110により行うこととしてもよい。
(Other embodiments)
In addition, this invention is not limited to said Example. For example, a part of the processing performed in the photographing apparatus 130 may be performed by the client apparatus 110.

また、本発明は、以下の処理を実行することによっても実現される。   The present invention can also be realized by executing the following processing.

即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。   That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記録媒体は、本発明に含まれる。   This program and a computer-readable recording medium storing the program are included in the present invention.

100 撮影処理システム
110 クライアント装置
111 撮影指示入力部
112 画像表示部
120 画像管理サーバ装置
121 撮影指示格納部
122 画像格納部
130 撮影装置
131 記憶部
132 入力部
133 撮影指示並び換え部
134 撮影部
135 表示部
136 画像格納制御部
140 ネットワーク
150 無線ネットワーク
DESCRIPTION OF SYMBOLS 100 Image processing system 110 Client apparatus 111 Image | photographing instruction | indication input part 112 Image display part 120 Image management server apparatus 121 Image | photographing instruction | indication storage part 122 Image storage part 130 Image | photographing apparatus 131 Memory | storage part 132 Input part 133 Image | photographing instruction rearrangement part 134 Image | photographing part 135 Display Unit 136 image storage control unit 140 network 150 wireless network

上記の問題を解決するために、本発明は、撮影すべき被写体の部位に対応する対象部位であって、前記被写体の前記対象部位に関する撮影オーダを取得する撮影オーダ取得手段と、表示画面にライブビュー画像と前記対象部位に関する情報とを表示する表示手段と、前記表示画面に前記ライブビュー画像と前記情報とが表示された状態で撮影命令を受け付ける受付手段と、を備える。 In order to solve the above-described problem, the present invention provides an imaging order acquisition unit that acquires an imaging order related to the target part of the subject , the target part corresponding to the part of the subject to be imaged , and a live display on a display screen. Display means for displaying a view image and information on the target region; and reception means for receiving an imaging command in a state where the live view image and the information are displayed on the display screen.

また、本発明は、上述した装置の制御方法、及び、プログラム、並びに、当該プログラムを記憶するコンピュータ読み取り可能な記憶媒体を含む。 The invention also includes a control method for the apparatus described above, and, program, and a computer-readable storage medium storing the program.

Claims (7)

被写体の撮影部位を指定する撮影指示を取得する撮影指示取得手段と、
前記撮影指示を被写体を示す図上に表示する撮影指示表示手段と、
前記表示画面に撮影指示を表示した状態で撮影命令を受け付ける手段を備えた撮影装置。
An imaging instruction acquisition means for acquiring an imaging instruction for specifying an imaging region of a subject;
Photographing instruction display means for displaying the photographing instruction on a diagram showing a subject;
An imaging apparatus comprising means for receiving an imaging command in a state where an imaging instruction is displayed on the display screen.
前記被写体は人体であり、前記撮影指示表示手段は、撮影装置の表示画面に人体図を表示し、撮影指示部位を人体図上に表示することを特徴とする請求項1記載の撮影装置。   The imaging apparatus according to claim 1, wherein the subject is a human body, and the imaging instruction display unit displays a human body diagram on a display screen of the imaging apparatus and displays an imaging instruction site on the human body diagram. 前記撮影指示表示手段は、撮影部位、撮影枚数、撮影角度、撮影体位のいずれかまたは全てを含む撮影指示を表示することを特徴とする請求項2記載の撮影装置。   The imaging apparatus according to claim 2, wherein the imaging instruction display unit displays an imaging instruction including any or all of an imaging region, the number of imaging, an imaging angle, and an imaging posture. 撮影装置を含む撮影処理システムであって、
被写体の撮影部位を含む撮影指示を入力する手段と、
前記撮影指示を撮影装置に送信する手段と、
前記撮影装置の表示手段に表示された人体図上の撮影指示部位を選択する手段と、前記撮影部位選択手段により選択された撮影部位情報を撮影画像に関連付けて記録する手段とを備えたことを特徴とする撮影処理システム。
A photographing processing system including a photographing device,
Means for inputting a photographing instruction including a photographing part of a subject;
Means for transmitting the photographing instruction to the photographing device;
Means for selecting an imaging instruction site on the human body diagram displayed on the display unit of the imaging apparatus, and means for recording the imaging site information selected by the imaging site selection unit in association with a captured image. Characteristic imaging processing system.
前記撮影入力手段により入力された撮影部位を含む部分人体図を選択する手段を更に備え、前記部分人体図選択手段は、前記撮影指示に含まれる撮影部位を含み、かつ最も細部を表示可能な部分人体図を自動選択することを特徴とする請求項4記載の撮影処理システム。   The apparatus further comprises means for selecting a partial human body diagram including an imaging part input by the imaging input means, wherein the partial human figure selection means includes an imaging part included in the imaging instruction and is capable of displaying the most details. 5. The photographing processing system according to claim 4, wherein a human body diagram is automatically selected. 被写体を撮影する撮影装置を含む撮影処理システムにおける撮影処理方法をコンピュータに実行させるためのプログラムであって、被写体の撮影部位を含む撮影指示を入力するステップと、前記撮影指示を撮影装置に送信するステップと、前記撮影装置の表示手段に表示された人体図上の撮影指示部位を選択するステップと、をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute a photographing processing method in a photographing processing system including a photographing device for photographing a subject, the step of inputting a photographing instruction including a photographing part of the subject, and transmitting the photographing instruction to the photographing device. A program for causing a computer to execute a step and a step of selecting an imaging instruction portion on a human body diagram displayed on a display unit of the imaging apparatus. 請求項6に記載のプログラムを記憶したことを特徴とするコンピュータ読み取り可能な記憶媒体。   A computer-readable storage medium storing the program according to claim 6.
JP2017087519A 2017-04-26 2017-04-26 Apparatus, control method therefor, program, and storage medium Active JP6338733B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017087519A JP6338733B2 (en) 2017-04-26 2017-04-26 Apparatus, control method therefor, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017087519A JP6338733B2 (en) 2017-04-26 2017-04-26 Apparatus, control method therefor, program, and storage medium

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012279484A Division JP6143451B2 (en) 2012-12-21 2012-12-21 Imaging apparatus, control method thereof, program and storage medium, and imaging processing system, control method thereof, program and storage medium

Publications (2)

Publication Number Publication Date
JP2017169210A true JP2017169210A (en) 2017-09-21
JP6338733B2 JP6338733B2 (en) 2018-06-06

Family

ID=59909281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017087519A Active JP6338733B2 (en) 2017-04-26 2017-04-26 Apparatus, control method therefor, program, and storage medium

Country Status (1)

Country Link
JP (1) JP6338733B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020180159A (en) * 2000-11-29 2020-11-05 三菱ケミカル株式会社 High-purity vinylene carbonate

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09298678A (en) * 1996-04-26 1997-11-18 Olympus Optical Co Ltd Camera
JP2001060239A (en) * 1999-08-24 2001-03-06 Hitachi Ltd Method for specifying and inputting patient's region
JP2001299767A (en) * 2000-04-19 2001-10-30 Furukawa Electric Co Ltd:The Allergy disease information processing system, allergy disease information processing method and computer readable recording medium storing program for making computer perform such method
JP2005000631A (en) * 2002-07-03 2005-01-06 Shiyoufuu:Kk Dental oral cavity colorimetry photographic system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09298678A (en) * 1996-04-26 1997-11-18 Olympus Optical Co Ltd Camera
JP2001060239A (en) * 1999-08-24 2001-03-06 Hitachi Ltd Method for specifying and inputting patient's region
JP2001299767A (en) * 2000-04-19 2001-10-30 Furukawa Electric Co Ltd:The Allergy disease information processing system, allergy disease information processing method and computer readable recording medium storing program for making computer perform such method
JP2005000631A (en) * 2002-07-03 2005-01-06 Shiyoufuu:Kk Dental oral cavity colorimetry photographic system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020180159A (en) * 2000-11-29 2020-11-05 三菱ケミカル株式会社 High-purity vinylene carbonate

Also Published As

Publication number Publication date
JP6338733B2 (en) 2018-06-06

Similar Documents

Publication Publication Date Title
JP6417972B2 (en) Medical image classification system, medical image classification device, medical image classification method and program
US10403398B2 (en) Efficient management of visible light still images and/or video
JP4218772B2 (en) Diagnostic imaging support device
KR20150020068A (en) Managing dental photographs acquired by portable computing devices
JP2014090743A (en) Medical image-capturing device, medical image display method, and program
KR20130053587A (en) Medical device and medical image displaying method using the same
US20130173439A1 (en) System and Method for Remote Veterinary Image Analysis and Consultation
US10645273B2 (en) Image capture apparatus, image capture processing system and method for processing image capture
JP6202827B2 (en) Imaging apparatus, control method thereof, and program
JP6727776B2 (en) Support system, support method, program
KR20200068992A (en) Method, Apparatus and Recording For Computerizing Of Electro-Magnetic Resonance
JP2014004252A (en) Medical image display device
JP6338733B2 (en) Apparatus, control method therefor, program, and storage medium
JP6195336B2 (en) Imaging apparatus, authentication method, and program
JP6157987B2 (en) Medical image storage system and medical image storage method
JP6026982B2 (en) Image display control device, operation method thereof, and image display control program
JP6391785B2 (en) Imaging apparatus, authentication method, and program
JP2014078845A (en) Imaging processing system, imaging processing method, and program
JP2015172891A (en) Imaging device, imaging processing system and imaging method
JP2018206450A (en) Medical image classification system, medical image classification device, medical image classification method, and program
JP2017205615A (en) Photographing device, control method thereof, program, and photographing processing system
JP2019171095A (en) Photographing processing system, control method of the same and program
JP2016200968A (en) Information processor, information processing system, image management device, image management system, information processing method, and program
KR101582267B1 (en) Generating device for medical key image
JP2005021206A (en) Medical information management apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180313

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180410

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180508

R151 Written notification of patent or utility model registration

Ref document number: 6338733

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151