JP2023180871A - Recording device, method for controlling recording device, and program - Google Patents

Recording device, method for controlling recording device, and program Download PDF

Info

Publication number
JP2023180871A
JP2023180871A JP2022094525A JP2022094525A JP2023180871A JP 2023180871 A JP2023180871 A JP 2023180871A JP 2022094525 A JP2022094525 A JP 2022094525A JP 2022094525 A JP2022094525 A JP 2022094525A JP 2023180871 A JP2023180871 A JP 2023180871A
Authority
JP
Japan
Prior art keywords
industry
annotation information
information
subject
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022094525A
Other languages
Japanese (ja)
Inventor
夏希 小松
Natsuki Komatsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022094525A priority Critical patent/JP2023180871A/en
Publication of JP2023180871A publication Critical patent/JP2023180871A/en
Pending legal-status Critical Current

Links

Images

Abstract

To record a unit suitable for a subject in annotation information.SOLUTION: A recording device has: detection means that detects a subject from an image; measurement means that measures an extent and the like from the image in a common unit; selection means that selects a field of an industry recorded by a user; determination means that determines numerical values and units for all of subject information output from the detection means, a measurement result output from the measurement means, and industry information selected by the selection means; and recording means that records the numerical values and units, measurement result, and industry information output from the determination means together in annotation information. The recording means records them in the common unit in standard annotation information, and records them in a unit according to the industry in annotation information for the industry.SELECTED DRAWING: Figure 4

Description

本発明は、デジタルカメラなどで撮像された画像を処理する記録装置に関するものである。 The present invention relates to a recording device that processes images captured by a digital camera or the like.

従来、ある被写体を撮影したとき、被写体に関するデータは画像とは別のデータで保存されていた。例えば、被写体が部屋であるとき、その部屋の広さが被写体に関するデータにあたる。だが、時間の経過とともにどの画像がどのデータであったかわからなくなってしまう。これを解決するには、画像に直接データを紐づけさせるアノテーション情報が有効である。例えば、特許文献1では、実在の対象とそれに関する情報とを対応付けて、対象同士の位置関係を記録・保管する方法が開示されている。 Conventionally, when a certain subject is photographed, data related to the subject is saved as separate data from the image. For example, when the subject is a room, the size of the room corresponds to data related to the subject. However, as time passes, it becomes difficult to tell which image is which data. An effective way to solve this problem is to use annotation information that allows data to be linked directly to images. For example, Patent Document 1 discloses a method of associating real objects with information regarding the objects and recording and storing the positional relationships between the objects.

しかしながら、上述の特許文献1に開示された従来技術では、被写体が「何か」を判別しないため、アノテーション情報に記録される単位及び数値が被写体に適したものになっていない場合がある。また、ユーザーや使用する業界によって同じ被写体であっても使用する単位が異なる場合がある。 However, in the conventional technique disclosed in Patent Document 1 mentioned above, since it does not determine "what" the subject is, the units and numerical values recorded in the annotation information may not be suitable for the subject. Furthermore, the units used may differ even for the same subject depending on the user or industry.

特願2019―181923号公報Patent Application No. 2019-181923

本発明は上記問題点を鑑みてなされたものであり、被写体に適した単位をアノテーション情報に記録することを目的とする。 The present invention has been made in view of the above problems, and it is an object of the present invention to record units suitable for a subject in annotation information.

上記目的を達成するために、本発明の画像処理装置は、画像から被写体を検出する検出手段と、画像から広さや長さを共通単位で計測する計測手段と、ユーザーが記録する業界の分野を選択する選択手段と、前記検出手段から出力された被写体情報と、計測手段から出力された計測結果と、選択手段で選択された業界情報とをまとめて、数値と単位を決定する判断手段と、前記の判断手段から出力された数値および単位と、計測結果と、業界情報とをまとめてアノテーション情報に記録する記録手段と、を有し、標準アノテーション情報には共通単位で記録し、業界用のアノテーション情報には業界に応じた単位で記録する、ことを特徴とする。 In order to achieve the above object, the image processing device of the present invention includes a detection means for detecting a subject from an image, a measurement means for measuring width and length from an image in a common unit, and an industry field recorded by a user. a selection means for selecting, a determination means for determining a numerical value and a unit by summarizing the subject information output from the detection means, the measurement results output from the measurement means, and the industry information selected by the selection means; It has a recording means for collectively recording the numerical values and units output from the judgment means, the measurement results, and industry information in annotation information, and the standard annotation information is recorded in common units, and the industry information is recorded in common units. The annotation information is recorded in units according to the industry.

本発明によれば、アノテーション情報に記録される被写体の数値とその単位が適切なものとなる。加えて、アノテーション情報の修正時に単位変換とそれに伴う数値変換の手間を省ける。 According to the present invention, the numerical value of the subject and its unit recorded in the annotation information are appropriate. In addition, when modifying annotation information, the effort of unit conversion and associated numerical value conversion can be saved.

本実施形態におけるデジタルカメラの概略構成を示すブロック図A block diagram showing a schematic configuration of a digital camera in this embodiment 本実施形態におけるデジタルカメラの画像にアノテーション情報を記録する処理全体を示すフローチャートFlowchart showing the entire process of recording annotation information on an image of a digital camera in this embodiment 本実施形態におけるデジタルカメラの画像と被写体情報を取得する処理パターンを示すフローチャートFlowchart showing a processing pattern for acquiring images and subject information of a digital camera in this embodiment 本実施形態におけるデジタルカメラの画像に記録される画像ファイルの記録内容の概要を示す図A diagram showing an overview of the recorded contents of an image file recorded in an image of a digital camera in this embodiment 本実施形態におけるデジタルカメラの画像とアノテーション情報の表示方法を示す図A diagram showing a method of displaying images and annotation information of a digital camera in this embodiment 本実施形態におけるアノテーション情報を修正する処理を示すフローチャートFlowchart showing the process of correcting annotation information in this embodiment

以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Note that the following embodiments do not limit the claimed invention. Although a plurality of features are described in the embodiments, not all of these features are essential to the invention, and the plurality of features may be arbitrarily combined. Furthermore, in the accompanying drawings, the same or similar components are designated by the same reference numerals, and redundant description will be omitted.

また、以下の説明では、推論モデルを使用し、被写体分類を行う画像出力装置として、デジタルカメラを例示するが、本発明の画像出力装置がデジタルカメラに限られないことは言うまでもない。本発明の画像出力装置は、記録装置に記録されている画像を読み出して表示装置に表示する画像出力装置であればいかなる機器であってもよく、例えば、スマートフォン、タブレットPCなどであってもよい。 Further, in the following description, a digital camera will be exemplified as an image output device that uses an inference model to classify a subject, but it goes without saying that the image output device of the present invention is not limited to a digital camera. The image output device of the present invention may be any device as long as it reads an image recorded in a recording device and displays it on a display device, and may be, for example, a smartphone, a tablet PC, etc. .

図1は、本発明の実施形態にかかるデジタルカメラ100の構成例を示すブロック図である。 FIG. 1 is a block diagram showing a configuration example of a digital camera 100 according to an embodiment of the present invention.

バリア10は、デジタルカメラ100の撮影レンズ11を含む撮像部を覆う事により、撮像部の汚れや破損を防止する保護部材であり、バリア制御部43により動作が制御される。撮影レンズ11は、光学像を撮像素子13の撮像面に結像させる。シャッター12は、絞り機能を備える。撮像素子13は、例えば、CCDやCMOSセンサ等で構成され、シャッター12を介して撮影レンズ11により撮像面上に結像された光学像を電気信号に変換する。 The barrier 10 is a protective member that covers the imaging unit including the photographing lens 11 of the digital camera 100 to prevent the imaging unit from becoming dirty or damaged, and its operation is controlled by the barrier control unit 43. The photographic lens 11 forms an optical image on the imaging surface of the image sensor 13 . The shutter 12 has an aperture function. The image sensor 13 is composed of, for example, a CCD or a CMOS sensor, and converts an optical image formed on an imaging surface by the photographing lens 11 via the shutter 12 into an electrical signal.

A/D変換器15は、撮像素子13から出力されたアナログの画像信号をデジタルの画像信号に変換する。A/D変換器15で変換されたデジタルの画像信号は、所謂RAW画像データとして、メモリ25に書き込まれる。併せて、撮影時の情報を基に各RAW画像データに対応する現像パラメータが生成され、メモリ25に書き込まれる。現像パラメータは、露光設定、ホワイトバランス、色空間、コントラストなど、JPEG方式などを記録するための画像処理で使用する各種パラメータから構成される。 The A/D converter 15 converts the analog image signal output from the image sensor 13 into a digital image signal. The digital image signal converted by the A/D converter 15 is written into the memory 25 as so-called RAW image data. At the same time, development parameters corresponding to each RAW image data are generated based on the information at the time of photographing, and written into the memory 25. The development parameters are comprised of various parameters used in image processing for recording, such as the JPEG format, such as exposure settings, white balance, color space, and contrast.

タイミング発生器14は、メモリ制御部22及びシステム制御部50により制御され、撮像素子13、A/D変換器15、D/A変換器21にクロック信号や制御信号を供給する。 The timing generator 14 is controlled by the memory control section 22 and the system control section 50, and supplies clock signals and control signals to the image sensor 13, A/D converter 15, and D/A converter 21.

画像処理部20は、A/D変換器15からのデータ或いはメモリ制御部22からのデータに対して所定の画素補間処理、色変換処理、補正処理、リサイズ処理、画像合成処理などの各種画像処理を行う。また、画像処理部20は、撮像して得られた画像データを用いて所定の画像処理や演算処理を行い、得られた演算結果をシステム制御部50に提供する。システム制御部50は、提供された演算結果に基づいて露光制御部40および焦点制御部41を制御することにより、AF(オートフォーカス)処理、AE(自動露出)処理、EF(フラッシュプリ発光)処理を実現する。 The image processing section 20 performs various image processing such as predetermined pixel interpolation processing, color conversion processing, correction processing, resizing processing, and image composition processing on the data from the A/D converter 15 or the data from the memory control section 22. I do. The image processing unit 20 also performs predetermined image processing and calculation processing using the image data obtained by imaging, and provides the obtained calculation results to the system control unit 50. The system control unit 50 controls the exposure control unit 40 and the focus control unit 41 based on the provided calculation results, thereby performing AF (autofocus) processing, AE (automatic exposure) processing, and EF (flash pre-flash) processing. Realize.

また、画像処理部20は、撮像して得られた画像データを用いて所定の演算処理を行い、得られた演算結果に基づいてAWB(オートホワイトバランス)処理も行う。さらに、画像処理部20は、メモリ25に格納された画像データを読み込んで圧縮処理或いは伸長処理を行う。ここではJPEG方式やMPEG-4 AVCまたはHEVC(High Efficiency Video Coding)、非圧縮のRAWデータに対する可逆圧縮などを行う。そして、画像処理部20は、処理を終えた画像データをメモリ25に書き込む。 The image processing unit 20 also performs predetermined calculation processing using the image data obtained by imaging, and also performs AWB (auto white balance) processing based on the obtained calculation results. Furthermore, the image processing unit 20 reads the image data stored in the memory 25 and performs compression processing or expansion processing. Here, JPEG method, MPEG-4 AVC or HEVC (High Efficiency Video Coding), reversible compression for uncompressed RAW data, etc. are performed. The image processing unit 20 then writes the processed image data into the memory 25.

また、画像処理部20は、撮像して得られた画像データを用いて所定の演算処理を行い、各種画像データの編集処理を行う。具体的には、画像データの周囲にある不要な部分を非表示にすることで画像の表示範囲やサイズを調整するトリミング処理、画像データや画面の表示要素などを拡大や縮小して大きさを変更するリサイズ処理を行うことができる。更に、非圧縮のRAWデータに対する可逆圧縮など、圧縮処理或いは伸長処理を行ったデータに対して色変換などの画像処理を加え、JPEG方式に変換して画像データを作成するRAW現像を行うことができる。また、MPEG-4などの動画フォーマットの指定フレームを切り出してJPEG方式に変換して保存する動画切り出し処理を行うことができる。 The image processing unit 20 also performs predetermined arithmetic processing using image data obtained by imaging, and performs editing processing of various image data. Specifically, we use trimming processing to adjust the display range and size of an image by hiding unnecessary parts around the image data, and enlarge or reduce the size of image data and screen display elements. You can perform resizing processing to change. Furthermore, it is possible to perform RAW development, which involves reversibly compressing uncompressed RAW data, applying image processing such as color conversion to data that has undergone compression processing or decompression processing, and converting it to JPEG format to create image data. can. Further, it is possible to perform a video clipping process in which a specified frame of a video format such as MPEG-4 is clipped, converted to JPEG format, and saved.

また、画像処理部20は、複数の画像データを合成する合成処理回路を備える。本実施形態では、単純な加算合成あるいは加算平均合成だけでなく、合成対象の画像データの各領域において最も明るいまたは暗い値を持つ画像を選択して、それらを合成して1枚の画像データを生成する比較明合成処理、比較暗合成処理が可能である。 The image processing unit 20 also includes a composition processing circuit that composes a plurality of image data. In this embodiment, in addition to simple additive synthesis or additive average synthesis, images with the brightest or darkest values are selected in each region of image data to be synthesized, and the images are synthesized to create one piece of image data. It is possible to perform comparatively bright and comparatively dark synthesis processing.

また、画像処理部20は、表示用の画像データと共に、表示部23に表示するメニューや任意の文字等のOSD(On-Screen Display)を重畳させる処理等も行う。 The image processing unit 20 also performs a process of superimposing an OSD (On-Screen Display) such as a menu or arbitrary characters to be displayed on the display unit 23 together with the image data for display.

さらに、画像処理部20では、入力された画像データや撮影時の撮像素子13などから得られる被写体との距離情報などを利用して、画像データ内に存在する被写体を検出して、その被写体領域を検出する被写体検出処理を行う。検出できる情報として、画像内における位置、大きさといった領域や傾き、確からしさなどの検出情報を得ることができる。 Furthermore, the image processing unit 20 uses the input image data and the distance information to the subject obtained from the image sensor 13 at the time of shooting to detect the subject present in the image data, and detect the subject area. Performs subject detection processing to detect. As the information that can be detected, it is possible to obtain detection information such as a region such as a position and a size within an image, a tilt, and a probability.

メモリ制御部22は、A/D変換器15、タイミング発生器14、画像処理部20、画像表示メモリ24、D/A変換器21、メモリ25を制御する。A/D変換器15により生成されたRAW画像データは、画像処理部20、メモリ制御部22を介して、或いは、直接メモリ制御部22を介して、画像表示メモリ24或いはメモリ25に書き込まれる。 The memory control section 22 controls the A/D converter 15, the timing generator 14, the image processing section 20, the image display memory 24, the D/A converter 21, and the memory 25. The RAW image data generated by the A/D converter 15 is written into the image display memory 24 or the memory 25 via the image processing section 20 and the memory control section 22, or directly via the memory control section 22.

画像表示メモリ24に書き込まれた表示用の画像データは、D/A変換器21を介してTFT LCDなどにより構成される表示部23に表示される。表示部23を用いて撮像して得られた画像データを逐次表示すれば、ライブ画像を表示する電子ファインダ機能を実現することが可能である。 The image data for display written in the image display memory 24 is displayed via the D/A converter 21 on the display section 23 constituted by a TFT LCD or the like. By sequentially displaying image data obtained by imaging using the display unit 23, it is possible to realize an electronic finder function that displays a live image.

メモリ25は、所定枚数の静止画像や所定時間の動画像を格納するのに十分な記憶量を備え、撮影した静止画像や動画像を格納する。また、メモリ25はシステム制御部50の作業領域としても使用することが可能である。 The memory 25 has a storage capacity sufficient to store a predetermined number of still images and moving images for a predetermined period of time, and stores captured still images and moving images. Furthermore, the memory 25 can also be used as a work area for the system control unit 50.

露光制御部40は、絞り機能を備えるシャッター12を制御する。また、露光制御部40は、フラッシュ44と連動することによりフラッシュ調光機能も有する。焦点制御部41は、システム制御部50からの指示に基づいて撮影レンズ11に含まれる不図示のフォーカスレンズを駆動することで、焦点調節を行う。ズーム制御部42は、撮影レンズ11に含まれる不図示のズームレンズを駆動することで、ズーミングを制御する。フラッシュ44は、AF補助光の投光機能、フラッシュ調光機能を有する。 The exposure control section 40 controls the shutter 12 having an aperture function. Further, the exposure control section 40 also has a flash dimming function by interlocking with the flash 44. The focus control section 41 performs focus adjustment by driving a focus lens (not shown) included in the photographing lens 11 based on instructions from the system control section 50 . The zoom control unit 42 controls zooming by driving a zoom lens (not shown) included in the photographic lens 11. The flash 44 has an AF auxiliary light projecting function and a flash dimming function.

システム制御部50は、デジタルカメラ100全体を制御する。不揮発性メモリ51は、電気的に消去・記録可能な不揮発性メモリであり、例えばEEPROM等が用いられる。なお、不揮発性メモリ51には、プログラムだけでなく、地図情報等も記録されている。 The system control unit 50 controls the entire digital camera 100. The nonvolatile memory 51 is an electrically erasable/recordable nonvolatile memory, such as an EEPROM. Note that the nonvolatile memory 51 records not only programs but also map information and the like.

シャッタースイッチ61(SW1)は、シャッターボタン60の操作途中でONとなり、AF処理、AE処理、AWB処理、EF処理などの動作開始を指示する。シャッタースイッチ62(SW2)は、シャッターボタン60の操作完了でONとなり、露光処理、現像処理、記録処理を含む一連の撮影動作の開始を指示する。露光処理では、撮像素子13から読み出された信号を、A/D変換器15、メモリ制御部22を介して、RAW画像データとしてメモリ25に書き込む。現像処理では、画像処理部20やメモリ制御部22での演算を用いて、メモリ25に書き込まれたRAW画像データを現像し、画像データとしてメモリ25に書き込む。記録処理では、メモリ25から画像データを読み出し、画像処理部20により圧縮を行い、圧縮した画像データをメモリ25に格納した後にカードコントローラ90を介して外部記録媒体91に書き込む。 The shutter switch 61 (SW1) is turned on during the operation of the shutter button 60, and instructs the start of operations such as AF processing, AE processing, AWB processing, and EF processing. The shutter switch 62 (SW2) is turned ON upon completion of the operation of the shutter button 60, and instructs the start of a series of photographing operations including exposure processing, development processing, and recording processing. In the exposure process, a signal read from the image sensor 13 is written into the memory 25 as RAW image data via the A/D converter 15 and the memory control section 22. In the development process, the RAW image data written in the memory 25 is developed using calculations in the image processing section 20 and the memory control section 22, and is written in the memory 25 as image data. In the recording process, image data is read from the memory 25, compressed by the image processing section 20, and after storing the compressed image data in the memory 25, it is written to the external recording medium 91 via the card controller 90.

操作部63は、各種ボタンやタッチパネルなどの操作部材を備える。例えば、電源ボタン、メニューボタン、撮影モード/再生モード/その他特殊撮影モードの切替えを行うモード切替えスイッチ、十字キー、セットボタン、マクロボタン、マルチ画面再生改ページボタンを含む。また、例えば、フラッシュ設定ボタン、単写/連写/セルフタイマー切り替えボタン、メニュー移動+(プラス)ボタン、メニュー移動-(マイナス)ボタン、撮影画質選択ボタン、露出補正ボタン、日付/時間設定ボタンなどを含む。 The operation unit 63 includes operation members such as various buttons and a touch panel. For example, it includes a power button, a menu button, a mode changeover switch for switching between shooting mode/playback mode/other special shooting modes, a cross key, a set button, a macro button, and a multi-screen playback page break button. For example, flash setting button, single shooting/continuous shooting/self-timer switching button, menu movement + (plus) button, menu movement - (minus) button, shooting image quality selection button, exposure compensation button, date/time setting button, etc. including.

メタデータ生成・解析部70は、外部記録媒体91に画像データを記録する際に、撮影時の情報を基に、画像データに添付するExif(Exchangeable image file format)規格などの様々なメタデータを生成する。また、メタデータ生成・解析部70は、外部記録媒体91に記録されている画像データを読み込んだ際に、画像データに付与されているメタデータの解析を行う。メタデータとしては、例えば、撮影時の撮影時設定情報、画像データに関する画像データ情報、画像データに含まれる被写体の特徴情報などが挙げられる。また、動画像データを記録する際には、メタデータ生成・解析部70は、各フレームについてメタデータを生成し、付与することもできる。 When recording image data on the external recording medium 91, the metadata generation/analysis unit 70 generates various metadata such as the Exif (Exchangeable image file format) standard attached to the image data based on the information at the time of shooting. generate. Furthermore, when the metadata generation/analysis unit 70 reads the image data recorded on the external recording medium 91, it analyzes the metadata added to the image data. Examples of the metadata include shooting setting information at the time of shooting, image data information regarding image data, and characteristic information of a subject included in the image data. Furthermore, when recording moving image data, the metadata generation/analysis unit 70 can also generate and add metadata to each frame.

電源80は、アルカリ電池やリチウム電池等の一次電池、NiCd電池、NiMH電池、Li電池等の二次電池、ACアダプター等からなる。電源制御部81は、電源80から供給される電力をデジタルカメラ100の各部に供給する。 The power source 80 includes a primary battery such as an alkaline battery or a lithium battery, a secondary battery such as a NiCd battery, a NiMH battery, or a Li battery, an AC adapter, or the like. The power supply control section 81 supplies power supplied from the power supply 80 to each section of the digital camera 100.

カードコントローラ90は、メモリカード等の外部記録媒体91とデータの送受信を行う。外部記録媒体91は、例えばメモリカードで構成され、デジタルカメラ100が撮影した画像(静止画、動画)を記録する。 The card controller 90 sends and receives data to and from an external recording medium 91 such as a memory card. The external recording medium 91 is composed of, for example, a memory card, and records images (still images, moving images) taken by the digital camera 100.

推論エンジン73は、推論モデル記録部72に記録された推論モデルを用いて、システム制御部50を介して入力された画像データに対して推論を行う。推論モデルには、外部装置101などの外部から通信部71を通じて入力し、推論モデル記録部72に記録されたものや、学習部74によって再学習を行って得られた推論モデルを使用することができる。なお、推論モデルは、外部からの更新や学習部74によって再学習を行って更新された場合に、それぞれの推論モデルが識別できるように、推論モデル記録部72などで管理バージョンを保持していることとする。また、推論エンジン73は、ニューラルネットワーク・デザイン73aを有する。 The inference engine 73 uses the inference model recorded in the inference model recording unit 72 to perform inference on the image data input via the system control unit 50. The inference model may be input from an external device such as the external device 101 through the communication unit 71 and recorded in the inference model recording unit 72, or an inference model obtained by relearning by the learning unit 74. can. Note that management versions of the inference models are maintained in the inference model recording unit 72 or the like so that each inference model can be identified when it is updated from the outside or by relearning by the learning unit 74. That's it. The inference engine 73 also has a neural network design 73a.

ニューラルネットワーク・デザイン73aは、入力層と出力層の間に中間層(ニューロン)が配置されている。入力層にはシステム制御部50から画像データが入力される。中間層としては、何層かのニューロンが配置されている。ニューロンの層の数は設計上適宜決められ、また各層におけるニューロンの数も設計上適宜決められる。中間層は、推論モデル記録部72に記録された推論モデルに基づいて、重み付けがなされる。出力層には、入力層に入力された画像データに応じたアノテーション情報が出力される。 In the neural network design 73a, an intermediate layer (neuron) is arranged between an input layer and an output layer. Image data is input to the input layer from the system control unit 50. Several layers of neurons are arranged as the middle layer. The number of neuron layers is determined as appropriate in design, and the number of neurons in each layer is also determined as appropriate in design. The intermediate layer is weighted based on the inference model recorded in the inference model recording unit 72. Annotation information corresponding to the image data input to the input layer is output to the output layer.

本実施形態では、画像に含まれる被写体がどのようなものであるかの分類を推論する推論モデルを想定する。様々な被写体の画像データと、その分類(例えば、犬、猫などの動物の分類や、人、動物、植物、建物など被写体分類など)結果を教師データとして、深層学習により生成された推論モデルを利用する。 This embodiment assumes an inference model that infers the classification of what kind of subject is included in an image. Using image data of various subjects and their classification results (for example, classification of animals such as dogs and cats, classification of subjects such as people, animals, plants, buildings, etc.) as training data, an inference model generated by deep learning is developed. Make use of it.

学習部74は、システム制御部50等から依頼を受けて、推論モデルの再学習を行う。学習部74は、教師データ記録部74aを有し、教師データ記録部74aは、推論エンジン73への教師データに関する情報を記録する。学習部74は教師データ記録部74aに記録されている教師データを用いて、推論エンジン73を再学習させ、推論モデル記録部72を用いて、推論エンジン73を更新することができる。 The learning unit 74 performs relearning of the inference model upon receiving a request from the system control unit 50 or the like. The learning unit 74 has a teacher data recording unit 74a, and the teacher data recording unit 74a records information regarding the teacher data to the inference engine 73. The learning section 74 can retrain the inference engine 73 using the teacher data recorded in the teacher data recording section 74a, and can update the inference engine 73 using the inference model recording section 72.

通信部71は、送信および受信を行うための通信回路を有する。通信回路は、具体的にはWi-FiやBluetooth(登録商標)などの無線通信でも良いし、イーサネットやUSBなどの有線通信でも良い。 The communication unit 71 has a communication circuit for transmitting and receiving. Specifically, the communication circuit may be wireless communication such as Wi-Fi or Bluetooth (registered trademark), or wired communication such as Ethernet or USB.

本実施形態での画像から被写体の長さや広さを計測する計測処理について説明する。深度センサ75を用いて、撮像時に被写体の深度情報(奥行き情報)を計測する。撮像された画像の各画素に深度情報として深度値が対応付けられている。各画素が有する深度値は、カメラの視点から被写体までの距離を示す情報であり、深度値はメートル等の物理的単位で直接的に表現されたものでもよいし、カメラの視点から被写体までの距離が0~1の範囲で正規化表現されたものでもよい。設定された解像度の値をもとに、1ピクセルあたりの長さを算出する。そして、撮像後の画像を入力に、画像処理部20にて画像の2値化などの処理を行い、被写体のエッジを検出する。抽出された被写体のエッジから、エッジ間のピクセル数をカウントして、事前に算出した1ピクセルあたりの長さをもとに、被写体の長さを計測する。なお、推論エンジン73を用いて、被写体の推論とともに計測処理を行ってもよい。また、深度値の取得原理は限定せず、被写体の視差画像に基づく三角測量法により被写体までの距離を計測するステレオカメラであってもよい。あるいは、被写体にレーザー光を照射して、その反射光が検出されるまでの時間に基づいて被写体の距離を測定するTOF(Time Of Flight)方式のカメラであってもよい。もちろん、その他の方法により被写体までの距離を計測してもよい。 A measurement process for measuring the length and width of a subject from an image in this embodiment will be explained. The depth sensor 75 is used to measure depth information (depth information) of the subject during imaging. A depth value is associated with each pixel of the captured image as depth information. The depth value that each pixel has is information that indicates the distance from the camera's viewpoint to the subject, and the depth value may be directly expressed in physical units such as meters, or the distance from the camera's viewpoint to the subject. The distance may be normalized and expressed in a range of 0 to 1. The length per pixel is calculated based on the set resolution value. Then, with the captured image as input, the image processing section 20 performs processing such as binarization of the image to detect edges of the subject. From the extracted edges of the object, the number of pixels between the edges is counted, and the length of the object is measured based on the length per pixel calculated in advance. Note that the inference engine 73 may be used to infer the subject and perform measurement processing. Further, the principle of acquiring the depth value is not limited, and a stereo camera may be used that measures the distance to the subject using a triangulation method based on a parallax image of the subject. Alternatively, it may be a TOF (Time of Flight) camera that measures the distance to the subject based on the time it takes for the subject to be irradiated with laser light and the reflected light is detected. Of course, the distance to the subject may be measured using other methods.

次に、図2~図5を用いて、本実施形態におけるデジタルカメラ100の画像にアノテーション情報を記録するまでの処理について説明する。 Next, a process up to recording annotation information on an image of the digital camera 100 in this embodiment will be explained using FIGS. 2 to 5.

図2は本実施例を説明する全体フローチャートの一例である。 FIG. 2 is an example of an overall flowchart explaining this embodiment.

図3(a)~(d)は、本実施形態における撮影処理と被写体情報取得手段S201の内部処理を示すもので、処理パターンの一例である。 FIGS. 3A to 3D show photographing processing and internal processing of the subject information acquisition means S201 in this embodiment, and are examples of processing patterns.

図4は、本実施形態において記録される画像ファイルの記録内容の概要である。 FIG. 4 is an overview of the recorded contents of the image file recorded in this embodiment.

図5(a)、(b)は、本実施形態におけるデジタルカメラの画像とアノテーション情報の表示方法の一例を表す図である。図5(a)は、被写体が和室であるとき、図5(b)は、被写体が洋室であるとき、の画像とアノテーション情報を示す。 FIGS. 5A and 5B are diagrams illustrating an example of a method for displaying images and annotation information of a digital camera in this embodiment. FIG. 5A shows an image and annotation information when the subject is a Japanese-style room, and FIG. 5B shows an image and annotation information when the subject is a Western-style room.

デジタルカメラ100はユーザーによるシャッターボタン60の押下操作に応答し、シャッタースイッチ61(SW1)及びシャッタースイッチ62(SW2)がONとなったとき、撮影処理と被写体情報取得手段(S201)を実施する。S201内の詳細処理フローを、図3(a)を用いて説明する。なお、図3(b)、(c)、(d)は図3(a)の処理順序を変更したものであり、処理順序はこれに限定しない。 The digital camera 100 responds to the user's pressing operation of the shutter button 60, and when the shutter switch 61 (SW1) and the shutter switch 62 (SW2) are turned on, performs photographing processing and subject information acquisition means (S201). The detailed processing flow in S201 will be explained using FIG. 3(a). Note that FIGS. 3(b), (c), and (d) are obtained by changing the processing order of FIG. 3(a), and the processing order is not limited to this.

システム制御部50Aは、ユーザーが操作部63でメニュー画面を表示して、業界/分野情報を設定すると、メモリ25に業界/分野情報を記録する(S301)。 When the user displays the menu screen on the operation unit 63 and sets industry/field information, the system control unit 50A records the industry/field information in the memory 25 (S301).

次に、デジタルカメラ100は、ユーザーによるシャッターボタン60の押下操作に応答する。すなわち、シャッタースイッチ61(SW1)及びシャッタースイッチ62(SW2)がONとなって撮影開始指示がある場合(S302:Yes)は、撮影処理を開始する(S303)。 Next, the digital camera 100 responds to the user's depression of the shutter button 60. That is, when the shutter switch 61 (SW1) and the shutter switch 62 (SW2) are turned on and there is an instruction to start photographing (S302: Yes), the photographing process is started (S303).

撮影処理(S303)では、焦点制御部41や露光制御部40を用いて、AF(オートフォーカス)処理、AE(自動露出)処理を行ったうえで、撮像素子13からA/D変換機15を介して出力される画像信号をメモリ25に保存する。この時、同時に震度センサ75で計測した深度値も画像信号とともにメモリ25に保存する。さらに、メモリ25に保存した画像信号に対して、ユーザーの設定に合わせて、画像処理部20に含まれる圧縮処理でJPEG形式やMPEG-4 HEVC形式で圧縮した画像データを作成する。
次に、メモリ25に保存された画像信号に対して、画像処理部20により被写体検出処理を行い、画像に含まれる被写体の検出情報を取得する(S304)。
In the photographing process (S303), the focus control section 41 and the exposure control section 40 are used to perform AF (autofocus) processing and AE (automatic exposure) processing, and then the A/D converter 15 is transferred from the image sensor 13. The image signal outputted through the memory 25 is stored in the memory 25. At this time, the depth value measured by the seismic intensity sensor 75 is also stored in the memory 25 together with the image signal. Furthermore, image data is created by compressing the image signal stored in the memory 25 in JPEG format or MPEG-4 HEVC format using compression processing included in the image processing section 20 according to the user's settings.
Next, the image processing unit 20 performs object detection processing on the image signal stored in the memory 25 to obtain detection information of the object included in the image (S304).

次に、メモリ25に保存された画像信号に対して、推論エンジン73を用いて被写体推論処理を行う。メモリ25に保存された画像信号データとS304で取得した被写体検出情報から画像データ内に含まれる被写体領域を特定し、被写体領域に含まれる被写体の分類結果を出力する(S305)。推論時に、推論結果以外に推論途中の動作上のデバッグ所法、ログなど推論処理に関連する情報を出力しても構わない。 Next, subject inference processing is performed on the image signal stored in the memory 25 using the inference engine 73. A subject area included in the image data is specified from the image signal data stored in the memory 25 and the subject detection information acquired in S304, and a classification result of subjects included in the subject area is output (S305). At the time of inference, in addition to the inference result, information related to inference processing, such as debugging methods and logs for operations during inference, may be output.

次に、S303で計測された深度値、S304で取得した被写体検出情報、S305で取得した推論結果を入力に、計算部76において被写体の高さ、長さ、広さなどを計測する(S306)。なお、計測の際は共通単位で数値を算出する。 Next, using the depth value measured in S303, the subject detection information obtained in S304, and the inference result obtained in S305 as input, the calculation unit 76 measures the height, length, width, etc. of the subject (S306). . In addition, when measuring, numerical values are calculated in common units.

次に、デジタルカメラ100は、ユーザーによるシャッターボタン60の押下操作に応答する。すなわち、シャッタースイッチ61(SW1)及びシャッタースイッチ62(SW2)がONとなって撮影指示が継続されている場合(S307:No)は、撮影処理を開始する(S303)。その後、シャッタースイッチ62(SW2)がOFFとなって撮影指示が継続されていない場合(S307:Yes)は、撮影処理を終了する(S201終了)。 Next, the digital camera 100 responds to the user's depression of the shutter button 60. That is, when the shutter switch 61 (SW1) and the shutter switch 62 (SW2) are turned on and the shooting instruction is continued (S307: No), the shooting process is started (S303). Thereafter, if the shutter switch 62 (SW2) is turned OFF and the shooting instruction is not continued (S307: Yes), the shooting process ends (S201 ends).

次に、S304で取得した被写体検出情報、S306で取得した被写体計測情報、S301で取得した業界/分野情報に基づき、判断部77にて業界用アノテーション情報に記録する単位を判断し、単位に合わせて被写体計測結果の数値を変換する(S202)。その際、標準アノテーションの記録用に共通単位での数値も保持する。なお、もしS301でユーザーが業界/分野情報を設定しなかった場合は、標準アノテーション情報の記録用に共通単位での数値のみ保持する。 Next, based on the object detection information acquired in S304, the object measurement information acquired in S306, and the industry/field information acquired in S301, the determination unit 77 determines the unit to be recorded in the industry annotation information, and The numerical value of the object measurement result is converted (S202). At that time, numerical values in common units are also retained for recording standard annotations. Note that if the user does not set industry/field information in S301, only numerical values in common units are retained for recording standard annotation information.

次に、メモリ25に保存された画像信号データと、S202で算出された標準アノテーション情報と業界用アノテーション情報のそれぞれの数値および単位を、外部記録媒体91に記録する(S203)。ここで記録される画像ファイルは、図4に示すような形式で記録される。 Next, the image signal data stored in the memory 25 and the numerical values and units of the standard annotation information and industry annotation information calculated in S202 are recorded on the external recording medium 91 (S203). The image file recorded here is recorded in the format shown in FIG.

本実施形態で記録される画像サイズファイル400は、少なくとも以下の4領域から構成される。すなわち、Exif規格に従ったメタデータを記憶する領域401、圧縮された画像データを記録する画像データ領域408、アノテーション情報を記録する標準アノテーション情報409、業界用アノテーション情報410である。業界用アノテーション情報410は、業界ごとに必ず1つアノテーション情報が存在する。画像ファイル400は、例えば、ユーザーからJPEG形式での記録が指示されていれば、S303で作成された画像データをJPEG形式で画像データ領域408に記録し、Exifデータ401はAPP1マーカーなどに記録されている。また、標準アノテーション情報409や業界用アノテーション情報410はAPP1マーカーなどに記録されている。また、ユーザーからHEIF(High Efficiency Image File Format)形式での記録が指示された場合、HEIFファイル形式で記録される。そして、Exifデータ401やアノテーション情報410は、MetaデータBoxなどに記録される。また、RAW形式での記録が指示された場合も同様に、Exifデータ401や標準アノテーション情報409や業界用アノテーション情報410は、MetaデータBoxなどの所定の領域に記録される。 The image size file 400 recorded in this embodiment is composed of at least the following four areas. That is, an area 401 for storing metadata according to the Exif standard, an image data area 408 for recording compressed image data, standard annotation information 409 for recording annotation information, and industry annotation information 410. In the industry annotation information 410, there is always one annotation information for each industry. For example, if the user instructs the image file 400 to record in JPEG format, the image data created in S303 is recorded in the image data area 408 in JPEG format, and the Exif data 401 is recorded in the APP1 marker or the like. ing. Further, standard annotation information 409 and industry annotation information 410 are recorded in the APP1 marker and the like. Furthermore, when the user instructs recording in HEIF (High Efficiency Image File Format) format, the data is recorded in HEIF file format. The Exif data 401 and annotation information 410 are recorded in a Meta data Box or the like. Similarly, when recording in RAW format is instructed, Exif data 401, standard annotation information 409, and industry annotation information 410 are recorded in a predetermined area such as a Meta data Box.

被写体検出情報(S304で取得)は、メタデータ生成・解析部70を用いて、Exifデータ401に含まれる製造メーカー固有のメタデータが原則非公開の形式で記載できるMarkerNote405内に記録される。また、S305で取得した推論結果である被写体の分類結果と、推論モデル記録部72で保持している現在の推論モデルの管理バージョンやデバッグ情報などがあれば、それらを推論モデル管理情報407としてMerkerNote405内に記録する。 The object detection information (obtained in S304) is recorded using the metadata generation/analysis unit 70 in a MarkerNote 405 in which manufacturer-specific metadata included in the Exif data 401 can be written in a private format in principle. In addition, if there is a subject classification result that is the inference result obtained in S305, a management version of the current inference model held in the inference model recording unit 72, debug information, etc., they are stored in the MerkerNote 405 as the inference model management information 407. Record within.

推論結果(S305で取得)は、標準アノテーション情報409や業界用アノテーション情報410に記録される。標準アノテーション情報409や業界用アノテーション情報410は、アノテーションリンク情報格納タグ402内の標準アノテーション情報link403や業界用アノテーション情報link404で示す位置に記録される。本実施例では、アノテーション情報はXMLやJSONなどのテキスト形式で記載することを想定している。 The inference result (obtained in S305) is recorded in standard annotation information 409 and industry annotation information 410. The standard annotation information 409 and the industry annotation information 410 are recorded in the positions indicated by the standard annotation information link 403 and the industry annotation information link 404 in the annotation link information storage tag 402. In this embodiment, it is assumed that the annotation information is written in a text format such as XML or JSON.

本実施形態で記録された画像サイズファイル400は、図5(a)~(d)のように表示される。画像データ領域408にて保存されたJPEG形式の画像データは、和室の画像500と洋室の画像503のように表示される。標準アノテーション情報409は図5(a)の501または図5(c)の504のように、内部に保持した被写体情報とその被写体の計測情報を標準単位(今回の例はm)で表示される。業界用アノテーション情報410は、図5(b)の502または図5(d)の505のように内部に保持した被写体情報とその被写体の計測情報を業界用単位(今回の例は、和室は畳、洋室はm)で表示される。表示するアノテーション情報はS301のユーザー操作によって決定する。これにより、業界用アノテーション情報に記録される被写体の数値とその単位が業界に合った適切なものとなる。なお、図5(a)~(d)のような表示形式はあくまで一例であり、表示場所や表示方法はこれに限定しない。 The image size file 400 recorded in this embodiment is displayed as shown in FIGS. 5(a) to 5(d). The JPEG format image data saved in the image data area 408 is displayed as an image 500 of a Japanese-style room and an image 503 of a Western-style room. The standard annotation information 409, as shown in 501 in FIG. 5(a) or 504 in FIG. 5(c), displays internally held object information and measurement information of the object in standard units (in this example, m 2 ). Ru. The industry annotation information 410 stores internally held object information and measurement information of the object in industry units (in this example, a Japanese-style room is a tatami mat). , Western-style rooms are displayed in m 2 ). The annotation information to be displayed is determined by the user's operation in S301. As a result, the numerical value of the subject and its unit recorded in the industry annotation information are appropriate for the industry. Note that the display formats shown in FIGS. 5(a) to 5(d) are just examples, and the display location and display method are not limited to these.

次に、図6を用いて、本実施形態における記録されたアノテーション情報を修正する時の処理について説明する。 Next, a process for modifying recorded annotation information in this embodiment will be described using FIG. 6.

図6はユーザーがアノテーション情報を修正するフローチャートの一例である。 FIG. 6 is an example of a flowchart for a user to modify annotation information.

デジタルカメラ100は、図5(a)や(b)のような再生画面においてユーザーによる操作部63に応答し、ユーザーが選択した座標に被写体がある場合(S601:Yes)は、既に設定済の業界/分野情報を確認する(S602)。 The digital camera 100 responds to the operation unit 63 by the user on the playback screen as shown in FIGS. The industry/field information is confirmed (S602).

S601で選択された座標情報に該当する被写体検出情報とS602で取得した業界/分野情報をもとに、画像ファイル400に保存されている該当の業界のアノテーション情報内の被写体情報(数値および単位)を表示する(S603)。例えば、S602で取得した業界/分野情報が標準アノテーション情報の場合、標準アノテーション情報409の被写体情報を共通単位と数値で表示する。また、S602で取得した業界/分野情報が業界用アノテーション情報の場合、業界用アノテーション情報410の被写体情報を業界単位と数値で表示する。 Based on the object detection information corresponding to the coordinate information selected in S601 and the industry/field information acquired in S602, the object information (numeric value and unit) in the annotation information of the corresponding industry stored in the image file 400 is determined. is displayed (S603). For example, if the industry/field information acquired in S602 is standard annotation information, the subject information of the standard annotation information 409 is displayed in common units and numerical values. Further, if the industry/field information acquired in S602 is industry annotation information, the subject information of the industry annotation information 410 is displayed in industry units and numerical values.

次に、ユーザーによる操作部63に応答し、ユーザーによる数値の修正が完了した場合(S604:Yes)、表示中でない他方のアノテーション情報の数値を、該当のアノテーション情報に保存されている単位に合わせて数値変換を行う。例えば、標準アノテーション情報409が表示されており、ユーザーによって被写体Aの数値情報が修正された時、業界用アノテーション情報410の被写体Aの数値情報が業界単位に合わせて修正される。また、業界用アノテーション情報が複数ある場合は、すべての業界用アノテーション情報に対して同様の処理が実行される。これにより、アノテーション情報の修正時に単位変換とそれに伴う数値変換の手間を省ける。なお、図6の処理順序はこれに限定しない。 Next, in response to the operation unit 63 by the user, if the user has completed modifying the numerical value (S604: Yes), adjust the numerical value of the other annotation information that is not currently displayed to the unit saved in the corresponding annotation information. Perform numerical conversion. For example, when the standard annotation information 409 is displayed and the numerical information of the subject A is modified by the user, the numerical information of the subject A in the industry annotation information 410 is modified to match the industry unit. Furthermore, if there is a plurality of pieces of industry annotation information, the same process is executed for all pieces of industry annotation information. This saves the effort of unit conversion and associated numerical value conversion when modifying annotation information. Note that the processing order in FIG. 6 is not limited to this.

以上、本発明の好ましい実施例について説明したが、本発明はこれらの実施例に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the invention.

(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

Claims (9)

画像から被写体を検出する検出手段と、
画像から広さや長さを共通単位で計測する計測手段と、
業界の分野を選択する選択手段と、
前記検出手段から出力された被写体情報と、
計測手段から出力された計測結果と、選択手段で選択された業界に関する情報とをまとめて、数値と単位を決定する判断手段と、
前記の判断手段から出力された数値および単位と、計測結果と、業界に関する情報とをまとめてアノテーション情報に記録する記録手段と、を有し、
標準アノテーション情報には共通単位と数値を記録し、業界用のアノテーション情報には業界に応じた単位と数値を記録する記録装置。
a detection means for detecting a subject from an image;
A measuring means for measuring width and length from an image in common units;
a selection means for selecting an industry field;
Subject information output from the detection means,
a determination means for determining a numerical value and a unit by summarizing the measurement results output from the measurement means and information regarding the industry selected by the selection means;
a recording means for collectively recording the numerical values and units output from the determination means, the measurement results, and information regarding the industry in annotation information;
A recording device that records common units and numerical values in standard annotation information, and records units and numerical values according to the industry in industry-specific annotation information.
記録された画像の被写体に紐づけられた標準アノテーション情報と業界用アノテーション情報を表示することを特徴とする請求項1に記載の記録装置。 2. The recording device according to claim 1, wherein standard annotation information and industry annotation information associated with the subject of the recorded image are displayed. ユーザーが業界用のアノテーション情報として記録をする際に被写体を判別して、適した単位を表示することを特徴とする請求項1に記載の記録装置。 2. The recording device according to claim 1, wherein the recording device identifies a subject and displays an appropriate unit when the user records the annotation information for industry use. ユーザーが標準アノテーション情報または業界用アノテーション情報の数値を修正した際に、他方のアノテーション情報にて使用している単位に合わせて数値変換して、他方のアノテーション情報に記録することを特徴とする請求項1に記載の記録装置。 A claim characterized in that when a user modifies a numerical value of standard annotation information or industry annotation information, the numerical value is converted to match the unit used in the other annotation information and recorded in the other annotation information. The recording device according to item 1. 記録装置の制御方法であって、
画像から被写体を検出する検出ステップと、
画像から広さや長さを共通単位で計測する計測ステップと、
業界の分野を選択する選択ステップと、
前記検出ステップで検出された被写体に関する被写体情報と、計測手段から出力された計測結果と、選択手段で選択された業界に関する情報とをまとめて、数値と単位を決定する判断ステップと、
前記の判断ステップで出力された数値および単位と、計測結果と、業界に関する情報とをまとめてアノテーション情報に記録する記録ステップと、を有し、
標準アノテーション情報には共通単位と数値を記録し、業界用のアノテーション情報には業界に応じた単位と数値を記録する記録装置の制御方法。
A method for controlling a recording device, the method comprising:
a detection step of detecting a subject from the image;
A measurement step that measures the width and length from the image in common units,
a selection step of selecting an industry sector;
a determination step of determining a numerical value and a unit by summarizing the subject information regarding the subject detected in the detection step, the measurement result output from the measurement means, and the information regarding the industry selected by the selection means;
a recording step for collectively recording the numerical value and unit output in the judgment step, the measurement result, and information regarding the industry in annotation information;
A recording device control method that records common units and numerical values in standard annotation information, and records units and numerical values according to the industry in industry-specific annotation information.
記録された画像の被写体に紐づけられた標準アノテーション情報と業界用アノテーション情報を表示することを特徴とする請求項5に記載の記録装置の制御方法。 6. The method of controlling a recording apparatus according to claim 5, further comprising displaying standard annotation information and industry annotation information linked to the subject of the recorded image. ユーザーが業界用のアノテーション情報として記録をする際に被写体を判別して、適した単位を表示することを特徴とする請求項1に記載の記録装置の制御方法。 2. The method of controlling a recording apparatus according to claim 1, further comprising identifying a subject and displaying an appropriate unit when the user records the annotation information for industry. ユーザーが標準アノテーション情報または業界用アノテーション情報の数値を修正した際に、他方のアノテーション情報にて使用している単位に合わせて数値変換して、他方のアノテーション情報に記録することを特徴とする請求項1に記載の記録装置の制御方法。 A claim characterized in that when a user modifies a numerical value of standard annotation information or industry annotation information, the numerical value is converted to match the unit used in the other annotation information and recorded in the other annotation information. Item 1. A method for controlling a recording device according to item 1. コンピュータを請求項1乃至5のいずれか1項に記載の記録装置の各手段として機能させるための、コンピュータが読み取り可能なプログラム。 A computer-readable program for causing a computer to function as each means of the recording device according to any one of claims 1 to 5.
JP2022094525A 2022-06-10 2022-06-10 Recording device, method for controlling recording device, and program Pending JP2023180871A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022094525A JP2023180871A (en) 2022-06-10 2022-06-10 Recording device, method for controlling recording device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022094525A JP2023180871A (en) 2022-06-10 2022-06-10 Recording device, method for controlling recording device, and program

Publications (1)

Publication Number Publication Date
JP2023180871A true JP2023180871A (en) 2023-12-21

Family

ID=89307059

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022094525A Pending JP2023180871A (en) 2022-06-10 2022-06-10 Recording device, method for controlling recording device, and program

Country Status (1)

Country Link
JP (1) JP2023180871A (en)

Similar Documents

Publication Publication Date Title
JP5164327B2 (en) Imaging apparatus and program
CN101325658B (en) Imaging device, imaging method and computer program
US9251765B2 (en) Image processing device, image processing method, and program for generating composite image
CN101573971B (en) Image recording device and image recording method
JP2011198251A (en) Inspection information processing apparatus, method, and program
CN105282429A (en) Imaging device, and control method for imaging device
JP4692849B2 (en) Stereoscopic image recording apparatus and stereoscopic image recording method
CN103533216A (en) Shooting device and image processing method
CN104956657A (en) Imaging device, image processing method, image processing program, and recording medium
JP6141137B2 (en) REMOTE CONTROL DEVICE AND ITS CONTROL METHOD, IMAGING DEVICE AND ITS CONTROL METHOD, SYSTEM, AND PROGRAM
CN103685928A (en) Image processing device, and method for processing image
JP5131367B2 (en) Imaging apparatus and program
JP6178590B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP6049425B2 (en) Imaging apparatus, image processing apparatus, and control method
JP2012160950A (en) Image processing device, imaging device, and display device
JP2023180871A (en) Recording device, method for controlling recording device, and program
JP4887840B2 (en) Imaging apparatus and program
US20230196508A1 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2023118057A (en) Image processing device, image processing method, imaging apparatus, program, and storage medium
CN113615156A (en) Image processing apparatus, image processing method, computer program, and storage medium
JP2023174104A (en) Image processing apparatus, method for controlling image processing apparatus, and program
US20230260299A1 (en) Image processing apparatus, image processing method, image capturing apparatus, and storage medium
JP2020161961A (en) Image output device and control method of the same
JP2024012965A (en) Image processing device, control method of the same, and program
US20230196708A1 (en) Image processing apparatus and method for controlling the same, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213