JP7415376B2 - Information processing device, information processing method, program - Google Patents

Information processing device, information processing method, program Download PDF

Info

Publication number
JP7415376B2
JP7415376B2 JP2019157233A JP2019157233A JP7415376B2 JP 7415376 B2 JP7415376 B2 JP 7415376B2 JP 2019157233 A JP2019157233 A JP 2019157233A JP 2019157233 A JP2019157233 A JP 2019157233A JP 7415376 B2 JP7415376 B2 JP 7415376B2
Authority
JP
Japan
Prior art keywords
image
metadata
information processing
display
item
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019157233A
Other languages
Japanese (ja)
Other versions
JP2021035025A (en
Inventor
真宏 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Priority to JP2019157233A priority Critical patent/JP7415376B2/en
Priority to PCT/JP2020/030428 priority patent/WO2021039367A1/en
Publication of JP2021035025A publication Critical patent/JP2021035025A/en
Application granted granted Critical
Publication of JP7415376B2 publication Critical patent/JP7415376B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/30Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording
    • G11B27/3027Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on the same track as the main recording used signal is digitally coded
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本技術は情報処理装置、情報処理方法、プログラムに関し、特に画像データに付与されるメタデータの編集についての技術に関する。 The present technology relates to an information processing device, an information processing method, and a program, and particularly relates to a technology for editing metadata added to image data.

プロカメラマンや記者など、業務で撮像装置(「カメラ」ともいう)を使用するユーザの場合、撮像装置で撮像した画像を、現場で、その撮像装置の通信機能を用いて新聞社等のサーバ(FTP(File Transfer Protocol)サーバ)にアップロードするということが行われている(例えば特許文献1)。
また、新聞社等においては、複数のユーザから画像データがアップロードされるため、受信する画像データが膨大な量となり得る。新聞社等においては、効率よく目的の画像データを検索するために画像データに付与されたメタデータを活用している。
そのためには、ユーザが撮像装置において画像データにメタデータを付与する操作を行うことが考えられる。
For users who use imaging devices (also called "cameras") for work, such as professional photographers and journalists, images captured by the imaging device can be sent to a server at a newspaper company or other such site using the communication function of the imaging device. The data is uploaded to an FTP (File Transfer Protocol) server (for example, Patent Document 1).
Further, in newspaper companies and the like, image data is uploaded by multiple users, so the amount of image data received can be enormous. Newspaper companies and the like utilize metadata added to image data to efficiently search for desired image data.
To this end, it is conceivable that the user performs an operation on the imaging device to add metadata to image data.

特開2017-138777号公報Japanese Patent Application Publication No. 2017-138777

ところが、メタデータを付与するためのテキスト入力を行う作業に対して撮像装置が備える入力手段は好適では無く、撮像した画像を速やかにアップロードすることが難しい。 However, the input means provided in the imaging device is not suitable for inputting text for adding metadata, and it is difficult to quickly upload captured images.

そこで本技術では、例えばプロカメラマンなど、撮像した画像にメタデータを付与した上で速やかにアップロードする必要のあるユーザにとって、メタデータの編集に好適な環境を提供すること目的とする。 Therefore, the present technology aims to provide an environment suitable for editing metadata for users, such as professional photographers, who need to add metadata to captured images and quickly upload them.

本技術に係る情報処理装置は、画像に付与されるメタデータのフィールドごとの表示のオン/オフ切換操作を検出する処理を行うユーザインタフェース制御部を備えたものである。
これにより、メタデータに含まれるフィールドのうちユーザが編集対象とするもののみを表示させるような操作が可能とされている。
An information processing apparatus according to the present technology includes a user interface control unit that performs a process of detecting an on/off switching operation for displaying each field of metadata added to an image.
This makes it possible to display only those fields included in the metadata that the user wants to edit.

上記した情報処理装置における前記ユーザインタフェース制御部は、検出した前記切換操作に基づいて前記メタデータのフィールドの表示可否を制御する処理を行ってもよい。
これにより、ユーザの切換操作の結果が表示に反映される。
The user interface control unit in the information processing apparatus described above may perform a process of controlling whether or not the metadata field can be displayed based on the detected switching operation.
Thereby, the result of the user's switching operation is reflected on the display.

上記した情報処理装置においては前記表示可否の設定を記憶する記憶部を備えていてもよい。
これにより、ユーザの切換操作の結果が保存され、表示の際に利用される。
The above-described information processing apparatus may include a storage unit that stores the display permission/prohibition setting.
Thereby, the result of the user's switching operation is saved and used for display.

上記した情報処理装置における前記ユーザインタフェース制御部は、前記表示可否に基づいて表示された前記メタデータのフィールドから編集対象のフィールドを選択する操作を検出する処理を行ってもよい。
これにより、ユーザは、編集対象の項目を編集することが可能とされる。
The user interface control unit in the information processing apparatus described above may perform a process of detecting an operation for selecting a field to be edited from among the fields of the metadata displayed based on the display availability.
This allows the user to edit the item to be edited.

上記した情報処理装置における前記ユーザインタフェース制御部は、前記フィールドごとの表示名を編集可能とするユーザインタフェース処理を行ってもよい。
これにより、メタデータのフィールド名が分かり難い場合などに異なる表示名を付与するための操作が可能とされる。
The user interface control unit in the information processing apparatus described above may perform user interface processing that allows editing of display names for each field.
This makes it possible to perform an operation to give a different display name when the field name of metadata is difficult to understand.

上記した情報処理装置における前記ユーザインタフェース制御部は、フィールド名の編集ができないように前記ユーザインタフェース処理を行ってもよい。
これにより、例えば仕様で決定されているフィールド名が変更されて、メタデータに基づく画像ファイルの分類処理などが正常に動作しなくなってしまうことが防止される。
The user interface control unit in the information processing apparatus described above may perform the user interface processing so that field names cannot be edited.
This prevents, for example, a field name determined by the specifications from being changed and image file classification processing based on metadata not functioning properly.

上記した情報処理装置における前記ユーザインタフェース制御部は、前記メタデータとしてのテキスト情報を編集する操作を検出する処理を行ってもよい。
これにより、ユーザはメタデータのテキスト情報の編集操作が可能とされる。
The user interface control unit in the information processing device described above may perform a process of detecting an operation to edit text information as the metadata.
This allows the user to edit the text information of the metadata.

上記した情報処理装置は携帯端末装置であってもよい。
撮像装置で撮影した画像をその場で情報処理装置としての携帯端末装置に転送することができ、素早くメタデータの編集を行うことができる。
The information processing device described above may be a mobile terminal device.
Images captured by an imaging device can be transferred to a mobile terminal device serving as an information processing device on the spot, and metadata can be edited quickly.

上記した情報処理装置において、前記メタデータはIPTCメタデータとされていてもよい。
団体等によってフォーマット化されたメタデータとされることにより、上述した技術を広範囲に適用することができる。
In the information processing device described above, the metadata may be IPTC metadata.
By using metadata formatted by an organization or the like, the above-mentioned technology can be widely applied.

本技術の情報処理方法は、画像に付与されるメタデータのフィールドごとの表示のオン/オフ切換操作を検出する処理を情報処理装置が実行するものである。 In the information processing method of the present technology, an information processing apparatus executes a process of detecting an on/off switching operation for displaying each field of metadata added to an image.

本技術のプログラムは、画像に付与されるメタデータのフィールドごとの表示のオン/オフ切換操作を検出する処理を情報処理装置に実行させるプログラムである。
これにより、メタデータの編集に好適な環境を提供するための各処理が情報処理装置で実行可能とされる。
The program of the present technology is a program that causes an information processing apparatus to execute a process of detecting an on/off switching operation for displaying each field of metadata added to an image.
This allows the information processing device to execute various processes for providing an environment suitable for editing metadata.

本技術の実施の形態の画像ファイル及び音声ファイルの転送及びアップロードの説明図である。FIG. 2 is an explanatory diagram of transfer and upload of image files and audio files according to the embodiment of the present technology. 実施の形態で通信を行う撮像装置のブロック図である。FIG. 2 is a block diagram of an imaging device that performs communication in an embodiment. 実施の形態で画像データに付加されるIPTCメタデータの説明図である。FIG. 3 is an explanatory diagram of IPTC metadata added to image data in the embodiment. 実施の形態の情報処理装置のブロック図である。FIG. 1 is a block diagram of an information processing device according to an embodiment. 実施の形態の情報処理装置の機能構成の説明図である。FIG. 2 is an explanatory diagram of the functional configuration of the information processing device according to the embodiment. 実施の形態の画像一覧画面の説明図である。FIG. 3 is an explanatory diagram of an image list screen according to the embodiment. 実施の形態のメニュー画面の説明図である。FIG. 3 is an explanatory diagram of a menu screen according to the embodiment. 実施の形態の設定画面の説明図である。It is an explanatory diagram of a setting screen of an embodiment. 実施の形態のメタデータ編集設定項目画面の説明図である。FIG. 3 is an explanatory diagram of a metadata editing setting item screen according to the embodiment. 実施の形態のIPTCフィールド設定画面の説明図である。It is an explanatory diagram of an IPTC field setting screen of an embodiment. 実施の形態のフィールド表示名変更ダイアログの説明図である。FIG. 3 is an explanatory diagram of a field display name change dialog according to the embodiment. 実施の形態のIPTCフィールド設定画面の説明図である。It is an explanatory diagram of an IPTC field setting screen of an embodiment. 実施の形態のIPTCフィールド設定画面の説明図である。It is an explanatory diagram of an IPTC field setting screen of an embodiment. 実施の形態のキャプション編集画面の説明図である。FIG. 3 is an explanatory diagram of a caption editing screen according to the embodiment. 実施の形態でボイスメモテキストがキャプションデータに加えられた状態のキャプション編集画面の説明図である。FIG. 6 is an explanatory diagram of a caption editing screen with voice memo text added to caption data in the embodiment. 実施の形態のIPTCメタデータ編集画面の説明図である。FIG. 3 is an explanatory diagram of an IPTC metadata editing screen according to the embodiment. 実施の形態のIPTCメタデータ編集画面の説明図である。FIG. 3 is an explanatory diagram of an IPTC metadata editing screen according to the embodiment. 実施の形態のボイスメモ自動キャプション付与設定画面の説明図である。It is an explanatory view of a voice memo automatic caption addition setting screen of an embodiment. 実施の形態の自動アップロード設定画面の自動アップロード設定オフ状態の説明図である。FIG. 3 is an explanatory diagram of an automatic upload setting OFF state of an automatic upload setting screen according to the embodiment. 実施の形態の自動アップロード設定画面の自動アップロード設定オン状態の説明図である。FIG. 6 is an explanatory diagram of the automatic upload setting screen in the embodiment when the automatic upload setting is on; 実施の形態の自動アップロード設定画面の自動アップロード設定オン状態説明図である。FIG. 6 is an explanatory diagram of the automatic upload setting ON state of the automatic upload setting screen according to the embodiment. 実施の形態の画像取り込みの際の処理例のフローチャートである。12 is a flowchart of an example of processing when capturing an image according to the embodiment. 実施の形態の画像取り込みの際の処理例のフローチャートである。12 is a flowchart of an example of processing when capturing an image according to the embodiment. 実施の形態のアップロードファイル準備処理のフローチャートである。3 is a flowchart of upload file preparation processing according to the embodiment. 実施の形態の画像一覧画面からの処理例のフローチャートである。12 is a flowchart of an example of processing from an image list screen according to the embodiment. 実施の形態の画像一覧画面からの処理例のフローチャートである。12 is a flowchart of an example of processing from an image list screen according to the embodiment. 実施の形態の画像一覧画面からの処理例のフローチャートである。12 is a flowchart of an example of processing from an image list screen according to the embodiment. 実施の形態のアップロード時の処理例のフローチャートである。12 is a flowchart of an example of processing at the time of uploading according to the embodiment. 実施の形態のIPTCフィールド設定画面に関する処理例のフローチャートである。12 is a flowchart of a processing example regarding the IPTC field setting screen according to the embodiment.

以下、実施の形態を次の順序で説明する。
<1.実施の形態の画像取り込みとアップロード>
<2.撮像装置の構成>
<3.情報処理装置の構成>
<4.ユーザインタフェース画面>
<5.画像取り込み時の処理例>
<6.テキスト化及びキャプション編集を含む処理例>
<7.アップロード時の処理例>
<8.IPTCフィールド設定画面に関する処理>
<9.まとめ及び変形例>
<10.本技術>
Hereinafter, embodiments will be described in the following order.
<1. Importing and uploading images in the embodiment>
<2. Configuration of imaging device>
<3. Configuration of information processing device>
<4. User interface screen>
<5. Example of processing when importing images>
<6. Processing example including text conversion and caption editing>
<7. Example of processing when uploading>
<8. Processing related to IPTC field setting screen>
<9. Summary and modifications>
<10. This technology>

<1.実施の形態の画像取り込みとアップロード>
本実施の形態の情報処理装置2を含む撮像装置1、FTPサーバ4、テキスト変換エンジン5、ネットワーク6を図1に示す。
<1. Importing and uploading images in the embodiment>
FIG. 1 shows an imaging device 1 including an information processing device 2 of this embodiment, an FTP server 4, a text conversion engine 5, and a network 6.

撮像装置1としては、ビデオカメラやスチルカメラとしての各種の撮像装置がある。図示する撮像装置1は、カメラマンや記者がスポーツやイベントの会場や取材現場などで用いるカメラを想定している。 The imaging device 1 includes various imaging devices such as a video camera and a still camera. The illustrated imaging device 1 is assumed to be a camera used by photographers and reporters at sports and event venues, reporting sites, and the like.

情報処理装置2は、ここではスマートフォン等の携帯型端末装置を例示している。
なお情報処理装置の具体例としては、例えばパーソナルコンピュータ装置、タブレット型情報処理装置、携帯電話装置、ゲーム機器、オーディオ機器、ビデオ機器、通信装置、テレビジョン装置、サーバ装置など、各種の例が想定される。情報処理としての演算を行うことのできる装置、例えばマイクロコンピュータを内蔵する装置であれば本開示の情報処理装置として実現可能である。
但し、上述のようにイベント会場等での使用を想定する場合、スマートフォンやタブレット機器などの携帯端末であることが好適である。
The information processing device 2 is exemplified here by a portable terminal device such as a smartphone.
Specific examples of information processing devices include various examples such as personal computers, tablet information processing devices, mobile phone devices, game devices, audio devices, video devices, communication devices, television devices, and server devices. be done. Any device capable of performing calculations as information processing, for example, a device incorporating a microcomputer, can be implemented as the information processing device of the present disclosure.
However, if the device is intended to be used at an event venue or the like as described above, it is preferable to use a mobile terminal such as a smartphone or a tablet device.

撮像装置1と情報処理装置2は、例えばブルートゥース(Bluetooth:登録商標)、WI-FI(登録商標)通信、NFC(Near Field Communication)等の近距離無線通信、赤外線通信により、相互に情報通信が可能とされる。
なお撮像装置1と情報処理装置2が有線接続通信によって相互に通信可能とされてもよい。
また情報処理装置2がFTPサーバ、撮像装置1がFTPクライアントとして機能し、撮像装置1から画像データ等が情報処理装置2にアップロードされる。即ち、撮像装置1には、FTP転送を行うためのFTP設定情報が記憶され、FTP設定情報を用いることにより情報処理装置2をFTPサーバとしたFTP転送が実行される。
The imaging device 1 and the information processing device 2 communicate information with each other using, for example, Bluetooth (registered trademark), WI-FI (registered trademark) communication, near field communication such as NFC (Near Field Communication), or infrared communication. It is considered possible.
Note that the imaging device 1 and the information processing device 2 may be able to communicate with each other through wired connection communication.
Further, the information processing device 2 functions as an FTP server, the imaging device 1 functions as an FTP client, and image data and the like are uploaded from the imaging device 1 to the information processing device 2. That is, the imaging device 1 stores FTP setting information for performing FTP transfer, and by using the FTP setting information, the FTP transfer is performed using the information processing device 2 as an FTP server.

本実施の形態の場合、撮像装置1から情報処理装置2には、画像ファイルPFや音声ファイルAFが送信される状況を想定する。
情報処理装置2は撮像装置1から転送された画像ファイルPFや音声ファイルAFを保持し、ユーザに提示したり、メタデータの付与や編集を行ったり、FTPサーバ4へアップロードしたりすることができる。
In the case of this embodiment, a situation is assumed in which an image file PF and an audio file AF are transmitted from the imaging device 1 to the information processing device 2.
The information processing device 2 holds the image file PF and audio file AF transferred from the imaging device 1, and can present them to the user, add and edit metadata, and upload them to the FTP server 4. .

撮像装置1は、撮像動作により静止画や動画としての画像データを生成する。なお、メタデータの付与は撮像装置1で行うことも可能である。
図1に示す画像ファイルPFとは、この画像データとメタデータを含むデータファイルであるとする。
The imaging device 1 generates image data as a still image or a moving image through an imaging operation. Note that the metadata can also be added by the imaging device 1.
It is assumed that the image file PF shown in FIG. 1 is a data file containing this image data and metadata.

撮像装置1はボイスメモ機能を備える。これは、ユーザが撮像時に声を入力することで、撮像画像に対する注釈、説明等を音声で付与することができる機能である。例えば1枚の静止画を撮像した際にカメラマンが所定の操作を行いながら画像内容を説明する発声を行ったり、画像を指定した状態で発声を行ったりすることで、その音声が録音され、画像データと関連付けられたボイスメモ(音声メモ)とされる。
図1に示す音声ファイルAFとは、このボイスメモとしての音声データを含むデータファイルであるとする。
なお、動画撮像時には、周囲音声も音声トラックデータとして記録されるが、その音声トラックデータは画像ファイルPFに含まれる音声データであり、音声ファイルAFとは別である。説明上の音声ファイルAFは、あくまでもボイスメモとしての音声データを含むファイルを指すものとする。
以下では、静止画撮像を想定し、画像ファイルPFには静止画像データとメタデータ、音声ファイルAFには静止画撮像に伴って生成されたボイスメモデータが含まれる例で説明していく。
The imaging device 1 has a voice memo function. This is a function that allows the user to add annotations, explanations, etc. to the captured image by voice by inputting voice when capturing the image. For example, when a single still image is captured, the cameraman can make a sound to explain the content of the image while performing certain operations, or say something while specifying the image, and the sound is recorded and the image is It is considered to be a voice memo associated with the data.
It is assumed that the audio file AF shown in FIG. 1 is a data file containing audio data as this voice memo.
Note that when capturing a moving image, ambient sound is also recorded as audio track data, but the audio track data is audio data included in the image file PF and is separate from the audio file AF. In the explanation, the audio file AF refers to a file containing audio data as a voice memo.
In the following description, assuming still image capturing, an example will be explained in which the image file PF includes still image data and metadata, and the audio file AF includes voice memo data generated in conjunction with still image capturing.

なお、必ずしも全ての画像ファイルPFに音声ファイルAFが関連付けられている訳では無く、あくまでカメラマン等がボイスメモ機能を用いて音声入力を行った場合にのみ、撮像装置1で音声ファイルAFが生成され、画像ファイルPFに関連付けられる。
従って撮像装置1から情報処理装置2へのデータ転送においては、画像ファイルPFと音声ファイルAFが対になって送信される場合と、画像ファイルPFのみが送信される場合がある。
Note that the audio file AF is not necessarily associated with every image file PF, and the audio file AF is generated by the imaging device 1 only when a cameraman or the like inputs audio using the voice memo function. Associated with image file PF.
Therefore, in data transfer from the imaging device 1 to the information processing device 2, there are cases where the image file PF and the audio file AF are sent as a pair, and cases where only the image file PF is sent.

情報処理装置2は、転送された画像ファイルPFや音声ファイルAFをネットワーク6を介してFTPサーバ4にアップロードすることができる。
ネットワーク6は、例えばインターネット、ホームネットワーク、LAN(Local Area Network)、衛星通信網、その他の各種のネットワークが想定される。
FTPサーバ4は、例えば新聞社、放送局、通信社などが運営するサーバが考えられる。もちろんそのようなサーバに限定されない。
FTPサーバ4の形態としてはクラウドサーバ、ホームサーバ、或いはパーソナルコンピュータなどが想定される。
The information processing device 2 can upload the transferred image file PF and audio file AF to the FTP server 4 via the network 6.
The network 6 is assumed to be, for example, the Internet, a home network, a LAN (Local Area Network), a satellite communication network, or other various networks.
The FTP server 4 may be, for example, a server operated by a newspaper company, broadcasting station, communication company, or the like. Of course, it is not limited to such servers.
The FTP server 4 is assumed to be a cloud server, a home server, a personal computer, or the like.

情報処理装置2は、単に撮像装置1から画像ファイルPF等をそのままFTPサーバ4にアップロードだけでなく、メタデータに含まれるキャプションデータを付加・編集したり画像サイズの設定、データ圧縮などを行ったりした上でアップロードすることができる。
また、情報処理装置2は、音声ファイルAFが関連付けられた画像ファイルPFについては、その音声ファイルAFにおける音声データ、即ち上述のボイスメモをテキスト化したテキストデータを取得し、メタデータに付加する処理も行った上で、アップロードすることができる。
The information processing device 2 not only simply uploads the image file PF etc. from the imaging device 1 to the FTP server 4, but also performs operations such as adding and editing caption data included in metadata, setting the image size, and compressing the data. You can then upload it.
Furthermore, for the image file PF associated with the audio file AF, the information processing device 2 also acquires the audio data in the audio file AF, that is, the text data obtained by converting the above-mentioned voice memo into text, and adds it to the metadata. You can then upload it.

特に、本実施の形態の場合、情報処理装置2は、メタデータの編集を容易にするためのインタフェース制御を行う。
具体的には後述するが、メタデータとしての各項目ごとの表示名を使いやすいものに変更する機能や、複数の項目から任意の項目のみを編集対象として表示する機能を提供する。
In particular, in the case of this embodiment, the information processing device 2 performs interface control to facilitate editing of metadata.
Specifically, as will be described later, it provides a function to change the display name of each item as metadata to an easy-to-use name, and a function to display only an arbitrary item from a plurality of items as an editing target.

ボイスメモのテキストデータ化は、情報処理装置2にテキスト変換エンジンが装備されることで、実行されるようにすることが考えられるが、情報処理装置2自体はテキスト変換機能を備えず、外部のテキスト変換エンジン5を用いるようにしてもよい。
例えば情報処理装置2は、ネットワーク6を介してテキスト変換エンジン5にボイスメモの音声データを送信する。
テキスト変換エンジン5は、この音声データをテキスト化する処理を行い、生成したテキストデータを情報処理装置2に送信する。これにより情報処理装置2はボイスメモをテキスト化したテキストデータを取得することができる。
なお説明上、ボイスメモをテキスト化したテキストデータを「ボイスメモテキスト」とも呼ぶこととする。
It is conceivable that the information processing device 2 is equipped with a text conversion engine to convert the voice memo into text data, but the information processing device 2 itself is not equipped with a text conversion function, and external text A conversion engine 5 may also be used.
For example, the information processing device 2 transmits audio data of a voice memo to the text conversion engine 5 via the network 6.
The text conversion engine 5 performs processing to convert this audio data into text, and sends the generated text data to the information processing device 2. This allows the information processing device 2 to obtain text data obtained by converting the voice memo into text.
For the sake of explanation, text data obtained by converting a voice memo into text will also be referred to as "voice memo text."

この図1のような通信システムが構築されることで、例えば撮像装置1のユーザが新聞社の仕事を行うプロカメラマンである場合、次のようなことが可能になる。
即ちカメラマンがイベント会場で撮像した画像を、自分のスマートフォン(情報処理装置2)に転送する。そしてスマートフォン等の情報処理装置2においてキャプション編集などの必要な作業を行った上で、情報処理装置2からFTPサーバ4に撮像画像をアップロードするというようなシステム利用態様が想定される。また、スマートフォン等の情報処理装置2に画像を転送した後、情報処理装置2において自動的にFTPサーバ4へのアップロードが行われてもよい。
このような態様において、ボイスメモがテキスト化されてメタデータに付加され、画像データとともにアップロードされるものとなる。
By constructing the communication system as shown in FIG. 1, for example, when the user of the imaging device 1 is a professional photographer working for a newspaper company, the following things become possible.
That is, the photographer transfers the image taken at the event venue to his/her smartphone (information processing device 2). It is assumed that the system will be used in such a manner that the captured image is uploaded from the information processing device 2 to the FTP server 4 after performing necessary operations such as caption editing on the information processing device 2 such as a smartphone. Further, after the image is transferred to the information processing device 2 such as a smartphone, the information processing device 2 may automatically upload the image to the FTP server 4.
In such an embodiment, the voice memo is converted into text, added to metadata, and uploaded together with image data.

<2.撮像装置の構成>
撮像装置1の構成例を図2で説明する。
撮像装置1は、例えばレンズ系11、撮像素子部12、カメラ信号処理部13、記録制御部14、表示部15、通信部16、操作部17、カメラ制御部18、メモリ部19、ドライバ部22、センサ部23、音声入力部25、音声処理部26を有する。
<2. Configuration of imaging device>
An example of the configuration of the imaging device 1 will be explained with reference to FIG.
The imaging device 1 includes, for example, a lens system 11, an image sensor section 12, a camera signal processing section 13, a recording control section 14, a display section 15, a communication section 16, an operation section 17, a camera control section 18, a memory section 19, and a driver section 22. , a sensor section 23, an audio input section 25, and an audio processing section 26.

レンズ系11は、ズームレンズ、フォーカスレンズ等のレンズや絞り機構などを備える。このレンズ系11により、被写体からの光(入射光)が導かれ撮像素子部12に集光される。 The lens system 11 includes lenses such as a zoom lens and a focus lens, an aperture mechanism, and the like. This lens system 11 guides light (incident light) from the subject and focuses it on the image sensor section 12 .

撮像素子部12は、例えば、CMOS(Complementary Metal Oxide Semiconductor)型やCCD(Charge Coupled Device)型などのイメージセンサ12a(撮像素子)を有して構成される。
この撮像素子部12では、イメージセンサ12aで受光した光を光電変換して得た電気信号について、例えばCDS(Correlated Double Sampling)処理、AGC(Automatic Gain Control)処理などを実行し、さらにA/D(Analog/Digital)変換処理を行う。そしてデジタルデータとしての撮像信号を、後段のカメラ信号処理部13やカメラ制御部18に出力する。
The image sensor section 12 includes, for example, an image sensor 12a (image sensor) such as a CMOS (Complementary Metal Oxide Semiconductor) type or a CCD (Charge Coupled Device) type.
The image sensor unit 12 performs, for example, CDS (Correlated Double Sampling) processing, AGC (Automatic Gain Control) processing, etc. on the electrical signal obtained by photoelectrically converting the light received by the image sensor 12a, and further performs A/D (Analog/Digital) Perform conversion processing. The imaging signal as digital data is then output to the camera signal processing section 13 and camera control section 18 at the subsequent stage.

カメラ信号処理部13は、例えばDSP(Digital Signal Processor)等により画像処理プロセッサとして構成される。このカメラ信号処理部13は、撮像素子部12からのデジタル信号(撮像画像信号)に対して、各種の信号処理を施す。例えばカメラプロセスとしてカメラ信号処理部13は、前処理、同時化処理、YC生成処理、解像度変換処理、ファイル形成処理等を行う。 The camera signal processing unit 13 is configured as an image processing processor using, for example, a DSP (Digital Signal Processor). This camera signal processing section 13 performs various signal processing on the digital signal (captured image signal) from the image sensor section 12. For example, as a camera process, the camera signal processing unit 13 performs preprocessing, synchronization processing, YC generation processing, resolution conversion processing, file formation processing, and the like.

前処理では、撮像素子部12からの撮像画像信号に対して、R,G,Bの黒レベルを所定のレベルにクランプするクランプ処理や、R,G,Bの色チャンネル間の補正処理等を行う。
同時化処理では、各画素についての画像データが、R,G,B全ての色成分を有するようにする色分離処理を施す。例えば、ベイヤー配列のカラーフィルタを用いた撮像素子の場合は、色分離処理としてデモザイク処理が行われる。
YC生成処理では、R,G,Bの画像データから、輝度(Y)信号および色(C)信号を生成(分離)する。
解像度変換処理では、各種の信号処理が施された画像データに対して、解像度変換処理を実行する。
In the preprocessing, clamping processing for clamping the R, G, and B black levels to predetermined levels, and correction processing between the R, G, and B color channels are performed on the captured image signal from the image sensor unit 12. conduct.
In the simultaneous processing, color separation processing is performed so that the image data for each pixel includes all R, G, and B color components. For example, in the case of an image sensor using a Bayer array color filter, demosaic processing is performed as color separation processing.
In the YC generation process, a luminance (Y) signal and a color (C) signal are generated (separated) from R, G, and B image data.
In the resolution conversion process, the resolution conversion process is performed on image data that has been subjected to various types of signal processing.

ファイル形成処理では、例えば以上の各種処理が施された画像データについて、例えば記録用や通信用の圧縮符号化、フォーマティング、メタデータの生成や付加などを行って記録用や通信用のファイル生成を行う。
例えば静止画ファイルとしてJPEG(Joint Photographic Experts Group)、TIFF(Tagged Image File Format)、GIF(Graphics Interchange Format)等の形式の画像ファイルPFの生成を行う。またMPEG-4準拠の動画・音声の記録に用いられているMP4フォーマットなどとしての画像ファイルPFの生成を行うことも考えられる。
なおロー(RAW)画像データとして画像ファイルPFを生成することも考えられる。
In the file formation process, for example, the image data that has been subjected to the various processes described above is compressed and encoded for recording and communication purposes, formatting, and generation and addition of metadata are performed to generate files for recording and communication purposes. I do.
For example, an image file PF in a format such as JPEG (Joint Photographic Experts Group), TIFF (Tagged Image File Format), or GIF (Graphics Interchange Format) is generated as a still image file. It is also conceivable to generate an image file PF in the MP4 format, which is used for recording video and audio in accordance with MPEG-4.
Note that it is also possible to generate the image file PF as raw (RAW) image data.

カメラ信号処理部13は、メタデータについては、カメラ信号処理部13内の処理パラメータの情報や、カメラ制御部18から取得する各種制御パラメータ、レンズ系11や撮像素子部12の動作状態を示す情報、モード設定情報、撮像環境情報(日時や場所など)を含むものとして生成する。
特に本実施の形態の場合図3に例示するIPTC(International Press Telecommunications Council)メタデータを含むものとする。
IPTCメタデータは、メディア企業団体が策定したフォーマットによるメタデータであり、図3はその一部の項目のみを例示しているが、「ディスクリプション/キャプション」「ディスクリプションライター」「ヘッドライン」「キーワード」など、多様な情報を記述可能とされる。
Regarding metadata, the camera signal processing section 13 includes information on processing parameters within the camera signal processing section 13, various control parameters acquired from the camera control section 18, and information indicating the operating states of the lens system 11 and the image sensor section 12. , mode setting information, and imaging environment information (date, time, location, etc.).
In particular, in the case of this embodiment, IPTC (International Press Telecommunications Council) metadata illustrated in FIG. 3 is included.
IPTC metadata is metadata in a format established by a media company organization, and Figure 3 shows only some of its items as examples, such as "description/caption", "description writer", "headline", " It is possible to write a variety of information such as "keywords".

記録制御部14は、例えば不揮発性メモリによる記録媒体に対して記録再生を行う。記録制御部14は例えば記録媒体に対し動画データや静止画データ等の画像ファイルやサムネイル画像等を記録する処理を行う。
記録制御部14の実際の形態は多様に考えられる。例えば記録制御部14は、撮像装置1に内蔵されるフラッシュメモリとその書込/読出回路として構成されてもよい。また記録制御部14は、撮像装置1に着脱できる記録媒体、例えばメモリカード(可搬型のフラッシュメモリ等)に対して記録再生アクセスを行うカード記録再生部による形態でもよい。また記録制御部14は、撮像装置1に内蔵されている形態としてHDD(Hard Disk Drive)などとして実現されることもある。
The recording control unit 14 performs recording and reproduction on a recording medium such as a nonvolatile memory. The recording control unit 14 performs processing for recording image files such as moving image data and still image data, thumbnail images, etc. onto a recording medium, for example.
The actual form of the recording control section 14 can be considered in various ways. For example, the recording control unit 14 may be configured as a flash memory built into the imaging device 1 and its writing/reading circuit. The recording control unit 14 may also be a card recording/reproducing unit that performs recording/reproducing access to a recording medium that can be attached to and detached from the imaging device 1, such as a memory card (portable flash memory, etc.). Further, the recording control unit 14 may be implemented as a built-in form of the imaging device 1, such as an HDD (Hard Disk Drive).

表示部15は撮像者に対して各種表示を行う表示部であり、例えば撮像装置1の筐体に配置される液晶パネル(LCD:Liquid Crystal Display)や有機EL(Electro-Luminescence)ディスプレイ等のディスプレイデバイスによる表示パネルやビューファインダーとされる。
表示部15は、カメラ制御部18の指示に基づいて表示画面上に各種表示を実行させる。
例えば表示部15は、記録制御部14において記録媒体から読み出された画像データの再生画像を表示させる。
また表示部15にはカメラ信号処理部13で表示用に解像度変換された撮像画像の画像データが供給され、表示部15はカメラ制御部18の指示に応じて、当該撮像画像の画像データに基づいて表示を行う場合がある。これにより構図確認中や動画記録中などの撮像画像である、いわゆるスルー画(被写体のモニタリング画像)が表示される。
また表示部15はカメラ制御部18の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を画面上に現出させる。
The display unit 15 is a display unit that provides various displays to the imager, and includes, for example, a display such as a liquid crystal display (LCD) or an organic EL (electro-luminescence) display disposed on the housing of the imaging device 1. It is considered to be a display panel or viewfinder depending on the device.
The display unit 15 executes various displays on the display screen based on instructions from the camera control unit 18.
For example, the display unit 15 displays a reproduced image of the image data read from the recording medium by the recording control unit 14.
Further, the display section 15 is supplied with image data of the captured image whose resolution has been converted for display by the camera signal processing section 13, and the display section 15 is supplied with the image data of the captured image based on the image data of the captured image in accordance with instructions from the camera control section 18. may be displayed. As a result, a so-called through image (monitoring image of the subject), which is an image captured while checking the composition or recording a video, is displayed.
Further, the display unit 15 causes various operation menus, icons, messages, etc., that is, displays as a GUI (Graphical User Interface), to appear on the screen based on instructions from the camera control unit 18.

通信部16は、外部機器との間のデータ通信やネットワーク通信を有線又は無線で行う。
例えば外部の表示装置、記録装置、再生装置等に対して撮像画像データ(静止画ファイルや動画ファイル)の送信出力を行う。
また通信部16はネットワーク通信部として、例えばインターネット、ホームネットワーク、LAN(Local Area Network)等の各種のネットワーク6による通信を行い、ネットワーク上のサーバ、端末等との間で各種データ送受信を行うことができる。例えば図1では記載を省略したが、通信部16は、撮像した画像データ(上述の画像ファイル等)をFTPサーバ4にアップロードする通信処理を行ってもよい。
また本実施の形態の場合、通信部16は、情報処理装置2との間で通信を行い、画像ファイルPFや音声ファイルAFの転送を実行する。
The communication unit 16 performs wired or wireless data communication and network communication with external devices.
For example, captured image data (still image files and video files) is transmitted and output to an external display device, recording device, playback device, etc.
Further, the communication unit 16 serves as a network communication unit, and performs communication using various networks 6 such as the Internet, a home network, and a LAN (Local Area Network), and sends and receives various data to and from servers, terminals, etc. on the network. I can do it. For example, although not shown in FIG. 1, the communication unit 16 may perform communication processing to upload captured image data (such as the above-mentioned image file) to the FTP server 4.
Further, in the case of the present embodiment, the communication unit 16 communicates with the information processing device 2 and transfers the image file PF and the audio file AF.

操作部17は、ユーザが各種操作入力を行うための入力デバイスを総括して示している。具体的には操作部17は撮像装置1の筐体に設けられた各種の操作子(キー、ダイヤル、タッチパネル、タッチパッド等)を示している。
操作部17によりユーザの操作が検知され、入力された操作に応じた信号はカメラ制御部18へ送られる。
The operation unit 17 collectively represents input devices through which the user performs various operation inputs. Specifically, the operation unit 17 indicates various operators (keys, dials, touch panels, touch pads, etc.) provided on the casing of the imaging device 1.
The operation unit 17 detects a user's operation, and a signal corresponding to the input operation is sent to the camera control unit 18.

カメラ制御部18はCPU(Central Processing Unit)を備えたマイクロコンピュータ(演算処理装置)により構成される。
メモリ部19は、カメラ制御部18が処理に用いる情報等を記憶する。図示するメモリ部19としては、例えばROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリなどを包括的に示している。
メモリ部19はカメラ制御部18としてのマイクロコンピュータチップに内蔵されるメモリ領域であってもよいし、別体のメモリチップにより構成されてもよい。
カメラ制御部18はメモリ部19のROMやフラッシュメモリ等に記憶されたプログラムを実行することで、この撮像装置1の全体を制御する。
例えばカメラ制御部18は、撮像素子部12のシャッタースピードの制御、カメラ信号処理部13における各種信号処理の指示、ユーザの操作に応じた撮像動作や記録動作、記録した画像ファイルの再生動作、記録した画像の転送動作やアップロード動作、レンズ鏡筒におけるズーム、フォーカス、絞り調整等のレンズ系11の動作、ユーザインタフェース動作等について、必要各部の動作を制御する。
The camera control section 18 is constituted by a microcomputer (arithmetic processing unit) equipped with a CPU (Central Processing Unit).
The memory unit 19 stores information and the like used by the camera control unit 18 for processing. The illustrated memory section 19 includes, for example, a ROM (Read Only Memory), a RAM (Random Access Memory), a flash memory, and the like.
The memory section 19 may be a memory area built into a microcomputer chip as the camera control section 18, or may be constituted by a separate memory chip.
The camera control unit 18 controls the entire imaging device 1 by executing programs stored in the ROM, flash memory, etc. of the memory unit 19.
For example, the camera control unit 18 controls the shutter speed of the image sensor unit 12, instructs various signal processing in the camera signal processing unit 13, performs imaging operations and recording operations in response to user operations, reproduces recorded image files, and performs recording. It controls the operations of each necessary part, such as the transfer operation and upload operation of the image, the operation of the lens system 11 such as zoom, focus, and aperture adjustment in the lens barrel, and the operation of the user interface.

メモリ部19におけるRAMは、カメラ制御部18のCPUの各種データ処理の際の作業領域として、データやプログラム等の一時的な格納に用いられる。
メモリ部19におけるROMやフラッシュメモリ(不揮発性メモリ)は、CPUが各部を制御するためのOS(Operating System)や、画像ファイル等のコンテンツファイルの他、各種動作のためのアプリケーションプログラムや、ファームウエア、各種の設定情報等の記憶に用いられる。
各種の設定情報としては、上述のFTP設定情報や、撮像動作に関する設定情報としての露出設定、シャッタースピード設定、モード設定や、画像処理に係る設定情報としてのホワイトバランス設定、色設定、画像エフェクトに関する設定や、操作性に係る設定情報としてのカスタムキー設定や表示設定などがある。
The RAM in the memory unit 19 is used to temporarily store data, programs, etc. as a work area when the CPU of the camera control unit 18 processes various data.
The ROM and flash memory (non-volatile memory) in the memory unit 19 contain an OS (Operating System) for the CPU to control each part, content files such as image files, application programs for various operations, and firmware. , used to store various setting information, etc.
Various setting information includes the above-mentioned FTP setting information, exposure settings, shutter speed settings, and mode settings as setting information related to imaging operations, and white balance settings, color settings, and image effects as setting information related to image processing. There are custom key settings and display settings as setting information related to settings and operability.

ドライバ部22には、例えばズームレンズ駆動モータに対するモータドライバ、フォーカスレンズ駆動モータに対するモータドライバ、絞り機構のモータに対するモータドライバ等が設けられている。
これらのモータドライバはカメラ制御部18からの指示に応じて駆動電流を対応するドライバに印加し、フォーカスレンズやズームレンズの移動、絞り機構の絞り羽根の開閉等を実行させることになる。
The driver section 22 is provided with, for example, a motor driver for a zoom lens drive motor, a motor driver for a focus lens drive motor, a motor driver for an aperture mechanism motor, and the like.
These motor drivers apply drive current to the corresponding drivers in response to instructions from the camera control unit 18 to move the focus lens and zoom lens, open and close the aperture blades of the aperture mechanism, and so on.

センサ部23は、撮像装置に搭載される各種のセンサを包括的に示している。
センサ部23としては例えばIMU(inertial measurement unit:慣性計測装置)が搭載されており、例えばピッチ、ヨー、ロールの3軸の角速度(ジャイロ)センサで角速度を検出し、加速度センサで加速度を検出することができる。
またセンサ部23としては、例えば位置情報センサ、照度センサ、近接センサ等が搭載される場合もある。
The sensor section 23 comprehensively represents various sensors installed in the imaging device.
The sensor unit 23 is equipped with, for example, an IMU (inertial measurement unit), which detects angular velocity with a three-axis angular velocity (gyro) sensor of pitch, yaw, and roll, and detects acceleration with an acceleration sensor. be able to.
Further, as the sensor section 23, for example, a position information sensor, an illuminance sensor, a proximity sensor, etc. may be installed.

音声入力部25は例えばマイクロホン及びマイクアンプ等を有し、周囲音声を集音した音声信号を出力する。
音声処理部26は、音声入力部25で得られた音声信号についてデジタル音声信号に変換する処理や、AGC処理、音質処理、ノイズリダクション処理などを行う。これらの処理を経た音声データはカメラ信号処理部13やカメラ制御部18に出力される。
例えば音声データは、動画撮像時にはカメラ制御部18において動画に付随する音声データとして処理される。
The audio input section 25 includes, for example, a microphone and a microphone amplifier, and outputs an audio signal obtained by collecting ambient sounds.
The audio processing unit 26 performs processing for converting the audio signal obtained by the audio input unit 25 into a digital audio signal, AGC processing, sound quality processing, noise reduction processing, and the like. The audio data that has undergone these processes is output to the camera signal processing section 13 and camera control section 18.
For example, when capturing a moving image, the audio data is processed by the camera control unit 18 as audio data accompanying the moving image.

また音声データは、撮像時などにおける、いわゆるボイスメモとしての音声データとして、カメラ信号処理部13或いはカメラ制御部18において音声ファイルAFとしてファイル化されるようにすることもできる。
音声ファイルAFは、記録制御部14において画像ファイルに対応づけられて記録媒体に記録されたり、通信部16から画像ファイルとともに送信出力されたりすることができる。
Further, the audio data can be converted into a file as an audio file AF in the camera signal processing unit 13 or the camera control unit 18 as audio data as a so-called voice memo during image capturing.
The audio file AF can be recorded on a recording medium in association with the image file by the recording control section 14, or can be transmitted and output from the communication section 16 together with the image file.

<3.情報処理装置の構成>
例えば携帯端末装置などとされる情報処理装置2の構成例を図4に示す。
情報処理装置2のCPU71は、ROM72に記憶されているプログラム、または記憶部79からRAM73にロードされたプログラムに従って各種の処理を実行する。RAM73にはまた、CPU71が各種の処理を実行する上において必要なデータなども適宜記憶される。
CPU71、ROM72、およびRAM73は、バス74を介して相互に接続されている。このバス74にはまた、入出力インタフェース75も接続されている。
<3. Configuration of information processing device>
FIG. 4 shows a configuration example of the information processing device 2, which is, for example, a mobile terminal device.
The CPU 71 of the information processing device 2 executes various processes according to programs stored in the ROM 72 or programs loaded into the RAM 73 from the storage section 79. The RAM 73 also appropriately stores data necessary for the CPU 71 to execute various processes.
The CPU 71, ROM 72, and RAM 73 are interconnected via a bus 74. An input/output interface 75 is also connected to this bus 74.

入出力インタフェース75には、操作子や操作デバイスよりなる入力部76が接続される。
例えば入力部76としては、キーボード、マウス、キー、ダイヤル、タッチパネル、タッチパッド、リモートコントローラ等の各種の操作子や操作デバイスが想定される。
入力部76によりユーザの操作が検知され、入力された操作に応じた信号はCPU71によって解釈される。
The input/output interface 75 is connected to an input section 76 consisting of an operator or an operating device.
For example, as the input unit 76, various operators and operating devices such as a keyboard, a mouse, a key, a dial, a touch panel, a touch pad, and a remote controller are assumed.
A user's operation is detected by the input unit 76, and a signal corresponding to the input operation is interpreted by the CPU 71.

また入出力インタフェース75には、LCD或いは有機ELパネルなどよりなる表示部77や、スピーカなどよりなる音声出力部78が一体又は別体として接続される。
表示部77は各種表示を行う表示部であり、例えば情報処理装置2の筐体に設けられるディスプレイデバイスや、情報処理装置2に接続される別体のディスプレイデバイス等により構成される。
表示部77は、CPU71の指示に基づいて表示画面上に各種の画像処理のための画像や処理対象の動画等の表示を実行する。また表示部77はCPU71の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を行う。
Further, a display section 77 consisting of an LCD or an organic EL panel, and an audio output section 78 consisting of a speaker etc. are connected to the input/output interface 75 either integrally or separately.
The display unit 77 is a display unit that performs various displays, and is configured by, for example, a display device provided in the casing of the information processing device 2, a separate display device connected to the information processing device 2, or the like.
The display unit 77 displays images for various image processing, moving images to be processed, etc. on the display screen based on instructions from the CPU 71. Further, the display unit 77 displays various operation menus, icons, messages, etc., ie, as a GUI (Graphical User Interface), based on instructions from the CPU 71.

入出力インタフェース75には、ハードディスクや固体メモリなどより構成される記憶部79や、モデムなどより構成される通信部80が接続される場合もある。 The input/output interface 75 may be connected to a storage section 79 made up of a hard disk, a solid state memory, etc., and a communication section 80 made up of a modem or the like.

通信部80は、インターネット等の伝送路を介しての通信処理や、各種機器との有線/無線通信、バス通信などによる通信を行う。
本実施の形態の場合、通信部80は、撮像装置1との間で、例えば上述のFTP通信、ブルートゥース、WI-FI、NFC等の近距離無線通信、赤外線通信、有線接続通信などによる通信を行う機能を備える。
The communication unit 80 performs communication processing via a transmission path such as the Internet, and communicates with various devices by wire/wireless communication, bus communication, etc.
In the case of this embodiment, the communication unit 80 communicates with the imaging device 1 by, for example, the above-mentioned FTP communication, short-range wireless communication such as Bluetooth, WI-FI, NFC, infrared communication, wired connection communication, etc. have the functionality to do so.

入出力インタフェース75にはまた、必要に応じてドライブ82が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記録媒体81が適宜装着される。
ドライブ82により、リムーバブル記録媒体81からは画像ファイル等のデータファイルや、各種のコンピュータプログラムなどを読み出すことができる。読み出されたデータファイルは記憶部79に記憶されたり、データファイルに含まれる画像や音声が表示部77や音声出力部78で出力されたりする。またリムーバブル記録媒体81から読み出されたコンピュータプログラム等は必要に応じて記憶部79にインストールされる。
A drive 82 is also connected to the input/output interface 75 as necessary, and a removable recording medium 81 such as a magnetic disk, optical disk, magneto-optical disk, or semiconductor memory is appropriately loaded.
The drive 82 can read data files such as image files and various computer programs from the removable recording medium 81. The read data file is stored in the storage section 79, and images and sounds included in the data file are outputted on the display section 77 and the audio output section 78. Further, computer programs and the like read from the removable recording medium 81 are installed in the storage unit 79 as necessary.

情報処理装置2にはテキスト変換エンジン83としてのプロセッサが装備される場合がある。
テキスト変換エンジン83は、例えば音声データを解析してテキストデータに変換する処理を行う。
なお、上述のように外部のテキスト変換エンジン5を利用する場合は、情報処理装置2がテキスト変換エンジン83としてのプロセッサを備えていなくてもよい。
The information processing device 2 may be equipped with a processor as the text conversion engine 83.
The text conversion engine 83 performs a process of analyzing audio data and converting it into text data, for example.
Note that when using the external text conversion engine 5 as described above, the information processing device 2 does not need to include a processor as the text conversion engine 83.

この情報処理装置2では、例えば本開示の処理のためのソフトウエアを、通信部80によるネットワーク通信やリムーバブル記録媒体81を介してインストールすることができる。或いは当該ソフトウエアは予めROM72や記憶部79等に記憶されていてもよい。 In this information processing device 2, for example, software for the processing of the present disclosure can be installed via network communication by the communication unit 80 or the removable recording medium 81. Alternatively, the software may be stored in advance in the ROM 72, storage section 79, or the like.

例えばこのようなソフトウエア(アプリケーションプログラム)によって、図5のような機能構成が情報処理装置2のCPU71において構築される。
図5には情報処理装置2に設けられる機能として、UI(ユーザインタフェース)制御部31、通信制御部32、テキスト取得部33、データ管理部34、アップロード処理部35を示している。
For example, a functional configuration as shown in FIG. 5 is constructed in the CPU 71 of the information processing device 2 using such software (application program).
FIG. 5 shows a UI (user interface) control section 31, a communication control section 32, a text acquisition section 33, a data management section 34, and an upload processing section 35 as functions provided in the information processing device 2.

UI制御部31は、撮像装置1から転送されてくる画像ファイルPFや音声ファイルAFをユーザに提示したり、各種情報の設定や編集等のためのユーザ操作を受け付けたりするユーザインタフェース処理を行う。
ユーザインタフェース処理としては、ユーザに対する表示出力や音声出力等の出力を行ってユーザに操作入力環境を提供する処理、ユーザに対して各種情報の提示のための表示出力や音声出力を行う処理、ユーザによる操作を検知する処理、ユーザの意思を検知/推定する処理などがある。
UI制御部31は、例えばユーザに対する表示出力や音声出力等の出力を行ってユーザに操作入力環境を提供する処理を行う。
或いはUI制御部31は、例えばユーザによる操作を検知する処理を行う。
或いはUI制御部31は、例えばユーザに操作入力環境を提供する処理と、ユーザによる操作を検知する処理の両方を行う。
もちろんUI制御部31は他のユーザインタフェース処理を行ってもよい。
The UI control unit 31 performs user interface processing such as presenting the image file PF and audio file AF transferred from the imaging device 1 to the user, and accepting user operations for setting and editing various information.
User interface processing includes processing that provides an operation input environment to the user by outputting display output and audio output to the user, processing that performs display output and audio output to present various information to the user, There are processes for detecting user operations, and processes for detecting/estimating user intentions.
The UI control unit 31 performs a process of providing an operation input environment to the user by outputting display output, audio output, etc. to the user, for example.
Alternatively, the UI control unit 31 performs a process of detecting a user's operation, for example.
Alternatively, the UI control unit 31 performs, for example, both the process of providing the user with an operation input environment and the process of detecting the user's operation.
Of course, the UI control unit 31 may perform other user interface processing.

UI制御部31は、音声ファイルAFのボイスメモをテキスト化したボイスメモテキストを、自動的に画像データに付加されたメタデータにおけるキャプションデータの一部として追加する処理をオン/オフすることのできるUI環境を提供する。
またUI制御部31は、ボイスメモテキストを画像データに対応するメタデータとする処理を行った後において画像データとメタデータを含む画像ファイルPFをFTPサーバ4にアップロードする処理を自動的に行うか否かを設定できるUI環境を提供する。又、その場合に音声ファイルAFをアップロードするか否かを設定できるようにもする。
またUI制御部31は、ボイスメモテキストを表示させたり音声再生させたりするUI環境も提供する。
The UI control unit 31 is a UI environment that can turn on/off processing for automatically adding voice memo text, which is a voice memo of an audio file AF, as a part of caption data in metadata added to image data. I will provide a.
The UI control unit 31 also determines whether to automatically upload the image file PF including the image data and metadata to the FTP server 4 after processing the voice memo text into metadata corresponding to the image data. Provides a UI environment that allows you to set In addition, it is also possible to set whether or not to upload the audio file AF in that case.
The UI control unit 31 also provides a UI environment for displaying voice memo text and reproducing audio.

なお、本実施の形態におけるUI制御部31は、メタデータの項目(フィールド)ごとの表示/非表示を切り換え可能とするためのユーザインタフェース処理を行う。また、メタデータの項目ごとの表示名を変更する操作を可能とするためのユーザインタフェース処理を行う。 Note that the UI control unit 31 in this embodiment performs user interface processing to enable switching between display and non-display of each item (field) of metadata. It also performs user interface processing to enable operations to change the display name of each item of metadata.

通信制御部32は、通信部80による通信動作を制御する機能である。
この通信制御部32は、撮像装置1との通信を通信部80に実行させる処理を行う。
The communication control unit 32 has a function of controlling communication operations by the communication unit 80.
The communication control unit 32 performs a process of causing the communication unit 80 to communicate with the imaging device 1 .

テキスト取得部33は、撮像装置1から音声ファイルAFが転送されてきた場合に、音声ファイルAFに含まれるボイスメモをテキスト化したボイスメモテキストを取得する処理を行う。
具体的にはテキスト取得部33は、テキスト変換エンジン83にテキスト化処理を実行させ、ボイスメモテキストを取得する。
或いはテキスト取得部33は、ボイスメモとしての音声データを通信部80からテキスト変換エンジン5に送信し、テキスト変換エンジン5から返信されてくるボイスメモテキストを取得する処理を行う。
When the audio file AF is transferred from the imaging device 1, the text acquisition unit 33 performs a process of acquiring a voice memo text obtained by converting the voice memo included in the audio file AF into text.
Specifically, the text acquisition unit 33 causes the text conversion engine 83 to execute text conversion processing, and acquires the voice memo text.
Alternatively, the text acquisition unit 33 performs a process of transmitting audio data as a voice memo from the communication unit 80 to the text conversion engine 5 and acquiring the voice memo text returned from the text conversion engine 5.

データ管理部34は、撮像装置1から送信される画像データを含む画像ファイルPF及び関連するボイスメモを含む音声ファイルAFを受信した後に、音声ファイルAFに含まれるボイスメモについてテキスト取得部33で取得したボイスメモテキストを、画像データに対応するメタデータとする処理を行う機能である。
またデータ管理部34は、撮像装置1から送信されてきた画像ファイルPFや音声ファイルAFの記憶、編集等の処理を行う。例えば画像データの編集、メタデータの付加(タグの付加)、各種動作設定に関する処理などを行う。
After receiving the image file PF including the image data transmitted from the imaging device 1 and the audio file AF including the related voice memo, the data management unit 34 receives the voice memo acquired by the text acquisition unit 33 regarding the voice memo included in the audio file AF. This is a function that processes text into metadata corresponding to image data.
The data management unit 34 also performs processing such as storing and editing the image file PF and audio file AF transmitted from the imaging device 1. For example, it performs processing related to editing image data, adding metadata (adding tags), and various operation settings.

アップロード処理部35は、通信部80を介したFTPサーバ4へのアップロード処理を行う機能である。
特にアップロード処理部35は、データ管理部34が音声ファイルAFについてのボイスメモテキストを画像データに対応するメタデータとする処理を行った後に、画像ファイルPF(画像データとメタデータ)をFTPサーバ4にアップロードする処理を行う。アップロード処理部35は、画像ファイルPFとともに音声ファイルAFをFTPサーバ4にアップロードする場合もある。
The upload processing unit 35 is a function that performs upload processing to the FTP server 4 via the communication unit 80.
In particular, the upload processing unit 35 transfers the image file PF (image data and metadata) to the FTP server 4 after the data management unit 34 processes the voice memo text for the audio file AF into metadata corresponding to the image data. Perform the upload process. The upload processing unit 35 may upload the audio file AF to the FTP server 4 together with the image file PF.

以上の各機能は、例えば情報処理装置2が本開示の処理を実現するアプリケーションソフトウェアをインストールすることで具備される。
情報処理装置2は、以上の機能のうちUI制御部31を備えることで、メタデータの編集を容易にするための各処理が実行される。
Each of the above functions is provided, for example, by the information processing device 2 installing application software that implements the processing of the present disclosure.
Among the above functions, the information processing device 2 includes the UI control unit 31 to execute various processes for facilitating editing of metadata.

<4.ユーザインタフェース画面>
以下、情報処理装置2の表示部77におけるUI画面について説明する。以下の各画面はCPU71がUI制御部31の機能により表示部77において表示させる画面の例である。説明では、例えば情報処理装置2としてスマートフォンを想定し、その筐体上に形成されたディスプレイにおける表示内容を想定している。
<4. User interface screen>
The UI screen on the display unit 77 of the information processing device 2 will be described below. The following screens are examples of screens that the CPU 71 displays on the display section 77 using the functions of the UI control section 31. In the description, for example, a smartphone is assumed as the information processing device 2, and the display contents on a display formed on the housing thereof are assumed.

図6は画像一覧画面50を示している。
この画像一覧画面50は、撮像装置1から転送された画像ファイルPFの画像データがサムネイル画像により一覧表示される画面である。
FIG. 6 shows the image list screen 50.
The image list screen 50 is a screen on which image data of the image file PF transferred from the imaging device 1 is displayed as a list of thumbnail images.

画像一覧画面50には画像一覧領域101が設けられ、この画像一覧領域101に撮像装置1から取り込んだ画像データのサムネイル画像103が一覧表示される。なお一覧表示する対象の画像は、取り込んだ全ての画像としたり、プロテクトされた画像のみとしたりするなどを選択できる。画像の数が多く一画面で表示しきれない場合は、スクロールやページ送りなどにより各画像(サムネイル画像103)が表示される。 The image list screen 50 is provided with an image list area 101, and a list of thumbnail images 103 of image data captured from the imaging device 1 is displayed in this image list area 101. Note that you can select to display a list of images, such as all captured images or only protected images. If there are too many images to display on one screen, each image (thumbnail image 103) is displayed by scrolling or turning pages.

各サムネイル画像103に対応して画像情報104が表示される。画像情報104には例えば「DSC00000」などの画像データ名や、プロテクト状態を示すアイコン、FTPアップロードに関するアイコンなどが表示される。 Image information 104 is displayed corresponding to each thumbnail image 103. The image information 104 displays, for example, an image data name such as "DSC00000", an icon indicating a protection status, an icon related to FTP upload, and the like.

また一覧表示される画像データ(画像ファイルPF)の中にはボイスメモとしての音声ファイルAFが関連付けられているものもある。対応するボイスメモが存在する画像データについては、そのサムネイル画像103上にボイスメモマーク105が表示されるようにしている。 Also, some of the image data (image files PF) displayed as a list are associated with audio files AF as voice memos. For image data for which a corresponding voice memo exists, a voice memo mark 105 is displayed on the thumbnail image 103 thereof.

画像一覧画面50にはメニューボタン102が表示される。ユーザがメニューボタン102をタップする等の操作を行うと、表示は後述するメニュー画面55に遷移する。 A menu button 102 is displayed on the image list screen 50. When the user performs an operation such as tapping the menu button 102, the display transitions to a menu screen 55 to be described later.

図7は、メニュー画面55の一例である。メニュー画面55にはメニュー画面55を閉じるための閉じるボタン109が設けられている。 FIG. 7 is an example of the menu screen 55. The menu screen 55 is provided with a close button 109 for closing the menu screen 55.

メニュー画面55には、メニュー項目として、FTPアップロードプリセット項目141、IPTCメタデータプリセット項目142、キャプションテンプレート項目143、キャプション用語集項目144、FTP取り込み履歴項目145、取り込み項目146、設定項目147、ボイスメモ自動キャプション付与項目148、サポートページ項目149、MACアドレス確認項目150、データ削除項目151、アカウント項目152が設けられている。もちろんこれらは一例に過ぎず、メニュー項目の内容は多様な例が考えられる。また項目数がさらに多くてもよいし、階層化されても良い。項目数が多い場合はスクロールやページ送りにより各項目が表示される。 The menu screen 55 includes menu items such as FTP upload preset item 141, IPTC metadata preset item 142, caption template item 143, caption glossary item 144, FTP import history item 145, import item 146, setting item 147, and voice memo auto. A caption addition item 148, a support page item 149, a MAC address confirmation item 150, a data deletion item 151, and an account item 152 are provided. Of course, these are just examples, and various examples of menu item contents are possible. Further, the number of items may be larger or may be hierarchical. If there are many items, each item will be displayed by scrolling or turning the page.

ここでは、本実施の形態の処理に関する項目として、設定項目147を選択する操作について説明する。
設定項目147が選択されると、図8に示す設定画面56が表示される。設定画面56には設定項目として、キャプション用語集の同期項目201、取り込み項目202、メタデータ編集設定項目203、自動FTPアップロード項目204が表示される。もちろんこれは一例である。例えば、ボイスメモ自動キャプション付与項目148が図8に示す設定画面56で設定可能な設定項目として表示されてもよい。或いは、取り込み項目202に対する選択操作を行った際に遷移する画面で設定可能な設定項目として表示されてもよい。
この設定画面56でユーザがメタデータ編集設定項目203を操作すると、図9に示すメタデータ編集設定項目画面66が表示される。
Here, an operation for selecting the setting item 147 will be described as an item related to the processing of this embodiment.
When the setting item 147 is selected, a setting screen 56 shown in FIG. 8 is displayed. The setting screen 56 displays a caption glossary synchronization item 201, an import item 202, a metadata editing setting item 203, and an automatic FTP upload item 204 as setting items. Of course this is just one example. For example, the voice memo automatic captioning item 148 may be displayed as a setting item that can be set on the setting screen 56 shown in FIG. Alternatively, it may be displayed as a setting item that can be set on a screen that changes when a selection operation is performed on the import item 202.
When the user operates the metadata editing setting item 203 on this setting screen 56, a metadata editing setting item screen 66 shown in FIG. 9 is displayed.

メタデータ編集設定項目画面66には、IPTCメタデータ埋め込み方法設定項目205とIPTCフィールド設定項目206が表示される。 The metadata editing setting item screen 66 displays an IPTC metadata embedding method setting item 205 and an IPTC field setting item 206.

IPTCフィールド設定項目206は、IPTCメタデータに含まれる各項目の編集が可能である。
IPTCフィールド設定項目206が選択されると、図10に示すIPTCフィールド設定画面67が表示される。
The IPTC field setting items 206 allow editing of each item included in the IPTC metadata.
When the IPTC field setting item 206 is selected, an IPTC field setting screen 67 shown in FIG. 10 is displayed.

IPTCフィールド設定画面67は、図10に示すように、IPTCメタデータに含まれる各項目が表示されると共に、各項目に対する操作子や表示部が配置されている。
具体的には、一つの項目ごとに、項目名表示部220、オン/オフ設定表示部221、編集ボタン222が設けられている。
As shown in FIG. 10, on the IPTC field setting screen 67, each item included in the IPTC metadata is displayed, and controls and display sections for each item are arranged.
Specifically, an item name display section 220, an on/off setting display section 221, and an edit button 222 are provided for each item.

項目名表示部220には、図10に示すように、仕様としてIPTCメタデータの項目ごとに予め決定されているフィールド名が表示されている。例えば、「Caption/Description」や「Description Writers」などである。 As shown in FIG. 10, the item name display section 220 displays field names that are predetermined for each item of IPTC metadata as specifications. Examples include "Caption/Description" and "Description Writers."

なお、「Caption/Description」は前述の「ディスクリプション/キャプション」項目のフィールド名である。また、「Description Writers」は前述の「ディスクリプションライター」項目のフィールド名である。 Note that "Caption/Description" is the field name of the aforementioned "Description/Caption" item. Further, "Description Writers" is the field name of the "Description Writer" item mentioned above.

オン/オフ設定表示部221は、各項目の表示のオン状態またはオフ状態が判別可能なアイコン画像が排他的に表示される。即ち、オン状態のアイコン画像とオフ状態のアイコン画像は項目ごとに何れか一方のみが表示される。
また、オン/オフ設定表示部221は、表示のオン状態とオフ状態を変更可能な操作子としても機能する。
The on/off setting display section 221 exclusively displays icon images that can determine whether the display of each item is on or off. That is, only one of the on-state icon image and the off-state icon image is displayed for each item.
The on/off setting display section 221 also functions as an operator that can change the display on and off states.

ここで、表示のオン状態とオフ状態について説明する。
表示のオン状態とは、後述するIPTCメタデータの編集画面において編集の必要がある項目に対して設定される状態であり、編集画面に表示される項目であることを示す状態である。
表示のオフ状態とは、後述するIPTCメタデータの編集画面において編集しない項目に対して設定される状態であり、編集画面において非表示とされる項目であることを示す状態である。
即ち、ユーザは、項目ごとに表示のオン状態とオフ状態を切り換えることで、編集画面において編集する項目だけを表示することが可能とされる。
なお、確実に編集対象から外れる項目のみがオフ状態となるように操作してもよい。
Here, the on state and off state of display will be explained.
The display on state is a state that is set for an item that needs to be edited on an IPTC metadata editing screen, which will be described later, and is a state that indicates that the item is displayed on the editing screen.
The display off state is a state that is set for an item that is not edited on an IPTC metadata editing screen, which will be described later, and is a state that indicates that the item is not displayed on the editing screen.
That is, the user can display only the items to be edited on the editing screen by switching the display on and off for each item.
Note that the operation may be performed so that only items that are definitely removed from the editing target are turned off.

編集ボタン222は、IPTCメタデータの各項目の表示名を編集するための操作子として設けられている。
ここで、IPTCメタデータの項目ごとのフィールド名と表示名について説明する。
フィールド名は、前述したように仕様により決定されているものであり、変更不可能とされている。但し、フィールド名はユーザにとって分かりにくいものである場合がある。
そこで、本実施の形態においては、情報処理装置2で動作するプログラム(アプリケーション)上ではユーザが設定した任意の名称で各項目を表示することが可能とされている。即ち、ユーザが設定可能な任意の名称が「表示名」である。
The edit button 222 is provided as an operator for editing the display name of each item of IPTC metadata.
Here, field names and display names for each item of IPTC metadata will be explained.
As described above, the field name is determined by the specifications and cannot be changed. However, field names may be difficult for users to understand.
Therefore, in the present embodiment, each item can be displayed with any name set by the user on the program (application) running on the information processing device 2. That is, the "display name" is any name that can be set by the user.

図10に示す状態は、各項目がフィールド名で示されており、表示名が未設定である状態を示している。
なお、IPTCメタデータにおける各項目のうち、「ディスクリプション/キャプション」項目における項目名表示部220を項目名表示部220Aとして着目する。また、「ディスクリプション/キャプション」項目における編集ボタン222を編集ボタン222Aとして着目する。
更に、「ヘッドライン」項目におけるオン/オフ設定表示部221をオン/オフ設定表示部221Bとし、「キーワード]項目におけるオン/オフ設定表示部221をオン/オフ設定表示部221Cとして着目する。
The state shown in FIG. 10 shows a state in which each item is indicated by a field name and a display name has not been set.
Note that among the items in the IPTC metadata, the item name display section 220 in the "Description/Caption" item will be focused on as the item name display section 220A. Also, focus on the edit button 222 in the "Description/Caption" item as the edit button 222A.
Furthermore, the on/off setting display section 221 in the "Headline" item is referred to as an on/off setting display section 221B, and the on/off setting display section 221 in the "keyword" item is focused on as an on/off setting display section 221C.

ユーザが「ディスクリプション/キャプション」項目における編集ボタン222Aを操作すると、図11に示すフィールド表示名変更ダイアログ68が重畳表示される。
フィールド表示名変更ダイアログ68には、デフォルト適用項目223、表示名入力欄224、変更項目225、キャンセル項目226が表示される。
デフォルト適用項目223は、デフォルトの表示名、即ち、本例であればフィールド名である「Caption/Description」の文字列が表示名に適用される。
When the user operates the edit button 222A in the "Description/Caption" item, a field display name change dialog 68 shown in FIG. 11 is displayed in a superimposed manner.
The field display name change dialog 68 displays a default application item 223, a display name input field 224, a change item 225, and a cancel item 226.
In the default application item 223, the default display name, that is, in this example, the character string "Caption/Description" which is the field name is applied to the display name.

表示名入力欄224は、任意の表示名を入力するためのテキストボックスであり、例えば表示名入力欄224をタップ操作することによりフィールド表示名変更ダイアログ68の下方にソフトウェアキーボード131が表示される。ユーザは、ソフトウェアキーボード131に対する操作を行うことにより、表示名入力欄224に文字列を入力することが可能とされる。 The display name input field 224 is a text box for inputting an arbitrary display name. For example, by tapping the display name input field 224, the software keyboard 131 is displayed below the field display name change dialog 68. The user can input a character string into the display name input field 224 by operating the software keyboard 131.

変更項目225は、表示名入力欄224に入力された文字列をフィールドの表示名に適用する際に操作される項目である。図11に示す状態で変更項目225が操作された場合、「ディスクリプション/キャプション」項目の表示名が「説明」に設定される。 The change item 225 is an item operated when applying the character string input in the display name input field 224 to the display name of the field. When the change item 225 is operated in the state shown in FIG. 11, the display name of the "Description/Caption" item is set to "Description."

キャンセル項目226は、表示名の変更をキャンセルする際に操作される項目であり、キャンセル項目226に対する操作を行うと、表示名入力欄224に入力された文字列は無視されて、フィールド表示名変更ダイアログ68が表示される前の状態へと戻る。 The cancel item 226 is an item that is operated when canceling the change of the display name. When the cancel item 226 is operated, the character string input in the display name input field 224 is ignored and the field display name is changed. The state returns to the state before the dialog 68 was displayed.

デフォルト適用項目223、変更項目225またはキャンセル項目226が操作されると、フィールド表示名変更ダイアログ68の重畳表示が終了し、IPTCフィールド設定画面67が表示される。
図12は、IPTCフィールド設定画面67の一例であるが、図11において表示名入力欄224に「説明」が入力された状態で変更項目225が操作された場合を示している。
When the default application item 223, change item 225, or cancel item 226 is operated, the superimposed display of the field display name change dialog 68 ends, and the IPTC field setting screen 67 is displayed.
FIG. 12 is an example of the IPTC field setting screen 67, and shows a case where the change item 225 is operated with "description" entered in the display name input field 224 in FIG. 11.

図12の項目名表示部220Aでは、表示名が「説明」に変更されると共に、フィールド名が「Caption/Description」であることが示されている。このように、ユーザは各項目の表示名を理解のし易い文字列に変更することが可能である。但し、フィールド名についての変更は許可されていないため、フィールド名は「Caption/Description」のままとされている。
項目名表示部220Aに表示名とフィールド名の双方が表示されることにより、表示のオン/オフの切り換え対象の項目を見つけやすくすると共に、本来の名称(即ちフィールド名)との関係が明確にされるため、切り換えミスを防止することができる。
In the item name display section 220A of FIG. 12, the display name is changed to "Description" and the field name is shown to be "Caption/Description." In this way, the user can change the display name of each item to a character string that is easy to understand. However, since changing the field name is not permitted, the field name remains "Caption/Description".
By displaying both the display name and the field name in the item name display section 220A, it becomes easier to find the item whose display is to be turned on or off, and the relationship with the original name (i.e. field name) is made clear. Therefore, switching errors can be prevented.

図12に示すIPTCフィールド設定画面67において、オン/オフ設定表示部221を操作した場合について説明する。
具体的に、図12の「ヘッドライン」項目におけるオン/オフ設定表示部221Bに対するタップ操作と、「キーワード]項目におけるオン/オフ設定表示部221Cに対するタップ操作を行った場合、図13に示すようなIPTCフィールド設定画面67が表示される。
即ち、「Headline」項目がオフ状態からオン状態へと変更され、「キーワード」項目がオン状態からオフ状態へと変更される。
The case where the on/off setting display section 221 is operated on the IPTC field setting screen 67 shown in FIG. 12 will be described.
Specifically, when a tap operation is performed on the on/off setting display area 221B in the "Headline" item in FIG. 12 and a tap operation on the on/off setting display area 221C in the "Keyword" item, as shown in FIG. An IPTC field setting screen 67 is displayed.
That is, the "Headline" item is changed from an off state to an on state, and the "keyword" item is changed from an on state to an off state.

図6に示す画像一覧画面50の説明に戻る。
画像一覧画面50に対してユーザは画像選択操作を行うことができる。例えばユーザはサムネイル画像103のタップ等の操作により特定の画像データを選択できる。
例えば特定の画像データの選択操作により、図14のようなキャプション編集画面52が表示される。
Returning to the description of the image list screen 50 shown in FIG. 6.
The user can perform an image selection operation on the image list screen 50. For example, the user can select specific image data by tapping the thumbnail image 103 or the like.
For example, by selecting specific image data, a caption editing screen 52 as shown in FIG. 14 is displayed.

キャプション編集画面52には、画像欄130、キャプション欄132、ボイスメモ欄133が設けられる。また、キャプション編集画面52の下部には、IPTCメタデータ編集ボタン240、FTPアップロードボタン241、キャプション編集ボタン242、共有ボタン243が配置されている。 The caption editing screen 52 is provided with an image field 130, a caption field 132, and a voice memo field 133. Further, at the bottom of the caption editing screen 52, an IPTC metadata editing button 240, an FTP upload button 241, a caption editing button 242, and a share button 243 are arranged.

画像欄130には、サムネイル画像103と送りボタン107が表示される。表示されるサムネイル画像103は、ユーザが選択した画像データのサムネイル画像である。これにより表示されているキャプション編集画面52は、サムネイル画像103で表される画像データについてのキャプションの編集を行う画面であることが明確にされる。 In the image column 130, a thumbnail image 103 and a forward button 107 are displayed. The displayed thumbnail image 103 is a thumbnail image of image data selected by the user. This makes it clear that the displayed caption editing screen 52 is a screen for editing the caption for the image data represented by the thumbnail image 103.

ユーザは、送りボタン107の操作により、画像一覧画面50で前後に配置される画像データが選択された状態へと切り換えることができる。例えば送りボタン107を操作することで、キャプション編集画面52上でサムネイル画像103が切り換えられる。するとそのキャプション編集画面52は、当該新たなサムネイル画像103で表される画像データについてのキャプションの編集を行う画面となる。 By operating the forward button 107, the user can switch the image list screen 50 to a state in which image data arranged one after the other is selected. For example, by operating the forward button 107, the thumbnail images 103 can be switched on the caption editing screen 52. Then, the caption editing screen 52 becomes a screen for editing the caption for the image data represented by the new thumbnail image 103.

またユーザは例えばピンチ操作やタップ操作などにより、サムネイル画像103で示される画像を大きく表示させることができる。 Further, the user can enlarge the image indicated by the thumbnail image 103 by, for example, pinching or tapping.

図14のキャプション編集画面52のキャプション欄132には、上述のIPTCメタデータにおける「ディスクリプション/キャプション」の欄に記述されるキャプションデータが表示されキャプションデータの編集が可能とされる。 In the caption field 132 of the caption editing screen 52 in FIG. 14, the caption data described in the "Description/Caption" field in the above IPTC metadata is displayed, and the caption data can be edited.

キャプション編集画面52には、テンプレートボタン138やボイス入力ボタン139が設けられる。
ユーザはテンプレートボタン138を操作することで、キャプションのテンプレートを呼び出してキャプション欄132に表示させることができる。
またユーザはボイス入力ボタン139を操作することで、キャプションデータを音声により入力することができる。この場合に入力された音声のテキスト化は、ボイスメモのテキスト化と同様に行われれば良い。
The caption editing screen 52 is provided with a template button 138 and a voice input button 139.
By operating the template button 138, the user can call up a caption template and display it in the caption field 132.
Furthermore, by operating the voice input button 139, the user can input caption data by voice. In this case, the input voice may be converted into text in the same manner as the voice memo is converted into text.

キャプション編集画面52のボイスメモ欄133にはボイスメモテキスト領域134が設けられ、ボイスメモテキストが表示される。即ち撮像装置1から音声データとして転送されてきたボイスメモがテキスト化され、ボイスメモ欄133に表示される。これによりユーザはキャプション編集画面52でボイスメモの内容を確認できる。
またボイスメモ欄133には、再生ボタン135、コピーボタン136、削除ボタン137が表示され、ボイスメモに関する操作が可能とされる。
A voice memo text area 134 is provided in the voice memo field 133 of the caption editing screen 52, and the voice memo text is displayed. That is, the voice memo transferred as audio data from the imaging device 1 is converted into text and displayed in the voice memo field 133. This allows the user to check the contents of the voice memo on the caption editing screen 52.
In addition, a play button 135, a copy button 136, and a delete button 137 are displayed in the voice memo field 133, and operations regarding the voice memo can be performed.

ユーザが再生ボタン135を操作すると、ボイスメモの音声再生が開始される。
例えば音声再生中はボイスメモテキスト領域134、再生ボタン135、コピーボタン136、削除ボタン137の表示に代えてシークバー、現在タイム、総再生長、停止ボタン、一時停止ボタンなどが表示される。
また、ユーザが削除ボタン137を操作すると、ボイスメモの削除が行われる。
When the user operates the playback button 135, audio playback of the voice memo is started.
For example, during voice playback, instead of displaying the voice memo text area 134, playback button 135, copy button 136, and delete button 137, a seek bar, current time, total playback length, stop button, pause button, etc. are displayed.
Furthermore, when the user operates the delete button 137, the voice memo is deleted.

ユーザがボイスメモ欄133においてユーザがコピーボタン136を操作すると、ボイスメモテキスト領域134に表示されているボイスメモテキストがシステム上のクリップボード領域にコピーされる。 When the user operates the copy button 136 in the voice memo field 133, the voice memo text displayed in the voice memo text area 134 is copied to the clipboard area on the system.

なお、ボイスメモテキスト領域134は、後述する自動キャプション付与の設定により自動的にキャプション欄132に挿入される場合もある。
例えば図15は、キャプション編集画面52が開かれた状態で、ボイスメモテキストとしてのテキストデータが、キャプションデータとして付加されている例を示している。この場合、「エンタイトルツーベース」がキャプションデータとして先に入力されていたテキストであり、その後に続く「田中選手が2回表に打ちました」というテキストデータが、自動挿入されたボイスメモテキストである。
なお、このようにボイスメモテキストがキャプションデータに自動挿入される場合において、先にキャプションデータのテキストが存在している場合、ボイスメモテキストを、そのキャプションの前に挿入するか、後に挿入することが考えられる。自動挿入である場合は、既入力のキャプションの内容を分かりやすくするため、既入力のキャプションの後にボイスメモテキストを追加することが望ましい。
Note that the voice memo text area 134 may be automatically inserted into the caption field 132 by setting automatic captioning, which will be described later.
For example, FIG. 15 shows an example in which text data as voice memo text is added as caption data with the caption editing screen 52 open. In this case, "Entitled to Base" is the text that was previously input as caption data, and the text that follows "Tanaka hit the ball in the top of the second inning" is the voice memo text that was automatically inserted. .
In addition, when the voice memo text is automatically inserted into the caption data in this way, if the text of the caption data exists first, it is possible to insert the voice memo text before or after the caption. It will be done. In the case of automatic insertion, it is desirable to add voice memo text after the already input caption in order to make the content of the already input caption easier to understand.

キャプション編集画面52におけるIPTCメタデータ編集ボタン240が操作されると、後述するIPTCメタデータ編集画面69が表示される。
また、FTPアップロードボタン241が操作されると、キャプション編集画面52に表示中の特定の画像データをFTPサーバ4にアップロードする処理などが実行される。なお、アップロードの際には、画像サイズの設定、データ圧縮などを指定することが可能とされる。
When the IPTC metadata editing button 240 on the caption editing screen 52 is operated, an IPTC metadata editing screen 69, which will be described later, is displayed.
Furthermore, when the FTP upload button 241 is operated, a process such as uploading specific image data displayed on the caption editing screen 52 to the FTP server 4 is executed. Note that when uploading, it is possible to specify image size settings, data compression, etc.

キャプション編集ボタン242が操作されると、図11に示すようなソフトウェアキーボード131が表示され、ソフトウェアキーボード131に対する操作を行うことにより任意の文字入力が可能となる。入力された文字列は、キャプションデータとして当該画像データについてのIPTCメタデータのディスクリプション/キャプションの欄に記述されることになる。 When the caption edit button 242 is operated, a software keyboard 131 as shown in FIG. 11 is displayed, and by operating the software keyboard 131, arbitrary characters can be input. The input character string will be written as caption data in the description/caption column of the IPTC metadata for the image data.

共有ボタン243が操作されると、キャプション編集画面52に表示中の特定の画像データをSNS(Social Networking Service)等を通じて他者が閲覧可能な状態でサーバ装置等にアップロードされる。なお、公開設定によっては、自分のみが閲覧可能とされていてもよい。 When the share button 243 is operated, the specific image data being displayed on the caption editing screen 52 is uploaded to a server device or the like so that it can be viewed by others via an SNS (Social Networking Service) or the like. Note that depending on the public settings, only you may be able to view the page.

ここで、IPTCメタデータ編集ボタン240が操作された場合に表示されるIPTCメタデータ編集画面69の一例について、図16及び図17に示す。
図16は、図12のIPTCフィールド設定画面67の設定状態に応じたIPTCメタデータ編集画面69である。即ち、IPTCメタデータの「ディスクリプション/キャプション」項目の表示名として「説明」が設定され、「ヘッドライン」項目がオフ状態とされ「キーワード」項目がオン状態とされている。
Here, an example of the IPTC metadata editing screen 69 that is displayed when the IPTC metadata editing button 240 is operated is shown in FIGS. 16 and 17.
FIG. 16 shows an IPTC metadata editing screen 69 according to the setting state of the IPTC field setting screen 67 of FIG. 12. That is, "Description" is set as the display name of the "Description/Caption" item of the IPTC metadata, the "Headline" item is turned off, and the "Keyword" item is turned on.

図17は、図13のIPTCフィールド設定画面67の設定状態に応じたIPTCメタデータ編集画面69である。即ち、IPTCメタデータの「ディスクリプション/キャプション」項目の表示名として「説明」が表示され、「ヘッドライン」項目がオン状態とされ「キーワード」項目がオフ状態とされている。 FIG. 17 shows an IPTC metadata editing screen 69 according to the setting state of the IPTC field setting screen 67 of FIG. 13. That is, "Description" is displayed as the display name of the "Description/Caption" item of the IPTC metadata, the "Headline" item is turned on, and the "Keyword" item is turned off.

このように、IPTCフィールド設定画面67の設定状態に応じてIPTCメタデータ編集画面69の表示態様が異なる。即ち、ユーザは、編集対象の項目だけをIPTCフィールド設定画面67でオン状態に設定することにより、IPTCメタデータ編集画面69上の表示が見やすくなると共に編集作業の効率化を図ることができる。
また、各項目についての表示名をユーザの任意の文字列に変更することが可能とされることにより、編集対象の項目を間違えてしまうことが防止される。従って、項目ごとに適切なテキスト情報を入力することが可能とされる。
更に、各項目に表示名が設定されている場合には、表示名に加えてフィールド名が表示されるように構成してもよい。これにより、表示名とIPTCメタデータの項目の対応関係が明確となり、編集ミスを防止することができる。
In this way, the display mode of the IPTC metadata editing screen 69 differs depending on the setting state of the IPTC field setting screen 67. That is, by setting only the items to be edited in the ON state on the IPTC field setting screen 67, the user can make the display on the IPTC metadata editing screen 69 easier to see and improve the efficiency of editing work.
Furthermore, by allowing the user to change the display name for each item to a character string of his or her choice, it is possible to prevent the user from selecting the wrong item for editing. Therefore, it is possible to input appropriate text information for each item.
Furthermore, if a display name is set for each item, the field name may be displayed in addition to the display name. This makes the correspondence between the display name and the IPTC metadata item clear, and it is possible to prevent editing mistakes.

図16及び図17に示したIPTCフィールド設定画面67において、ユーザが任意の項目に対する選択操作を行うと、選択された項目のメタデータを編集する画面が表示される。編集画面では、ソフトウェアキーボード131を用いた文字入力や音声を用いた文字入力が可能とされ、メタデータの編集作業を行うことができる。
個別の項目ごとの編集を終えて図16や図17に示すIPTCメタデータ編集画面69に遷移したタイミングで編集されたメタデータが画像データに付与される。或いは、個別の項目ごとの編集を終えIPTCメタデータ編集画面69に戻った後、更にメタデータ編集画面69から他の画面に遷移する操作を受け付けたタイミングで編集されたメタデータが画像データに付与されるようにしてもよい。
なお、図14に示すキャプション編集画面52においては、戻るボタン106が操作されてキャプション編集画面52から他の画面に遷移するタイミングでキャプション編集画面52で入力されたキャプションデータを画像データに付与する。
なお、それ以外のタイミングで画像データにIPTCメタデータを付与してもよい。例えば、アプリケーションプログラムが使用している記憶領域に編集後のメタデータを記憶しておき、編集対象の画像が変更されたタイミングでIPTCメタデータを画像データに付与してもよい。他にも、画像ファイルPFの送信タイミングでIPTCメタデータを画像データに付与してもよい。
When the user performs a selection operation for any item on the IPTC field setting screen 67 shown in FIGS. 16 and 17, a screen for editing the metadata of the selected item is displayed. On the editing screen, characters can be entered using the software keyboard 131 or using voice, and metadata editing work can be performed.
The edited metadata is added to the image data at the timing when the editing for each individual item is completed and the screen transitions to the IPTC metadata editing screen 69 shown in FIGS. 16 and 17. Alternatively, after completing the editing for each individual item and returning to the IPTC metadata editing screen 69, the edited metadata is added to the image data at the timing when an operation to transition from the metadata editing screen 69 to another screen is received. It is also possible to do so.
Note that in the caption editing screen 52 shown in FIG. 14, the caption data input on the caption editing screen 52 is added to the image data at the timing when the return button 106 is operated and the caption editing screen 52 transitions to another screen.
Note that IPTC metadata may be added to image data at other timings. For example, edited metadata may be stored in a storage area used by an application program, and IPTC metadata may be added to image data at the timing when an image to be edited is changed. Alternatively, IPTC metadata may be added to the image data at the timing of transmitting the image file PF.

続いてボイスメモの処理やアップロードに関する設定のためのインタフェース画面を説明する。
前述したメニュー画面55における各メニュー項目の中から、設定項目147とボイスメモ自動キャプション付与項目148からの操作について説明する。
ボイスメモ自動キャプション付与項目148は、ボイスメモをテキスト化した場合に、そのボイスメモテキストを自動的にキャプションデータに付加するか否かをユーザが選択できるようにした項目である。
Next, we will explain the interface screen for settings related to voice memo processing and uploading.
Operations from the setting item 147 and the voice memo automatic captioning item 148 from among the menu items on the menu screen 55 described above will be explained.
The voice memo automatic caption addition item 148 is an item that allows the user to select whether or not to automatically add the voice memo text to caption data when the voice memo is converted into text.

ユーザがボイスメモ自動キャプション付与項目148を操作すると図18のボイスメモ自動キャプション付与設定画面53が表示される。ボイスメモ自動キャプション付与設定画面53には設定スイッチ170が表示され、これによってユーザはボイスメモ自動キャプション付与機能のオン/オフを設定できる。
設定スイッチ170がオンとされると、ボイスメモテキストが得られた場合に、図15に示したように、自動的にそのボイスメモテキストがキャプションデータに挿入される。
設定スイッチ170がオフとされると、そのような自動挿入が行われない。
When the user operates the voice memo automatic captioning item 148, the voice memo automatic captioning setting screen 53 of FIG. 18 is displayed. A setting switch 170 is displayed on the voice memo automatic captioning setting screen 53, which allows the user to turn on/off the voice memo automatic captioning function.
When the setting switch 170 is turned on, when a voice memo text is obtained, the voice memo text is automatically inserted into the caption data as shown in FIG. 15.
If the setting switch 170 is turned off, such automatic insertion will not occur.

ボイスメモ自動キャプション付与設定画面53には戻るボタン106が設けられ、戻るボタン106が操作されると図7のメニュー画面55に戻る。設定ボタン170のオン/オフ状態は、戻るボタン106が操作されたときの状態で有効化される。 A return button 106 is provided on the voice memo automatic captioning setting screen 53, and when the return button 106 is operated, the screen returns to the menu screen 55 in FIG. 7. The on/off state of the setting button 170 is enabled in the state when the back button 106 is operated.

また図7のメニュー画面55において、ユーザが設定項目147を操作すると図8の設定画面56が表示される。設定画面には設定項目として、キャプション用語集の同期項目201、取り込み項目202、メタデータ編集設定項目203、自動FTPアップロード項目204が表示される。
この設定画面56でユーザが自動FTPアップロード項目204を操作すると、図19の自動アップロード設定画面57が表示される。
Further, when the user operates the setting item 147 on the menu screen 55 of FIG. 7, the setting screen 56 of FIG. 8 is displayed. Displayed on the setting screen are a caption glossary synchronization item 201, an import item 202, a metadata editing setting item 203, and an automatic FTP upload item 204 as setting items.
When the user operates the automatic FTP upload item 204 on this setting screen 56, an automatic upload setting screen 57 shown in FIG. 19 is displayed.

自動アップロード設定画面57には設定スイッチ171が表示され、これによってユーザは自動アップロードをオン/オフを設定できる。
自動アップロード機能とは、撮像装置1から画像ファイルPFが転送されてきた際に、設定されているFTPサーバ4に対して自動的にアップロードを行う機能である。
この図19は、設定スイッチ171がオフの状態にある場合を示している。
ユーザが設定スイッチ171をオンに操作すると、図20のように自動アップロードの設定のための表示が行われる。即ちアップロード先表示欄175が表示され、またボイスメモ添付に関する設定スイッチ172や、JPEG画質に関する設定スイッチ173が表示される。
A setting switch 171 is displayed on the automatic upload setting screen 57, which allows the user to turn on/off automatic upload.
The automatic upload function is a function that automatically uploads the image file PF to the set FTP server 4 when the image file PF is transferred from the imaging device 1.
FIG. 19 shows a case where the setting switch 171 is in an off state.
When the user turns on the setting switch 171, a display for setting automatic upload is displayed as shown in FIG. 20. That is, an upload destination display column 175 is displayed, and a setting switch 172 regarding voice memo attachment and a setting switch 173 regarding JPEG image quality are also displayed.

図20ではアップロード先表示欄175には、まだアップロード先が指定されていないことが示されている。ユーザが、アップロード先を指定する操作を行うことで、図21のように、例えばユーザがFTP設定の際に付与した名称「XYZ」などにより特定されるアップロード先が表示される。 In FIG. 20, the upload destination display column 175 indicates that no upload destination has been specified yet. When the user performs an operation to specify an upload destination, the upload destination specified by, for example, the name "XYZ" given by the user during FTP settings is displayed as shown in FIG.

ボイスメモ添付に関する設定スイッチ172により、ユーザは自動アップロードの際に、ボイスメモとしての音声ファイルAFを画像ファイルPFと共にアップロードする否かを設定することができる。例えば図21のように設定スイッチ172をオンとすると、自動アップロード処理が行われる際、音声ファイルAFもアップロード対象とされる。 The setting switch 172 regarding voice memo attachment allows the user to set whether or not to upload the audio file AF as a voice memo together with the image file PF during automatic upload. For example, when the setting switch 172 is turned on as shown in FIG. 21, the audio file AF is also uploaded when automatic upload processing is performed.

JPEG画質に関する設定スイッチ173により、ユーザはアップロードする画像データの圧縮率や画サイズを設定することができる。
設定スイッチ173をオンとすると、図21のように圧縮率設定バー176や長辺ピクセル設定部177及び設定スイッチ174が表示される。
ユーザは圧縮率設定バー176を操作して圧縮率を指定することができる。また設定スイッチ174により長辺のピクセル数の設定を行うことができる。
A setting switch 173 related to JPEG image quality allows the user to set the compression rate and image size of image data to be uploaded.
When the setting switch 173 is turned on, a compression rate setting bar 176, a long side pixel setting section 177, and a setting switch 174 are displayed as shown in FIG.
The user can specify the compression rate by operating the compression rate setting bar 176. Further, the number of pixels on the long side can be set using the setting switch 174.

以上の自動アップロード設定画面57におけるユーザ操作は、戻るボタン106が操作されて図8の設定画面56に戻ることで有効化される。
なお設定画面56において戻るボタン106が操作されると図7のメニュー画面に戻る。
The above user operation on the automatic upload setting screen 57 is validated by operating the return button 106 and returning to the setting screen 56 in FIG. 8.
Note that when the return button 106 is operated on the setting screen 56, the screen returns to the menu screen of FIG. 7.

<5.画像取り込み時の処理例>
情報処理装置2が実行する各種処理のうち、まず撮像装置1から画像ファイルPFを取り込む際の処理例について、図22,図23,図24で説明する。
なお以下説明する各処理例はCPU71において、アプリケーションソフトウェアによって実現される図5で説明した機能により実行される処理となる。
<5. Example of processing when importing images>
Among the various processes executed by the information processing device 2, an example of the process when capturing the image file PF from the imaging device 1 will be described first with reference to FIGS. 22, 23, and 24.
Note that each process example described below is a process executed by the CPU 71 using the functions described in FIG. 5 that are realized by application software.

図22、図23は一連のフローチャートを分けて示したもので、「C1」で接続関係を示している。
図22のステップS101でCPU71は、撮像装置1から画像ファイルPFの取り込み処理を行う。
撮像装置1からの画像ファイルPFの取り込み処理は、例えば情報処理装置2と撮像装置1の間の通信により行われるが、例えばユーザが情報処理装置2側、或いは撮像装置1側で所定の操作を行うことで、画像ファイルPFの転送が開始される。
撮像装置1は転送対象として選択された画像ファイルPFをFTP通信により情報処理装置2に転送する処理を行う。またこの場合、画像ファイルPFに関連付けられたボイスメモを有する音声ファイルAFが存在する場合、その音声ファイルAFも情報処理装置2に転送する。
情報処理装置2側では、CPU71はステップS101の処理として、順次転送されてくる画像ファイルPF及び音声ファイルAFの取り込み処理を行うことになる。
22 and 23 show a series of flowcharts separately, and "C1" indicates the connection relationship.
In step S101 of FIG. 22, the CPU 71 performs a process of importing the image file PF from the imaging device 1.
The process of importing the image file PF from the imaging device 1 is performed, for example, by communication between the information processing device 2 and the imaging device 1. For example, the user performs a predetermined operation on the information processing device 2 side or the imaging device 1 side. By doing so, the transfer of the image file PF is started.
The imaging device 1 performs processing to transfer the image file PF selected as a transfer target to the information processing device 2 via FTP communication. Further, in this case, if there is an audio file AF having a voice memo associated with the image file PF, that audio file AF is also transferred to the information processing device 2.
On the information processing device 2 side, the CPU 71 performs a process of importing the image file PF and audio file AF that are sequentially transferred as the process of step S101.

ここで、撮像装置1と情報処理装置2の間では、画像ファイルPFと関連付けられた音声ファイルAFが存在する場合は、音声ファイルAFを先に送信し、その後に画像ファイルPFを送信するという規則を決めておく。
これによりCPU71は、1つの音声ファイルAFを受信した場合は、その音声ファイルAFは次に受信される画像ファイルPFに関連付けられたものであると判定することができる。ステップS102では、CPU71は、このような規則に則って、受信した音声ファイルAFを受信した画像ファイルPFに紐づけて管理する処理を行う。
なお、これ以外に、例えば画像ファイルPFのメタデータに、関連付けられた音声ファイルAFを特定する情報が含まれるようにしておくことも考えられる。ステップS102では、メタデータを参照して、受信した音声ファイルAFを受信した画像ファイルPFに紐づけて管理する処理を行うようにしてもよい。
Here, there is a rule between the imaging device 1 and the information processing device 2 that if there is an audio file AF associated with the image file PF, the audio file AF is transmitted first, and then the image file PF is transmitted. Decide.
Thereby, when the CPU 71 receives one audio file AF, it can determine that the audio file AF is associated with the next received image file PF. In step S102, the CPU 71 performs a process of linking and managing the received audio file AF with the received image file PF in accordance with such rules.
In addition to this, it is also conceivable that, for example, the metadata of the image file PF includes information that specifies the associated audio file AF. In step S102, the received audio file AF may be linked and managed with the received image file PF with reference to metadata.

1又は複数の画像ファイルPFの取り込みが完了したら、CPU71はステップS103からステップS110に進み、取り込んだ画像ファイルPFについて、音声ファイルAFが関連付けられているものがあるか否かを判定する。
取り込んだファイルが全て画像ファイルPFのみであり、音声ファイルAFが存在しない場合は、CPU71はステップS110から図23のステップS120に進む。
When the import of one or more image files PF is completed, the CPU 71 proceeds from step S103 to step S110, and determines whether or not any of the imported image files PF is associated with an audio file AF.
If all the imported files are only image files PF and no audio file AF exists, the CPU 71 proceeds from step S110 to step S120 in FIG. 23.

一方、1つでも音声ファイルAFが関連付けられた画像ファイルPFが存在した場合、CPU71は図22のステップS110からステップS111に進む。
ステップS111でCPU71は、今回取り込んだ画像ファイルPFのうちで、音声ファイルAFが関連付けられた1又は複数の画像ファイルPFのうちの1つを処理対象として選択する。
On the other hand, if there is at least one image file PF associated with the audio file AF, the CPU 71 proceeds from step S110 in FIG. 22 to step S111.
In step S111, the CPU 71 selects one of the one or more image files PF associated with the audio file AF from among the currently imported image files PF as a processing target.

そしてステップS112でCPU71は、処理対象とした画像ファイルPFに関連付けられた音声ファイルAFのボイスメモを対象として、テキスト化処理を行う。 Then, in step S112, the CPU 71 performs text conversion processing on the voice memo of the audio file AF associated with the image file PF targeted for processing.

ステップS113では、CPU71はテキスト化が正常に行われたか否かを判定する。
テキスト化が正常に行われボイスメモテキストが取得できた場合、CPU71はステップS113からステップS114に進み、そのボイスメモテキストを、処理対象の画像ファイルPFに対応するボイスメモテキストとして例えば記憶部79に保存する処理を行う。
In step S113, the CPU 71 determines whether text conversion has been performed normally.
If the text conversion is successfully performed and the voice memo text is obtained, the CPU 71 proceeds from step S113 to step S114, and stores the voice memo text in, for example, the storage unit 79 as a voice memo text corresponding to the image file PF to be processed. I do.

ステップS115でCPU71は、自動キャプション付与機能がオンとされているか否かを確認する。自動キャプション付与機能は、図18のボイスメモ自動キャプション付与設定画面53によりユーザが任意にオン/オフを設定できる機能である。
自動キャプション付与機能がオンでなければCPU71はステップS117に進む。
In step S115, the CPU 71 checks whether the automatic captioning function is turned on. The automatic captioning function is a function that the user can arbitrarily turn on or off using the voice memo automatic captioning setting screen 53 shown in FIG.
If the automatic captioning function is not on, the CPU 71 proceeds to step S117.

自動キャプション付与機能がオンであれば、CPU71はステップS116に進み、ボイスメモテキストをキャプションデータに挿入する処理を行う。即ちIPTCメタデータにおけるディスクリプション/キャプションフィールドにボイスメモテキストを書き込む処理を行う。ディスクリプション/キャプションフィールドに既にキャプションデータが書き込まれている場合は、CPU71は、その後に続けてボイスメモテキストを書き込むようにする。なお、ディスクリプション/キャプションフィールドをボイスメモテキストで上書きするようにしてもよい。また、その場合には、ユーザに対する上書き確認を行ってもよいし、確認を行わずに処理負担を軽減してもよい。更には、ボイスメモテキストの挿入位置や上書きの可否などを選択可能にしてもよいし、編集画面をユーザに提示してもよい。
CPU71は、このような自動キャプション付与の処理を行った上でステップS117に進む。
If the automatic captioning function is on, the CPU 71 proceeds to step S116 and performs processing to insert the voice memo text into the caption data. That is, processing is performed to write the voice memo text into the description/caption field in the IPTC metadata. If caption data has already been written in the description/caption field, the CPU 71 subsequently writes the voice memo text. Note that the description/caption field may be overwritten with voice memo text. In that case, the user may be asked to confirm overwriting, or the processing burden may be reduced without confirmation. Furthermore, the insertion position of the voice memo text and whether or not it can be overwritten may be selectable, or an editing screen may be presented to the user.
After performing such automatic captioning processing, the CPU 71 proceeds to step S117.

ステップS112のテキスト化が正常に行われなかった場合、例えば処理エラーや通信エラー等により、ボイスメモテキストが取得できなかった場合は、CPU71はステップS113からステップS117に進む。この場合、特にテキスト化処理のリトライは行わないことで、転送時の処理が長引くことを回避している。後述のように他にもテキスト化の機会はあるためである。但しもちろん所定回数のテキスト化処理のリトライを行うようにしてもよいし、テキスト化せずに処理を進めるか否かをユーザに選択させてもよい。 If the text conversion in step S112 is not performed normally, for example, if the voice memo text cannot be obtained due to a processing error, communication error, etc., the CPU 71 proceeds from step S113 to step S117. In this case, by not particularly retrying the text conversion process, it is possible to avoid prolonging the transfer process. This is because there are other opportunities to convert into text, as described below. However, of course, the text conversion process may be retried a predetermined number of times, or the user may be allowed to select whether or not to proceed with the process without converting the text into text.

或る画像ファイルPFについて、以上のテキスト化処理やボイスメモ自動キャプション付与等の処理を行ってステップS117に進んだ場合、或いはテキスト化が正常完了せずにステップS117に進んだ場合、CPU71は、他に同様の処理を行うべき画像ファイルPFが残っているか否かを確認し、残っていればステップS111に戻って、その1つを処理対象とし、上記同様の処理を行う。
音声ファイルAFが関連付けられた全ての画像ファイルPFについて少なくとも1回はステップS112のテキスト化処理を実行することで、ステップS117で全てのテキスト化終了と判定し、図23のステップS120に進む。
If the process proceeds to step S117 after performing the above-described text conversion processing and voice memo automatic captioning processing for a certain image file PF, or if the process proceeds to step S117 without normal completion of text conversion, the CPU 71 It is checked whether there are any remaining image files PF to be subjected to the same processing, and if there are, the process returns to step S111, one of which is targeted for processing, and the same processing as described above is performed.
By executing the text conversion process of step S112 at least once for all image files PF associated with the audio file AF, it is determined in step S117 that all text conversion has been completed, and the process proceeds to step S120 in FIG. 23.

ステップS120でCPU71は、自動アップロード機能がオンとされているか否かを確認する。自動アップロード機能は、即ち図19、図20、図21に示した自動アップロード設定画面57でユーザが任意にオン/オフを設定できる機能である。
自動アップロード機能がオンでなければCPU71はステップS120から画像取り込み時の一連の処理を終える。
In step S120, the CPU 71 checks whether the automatic upload function is turned on. The automatic upload function is a function that the user can arbitrarily turn on/off on the automatic upload setting screen 57 shown in FIGS. 19, 20, and 21.
If the automatic upload function is not on, the CPU 71 finishes the series of processes at the time of image capture from step S120.

自動アップロード機能がオンであるときは、CPU71はステップS120からステップS121に進み、アップロードファイルの準備処理を行う。
このアップロードファイルの準備処理を図24に詳しく示す。
When the automatic upload function is on, the CPU 71 proceeds from step S120 to step S121, and performs upload file preparation processing.
This upload file preparation process is shown in detail in FIG.

図24のステップS141でCPU71は、アップロード対象とする画像ファイルPFの1つを特定する。これは今回撮像装置1から転送されてきた画像ファイルPFのうちの1つを準備処理の対象とするという意味である。
1つの画像ファイルPFを処理対象としたら、CPU71はステップS142で画サイズ指定がされているか否かを確認する。これはユーザが図21の自動アップロード設定画面57における長辺ピクセル設定部177及び設定スイッチ174で設定した内容を確認することになる。画サイズ指定がされていればCPU71はステップS143でそれを反映するピクセル数の変換処理を行う。
In step S141 of FIG. 24, the CPU 71 specifies one of the image files PF to be uploaded. This means that one of the image files PF transferred from the imaging device 1 this time is targeted for preparation processing.
If one image file PF is to be processed, the CPU 71 checks in step S142 whether an image size has been specified. This means that the user confirms the contents set by the long side pixel setting section 177 and setting switch 174 on the automatic upload setting screen 57 shown in FIG. If the image size has been specified, the CPU 71 performs a process of converting the number of pixels to reflect the specification in step S143.

ステップS144でCPU71は、圧縮率の指定がされているか否かを確認する。これは図21の自動アップロード設定画面57における圧縮率設定バー176による圧縮率の指定状態を確認することになる。圧縮率が指定されて圧縮が行われる設定とされているときは、CPU71はステップS145で、指定の圧縮率による圧縮処理を行う。 In step S144, the CPU 71 checks whether a compression ratio has been specified. This means checking the specified state of the compression rate using the compression rate setting bar 176 on the automatic upload setting screen 57 in FIG. 21. When the compression rate is specified and compression is set to be performed, the CPU 71 performs compression processing using the specified compression rate in step S145.

ステップS146でCPU71は、音声ファイルAFの添付有無を確認する。即ち図21の設定スイッチ172のオン/オフによる、ユーザのボイスメモについてのアップロード有無の設定を確認することになる。
音声ファイルAFのアップロードが選択されている場合は、CPU71はステップS147に進み、現在処理対象としている画像ファイルPFについて関連付けられた音声ファイルAFが存在するか否かを確認する。関連する音声ファイルAFが存在する場合は、CPU71はステップS149に進み、現在の処理対象の画像ファイルPF(画像データとメタデータ)、及び音声ファイルAFを、アップロードするファイルとしてセットする。
In step S146, the CPU 71 checks whether the audio file AF is attached. That is, the setting of whether or not to upload the user's voice memo is confirmed by turning on/off the setting switch 172 in FIG. 21.
If uploading the audio file AF is selected, the CPU 71 proceeds to step S147 and checks whether there is an audio file AF associated with the image file PF currently being processed. If the related audio file AF exists, the CPU 71 proceeds to step S149 and sets the current processing target image file PF (image data and metadata) and audio file AF as files to be uploaded.

ステップS146で、ユーザによる設定として音声ファイルAFのアップロードが選択されていないことが確認された場合、或いはステップS147で現在処理対象としている画像ファイルPFについて関連付けられた音声ファイルAFが存在しない場合は、CPU71はステップS148に進み、現在の処理対象の画像ファイルPF(画像データとメタデータ)を、アップロードするファイルとしてセットする。 If it is confirmed in step S146 that uploading the audio file AF is not selected as a setting by the user, or if there is no audio file AF associated with the image file PF currently being processed in step S147, The CPU 71 proceeds to step S148 and sets the current image file PF (image data and metadata) to be processed as the file to be uploaded.

ステップS150では、今回撮像装置1から取り込んだ全ての画像ファイルPFについて、以上の準備処理が完了したか否かを確認する。残りの画像ファイルPFが存在する場合は、CPU71はステップS141に戻り、残りの画像ファイルPFの1つを処理対象として特定し、同様の処理を行う。
今回撮像装置1から取り込んだ全ての画像ファイルPFについて、以上の準備処理が完了したとステップS150において判定した場合、CPU71は図24に示すアップロードファイルの準備処理を終える。
即ち、CPU71は、図23のステップS122に進む。
In step S150, it is checked whether the above preparation process has been completed for all image files PF imported from the imaging device 1 this time. If there are remaining image files PF, the CPU 71 returns to step S141, specifies one of the remaining image files PF as a processing target, and performs the same processing.
If it is determined in step S150 that the above preparation process has been completed for all image files PF imported from the imaging device 1 this time, the CPU 71 finishes the upload file preparation process shown in FIG. 24.
That is, the CPU 71 proceeds to step S122 in FIG. 23.

ステップS122でCPU71は、自動アップロード設定により指定されたFTPサーバ4に対するFTP接続及びログインの処理を行う。
そしてログインが完了したら、CPU71はステップS123からステップS130に進みFTPアップロード処理を実行する。即ちアップロードファイルの準備処理でアップロードするものとしてセットした画像ファイルPFや音声ファイルAFを、順次FTP送信していく処理を行う。
In step S122, the CPU 71 performs FTP connection and login processing to the FTP server 4 specified by the automatic upload settings.
When the login is completed, the CPU 71 advances from step S123 to step S130 and executes FTP upload processing. That is, a process is performed in which image files PF and audio files AF that are set to be uploaded in the upload file preparation process are sequentially transmitted via FTP.

なおFTPサーバ4と通信ができなかった場合、或いは通信できてもログインできなかった場合は、CPU71はエラーとしてステップS124からステップS125に進み、所定のエラー処理を行う。例えばユーザに自動アップロード処理のエラーを通知する。そして、撮像装置1からの画像ファイルPFの取り込み時の一連の処理を終える。 Note that if communication with the FTP server 4 is not possible, or if communication is possible but login is not possible, the CPU 71 determines an error and proceeds from step S124 to step S125 to perform predetermined error processing. For example, notify users of errors in automatic upload processing. Then, the series of processes at the time of importing the image file PF from the imaging device 1 is completed.

ステップS130でのFTPアップロードが正常完了した場合は、CPU71はステップS131からステップS133に進み、ユーザに完了通知を行って一連の処理を終える。この場合、撮像装置1からの画像ファイルPFの取り込みの際に、FTPサーバ4へのアップロードまでが自動的に行われたことになる。
さらにボイスメモ自動キャプション付与機能がオンであれば、そのアップロードされる画像ファイルPFにおいては、関連付けられた音声ファイルAFのボイスメモがテキスト化されたボイスメモテキストが、IPTCメタデータに付加されたものとなっていることになる。
If the FTP upload in step S130 is successfully completed, the CPU 71 proceeds from step S131 to step S133, notifies the user of completion, and ends the series of processing. In this case, when the image file PF is taken in from the imaging device 1, uploading to the FTP server 4 is automatically performed.
Furthermore, if the voice memo automatic captioning function is on, in the uploaded image file PF, the voice memo text, which is the voice memo of the associated audio file AF converted into text, is added to the IPTC metadata. There will be.

FTPサーバ4へのアップロード処理においてエラーが生じ、正常完了できなかった場合は、CPU71はステップS132からステップS134に進み、所定のエラー処理を行う。例えばユーザに自動アップロード処理のエラーを通知する。そして、撮像装置1からの画像ファイルPFの取り込み時の一連の処理を終える。
If an error occurs in the upload process to the FTP server 4 and the process cannot be completed normally, the CPU 71 proceeds from step S132 to step S134 and performs predetermined error processing. For example, notify users of errors in automatic upload processing. Then, the series of processes at the time of importing the image file PF from the imaging device 1 is completed.

<6.テキスト化及びキャプション編集を含む処理例>
続いて図6の画像一覧画面50が表示された状態から図14等のキャプション編集画面52に遷移した場合の処理例について、図25,図26,図27で説明する。
なお図25,図26,図27は一連のフローチャートを分けて示したもので、「C2」「C3」「C4」「C5」「C6」で接続関係を示している。
<6. Processing example including text conversion and caption editing>
Next, a processing example when the image list screen 50 of FIG. 6 is displayed transitions to the caption editing screen 52 of FIG. 14 etc. will be described with reference to FIGS. 25, 26, and 27.
Note that FIGS. 25, 26, and 27 show a series of flowcharts separately, and the connection relationships are shown by "C2", "C3", "C4", "C5", and "C6".

図25のステップS201は、CPU71が画像一覧画面50を表示させている状態とする。
上述のように画像一覧画面50においてユーザがある画像を指定する操作を行うと、その画像データについてのキャプション編集画面52を表示させる。このとき、まだ当該指定された画像データ(画像ファイルPF)についてはボイスメモのテキスト化が未実行であれば、この機会にテキスト化を行うようにしている。
Step S201 in FIG. 25 assumes that the CPU 71 is displaying the image list screen 50.
As described above, when the user performs an operation to designate a certain image on the image list screen 50, the caption editing screen 52 for that image data is displayed. At this time, if the voice memo has not yet been converted into text for the designated image data (image file PF), the voice memo is converted into text at this opportunity.

画像一覧画面50においてユーザによる画像指定操作を検知したら、CPU71はステップS202からステップS203に進む。
ステップS203でCPU71は、当該指定された画像データ(画像ファイルPF)について関連付けられた音声ファイルAFが存在するか否かを確認する。
関連付けられた音声ファイルAFが存在しなければステップS220に進み、CPU71は当該指定された画像データについてのキャプション編集画面52を表示させる。この場合は、ボイスメモが存在しないため、キャプション編集画面52においてボイスメモ欄133は表示させなくてもよい。
When the CPU 71 detects an image designation operation by the user on the image list screen 50, the CPU 71 proceeds from step S202 to step S203.
In step S203, the CPU 71 checks whether there is an audio file AF associated with the specified image data (image file PF).
If the associated audio file AF does not exist, the process advances to step S220, and the CPU 71 displays the caption editing screen 52 for the designated image data. In this case, since no voice memo exists, the voice memo field 133 does not need to be displayed on the caption editing screen 52.

関連付けられた音声ファイルAFが存在する場合は、CPU71はステップS204に進み、既にボイスメモのテキスト化が行われ、ボイスメモテキストが記憶されているか否かを確認する。既に記憶されていればステップS220に進み、CPU71は当該指定された画像データについてのキャプション編集画面52を表示させる。この場合は、図14のようにボイスメモテキスト領域134を表示したボイスメモ欄133が表示されることになる。また自動キャプション付与機能がオンとされてボイスメモテキストがキャプションデータに挿入されているのであれば、図19のように、キャプション欄132におけるキャプションデータにもボイスメモテキストが追加されている状態となる。 If the associated audio file AF exists, the CPU 71 proceeds to step S204 and checks whether the voice memo has already been converted into text and the voice memo text is stored. If it has already been stored, the process advances to step S220, and the CPU 71 displays the caption editing screen 52 for the specified image data. In this case, a voice memo field 133 displaying a voice memo text area 134 will be displayed as shown in FIG. Further, if the automatic captioning function is turned on and the voice memo text is inserted into the caption data, the voice memo text is also added to the caption data in the caption field 132, as shown in FIG. 19.

ボイスメモが存在するが未テキスト化であると判定した場合、CPU71はステップS205に進み、指定された画像ファイルPFに関連付けられた音声ファイルAFのボイスメモを対象として、テキスト化処理を行う。例えばボイスメモとしての音声データをテキスト変換エンジン5に送信し、テキスト化されたデータを受信する。或いは、情報処理装置2にテキスト変換エンジン83が搭載されている場合は、テキスト変換エンジン83によりテキスト化処理を行ってもよい。 If it is determined that the voice memo exists but has not been converted into text, the CPU 71 proceeds to step S205 and performs text conversion processing on the voice memo of the audio file AF associated with the designated image file PF. For example, audio data as a voice memo is sent to the text conversion engine 5, and text data is received. Alternatively, if the information processing device 2 is equipped with the text conversion engine 83, the text conversion engine 83 may perform the text conversion process.

テキスト化が正常に行われボイスメモテキストが取得できた場合、CPU71はステップS206からステップS207に進み、そのボイスメモテキストを、処理対象の画像ファイルPFに対応するボイスメモテキストとして例えば記憶部79に保存する処理を行う。 If the text conversion is successfully performed and the voice memo text is obtained, the CPU 71 proceeds from step S206 to step S207, and stores the voice memo text in, for example, the storage unit 79 as a voice memo text corresponding to the image file PF to be processed. I do.

ステップS208でCPU71は、自動キャプション付与機能がオンとされているか否かを確認する。自動キャプション付与機能は、図18のボイスメモ自動キャプション付与設定画面53によりユーザが任意にオン/オフを設定できる機能である。
自動キャプション付与機能がオンでなければCPU71はステップS220に進む。この場合、キャプション編集画面52ではボイスメモ欄133が表示され、キャプション欄132では、その時点までに入力されているキャプションデータが表示される。
In step S208, the CPU 71 checks whether the automatic captioning function is turned on. The automatic captioning function is a function that the user can arbitrarily turn on or off using the voice memo automatic captioning setting screen 53 shown in FIG.
If the automatic captioning function is not on, the CPU 71 proceeds to step S220. In this case, a voice memo field 133 is displayed on the caption editing screen 52, and in the caption field 132, caption data that has been input up to that point is displayed.

一方、自動キャプション付与機能がオンであれば、CPU71はステップS209に進み、ボイスメモテキストをキャプションデータに挿入する処理を行う。即ちIPTCメタデータにおけるディスクリプション/キャプションフィールドにボイスメモテキストを書き込む処理を行う。前述したように、ディスクリプション/キャプションフィールドに既にキャプションデータが書き込まれている場合は、CPU71は、その後に続けてボイスメモテキストを書き込むようにする。
CPU71は、このような自動キャプション付与の処理を行った上でステップS220に進む。この場合、キャプション編集画面52は図15のように、キャプション欄132におけるキャプションデータにもボイスメモテキストが追加されている状態となる。
On the other hand, if the automatic captioning function is on, the CPU 71 proceeds to step S209 and performs a process of inserting the voice memo text into the caption data. That is, processing is performed to write the voice memo text into the description/caption field in the IPTC metadata. As described above, if caption data has already been written in the description/caption field, the CPU 71 subsequently writes the voice memo text.
The CPU 71 performs such automatic captioning processing and then proceeds to step S220. In this case, the caption editing screen 52 is in a state where the voice memo text is also added to the caption data in the caption field 132, as shown in FIG.

ステップS205のテキスト化が正常に行われなかった場合、CPU71はステップS206からステップS220に進む。この場合は、ボイスメモがテキスト化できていないため、キャプション編集画面52においてボイスメモ欄133を表示させないことが考えられる。但しボイスメモマーク105により、ユーザにボイスメモの存在を明示することが考えられる。 If the text conversion in step S205 is not performed normally, the CPU 71 proceeds from step S206 to step S220. In this case, the voice memo field 133 may not be displayed on the caption editing screen 52 because the voice memo has not been converted into text. However, it is conceivable that the voice memo mark 105 clearly indicates the existence of the voice memo to the user.

キャプション編集画面52を表示させた状態で、CPU71の処理は図26のステップS221に進む。CPU71は、キャプション編集画面52上での各種のユーザ操作を監視する。即ちステップS221,S222,S223,S224,S225,図27のステップS226,S227,S228,S229のループで各操作を監視する。 With the caption editing screen 52 displayed, the process of the CPU 71 proceeds to step S221 in FIG. 26. The CPU 71 monitors various user operations on the caption editing screen 52. That is, each operation is monitored in a loop of steps S221, S222, S223, S224, S225, and steps S226, S227, S228, and S229 in FIG.

図26のステップS221ではCPU71は、戻るボタン106による画面遷移、即ち画像一覧画面50への遷移の操作を監視する。この操作を検知した場合は、CPU71はステップS240でキャプションの保存処理を行って図25のステップS201に戻る。つまりその時点でキャプション欄132に表示されているキャプションデータがIPTCメタデータにおけるディスクリプション/キャプションフィールドのデータとして保存される。 In step S221 of FIG. 26, the CPU 71 monitors the screen transition by the return button 106, that is, the operation of transition to the image list screen 50. If this operation is detected, the CPU 71 performs a caption saving process in step S240, and returns to step S201 in FIG. 25. That is, the caption data displayed in the caption field 132 at that time is saved as data in the description/caption field in the IPTC metadata.

CPU71はステップS222で、キャプション入力に関する操作を監視する。文字入力或いはボイス入力、或いはテンプレート要求など、キャプション入力に関連する操作に応じてCPU71はステップS241で入力対応処理を行う。
入力対応処理では、例えば、ソフトウェアキーボード131の表示処理が行われる。また、ソフトウェアキーボード131の操作に応じた文字入力や削除処理、或いはキャレット位置の変更処理などが行われる。また、コピー操作やペースト操作に応じたコピー処理やペースト処理なども行われる。
In step S222, the CPU 71 monitors operations related to caption input. In response to operations related to caption input, such as character input, voice input, or template request, the CPU 71 performs input response processing in step S241.
In the input handling process, for example, display processing of the software keyboard 131 is performed. In addition, character input and deletion processing, or caret position change processing, etc., are performed in response to operations on the software keyboard 131. Further, copy processing, paste processing, etc. are also performed in accordance with the copy operation and paste operation.

CPU71はステップS223でユーザの再生ボタン135の操作を監視する。再生ボタン135の操作を検知した場合、CPU71はステップS242に進み、音声再生を開始させる制御を行う。 The CPU 71 monitors the user's operation of the playback button 135 in step S223. If the CPU 71 detects the operation of the playback button 135, the CPU 71 proceeds to step S242 and performs control to start audio playback.

CPU71はステップS224でユーザの一時停止ボタンの操作を監視する。一時停止ボタンの操作を検知した場合、CPU71はステップS243に進み、音声再生を一時停止させる制御を行う。なお図示していないが、この場合、一時停止ボタンは再生ボタン135の表示に切り換えられる。 The CPU 71 monitors the user's operation of the pause button in step S224. If the operation of the pause button is detected, the CPU 71 proceeds to step S243 and performs control to temporarily stop audio reproduction. Although not shown, in this case, the pause button is switched to display the play button 135.

CPU71はステップS225でユーザの停止ボタンの操作を監視する。停止ボタンの操作を検知した場合、CPU71はステップS244に進み、音声再生を停止させる制御を行う。この場合、ボイスメモ欄133の表示は図14の状態に戻すようにする。 The CPU 71 monitors the user's operation of the stop button in step S225. If the operation of the stop button is detected, the CPU 71 proceeds to step S244 and performs control to stop audio reproduction. In this case, the display in the voice memo field 133 is returned to the state shown in FIG. 14.

CPU71は図27のステップS226でユーザのコピーボタン136の操作を監視する。コピーボタン136の操作を検知した場合、CPU71はステップS245に進み、クリップボードにボイスメモテキストをコピーする処理を行う。そしてステップS246でCPU71は、コピーに関するメッセージの表示を所定時間、或いは次のユーザ操作の検知時点まで行う。
なお、クリップボードにコピーされたボイスメモテキストについては、その後CPU71がステップS222でペースト操作を検知した場合に、ステップS241でキャプションデータとしてペーストされることになる。
The CPU 71 monitors the user's operation of the copy button 136 in step S226 of FIG. If the operation of the copy button 136 is detected, the CPU 71 proceeds to step S245 and performs a process of copying the voice memo text to the clipboard. Then, in step S246, the CPU 71 displays a message regarding copying for a predetermined period of time or until the next user operation is detected.
Note that the voice memo text copied to the clipboard will be pasted as caption data in step S241 when the CPU 71 detects a paste operation in step S222.

CPU71はステップS227でユーザの削除ボタン137の操作を監視する。削除ボタン137の操作を検知した場合、CPU71はステップS247に進み、削除してよいかをユーザに確認するための確認ダイアログを表示させる。削除の許可を示す操作をユーザが行ったことにより、CPU71はステップS248からステップS250へ進み、ボイスメモに関する削除処理を行う。
一方、削除の不許可を示す操作をユーザが行ったことにより、CPU71はステップS248からステップS249へと進み、削除をキャンセルする操作の有無を検出する。ユーザがキャンセルの意思表示をした場合は、CPU71は削除処理を実行せず、ステップS249からステップS221へと戻ることでユーザ操作の監視に戻る。キャンセルの意思表示がなされなかった場合、CPU71は再度ステップS247の処理を実行する。即ち、削除を許可する操作やキャンセルする操作を行わない限り、CPU71はステップS247,S248及びS249の各処理を繰り返す。
The CPU 71 monitors the user's operation of the delete button 137 in step S227. If the operation of the delete button 137 is detected, the CPU 71 proceeds to step S247 and displays a confirmation dialog for the user to confirm whether or not to delete. When the user performs an operation indicating permission for deletion, the CPU 71 proceeds from step S248 to step S250, and performs deletion processing regarding the voice memo.
On the other hand, when the user performs an operation indicating that deletion is not permitted, the CPU 71 proceeds from step S248 to step S249, and detects whether or not there is an operation to cancel deletion. If the user indicates an intention to cancel, the CPU 71 does not execute the deletion process and returns to monitoring the user operation by returning from step S249 to step S221. If the intention to cancel is not expressed, the CPU 71 executes the process of step S247 again. That is, unless an operation to permit deletion or an operation to cancel is performed, the CPU 71 repeats each process of steps S247, S248, and S249.

CPU71はステップS228で、画像拡大操作を監視する。例えばサムネイル画像103に対するピンチ操作やダブルタップなどとして画像拡大操作が行われたら、個別の画像が拡大して表示される個別画像画面の表示を行う。
フローチャートでの図示は省略するが、個別画像画面に遷移した後は、所定の操作に応じて異なる画像が選択されたり、画像一覧画面50に戻ったり、キャプション編集画面52に遷移するようにされる。
The CPU 71 monitors the image enlargement operation in step S228. For example, when an image enlargement operation is performed such as a pinch operation or a double tap on the thumbnail image 103, an individual image screen is displayed in which each individual image is enlarged and displayed.
Although not shown in the flowchart, after transitioning to the individual image screen, a different image is selected according to a predetermined operation, the screen returns to the image list screen 50, or the screen transitions to the caption editing screen 52. .

CPU71はステップS229で、他の画像の選択操作を監視する。即ちキャプション編集画面52における送りボタン107の操作を監視する。送りボタン107の操作を検知したら、CPU71は図25のステップS203に進む。つまり前又は後の画像が新たに指定されたとして、その指定された画像データについてのステップS203からステップS209の処理を上記同様に行い、ステップS220で、その画像データについてのキャプション編集画面52の表示を行う。 In step S229, the CPU 71 monitors other image selection operations. That is, the operation of the forward button 107 on the caption editing screen 52 is monitored. When detecting the operation of the forward button 107, the CPU 71 proceeds to step S203 in FIG. 25. In other words, assuming that a previous or subsequent image is newly specified, the processes from step S203 to step S209 for the specified image data are performed in the same manner as described above, and in step S220, the caption editing screen 52 for that image data is displayed. I do.

CPU71はステップS230でIPTCメタデータ編集ボタン240が操作されたか否かを監視する。IPTCメタデータ編集ボタン240に対する操作を検出した場合、CPU71はステップS231において、IPTCメタデータ編集画面69(図16、図17参照)を表示させる処理を行う。IPTCメタデータ編集画面69の表示の際には、例えば記憶部79からIPTCメタデータの各項目の表示のオン/オフ設定を取得し、それに応じた項目の表示を行う。即ち、一部の項目について非表示となるように処理を行う。 In step S230, the CPU 71 monitors whether the IPTC metadata edit button 240 has been operated. If an operation on the IPTC metadata editing button 240 is detected, the CPU 71 performs processing to display the IPTC metadata editing screen 69 (see FIGS. 16 and 17) in step S231. When displaying the IPTC metadata editing screen 69, for example, the display on/off settings for each item of IPTC metadata are acquired from the storage unit 79, and the items are displayed accordingly. That is, processing is performed so that some items are hidden.

以上のように1つの画像データが指定されるときに、テキスト化処理や自動キャプション付与機能の処理が行われる場合がある。またキャプション編集画面52においてはボイスメモテキストの表示、再生、削除、コピー、キャプションデータへのペースト、手動や音声によるキャプション入力などが可能とされる。
When one piece of image data is specified as described above, text conversion processing or automatic captioning function processing may be performed. In addition, on the caption editing screen 52, it is possible to display, reproduce, delete, copy, and paste voice memo text into caption data, and input captions manually or by voice.

<7.アップロード時の処理例>
FTPサーバ4へのアップロード時の処理を図28に示す。例えばユーザによってアップロードする画像ファイルPFやアップロード先のFTPサーバ4が指定され、アップロード実行の指示が行われることにより、図28のアップロード処理が開始される。
<7. Example of processing when uploading>
FIG. 28 shows the process when uploading to the FTP server 4. For example, the upload process shown in FIG. 28 is started when the user specifies the image file PF to be uploaded and the FTP server 4 as the upload destination and issues an instruction to execute the upload.

CPU71はステップS301でアップロードファイルの準備処理を行う。これは上述した図24と同様の処理となる。
CPU71はステップS322で、ユーザが指定したアップロード先のFTPサーバ4に対するFTP接続及びログインの処理を行う。
そしてログインが完了したら、CPU71はステップS323からステップS330に進みFTPアップロード処理を実行する。即ちアップロードファイルの準備処理でアップロードするものとしてセットした画像ファイルPFや音声ファイルAFを、順次FTP送信していく処理を行う。
The CPU 71 performs upload file preparation processing in step S301. This is the same process as in FIG. 24 described above.
In step S322, the CPU 71 performs FTP connection and login processing to the FTP server 4 as the upload destination specified by the user.
When the login is completed, the CPU 71 advances from step S323 to step S330 and executes FTP upload processing. That is, a process is performed in which image files PF and audio files AF that are set to be uploaded in the upload file preparation process are sequentially transmitted via FTP.

なおFTPサーバ4と通信ができなかった場合、或いは通信できてもログインできなかった場合は、CPU71はエラーとしてステップS324からステップS325に進み、所定のエラー処理を行う。例えばユーザにアップロード処理のエラーを通知する。そしてアップロード処理をエラー終了とする。 Note that if communication with the FTP server 4 is not possible, or if communication is possible but login is not possible, the CPU 71 determines an error and proceeds from step S324 to step S325 to perform predetermined error processing. For example, notify the user of an error in the upload process. Then, the upload process ends with an error.

ステップS330でのFTPアップロードが正常完了した場合は、CPU71はステップS331からステップS333に進み、ユーザに完了通知を行ってアップロード処理を終える。
アップロードされた画像ファイルPFにおいては、ボイスメモテキストが、自動キャプション付与機能により、もしくはユーザのコピー/ペースト操作により、IPTCメタデータにおけるキャプションデータとして反映される状態となっていることが想定される。
またユーザの設定に応じて音声ファイルAFが共にアップロードされる場合も想定される。
If the FTP upload in step S330 is successfully completed, the CPU 71 proceeds from step S331 to step S333, notifies the user of completion, and finishes the upload process.
In the uploaded image file PF, it is assumed that the voice memo text is reflected as caption data in the IPTC metadata by the automatic captioning function or by the user's copy/paste operation.
It is also assumed that an audio file AF may also be uploaded according to the user's settings.

FTPサーバ4へのアップロード処理においてエラーが生じ、正常完了できなかった場合は、CPU71はステップS332からステップS334に進み、所定のエラー処理を行う。例えばユーザにアップロード処理のエラーを通知する。そしてアップロード処理をエラー終了とする。
If an error occurs in the upload process to the FTP server 4 and the process cannot be completed normally, the CPU 71 proceeds from step S332 to step S334 and performs predetermined error processing. For example, notify the user of an error in the upload process. Then, the upload process ends with an error.

<8.IPTCフィールド設定画面に関する処理>
図10等に示すIPTCフィールド設定画面67が表示された状態において情報処理装置2が実行する処理の一例について、図29を参照して説明する。
<8. Processing related to IPTC field setting screen>
An example of a process executed by the information processing device 2 in a state where the IPTC field setting screen 67 shown in FIG. 10 etc. is displayed will be described with reference to FIG. 29.

CPU71はステップS401でオン/オフ設定表示部221に対する操作を監視する。
オン/オフ設定表示部221に対する操作が行われたと判定した場合、CPU71はステップS402で切換処理を行う。切換処理では、IPTCメタデータの各項目のうち、操作対象の項目についてオン状態とオフ状態を切り換える処理を行う。
切換処理を終えたCPU71は再度ステップS401の処理へと戻る。
The CPU 71 monitors the operation on the on/off setting display section 221 in step S401.
If it is determined that the on/off setting display section 221 has been operated, the CPU 71 performs switching processing in step S402. In the switching process, a process is performed to switch between an on state and an off state for an item to be operated among each item of IPTC metadata.
After completing the switching process, the CPU 71 returns to the process of step S401 again.

CPU71はステップS403において、編集ボタン222に対する操作を監視する。
編集ボタン222に対する操作が行われたと判定した場合、CPU71はステップS404で図11に示すフィールド表示名変更ダイアログ68の表示を行う。これにより、フィールドの表示名を任意の文字列に変更することが可能とされる。
In step S403, the CPU 71 monitors the operation on the edit button 222.
If it is determined that the edit button 222 has been operated, the CPU 71 displays a field display name change dialog 68 shown in FIG. 11 in step S404. This makes it possible to change the field display name to any character string.

CPU71はステップS404の処理を終えた後、フィールド表示名変更ダイアログ68を表示した状態で行われるユーザの各種操作を検出し対応する処理を行う。例えば、前述したように表示名の入力操作を検出し表示名入力欄224に入力文字を表示させる処理や、入力された文字列を表示名として決定する操作を検出しフィールドの表示名を記憶する処理などを行う。
フィールド表示名変更ダイアログ68の表示を終了させると共に、CPU71は再度ステップS401の処理へと戻る。
After completing the process in step S404, the CPU 71 detects various operations performed by the user while the field display name change dialog 68 is displayed, and performs corresponding processes. For example, as described above, the process of detecting a display name input operation and displaying the input characters in the display name input field 224, or detecting the operation of determining an input character string as a display name and storing the display name of the field. Perform processing, etc.
Upon ending the display of the field display name change dialog 68, the CPU 71 returns to the process of step S401 again.

CPU71はステップS405において戻るボタン106に対する操作など、画面遷移操作を監視する。
例えば、戻るボタン106が操作されたと判定された場合、CPU71はステップS406においてメタデータ編集設定項目画面66を表示させる処理を行う。なお、IPTCフィールド設定画面67から他の画面へ遷移する際にCPU71は画面上に反映された各種設定状況を記憶部79に記憶する処理を行う。これにより、IPTCメタデータの項目ごとの表示/非表示の設定や、フィールドごとの表示名などが記憶され、図17などのIPTCメタデータ編集画面69の表示の際に、ユーザにとって最適な表示を行うことができる。
The CPU 71 monitors screen transition operations such as operations on the return button 106 in step S405.
For example, if it is determined that the return button 106 has been operated, the CPU 71 performs processing to display the metadata editing setting item screen 66 in step S406. Note that when transitioning from the IPTC field setting screen 67 to another screen, the CPU 71 performs a process of storing various setting situations reflected on the screen in the storage unit 79. As a result, display/non-display settings for each item of IPTC metadata, display name for each field, etc. are memorized, and when displaying the IPTC metadata editing screen 69 shown in FIG. 17, the optimal display for the user is created. It can be carried out.

CPU71は、IPTCフィールド設定画面67が表示されている間、図29に示す一連の処理を繰り返す。
The CPU 71 repeats the series of processes shown in FIG. 29 while the IPTC field setting screen 67 is displayed.

<9.まとめ及び変形例>
以上の実施の形態では次のような効果が得られる。
実施の形態の情報処理装置2は、画像に付与されるメタデータ(IPTCメタデータなど)のフィールド(項目)ごとの表示のオン/オフ切換操作を検出する処理を行うユーザインタフェース制御部(UI制御部31)を備えている。
これにより、メタデータに含まれるフィールドのうちユーザが編集対象とするもののみを表示させるような操作が可能とされている。
従って、ユーザにとって編集対象のフィールドを探しやすい環境を提供すると共に、メタデータの編集作業の効率化を図ることができる。
<9. Summary and modifications>
The above embodiment provides the following effects.
The information processing device 2 of the embodiment includes a user interface control unit (UI control part 31).
This makes it possible to display only those fields included in the metadata that the user wants to edit.
Therefore, it is possible to provide an environment in which it is easy for the user to search for fields to be edited, and to improve the efficiency of metadata editing work.

図29のIPTCフィールド設定画面67に関する処理例で説明したように、ユーザインタフェース制御部(UI制御部31)は、検出した切換操作に基づいてメタデータ(IPTCメタデータなど)のフィールド(項目)の表示可否を制御する処理を行ってもよい。
これにより、ユーザの切換操作の結果が表示に反映される。
従って、メタデータの編集作業を行うユーザのとって使い勝手のよい表示を行うことができる。
As explained in the processing example related to the IPTC field setting screen 67 in FIG. Processing to control display availability may also be performed.
Thereby, the result of the user's switching operation is reflected on the display.
Therefore, it is possible to provide a display that is convenient for users who edit metadata.

図29のIPTCフィールド設定画面に関する処理例で説明したように、表示可否の設定を記憶する記憶部79を備えていてもよい。
これにより、ユーザの切換操作の結果が保存され、表示の際に利用される。
従って、メタデータの項目ごとになされるユーザの切換操作に応じて、ユーザが編集対象とするもののみが表示される環境を実際に提供することができる。
As described in the processing example related to the IPTC field setting screen in FIG. 29, the storage unit 79 may be provided to store settings for display permission/prohibition.
Thereby, the result of the user's switching operation is saved and used for display.
Therefore, it is possible to actually provide an environment in which only what the user wants to edit is displayed in response to the user's switching operation performed for each item of metadata.

図16及び図17のIPTCメタデータ編集画面69で説明したように、ユーザインタフェース制御部(UI制御部31)は、表示可否に基づいて表示されたメタデータ(IPTCメタデータなど)のフィールド(項目)から編集対象のフィールド(項目)を選択する操作を検出する処理を行ってもよい。
これにより、ユーザは、編集対象の項目を編集することが可能とされる。特に、編集対象の項目のみを表示するように表示のオン/オフの切り換えが可能とされているため、より編集対象の項目を選択し易くされる。
従って、編集作業の効率化を図ることができる。
As explained in the IPTC metadata editing screen 69 in FIGS. 16 and 17, the user interface control unit (UI control unit 31) selects the field (item) of the displayed metadata (IPTC metadata, etc.) based on whether or not it can be displayed. ) may perform a process of detecting an operation of selecting a field (item) to be edited.
This allows the user to edit the item to be edited. In particular, since the display can be switched on and off so that only the items to be edited are displayed, it is easier to select the items to be edited.
Therefore, it is possible to improve the efficiency of editing work.

図10のIPTCフィールド設定画面67で説明したように、ユーザインタフェース制御部(UI制御部31)は、フィールド(IPTCメタデータの項目など)ごとの表示名を編集可能とするユーザインタフェース処理を行ってもよい。
これにより、メタデータのフィールド名が分かり難い場合などに異なる表示名を付与するための操作が可能とされる。
従って、ユーザが編集対象のフィールドを探しやすい環境を提供すると共に、メタデータの編集作業の効率化を図ることができる。
As explained in connection with the IPTC field setting screen 67 in FIG. 10, the user interface control unit (UI control unit 31) performs user interface processing to enable editing of display names for each field (IPTC metadata items, etc.). Good too.
This makes it possible to perform an operation to give a different display name when the field name of metadata is difficult to understand.
Therefore, it is possible to provide an environment in which the user can easily search for fields to be edited, and to improve the efficiency of metadata editing work.

図12の項目名表示部220Aについて説明したように、ユーザインタフェース制御部(UI制御部31)は、フィールド名の編集ができないようにユーザインタフェース処理を行ってもよい。
これにより、例えば仕様で決定されているフィールド名が変更されて、メタデータに基づく画像ファイルの分類処理などが正常に動作しなくなってしまうことが防止される。
As described for the item name display section 220A in FIG. 12, the user interface control section (UI control section 31) may perform user interface processing so that field names cannot be edited.
This prevents, for example, a field name determined by the specifications from being changed and image file classification processing based on metadata not functioning properly.

図16及び図17のIPTCフィールド設定画面67で説明したように、ユーザインタフェース制御部(UI制御部31)は、メタデータ(IPTCメタデータなど)としてのテキスト情報を編集する操作を検出する処理を行ってもよい。
これにより、ユーザはメタデータのテキスト情報の編集操作が可能とされる。
従って、編集作業の効率化を図ることができる。
As explained in the IPTC field setting screen 67 in FIGS. 16 and 17, the user interface control unit (UI control unit 31) performs processing to detect an operation to edit text information as metadata (IPTC metadata, etc.). You may go.
This allows the user to edit the text information of the metadata.
Therefore, it is possible to improve the efficiency of editing work.

図1を用いて情報処理装置2について説明したように、情報処理装置2は携帯端末装置であることが望ましい。
これにより、撮像装置1で撮影した画像をその場で情報処理装置2としての携帯端末装置に転送することができ、素早くメタデータの編集を行うことができる。特に、編集対象のメタデータの項目のみが編集対象として表示されることにより、編集作業を更に効率化することができる。
As described about the information processing device 2 using FIG. 1, the information processing device 2 is preferably a mobile terminal device.
Thereby, images captured by the imaging device 1 can be transferred to the mobile terminal device serving as the information processing device 2 on the spot, and metadata can be edited quickly. In particular, by displaying only the metadata items to be edited, the editing work can be made more efficient.

図3を用いて説明したように、メタデータはIPTCメタデータとされてもよい。団体等によってフォーマット化されたメタデータとされることにより、上述した技術を広範囲に適用することができる。 As explained using FIG. 3, the metadata may be IPTC metadata. By using metadata formatted by an organization, etc., the above-mentioned technology can be widely applied.

図25のフローチャートの説明においては、画像一覧画面50からキャプション編集画面52に遷移する際にボイスメモのテキスト化が済んでいない場合にテキスト化処理を実行する例を説明したが、キャプション編集を速やかに行うために他のタイミングでテキスト化処理を実行するようにしてもよい。
例えば、図22のステップS112において撮像装置からの画像取り込み時におけるテキスト化処理を実行する例を説明した。このとき、ステップS113で正常完了しなかったと判定した場合に、ボイスメモのテキスト化が失敗したことを通知するダイアログ表示を行い、該ダイアログ画面にテキスト化を再度行うためのリトライボタンを配置してもよい。即ち、ユーザがリトライボタンを操作することにより、再度テキスト化処理が実行されるように構成してもよい。
In the explanation of the flowchart in FIG. 25, an example was described in which the text conversion process is executed when the voice memo has not been converted to text when transitioning from the image list screen 50 to the caption editing screen 52. In order to do this, the text conversion process may be executed at other timings.
For example, an example has been described in which text conversion processing is executed when an image is captured from an imaging device in step S112 of FIG. 22. At this time, if it is determined in step S113 that the voice memo has not been successfully completed, a dialog is displayed to notify that the conversion of the voice memo to text has failed, and a retry button for retrying the conversion to text is placed on the dialog screen. good. That is, the text conversion process may be executed again by the user operating the retry button.

また、上述では、画面遷移以外のタイミングで画像データにIPTCメタデータを付与してもよい旨を記載したが、その際には、IPTCメタデータを付与する画像ファイルPFを選択可能とすることで、任意の数の画像ファイルPFを対象としてIPTCメタデータの付与を行えるようにしてもよい。
例えば、図7のメニュー画面55のIPTCメタデータプリセット項目142を操作することで任意のIPTCメタデータのプリセットデータを作成できる。更に、ユーザは、画像一覧画面50において任意の数の画像を選択した後に所定の操作を行うことにより、選択された複数の画像ファイルPFに一括してIPTCメタデータのプリセットデータを付与することが可能とされる。
Furthermore, in the above description, it was stated that IPTC metadata may be added to image data at a timing other than screen transition, but in that case, it is possible to select the image file PF to which IPTC metadata is added , IPTC metadata may be added to an arbitrary number of image files PF.
For example, by operating the IPTC metadata preset item 142 on the menu screen 55 in FIG. 7, preset data of any IPTC metadata can be created. Furthermore, by performing a predetermined operation after selecting an arbitrary number of images on the image list screen 50, the user can add preset data of IPTC metadata to a plurality of selected image files PF at once. It is considered possible.

IPTCメタデータのプリセットデータの生成は、新規に作成可能である他、既存のプリセットデータを編集することで新規のプリセットデータとすることも可能である。また、プリセットデータの一覧の表示操作や、一部のプリセットデータの削除操作や、作成済みのプリセットデータに対する編集操作などが可能とされていてもよい。
プリセットデータの一覧から任意のプリセットデータを選択し、その後に付与対象の画像ファイルPFを選択することにより、1または複数の画像ファイルPFにIPTCメタデータのプリセットデータを付与可能とされてもよい。
Preset data of IPTC metadata can be created not only by creating new data, but also by editing existing preset data to create new preset data. Further, the user may be able to perform operations such as displaying a list of preset data, deleting some of the preset data, and editing already created preset data.
It may be possible to add preset data of IPTC metadata to one or more image files PF by selecting arbitrary preset data from a list of preset data and then selecting an image file PF to be added.

IPTCメタデータは上述したアプリケーションプログラムを用いて生成されるだけでなく、他の情報処理装置などから取得可能とされていてもよい。例えば、他の情報処理装置で生成されたIPTCメタデータのプリセットデータをxmp(Extensible Metadata Platform)ファイルとして情報処理装置2のローカルストレージに取り込み、該ローカルストレージからアプリケーションプログラムが管理する記憶領域(アプリケーションプログラムが使用するDB)にプリセットデータとして記憶することが可能とされる。該記憶領域に記憶されたプリセットデータは、情報処理装置2でアプリケーションプログラムを用いて生成されたプリセットデータと同様に取り扱われる。 IPTC metadata may not only be generated using the above-mentioned application program, but may also be obtainable from another information processing device. For example, preset data of IPTC metadata generated by another information processing device is imported into the local storage of the information processing device 2 as an xmp (Extensible Metadata Platform) file, and from the local storage, a storage area (application program It is possible to store it as preset data in the DB used by The preset data stored in the storage area is handled in the same way as preset data generated by the information processing device 2 using an application program.

アプリケーションプログラムが管理する記憶領域に記憶する際には、IPTCメタデータの各項目のうち、アプリケーションプログラムの処理対象の項目のみがプリセットデータとして記憶される。例えば、IPTCメタデータの仕様改訂によって新たに追加された項目がアプリケーションプログラムで扱うことができない場合には、処理対象外としてもよい。この場合には、処理対象の項目のみがアプリケーションプログラムが管理する記憶領域にプリセットデータとして記憶される。
或いは、未知のツールによって作成された項目などが処理対象外とされることもある。
When storing in a storage area managed by an application program, among the items of IPTC metadata, only the items to be processed by the application program are stored as preset data. For example, if an item newly added due to a revision of IPTC metadata specifications cannot be handled by an application program, it may be excluded from processing. In this case, only the items to be processed are stored as preset data in the storage area managed by the application program.
Alternatively, items created by an unknown tool may be excluded from processing.

なお、IPTCメタデータのプリセットデータは、ユーザごと(アカウントごと)に記憶される。例えば、IPTCメタデータのプリセットデータはユーザIDに紐付けられて管理される。ユーザごとのプリセットデータは、共有可能とされることにより他のユーザが使用可能とされてもよい。 Note that the preset data of IPTC metadata is stored for each user (each account). For example, preset data of IPTC metadata is managed in association with a user ID. Preset data for each user may be shared so that other users can use it.

IPTCメタデータのプリセットデータの付与において、付与対象の画像ファイルPFにIPTCメタデータが既に付与されている場合は、IPTCメタデータの上書きを行う。なお、IPTCメタデータの上書きの可否をユーザに確認する処理を実行してもよい。また、IPTCメタデータの項目のうち、追記が可能な項目については、プリセットデータの付与前に書き込まれていたメタデータに今回付与するプリセットデータを続けて書き込むことにより、双方の情報が画像ファイルPFに付与されるようにしてもよい。 In assigning preset data of IPTC metadata, if IPTC metadata has already been assigned to the image file PF to be assigned, the IPTC metadata is overwritten. Note that a process may be performed in which the user is asked whether or not to overwrite the IPTC metadata. Also, for items that can be added among the IPTC metadata items, by writing the preset data that is added this time to the metadata that was written before adding the preset data, both information will be saved in the image file PF. may be given to

実施の形態のプログラムは、図22から図29に示す各処理を、例えばCPU、DSP等、或いはこれらを含むデバイスに実行させるプログラムである。
即ち、実施の形態のプログラムは、画像に付与されるメタデータのフィールドごとの表示のオン/オフ切換操作を検出する処理を情報処理装置に実行させるプログラムである。
このようなプログラムにより、上述した情報処理装置2を、例えば携帯端末装置やパーソナルコンピュータ、その他の情報処理が実行できる機器において実現できる。
The program of the embodiment is a program that causes a CPU, a DSP, etc., or a device including these, to execute each process shown in FIGS. 22 to 29, for example.
That is, the program of the embodiment is a program that causes the information processing apparatus to execute a process of detecting an on/off switching operation for displaying each field of metadata added to an image.
With such a program, the above-described information processing device 2 can be implemented in, for example, a mobile terminal device, a personal computer, or other equipment capable of executing information processing.

このような情報処理装置2を実現するプログラムはコンピュータ装置等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。
あるいはまた、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto Optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的あるいは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
A program for realizing such an information processing device 2 can be recorded in advance in an HDD as a recording medium built into a device such as a computer device, or a ROM in a microcomputer having a CPU.
Alternatively, a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a Blu-ray Disc (registered trademark), a magnetic disk, a semiconductor memory, It can be stored (recorded) temporarily or permanently in a removable recording medium such as a memory card. Such a removable recording medium can be provided as so-called package software.
In addition to installing such a program into a personal computer or the like from a removable recording medium, it can also be downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.

またこのようなプログラムによれば、実施の形態の情報処理装置2の広範な提供に適している。例えばスマートフォンやタブレット等の携帯端末装置、携帯電話機、パーソナルコンピュータ、ゲーム機器、ビデオ機器、PDA(Personal Digital Assistant)等にプログラムをダウンロードすることで、当該スマートフォン等を、本開示の情報処理装置2として機能させることができる。 Further, such a program is suitable for widely providing the information processing device 2 of the embodiment. For example, by downloading a program to a mobile terminal device such as a smartphone or tablet, a mobile phone, a personal computer, a game device, a video device, a PDA (Personal Digital Assistant), etc., the smartphone or the like can be used as the information processing device 2 of the present disclosure. It can be made to work.

なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。

<10.本技術>
Note that the effects described in this specification are merely examples and are not limiting, and other effects may also exist.

<10. This technology>

なお本技術は以下のような構成も採ることができる。
(1)
画像に付与されるメタデータのフィールドごとの表示のオン/オフ切換操作を検出する処理を行うユーザインタフェース制御部を備えた
情報処理装置。
(2)
前記ユーザインタフェース制御部は、検出した前記切換操作に基づいて前記メタデータのフィールドの表示可否を制御する処理を行う
上記(1)に記載の情報処理装置。
(3)
前記表示可否の設定を記憶する記憶部を備えた
上記(2)に記載の情報処理装置。
(4)
前記ユーザインタフェース制御部は、前記表示可否に基づいて表示された前記メタデータのフィールドから編集対象のフィールドを選択する操作を検出する処理を行う
上記(2)から上記(3)の何れかに記載の情報処理装置。
(5)
前記ユーザインタフェース制御部は、前記フィールドごとの表示名を編集可能とするユーザインタフェース処理を行う
上記(1)から上記(4)の何れかに記載の情報処理装置。
(6)
前記ユーザインタフェース制御部は、フィールド名の編集ができないように前記ユーザインタフェース処理を行う
上記(5)に記載の情報処理装置。
(7)
前記ユーザインタフェース制御部は、前記メタデータとしてのテキスト情報を編集する操作を検出する処理を行う
上記(1)から上記(6)の何れかに記載の情報処理装置。
(8)
携帯端末装置である
上記(1)から上記(7)の何れかに記載の情報処理装置。
(9)
前記メタデータはIPTCメタデータとされた
上記(1)から上記(8)の何れかに記載の情報処理装置。
(10)
画像に付与されるメタデータのフィールドごとの表示のオン/オフ切換操作を検出する処理を
情報処理装置が実行する情報処理方法。
(11)
画像に付与されるメタデータのフィールドごとの表示のオン/オフ切換操作を検出する処理を
情報処理装置に実行させるプログラム。
Note that the present technology can also adopt the following configuration.
(1)
An information processing device including a user interface control unit that performs processing to detect an on/off switching operation for displaying each field of metadata added to an image.
(2)
The information processing device according to (1), wherein the user interface control unit performs a process of controlling whether or not the metadata field can be displayed based on the detected switching operation.
(3)
The information processing device according to (2) above, further comprising a storage unit that stores the display enable/disable setting.
(4)
The user interface control unit performs a process of detecting an operation of selecting a field to be edited from among the fields of the metadata displayed based on the display availability, as described in any one of (2) to (3) above. information processing equipment.
(5)
The information processing device according to any one of (1) to (4) above, wherein the user interface control unit performs user interface processing that allows editing of a display name for each field.
(6)
The information processing device according to (5), wherein the user interface control unit performs the user interface processing so that field names cannot be edited.
(7)
The information processing device according to any one of (1) to (6) above, wherein the user interface control unit performs a process of detecting an operation to edit text information as the metadata.
(8)
The information processing device according to any one of (1) to (7) above, which is a mobile terminal device.
(9)
The information processing device according to any one of (1) to (8) above, wherein the metadata is IPTC metadata.
(10)
An information processing method in which an information processing device performs processing to detect on/off switching operations for displaying each field of metadata added to an image.
(11)
A program that causes an information processing device to perform processing to detect on/off switching operations for the display of each field of metadata added to an image.

1 撮像装置
2 情報処理装置
4 FTPサーバ
6 ネットワーク
31 UI制御部
67 IPTCフィールド設定画面
68 フィールド表示名変更ダイアログ
69 IPTCメタデータ編集画面
71 CPU
79 記憶部
221 オン/オフ設定表示部
222 編集ボタン
1 Imaging device 2 Information processing device 4 FTP server 6 Network 31 UI control unit 67 IPTC field setting screen 68 Field display name change dialog 69 IPTC metadata editing screen 71 CPU
79 Storage section 221 On/off setting display section 222 Edit button

Claims (10)

画像に付与されるメタデータのフィールドごとの表示のオン/オフ切換操作を検出する処理を行うユーザインタフェース制御部を備え
前記ユーザインタフェース制御部は、格納される情報の内容が規格化されているフィールドの表示名を変更するためのユーザインタフェース処理を行う
情報処理装置。
Equipped with a user interface control unit that performs processing to detect on/off switching operations for displaying each field of metadata added to an image ,
The user interface control unit performs user interface processing to change the display name of a field whose stored information content is standardized.
Information processing device.
前記ユーザインタフェース制御部は、検出した前記切換操作に基づいて前記メタデータのフィールドの表示可否を制御する処理を行う
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1 , wherein the user interface control unit performs processing for controlling whether or not the metadata field can be displayed based on the detected switching operation.
前記表示可否の設定を記憶する記憶部を備えた
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, further comprising a storage unit that stores the display permission/prohibition setting.
前記ユーザインタフェース制御部は、前記表示可否に基づいて表示された前記メタデータのフィールドから変更対象のフィールドを選択する操作を検出する処理を行う
請求項2に記載の情報処理装置。
The information processing apparatus according to claim 2, wherein the user interface control unit performs a process of detecting an operation for selecting a field to be changed from among fields of the displayed metadata based on the display availability.
前記ユーザインタフェース制御部は、フィールド名の編集ができないように前記ユーザインタフェース処理を行う
請求項に記載の情報処理装置。
The information processing apparatus according to claim 1 , wherein the user interface control unit performs the user interface processing so that field names cannot be edited.
前記ユーザインタフェース制御部は、前記メタデータとしてのテキスト情報を編集する操作を検出する処理を行う
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the user interface control unit performs processing to detect an operation to edit text information as the metadata.
携帯端末装置である
請求項1に記載の情報処理装置。
The information processing device according to claim 1, which is a mobile terminal device.
前記メタデータはIPTCメタデータとされた
請求項1に記載の情報処理装置。
The information processing device according to claim 1, wherein the metadata is IPTC metadata.
画像に付与されるメタデータのフィールドごとの表示のオン/オフ切換操作を検出する処理と、
格納される情報の内容が規格化されているフィールドの表示名を変更するための処理と、を
情報処理装置が実行する情報処理方法。
A process for detecting an on/off switching operation for displaying each field of metadata added to an image ;
A process for changing the display name of a field whose stored information content is standardized;
An information processing method executed by an information processing device.
画像に付与されるメタデータのフィールドごとの表示のオン/オフ切換操作を検出する処理と、
格納される情報の内容が規格化されているフィールドの表示名を変更するための処理と、を
情報処理装置に実行させるプログラム。
A process for detecting an on/off switching operation for displaying each field of metadata added to an image ;
A process for changing the display name of a field whose stored information content is standardized;
A program that is executed by an information processing device.
JP2019157233A 2019-08-29 2019-08-29 Information processing device, information processing method, program Active JP7415376B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019157233A JP7415376B2 (en) 2019-08-29 2019-08-29 Information processing device, information processing method, program
PCT/JP2020/030428 WO2021039367A1 (en) 2019-08-29 2020-08-07 Information processing apparatus, information processing method, and program for picture metadata display and editing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019157233A JP7415376B2 (en) 2019-08-29 2019-08-29 Information processing device, information processing method, program

Publications (2)

Publication Number Publication Date
JP2021035025A JP2021035025A (en) 2021-03-01
JP7415376B2 true JP7415376B2 (en) 2024-01-17

Family

ID=72234887

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019157233A Active JP7415376B2 (en) 2019-08-29 2019-08-29 Information processing device, information processing method, program

Country Status (2)

Country Link
JP (1) JP7415376B2 (en)
WO (1) WO2021039367A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023009679A (en) * 2021-07-07 2023-01-20 キヤノン株式会社 Communication apparatus, imaging apparatus, control method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010097441A (en) 2008-10-16 2010-04-30 Canon Inc Information processing apparatus, information processing method, and program
US20140115471A1 (en) 2012-10-22 2014-04-24 Apple Inc. Importing and Exporting Custom Metadata for a Media Asset
JP2017204692A (en) 2016-05-10 2017-11-16 キヤノン株式会社 Imaging apparatus, remote controller, control method, and program and recording medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6598136B2 (en) 2016-02-03 2019-10-30 リコーイメージング株式会社 Setting information management system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010097441A (en) 2008-10-16 2010-04-30 Canon Inc Information processing apparatus, information processing method, and program
US20140115471A1 (en) 2012-10-22 2014-04-24 Apple Inc. Importing and Exporting Custom Metadata for a Media Asset
JP2017204692A (en) 2016-05-10 2017-11-16 キヤノン株式会社 Imaging apparatus, remote controller, control method, and program and recording medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
DANNY GREER,Modifying Metadata Views in Final Cut Pro X,The Beat: A Blog by PremiumBeat,2011年10月05日,インターネット <URL : https://www.premiumbeat.com/blog/modifying-metadata-views-in-final-cut-pro-x/>

Also Published As

Publication number Publication date
JP2021035025A (en) 2021-03-01
WO2021039367A1 (en) 2021-03-04

Similar Documents

Publication Publication Date Title
US8583940B2 (en) Electronic camera, storage medium, and data transfer method
US11647132B2 (en) Communication terminal, method for controlling communication terminal, communication system, and storage medium
US7805539B2 (en) Data transfer apparatus and data receiving apparatus, and data transfer system
JP2012513159A (en) Wireless camera with automatic wake-up and transfer function and transfer status display
JP6223534B2 (en) Imaging device, imaging method, and imaging control program
KR20070026205A (en) Information processing apparatus and method, and program
JP7415376B2 (en) Information processing device, information processing method, program
US9307113B2 (en) Display control apparatus and control method thereof
JP7380025B2 (en) Imaging device, information processing method, program
JP2004312367A (en) Digital camera, data synchronizing system, data synchronizing method
WO2021039057A1 (en) Information processing device, information processing method, and program
JP7334501B2 (en) Information processing device, information processing method, program
WO2021039366A1 (en) Information processing device, information processing method, and program
WO2021039129A1 (en) Information processing device, information processing method, and program
JP2005175957A (en) Image management device, digital camera, and image management method
JP4860495B2 (en) Imaging device
US20240119024A1 (en) Communication apparatus and control method
JP7256671B2 (en) Communication device and its control method and program
US20240134823A1 (en) Communication apparatus, image capture apparatus and control method
JP2021057762A (en) Imaging apparatus, information processing method, and program
JP2023009679A (en) Communication apparatus, imaging apparatus, control method, and program
JP2012034223A (en) Recording/reproducing device and method for controlling recording/reproducing device
JP2006301792A (en) Recording and reproducing device, recording and reproducing method, program and recording medium
JP2014171147A (en) Imaging device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230822

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230921

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230921

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R151 Written notification of patent or utility model registration

Ref document number: 7415376

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151