JP2020042427A - Information processing apparatus, control method thereof, and program - Google Patents

Information processing apparatus, control method thereof, and program Download PDF

Info

Publication number
JP2020042427A
JP2020042427A JP2018168110A JP2018168110A JP2020042427A JP 2020042427 A JP2020042427 A JP 2020042427A JP 2018168110 A JP2018168110 A JP 2018168110A JP 2018168110 A JP2018168110 A JP 2018168110A JP 2020042427 A JP2020042427 A JP 2020042427A
Authority
JP
Japan
Prior art keywords
image
candidate
input
conversion
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018168110A
Other languages
Japanese (ja)
Inventor
砂都子 齋藤
Satoko Saito
砂都子 齋藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018168110A priority Critical patent/JP2020042427A/en
Publication of JP2020042427A publication Critical patent/JP2020042427A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide an information processing apparatus capable of easily inputting a text such as an explanation of an image or a comment by using a result of image analysis, a control method thereof, and a program.SOLUTION: In a text input paired with an image, a text input subject image is analyzed to extract a keyword, the extracted keyword is temporarily registered in an input dictionary, and the order of input candidates is adjusted so that the extracted keyword is displayed preferentially when the text input is performed.SELECTED DRAWING: Figure 5

Description

本発明は、情報処理装置、その制御方法およびプログラムに関し、特に画像と関連するテキストの入力に関するものである。   The present invention relates to an information processing apparatus, a control method thereof, and a program, and more particularly to input of text associated with an image.

従来より、ユーザが画像にその画像を説明するテキストを入力して文書を作成したり、画像とともにテキストを記録することがある。また、近年では、ネットワークを介して、画像を含む投稿を第三者に公開することも一般的にある。例えば、ソーシャル・ネットワーキング・サービス(social networking service, SNS)などにおいて、画像と画像を説明するテキストなどを第三者へ共有する。また、公開を受けた第三者が画像に関連するコメントを入力することもできる。   2. Description of the Related Art Conventionally, a user may input text describing an image into an image to create a document, or record text together with the image. Further, in recent years, it has been common to post a post including an image to a third party via a network. For example, in a social networking service (SNS) or the like, an image and text describing the image are shared with a third party. Also, a third party who has received the disclosure can input a comment related to the image.

このように公開された画像と、画像の説明やコメントなどのテキストに関して、画像に付けられた説明やコメントなどのテキストを解析して画像の優先順位を決める技術が開示されている。例えば、特許文献1では、公開をされた画像と関連するコメントから、画像ごとのコメントに含まれる画像関連名詞と形容する言葉を抽出分析し、分析されたコメントから掲載された画像の優先度を判定して表示制御を行う。   With respect to an image published in this way and text such as an explanation and a comment of the image, a technique of analyzing text such as an explanation and a comment attached to the image and determining a priority of the image is disclosed. For example, in Patent Literature 1, an image-related noun and an adjective word included in a comment for each image are extracted and analyzed from comments related to a published image, and the priority of an image posted from the analyzed comment is determined. Judge and perform display control.

特開2008−139948号公報JP 2008-139948 A

画像を説明するテキストやコメントなどを入力する際において、デバイスやブラウザの入力候補が出てくる入力予測機能やかな漢字変換などでは、画像に合った名前やキーワードがなかなか出てこない場合がある。そのような場合には、例えば、候補の後ろの方から目的のテキストを選択しなければならないこともあり、画像の説明やコメントを入力することが煩わしい。しかしながら、前述の特許文献1では、画像のコメントの内容を分析することでの画像の優先度を判定することが記述されているが、画像にあったキーワードの入力を簡易にするための工夫はなされていない。   When inputting text or comments describing an image, an input prediction function that provides input candidates for a device or a browser, kana-to-kanji conversion, or the like may make it difficult to find a name or keyword that matches the image. In such a case, for example, it may be necessary to select a target text from the rear of the candidate, and it is troublesome to input a description of an image or a comment. However, Patent Document 1 described above describes that the priority of an image is determined by analyzing the contents of the comment of the image. However, a device for simplifying the input of a keyword suitable for the image is described. Not done.

そこで本発明の目的は、画像解析の結果を用いることで、画像の説明やコメントなどのテキストの入力を容易に行うことが可能な手段を提供することである。   Therefore, an object of the present invention is to provide a means capable of easily inputting text such as a description of an image or a comment by using a result of image analysis.

上記目的を達成するために、本発明は、画像に関する文字を入力する入力手段と、前記入力手段への入力に応じて単語又は文章の候補を示す予測手段と、前記画像を画像解析した結果に基づいて前記予測手段に候補の文字を示すように制御する制御手段と、を有することを特徴とする。   In order to achieve the above object, the present invention provides an input unit for inputting characters related to an image, a prediction unit for indicating a candidate of a word or a sentence according to an input to the input unit, and a result of image analysis of the image. And control means for controlling the prediction means to indicate candidate characters based on the prediction means.

本発明によれば、画像解析の結果を用いることで、画像の説明やコメントなどのテキストの入力を容易に行うことができる。   According to the present invention, it is possible to easily input a text such as a description of an image or a comment by using a result of the image analysis.

本発明の実施形態に係る情報処理装置の構成例を示すブロック図1 is a block diagram illustrating a configuration example of an information processing apparatus according to an embodiment of the present invention. 本発明の実施形態に係るテキストの表示画面と編集画面の一例を示す図FIG. 4 is a diagram illustrating an example of a text display screen and an edit screen according to the embodiment of the present invention. 本発明の実施形態に係る画像管理テーブルとテキスト管理テーブルの例を示す図FIG. 4 is a diagram illustrating an example of an image management table and a text management table according to the embodiment of the present invention. 本発明の実施形態に係る情報処理装置の画像取得の処理を示すフローチャート9 is a flowchart illustrating an image acquisition process of the information processing apparatus according to the embodiment of the present invention. 本発明の実施形態に係る情報処理装置のテキスト入力の処理を示すフローチャート4 is a flowchart illustrating a text input process of the information processing apparatus according to the embodiment of the present invention.

以下、本発明の好ましい実施形態を図面を参照して説明する。   Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

(構成例の説明)
図1は、本発明の実施形態に係る情報処理装置100の構成例を示すブロック図である。本実施形態において、情報処理装置100が単一のコンピュータ装置である場合を例に説明するが、必要に応じた複数のコンピュータ装置に各機能を分散して実現するようにしてもよい。複数のコンピュータ装置で構成される場合は、互いに通信可能なようにLocal Area Network(LAN)などの通信回線で接続される。
(Description of configuration example)
FIG. 1 is a block diagram illustrating a configuration example of an information processing apparatus 100 according to an embodiment of the present invention. In the present embodiment, the case where the information processing apparatus 100 is a single computer apparatus will be described as an example. However, each function may be distributed to a plurality of computer apparatuses as needed. When a plurality of computer devices are used, they are connected to each other via a communication line such as a local area network (LAN) so that they can communicate with each other.

図1において、制御部101は、例えばCentral Processing Unit(CPU)であり、情報処理装置100全体を制御する。ROM102は、Read Only Memoryであり、変更を必要としないプログラムやパラメータを格納する。RAM103は、Random Access Memoryであり、装置内の処理や表示などに際して作業用の情報を一時記憶する。例えば、ネットワークを介して外部装置などから供給されるプログラムや画像などの表示データを一時的に記憶する。制御部101は、ROM102又はRAM103に格納されているブログラムを実行することで、後述する本実施形態の各処理を実現する。   In FIG. 1, a control unit 101 is, for example, a Central Processing Unit (CPU), and controls the entire information processing apparatus 100. The ROM 102 is a read only memory and stores programs and parameters that do not need to be changed. The RAM 103 is a Random Access Memory, and temporarily stores work information at the time of processing and display in the apparatus. For example, it temporarily stores programs and display data such as images supplied from an external device or the like via a network. The control unit 101 executes the programs stored in the ROM 102 or the RAM 103 to implement each process of the present embodiment described later.

外部記憶装置104は、情報処理装置100に固定して設置されたハードディスクやメモリカードなどであり、Operating System(OS)などのプログラムを記憶する。外部記憶装置104は、アプリケーションプログラムやデータ、ライブラリなどの保存および読み込みが可能である。本実施例の文書編集アプリケーションプログラムソフトウエア(以下文書編集アプリケーションと言う)や文書データ、画像ファイルなどを記憶する。なお、以下の本発明の実施形態において、画像と、画像に付与された又は関連付けられたテキスト情報、例えば画像の説明やコメントなど、との組を「文書」と定義して説明する。「文書」に含まれる画像は単数の場合も、複数の場合もあり、またそれぞれの画像に関連付けられたテキストが複数の場合もあり得る。   The external storage device 104 is a hard disk or a memory card fixedly installed in the information processing device 100, and stores a program such as an operating system (OS). The external storage device 104 can store and read application programs, data, libraries, and the like. The document editing application program software (hereinafter, referred to as a document editing application) of this embodiment, document data, image files, and the like are stored. In the following embodiments of the present invention, a set of an image and text information added to or associated with the image, for example, a description or comment of the image, is defined and described as a “document”. The “document” may include a single image or a plurality of images, and may include a plurality of texts associated with each image.

入力I/F105(入力インターフェイス)は、ユーザの操作を受けつける。例えば、データを入力するポインティングデバイスやキーボードなどの入力装置と接続される。   The input I / F 105 (input interface) receives a user operation. For example, it is connected to an input device such as a pointing device or a keyboard for inputting data.

BMU106(Bit Move Unit)は、例えばメモリ間(例えば、VRAM107と他のメモリとの間)や、メモリと各I/Oデバイス(例えば、ネットワークインターフェイス109)間のデータ転送を制御する。   The BMU 106 (Bit Move Unit) controls, for example, data transfer between memories (for example, between the VRAM 107 and another memory) and data transfer between the memory and each I / O device (for example, the network interface 109).

VRAM107(Video RAM)は、ディスプレイへ画像などのグラフィック表示を描画するためのメモリである。表示部111は、受信した信号に基づき画像などを表示する。このVRAM107で生成した画像を所定の規定に従って表示部111に送信し、これにより表示部111は画像を表示する。   The VRAM 107 (Video RAM) is a memory for drawing a graphic display such as an image on a display. The display unit 111 displays an image or the like based on the received signal. The image generated by the VRAM 107 is transmitted to the display unit 111 according to a predetermined rule, and the display unit 111 displays the image.

NET I/F109(ネットワークインターフェイス)は、インターネットなどのネットワークである通信回線110に接続する。通信回路110を介して、PCなどの外部機器やサーバなどと相互に通信可能であり、外部機器との画像などのデータの送受信や外部機器からのユーザ操作などが可能となる。システムバス112は、101〜109の各ユニットを通信可能に接続する。   The NET I / F 109 (network interface) connects to a communication line 110 which is a network such as the Internet. Via the communication circuit 110, it can communicate with an external device such as a PC, a server, and the like, and can transmit and receive data such as images to and from the external device, and can perform a user operation from the external device. The system bus 112 connects the units 101 to 109 in a communicable manner.

なお、本実施形態においては、本発明をスマートフォンやパーソナルコンピュータのアプリケーションに適用する場合を例にして説明するが、これに限定されない。本発明は、デジタルカメラなどの撮像装置に適用してもよい。すなわち、メモリカードなどの、デジタルカメラが読み取り可能な記録媒体に記録された撮影画像を、デジタルカメラの有する背面液晶装置などのディスプレイに再生表示する際にも、本発明は適用可能である。さらに、PDA、携帯電話や携帯型の画像ビューワ、ディスプレイを備えるプリンタ、デジタルフォトフレーム、音楽プレーヤー、ゲーム機、電子ブックリーダなど、画像やテキスト、イラスト図形などのコンテンツを表示可能な装置にも適用可能である。   In the present embodiment, a case where the present invention is applied to an application of a smartphone or a personal computer will be described as an example, but the present invention is not limited to this. The present invention may be applied to an imaging device such as a digital camera. That is, the present invention is also applicable to a case where a captured image recorded on a recording medium readable by a digital camera such as a memory card is reproduced and displayed on a display such as a rear liquid crystal device of the digital camera. Furthermore, it can be applied to devices that can display contents such as images, texts, and illustrations, such as PDAs, mobile phones and portable image viewers, printers with displays, digital photo frames, music players, game consoles, and e-book readers. It is possible.

以下、本発明の情報処理装置の実施形態として、ユーザの操作に応じて画像の説明文(キャプション)などの画像に関連したテキストを編集する処理について説明する。スマートフォンやパーソナルコンピュータなどの情報処理装置が、編集アプリケーションを起動して、画像とテキストを入力して編集していく。   Hereinafter, as an embodiment of the information processing apparatus of the present invention, a process of editing text related to an image such as a caption of an image according to a user operation will be described. An information processing device such as a smartphone or a personal computer starts an editing application and inputs and edits images and text.

(文書の表示および編集画面の例)
図2は、本発明の実施形態に係るテキストの表示画面と編集画面の例を示す図である。図2(A)はプレビュー表示画面、(B)は編集画面の例を示している。
(Example of document display and edit screen)
FIG. 2 is a diagram showing an example of a text display screen and an edit screen according to the embodiment of the present invention. FIG. 2A shows an example of a preview display screen, and FIG. 2B shows an example of an edit screen.

図2(A)のプレビュー表示画面の例において、表示画面200は編集対象のページおよびページ一覧を表示する。表示画面200中のプレビュ領域201には、編集対象のページ(文書)のプレビューが表示され、一覧領域206には文書のページ一覧が表示される。   In the example of the preview display screen of FIG. 2A, the display screen 200 displays a page to be edited and a page list. A preview of a page (document) to be edited is displayed in a preview area 201 of the display screen 200, and a page list of the document is displayed in a list area 206.

編集対象のページが表示されているプレビュ領域201において、イメージ領域202,203は、対象ページに配置された画像の表示領域を示している。テキスト領域204はイメージ領域202の画像を説明するテキストの表示領域、テキスト領域205はイメージ領域203の画像を説明するテキストの表示領域、をそれぞれ示している。   In the preview area 201 where the page to be edited is displayed, the image areas 202 and 203 indicate the display area of the image arranged on the target page. A text area 204 indicates a text display area explaining an image in the image area 202, and a text area 205 indicates a text display area explaining an image in the image area 203.

一覧領域206は、情報処理装置100で表示可能な複数のページを一覧表示し、ユーザはスクロールバーの操作又は領域のフリック操作等により一覧領域206に表示されているページ一覧をスクロール可能である。また、タッチ操作等により複数のページの中から編集対象ページを選択できる。フォーカス枠207は、一覧表示された複数のページの中から、編集対象として選ばれて、プレビュ領域201に表示されているページをマーキングしている。   The list area 206 displays a list of a plurality of pages that can be displayed by the information processing apparatus 100, and the user can scroll the page list displayed in the list area 206 by operating a scroll bar or flicking the area. Further, a page to be edited can be selected from a plurality of pages by a touch operation or the like. The focus frame 207 marks a page displayed in the preview area 201, which is selected from among a plurality of pages displayed as a list and to be edited.

図2(B)は、編集画面のうち、特にテキスト編集の場合の例を示している。図2(A)のプレビュー表示画面においてユーザのタッチ操作等に応じて、例えば、イメージ領域を選択する、テキスト領域を選択する、特定のモード変更操作をする、などの操作がされて編集モードが選択されることで、図2(B)の編集画面へと遷移する。本実施形態においては、特に、テキスト領域205を編集するモードに入った場合を示している。別途、「編集」ボタンやアイコンを設けてもよい。編集画面では、画像やテキストの入力・削除・変更等が可能である。   FIG. 2B shows an example of the editing screen, particularly in the case of text editing. In the preview display screen of FIG. 2A, in response to a user's touch operation or the like, for example, an operation such as selecting an image area, selecting a text area, or performing a specific mode change operation is performed, and the edit mode is changed. When selected, a transition is made to the editing screen of FIG. In the present embodiment, particularly, a case is shown in which a mode for editing the text area 205 is entered. Separately, an “edit” button or icon may be provided. On the editing screen, input, deletion, change, and the like of images and texts are possible.

表示画面210は、編集対象のページのプレビューおよびテキストの編集領域を表示する。表示画面210中のプレビュ領域211は編集対象のページのプレビューが表示され、イメージ領域212,213は編集対象のページに配置された画像の表示領域を示している。テキスト領域214はイメージ領域212の画像を説明するテキストの表示領域、テキスト領域215はイメージ領域213の画像を説明するテキストの表示領域を示し、編集対象のテキスト領域は選択されていることがわかるようにマーキングされる。図2(B)の例では、テキスト領域215のテキストを編集中であり、テキスト領域215がマーキングされている。   The display screen 210 displays a preview of a page to be edited and a text editing area. A preview area 211 on the display screen 210 displays a preview of a page to be edited, and image areas 212 and 213 indicate display areas of images arranged on the page to be edited. A text area 214 indicates a text display area for explaining an image in the image area 212, and a text area 215 indicates a text display area for explaining an image in the image area 213. It can be seen that the text area to be edited is selected. Is marked. In the example of FIG. 2B, the text in the text area 215 is being edited, and the text area 215 is marked.

テキスト編集領域216は、実際にテキストを編集する操作領域を示している。前述のように編集対象として選択されたテキスト領域の文字を、テキスト編集領域216に対して入力・削除・変換等の操作を行うことで編集する。テキスト編集領域216には、文字の入力領域217と入力候補の単語や文などが表示されるワード候補領域218が含まれる。入力領域217は、ユーザ操作に応じて文字や記号等の入力・削除等が可能な領域である。ワード候補領域218は、入力領域217を入力する際に、入力ワード又は変換ワードの候補として抽出された単語や文などが表示される。このワード候補領域218から所望の入力候補の単語・文章を選択することに応じても、入力領域217に単語や文などの入力が可能であり、また、入力領域217の入力内容を変換可能である。   The text editing area 216 indicates an operation area for actually editing text. As described above, the characters in the text area selected as the editing target are edited by performing operations such as input, deletion, and conversion on the text editing area 216. The text editing area 216 includes a character input area 217 and a word candidate area 218 in which input candidate words and sentences are displayed. The input area 217 is an area where characters, symbols, and the like can be input and deleted according to a user operation. In the word candidate area 218, when the input area 217 is input, a word or a sentence extracted as a candidate for an input word or a conversion word is displayed. Even when a word or a sentence of a desired input candidate is selected from the word candidate area 218, a word or a sentence can be input to the input area 217, and the input content of the input area 217 can be converted. is there.

アイコン219は、テキストの文字入力を終了するコントロールボタンである。アイコン219をタッチ又は他の指示手段によりクリック操作することで、入力領域217に入力した文字列が編集対象のテキスト領域の内容として確定する。図2(B)の例においては、選択されているテキスト領域215の文字内容として確定される。なお、図2のページ編集やテキスト編集のやり方や表示形式は一例であり、これに限られず、画像に関するテキストを付ける場合に本発明は適用される。   The icon 219 is a control button for terminating text input. By performing a click operation on the icon 219 by touch or other instruction means, the character string input to the input area 217 is determined as the content of the text area to be edited. In the example of FIG. 2B, the character content of the selected text area 215 is determined. Note that the method and display format of page editing and text editing in FIG. 2 are merely examples, and the present invention is not limited to this, and the present invention is applied to the case where text relating to an image is added.

(画像およびテキスト情報の管理テーブルの例)
図3を参照して、文書編集アプリケーションが利用する文書の情報管理するテーブル(以下、文書情報DBと称する)のうち、本実施形態に係る画像情報とテキスト情報を管理するテーブルについて説明する。図3は、本発明の実施形態に係る画像管理テーブルとテキスト管理テーブルの例を示す図である。
(Example of image and text information management table)
With reference to FIG. 3, a table for managing image information and text information according to the present embodiment among tables for managing information on documents used by the document editing application (hereinafter, referred to as document information DB) will be described. FIG. 3 is a diagram illustrating an example of the image management table and the text management table according to the embodiment of the present invention.

図3(A)に示される画像管理テーブル300は、文書の画像の情報を管理する。画像管理テーブルには、画像ID301、オリジナル画像ファイルパス302、サムネイル画像ファイルパス303、キーワードリスト304が格納されている。ユーザが画像領域を含むページを生成したタイミングでレコードが生成され、画像ID301が発番される。   The image management table 300 shown in FIG. 3A manages information of a document image. The image management table stores an image ID 301, an original image file path 302, a thumbnail image file path 303, and a keyword list 304. A record is generated at the timing when the user generates a page including an image area, and an image ID 301 is issued.

画像ID301は、画像毎に付けられる固有のIDである。オリジナル画像ファイルパス302には、画像のオリジナルファイルを格納したパスをもち、サムネイル画像ファイルパス303にサムネイル画像を格納したパスをもつ。画像解析キーワードリスト304には、画像の解析により画像から抽出された画像に関連するキーワードを格納する。   The image ID 301 is a unique ID assigned to each image. The original image file path 302 has a path storing the original file of the image, and the thumbnail image file path 303 has a path storing the thumbnail image. The image analysis keyword list 304 stores keywords related to the image extracted from the image by analyzing the image.

図3(B)に示されるテキスト管理テーブル310は、文書のテキストの情報を管理する。テキスト管理テーブル310には、テキストID311、テキスト内容312、関連する画像ID313、辞書更新フラグ314をもつ。ユーザがテキスト領域を含むページを生成したタイミングでレコードが生成され、テキストID311が発番される。   The text management table 310 shown in FIG. 3B manages text information of a document. The text management table 310 has a text ID 311, a text content 312, an associated image ID 313, and a dictionary update flag 314. A record is generated at the timing when the user generates a page including a text area, and a text ID 311 is issued.

テキスト管理テーブル310は、ユーザが入力したテキストを格納するテキスト内容312をもつ。テキスト領域は画像を説明するものなので、関連する画像の紐づけを画像ID313として保持する。文書のレイアウトによっては、例えば複数の画像に対して1つのテキストが関連付けられている場合などは、複数の画像IDの紐づけをもってもよい。また、テキストの入力領域の辞書情報を更新したかの辞書更新フラグ314をもつ。   The text management table 310 has a text content 312 for storing the text input by the user. Since the text area describes an image, the association of the related image is held as the image ID 313. Depending on the layout of the document, for example, when one text is associated with a plurality of images, a plurality of image IDs may be associated. Also, a dictionary update flag 314 indicating whether the dictionary information of the text input area has been updated is provided.

(文書編集に関わる画像取得時の制御フロー)
以下、図4を参照して、画像取得時の制御フローについて説明する。図5のフローチャートは、情報処理装置100の制御部101によって、各処理ブロックを制御して実行される処理手順を図示したものである。制御部101は、ROM102から読みだされ起動されたプログラムの指示に従い、RAM103の文書編集アプリケーションが利用する文書情報を格納したテーブルや画像ファイルを読み出して、文書編集を行う。
(Control flow when acquiring images related to document editing)
Hereinafter, a control flow at the time of image acquisition will be described with reference to FIG. The flowchart of FIG. 5 illustrates a processing procedure executed by controlling each processing block by the control unit 101 of the information processing apparatus 100. The control unit 101 reads a table or an image file storing document information used by a document editing application in the RAM 103 and performs document editing according to an instruction of a program read and started from the ROM 102.

制御部101が、プレビュ領域201へのイベント(例えば、タッチ操作や他の操作部材による操作など)を監視し、プレビュ領域201のうちのイメージ領域202、203へのイベントが検知された場合に、図4の画像取得時の制御フローが開始される。制御部101は、例えば、ユーザ操作に応じて、予め文書情報DBに記憶された既存の文書リストから編集対象となる文書を選択させ、又は新規の文書を作成させるようにして、編集対象となる文書を選択する。本実施形態においては、既存の文書を編集対象とし、イメージ領域202の画像を編集する場合を例に説明をすすめる。   The control unit 101 monitors an event to the preview area 201 (for example, a touch operation or an operation by another operation member), and when an event to the image areas 202 and 203 in the preview area 201 is detected, The control flow at the time of image acquisition in FIG. 4 is started. The control unit 101 is, for example, made to select a document to be edited from an existing document list stored in the document information DB in advance or to create a new document in response to a user operation, so that a new document is created. Select a document. In the present embodiment, an explanation will be given of a case where an existing document is to be edited and an image in the image area 202 is edited.

まず、ステップS401にて、ユーザが編集対象のイメージ領域202に配置するように指示した画像ファイルを、RAM103に一時保存する。受け取った画像ファイルから、表示用のサムネイル画像ファイルを生成する。プレビュ領域202又は203に配置可能な画像ファイルは、外部記憶装置104に格納されているデータでもよいし、ネットワークを介して外部から取り込んだデータでもよい。画像ファイルの選択方法は、デバイス等のファイルリストを取得して、ファイル名やサムネイルリストの一覧から特定のイメージファイルを選択する方法が考えられるが、これに限定されない。   First, in step S401, an image file instructed by the user to be arranged in the image area 202 to be edited is temporarily stored in the RAM 103. A thumbnail image file for display is generated from the received image file. The image file that can be arranged in the preview area 202 or 203 may be data stored in the external storage device 104 or data taken in from outside via a network. As a method of selecting an image file, a method of obtaining a file list of a device or the like and selecting a specific image file from a list of a file name or a thumbnail list can be considered, but is not limited to this.

次にステップS402にて、編集対象のイメージ領域に紐づけられた画像IDをキーに、文書情報DBの図3A画像管理テーブルを検索して画像の情報を格納する。画像取得した画像のオリジナル画像ファイルパス302と、画像の表示用のサムネイル画像ファイルパス303を格納する。   Next, in step S402, using the image ID associated with the image area to be edited as a key, the image management table in FIG. 3A of the document information DB is searched and image information is stored. An original image file path 302 of the acquired image and a thumbnail image file path 303 for displaying the image are stored.

ステップS403では、オリジナル画像の画像解析を行う。図3(A)画像管理テーブルの画像ID301をキーとして、画像のオリジナル画像ファイルパス302に格納されている画像データを解析処理する。そして、画像解析の結果、画像の被写体から抽出したキーワードを、図3(A)の画像管理テーブルの画像解析キーワードリスト304に格納する。例えば、画像に映っているオブジェクト(人、建物、花、など)、認識したオブジェクト(特定の人、建物名、など)、オブジェクトの色の情報など、公知の画像解析により抽出可能なキーワードが画像解析キーワードリスト304に格納される。画像解析以外で画像ファイルに付加されているGPS情報などに基づいて、キーワードを追加してもよい。また、画像に画像撮影日時や画像登録日時などの日時情報がある場合や、被写体の解析から年代が特定できる場合にキーワードをその時代にあった文言に変換する処理をいれてもよい。   In step S403, image analysis of the original image is performed. The image data stored in the original image file path 302 of the image is analyzed by using the image ID 301 of the image management table as a key in FIG. Then, as a result of the image analysis, the keywords extracted from the subject of the image are stored in the image analysis keyword list 304 of the image management table in FIG. For example, keywords that can be extracted by well-known image analysis, such as objects (persons, buildings, flowers, etc.) shown in images, recognized objects (specific people, building names, etc.), and color information of the objects, are images. It is stored in the analysis keyword list 304. A keyword may be added based on GPS information or the like added to the image file other than the image analysis. Further, when the image has date and time information such as the image shooting date and time and the image registration date and time, or when the age can be identified from the analysis of the subject, a process of converting the keyword into a wording suitable for that era may be included.

ステップS404にて、図3(A)画像管理テーブルの画像ID301をキーとして、画像の表示用のサムネイル画像ファイルパス303からイメージを取得し、本実施例においてはイメージ領域202に表示をして画像取得フローを終了する。   In step S404, an image is acquired from the thumbnail image file path 303 for displaying an image by using the image ID 301 of the image management table in FIG. 3A as a key, and in the present embodiment, the image is displayed in the image area 202 and displayed. End the acquisition flow.

(文書編集に関わるテキスト入力時の制御フロー)
以下、図5を参照して、テキスト編集時の制御フローについて説明する。図5のフローチャートは、情報処理装置100の制御部101によって、各処理ブロックを制御して実行される処理手順を図示したものである。制御部101は、ROM102から読みだされ起動されたプログラムの指示に従い、RAM103の文書編集アプリケーションが利用する文書情報を格納したテーブルや画像ファイルを読み出して文書編集を行う。
(Control flow for text input related to document editing)
Hereinafter, a control flow at the time of text editing will be described with reference to FIG. The flowchart of FIG. 5 illustrates a processing procedure executed by controlling each processing block by the control unit 101 of the information processing apparatus 100. The control unit 101 reads out a table or an image file in the RAM 103 which stores document information used by a document editing application and edits the document according to an instruction of a program read and started from the ROM 102.

図2(A)に示すイメージ領域202、203およびテキスト領域204、205を含む編集対象ページがプレビュ領域201に表示されているとき、プレビュ領域201へのイベント(例えば、タッチ操作や他の操作部材による操作など)を監視している。テキスト領域204、205へのイベントが検知されたときに、図5のテキスト編集フローが開始される。本実施形態においては、テキスト領域205におけるイベントが検知された場合を例に説明する。   When an editing target page including the image areas 202 and 203 and the text areas 204 and 205 shown in FIG. 2A is displayed in the preview area 201, an event (for example, a touch operation or another operation member) to the preview area 201 is performed. Operation, etc.). When an event to the text areas 204 and 205 is detected, the text editing flow of FIG. 5 is started. In the present embodiment, a case where an event in the text area 205 is detected will be described as an example.

まず、ステップS501にて、テキスト編集領域205へのタップイベントに応じて、テキストの編集画面へ遷移する。すなわち、図2(A)から(B)表示状態へ遷移し、編集対象ページのプレビュ領域211のテキスト領域215へマーキングして表示画面210内にテキスト編集領域216を表示する。テキスト編集領域216には、テキストの入力領域217および入力候補領域218がある。またテキスト編集領域216には、テキストの文字入力を終了するためのコントロールボタン219が表示される。情報処理装置100は、ROM102又はその他の記憶部にテキスト入力を補助するための辞書情報を保持しており、制御部101は、入力領域217に文字が入力された際に、辞書情報を参照して入力候補とされる単語・文章を入力候補領域218に表示する。   First, in step S501, a transition is made to a text editing screen in response to a tap event to the text editing area 205. In other words, transition from the state shown in FIG. 2A to the state shown in FIG. 2B is performed, the text area 215 of the preview area 211 of the page to be edited is marked, and the text editing area 216 is displayed on the display screen 210. The text editing area 216 has a text input area 217 and an input candidate area 218. In the text editing area 216, a control button 219 for ending the character input of the text is displayed. The information processing apparatus 100 holds dictionary information for assisting text input in the ROM 102 or another storage unit, and the control unit 101 refers to the dictionary information when a character is input to the input area 217. Then, words / sentences which are input candidates are displayed in the input candidate area 218.

次にステップS502では、文書が作成された際にテキスト領域205に紐づけられていたテキストIDをキーに、文書情報DBの図3Bのテキスト管理テーブルを検索する。   Next, in step S502, the text management table of FIG. 3B in the document information DB is searched using the text ID linked to the text area 205 when the document was created.

ステップS503にて、検索された図3(B)のテキスト管理テーブルに格納されている画像IDをキーに、文書情報DBの図3(A)の画像管理テーブルを検索する。   In step S503, the image management table of FIG. 3A in the document information DB is searched using the image ID stored in the searched text management table of FIG. 3B as a key.

ステップS504にて、検索された図3(B)の図3(A)画像管理テーブルの画像解析キーワードリスト304を取得する。なお、図4の画像取得フロー中に解析処理を行いキーワードを抽出する例を前述したが、テキスト入力が実施されるタイミング(すなわち、本フローのステップS503)で画像解析をおこないキーワードを取得して辞書情報を生成してもよい。画像解析のタイミングは限定されない。そして、テキスト領域205に紐づけられた画像に対する画像解析キーワードリスト304が存在すれば、ステップ505に遷移し、画像解析キーワード304が抽出できなければ、ステップ505の処理をスキップし、辞書情報の更新は行わない。   In step S504, the retrieved image analysis keyword list 304 in the image management table of FIG. 3A is acquired. Although the example in which the analysis process is performed during the image acquisition flow of FIG. 4 to extract the keyword has been described above, the keyword is acquired by performing the image analysis at the timing when the text input is performed (that is, step S503 of the flow). Dictionary information may be generated. The timing of image analysis is not limited. If the image analysis keyword list 304 corresponding to the image linked to the text area 205 exists, the process proceeds to step 505. If the image analysis keyword 304 cannot be extracted, the process of step 505 is skipped and the dictionary information is updated. Is not performed.

ステップS505では、入力対象のテキスト領域(本実施形態ではテキスト領域205)に合わせて、情報処理装置100がRAM102又はその他の記憶領域に保持する辞書情報を更新する。すなわち、前述した情報処理装置100がテキスト入力を補助するために保持している辞書情報に、テキスト領域205と紐づけられている画像に関する画像解析キーワードリスト304の内容を、辞書情報として追加する。辞書情報の更新が行われた場合は、文書情報DBの図3(B)のテキスト管理テーブルの辞書更新フラグ314をONにする。   In step S505, the information processing apparatus 100 updates the dictionary information stored in the RAM 102 or another storage area according to the text area to be input (the text area 205 in the present embodiment). That is, the contents of the image analysis keyword list 304 relating to the image associated with the text area 205 are added as dictionary information to the dictionary information held by the information processing apparatus 100 to assist text input. When the dictionary information has been updated, the dictionary update flag 314 of the text management table in FIG. 3B of the document information DB is turned ON.

ステップS506にて、更新された辞書情報を参照して、キーワードリストに含まれる単語・文章およびそれらに関連する単語・文章を優先的に表示するように入力候補領域218の表示を更新する。なお、この入力候補はキー入力に従って、あとに続く文字の候補を予測する予測入力であってもよい。この入力候補はキー入力に従ったかな漢字変換の変換候補であってもよい。   In step S506, by referring to the updated dictionary information, the display of the input candidate area 218 is updated so that the words and sentences included in the keyword list and the words and sentences related thereto are preferentially displayed. The input candidate may be a prediction input for predicting a subsequent character candidate in accordance with a key input. This input candidate may be a kana-kanji conversion candidate according to a key input.

ステップS507にて制御部101は、テキストの文字入力を終了するコントロールボタン219の押下を検知し、ユーザのテキスト入力の完了処理を行う。テキストの文字入力領域217に入力された値を取得し、文書情報DBの図3Bのテキスト管理テーブルのテキスト内容312に格納する。   In step S507, the control unit 101 detects that the control button 219 for terminating text character input has been pressed, and performs a user text input completion process. The value input to the text character input area 217 is obtained and stored in the text information 312 of the text management table in FIG. 3B of the document information DB.

ステップS508にて、文書情報DBの図3(B)のテキスト管理テーブルの辞書更新フラグ314がONになっていれば、情報処理装置100がテキスト入力を補助するために保持している辞書情報を更新前のデフォルトの状態に戻す。そのあと、文書情報DBの図3(B)のテキスト管理テーブルの辞書更新フラグ314をOFFにして、デバイスの表示領域上に文書の図3(A)の表示画面200に表示を戻す。   In step S508, if the dictionary update flag 314 of the text management table in FIG. 3B of the document information DB is ON, the dictionary information held by the information processing apparatus 100 to assist the text input is displayed. Restore the default state before updating. Then, the dictionary update flag 314 of the text management table of FIG. 3B of the document information DB is turned off, and the display of the document is returned to the display screen 200 of FIG. 3A on the display area of the device.

以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。上述の実施形態の一部を適宜組み合わせてもよい。   As described above, the present invention has been described in detail based on the preferred embodiments. However, the present invention is not limited to these specific embodiments, and various forms that do not depart from the gist of the present invention are also included in the present invention. included. A part of the above-described embodiments may be appropriately combined.

また、上述の実施形態の機能を実現するソフトウェアのプログラムを、記録媒体から直接、或いは有線/無線通信を用いてプログラムを実行可能なコンピュータを有するシステム又は装置に供給し、そのプログラムを実行する場合も本発明に含む。従って、本発明の機能処理をコンピュータで実現するために、該コンピュータに供給、インストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明の機能処理を実現するためのコンピュータプログラム自体も本発明に含まれる。その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記憶媒体、不揮発性の半導体メモリでもよい。また、プログラムの供給方法としては、コンピュータネットワーク上のサーバに本発明を形成するコンピュータプログラムを記憶し、接続のあったクライアントコンピュータがコンピュータプログラムをダウンロードして実行するような方法も考えられる。   Further, when a software program for realizing the functions of the above-described embodiments is supplied to a system or an apparatus having a computer capable of executing the program directly from a recording medium or using wired / wireless communication, and the program is executed. Is also included in the present invention. Therefore, the program code itself supplied and installed in the computer to implement the functional processing of the present invention by the computer also implements the present invention. That is, the present invention includes the computer program itself for implementing the functional processing of the present invention. In this case, any form of the program, such as an object code, a program executed by an interpreter, and script data to be supplied to the OS, may be used as long as the program has the function of the program. As a recording medium for supplying the program, for example, a magnetic recording medium such as a hard disk or a magnetic tape, an optical / magneto-optical storage medium, or a nonvolatile semiconductor memory may be used. As a method for supplying the program, a method in which a computer program forming the present invention is stored in a server on a computer network, and a connected client computer downloads and executes the computer program is also conceivable.

Claims (14)

画像に関する文字を入力する入力手段と、
前記入力手段への入力に応じて単語又は文章の候補を示す予測手段と、
前記画像を画像解析した結果に基づいて前記予測手段に候補の文字を示すように制御する制御手段と、
を有することを特徴とする情報処理装置。
Input means for inputting characters related to the image,
Prediction means for indicating a candidate for a word or a sentence according to the input to the input means,
Control means for controlling the prediction means to indicate candidate characters based on the result of image analysis of the image,
An information processing apparatus comprising:
前記画像毎に画像解析して抽出されたキーワードを記憶する記憶手段と、を有し、
前記制御手段は、前記画像に関連するテキスト入力を行うときに、保存したキーワードを優先的な候補として前記予測手段の候補として示すことを特徴とする請求項1に記載の情報処理装置。
Storage means for storing a keyword extracted by image analysis for each image,
2. The information processing apparatus according to claim 1, wherein when performing text input relating to the image, the control unit indicates a stored keyword as a candidate of the prediction unit as a priority candidate. 3.
前記入力手段へ入力された文字のかな漢字変換を指示する変換手段と、を有し、
前記制御手段は、前記かな漢字変換が指示されたときは、前記画像を解析した結果に基づいて前記変換手段の変換候補の文字を示すことを特徴とする請求項1又は2に記載の情報処理装置。
Conversion means for instructing kana-kanji conversion of the character input to the input means,
3. The information processing apparatus according to claim 1, wherein when the kana-kanji conversion is instructed, the control unit indicates a conversion candidate character of the conversion unit based on a result of analyzing the image. 4. .
前記制御手段は、前記画像の画像解析により画像を取得した日時に関する情報又は前記画像が取得された年代が特定できる場合に、前記予測手段に示す候補をその時代にあった単語又は文章にすることを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。   The control means, when the information on the date and time when the image was obtained by the image analysis of the image or the age at which the image was obtained can be specified, the candidate shown in the prediction means is a word or a sentence in that era. The information processing apparatus according to claim 1, wherein: 前記制御手段は、前記画像の画像解析により画像を取得した日時に関する情報又は前記画像が取得された年代が特定できる場合に、前記変換候補をその時代にあった単語又は文章にすることを特徴とする請求項1乃至4のいずれか1項に記載の情報処理装置。   The control unit is characterized in that when the information on the date and time when the image was obtained by the image analysis of the image or the date when the image was obtained can be specified, the conversion candidate is set to a word or a sentence in the era. The information processing apparatus according to claim 1, wherein: 前記画像毎に抽出した単語又は文章を前記予測手段の候補としての辞書情報を作成する第1の辞書手段と、
前記画像に関する文字を入力するときに、関連付けられた画像毎の異なる前記辞書情報に基づいて前記予測手段の候補を選択する第1の切り替え手段と、
を有することを特徴とする請求項1乃至5のいずれか1項に記載の情報処理装置。
A first dictionary unit that creates dictionary information as a candidate for the prediction unit based on a word or a sentence extracted for each image;
A first switching unit that selects a candidate of the prediction unit based on the dictionary information different for each associated image when inputting characters related to the image;
The information processing apparatus according to claim 1, further comprising:
前記画像毎に抽出した単語又は文章を前記かな漢字手段の変換候補としての辞書情報を作成する第2の辞書手段と、
前記画像に関する文字を入力するときに、関連付けられた画像毎の前記辞書情報に基づいて前記かな漢字変換手段の変換候補を選択する第2の切り替え手段と、
を有することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
A second dictionary means for creating dictionary information as a conversion candidate of the kana-kanji means for words or sentences extracted for each image,
A second switching unit for selecting a conversion candidate of the kana-kanji conversion unit based on the dictionary information for each associated image when inputting characters related to the image;
The information processing apparatus according to claim 1, further comprising:
画像に関する文字を入力する入力手段と、
前記入力手段へ入力された文字のかな漢字変換を指示する変換手段と、
前記画像を解析した結果に基づいて前記変換手段の変換候補の文字を示すように制御する制御手段と、
を有することを特徴とする情報処理装置。
Input means for inputting characters related to the image
Conversion means for instructing kana-kanji conversion of the character input to the input means,
Control means for controlling the conversion means to indicate a character of a conversion candidate based on the result of analyzing the image,
An information processing apparatus comprising:
前記画像毎に画像解析して抽出されたキーワードを記憶する記憶手段と、を有し、
前記制御手段は、前記画像に関連するテキスト入力を行うときに、保存したキーワードを優先的な候補として前記かな漢字変換手段の変換候補として示すことを特徴とする請求項8に記載の情報処理装置。
Storage means for storing a keyword extracted by image analysis for each image,
9. The information processing apparatus according to claim 8, wherein, when inputting text related to the image, the control unit indicates the saved keyword as a conversion candidate of the kana-kanji conversion unit as a priority candidate.
前記制御手段は、前記画像の画像解析により画像を取得した日時に関する情報又は前記画像が取得された年代が特定できる場合に、前記変換候補をその時代にあった単語又は文章にすることを特徴とする請求項8又は9に記載の情報処理装置。   The control unit is characterized in that when the information on the date and time when the image was obtained by the image analysis of the image or the date when the image was obtained can be specified, the conversion candidate is set to a word or a sentence in the era. The information processing device according to claim 8 or 9, wherein 前記画像毎に抽出した単語又は文章を前記かな漢字手段の変換候補としての辞書情報を作成する辞書手段と、
前記画像に関する文字を入力するときに、関連付けられた画像毎の前記辞書情報に基づいて前記かな漢字変換手段の変換候補を選択する切り替え手段と、
を有することを特徴とする請求項8乃至10のいずれか1項に記載の情報処理装置。
Dictionary means for creating dictionary information as a conversion candidate of the kana-kanji means, the words or sentences extracted for each image,
Switching means for selecting a conversion candidate of the kana-kanji conversion means based on the dictionary information for each associated image when inputting characters related to the image,
The information processing apparatus according to any one of claims 8 to 10, comprising:
画像に関する文字を入力するステップと、
前記入力に応じて前記画像を画像解析した結果に基づく単語又は文章の候補を示すステップと、
前記画像を画像解析した結果に基づいて、前記入力された文字のかな漢字変換の候補を示すステップと、
を有することを特徴とする情報処理装置の制御方法。
Inputting characters related to the image;
Indicating a candidate word or sentence based on the result of image analysis of the image according to the input,
Indicating a candidate for kana-kanji conversion of the input character based on a result of image analysis of the image;
A method for controlling an information processing apparatus, comprising:
請求項12に記載の各ステップをコンピュータによって実行させるためのコンピュータプログラム。   A computer program for causing a computer to execute the steps according to claim 12. 請求項13に記載のプログラムを記載したコンピュータで読み取り可能な記録媒体。   A computer-readable recording medium in which the program according to claim 13 is described.
JP2018168110A 2018-09-07 2018-09-07 Information processing apparatus, control method thereof, and program Pending JP2020042427A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018168110A JP2020042427A (en) 2018-09-07 2018-09-07 Information processing apparatus, control method thereof, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018168110A JP2020042427A (en) 2018-09-07 2018-09-07 Information processing apparatus, control method thereof, and program

Publications (1)

Publication Number Publication Date
JP2020042427A true JP2020042427A (en) 2020-03-19

Family

ID=69798348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018168110A Pending JP2020042427A (en) 2018-09-07 2018-09-07 Information processing apparatus, control method thereof, and program

Country Status (1)

Country Link
JP (1) JP2020042427A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009087038A (en) * 2007-09-28 2009-04-23 Canon Inc Image processor and image processing method
JP2010514023A (en) * 2006-12-19 2010-04-30 イーストマン コダック カンパニー How to automatically prefetch words while entering multimedia message text
JP2013058086A (en) * 2011-09-08 2013-03-28 Kyocera Corp Text input supporting system
JP2014229091A (en) * 2013-05-23 2014-12-08 オムロン株式会社 Program for character input

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010514023A (en) * 2006-12-19 2010-04-30 イーストマン コダック カンパニー How to automatically prefetch words while entering multimedia message text
JP2009087038A (en) * 2007-09-28 2009-04-23 Canon Inc Image processor and image processing method
JP2013058086A (en) * 2011-09-08 2013-03-28 Kyocera Corp Text input supporting system
JP2014229091A (en) * 2013-05-23 2014-12-08 オムロン株式会社 Program for character input

Similar Documents

Publication Publication Date Title
JP6320982B2 (en) Translated sentence editor providing apparatus and translated sentence editor providing method
KR101198744B1 (en) Apparatus, method and computer program product for using images in contact lists maintained in electronic devices
JP2017215996A (en) Change request form annotation
JP2008035503A (en) Image data providing device, image display device, image display system, image data providing device control method, image display device control method, control program, and recording medium
US11715068B2 (en) Data processing apparatus, data processing system, data processing method, and non-transitory computer readable medium
JP2009145965A (en) Browser program and information processor
JP2007025980A (en) Information system, information method, server device, information device, and information designation program
US10965528B2 (en) Information processing apparatus for outputting data acquired from server, information processing method, and storage medium
JP2009187308A (en) Display controller, display control method, program, and storage medium
JP2020042427A (en) Information processing apparatus, control method thereof, and program
JP2010113655A (en) Image processor, control method of image processor, and control program
JP6641732B2 (en) Information processing apparatus, information processing method, and program
JP7180111B2 (en) Display editing device and program
JP2021015336A (en) Information processing device, control method of information processing device, and program
JP6048601B2 (en) Information display device, program, and word information display method
JP2010072805A (en) Posting/browsing support system
JP2006309593A (en) Business form processor, business form processing method, program and recording medium
TWI573028B (en) Apparatus and method for providing translations editor
JP7286449B2 (en) Information processing device, control method for information processing device, and program
JP2015141540A (en) Information processor, wording association presentation system, and information processing program
JP2000315203A (en) Document management system and document managing method
JP2008269085A (en) Information recommendation device and information recommendation system
JP2015111413A (en) Information processing system, method for controlling information processing system, and program
JP2016021156A (en) Image display device
JP5891706B2 (en) Information display device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210902

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220715

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230131