JP2024074179A - Information processing apparatus, information processing method, and information processing program - Google Patents

Information processing apparatus, information processing method, and information processing program Download PDF

Info

Publication number
JP2024074179A
JP2024074179A JP2022185305A JP2022185305A JP2024074179A JP 2024074179 A JP2024074179 A JP 2024074179A JP 2022185305 A JP2022185305 A JP 2022185305A JP 2022185305 A JP2022185305 A JP 2022185305A JP 2024074179 A JP2024074179 A JP 2024074179A
Authority
JP
Japan
Prior art keywords
voice memo
user
information
information processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022185305A
Other languages
Japanese (ja)
Inventor
紗記子 斎藤(西)
Saito, (Nishi) Sakiko
愛 友成
Ai Tomonari
一浩 二宮
Kazuhiro Ninomiya
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ly Corp
Original Assignee
Ly Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ly Corp filed Critical Ly Corp
Priority to JP2022185305A priority Critical patent/JP2024074179A/en
Publication of JP2024074179A publication Critical patent/JP2024074179A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide an information processing apparatus, an information processing method, and an information processing program capable of efficiently utilizing a voice memo.SOLUTION: An information processing apparatus includes an acquisition unit and a provision unit. The acquisition unit acquires a voice memo recorded by a user and position information in which the voice memo was recorded. The provision unit provides the voice memo to another user when the other user satisfies a position condition based on the position information.SELECTED DRAWING: Figure 3

Description

本発明は、情報処理装置、情報処理方法および情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.

近年、ボイスレコーダや、スマートフォンの普及に元内、音声メモを手軽に録音できる環境が整いつつある。音声メモは、ボイスメモとも呼ばれ、例えば、ユーザが思いついたことを記録するために用いられる。また、この種の技術について、録音した音声メモをテキストに変換して記録する技術がある。 In recent years, with the spread of voice recorders and smartphones, the environment is being created where voice memos can be easily recorded. Voice memos are also called voice memos, and are used, for example, to record ideas that come to mind. In addition, there is a technology of this type that converts recorded voice memos into text and records them.

特開2017-174172号公報JP 2017-174172 A

しかしながら、従来の技術は、音声メモをテキスト変換しているに過ぎず、音声メモをより有効に用いる点で更なる改善の余地があった。 However, conventional technology only converts voice memos into text, and there is room for further improvement in using voice memos more effectively.

本願は、上記に鑑みてなされたものであって、音声メモをより有効活用できる情報処理装置、情報処理方法および情報処理プログラムを提供することを目的とする。 The present application has been made in consideration of the above, and aims to provide an information processing device, an information processing method, and an information processing program that enable more effective use of voice memos.

本願に係る情報処理装置は、取得部と、提供部とを備える。前記取得部は、ユーザが録音した音声メモと、前記音声メモを録音した際の位置情報とを取得する。前記提供部は、前記位置情報に基づく位置条件を他のユーザが満たした場合に、前記他のユーザに対して前記音声メモを提供する。 The information processing device according to the present application includes an acquisition unit and a provision unit. The acquisition unit acquires a voice memo recorded by a user and location information when the voice memo was recorded. The provision unit provides the voice memo to another user when the other user satisfies a location condition based on the location information.

実施形態の一態様によれば、音声メモをより有効活用できるという効果を奏する。 According to one aspect of the embodiment, it is possible to make more effective use of voice memos.

図1は、実施形態に係る情報処理装置が実行する処理を示す図である。FIG. 1 is a diagram showing a process executed by an information processing apparatus according to an embodiment. 図2は、実施形態に係る情報処理システムの構成例を示す図である。FIG. 2 is a diagram illustrating an example of the configuration of an information processing system according to the embodiment. 図3は、実施形態に係る情報処理装置の構成例を示す図である。FIG. 3 is a diagram illustrating an example of the configuration of the information processing device according to the embodiment. 図4は、ユーザ情報の一例を示す図である。FIG. 4 is a diagram illustrating an example of user information. 図5は、音声メモ情報の一例を示す図である。FIG. 5 is a diagram showing an example of voice memo information. 図6は、実施形態に係る情報処理装置が実行する処理の処理手順を示すフローチャートである。FIG. 6 is a flowchart showing the processing procedure executed by the information processing apparatus according to the embodiment. 図7は、ハードウェア構成の一例を示す図である。FIG. 7 is a diagram illustrating an example of a hardware configuration.

以下に、本願に係る情報処理装置、情報処理方法および情報処理プログラムを実施するための形態(以下、「実施形態」と記載する)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法および情報処理プログラムが限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。 Below, the information processing device, information processing method, and information processing program according to the present application will be described in detail with reference to the drawings. Note that the information processing device, information processing method, and information processing program according to the present application are not limited to these embodiments. In addition, the same components in the following embodiments will be denoted by the same reference numerals, and duplicated descriptions will be omitted.

(実施形態)
まず、図1を用いて、実施形態に係る情報処理装置が実行する処理について説明する。図1は、実施形態に係る情報処理装置が実行する処理を示す図である。なお、図1では、実施形態に係る情報処理装置1を含む情報処理システムSの動作例を示している。
(Embodiment)
First, a process executed by an information processing device according to an embodiment will be described with reference to Fig. 1. Fig. 1 is a diagram showing a process executed by the information processing device according to an embodiment. Fig. 1 illustrates an example of an operation of an information processing system S including an information processing device 1 according to an embodiment.

図1に示すように、実施形態に係る情報処理システムSは、情報処理装置1と、複数とのユーザ端末100a,100bとを含む。なお、以下において、ユーザ端末100a,100bを特に区別しない場合には、ユーザ端末100と総称する。 As shown in FIG. 1, the information processing system S according to the embodiment includes an information processing device 1 and multiple user terminals 100a and 100b. In the following description, the user terminals 100a and 100b will be collectively referred to as user terminals 100 unless otherwise specified.

図1に示すように、実施形態に係る情報処理システムSは、ユーザが録音した音声メモと、音声メモを録音した際の位置情報とを取得し、位置情報に基づく位置条件を他のユーザが満たした場合に、他のユーザに対して音声メモを提供する。なお、ここでいう音声メモとは、ユーザ端末100が有する録音機能によって録音されたユーザの音声を示す音声データである。音声メモは、録音後、ユーザ端末100の記憶部(不図示)に記憶される。 As shown in FIG. 1, the information processing system S according to the embodiment acquires a voice memo recorded by a user and location information when the voice memo was recorded, and provides the voice memo to other users when the other users satisfy location conditions based on the location information. Note that the voice memo referred to here is voice data indicating the user's voice recorded by the recording function of the user terminal 100. After recording, the voice memo is stored in a memory unit (not shown) of the user terminal 100.

図1に示すように、情報処理システムSでは、まず、ユーザ端末100は、ユーザから音声メモを受け付ける(ステップS1)。具体的には、ユーザ端末100は、音声録音のアプリケーションを起動した状態で、ユーザ端末100が備えるマイク(不図示)に対して発話した音声データを音声メモとして受け付ける。また、ユーザ端末100は、音声メモを録音した際の位置情報を併せて取得し、音声メモに紐づけておく。 As shown in FIG. 1, in the information processing system S, first, the user terminal 100 accepts a voice memo from the user (step S1). Specifically, the user terminal 100 accepts voice data spoken into a microphone (not shown) provided in the user terminal 100 as a voice memo while a voice recording application is running. The user terminal 100 also acquires location information when the voice memo was recorded and links it to the voice memo.

位置情報は、例えば、緯度経度の情報であるが、緯度経度の情報以外に、緯度経度に基づく特定の場所の名称であってもよい。 The location information is, for example, latitude and longitude information, but it may also be the name of a specific location based on latitude and longitude other than latitude and longitude information.

つづいて、情報処理装置1は、ユーザ端末100から音声メモと、音声メモに紐づいた位置情報とを取得する(ステップS2)。情報処理装置1は、複数のユーザ端末100から音声メモと位置情報とのセットを収集する。 Next, the information processing device 1 acquires the voice memo and the location information linked to the voice memo from the user terminal 100 (step S2). The information processing device 1 collects sets of voice memos and location information from multiple user terminals 100.

つづいて、情報処理装置1は、取得した音声メモに基づいて、音声メモの内容の信憑性を判定する(ステップS3)。具体的には、情報処理装置1は、音声メモをテキスト変換して形態素解析を行う。そして、情報処理装置1は、形態素解析により得られた単語から特徴情報を抽出する。また、情報処理装置1は、音声メモに紐づいた位置情報に基づいて、当該位置情報に関係する特定の場所(店舗等)を特定し、特定した場所の特徴情報(店舗のメニュー表等)を取得する。そして、情報処理装置1は、音声メモから得られた特徴情報と、位置情報から得られた特徴情報とを比較して、音声メモから得られた特徴情報の信憑性を判定する。 Next, the information processing device 1 judges the authenticity of the contents of the voice memo based on the acquired voice memo (step S3). Specifically, the information processing device 1 converts the voice memo into text and performs morphological analysis. Then, the information processing device 1 extracts feature information from the words obtained by the morphological analysis. Furthermore, the information processing device 1 identifies a specific location (such as a store) related to the location information linked to the voice memo, based on the location information, and acquires feature information of the identified location (such as a store menu). Then, the information processing device 1 compares the feature information obtained from the voice memo with the feature information obtained from the location information, and judges the authenticity of the feature information obtained from the voice memo.

また、情報処理装置1は、音声メモのテキストを形態素解析して得られた単語を用いて、音声メモをベクトルに変換してもよい。かかる場合、情報処理装置1は、位置情報から得られた特定の場所のテキスト情報(店舗におけるレビュー等)をベクトルに変換する。そして、情報処理装置1は、音声メモのベクトルと、特定の場所のテキスト情報に基づいたベクトルの近さに基づいて信憑性を判定する。 The information processing device 1 may also convert the voice memo into a vector using words obtained by morphological analysis of the text of the voice memo. In such a case, the information processing device 1 converts text information of a specific location obtained from the location information (such as reviews of a store) into a vector. Then, the information processing device 1 determines the credibility based on the closeness between the vector of the voice memo and a vector based on the text information of the specific location.

つづいて、情報処理装置1は、位置情報、音声メモ、および信憑性の判定結果を紐づけて記憶する(ステップS4)。 Next, the information processing device 1 links and stores the location information, the voice memo, and the credibility assessment result (step S4).

つづいて、情報処理装置1は、他のユーザが所持するユーザ端末100bから位置情報を取得する(ステップS5)。具体的には、情報処理装置1は、音声メモを提供するアプリケーションを起動した状態のユーザ端末100bの位置情報を取得する。位置情報は、例えば、緯度経度の情報であるが、緯度経度の情報以外に、緯度経度に基づく特定の場所の名称であってもよい。 The information processing device 1 then acquires location information from the user terminal 100b owned by the other user (step S5). Specifically, the information processing device 1 acquires location information of the user terminal 100b in a state in which an application that provides voice memos is running. The location information is, for example, latitude and longitude information, but may also be a name of a specific location based on the latitude and longitude information.

つづいて、情報処理装置1は、音声メモに紐づいた位置情報に基づく位置条件を他のユーザの位置情報が満たすか否かを判定する(ステップS6)。例えば、情報処理装置1は、他のユーザの位置情報が、音声メモに紐づいた位置情報の所定範囲内に位置する場合に、位置条件を満たすと判定する。つまり、情報処理装置1は、音声メモを録音した位置の近くに他のユーザが近づいた場合に、位置条件を満たすと判定する。 The information processing device 1 then determines whether the location information of the other user satisfies the location condition based on the location information linked to the voice memo (step S6). For example, the information processing device 1 determines that the location condition is satisfied when the location information of the other user is located within a predetermined range of the location information linked to the voice memo. In other words, the information processing device 1 determines that the location condition is satisfied when the other user approaches the location where the voice memo was recorded.

つづいて、情報処理装置1は、位置条件を満たすと判定した他のユーザに対して、ユーザ端末100bを介して音声メモを提供する(ステップS7)。つまり、情報処理装置1は、音声メモを録音した位置の近くに他のユーザが近づいた場合に、他のユーザのユーザ端末100bにより音声メモを再生する。なお、情報処理装置1は、音声メモをテキスト変換してユーザ端末100bへ提供することで、音声メモのテキスト情報を表示してもよい。また、情報処理装置1は、上記の信憑性の判定結果を紐づいた音声メモを他のユーザへ提供する。 Then, the information processing device 1 provides the voice memo to the other user who is determined to satisfy the location condition via the user terminal 100b (step S7). That is, when the other user approaches the location where the voice memo was recorded, the information processing device 1 plays the voice memo on the other user's user terminal 100b. The information processing device 1 may display the text information of the voice memo by converting the voice memo into text and providing it to the user terminal 100b. The information processing device 1 also provides the other user with a voice memo linked to the above-mentioned credibility determination result.

このように、実施形態に係る情報処理装置1によれば、音声メモを録音した位置の近くに他のユーザが近づいた場合に、他のユーザのユーザ端末100bにより音声メモを再生することで、例えば、当該位置におけるユーザの考え等を他のユーザが聞くことができる。すなわち、実施形態に係る情報処理装置1によれば、音声メモをより有効活用することができる。 In this way, according to the information processing device 1 of the embodiment, when another user approaches a location where a voice memo has been recorded, the voice memo can be played back on the user terminal 100b of the other user, allowing the other user to hear, for example, the user's thoughts at that location. In other words, according to the information processing device 1 of the embodiment, voice memos can be used more effectively.

次に、図2を用いて、実施形態に係る情報処理システムSの構成例について説明する。図2は、実施形態に係る情報処理システムSの構成例を示すブロック図である。図2に示すように、実施形態に係る情報処理システムSは、情報処理装置1と、複数のユーザ端末100とがネットワークNに対して有線又は無線により接続される。ネットワークNは、例えば、インターネット、WAN(Wide Area Network)、LAN(Local Area Network)等のネットワークである。 Next, a configuration example of an information processing system S according to an embodiment will be described with reference to FIG. 2. FIG. 2 is a block diagram showing a configuration example of an information processing system S according to an embodiment. As shown in FIG. 2, in the information processing system S according to an embodiment, an information processing device 1 and multiple user terminals 100 are connected to a network N by wire or wirelessly. The network N is, for example, the Internet, a Wide Area Network (WAN), a Local Area Network (LAN), or the like.

情報処理装置1は、実施形態に係る情報処理方法を実行するサーバ装置である。情報処理装置1は、ユーザが録音した音声メモと、音声メモを録音した際の位置情報とを取得し、位置情報に基づく位置条件を他のユーザが満たした場合に、他のユーザに対して音声メモを提供する。 The information processing device 1 is a server device that executes the information processing method according to the embodiment. The information processing device 1 acquires a voice memo recorded by a user and location information when the voice memo was recorded, and provides the voice memo to other users when the other users satisfy a location condition based on the location information.

また、情報処理装置1は、複数のユーザ端末100と連携し、複数のユーザ端末100に対して、各種アプリケーション(以下、アプリ)等に対するAPI(Application Programming Interface)サービス等と、各種データを提供する情報処理装置であり、サーバ装置やクラウドシステム等により実現される。 In addition, the information processing device 1 is an information processing device that cooperates with multiple user terminals 100 and provides API (Application Programming Interface) services for various applications (hereinafter, apps) and the like, as well as various data, to the multiple user terminals 100, and is realized by a server device, a cloud system, or the like.

また、情報処理装置1は、複数のユーザ端末100に対して、オンラインで何らかのWebサービスを提供する情報処理装置であってもよい。例えば、情報処理装置1は、Webサービスとして、インターネット接続、検索サービス、SNS(Social Networking Service)、電子商取引(EC:Electronic Commerce)、電子決済、オンラインゲーム、オンラインバンキング、オンライントレーディング、宿泊・チケット予約、動画・音楽配信、ニュース、地図、ルート検索、経路案内、路線情報、運行情報、天気予報等のサービスを提供してもよい。実際には、情報処理装置1は、上記のようなWebサービスを提供する各種サーバと連携し、Webサービスを仲介してもよいし、Webサービスの処理を担当してもよい。 The information processing device 1 may also be an information processing device that provides some kind of web service online to multiple user terminals 100. For example, the information processing device 1 may provide services such as Internet connection, search services, SNS (Social Networking Service), electronic commerce (EC), electronic payment, online games, online banking, online trading, accommodation and ticket reservations, video and music distribution, news, maps, route searches, route guidance, line information, operation information, and weather forecasts as web services. In practice, the information processing device 1 may cooperate with various servers that provide the above-mentioned web services, and may act as an intermediary for the web services or be responsible for processing the web services.

ユーザ端末100は、ユーザが所持する端末装置である。ユーザ端末100は、スマートフォン、デスクトップ型PC、ノート型PC、タブレット型PC等の任意のタイプの端末装置を用いることができる。ユーザ端末100は、情報処理装置1等へ各種情報を送信したり、情報処理装置1等から提供される情報を受信したりする。 The user terminal 100 is a terminal device owned by a user. The user terminal 100 may be any type of terminal device, such as a smartphone, a desktop PC, a notebook PC, or a tablet PC. The user terminal 100 transmits various types of information to the information processing device 1, etc., and receives information provided by the information processing device 1, etc.

次に、図3を参照して、情報処理装置1の構成例について説明する。 Next, an example configuration of the information processing device 1 will be described with reference to FIG. 3.

図3は、実施形態に係る情報処理装置1の構成例を示す図である。図3に示されるように、情報処理装置1は、通信部2と、制御部3と、記憶部4とを有する。制御部3は、取得部31と、判定部32と、記憶処理部33と、提供部34とを備える。記憶部4は、ユーザ情報41と、音声メモ情報42とを記憶する。 Fig. 3 is a diagram showing an example of the configuration of an information processing device 1 according to an embodiment. As shown in Fig. 3, the information processing device 1 has a communication unit 2, a control unit 3, and a storage unit 4. The control unit 3 includes an acquisition unit 31, a determination unit 32, a storage processing unit 33, and a provision unit 34. The storage unit 4 stores user information 41 and voice memo information 42.

通信部2は、例えば、NIC(Network Interface Card)等によって実現される。通信部2は、有線または無線によりネットワーク網と接続される。 The communication unit 2 is realized, for example, by a network interface card (NIC). The communication unit 2 is connected to the network via a wired or wireless connection.

制御部3は、コントローラ(controller)であり、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)等のプロセッサによって、情報処理装置1内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAM等を作業領域として実行されることにより実現される。また、制御部3は、コントローラ(controller)であり、例えば、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)、GPGPU(General Purpose Graphic Processing Unit)等の集積回路により実現されてもよい。 The control unit 3 is a controller, and is realized, for example, by a processor such as a CPU (Central Processing Unit) or MPU (Micro Processing Unit) that executes various programs (corresponding to an example of an information processing program) stored in a storage device inside the information processing device 1 using a RAM or the like as a working area. The control unit 3 is also a controller, and may be realized, for example, by an integrated circuit such as an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a GPGPU (General Purpose Graphic Processing Unit).

記憶部4は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。 The storage unit 4 is realized, for example, by a semiconductor memory element such as a random access memory (RAM) or a flash memory, or a storage device such as a hard disk or an optical disk.

ユーザ情報41は、ユーザに関する情報である。図4は、ユーザ情報41の一例を示す図である。図4に示すように、ユーザ情報41は、「ユーザID」、「属性情報」、「信憑性判定モデル」等の項目を含む。 User information 41 is information about a user. Figure 4 is a diagram showing an example of user information 41. As shown in Figure 4, user information 41 includes items such as "user ID," "attribute information," and "credibility assessment model."

「ユーザID」は、ユーザを識別する識別情報である。「属性情報」は、ユーザの属性に関する情報であり、例えば、サイコグラフィック属性や、デモグラフィック属性等を含む。「信憑性判定モデル」は、後述する判定部32が音声メモの信憑性を判定する際に用いられるモデルの情報である。かかるモデルは、機械学習における既知のアルゴリズムによって生成される。 "User ID" is identification information that identifies a user. "Attribute information" is information about the attributes of a user, including, for example, psychographic attributes and demographic attributes. "Credibility determination model" is information about a model that is used when the determination unit 32, described later, determines the credibility of a voice memo. Such a model is generated by a known algorithm in machine learning.

音声メモ情報42は、音声メモに関する情報である。図5は、音声メモ情報42の一例を示す図である。図5に示すように、音声メモ情報42は、「メモID」、「ユーザID」、「位置情報」、「音声メモ」および「判定結果」といった項目を含む。 Voice memo information 42 is information related to a voice memo. FIG. 5 is a diagram showing an example of voice memo information 42. As shown in FIG. 5, voice memo information 42 includes items such as "Memo ID", "User ID", "Location information", "Voice memo", and "Judgment result".

「メモID」は、音声メモを識別する識別情報である。「ユーザID」は、音声メモを録音したユーザを識別する識別情報であり、上記のユーザ情報41における「ユーザID」に対応する。「位置情報」は、音声メモを録音した際の位置情報である。「音声メモ」は、録音された音声メモの情報である。「判定結果」は、判定部32による信憑性判定の判定結果を示す情報であり、「1」が信憑性ありを示し、「0」が信憑性無しを示す。 "Memo ID" is identification information that identifies the voice memo. "User ID" is identification information that identifies the user who recorded the voice memo, and corresponds to "User ID" in the user information 41 described above. "Location information" is location information when the voice memo was recorded. "Voice memo" is information on the recorded voice memo. "Judgment result" is information indicating the result of the credibility judgment by the judgment unit 32, with "1" indicating credibility and "0" indicating lack of credibility.

次に、情報処理装置1の制御部3の各機能(取得部31、判定部32、記憶処理部33および提供部34)について説明する。 Next, we will explain each function of the control unit 3 of the information processing device 1 (acquisition unit 31, determination unit 32, storage processing unit 33, and provision unit 34).

取得部31は、各種情報を取得する。例えば、取得部31は、ユーザ端末100で録音された音声メモと、音声メモを録音した際のユーザ端末100の位置情報とを取得する。また、取得部31は、音声メモの提供対象となる他のユーザの位置情報を取得する。 The acquisition unit 31 acquires various information. For example, the acquisition unit 31 acquires a voice memo recorded on the user terminal 100 and location information of the user terminal 100 at the time the voice memo was recorded. The acquisition unit 31 also acquires location information of other users to whom the voice memo is to be provided.

判定部32は、取得した音声メモの内容の信憑性を判定する。具体的には、判定部32は、音声メモをテキスト変換して形態素解析を行う。そして、判定部32は、形態素解析により得られた単語から特徴情報を抽出する。また、判定部32は、音声メモに紐づいた位置情報に基づいて、当該位置情報に関係する特定の場所(店舗等)を特定し、特定した場所の特徴情報(店舗のメニュー表等)を取得する。そして、情報処理装置1は、音声メモから得られた特徴情報と、位置情報から得られた特徴情報とを比較して、音声メモから得られた特徴情報の信憑性を判定する。例えば、判定部32は、音声メモから得られた特徴情報と、位置情報から得られた特徴情報とが類似する場合に、信憑性があると判定する。例えば、判定部32は、音声メモにて発せられる店舗のメニューと、位置情報から得られた特定の店舗のホームページに載せられたメニューとが一致する場合に、信憑性があると判定する。 The determination unit 32 determines the authenticity of the content of the acquired voice memo. Specifically, the determination unit 32 converts the voice memo into text and performs morphological analysis. The determination unit 32 then extracts feature information from the words obtained by the morphological analysis. The determination unit 32 also identifies a specific location (such as a store) related to the location information linked to the voice memo based on the location information, and acquires feature information (such as a menu list for the store) of the identified location. The information processing device 1 then compares the feature information obtained from the voice memo with the feature information obtained from the location information to determine the authenticity of the feature information obtained from the voice memo. For example, the determination unit 32 determines that the feature information obtained from the voice memo is authentic when the feature information obtained from the voice memo is similar to the feature information obtained from the location information. For example, the determination unit 32 determines that the feature information obtained from the voice memo is authentic when the menu of the store spoken in the voice memo matches the menu posted on the homepage of the specific store obtained from the location information.

また、判定部32は、音声メモのテキストを形態素解析して得られた単語を用いて、音声メモをベクトルに変換してもよい。かかる場合、判定部32は、位置情報から得られた特定の場所のテキスト情報(店舗におけるレビュー等)をベクトルに変換する。そして、判定部32は、音声メモのベクトルと、特定の場所のテキスト情報に基づいたベクトルの近さに基づいて信憑性を判定する。 The determination unit 32 may also convert the voice memo into a vector using words obtained by morphological analysis of the text of the voice memo. In such a case, the determination unit 32 converts text information of a specific location obtained from the location information (such as a review of a store) into a vector. Then, the determination unit 32 determines the credibility based on the closeness between the vector of the voice memo and a vector based on the text information of the specific location.

記憶処理部33は、取得部31が取得した音声メモおよび位置情報と、判定部32の判定結果とを紐づけて音声メモ情報42として記憶部4に記憶する処理を行う。 The storage processing unit 33 performs processing to link the voice memo and location information acquired by the acquisition unit 31 with the judgment result of the judgment unit 32 and store them in the storage unit 4 as voice memo information 42.

提供部34は、音声メモに紐づいた位置情報に基づいた位置条件を他のユーザが満たすか否かを判定し、位置条件を他のユーザが満たす場合に、他のユーザに対して音声メモを提供する。例えば、提供部34は、他のユーザの位置情報が、音声メモに紐づいた位置情報の所定範囲内に位置する場合に、位置条件を満たすと判定する。つまり、提供部34は、音声メモを録音した位置の近くに他のユーザが近づいた場合に、位置条件を満たすと判定する。 The providing unit 34 determines whether the other user satisfies a location condition based on the location information linked to the voice memo, and provides the voice memo to the other user if the other user satisfies the location condition. For example, the providing unit 34 determines that the location condition is satisfied if the location information of the other user is located within a predetermined range of the location information linked to the voice memo. In other words, the providing unit 34 determines that the location condition is satisfied if the other user approaches the location where the voice memo was recorded.

つづいて、提供部34は、位置条件を満たすと判定した他のユーザに対して、ユーザ端末100bを介して音声メモを提供する。つまり、提供部34は、音声メモを録音した位置の近くに他のユーザが近づいた場合に、他のユーザのユーザ端末100bにより音声メモを再生する。なお、提供部34は、音声メモをテキスト変換してユーザ端末100bへ提供することで、音声メモのテキスト情報を表示してもよい。 Then, the providing unit 34 provides the voice memo to the other user who is determined to satisfy the location condition via the user terminal 100b. In other words, when the other user approaches the location where the voice memo was recorded, the providing unit 34 plays the voice memo on the user terminal 100b of the other user. The providing unit 34 may display the text information of the voice memo by converting the voice memo into text and providing it to the user terminal 100b.

また、提供部34は、位置条件を満たす他のユーザの属性情報に基づいて、音声メモを提供するか否かを判定してもよい。具体的には、提供部34は、他のユーザの属性情報と、音声メモの内容とが類似する場合に、音声メモを提供する。例えば、提供部34は、音声メモの内容がサッカーに関連する内容である場合、他のユーザの属性情報に含まれる趣味や所属がサッカーに関連する場合に、かかる音声メモを提供する。また、提供部34は、他のユーザの属性情報と、音声メモを録音したユーザの属性情報とが類似する場合に、音声メモを提供してもよい。例えば、提供部34は、他のユーザと音声メモを録音したユーザの属性情報に含まれる趣味が同じである場合に、かかる音声メモを提供する。 The providing unit 34 may also determine whether to provide a voice memo based on the attribute information of another user who satisfies the location condition. Specifically, the providing unit 34 provides a voice memo when the attribute information of the other user and the content of the voice memo are similar. For example, the providing unit 34 provides the voice memo when the content of the voice memo is soccer-related and the hobbies or affiliations included in the attribute information of the other user are soccer-related. The providing unit 34 may also provide a voice memo when the attribute information of the other user and the attribute information of the user who recorded the voice memo are similar. For example, the providing unit 34 provides the voice memo when the hobbies included in the attribute information of the other user and the user who recorded the voice memo are the same.

また、提供部34は、位置条件を満たす他のユーザが向いている方向に基づいて、音声メモを提供するか否かを判定してもよい。他のユーザが向いている方向は、例えば、他のユーザが所持するユーザ端末100の位置情報の変化方向に基づいて検出可能である。例えば、提供部34は、他のユーザの位置情報が音声メモに紐づく位置情報の所定範囲内で、かつ、他のユーザが音声メモに紐づく位置情報の方向を向いている場合に、音声メモを提供する。 The providing unit 34 may also determine whether to provide a voice memo based on the direction in which the other user who satisfies the location condition is facing. The direction in which the other user is facing can be detected, for example, based on the direction of change in the location information of the user terminal 100 held by the other user. For example, the providing unit 34 provides a voice memo when the location information of the other user is within a predetermined range of the location information linked to the voice memo and the other user is facing in the direction of the location information linked to the voice memo.

なお、提供部34は、判定部32による信憑性の判定結果を紐づけた音声メモを他のユーザへ提供する。あるいは、提供部34は、信憑性があると判定された音声メモのみ他のユーザへ提供し、信憑性が無いと判定された音声メモの提供を禁止してもよい。 The providing unit 34 provides the voice memo linked to the credibility determination result by the determining unit 32 to other users. Alternatively, the providing unit 34 may provide only the voice memo determined to be credible to other users, and prohibit the provision of the voice memo determined to be uncredible.

次に、図6を用いて、実施形態に係る情報処理装置1が実行する処理の処理手順について説明する。図6は、実施形態に係る情報処理装置1が実行する処理の処理手順を示すフローチャートである。 Next, the processing procedure of the process executed by the information processing device 1 according to the embodiment will be described with reference to FIG. 6. FIG. 6 is a flowchart showing the processing procedure of the process executed by the information processing device 1 according to the embodiment.

図6に示すように、制御部3は、まず、ユーザ端末100から録音された音声メモと、位置情報とを取得する(ステップS101)。 As shown in FIG. 6, the control unit 3 first acquires the recorded voice memo and location information from the user terminal 100 (step S101).

つづいて、制御部3は、取得した音声メモに基づいて、音声メモの信憑性を判定する(ステップS102)。 Next, the control unit 3 determines the authenticity of the voice memo based on the acquired voice memo (step S102).

つづいて、制御部3は、位置情報、音声メモおよび信憑性の判定結果を紐づけて音声メモ情報42として記憶部4に記憶する(ステップS103)。 Next, the control unit 3 links the location information, the voice memo, and the credibility assessment result and stores them in the memory unit 4 as voice memo information 42 (step S103).

つづいて、制御部3は、他のユーザの位置情報を取得し、音声メモに紐づいた位置情報に基づく位置条件を満たした他のユーザへ音声メモを提供し(ステップS104)、処理を終了する。 The control unit 3 then acquires location information of other users, provides the voice memo to other users who meet the location conditions based on the location information linked to the voice memo (step S104), and ends the process.

〔その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の一部を手動的に行うこともできる。あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
〔others〕
In addition, among the processes described in the above embodiments, some of the processes described as being performed automatically can be performed manually. Alternatively, all or some of the processes described as being performed manually can be performed automatically using a known method. In addition, the information including the processing procedures, specific names, various data, and parameters shown in the above documents and drawings can be changed arbitrarily unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 In addition, each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. In other words, the specific form of distribution and integration of each device is not limited to that shown in the figure, and all or part of them can be functionally or physically distributed and integrated in any unit depending on various loads, usage conditions, etc.

例えば、図3に示した記憶部4の一部又は全部は、各装置によって保持されるのではなく、ストレージサーバ等に保持されてもよい。この場合、各装置は、ストレージサーバにアクセスすることで、各種情報を取得する。 For example, a part or all of the memory unit 4 shown in FIG. 3 may be stored in a storage server or the like, rather than being stored in each device. In this case, each device obtains various information by accessing the storage server.

〔ハードウェア構成〕
また、上述してきた実施形態に係る情報処理装置1は、例えば図7に示すような構成のコンピュータ1000によって実現される。図7は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、一次記憶装置1040、二次記憶装置1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続された形態を有する。
[Hardware configuration]
The information processing device 1 according to the embodiment described above is realized by a computer 1000 having a configuration as shown in Fig. 7, for example. Fig. 7 is a diagram showing an example of a hardware configuration. The computer 1000 is connected to an output device 1010 and an input device 1020, and has a configuration in which a calculation device 1030, a primary storage device 1040, a secondary storage device 1050, an output IF (Interface) 1060, an input IF 1070, and a network IF 1080 are connected by a bus 1090.

演算装置1030は、一次記憶装置1040や二次記憶装置1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。一次記憶装置1040は、RAM等、演算装置1030が各種の演算に用いるデータを一時的に記憶するメモリ装置である。また、二次記憶装置1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現される。 The arithmetic device 1030 operates based on programs stored in the primary storage device 1040 and the secondary storage device 1050, programs read from the input device 1020, and the like, and executes various processes. The primary storage device 1040 is a memory device, such as a RAM, that temporarily stores data used by the arithmetic device 1030 for various calculations. The secondary storage device 1050 is a storage device in which data used by the arithmetic device 1030 for various calculations and various databases are registered, and is realized by a ROM (Read Only Memory), a HDD (Hard Disk Drive), a flash memory, or the like.

出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現される。また、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。 The output IF 1060 is an interface for transmitting information to be output to an output device 1010 that outputs various types of information, such as a monitor or printer, and is realized, for example, by a connector conforming to a standard such as USB (Universal Serial Bus), DVI (Digital Visual Interface), or HDMI (registered trademark) (High Definition Multimedia Interface). The input IF 1070 is an interface for receiving information from various input devices 1020, such as a mouse, keyboard, scanner, etc., and is realized, for example, by a USB.

なお、入力装置1020は、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置であってもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体であってもよい。 The input device 1020 may be a device that reads information from, for example, an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), or a PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. The input device 1020 may also be an external storage medium such as a USB memory.

ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する。 The network IF 1080 receives data from other devices via the network N and sends it to the computing device 1030, and also transmits data generated by the computing device 1030 to other devices via the network N.

演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行う。例えば、演算装置1030は、入力装置1020や二次記憶装置1050からプログラムを一次記憶装置1040上にロードし、ロードしたプログラムを実行する。 The arithmetic unit 1030 controls the output device 1010 and the input device 1020 via the output IF 1060 and the input IF 1070. For example, the arithmetic unit 1030 loads a program from the input device 1020 or the secondary storage device 1050 onto the primary storage device 1040 and executes the loaded program.

例えば、コンピュータ1000が情報処理装置1として機能する場合、コンピュータ1000の演算装置1030は、一次記憶装置1040上にロードされたプログラムを実行することにより、制御部3の機能を実現する。 For example, when the computer 1000 functions as the information processing device 1, the arithmetic unit 1030 of the computer 1000 realizes the functions of the control unit 3 by executing a program loaded onto the primary storage device 1040.

〔効果〕
上述してきたように、実施形態に係る情報処理装置1は、取得部31と、提供部34とを備える。取得部31は、ユーザが録音した音声メモと、音声メモを録音した際の位置情報とを取得する。提供部34は、位置情報に基づく位置条件を他のユーザが満たした場合に、他のユーザに対して音声メモを提供する。
〔effect〕
As described above, the information processing device 1 according to the embodiment includes the acquisition unit 31 and the provision unit 34. The acquisition unit 31 acquires a voice memo recorded by a user and location information when the voice memo was recorded. The provision unit 34 provides the voice memo to another user when the other user satisfies a location condition based on the location information.

上述した各実施形態に係る情報処理装置1によれば、音声メモをより有効活用することができる。 The information processing device 1 according to each of the above-described embodiments allows for more effective use of voice memos.

以上、本願の実施形態のいくつかを図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。 Although some of the embodiments of the present application have been described in detail above with reference to the drawings, these are merely examples, and the present invention can be embodied in other forms that incorporate various modifications and improvements based on the knowledge of those skilled in the art, including the forms described in the disclosure section of the invention.

〔その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
〔others〕
In addition, among the processes described in the above embodiments, all or part of the processes described as being performed automatically can be performed manually, or all or part of the processes described as being performed manually can be performed automatically by a known method. In addition, the information including the processing procedures, specific names, various data and parameters shown in the above documents and drawings can be changed arbitrarily unless otherwise specified. For example, the various information shown in each drawing is not limited to the illustrated information.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。 In addition, each component of each device shown in the figure is a functional concept, and does not necessarily have to be physically configured as shown in the figure. In other words, the specific form of distribution and integration of each device is not limited to that shown in the figure, and all or part of them can be functionally or physically distributed and integrated in any unit depending on various loads, usage conditions, etc.

また、上述してきた実施形態に記載した各処理は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。 In addition, the processes described in the above embodiments can be combined as appropriate to the extent that they do not cause any contradictions in the process content.

また、上記してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、制御部3は、制御手段や制御回路に読み替えることができる。 The above-mentioned "section, module, unit" can be read as "means" or "circuit." For example, the control unit 3 can be read as control means or control circuit.

1 情報処理装置
2 通信部
3 制御部
4 記憶部
31 取得部
32 判定部
33 記憶処理部
34 提供部
41 ユーザ情報
42 音声メモ情報
100 ユーザ端末
S 情報処理システム
Reference Signs List 1 Information processing device 2 Communication unit 3 Control unit 4 Storage unit 31 Acquisition unit 32 Determination unit 33 Storage processing unit 34 Provision unit 41 User information 42 Voice memo information 100 User terminal S Information processing system

Claims (10)

ユーザが録音した音声メモと、前記音声メモを録音した際の位置情報とを取得する取得部と、
前記位置情報に基づく位置条件を他のユーザが満たした場合に、前記他のユーザに対して前記音声メモを提供する提供部と
を備える情報処理装置。
an acquisition unit that acquires a voice memo recorded by a user and location information when the voice memo was recorded;
a providing unit that provides the voice memo to another user when the other user satisfies a location condition based on the location information.
前記取得部が取得した前記音声メモの内容の信憑性を判定する判定部をさらに備え、
前記提供部は、
前記判定部の判定結果に基づいて前記音声メモを前記他のユーザへ提供する
請求項1に記載の情報処理装置。
a determination unit that determines the authenticity of the content of the voice memo acquired by the acquisition unit,
The providing unit is
The information processing apparatus according to claim 1 , further comprising: providing the voice memo to the other user based on a result of the determination by the determination unit.
前記判定部は、
前記音声メモをテキスト変換して行った形態素解析により得られた単語から抽出した特徴情報と、前記音声メモに紐づいた前記位置情報から得られた特徴情報との比較結果に基づいて前記信憑性を判定する
請求項2に記載の情報処理装置。
The determination unit is
The information processing device according to claim 2, wherein the credibility is determined based on a comparison result between characteristic information extracted from words obtained by morphological analysis performed after converting the voice memo into text and characteristic information obtained from the location information linked to the voice memo.
前記判定部は、
前記音声メモをテキスト変換して行った形態素解析により得られた単語に基づいて生成したベクトルと、前記音声メモに紐づいた前記位置情報から得られた情報に基づいて生成したベクトルとの比較結果に基づいて前記信憑性を判定する
請求項2に記載の情報処理装置。
The determination unit is
The information processing device of claim 2, wherein the credibility is determined based on a comparison result between a vector generated based on words obtained by morphological analysis performed after converting the voice memo into text and a vector generated based on information obtained from the location information linked to the voice memo.
前記提供部は、
前記判定部の判定結果を紐づけた前記音声メモを前記他のユーザへ提供する
請求項2に記載の情報処理装置。
The providing unit is
The information processing apparatus according to claim 2 , further comprising: providing the voice memo linked to the determination result of the determination unit to the other user.
前記提供部は、
前記判定部によって前記信憑性があると判定された前記音声メモを前記他のユーザへ提供し、前記信憑性が無いと判定された前記音声メモの提供を禁止する
請求項2に記載の情報処理装置。
The providing unit is
The information processing apparatus according to claim 2 , wherein the voice memo that is determined to be credible by the determination unit is provided to the other user, and the voice memo that is determined to be unreliable is prohibited from being provided.
前記提供部は、
前記他のユーザの位置情報が、前記音声メモに紐づいた前記位置情報の所定範囲内に位置する場合に、前記他のユーザへ前記音声メモを提供する
請求項1に記載の情報処理装置。
The providing unit is
The information processing apparatus according to claim 1 , further comprising: a step of: providing the voice memo to the other user when the position information of the other user is located within a predetermined range of the position information associated with the voice memo.
前記提供部は、
前記位置条件を満たした前記他のユーザが向いている方向に基づいて、前記他のユーザへ前記音声メモを提供するか否かを判定する
請求項1に記載の情報処理装置。
The providing unit is
The information processing apparatus according to claim 1 , further comprising: determining whether or not to provide the voice memo to the other user based on a direction in which the other user who satisfies the position condition is facing.
コンピュータが実行する情報処理方法であって、
ユーザが録音した音声メモと、前記音声メモを録音した際の位置情報とを取得する取得工程と、
前記位置情報に基づく位置条件を他のユーザが満たした場合に、前記他のユーザに対して前記音声メモを提供する提供工程と
を含む情報処理方法。
1. A computer-implemented information processing method, comprising:
an acquisition step of acquiring a voice memo recorded by a user and location information when the voice memo was recorded;
providing the voice memo to another user when the other user satisfies a location condition based on the location information.
ユーザが録音した音声メモと、前記音声メモを録音した際の位置情報とを取得する取得手順と、
前記位置情報に基づく位置条件を他のユーザが満たした場合に、前記他のユーザに対して前記音声メモを提供する提供手順と
をコンピュータに実行させる情報処理プログラム。
An acquisition step of acquiring a voice memo recorded by a user and location information when the voice memo was recorded;
and a providing step of providing the voice memo to the other user when the other user satisfies a location condition based on the location information.
JP2022185305A 2022-11-18 2022-11-18 Information processing apparatus, information processing method, and information processing program Pending JP2024074179A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022185305A JP2024074179A (en) 2022-11-18 2022-11-18 Information processing apparatus, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022185305A JP2024074179A (en) 2022-11-18 2022-11-18 Information processing apparatus, information processing method, and information processing program

Publications (1)

Publication Number Publication Date
JP2024074179A true JP2024074179A (en) 2024-05-30

Family

ID=91227389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022185305A Pending JP2024074179A (en) 2022-11-18 2022-11-18 Information processing apparatus, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP2024074179A (en)

Similar Documents

Publication Publication Date Title
WO2020042376A1 (en) Method and apparatus for outputting information
US10951668B1 (en) Location based community
JP2015004756A (en) Determination device, determination method, and determination program
JP7408605B2 (en) Information processing device, information processing method, and information processing program
JP2024074179A (en) Information processing apparatus, information processing method, and information processing program
JP7405900B2 (en) Information processing device, information processing method, and information processing program
JP7443419B2 (en) Information processing device, information processing method, and information processing program
JP2024118269A (en) Information processing device, information processing method, and information processing program
JP7351944B2 (en) Information processing device, information processing method, and information processing program
JP7181432B1 (en) Information processing device, information processing method and information processing program
JP7482938B2 (en) Information processing device, information processing method, and information processing program
JP7260439B2 (en) Extraction device, extraction method and extraction program
JP7248844B1 (en) Information processing device, information processing method and information processing program
US12067128B2 (en) Dynamic system profiling based on data extraction
JP7354195B2 (en) Information processing device, information processing method, and information processing program
JP7419313B2 (en) Information processing device, information processing method, and information processing program
JP2024074144A (en) Information processing device, information processing method, and information processing program
JP2024000167A (en) Information processing apparatus, information processing method, and information processing program
JP2024118295A (en) Information processing device, information processing method, and information processing program
JP2023104567A (en) Providing apparatus, providing method, and providing program
JP2024061037A (en) Information processor, method for processing information, and information processing program
JP2024074030A (en) Information processing device, information processing method, and information processing program
JP2024061039A (en) Information processor, information processing method and information processing program
JP2024061036A (en) Information processor, method for processing information, and information processing program
JP2024061038A (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20231026