WO2018179425A1 - 音声内容記録システム、方法及びプログラム - Google Patents

音声内容記録システム、方法及びプログラム Download PDF

Info

Publication number
WO2018179425A1
WO2018179425A1 PCT/JP2017/013825 JP2017013825W WO2018179425A1 WO 2018179425 A1 WO2018179425 A1 WO 2018179425A1 JP 2017013825 W JP2017013825 W JP 2017013825W WO 2018179425 A1 WO2018179425 A1 WO 2018179425A1
Authority
WO
WIPO (PCT)
Prior art keywords
voice
content
web content
recording
audio
Prior art date
Application number
PCT/JP2017/013825
Other languages
English (en)
French (fr)
Inventor
俊二 菅谷
Original Assignee
株式会社オプティム
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社オプティム filed Critical 株式会社オプティム
Priority to CN201780091503.6A priority Critical patent/CN110709923B/zh
Priority to JP2019508487A priority patent/JP6845446B2/ja
Priority to PCT/JP2017/013825 priority patent/WO2018179425A1/ja
Priority to US16/499,450 priority patent/US11328727B2/en
Publication of WO2018179425A1 publication Critical patent/WO2018179425A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/02Agriculture; Fishing; Mining
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/02Protocols based on web technology, e.g. hypertext transfer protocol [HTTP]
    • H04L67/025Protocols based on web technology, e.g. hypertext transfer protocol [HTTP] for remote control or remote monitoring of applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries

Definitions

  • the present invention relates to an audio content recording system, method, and program.
  • Patent Document 1 Conventionally, a technique for converting the contents of recorded voice into text has been proposed (see Patent Document 1).
  • the present invention has been made in view of such a demand, and an object of the present invention is to provide a system for recording a work state or the like so that the recorded content is linked to position information and converted into a sentence.
  • the present invention provides the following solutions.
  • An invention is an audio content recording system for recording audio-recognized content in Web content, Acquisition means for acquiring a voice and a position where the voice is uttered; Voice recognition means for voice recognition of the acquired voice; A specifying means for specifying the Web content associated with the acquired position; Recording means for recording the voice-recognized content in the specified Web content; An audio content recording system is provided.
  • the voice recognition unit recognizes the voice
  • the specifying unit specifies the Web content associated with the position where the acquisition unit acquires the voice. To do.
  • the recording unit records the speech-recognized content on the Web content specified by the specifying unit.
  • the invention according to the second feature is the invention according to the first feature,
  • the specifying unit provides an audio content recording system that determines whether or not the acquired position is inside a specific range, and specifies a Web content associated with the specific range.
  • the invention according to the third feature is the invention according to the first or second feature
  • the recording means provides an audio content recording system for overwriting and recording the audio-recognized content when there is information in the specified Web content.
  • the invention according to the fourth feature is the invention according to any one of the first to third features,
  • the recording means provides an audio content recording system for recording the related specific content recognized by voice in a specific item in the specified Web content based on the content recognized by the voice. .
  • the invention according to the fifth feature is the invention according to any one of the first to fourth features,
  • the acquisition means acquires a voice, a position where the voice is uttered, and a date when the voice is uttered,
  • the specifying means provides an audio content recording system that specifies Web content associated with the acquired position and date.
  • the date is associated with the Web content, it is possible to provide a system that is even more convenient for the user.
  • the invention according to a sixth feature is the invention according to any one of the first to fifth features,
  • the web content includes a map including the position,
  • the recording means provides an audio content recording system that superimposes and displays the audio-recognized content at the position on the map of the Web content.
  • the acquisition unit by causing the acquisition unit to acquire a voice, the content of the voice acquired by the acquisition unit is recorded on the Web content in association with the position where the voice is uttered. Then, the speech-recognized content is superimposed and displayed on the web content map. Therefore, a system that is even more convenient for the user can be provided.
  • the invention according to a seventh feature is the invention according to any one of the first to sixth features,
  • the acquisition unit provides an audio content recording system that acquires audio from a smart glass and acquires a position where the audio is uttered from a position of the smart glass.
  • the seventh aspect of the invention since it is not necessary to carry the terminal, it is possible to provide a system that is even more convenient for users who tend to block their hands with work tools like farming.
  • the invention according to the eighth feature is the invention according to the seventh feature,
  • the web content includes a map including the position,
  • the recording means provides an audio content recording system that superimposes and displays the current position of the smart glass on a map of the Web content.
  • the speech-recognized content is superimposed and displayed on the Web content map. Therefore, it is possible to provide a system that is even more convenient for a user who tends to be occupied with work tools in both hands, such as farm work.
  • the present invention it is possible to provide a system for recording the content of the voice acquired by the acquisition unit in the Web content in association with the position where the voice is uttered by causing the acquisition unit to acquire the voice.
  • FIG. 1 is a block diagram showing the hardware configuration and software functions of an audio content recording system 1 according to this embodiment.
  • FIG. 2 is a flowchart showing the audio content recording method in the present embodiment.
  • FIG. 3 is an example for explaining the contents of the acquisition module 11.
  • FIG. 4 is an example following FIG.
  • FIG. 5 is an example following FIG.
  • FIG. 6 is an example of the voice database 31 in the present embodiment.
  • FIG. 7 is an example of the dictionary database 32 in the present embodiment.
  • FIG. 8 is an example of the Web content database 33 in the present embodiment.
  • FIG. 9 is an example of the classification database 34 in the present embodiment.
  • FIG. 10 is an example of display contents on the image display unit 70 in the present embodiment.
  • FIG. 1 is a block diagram for explaining the hardware configuration and software functions of an audio content recording system 1 according to this embodiment.
  • the audio content recording system 1 includes a control unit 10 that controls data, a communication unit 20 that communicates with other devices, a storage unit 30 that stores data, an input unit 40 that receives user operations, and user voices.
  • the audio content recording system 1 may be a stand-alone system provided integrally with a mobile terminal such as a smartphone, smart glass, or smart watch, or connected to the mobile terminal via the network.
  • a cloud-type system including a server including a server.
  • the audio content recording system 1 will be described as a stand-alone type system.
  • the control unit 10 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), and the like.
  • a CPU Central Processing Unit
  • RAM Random Access Memory
  • ROM Read Only Memory
  • the communication unit 20 includes a device for enabling communication with other devices, for example, a Wi-Fi (Wireless Fidelity) compatible device compliant with IEEE 802.11.
  • Wi-Fi Wireless Fidelity
  • the control unit 10 reads the predetermined program and cooperates with the communication unit 20 as necessary to realize the acquisition module 11, the voice recognition module 12, the specific module 13, and the recording module 14.
  • the storage unit 30 is a device that stores data and files, and includes a data storage unit such as a hard disk, a semiconductor memory, a recording medium, and a memory card.
  • the storage unit 30 stores an audio database 31, a dictionary database 32, a web content database 33, a classification database 34, and a map database 35, which will be described later.
  • the storage unit 30 also stores image data to be displayed on the image display unit 70.
  • the type of the input unit 40 is not particularly limited. Examples of the input unit 40 include a keyboard, a mouse, and a touch panel.
  • the type of the sound collecting unit 50 is not particularly limited. Examples of the sound collecting unit 50 include a microphone.
  • the position detection unit 60 is not particularly limited as long as it is a device that can detect the latitude and longitude where the audio content recording system 1 is located. Examples of the position detection unit 60 include a GPS (Global Positioning System).
  • the type of the image display unit 70 is not particularly limited. Examples of the image display unit 70 include a monitor and a touch panel.
  • FIG. 2 is a flowchart showing an audio content recording method using the audio content recording system 1. The processing executed by each hardware and the software module described above will be described.
  • Step S10 Acquisition of voice, position where voice is generated
  • voice content recording system 1 performs the acquisition module 11, and acquires an audio
  • the control unit 10 refers to a calendar (not shown) stored in the storage unit 30 and further acquires the date on which the voice was uttered.
  • 3 to 5 are examples for explaining the processing in step S10.
  • the farmer who operates Yamada Farm observes the state of the long leek field cultivated on Yamada Farm A.
  • the stem grew to 30 cm. “The soil is good. It seems to be about a week before harvesting.”
  • the sound collection unit 50 of the sound content recording system 1 collects the sound. Then, the control unit 10 A / D converts the sound collected by the sound collection unit 50 and sets the A / D converted information in a predetermined area of the storage unit 30.
  • the position detector 60 of the audio content recording system 1 detects the latitude and longitude where the audio content recording system 1 is located.
  • the position detection unit 60 detects that the latitude is 35 degrees 52 minutes 7 seconds north latitude and the longitude is 139 degrees 46 minutes 56 seconds east longitude.
  • the information regarding the position is also set in a predetermined area of the storage unit 30 together with the A / D converted information.
  • the farmhouse moved to a point of latitude: 35 degrees 52 minutes 2 seconds north latitude, longitude 139 degrees 47 minutes 52 seconds east longitude, and voiced “There was a pest A here.” It has occurred.
  • the sound collection unit 50 of the sound content recording system 1 collects the sound. Then, the control unit 10 A / D converts the sound collected by the sound collection unit 50 and sets the A / D converted information in a predetermined area of the storage unit 30.
  • the position detection unit 60 of the audio content recording system 1 detects the latitude and longitude where the audio content recording system 1 is located, and the information related to the position is also stored in a predetermined area of the storage unit 30 together with the A / D converted information. Set.
  • the farmhouse moves to a point of latitude: 35 degrees 51 minutes 57 seconds north latitude and longitude: 139 degrees 47 minutes 1 seconds east longitude, and generates a voice saying “This place is dead”. is doing.
  • the sound collection unit 50 of the sound content recording system 1 collects the sound. Then, the control unit 10 A / D converts the sound collected by the sound collection unit 50 and sets the A / D converted information in a predetermined area of the storage unit 30.
  • the position detection unit 60 of the audio content recording system 1 detects the latitude and longitude where the audio content recording system 1 is located, and the information related to the position is also stored in a predetermined area of the storage unit 30 together with the A / D converted information. Set.
  • control unit 10 acquires a voice from the smart glass and acquires a position where the voice is uttered from the position of the smart glass.
  • the audio content recording system 1 can be provided which is more convenient for a user whose both hands tend to be occupied with work tools.
  • Step S11 Speech recognition
  • the control unit 10 transcribes the voice collected by the sound collection unit 50 from the waveform of the sound wave included in the A / D converted information.
  • the information A / D-converted at the stage shown in FIG. It is said.
  • the information that has been A / D converted in the stage shown in FIG. 5 is referred to as “coco galley tail”.
  • the control unit 10 refers to the dictionary database 32 shown in FIG. 7, replaces the transcribed information with a language, and converts it into a sentence.
  • the information A / D converted at the stage shown in FIG. 3 is “It was rainy in the weather forecast, but it was clear. The stem grew to 30 cm. The soil was good. It is said.
  • the information A / D converted at the stage shown in FIG. 4 is “There was a pest A here”.
  • the information A / D converted at the stage shown in FIG. 5 is “This is dead”.
  • All the documented information is set in a predetermined area of the storage unit 30 in association with A / D converted information and position information.
  • Step S12 Identification of Web Content
  • the control unit 10 refers to the Web content database 33.
  • FIG. 8 is an example of the Web content database 33.
  • information on the field and the range of the field is stored in advance in association with the identification number.
  • an area surrounded by latitude 35 ° 51: 55 to 35 ° 52: 10 and latitude longitude 139 ° 46: 55 to 139 ° 47: 5 east is an area of Yamada Farm A.
  • the area of Yamada Farm A is associated with the identification number “1”.
  • the area surrounded by latitude 35 ° 52: 10 seconds to 35 ° 52: 20 seconds north and longitude 139 ° 46: 55 seconds to 139 ° 47: 5 seconds east is the Yamada Farm B area.
  • the area of Yamada Farm B is associated with the identification number “2”.
  • the position information set in the predetermined area of the storage unit 30 through the steps of FIG. 3 to FIG. 5 includes (1) latitude: 35 ° 52: 7 latitude north, longitude: 139 ° 46: 56 east longitude, (2) Latitude: north latitude 35 degrees 52 minutes 2 seconds, longitude: 139 longitude 47 minutes 52 seconds east longitude, (3) latitude: north latitude 35 degrees 51 minutes 57 seconds, longitude: east longitude 139 degrees 47 minutes 1 second.
  • the control unit 10 can specify that the Web content associated with the position information acquired in the process of Step S10 is the Web content of Yamada Farm A with the identification number “1”.
  • the control unit 10 determines whether the position acquired in the process of step S10 is inside a specific range defined in the Web content database 33, and specifies the Web content associated with the specific range. I am doing so. For example, in the case of occupations that work in a wide area with a certain area, such as agriculture, if the position where the voice is uttered is set too strictly, the amount of data will be too large and it may become a system that is difficult to use. possible. According to the invention described in the present embodiment, since Web content is managed in association with a specific range, it is possible to prevent the amount of data from becoming too large and complicated.
  • the control unit 10 reads a calendar (not shown) stored in the storage unit 30 so that “February 14”, which is today's date, is recorded in advance in the “date” of the web content database 33. ing. Further, the control unit 10 reads out weather information from an external weather forecast providing website via the communication unit 20, so that the “weather” in the web content database 33 includes “sunny” that is the current weather in advance. It is recorded.
  • control unit 10 uses the past information to record information such as “Yamada Farm A” and “Leek onion” in advance.
  • the control unit 10 acquires the voice, the position where the voice is uttered, and the date when the voice is uttered, and in the process of step S11, the control unit 10 Specifies the Web content associated with the position and date acquired in step S10. Thereby, since the date is associated with the Web content, the audio content recording system 1 that is even more convenient for the user can be provided.
  • Step S13 Record the speech-recognized content in the specified Web content
  • the control unit 10 reads the content that has been voice-recognized in the process of step S11. In a predetermined area of the storage unit 30, in order, “It was raining in the weather forecast, but it was clear. The stem grew to 30 cm. The soil was good. And the information “This is dead” is stored. The control unit 10 reads out these pieces of information from a predetermined area of the storage unit 30.
  • the control unit 10 refers to the classification database 34.
  • FIG. 9 is an example of the classification database 34.
  • the classification database the relationship between the words included in the documented contents and the items listed in the Web content database 33 is recorded in advance.
  • the Web content database 33 (FIG. 8) includes “date”, “weather”, “farm field”, “crop”, “stem”, “soil”, “harvest”, “pest”, “withered”. Etc. "are listed.
  • word groups related to these items are recorded.
  • the control unit 10 refers to the classification database 34 and associates “30 cm” included in this information with the item “stem”. Further, “good” is associated with the item “soil”, and “one week” is associated with the item “harvest”. Therefore, the control unit 10 sets the item “stem” in the Web content database 33 (FIG. 8) with the identification number “1” of “2. Crop growth state” and the date “February 14, 2017”. The information “30 cm”, the information “good” in the item “soil”, and the information “around one week” are set in the item “harvest”.
  • the control unit 10 refers to the classification database 34 and associates “here pest” included in this information with the item “pest”. Therefore, the control unit 10 sets the item “pest” at the identification number “1” of the “2. Crop growth state” and the date “February 14, 2017” in the Web content database 33 (FIG. 8). , "Latitude: 35 degrees 52 minutes 2 seconds north latitude, longitude: 139 degrees 47 minutes 52 seconds east longitude", which is the position information when the information "There was pest A here.” Information on the type of “pest A” is set.
  • the control unit 10 refers to the classification database 34 and associates “here withering” included in this information with the item “withering”. Therefore, the control unit 10 sets the item “wither” at the identification number “1” and the date “February 14, 2017” of “2. Crop growth state” in the Web content database 33 (FIG. 8). , “Latitude: 35 degrees 51 minutes 57 seconds north latitude, longitude: 139 degrees 47 minutes 1 second east longitude”, which is position information when the information “This place is dead.” Is set.
  • control unit 10 when there is already information in the Web content specified in the process of step S12, the control unit 10 overwrites and records the content recognized in the process of step S11. This makes it possible to manage the work records of farm work in time series.
  • control unit 10 specifies specific items (for example, date, weather, field, crop, stem, soil, harvest) in the Web content specified in the process in step S12 based on the content recognized in the process in step S11. , Pests, withering items, etc.), the related specific content recognized by voice recognition is recorded.
  • specific items for example, date, weather, field, crop, stem, soil, harvest
  • Step S14 Web Content Image Display
  • FIG. 10 shows a display example of the image display unit 70 at that time.
  • image display unit 70 information recorded in the Web content database 33 is displayed. Specifically, “2017/2/14” which is today's date is displayed on the upper right, and “sunny” which is today's weather is displayed below the upper right.
  • control unit 10 refers to the map database 35 and causes the image display unit 70 to display a map of an area corresponding to the identification number “1” of the Web content database 33. Then, the control unit 10 displays the points detected by the position detection unit 60 as “current position” on the map. Further, the control unit 10 displays the point set as the item “pest” in the Web content database 33 as the position where the pest is on the map. In addition, the control unit 10 displays the point set as the item “withered” in the Web content database 33 as a position where the withering occurs on the map.
  • control unit 10 when the control unit 10 acquires voice in the process of step S10, the control unit 10 recognizes the voice in the process of step S11, and in the process of step S12, the control unit 10 Specifies the Web content associated with the position where the voice was acquired. In step S13, the control unit 10 records the speech-recognized content in the specified web content. Accordingly, it is possible to provide the audio content recording system 1 that records the audio content acquired by the control unit 10 in the process of step S10 on the Web content in association with the position where the audio is uttered.
  • the Web content displayed on the image display unit 70 includes a map including position information including the position where the voice is acquired, and the control unit 10 performs voice recognition on the map of the Web content in the process of step S11.
  • the displayed contents are displayed in a superimposed manner.
  • the voice content acquired by the control unit 10 is recorded on the Web content in association with the position where the voice is uttered by acquiring the voice in the process of step S10. .
  • the speech-recognized content is superimposed and displayed on the Web content map. Therefore, the audio content recording system 1 that is even more convenient for the user can be provided.
  • the means and functions described above are realized by a computer (including a CPU, an information processing apparatus, and various terminals) reading and executing a predetermined program.
  • the program is provided in a form recorded on a computer-readable recording medium such as a flexible disk, CD (CD-ROM, etc.), DVD (DVD-ROM, DVD-RAM, etc.).
  • the computer reads the program from the recording medium, transfers it to the internal storage device or the external storage device, stores it, and executes it.
  • the program may be recorded in advance in a storage device (recording medium) such as a magnetic disk, an optical disk, or a magneto-optical disk, and provided from the storage device to a computer via a communication line.

Abstract

【課題】作業状況等を録音することで、録音した内容を位置情報と紐付けて文章化するシステムを提供する。 【解決手段】本発明の音声内容記録システム1において、制御部10は、取得モジュール11を実行し、音声、及び音声が発声された位置を取得する。また、制御部10は、音声認識モジュール12を実行し、取得された音声を音声認識する。また、制御部10は、特定モジュール13を実行し、取得モジュール11の実行によって取得された位置に紐づいたWebコンテンツを特定する。また、制御部10は、記録モジュール14を実行し、特定モジュール13の実行により特定されたWebコンテンツに、音声認識モジュール12の実行により音声認識された内容を記録する。

Description

音声内容記録システム、方法及びプログラム
 本発明は、音声内容記録システム、方法及びプログラムに関する。
 従来より、録音された音声の内容をテキスト化する技術が提案されている(特許文献1参照)。
特開2014-202848号公報
 ところで、農業従事者にとって、農作業をしながらメモをとることは煩雑であり、作業状況を録音するだけでテキストとして記録できるシステムは、非常に有用である。しかしながら、農業のように、一定の面積を有する広い範囲で作業する職業の場合、作業状況を記録する際、作業状況を位置情報と紐付けて文章化して記録することができれば、よりいっそう利便性が高まる。
 本発明は、このような要望に鑑みてなされたものであり、作業状況等を録音することで、録音した内容を位置情報と紐付けて文章化するシステムを提供することを目的とする。
 本発明では、以下のような解決手段を提供する。
 第1の特徴に係る発明は、Webコンテンツに音声認識された内容を記録する音声内容記録システムであって、
 音声、及び前記音声が発声された位置を取得する取得手段と、
 前記取得された音声を音声認識する音声認識手段と、
 前記取得された位置に紐づいたWebコンテンツを特定する特定手段と、
 前記特定されたWebコンテンツに、前記音声認識された内容を記録する記録手段と、
を備える音声内容記録システムを提供する。
 第1の特徴に係る発明によれば、取得手段が音声を取得すると、その音声を音声認識手段が認識するとともに、特定手段は、取得手段が音声を取得した位置に紐づいたWebコンテンツを特定する。そして、記録手段は、特定手段が特定したWebコンテンツに、音声認識された内容を記録する。これにより、取得手段に音声を取得させることで、取得手段が取得した音声の内容を、音声が発声された位置と紐付けてWebコンテンツに記録するシステムを提供できる。
 第2の特徴に係る発明は、第1の特徴に係る発明であって、
 前記特定手段は、前記取得された位置が特定範囲の内側にあるかどうかを判断し、当該特定範囲に紐づいたWebコンテンツを特定する、音声内容記録システムを提供する。
 農業のように、一定の面積を有する広い範囲で作業する職業の場合、音声が発声された位置を厳密に定めすぎると、データ量が多くなりすぎて、かえって使いづらいシステムになることもあり得る。第2の特徴に係る発明によれば、Webコンテンツを特定範囲と紐付けて管理しているため、データ量が多くなりすぎ、煩雑になることを防ぐことができる。
 第3の特徴に係る発明は、第1又は第2の特徴に係る発明であって、
 前記記録手段は、前記特定されたWebコンテンツに既に情報がある場合に、前記音声認識された内容を上書きして記録する、音声内容記録システムを提供する。
 第3の特徴に係る発明によれば、農作業の作業記録等を時系列で管理することが可能になる。
 第4の特徴に係る発明は、第1から第3のいずれかの特徴に係る発明であって、
 前記記録手段は、前記音声認識された内容に基づいて、前記特定されたWebコンテンツ内の特定の項目には、関連する前記音声認識された特定の内容を記録する、音声内容記録システムを提供する。
 第4の特徴に係る発明によれば、Webコンテンツ内の特定の項目には、音声認識された特定の内容が記録される。そのため、不要な内容がWebコンテンツに記録されることがなくなり、ユーザにとってよりいっそう利便性の高いシステムを提供できる。
 第5の特徴に係る発明は、第1から第4のいずれかの特徴に係る発明であって、
 前記取得手段は、音声と、前記音声が発声された位置と、前記音声が発声された日付と、を取得し、
 前記特定手段は、前記取得された位置及び日付に紐づいたWebコンテンツを特定する、音声内容記録システムを提供する。
 第5の特徴に係る発明によれば、Webコンテンツに日付が紐付けられるため、ユーザにとってよりいっそう利便性の高いシステムを提供できる。
 第6の特徴に係る発明は、第1から第5のいずれかの特徴に係る発明であって、
 前記Webコンテンツは、前記位置を含む地図を備え、
 前記記録手段は、前記Webコンテンツの地図上の前記位置に、前記音声認識された内容を重畳表示する、音声内容記録システムを提供する。
 第6の特徴に係る発明によれば、取得手段に音声を取得させることで、取得手段が取得した音声の内容を、音声が発声された位置と紐付けてWebコンテンツに記録される。そして、Webコンテンツの地図上に、音声認識された内容が重畳表示される。そのため、ユーザにとってよりいっそう利便性の高いシステムを提供できる。
 第7の特徴に係る発明は、第1から第6のいずれかの特徴に係る発明であって、
 前記取得手段は、スマートグラスから音声を取得し、当該スマートグラスの位置から当該音声が発声された位置を取得する、音声内容記録システムを提供する。
 第7の特徴に係る発明によれば、端末を持ち運びする必要がないため、農作業のように、両手が作業用具でふさがりがちなユーザにとってよりいっそう利便性の高いシステムを提供できる。
 第8の特徴に係る発明は、第7の特徴に係る発明であって、
 前記Webコンテンツは、前記位置を含む地図を備え、
 前記記録手段は、前記Webコンテンツの地図上に、前記スマートグラスの現在位置を重畳表示する、音声内容記録システムを提供する。
 第8の特徴に係る発明によれば、端末を持ち運びする必要がないことに加え、Webコンテンツの地図上に、音声認識された内容が重畳表示される。そのため、農作業のように、両手が作業用具でふさがりがちなユーザにとってよりいっそう利便性の高いシステムを提供できる。
 本発明によれば、取得手段に音声を取得させることで、取得手段が取得した音声の内容を、音声が発声された位置と紐付けてWebコンテンツに記録するシステムを提供できる。
図1は、本実施形態における音声内容記録システム1のハードウェア構成とソフトウェア機能を示すブロック図である。 図2は、本実施形態における音声内容記録方法を示すフローチャートである。 図3は、取得モジュール11の内容を説明するための一例である。 図4は、図3に続く例である。 図5は、図4に続く例である。 図6は、本実施形態における音声データベース31の一例である。 図7は、本実施形態における辞書データベース32の一例である。 図8は、本実施形態におけるWebコンテンツデータベース33の一例である。 図9は、本実施形態における分類データベース34の一例である。 図10は、本実施形態における画像表示部70での表示内容の一例である。
 以下、本発明を実施するための形態について図を参照しながら説明する。なお、これはあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。
<音声内容記録システム1の構成>
 図1は、本実施形態における音声内容記録システム1のハードウェア構成とソフトウェア機能を説明するためのブロック図である。
 音声内容記録システム1は、データを制御する制御部10と、他の機器と通信を行う通信部20と、データを記憶する記憶部30と、ユーザの操作を受け付ける入力部40と、ユーザの声を集音する集音部50と、音声内容記録システム1が存在する位置を検出する位置検出部60と、制御部10で制御したデータや画像を出力表示する画像表示部70とを備える。
 音声内容記録システム1は、スマートフォン、スマートグラス、スマートウォッチ等の携帯端末に一体的に設けられたスタンドアローン型のシステムであってもよいし、携帯端末と当該携帯端末とネットワークを介して接続されるサーバとを備えるクラウド型のシステムであってもよい。本実施形態では、簡単のため、音声内容記録システム1がスタンドアローン型のシステムであるものとして説明する。
 制御部10は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を備える。
 通信部20は、他の機器と通信可能にするためのデバイス、例えば、IEEE802.11に準拠したWi-Fi(Wireless Fidelity)対応デバイスを備える。
 制御部10は、所定のプログラムを読み込み、必要に応じて通信部20と協働することで、取得モジュール11と、音声認識モジュール12と、特定モジュール13と、記録モジュール14とを実現する。
 記憶部30は、データやファイルを記憶する装置であって、ハードディスクや半導体メモリ、記録媒体、メモリカード等による、データのストレージ部を備える。記憶部30は、後に説明する音声データベース31、辞書データベース32、Webコンテンツデータベース33、分類データベース34、及び地図データベース35を記憶する。また、記憶部30は、画像表示部70に表示させる画像のデータを記憶する。
 入力部40の種類は、特に限定されない。入力部40として、例えば、キーボード、マウス、タッチパネル等が挙げられる。
 集音部50の種類は、特に限定されない。集音部50として、例えば、マイク等が挙げられる。
 位置検出部60は、音声内容記録システム1が位置する緯度及び経度を検出できる装置であれば、特に限定されない。位置検出部60として、例えば、GPS(Global Positioning System)が挙げられる。
 画像表示部70の種類は、特に限定されない。画像表示部70して、例えば、モニタ、タッチパネル等が挙げられる。
<音声内容記録システム1を用いた音声内容記録方法を示すフローチャート]
 図2は、音声内容記録システム1を用いた音声内容記録方法を示すフローチャートである。上述した各ハードウェアと、ソフトウェアモジュールが実行する処理について説明する。
〔ステップS10:音声、音声が発生された位置の取得〕
 最初に、音声内容記録システム1の制御部10は、取得モジュール11を実行し、音声と、音声が発声された位置とを取得する(ステップS10)。また、必須ではないが、制御部10は、記憶部30に記憶されているカレンダー(図示せず)を参照し、音声が発声された日付をさらに取得することが好ましい。
 図3~図5は、ステップS10の処理を説明するための一例である。ここでは、山田農場を営む農家が山田農場Aで栽培する長ネギ畑の様子を観察するものとして説明する。図3に示すように、農家は、緯度:北緯35度52分7秒、経度:東経139度46分56秒の地点にて、「天気予報では雨だったが晴れた。茎が30cmに成長した。土壌は良好。収穫まで1週間前後かな。」と音声を発生している。
 音声内容記録システム1の集音部50は、その音声を集音する。そして、制御部10は、集音部50で集音した音声をA/D変換し、A/D変換された情報を記憶部30の所定領域にセットする。
 その際、音声内容記録システム1の位置検出部60は、音声内容記録システム1が位置する緯度及び経度を検出する。ここでは、位置検出部60は、緯度が北緯35度52分7秒、経度が東経139度46分56秒であると検出する。位置に関する情報もまた、A/D変換された情報とともに記憶部30の所定領域にセットされる。
 続いて、図4に示すように、農家は、緯度:北緯35度52分2秒、経度:東経139度47分52秒の地点に移動し、「ここに害虫Aがいた。」と音声を発生している。
 音声内容記録システム1の集音部50は、その音声を集音する。そして、制御部10は、集音部50で集音した音声をA/D変換し、A/D変換された情報を記憶部30の所定領域にセットする。また、音声内容記録システム1の位置検出部60は、音声内容記録システム1が位置する緯度及び経度を検出し、位置に関する情報もまた、A/D変換された情報とともに記憶部30の所定領域にセットされる。
 続いて、図5に示すように、農家は、緯度:北緯35度51分57秒、経度:東経139度47分1秒の地点に移動し、「ここが枯れている。」と音声を発生している。
 音声内容記録システム1の集音部50は、その音声を集音する。そして、制御部10は、集音部50で集音した音声をA/D変換し、A/D変換された情報を記憶部30の所定領域にセットする。また、音声内容記録システム1の位置検出部60は、音声内容記録システム1が位置する緯度及び経度を検出し、位置に関する情報もまた、A/D変換された情報とともに記憶部30の所定領域にセットされる。
 必須ではないが、ステップS10の処理において、制御部10は、スマートグラスから音声を取得し、当該スマートグラスの位置から当該音声が発声された位置を取得することが好ましい。これにより、農家等のユーザは、端末を持ち運びする必要がないため、両手が作業用具でふさがりがちなユーザにとってよりいっそう利便性の高い音声内容記録システム1を提供できる。
〔ステップS11:音声認識〕
 図2に戻る。続いて、音声内容記録システム1の制御部10は、音声認識モジュール12を実行し、ステップS10の処理で取得した音声を音声認識する(ステップS11)。
 制御部10は、図6に示す音声データベース31を参照し、A/D変換された情報が有する音波の波形から、集音部50で集音した音声を文字起こしする。この処理により、図3に示した段階でA/D変換された情報は、「テンキヨホウデハアメダッタガハレタ/クキガサンジュッセンチニセイチョウシタ/ドジョウハリョウコウ/シュウカクマデイッシュウカンカナ」とされる。図4に示した段階でA/D変換された情報は、「ココニガイチュウエーガイタ」とされる。図5に示した段階でA/D変換された情報は、「ココガカレテイル」とされる。
 続いて、制御部10は、図7に示す辞書データベース32を参照し、文字起こしされた情報を言語に置き換え、文章化する。この処理により、図3に示した段階でA/D変換された情報は、「天気予報では雨だったが晴れた。茎が30cmに成長した。土壌は良好。収穫まで1週間前後かな。」とされる。図4に示した段階でA/D変換された情報は、「ここに害虫Aがいた。」とされる。図5に示した段階でA/D変換された情報は、「ここが枯れている。」とされる。
 文章化された情報は、いずれも、A/D変換された情報、位置に関する情報と関連づけて、記憶部30の所定領域にセットされる。
〔ステップS12:Webコンテンツの特定〕
 図2に戻る。続いて、音声内容記録システム1の制御部10は、特定モジュール13を実行し、ステップS10の処理で取得した位置情報に紐づいたWebコンテンツを特定する。
 制御部10は、Webコンテンツデータベース33を参照する。図8は、Webコンテンツデータベース33の一例である。Webコンテンツデータベース33には、圃場と、圃場の範囲に関する情報が識別番号と関連づけて予め記憶されている。
 例えば、緯度が北緯35度51分55秒~35度52分10秒、経度が東経139度46分55秒~139度47分5秒で囲まれる領域は、山田農場Aの領域である。そして、山田農場Aの領域は、識別番号「1」として関連づけられている。
 同様に、緯度が北緯35度52分10秒~35度52分20秒、経度が東経139度46分55秒~139度47分5秒で囲まれる領域は、山田農場Bの領域である。そして、山田農場Bの領域は、識別番号「2」として関連づけられている。
 図3~図5の段階を経て記憶部30の所定領域にセットされている位置情報は、(1)緯度:北緯35度52分7秒、経度:東経139度46分56秒、(2)緯度:北緯35度52分2秒、経度:東経139度47分52秒、(3)緯度:北緯35度51分57秒、経度:東経139度47分1秒である。Webコンテンツデータベース33を参照すると、これらの位置情報は、いずれも、識別番号「1」の山田農場Aにおいて特定された範囲の内側に相当する。そのため、制御部10は、ステップS10の処理で取得した位置情報に紐づいたWebコンテンツが、識別番号「1」の山田農場AのWebコンテンツであると特定できる。
 本実施形態において、制御部10は、ステップS10の処理で取得した位置が、Webコンテンツデータベース33で定める特定範囲の内側にあるかどうかを判断し、当該特定範囲に紐づいたWebコンテンツを特定するようにしている。例えば、農業のように、一定の面積を有する広い範囲で作業する職業の場合、音声が発声された位置を厳密に定めすぎると、データ量が多くなりすぎて、かえって使いづらいシステムになることもあり得る。本実施形態に記載の発明によれば、Webコンテンツを特定範囲と紐付けて管理しているため、データ量が多くなりすぎ、煩雑になることを防ぐことができる。
 Webコンテンツデータベース33には、作物の生育状態の情報も記録されている。Webコンテンツデータベース33には、「日付」、「天気」、「圃場」、「作物」、「茎」、「土壌」、「収穫」、「害虫」、「枯れ」等の項目がリストアップされている。
 例えば、2017年2月1日、2月7日の状況が既に記録されている。本日は、2月14日である。制御部10は、記憶部30に記憶されているカレンダー(図示せず)を読み出すことで、Webコンテンツデータベース33の「日付」には、本日の日付である「2月14日」が予め記録されている。また、制御部10は、通信部20を介して外部の天気予報提供Webサイトから天気の情報を読み出すことで、Webコンテンツデータベース33の「天気」には、本日の天気である「晴れ」が予め記録されている。
 また、Webコンテンツデータベース33の「圃場」及び「作物」には、制御部10は、過去の情報を援用することで、「山田農場A」、「長ネギ」との情報が予め記録されている。
 本実施形態によると、ステップS10の処理において、制御部10は、音声と、音声が発声された位置と、前記音声が発声された日付と、を取得し、ステップS11の処理において、制御部10は、ステップS10の処理で取得した位置及び日付に紐づいたWebコンテンツを特定する。これにより、Webコンテンツに日付が紐付けられるため、ユーザにとってよりいっそう利便性の高い音声内容記録システム1を提供できる。
〔ステップS13:特定したWebコンテンツに、音声認識された内容を記録〕
 図2に戻る。続いて、音声内容記録システム1の制御部10は、記録モジュール14を実行し、ステップS12の処理で特定したWebコンテンツに、ステップS11の処理で音声認識した内容を記録する(ステップS13)。
 制御部10は、ステップS11の処理で音声認識した内容を読み出す。記憶部30の所定領域には、順に、「天気予報では雨だったが晴れた。茎が30cmに成長した。土壌は良好。収穫まで1週間前後かな。」との情報、「ここに害虫Aがいた。」との情報、「ここが枯れている。」との情報が記憶されている。制御部10は、記憶部30の所定領域から、これらの情報を読み出す。
 続いて、制御部10は、分類データベース34を参照する。図9は、分類データベース34の一例である。分類データベースは、文章化された内容に含まれる単語等と、Webコンテンツデータベース33にリストアップされている項目との関係が予め記録されている。本実施形態では、Webコンテンツデータベース33(図8)には、「日付」、「天気」、「圃場」、「作物」、「茎」、「土壌」、「収穫」、「害虫」、「枯れ」等の項目がリストアップされている。分類データベース34には、これら項目に関連する単語群が記録されている。
 音声認識された内容の一つである「天気予報では雨だったが晴れた。茎が30cmに成長した。土壌は良好。収穫まで1週間前後かな。」との情報について説明する。制御部10は、分類データベース34を参照し、この情報に含まれる「30cm」を項目「茎」と関連づける。また、「良好」を項目「土壌」と関連づけ、「1週間」を項目「収穫」と関連づける。そこで、制御部10は、Webコンテンツデータベース33(図8)の「2.作物の生育状態」の識別番号「1」、日付「2017年2月14日」のところに、項目「茎」には、「30cm」との情報を、項目「土壌」には「良好」との情報を、項目「収穫」には「1週間前後」との情報をセットする。
 また、「ここに害虫Aがいた。」との情報について説明する。制御部10は、分類データベース34を参照し、この情報に含まれる「ここに害虫」を項目「害虫」と関連づける。そこで、制御部10は、Webコンテンツデータベース33(図8)の「2.作物の生育状態」の識別番号「1」、日付「2017年2月14日」のところに、項目「害虫」には、「ここに害虫Aがいた。」との情報をセットしたときの位置情報である「緯度:北緯35度52分2秒、経度:東経139度47分52秒」との情報、及び害虫の種類である「害虫A」の情報をセットする。
 また、「ここが枯れている。」との情報について説明する。制御部10は、分類データベース34を参照し、この情報に含まれる「ここが枯れ」を項目「枯れ」と関連づける。そこで、制御部10は、Webコンテンツデータベース33(図8)の「2.作物の生育状態」の識別番号「1」、日付「2017年2月14日」のところに、項目「枯れ」には、「ここが枯れている。」との情報をセットしたときの位置情報である「緯度:北緯35度51分57秒、経度:東経139度47分1秒」との情報をセットする。
 本実施形態において、制御部10は、ステップS12の処理で特定したWebコンテンツに既に情報がある場合、ステップS11の処理で音声認識した内容を上書きして記録する。これにより、農作業の作業記録等を時系列で管理することが可能になる。
 また、制御部10は、ステップS11の処理で音声認識した内容に基づいて、ステップS12の処理で特定したWebコンテンツ内の特定の項目(例えば、日付、天気、圃場、作物、茎、土壌、収穫、害虫、枯れといった項目)には、関連する音声認識された特定の内容を記録する。
 これにより、音声認識された全ての情報(ここでは、「天気予報では雨だったが晴れた。茎が30cmに成長した。土壌は良好。収穫まで1週間前後かな。」との情報、「ここに害虫Aがいた。」との情報、及び「ここが枯れている。」との情報)の全てをWebコンテンツに記録されることがなくなり、不要な内容を削除できる。そのため、ユーザにとってよりいっそう利便性の高い音声内容記録システム1を提供できる。
〔ステップS14:Webコンテンツの画像表示〕
 図2に戻る。続いて、音声内容記録システム1の制御部10は、ステップS13の処理で記録したWebコンテンツを画像表示部70に表示する。
 図10は、そのときの画像表示部70の表示例を示す。
 画像表示部70には、Webコンテンツデータベース33に記録された情報が表示される。具体的に、右上には、本日の日付である「2017/2/14」と表示され、その下には、本日の天気である「晴れ」と表示される。
 そして、画像表示部70の左上から下に向かって順に、圃場として「山田農場A」、作物として「長ネギ」、作物の茎の生育状況として「30cm」、土壌として「良好」、収穫時期として「1週間前後」と表示される。
 また、制御部10は、地図データベース35を参照し、Webコンテンツデータベース33の識別番号「1」に相当する領域の地図を画像表示部70に表示させる。そして、制御部10は、位置検出部60で検出される点を、地図上の「現在位置」として表示する。また、制御部10は、Webコンテンツデータベース33において、項目「害虫」としてセットされた点を、地図上の害虫がいる位置として表示する。また、制御部10は、Webコンテンツデータベース33において、項目「枯れ」としてセットされた点を、地図上の枯れが生じている位置として表示する。
 本実施形態に記載の発明によれば、ステップS10の処理で制御部10が音声を取得すると、ステップS11の処理においてその音声を制御部10が認識するとともに、ステップS12の処理において、制御部10は、音声を取得した位置に紐づいたWebコンテンツを特定する。そして、ステップS13の処理において、制御部10は、特定されたWebコンテンツに、音声認識された内容を記録する。これにより、ステップS10の処理で制御部10が取得した音声の内容を、音声が発声された位置と紐付けてWebコンテンツに記録する音声内容記録システム1を提供できる。
 また、画像表示部70に表示されるWebコンテンツは、音声を取得した位置をはじめとした位置情報を含む地図を備え、制御部10は、Webコンテンツの地図上に、ステップS11の処理で音声認識した内容を重畳表示する。本実施形態に記載の発明によれば、ステップS10の処理で音声を取得させることで、制御部10が取得した音声の内容を、音声が発声された位置と紐付けてWebコンテンツに記録される。そして、画像表示部70において、Webコンテンツの地図上に、音声認識された内容が重畳表示される。そのため、ユーザにとってよりいっそう利便性の高い音声内容記録システム1を提供できる。
 上述した手段、機能は、コンピュータ(CPU、情報処理装置、各種端末を含む)が、所定のプログラムを読み込んで、実行することによって実現される。プログラムは、例えば、フレキシブルディスク、CD(CD-ROMなど)、DVD(DVD-ROM、DVD-RAMなど)等のコンピュータ読取可能な記録媒体に記録された形態で提供される。この場合、コンピュータはその記録媒体からプログラムを読み取って内部記憶装置又は外部記憶装置に転送し記憶して実行する。また、そのプログラムを、例えば、磁気ディスク、光ディスク、光磁気ディスク等の記憶装置(記録媒体)に予め記録しておき、その記憶装置から通信回線を介してコンピュータに提供するようにしてもよい。
 以上、本発明の実施形態について説明したが、本発明は上述したこれらの実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。
 1  音声内容記録システム
 10 制御部
 11 取得モジュール
 12 音声認識モジュール
 13 特定モジュール
 14 記録モジュール
 20 通信部
 30 記憶部
 31 音声データベース
 32 辞書データバース
 33 Webコンテンツデータベース
 34 分類データベース
 35 地図データベース
 40 入力部
 50 集音部
 60 位置検出部
 70 画像表示部

 

Claims (10)

  1.  Webコンテンツに音声認識された内容を記録する音声内容記録システムであって、
     音声、及び前記音声が発声された位置を取得する取得手段と、
     前記取得された音声を音声認識する音声認識手段と、
     前記取得された位置に紐づいたWebコンテンツを特定する特定手段と、
     前記特定されたWebコンテンツに、前記音声認識された内容を記録する記録手段と、
    を備える音声内容記録システム。
  2.  前記特定手段は、前記取得された位置が特定範囲の内側にあるかどうかを判断し、当該特定範囲に紐づいたWebコンテンツを特定する、請求項1に記載の音声内容記録システム。
  3.  前記記録手段は、前記特定されたWebコンテンツに既に情報がある場合に、前記音声認識された内容を上書きして記録する、請求項1又は2に記載の音声内容記録システム。
  4.  前記記録手段は、前記音声認識された内容に基づいて、前記特定されたWebコンテンツ内の特定の項目には、関連する前記音声認識された特定の内容を記録する、請求項1から3のいずれかに記載の音声内容記録システム。
  5.  前記取得手段は、音声と、前記音声が発声された位置と、前記音声が発声された日付と、を取得し、
     前記特定手段は、前記取得された位置及び日付に紐づいたWebコンテンツを特定する、請求項1から4のいずれかに記載の音声内容記録システム。
  6.  前記Webコンテンツは、前記位置を含む地図を備え、
     前記記録手段は、前記Webコンテンツの地図上の前記位置に、前記音声認識された内容を重畳表示する、請求項1から5のいずれかに記載の音声内容記録システム。
  7.  前記取得手段は、スマートグラスから音声を取得し、当該スマートグラスの位置から当該音声が発声された位置を取得する、請求項1から6のいずれかに記載の音声内容記録システム。
  8.  前記Webコンテンツは、前記位置を含む地図を備え、
     前記記録手段は、前記Webコンテンツの地図上に、前記スマートグラスの現在位置を重畳表示する、請求項7に記載の音声内容記録システム。
  9.  Webコンテンツに音声認識された内容を記録する音声内容記録方法であって、
     音声、及び前記音声が発声された位置を取得するステップと、
     前記取得された音声を音声認識するステップと、
     前記取得された位置に紐づいたWebコンテンツを特定するステップと、
     前記特定されたWebコンテンツに、前記音声認識された内容を記録するステップと、
    を備える音声内容記録方法。
  10.  Webコンテンツに音声認識された内容を記録する音声内容記録システムに、
     音声、及び前記音声が発声された位置を取得するステップと、
     前記取得された音声を音声認識するステップと、
     前記取得された位置に紐づいたWebコンテンツを特定するステップと、
     前記特定されたWebコンテンツに、前記音声認識された内容を記録するステップと、
    を実行させるためのプログラム。

     
PCT/JP2017/013825 2017-03-31 2017-03-31 音声内容記録システム、方法及びプログラム WO2018179425A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201780091503.6A CN110709923B (zh) 2017-03-31 2017-03-31 语音内容记录系统、方法以及记录介质
JP2019508487A JP6845446B2 (ja) 2017-03-31 2017-03-31 音声内容記録システム、方法及びプログラム
PCT/JP2017/013825 WO2018179425A1 (ja) 2017-03-31 2017-03-31 音声内容記録システム、方法及びプログラム
US16/499,450 US11328727B2 (en) 2017-03-31 2017-03-31 Speech detail recording system and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/013825 WO2018179425A1 (ja) 2017-03-31 2017-03-31 音声内容記録システム、方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2018179425A1 true WO2018179425A1 (ja) 2018-10-04

Family

ID=63674904

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/013825 WO2018179425A1 (ja) 2017-03-31 2017-03-31 音声内容記録システム、方法及びプログラム

Country Status (4)

Country Link
US (1) US11328727B2 (ja)
JP (1) JP6845446B2 (ja)
CN (1) CN110709923B (ja)
WO (1) WO2018179425A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002340580A (ja) * 2001-05-11 2002-11-27 Denso Corp 情報記録装置
JP2011179917A (ja) * 2010-02-26 2011-09-15 Pioneer Electronic Corp 情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体
WO2014057540A1 (ja) * 2012-10-10 2014-04-17 三菱電機株式会社 ナビゲーション装置およびナビゲーション用サーバ
WO2015133142A1 (ja) * 2014-03-06 2015-09-11 株式会社デンソー 報知装置
JP2016514314A (ja) * 2013-03-14 2016-05-19 クアルコム,インコーポレイテッド ヘッドマウントディスプレイ用ユーザインターフェース

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020010941A1 (en) * 2000-01-06 2002-01-24 Johnson Kevin M. Method/apparatus for improving WEB (internet) access
US20030208472A1 (en) * 2000-04-11 2003-11-06 Pham Peter Manh Method and apparatus for transparent keyword-based hyperlink
JP2002197351A (ja) * 2000-12-25 2002-07-12 Nec Corp 情報提供システムおよび方法並びに情報提供プログラムを記録した記録媒体
ITRM20010126A1 (it) * 2001-03-12 2002-09-12 Mediavoice S R L Metodo di abilitazione dell'interazione vocale di una pagina o di un sito web.
DE10132767A1 (de) * 2001-07-10 2003-01-30 Christian Koeppel Verfahren und Vorrichtung zur Bestimmung von Tier-, Pflanzen und/oder Gesteinsarten sowie von Teilen oder Erzeugnissen hieraus, sowie des Ortes ihres Vorkommens
JP2006031379A (ja) * 2004-07-15 2006-02-02 Sony Corp 情報提示装置及び情報提示方法
US20100179754A1 (en) * 2009-01-15 2010-07-15 Robert Bosch Gmbh Location based system utilizing geographical information from documents in natural language
US8090351B2 (en) * 2009-09-01 2012-01-03 Elliot Klein Geographical location authentication method
KR101844903B1 (ko) * 2011-08-31 2018-04-04 삼성전자 주식회사 데이터 복합 기록 지원 방법 및 이를 지원하는 단말기
CN104350545B (zh) * 2012-06-04 2016-10-05 三菱电机株式会社 自动记录装置
US9292085B2 (en) * 2012-06-29 2016-03-22 Microsoft Technology Licensing, Llc Configuring an interaction zone within an augmented reality environment
CN103546623B (zh) * 2012-07-12 2018-11-13 百度在线网络技术(北京)有限公司 用于发送语音信息及其文本描述信息的方法、装置与设备
US10394425B2 (en) * 2012-10-16 2019-08-27 Sk Planet Co., Ltd. System for providing motion and voice based bookmark and method therefor
JP2014202848A (ja) 2013-04-03 2014-10-27 株式会社東芝 テキスト生成装置、方法、及びプログラム
US9431008B2 (en) * 2013-05-29 2016-08-30 Nuance Communications, Inc. Multiple parallel dialogs in smart phone applications
US9241044B2 (en) * 2013-08-28 2016-01-19 Hola Networks, Ltd. System and method for improving internet communication by using intermediate nodes
CN103561104B (zh) * 2013-11-11 2016-08-17 北京百纳威尔科技有限公司 智能手机语音控制系统及其语音识别方法
US9773209B1 (en) * 2014-07-01 2017-09-26 Google Inc. Determining supervised training data including features pertaining to a class/type of physical location and time location was visited
US10089326B2 (en) * 2014-07-16 2018-10-02 Google Llc Generating textual summary about physical location based on computing interactions pertaining to physical location
JP6060989B2 (ja) * 2015-02-25 2017-01-18 カシオ計算機株式会社 音声録音装置、音声録音方法、及びプログラム
US9528848B2 (en) * 2015-03-30 2016-12-27 Alpine Electronics, Inc. Method of displaying point on navigation map
US10268756B2 (en) * 2015-12-18 2019-04-23 Here Global B.V. Method and apparatus for providing natural language input in a cartographic system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002340580A (ja) * 2001-05-11 2002-11-27 Denso Corp 情報記録装置
JP2011179917A (ja) * 2010-02-26 2011-09-15 Pioneer Electronic Corp 情報記録装置、情報記録方法、情報記録プログラムおよび記録媒体
WO2014057540A1 (ja) * 2012-10-10 2014-04-17 三菱電機株式会社 ナビゲーション装置およびナビゲーション用サーバ
JP2016514314A (ja) * 2013-03-14 2016-05-19 クアルコム,インコーポレイテッド ヘッドマウントディスプレイ用ユーザインターフェース
WO2015133142A1 (ja) * 2014-03-06 2015-09-11 株式会社デンソー 報知装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KIDAWARA YUTAKA ET AL.: "Utilization of digital content based on life log in the real-world", IPSJ MAGAZINE, vol. 50, no. 7, 15 July 2009 (2009-07-15), pages 613 - 623, ISSN: 0447-8053 *

Also Published As

Publication number Publication date
US20200312325A1 (en) 2020-10-01
CN110709923B (zh) 2023-03-03
JPWO2018179425A1 (ja) 2020-02-13
US11328727B2 (en) 2022-05-10
CN110709923A (zh) 2020-01-17
JP6845446B2 (ja) 2021-03-17

Similar Documents

Publication Publication Date Title
US11483268B2 (en) Content navigation with automated curation
US20210312930A1 (en) Computer system, speech recognition method, and program
CN102782751B (zh) 社会网络中的数字媒体语音标签
Zeppelzauer et al. Towards an automated acoustic detection system for free-ranging elephants
US10643620B2 (en) Speech recognition method and apparatus using device information
US20120150871A1 (en) Autonomous Mobile Blogging
US10204292B2 (en) User terminal device and method of recognizing object thereof
EP3866160A1 (en) Electronic device and control method thereof
WO2006025797A1 (en) A search system
US11074292B2 (en) Voice tagging of video while recording
CN105615902A (zh) 情绪监控方法和装置
CN109902158A (zh) 语音交互方法、装置、计算机设备及存储介质
US10891959B1 (en) Voice message capturing system
US20230146563A1 (en) Automated image processing and insight presentation
KR20210008084A (ko) 오디오 데이터를 사용한 디바이스 제어
CN109313249B (zh) 音频增强现实系统
WO2022262586A1 (zh) 用于植物识别的方法、计算机系统以及计算机可读存储介质
JP2015104078A (ja) 撮像装置、撮像システム、サーバ、撮像方法、及び撮像プログラム
WO2018022301A1 (en) Systems, methods, and apparatuses for agricultural data collection, analysis, and management via a mobile device
WO2018179425A1 (ja) 音声内容記録システム、方法及びプログラム
WO2018198314A1 (ja) ウェアラブル端末用音声アイコン配置システム、方法及びプログラム
Mason et al. Towards an acoustic environmental observatory
WO2019023994A1 (zh) 一种基于智能终端的行程管理方法及行程管理系统
JP5618371B2 (ja) 検索システム、端末、検索装置、及び検索方法
WO2019098036A1 (ja) 情報処理装置、情報処理端末、および情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17902906

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019508487

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17902906

Country of ref document: EP

Kind code of ref document: A1