JP7359603B2 - Intelligent audio system and projector control method - Google Patents

Intelligent audio system and projector control method Download PDF

Info

Publication number
JP7359603B2
JP7359603B2 JP2019164079A JP2019164079A JP7359603B2 JP 7359603 B2 JP7359603 B2 JP 7359603B2 JP 2019164079 A JP2019164079 A JP 2019164079A JP 2019164079 A JP2019164079 A JP 2019164079A JP 7359603 B2 JP7359603 B2 JP 7359603B2
Authority
JP
Japan
Prior art keywords
projector
control command
cloud
management server
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019164079A
Other languages
Japanese (ja)
Other versions
JP2020053040A (en
Inventor
明政 林
玉孟 陳
偉欣 甘
基城 戴
Original Assignee
中強光電股▲ふん▼有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 中強光電股▲ふん▼有限公司 filed Critical 中強光電股▲ふん▼有限公司
Publication of JP2020053040A publication Critical patent/JP2020053040A/en
Application granted granted Critical
Publication of JP7359603B2 publication Critical patent/JP7359603B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Projection Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、インテリジェント音声システム及び制御方法に関し、特に、インテリジェント音声システム及びインテリジェント音声システムを用いて投影機を制御する方法に関する。 TECHNICAL FIELD The present invention relates to an intelligent audio system and control method, and more particularly to an intelligent audio system and a method for controlling a projector using an intelligent audio system.

科学技術の発展に伴い、インテリジェント音声アシスタント、インテリジェント家具などのインテリジェント設備が益々消費者に愛用されるようになる。インテリジェント音声アシスタントは、使用者が音声対話だけでタスクを遂行し得るようにさせることができるから、仕事の効率を有効に向上させることができる。 With the development of science and technology, intelligent voice assistants, intelligent furniture and other intelligent equipment will become increasingly popular with consumers. Intelligent voice assistants can effectively improve work efficiency because they allow users to perform tasks only through voice interaction.

幾つかの応用では、使用者は、インテリジェント音声アシスタントに音声信号を送信する方式で、インテリジェント音声アシスタントが一部のインテリジェント家具、例えば、ある空間内の空調、電灯などを制御するようにさせることができる。そのため、使用者は、インテリジェント家具をより便利且つ直覚的に制御することができる。 In some applications, the user may send voice signals to the intelligent voice assistant to cause the intelligent voice assistant to control some intelligent furniture, such as air conditioning, lights, etc. in a certain space. can. Therefore, the user can control the intelligent furniture more conveniently and intuitively.

しかし、従来技術では、使用者がインテリジェント音声アシスタントで投影機を制御し得るようにさせる技術的手段が存在しないので、当業者にとっては、如何に、インテリジェント音声アシスタントが使用者の音声信号に応じて投影機を制御し得るようにさせるシステムを設計するかが重要な課題になっている。 However, in the prior art, there is no technical means to enable the user to control the projector with the intelligent voice assistant, so it is unclear to those skilled in the art how the intelligent voice assistant can control the projector according to the user's voice signal. An important issue is how to design a system that allows the projector to be controlled.

なお、この「背景技術」の部分は、本発明の内容への理解を助けるためだけのものであるため、この「背景技術」の部分に開示されている内容は、当業者に知られていない技術を含む可能性がある。よって、この「背景技術」の部分に開示されている内容は、該内容、又は、本発明の1つ又は複数の実施例が解決しようとする課題が本発明の出願前に既に当業者に周知されていることを意味しない。 Please note that this "Background Art" section is only for helping people understand the content of the present invention, and therefore the content disclosed in this "Background Art" section may not be known to those skilled in the art. May involve technology. Therefore, the content disclosed in this "Background Art" section is based on the fact that the content or the problem to be solved by one or more embodiments of the present invention was already well known to a person skilled in the art before the filing of the present invention. does not mean it has been.

本発明の目的は、上述の問題に鑑み、インテリジェント音声システム及びインテリジェント音声システムを用いて投影機を制御し得る方法を提供することにある。 SUMMARY OF THE INVENTION In view of the above-mentioned problems, it is an object of the present invention to provide an intelligent audio system and a method by which a projector can be controlled using an intelligent audio system.

本発明の他の目的及び利点は、本発明に開示されている技術的特徴からさらに理解することができる。 Other objects and advantages of the invention can be further understood from the technical features disclosed in the invention.

本発明によるインテリジェント音声システムは、第一音声アシスタント、第一クラウド型プラットフォーム、第一投影機、及び管理サーバを含む。第一クラウド型プラットフォームは、第一音声アシスタントに接続されてそれを管理する。管理サーバは、第一クラウド型プラットフォーム及び第一投影機に接続され、第一投影機を管理及び制御するために用いられる。第一音声アシスタントが第一投影機を制御するための第一音声信号を受信するときに、第一音声アシスタントは、第一音声信号から複数の第一キーワードを抽出し、そして、前述の第一キーワードを第一クラウド型プラットフォームに伝送し、そのうち、前述の第一キーワードは、第一投影機に対応する第一エイリアス(alias)及び第一制御命令を含み、そのうち、第一クラウド型プラットフォームは、第一セマンティック解析プログラム(semantic analysis program)を含み、第一クラウド型プラットフォームは、複数の第二制御命令を含む。第一クラウド型プラットフォームは、第一セマンティック解析プログラムにより第一制御命令を解析し、第一制御命令に基づいて対応する第二制御命令を取得又はテイクアウト(take out)又は生成し、そして、第一投影機の第一エイリアス及び対応する第二制御命令を管理サーバに伝送する。管理サーバは、第一エイリアスに応じて第一投影機にアクセスし、対応する第二制御命令に基づいて第一投影機を第一作動状態に調整する。 The intelligent voice system according to the present invention includes a first voice assistant, a first cloud-based platform, a first projector, and a management server. The first cloud-based platform is connected to and manages the first voice assistant. The management server is connected to the first cloud platform and the first projector, and is used to manage and control the first projector. When the first voice assistant receives the first voice signal for controlling the first projector, the first voice assistant extracts a plurality of first keywords from the first voice signal, and transmitting a keyword to a first cloud platform, wherein the first keyword includes a first alias and a first control command corresponding to the first projector; The first cloud-based platform includes a first semantic analysis program, and the first cloud-based platform includes a plurality of second control instructions. The first cloud-based platform analyzes the first control instruction by a first semantic analysis program, takes out or generates a corresponding second control instruction based on the first control instruction, and transmitting the first alias of the projector and the corresponding second control command to the management server; The management server accesses the first projector according to the first alias and adjusts the first projector to the first operating state based on the corresponding second control command.

本発明によるインテリジェント音声システムは、第一音声アシスタント、第一投影機、及び第一クラウド型サーバを含む。第一クラウド型サーバは、第一音声アシスタント及び第一投影機に接続され、第一音声アシスタント及び第一投影機を管理及び制御するために用いられる。第一音声アシスタントが第一投影機を制御するための第一音声信号を受信するときに、第一音声アシスタントは、第一音声信号から複数の第一キーワードを抽出し、そして、前述の第一キーワードを第一クラウド型サーバに伝送し、そのうち、前述の第一キーワードは、第一投影機に対応する第一エイリアス及び第一制御命令を含み、そのうち、第一クラウド型サーバは、第一セマンティック解析プログラムを含み、第一クラウド型サーバは、複数の第二制御命令を含む。第一クラウド型サーバは、第一セマンティック解析プログラムにより第一制御命令を解析し、第一制御命令に基づいて、対応する第二制御命令を取得又はテイクアウト又は生成し、第一エイリアスに従って第一投影機をアクセスし、そして、対応する第二制御命令に基づいて第一投影機を第一作動状態に調整する。 The intelligent voice system according to the present invention includes a first voice assistant, a first projector, and a first cloud-based server. The first cloud-based server is connected to the first voice assistant and the first projector, and is used to manage and control the first voice assistant and the first projector. When the first voice assistant receives the first voice signal for controlling the first projector, the first voice assistant extracts a plurality of first keywords from the first voice signal, and transmitting keywords to a first cloud server, wherein the first keyword includes a first alias and a first control command corresponding to the first projector; The first cloud server includes an analysis program and includes a plurality of second control instructions. The first cloud-type server analyzes the first control instruction using the first semantic analysis program, acquires, takes out, or generates a corresponding second control instruction based on the first control instruction, and projects the first control instruction according to the first alias. accessing the projector and adjusting the first projector to a first operating condition based on a corresponding second control command.

本発明による投影機制御方法は、上述のインテリジェント音声システムに適用され、この方法は、第一音声アシスタントが第一投影機を制御するための第一音声信号を受信するときに、第一音声アシスタントが第一音声信号から複数の第一キーワードを抽出し、そして、前述の第一キーワードを第一クラウド型プラットフォームに伝送し、そのうち、前述の第一キーワードは、第一投影機に対応する第一エイリアス及び第一制御命令を含み、そのうち、第一クラウド型プラットフォームは、第一セマンティック解析プログラムを含み、第一クラウド型プラットフォームは、複数の第二制御命令を含み;第一クラウド型プラットフォームが第一セマンティック解析プログラムにより第一制御命令を解析し、第一制御命令に基づいて対応する第二制御命令を取得又はテイクアウト又は生成し、そして、第一投影機の第一エイリアス及び対応する第二制御命令を管理サーバに伝送し;及び、管理サーバが第一エイリアスに従って第一投影機にアクセスし、対応する第二制御命令に基づいて第一投影機を第一作動状態に調整することを含む。 The projector control method according to the present invention is applied to the above-mentioned intelligent voice system, and the method comprises: when the first voice assistant receives a first voice signal for controlling the first projector, the first voice assistant extracts a plurality of first keywords from the first audio signal, and transmits the aforementioned first keywords to the first cloud-based platform, among which the aforementioned first keywords are extracted from the first keyword corresponding to the first projector. the first cloud-based platform includes a first semantic analysis program; the first cloud-based platform includes a plurality of second control instructions; the first cloud-based platform includes a plurality of second control instructions; parsing the first control command by a semantic analysis program, obtaining or taking out or generating a corresponding second control command based on the first control command; and a first alias of the first projector and a corresponding second control command. to a management server; and the management server accessing the first projector according to the first alias and adjusting the first projector to the first operating state based on the corresponding second control instruction.

本発明によるインテリジェント音声システムは、第一投影機及び第一クラウド型サーバを含む。第一投影機は、第一音声アシスタントを含み、第一クラウド型サーバは、第一音声アシスタント及び第一投影機に接続され、第一音声アシスタント及び第一投影機管理及び制御するために用いられる。第一音声アシスタントが第一投影機を制御するための第一音声信号を受信するときに、第一音声アシスタントは、第一音声信号から複数の第一キーワードを抽出し、前述の第一キーワードを第一クラウド型サーバに伝送し、そのうち、前述の第一キーワードは、第一投影機に対応する第一エイリアス及び第一制御命令を含み、そのうち、第一クラウド型サーバは、第一セマンティック解析プログラムを含み、第一クラウド型サーバは、複数の第二制御命令を含む。第一クラウド型サーバは、第一セマンティック解析プログラムにより第一制御命令を解析し、第一制御命令に基づいて対応する第二制御命令を取得又はテイクアウト又は生成し、第一エイリアスに従って第一投影機にアクセスし、そして、対応する第二制御命令に基づいて第一投影機を第一作動状態に調整する。 The intelligent audio system according to the present invention includes a first projector and a first cloud-based server. The first projector includes a first voice assistant, and the first cloud-based server is connected to the first voice assistant and the first projector and is used to manage and control the first voice assistant and the first projector. . When the first voice assistant receives the first voice signal for controlling the first projector, the first voice assistant extracts a plurality of first keywords from the first voice signal, and extracts the first keyword from the first voice signal. the first keyword includes a first alias and a first control command corresponding to the first projector; the first cloud server transmits the first semantic analysis program; , and the first cloud-type server includes a plurality of second control instructions. The first cloud-type server analyzes the first control command using the first semantic analysis program, obtains, takes out, or generates a corresponding second control command based on the first control command, and transmits the first projector according to the first alias. and adjusting the first projector to a first operating condition based on a corresponding second control instruction.

上述により、本発明による投影機制御方法は、使用者が音声アシスタントに音声信号を与える方式で投影機の操作状態を制御し得るようにさせることができ、新規で直覚的且つ便利な投影機制御システムを提供することができる。 According to the above, the projector control method according to the present invention allows the user to control the operating state of the projector by giving audio signals to the voice assistant, providing a novel, intuitive and convenient projector control method. system can be provided.

本発明の上述の特徴及び利点をより明らかにするために、以下、実施例を挙げて、添付した図面を参照することにより、詳細に説明する。 In order to make the above-mentioned features and advantages of the present invention clearer, a detailed description will be given below by way of examples and with reference to the accompanying drawings.

本発明の一実施例に基づくインテリジェント音声システムを示す図である。1 is a diagram illustrating an intelligent voice system according to an embodiment of the present invention; FIG. 本発明の一実施例に基づく投影機制御方法のフローチャートである。3 is a flowchart of a projector control method according to an embodiment of the present invention. 図1に基づくインテリジェント音声システムを示す図である。2 is a diagram illustrating an intelligent voice system based on FIG. 1; FIG. 図3に基づくインテリジェント音声システムを示す図である。4 is a diagram illustrating an intelligent voice system based on FIG. 3; FIG. 図1に基づくインテリジェント音声システムを示す図である。2 is a diagram illustrating an intelligent voice system based on FIG. 1; FIG. 図1、図3、図4及び図5に基づくインテリジェント音声システムを示す図である。5 is a diagram illustrating an intelligent voice system based on FIGS. 1, 3, 4 and 5; FIG. 図1に基づくインテリジェント音声システムを示す図である。2 is a diagram illustrating an intelligent voice system based on FIG. 1; FIG. 図1に基づくもう1つのインテリジェント音声システムを示す図である。2 shows another intelligent voice system based on FIG. 1; FIG. 図1に基づくインテリジェント音声システムにより映像・音声プラットフォームインターフェースの投影を制御することを示す図である。FIG. 2 is a diagram illustrating controlling the projection of the video and audio platform interface by the intelligent audio system based on FIG. 1; 図8に基づく投影機制御方法のフローチャートである。9 is a flowchart of the projector control method based on FIG. 8. 図8及び図9に基づく映像・音声プラットフォームインターフェース中で検索操作を行うことを示す図である。10 is a diagram illustrating performing a search operation in the video/audio platform interface based on FIGS. 8 and 9; FIG. 図10に基づく映像・音声プラットフォームインターフェース中でインターフェーススクロールを行うことを示す図である。11 is a diagram illustrating interface scrolling in the video/audio platform interface based on FIG. 10; FIG. 図11に基づく映像・音声プラットフォームインターフェース中で再生操作を行うことを示す図である。FIG. 12 is a diagram illustrating performing playback operations in the video/audio platform interface based on FIG. 11; 図12に基づく映像・音声プラットフォームインターフェース中でブックマーク追加操作を行うことを示す図である。FIG. 13 is a diagram illustrating adding a bookmark operation in the video/audio platform interface based on FIG. 12; 図13に基づく映像・音声プラットフォームインターフェース中でブックマーク追加操作を行うことを示す図である。FIG. 14 is a diagram illustrating adding a bookmark operation in the video/audio platform interface based on FIG. 13;

本発明の上述及び他の技術的内容、特徴、機能及び効果は、添付した図面に基づく以下のような好ましい実施例における詳細な説明により明確になる。なお、以下の実施例に言及されている方向についての用語、例えば、上、下、左、右、前、後などは、添付した図面の方向に過ぎない。よって、使用されている方向の用語は、本発明を説明するためだけのものであり、本発明を限定するためのものではない。 The above-mentioned and other technical contents, features, functions and effects of the present invention will become clearer from the detailed description of the preferred embodiments as follows, based on the accompanying drawings. It should be noted that the directional terms mentioned in the following embodiments, such as top, bottom, left, right, front, back, etc., are only the directions in the attached drawings. Accordingly, the directional terminology used is for the purpose of describing the invention only and is not intended to limit the invention.

図1を参照する。それは、本発明の一実施例に基づくインテリジェント音声システムを示す図である。図1に示すように、インテリジェント音声システム100は、音声アシスタント102a、クラウド型プラットフォーム104a、投影機106a、及び管理サーバ108を含み、これらの装置は、全て、ネットワーク(Internetインターネット)110により互いに接続することができる。なお、接続は、信号の相互伝達と定義される。 See Figure 1. It is a diagram illustrating an intelligent voice system according to one embodiment of the present invention. As shown in FIG. 1, the intelligent voice system 100 includes a voice assistant 102a, a cloud-based platform 104a, a projector 106a, and a management server 108, all of which are connected to each other by a network (Internet) 110. be able to. Note that connection is defined as mutual transmission of signals.

本実施例では、投影機106aは、マイクロ制御ユニット106a1及び光源装置106a2を含む。音声アシスタント102aは、例えば、信号により投影機106aに接続される外部装置であり、音声アシスタント102aは、マイクロフォン(microphone)及びスピーカー(Speaker)及び無線ネットワーク媒体及び/又は有線ネットワーク媒体(例えば、ネットワークカード又は関連するdongle、或いは、Bluetooth(登録商標)、Wi-Fi、Zigbee又は他の無線伝送媒体を用いて伝送を行っても良いが、これに限られず、或いは、光ファイバー又は他の有線伝送インターフェースを採用して伝送を行っても良いが、これに限定されない)を有する。音声アシスタント102aは、例えば、インテリジェントスピーカー(例えば、AmazonTM製Amazon Echo又はGoogleTM製Google assistantであっても良いが、これに限られない)、或いは、使用者が音声信号AS1で入力指令を表することでそれ相応の操作を行うことができる他のインテリジェント装置であっても良く;或いは、音声アシスタント102aは、投影機106aに内蔵される音声回路装置であっても良く、該音声回路装置は、例えば、音声認識処理器、AI処理器(Artificial intelligence Processing Unit、AI processing chip)を含み、又は、ニューラルネットワーク処理器(Neural-network Processing Unit;Neural-network Processing chip)である。他の実施例では、使用者が音声信号により音声アシスタント102aに特定の操作の実行を指示する前に、使用者は、まず、音声アシスタント102aに特定のウェイクワード(wake word)をかけて音声アシスタント102aをウェイクすることができる。ここでのウェイクとは、スタート又は起動である。例を挙げて言えば、音声アシスタント102aがAmazon Echoである場合、使用者は、音声アシスタント102aに「Alexa」及び/又は「Echo」などのウェイクワードをかけて音声アシスタント102aをウェイクすることができる。また、音声アシスタント102aがGoogle assistantである場合、使用者は、音声アシスタント102aに「OK Google」及び/又は「Hey Google」などのウェイクワードをかけて音声アシスタント102aをウェイクすることができるが、本発明は、これに限定されない。 In this embodiment, the projector 106a includes a microcontrol unit 106a1 and a light source device 106a2. The voice assistant 102a is an external device connected to the projector 106a by, for example, a signal, and the voice assistant 102a is connected to a microphone and a speaker and a wireless network medium and/or a wired network medium (e.g., a network card). or related dongles, or transmission may be performed using, but not limited to, Bluetooth®, Wi-Fi, Zigbee or other wireless transmission media, or fiber optic or other wired transmission interfaces. (but is not limited to this). The voice assistant 102a may be, for example, an intelligent speaker (such as, but not limited to, an Amazon Echo manufactured by Amazon TM or a Google Assistant manufactured by Google TM ), or a voice assistant 102a that is configured by a user to express an input command using an audio signal AS1. Alternatively, the voice assistant 102a may be an audio circuit device built into the projector 106a, the audio circuit device being , for example, includes a speech recognition processor, an AI processor (Artificial intelligence Processing Unit, AI processing chip), or is a neural-network processor (Neural-network Processing Unit; Neural-network Processing chip). In other embodiments, before the user instructs the voice assistant 102a to perform a specific operation via an audio signal, the user first issues a specific wake word to the voice assistant 102a to Can wake 102a. Wake here means start or activation. For example, if the voice assistant 102a is an Amazon Echo, the user can wake the voice assistant 102a by saying a wake word such as "Alexa" and/or "Echo" to the voice assistant 102a. . In addition, when the voice assistant 102a is Google assistant, the user can wake the voice assistant 102a by saying a wake word such as "OK Google" and/or "Hey Google" to the voice assistant 102a, but The invention is not limited to this.

クラウド型プラットフォーム104aは、ネットワーク110により音声アシスタント102aに接続され、音声アシスタント102aのメーカーにより設定されている、音声アシスタント102aを管理するネットワークプラットフォームであっても良い。例えば、音声アシスタント102aがAmazon Echoである場合、それ相応のクラウド型プラットフォーム104aは、Amazon Webサービス(Amazon Web Service、AWS)であっても良い。他の例を挙げて言えば、音声アシスタント102aがGoogle assistantであるときに、それ相応のクラウド型プラットフォーム104aは、Googleクラウドサーバ又はGoogleサービスプラットフォームであっても良い。 Cloud-based platform 104a may be a network platform connected to voice assistant 102a by network 110 and configured by the manufacturer of voice assistant 102a to manage voice assistant 102a. For example, if the voice assistant 102a is Amazon Echo, the corresponding cloud platform 104a may be Amazon Web Services (AWS). For example, when the voice assistant 102a is Google assistant, the corresponding cloud-based platform 104a may be a Google cloud server or a Google service platform.

他の実施例では、クラウド型プラットフォーム104aには、音声アシスタント102aに対応するスキルアプリケーション(skill application)を記憶/記録することができ、これらのスキルアプリケーションは、アプリケーション(application)のメーカー(例えば、投影機のメーカー)により作られ、クラウド型プラットフォーム104aにインストールされても良い。 In other embodiments, the cloud-based platform 104a may store/record skill applications corresponding to the voice assistant 102a, and these skill applications may be stored/recorded by the application manufacturer (e.g., machine manufacturer) and installed on the cloud-based platform 104a.

一実施例では、使用者は、音声アシスタント102aに音声信号AS1を与えることができ、音声信号AS1は、使用しようとするスキルアプリケーションに対応する呼び出し名(invocation name)及び意図(intent)を含んでも良いが、その並び順序については、限定しない。音声アシスタント102aが上述の呼び出し名及び意図を含む音声信号を受信するときに、音声アシスタント102aは、この音声信号から上述の呼び出し名及び意図などのキーワードを抽出/取得し、そして、クラウド型プラットフォーム104aに伝送することができる。続いて、クラウド型プラットフォーム104aは、上述の呼び出し名に基づいて、対応するスキルアプリケーションを見つけ、そして、それ相応に使用者が話した/入力した意図に基づいて、音声アシスタント102aがそれに対応する操作(例えば、使用者からの問題に答えるなどであっても良いが、これに限定されない)を行うように制御することができる。例を挙げて言えば、使用者は、A会社の投影機の起動のための音声信号を与え、A会社の投影機は、使用しようとするスキルアプリケーションに対応する呼び出し名(invocation name)を表し、起動は、意図(intent)を表すとする。この場合、音声アシスタント102aがA会社の投影機の起動のための音声信号を受信すると、音声アシスタント102aは、音声信号をクラウド型プラットフォーム104aに伝送することができる。続いて、クラウド型プラットフォーム104aは、上述の呼び出し名に基づいて、A会社により提供されるスキルアプリケーションを見つけ、そして、クラウド型プラットフォーム104aは、第一応答信号R1を音声アシスタント102aにフィードバックし、音声アシスタント102aが「A会社の投影機を起動している」という内容の応答音声信号RS1を回答するように制御することができる。 In one embodiment, the user may provide the voice assistant 102a with an audio signal AS1, which may include an invocation name and an intent corresponding to the skill application to be used. However, there is no restriction on the order in which they are arranged. When the voice assistant 102a receives the audio signal including the above-mentioned invocation name and intent, the voice assistant 102a extracts/obtains keywords such as the above-mentioned invocation name and intent from this audio signal, and then sends the keywords to the cloud-based platform 104a. can be transmitted to. Subsequently, the cloud-based platform 104a finds the corresponding skill application based on the above-mentioned invocation name, and the voice assistant 102a performs the corresponding operation based on the user's spoken/entered intention accordingly. (For example, this may include, but is not limited to, answering questions from the user). For example, a user provides an audio signal to activate Company A's projector, and Company A's projector represents an invocation name that corresponds to the skill application that the user wishes to use. , activation represents intent. In this case, when the voice assistant 102a receives the voice signal for activating the projector of Company A, the voice assistant 102a can transmit the voice signal to the cloud-based platform 104a. Subsequently, the cloud-based platform 104a finds the skill application provided by Company A based on the above-mentioned invocation name, and the cloud-based platform 104a feeds back the first response signal R1 to the voice assistant 102a, The assistant 102a can be controlled to respond with a response audio signal RS1 with the content "Starting the projector of company A."

管理サーバ108は、クラウド型プラットフォーム104a及び投影機106aに接続され、投影機106aを管理及び制御するために用いられる。一実施例では、管理サーバ108は、投影機106aのメーカーにより設置及び保守されても良く、クラウド型プラットフォーム104からの制御命令に基づいてそれ相応に投影機106aを制御することができる。なお、本発明では、管理サーバ108及びクラウド型プラットフォーム104aが異なるサーバに設置されることについて限定しない。他の実施例では、クラウド型プラットフォーム104a及び管理サーバ108は、同じサーバに設置されても良く、即ち、クラウド型プラットフォーム104aは、同じサーバに位置する方式で管理サーバ108に接続されても良い。 A management server 108 is connected to the cloud-based platform 104a and the projector 106a, and is used to manage and control the projector 106a. In one embodiment, management server 108 may be installed and maintained by the manufacturer of projector 106a and may control projector 106a accordingly based on control instructions from cloud-based platform 104. Note that the present invention does not limit the management server 108 and the cloud platform 104a to be installed on different servers. In other embodiments, cloud-based platform 104a and management server 108 may be located on the same server, ie, cloud-based platform 104a may be connected to management server 108 in a manner located on the same server.

一実施例では、クラウド型プラットフォーム104aには、投影機106aを制御するための特定のスキルアプリケーションをインストールしても良く、それは、使用者が音声アシスタント102aにより投影機106aの操作状態を制御するようにさせることができる。この場合、使用者が音声アシスタント102aに特定のスキルアプリケーションの呼び出し名及び意図を話した後に、クラウド型プラットフォーム104aは、この呼び出し名に基づいて、使用者の意図を、投影機106aを管理する管理サーバ108に転送し、管理サーバ108に、それ相応に投影機106aの操作状態を調整させることができる。なお、関連する操作の細部については、図2に基づいて説明する。 In one embodiment, the cloud-based platform 104a may be installed with a specific skill application for controlling the projector 106a, which allows the user to control the operational status of the projector 106a via the voice assistant 102a. can be made to In this case, after the user speaks the invocation name and intention of a specific skill application to the voice assistant 102a, the cloud-based platform 104a determines the user's intention based on the invocation name and manages the projector 106a. server 108, and may cause management server 108 to adjust the operating state of projector 106a accordingly. Note that details of related operations will be explained based on FIG. 2.

図2を参照する。それは、本発明の一実施例に基づく投影機制御方法のフローチャートである。図2に示す方法は、図1におけるインテリジェント音声システム100により実行することができる。以下、図1に示す装置を参照しながら図2の各ステップの細部について説明する。 See Figure 2. It is a flowchart of a projector control method according to an embodiment of the present invention. The method shown in FIG. 2 can be performed by the intelligent voice system 100 in FIG. 1. The details of each step in FIG. 2 will be explained below with reference to the apparatus shown in FIG.

まず、ステップS210では、音声アシスタント102aが投影機106aを制御するための音声信号AS1を受信するときに、音声アシスタント102aは、音声信号AS1から複数の第一キーワードを抽出/取得し、そして、これらの第一キーワードをクラウド型プラットフォーム104aに伝送する。 First, in step S210, when the voice assistant 102a receives the voice signal AS1 for controlling the projector 106a, the voice assistant 102a extracts/obtains a plurality of first keywords from the voice signal AS1, and then extracts/obtains a plurality of first keywords from the voice signal AS1. The first keyword of is transmitted to the cloud-based platform 104a.

一実施例では、上述の第一キーワードは、投影機106aに対応する第一エイリアス(alias)AL1及び第一制御命令CMD1を含んでも良い。他の実施例では、使用者は、投影機のメーカーの管理サーバ108に対応するホームページ上で登録を行うことができる。言い換えると、投影機106aは、予め、第一エイリアスAL1及び投影機106aの唯一な識別情報(例えば、順番号)に基づいて管理サーバ108に登録されている。また、投影機106aの第一エイリアスAL1は、管理サーバ108が投影機106aの登録プロセスにおいて提供する複数の所定エイリアス(例えば、リビングルーム、ベッドルームなど)から選択されても良い。また、第一制御命令CMD1は、使用者の意図に対応しても良く、即ち、投影機106aに対して実施しようとする制御操作(例えば、電源を入れる、電源を切る、輝度を増加/減少させる、コントラストを増加/減少させる、OSD(on screen display)をスタートするなど)である。 In one embodiment, the first keyword described above may include a first alias AL1 and a first control command CMD1 corresponding to the projector 106a. In other embodiments, the user may register on a home page corresponding to the projector manufacturer's management server 108. In other words, the projector 106a is registered in advance in the management server 108 based on the first alias AL1 and unique identification information (eg, sequence number) of the projector 106a. Further, the first alias AL1 of the projector 106a may be selected from a plurality of predetermined aliases (eg, living room, bedroom, etc.) provided by the management server 108 in the registration process of the projector 106a. The first control command CMD1 may also correspond to a user's intention, i.e., a control operation to be performed on the projector 106a (e.g., power on, power off, increase/decrease brightness). settings, increase/decrease contrast, start OSD (on screen display), etc.).

本実施例では、クラウド型プラットフォーム104aは、第一セマンティック解析プログラム及び複数の第二制御命令CMD2を含んでも良く、そのうち、前述の各第二制御命令CMD2は、例えば、投影機106aのメーカーにより予め生成される制御命令(例えば、電源を入れる、電源を切る、輝度を増加/減少させる、コントラストを増加/減少させる、OSDをスタートするなど)であっても良い。 In this embodiment, the cloud-based platform 104a may include a first semantic analysis program and a plurality of second control instructions CMD2, of which each of the second control instructions CMD2 is pre-programmed, for example, by the manufacturer of the projector 106a. It may be a control command that is generated (eg, power on, power off, increase/decrease brightness, increase/decrease contrast, start OSD, etc.).

一実施例では、第一音声解析プログラムには、第一ルックアップテーブルが含まれても良く、前述の各第二制御命令CMD2は、この第一ルックアップテーブルに、検索されるよう記録されても良いが、本発明は、これに限定されない。もう1つの実施例では、第一音声解析プログラムには、前述の各第二制御命令CMD2の情報が含まれても良い。他の実施例では、前述の各第二制御命令CMD2を記録している第一ルックアップテーブルは、クラウド型プラットフォーム104a中のデータベース(図示せず)に記憶されても良い。他の実施例では、前述の各第二制御命令CMD2は、人工知能(artificial intelligence)又は機械学習(machine learning)の方式で生成されても良い。例を挙げて言うと、クラウド型プラットフォーム104aは、使用者が入力した音声履歴記録に基づいて深層学習を行い、使用者のイディオム及び文法を学習することで、複数の第二制御命令CMD2を生成しても良いが、本発明は、これに限られない。 In one embodiment, the first speech analysis program may include a first look-up table, and each of the aforementioned second control instructions CMD2 is recorded in this first look-up table to be retrieved. However, the present invention is not limited thereto. In another embodiment, the first voice analysis program may include information on each of the second control commands CMD2 described above. In other embodiments, the first look-up table recording each of the aforementioned second control instructions CMD2 may be stored in a database (not shown) in the cloud-based platform 104a. In other embodiments, each of the second control commands CMD2 described above may be generated using artificial intelligence or machine learning. For example, the cloud-based platform 104a generates a plurality of second control commands CMD2 by performing deep learning based on the voice history record input by the user and learning the user's idiom and grammar. However, the present invention is not limited to this.

よって、クラウド型プラットフォーム104aは、ステップS220で第一セマンティック解析プログラムにより第一制御命令CMD1を解析し、第一制御命令CMD1に基づいて対応する第二制御命令CMD2を取得/テイクアウト又は生成し、そして、投影機106aの第一エイリアスAL1及び対応する第二制御命令CMD2を管理サーバ108に伝送することができる。なお、クラウド型プラットフォーム104aは、元々が音声信号である第一制御命令CMD1をテキストに変換し、クラウド型プラットフォーム104a中の第二制御命令CMD2と比較するために用いられる。一実施例では、第二制御命令CMD2は、テキストであっても良いが、これに限定されない。 Therefore, the cloud-based platform 104a analyzes the first control instruction CMD1 using the first semantic analysis program in step S220, acquires/takes out or generates the corresponding second control instruction CMD2 based on the first control instruction CMD1, and , the first alias AL1 of the projector 106a and the corresponding second control command CMD2 can be transmitted to the management server 108. Note that the cloud-based platform 104a is used to convert the first control command CMD1, which is originally an audio signal, into text and compare it with the second control command CMD2 in the cloud-based platform 104a. In one embodiment, the second control command CMD2 may be text, but is not limited thereto.

例えば、使用者が入力する第一制御命令CMD1が「電源を入れる」である場合、クラウド型プラットフォーム104aに「電源を入れる」に対応する第二制御命令CMD2が記憶されているときに、クラウド型プラットフォーム104aは、それに基づいて、「電源を入れる」に対応する第二制御命令CMD2をテイクアウトすることができる。その後、クラウド型プラットフォーム104aは、投影機106aの第一エイリアスAL1及び「電源を入れる」に対応する第二制御命令CMD2を管理サーバ108に伝送することができる。他の例を挙げて言えば、使用者が入力する第一制御命令CMD1が「輝度を増加させる」である場合、クラウド型プラットフォーム104aに「輝度を増加させる」に対応する第二制御命令CMD2が記憶されているときに、クラウド型プラットフォーム104aは、それに基づいて、「輝度を増加させる」に対応する第二制御命令CMD2をテイクアウトすることができる。その後、クラウド型プラットフォーム104aは、投影機106aの第一エイリアスAL1及び「輝度を増加させる」に対応する第二制御命令CMD2を管理サーバ108に伝送することができる。 For example, if the first control command CMD1 input by the user is "turn on the power", when the second control command CMD2 corresponding to "turn on the power" is stored in the cloud-based platform 104a, the cloud-based Based on this, the platform 104a can take out the second control command CMD2 corresponding to "turn on the power". Thereafter, the cloud-based platform 104a may transmit the first alias AL1 of the projector 106a and the second control command CMD2 corresponding to "power on" to the management server 108. To give another example, if the first control command CMD1 input by the user is "increase brightness", the second control command CMD2 corresponding to "increase brightness" is sent to the cloud platform 104a. When stored, the cloud-based platform 104a can take out the second control command CMD2 corresponding to "increase brightness" based thereon. Thereafter, the cloud-based platform 104a may transmit the first alias AL1 of the projector 106a and the second control command CMD2 corresponding to "increase brightness" to the management server 108.

他の実施例では、クラウド型プラットフォーム104aに使用者入力の第一制御命令CMD1(例えば、ライトをオンにする)に対応する第二制御命令CMD2が存在しないときに、クラウド型プラットフォーム104aは、音声アシスタント102aが、認識できないとの応答(例えば、「すみません。分かりません。」)を出力/回答するように制御しても良いが、本発明は、これに限定されない。 In another embodiment, when there is no second control instruction CMD2 corresponding to the user-input first control instruction CMD1 (e.g., turn on a light) on the cloud-based platform 104a, the cloud-based platform 104a may The assistant 102a may be controlled to output/reply a response that it cannot be recognized (for example, "I'm sorry. I don't understand."), but the present invention is not limited to this.

その後、ステップS230では、管理サーバ108は、第一エイリアスAL1に従って投影機106aをアクセス/制御し、対応する第二制御命令CMD2に基づいて投影機106aを第一作動状態(例えば、電源を入れる、電源を入れる、電源を切る、輝度を増加/減少させる、コントラストを増加/減少させる、OSDをスタートするなど)に調整することができる。 Thereafter, in step S230, the management server 108 accesses/controls the projector 106a according to the first alias AL1 and puts the projector 106a into a first operating state (e.g., powering on, (power on, power off, increase/decrease brightness, increase/decrease contrast, start OSD, etc.).

一実施例では、管理サーバ108は、第二制御命令CMD2に基づいて、対応する第三制御命令CMD3を生成し、そして、第三制御命令CMD3を投影機106aのマイクロ制御ユニット106a1に伝送することができる。 In one embodiment, the management server 108 generates a corresponding third control command CMD3 based on the second control command CMD2, and transmits the third control command CMD3 to the microcontrol unit 106a1 of the projector 106a. I can do it.

それ相応に、投影機106aのマイクロ制御ユニット106a1は、第三制御命令CMD3を受信し、そして、第三制御命令CMD3に基づいて投影機106の第一作動状態を調整することができる。マイクロ制御ユニット106a1は、例えば、中央処理ユニット(central processing unit,CPU)を含み、或いは、一般用途又は特殊用途のプログラマブルなマイクロプロセッサ(Microprocessor)、デジタルシグナルプロセッサ(Digital Signal Processor,DSP)、プログラマブルな制御器、特定用途向け集積回路(Application Specific Integrated Circuits,ASIC)、プログラマブルロジックデバイス(Programmable Logic Device,PLD)又は他の類似する装置又はこれらの装置の組み合わせであっても良い。一実施例では、マイクロ制御ユニット106a1は、第一プログラム(図示せず)を含んでも良く、マイクロ制御ユニット106a1は、第三制御命令CMD3を受信した後に、第一プログラムにより第四制御命令CMD4を取得し、そして、それに基づいて投影機106aの第一作動状態を調整することができる。本実施例では、第四制御命令CMD4は、デジタル信号を含んでも良く、それは、具体的に、第三制御命令CMD3に応じて、投影機106aのハードウェアの作動状態を調整することで、上述の第一作動状態を実現するために用いられる。例えば、第三制御命令CMD3が「輝度を増加させる」であるときに、マイクロ制御ユニット106a1は、第一プログラムを実行することで、光源の駆動電流及び/又はファンの回転速度を高く調整するためのデジタル信号を生成し、そして、このデジタル信号を第四制御命令CMD4とすることができ、また、この第四制御命令CMD4は、マイクロ制御ユニット106a1により光源装置106a2に提供されるが、本発明は、これに限定されない。 Accordingly, the microcontrol unit 106a1 of the projector 106a can receive the third control command CMD3 and adjust the first operating state of the projector 106 based on the third control command CMD3. The microcontrol unit 106a1 includes, for example, a central processing unit (CPU), a general purpose or special purpose programmable microprocessor, a digital signal processor (DSP), a programmable It may be a controller, Application Specific Integrated Circuits (ASICs), Programmable Logic Devices (PLDs), or other similar devices or combinations of these devices. In one embodiment, the microcontrol unit 106a1 may include a first program (not shown), and after receiving the third control command CMD3, the microcontrol unit 106a1 executes the fourth control command CMD4 according to the first program. and adjust the first operating state of the projector 106a based thereon. In this embodiment, the fourth control command CMD4 may include a digital signal, which specifically adjusts the operating state of the hardware of the projector 106a according to the third control command CMD3, as described above. is used to realize the first operating state. For example, when the third control command CMD3 is "increase brightness", the microcontrol unit 106a1 executes the first program to increase the drive current of the light source and/or the rotation speed of the fan. This digital signal can be used as a fourth control command CMD4, and this fourth control command CMD4 is provided to the light source device 106a2 by the microcontroller unit 106a1, but according to the present invention is not limited to this.

もう1つの実施例では、投影機106aの第一プログラムは、第二ルックアップテーブルを含んでも良く、この第二ルックアップテーブルは、予め生成される第五制御命令及び対応する第四制御命令CMD4を記録しても良く、そのうち、第五制御命令は、第三制御命令CMD3と同じである。即ち、投影機106aの第一プログラムは、第二ルックアップテーブルに各第五制御命令と第四制御命令CMD4との対応関係を記録することができる。この場合、マイクロ制御ユニット106a1は、第三制御命令CMD3を受信するときに、直接、第二ルックアップテーブルから第三制御命令CMD3と同じである第五制御命令、及び対応する第四制御命令CMD4を見つけ、そして、これに基づいて投影機106aのハードウェアの作動状態を調整することで、上述の第一作動状態を実現することができる。例えば、第二ルックアップテーブルには、相互対応の「輝度を増加させる」としての第五制御命令及び「光源の駆動電流及び/又はファンの回転速度を高く調整するためのデジタル信号を生成する」としての第四制御命令CMD4を記録することができる。これに基づいて、第三制御命令CMD3が「輝度を増加させる」であるときに、マイクロ制御ユニット106a1は、第二ルックアップテーブルをルックアップして第三制御命令CMD3と同じである「輝度を増加させる」としての第五制御命令を見つけ、そして、この第五制御命令に対応する第四制御命令CMD4(即ち、「光源の駆動電流及び/又はファンの回転速度を高く調整するためのデジタル信号を生成する」)を取得することができる。その後、投影機106aは、第四制御命令CMD4に基づいて、投影機106aのハードウェアの作動状態を調整することで、上述の第一作動状態を実現することができるが、本発明は、これに限られない。 In another embodiment, the first program of the projector 106a may include a second look-up table that includes a pre-generated fifth control command and a corresponding fourth control command CMD4. may be recorded, of which the fifth control command is the same as the third control command CMD3. That is, the first program of the projector 106a can record the correspondence between each fifth control command and the fourth control command CMD4 in the second lookup table. In this case, when the microcontrol unit 106a1 receives the third control command CMD3, it directly selects the fifth control command that is the same as the third control command CMD3 from the second look-up table, and the corresponding fourth control command CMD4. By finding and adjusting the operating state of the hardware of the projector 106a based on this, the first operating state described above can be realized. For example, the second lookup table includes a fifth control command as "increase the brightness" and a fifth control command as "increase the brightness" and "generate a digital signal to increase the driving current of the light source and/or the rotational speed of the fan". The fourth control command CMD4 can be recorded as follows. Based on this, when the third control command CMD3 is "increase brightness", the microcontrol unit 106a1 looks up the second lookup table to "increase brightness", which is the same as the third control command CMD3. Find the fifth control command as "increase" and find the fourth control command CMD4 corresponding to this fifth control command (i.e. "digital signal for adjusting the light source drive current and/or fan rotation speed to a higher value"); ”) can be obtained. Thereafter, the projector 106a can achieve the above-described first operating state by adjusting the operating state of the hardware of the projector 106a based on the fourth control command CMD4. Not limited to.

また、一実施例では、投影機106aは、ファン、光源駆動器、スピーカーなどの電子素子を含んでも良く、第三制御命令CMD3は、前述の電子素子の情報及び前述の電子素子を制御する信号を含んでも良い。前述の電子素子の情報は、例えば、識別コードを含み、前述の電子素子を制御する信号は、電圧又は電流に関する信号を含んでも良い。これにより、投影機106aは、第三制御命令CMD3に応じて、具体的に、関連電子素子の作動状態を調整することができ、例えば、あるファンの回転速度及び/又はある光源駆動器の電圧又は電流を高く調整するなどであるが、本発明は、これに限定されない。 In one embodiment, the projector 106a may include electronic devices such as a fan, a light source driver, a speaker, etc., and the third control command CMD3 includes information on the electronic devices and signals for controlling the electronic devices. may also be included. The information on the electronic device may include, for example, an identification code, and the signal for controlling the electronic device may include a signal related to voltage or current. Thereby, the projector 106a can specifically adjust the operating state of the associated electronic elements according to the third control command CMD3, for example the rotational speed of a certain fan and/or the voltage of a certain light source driver. Alternatively, the current may be adjusted higher, but the present invention is not limited thereto.

以上から分かるように、本発明による投影機制御方法は、使用者が音声アシスタント102aに音声信号AS1を与える方式で投影機106aの操作状態を制御するようにさせることができる。よって、新規で直覚的且つ便利な投影機制御システムを提供することができる。 As can be seen from the above, the projector control method according to the present invention allows the user to control the operation state of the projector 106a by providing the audio signal AS1 to the voice assistant 102a. Therefore, a new, intuitive, and convenient projector control system can be provided.

一実施例では、管理サーバ108が投影機106aをアクセス/制御するときに、投影機106aは、第二応答信号を管理サーバ108に提供する。即ち、投影機106aは、対応して投影機106aの作動状態及び各素子の現在の情報(例えば、光源の使用時間、使用者の設定の投影機の関連パラメータデータ)を管理サーバ108にフィードバックすることができる。 In one embodiment, when management server 108 accesses/controls projector 106a, projector 106a provides a second response signal to management server 108. That is, the projector 106a correspondingly feeds back the operating state of the projector 106a and the current information of each element (e.g., the usage time of the light source, the related parameter data of the projector in the user's settings) to the management server 108. be able to.

一実施例では、投影機106aが第一作動状態に調整された後に、投影機106aは、さらに、第一作動状態を管理サーバ108に報告することができる。その後、管理サーバ108は、第一作動状態をクラウド型プラットフォーム104aに転送することができる。それ相応に、クラウド型プラットフォーム104aは、第一作動状態に基づいて、第一応答語句を生成し、そして、第一応答語句を音声アシスタント102aに送信することで、音声アシスタント102aに第一応答語句を出力させる。例えば、投影機106aが電源を入れる状態に調整される場合、音声アシスタント102aが出力する第一応答語句は、「投影機の電源を入れている」などであっても良い。他の例を挙げて言うと、投影機106aが電源を切る状態に調整されれば、音声アシスタント102aが出力する第一応答語句は、「投影機の電源を切りました」などであっても良いが、本発明は、これに限られない。 In one embodiment, after the projector 106a is adjusted to the first operating state, the projector 106a may further report the first operating state to the management server 108. The management server 108 may then transfer the first operating state to the cloud-based platform 104a. Accordingly, the cloud-based platform 104a generates a first response phrase based on the first operating state, and sends the first response phrase to the voice assistant 102a to generate the first response phrase. output. For example, when the projector 106a is adjusted to be powered on, the first response phrase output by the voice assistant 102a may be, "The projector is powered on." As another example, if the projector 106a is adjusted to turn off, the first response output by the voice assistant 102a may be something like "The projector has been turned off." However, the present invention is not limited to this.

他の実施例では、本発明による投影機制御方法は、さらに、使用者が異なる音声アシスタントで同一の投影機を制御するようにさせることができる。その説明は、以下の通りである。 In other embodiments, the projector control method according to the invention can further allow a user to control the same projector with different voice assistants. The explanation is as follows.

図3を参照する。それは、図1に基づくインテリジェント音声システムを示す図である。図3に示すように、本実施例におけるインテリジェント音声システム300は、音声アシスタント102a、102b、クラウド型プラットフォーム104a、104b、投影機106a、及び管理サーバ108を含む。 See Figure 3. It is a diagram illustrating an intelligent voice system based on FIG. 1. As shown in FIG. 3, the intelligent voice system 300 in this embodiment includes voice assistants 102a, 102b, cloud-based platforms 104a, 104b, a projector 106a, and a management server 108.

本実施例では、音声アシスタント102a及び102bは、それぞれ、異なるメーカーにより製造され、また、それぞれ、異なるクラウド型プラットフォームにより管理されても良い。例えば、音声アシスタント102aがAmazon Echoであれば、音声アシスタント102bは、Google assistantであっても良い。それ相応に、音声アシスタント102a及び102bは、それぞれ、クラウド型プラットフォーム104a及び104bにより管理されても良く、そのうち、クラウド型プラットフォーム104aは、例えば、AWSであり、クラウド型プラットフォーム104bは、Googleクラウドサーバであっても良いが、本発明は、これに限定されない。 In this example, voice assistants 102a and 102b may each be manufactured by a different manufacturer, and each may be managed by a different cloud-based platform. For example, if voice assistant 102a is Amazon Echo, voice assistant 102b may be Google assistant. Accordingly, the voice assistants 102a and 102b may be managed by cloud-based platforms 104a and 104b, respectively, where the cloud-based platform 104a is, for example, AWS and the cloud-based platform 104b is a Google cloud server. However, the present invention is not limited to this.

本実施例では、使用者は、音声アシスタント102aに音声信号を与える方式で投影機106aを制御し得る以外に、音声アシスタント102bに音声信号を与える方式で投影機106aを制御することもできる。 In this embodiment, in addition to being able to control the projector 106a by providing audio signals to the voice assistant 102a, the user can also control the projector 106a by providing audio signals to the voice assistant 102b.

詳細に言えば、音声アシスタント102bが投影機106aを制御するための第二音声信号AS2を受信するときに、音声アシスタント102bは、第二音声信号AS2から複数の第二キーワードを抽出し、そして、前述の第二キーワードをクラウド型プラットフォーム104bに伝送することができ、そのうち、前述の第二キーワードは、投影機106aに対応する第一エイリアスAL1及び第六制御命令CMD6を含む。 In particular, when the voice assistant 102b receives the second audio signal AS2 for controlling the projector 106a, the voice assistant 102b extracts a plurality of second keywords from the second audio signal AS2, and The aforementioned second keyword can be transmitted to the cloud-based platform 104b, where the aforementioned second keyword includes a first alias AL1 and a sixth control command CMD6 corresponding to the projector 106a.

クラウド型プラットフォーム104aと同様に、クラウド型プラットフォーム104bは、第二セマンティック解析プログラム及び複数の第七制御命令CMD7を含み、そのうち、前述の各第七制御命令CMD7は、例えば、投影機106aのメーカーにより予め形成される制御命令(例えば、電源を入れる、電源を入れる、電源を切る、輝度を増加/減少させる、コントラストを増加/減少させる、OSDをスタートするなど)であっても良い。 Similar to the cloud-based platform 104a, the cloud-based platform 104b includes a second semantic analysis program and a plurality of seventh control instructions CMD7, of which each of the aforementioned seventh control instructions CMD7 is configured, for example, by the manufacturer of the projector 106a. It may be a preformed control command (eg, power on, power on, power off, increase/decrease brightness, increase/decrease contrast, start OSD, etc.).

また、本実施例では、クラウド型プラットフォーム104bは、第二セマンティック解析プログラムにより第六制御命令CMD6を解析し、第六制御命令CMD6に基づいて対応する第七制御命令CMD7を取得し、そして、投影機106aの第一エイリアスAL1及び第六制御命令CMD6に対応する第七制御命令CMD7を管理サーバ108に伝送することができる。その後、管理サーバ108は、第一エイリアスAL1に基づいて投影機106aにアクセスし、そして、第六制御命令CMD6に対応する第七制御命令CMD7に基づいて投影機106aを第二作動状態に調整することができる。 In addition, in this embodiment, the cloud platform 104b analyzes the sixth control instruction CMD6 using the second semantic analysis program, obtains the corresponding seventh control instruction CMD7 based on the sixth control instruction CMD6, and projects A seventh control command CMD7 corresponding to the first alias AL1 and the sixth control command CMD6 of the machine 106a can be transmitted to the management server 108. Thereafter, the management server 108 accesses the projector 106a based on the first alias AL1, and adjusts the projector 106a to a second operating state based on a seventh control instruction CMD7 corresponding to the sixth control instruction CMD6. be able to.

なお、音声アシスタント102b、クラウド型プラットフォーム104b、及び管理サーバ108がこのように協同して投影機106aに対しての制御を行う操作の細部が、前に記載の音声アシスタント102a、クラウド型プラットフォーム104a、及び管理サーバ108が協同して実行する操作とほぼ同じであり、且つ上述の第二セマンティック解析プログラム、第六制御命令CMD6、及び第七制御命令CMD7の役割も、前に説明の第一セマンティック解析プログラム、第一制御命令CMD1、及び第二制御命令CMD2とほぼ同様であるから、その細部は、前の実施例中の説明を参照することができ、ここではその記載を省略する。 Note that the details of the operation in which the voice assistant 102b, the cloud-type platform 104b, and the management server 108 cooperate in this way to control the projector 106a are the same as those described above. The operations that the management server 108 and the management server 108 jointly execute are almost the same, and the roles of the second semantic analysis program, the sixth control instruction CMD6, and the seventh control instruction CMD7 are also the same as the first semantic analysis described above. Since the program, the first control instruction CMD1, and the second control instruction CMD2 are almost the same, the details can be referred to the explanation in the previous embodiment, and the description thereof will be omitted here.

一実施例では、音声アシスタント102a、102bの位置が互いに接近するときに、使用者が話した音声信号AS1及びAS2は、同時に音声アシスタント102a及び102bにより受信される場合がある。 In one embodiment, the user-spoken audio signals AS1 and AS2 may be received by the voice assistants 102a and 102b simultaneously when the positions of the voice assistants 102a and 102b are close to each other.

一実施例では、音声アシスタント102aが受信し得るウェイクワードが、音声アシスタント102bが受信し得るウェイクワードと異なるので、音声アシスタント102a及び102bが行う操作も、ウェイクワードの違いにより異なり、即ち、1つのみの音声アシスタントをウェイクウェイクすることができる。 In one embodiment, because the wake words that voice assistant 102a may receive are different from the wake words that voice assistant 102b may receive, the operations performed by voice assistants 102a and 102b also differ due to the different wake words, i.e., one Only the voice assistant can wake up.

他の実施例では、音声アシスタント102aが処理し得る語系が、音声アシスタント102bが処理し得る語系と同じであり又は異なる(即ち、音声信号AS1の語系が音声信号AS2の語系と同じであり又は異なる)可能性があり、また、音声アシスタント102a及び102bが行う操作も、語系が同じであり又は異なることによって異なる。 In other embodiments, the language family that voice assistant 102a may process is the same or different than the language language that voice assistant 102b may process (i.e., the language family of audio signal AS1 is the same or different from the language family of audio signal AS2). ), and the operations performed by the voice assistants 102a and 102b also differ depending on whether the language family is the same or different.

例を挙げて言えば、音声信号AS1の語系(例えば、英語)が音声信号AS2の語系(例えば、日本語)と異なるとする場合、音声アシスタント102aが音声信号AS2を受信し、且つ第一音声解析プログラムが音声信号AS2を認識することができないときに、音声アシスタント102aは、認識できないとの応答語句を出力することができる。同様に、音声アシスタント102bが音声信号AS1を受信し、且つ第二音声解析プログラムが音声信号AS1を認識することができないときに、音声アシスタント102bは、認識できないとの応答語句を出力することもできる。 For example, if the language of the audio signal AS1 (e.g., English) is different from the language of the audio signal AS2 (e.g., Japanese), then the audio assistant 102a receives the audio signal AS2, and the first audio When the analysis program is unable to recognize the audio signal AS2, the voice assistant 102a may output an unrecognized response phrase. Similarly, when the voice assistant 102b receives the voice signal AS1 and the second voice analysis program cannot recognize the voice signal AS1, the voice assistant 102b may output a response phrase indicating that it cannot be recognized. .

逆に、音声信号AS1の語系が音声信号AS2の語系と同じである(例えば、ともに日本語である)場合、インテリジェント音声システム300は、他の操作を行って投影機106aを制御することができ、その細部は、図4に基づいて説明する。 Conversely, if the language of audio signal AS1 is the same as the language of audio signal AS2 (e.g., both are Japanese), intelligent audio system 300 may perform other operations to control projector 106a. , the details of which will be explained based on FIG.

図4を参照する。それは、図3に基づくインテリジェント音声システムを示す図である。本実施例では、音声アシスタント102aが投影機106aを制御するための音声信号AS2も受信するときに、音声アシスタント102aは、音声信号AS2から前述の第二キーワードを抽出し、そして、前述の第二キーワードをクラウド型プラットフォーム104aに伝送することができ、そのうち、前述の第二キーワードは、投影機106aに対応する第一エイリアスAL1及び第六制御命令CMD6を含む。 See Figure 4. It is a diagram illustrating an intelligent voice system based on FIG. 3. In this embodiment, when the voice assistant 102a also receives the voice signal AS2 for controlling the projector 106a, the voice assistant 102a extracts the aforementioned second keyword from the voice signal AS2, and Keywords can be transmitted to the cloud-based platform 104a, among which the aforementioned second keyword includes a first alias AL1 and a sixth control command CMD6 corresponding to the projector 106a.

その後、クラウド型プラットフォーム104aは、第一セマンティック解析プログラムにより、第六制御命令CMD6を解析し、そして、第六制御命令CMD6に基づいて第八制御命令CMD8を取得することができ、そのうち、第八制御命令CMD8は、前述の第二制御命令CMD2のうちの1つである。また、クラウド型プラットフォーム104aは、投影機106aの第一エイリアスAL1及び第八制御命令CMD8を管理サーバ108に伝送することができる。その後、管理サーバ108、第一エイリアスAL1に応じて投影機106aにアクセスし、そして、第六制御命令CMD6に対応する第八制御命令CMD8に基づいて投影機106aを再び第二作動状態に調整することができる。 After that, the cloud-based platform 104a can analyze the sixth control instruction CMD6 by the first semantic analysis program, and obtain the eighth control instruction CMD8 based on the sixth control instruction CMD6. Control command CMD8 is one of the aforementioned second control commands CMD2. The cloud-based platform 104a can also transmit the first alias AL1 and the eighth control command CMD8 of the projector 106a to the management server 108. Thereafter, the management server 108 accesses the projector 106a according to the first alias AL1, and adjusts the projector 106a again to the second operating state based on the eighth control command CMD8 corresponding to the sixth control command CMD6. be able to.

要するに、音声アシスタント102a及び102bが処理し得る語系が同じであり、且つ同一の音声信号を受信するときに、音声アシスタント102a及び102bは各自で、対応するクラウド型プラットフォーム104a及び104bにより、影機106aへの重複(repeated)制御を実現し、例えば、連続して2回電源を入れること又は連続して2回輝度を増加させることを行うなどである。 In short, when the voice assistants 102a and 102b can process the same language system and receive the same voice signal, the voice assistants 102a and 102b can each use the shadow machine 106a through the corresponding cloud-based platforms 104a and 104b. The device can be repeatedly controlled, such as turning on the power twice in succession or increasing the brightness twice in succession.

他の実施例では、本発明による投影機制御方法は、さらに、使用者が1つの音声アシスタントで異なる投影機を制御するようにさせることもでき、その説明は、以下の通りである。 In other embodiments, the projector control method according to the present invention can also allow the user to control different projectors with one voice assistant, the explanation of which is as follows.

図5を参照する。それは、図1に基づくインテリジェント音声システムを示す図である。図5に示すように、本実施例におけるインテリジェント音声システム500は、音声アシスタント102a、クラウド型プラットフォーム104a、投影機106a、106b、及び管理サーバ108を含む。 See Figure 5. It is a diagram illustrating an intelligent voice system based on FIG. 1. As shown in FIG. 5, the intelligent voice system 500 in this embodiment includes a voice assistant 102a, a cloud-based platform 104a, projectors 106a and 106b, and a management server 108.

本実施例では、投影機106a及び106bは、同じメーカーにより製造されても良い。投影機106aと同様に、投影機106bも、予め、第二エイリアスAL2及び投影機106bの唯一な識別情報(例えば、順番号)に基づいて管理サーバ108に登録されても良い。また、投影機106bの第二エイリアスAL2は、管理サーバ108が投影機106bの登録プロセスにおいて提供する複数の所定エイリアス(例えば、リビングルーム、ベッドルームなど)から選択されても良い。 In this example, projectors 106a and 106b may be manufactured by the same manufacturer. Similar to the projector 106a, the projector 106b may also be registered in advance in the management server 108 based on the second alias AL2 and unique identification information (eg, sequence number) of the projector 106b. Further, the second alias AL2 of the projector 106b may be selected from a plurality of predetermined aliases (eg, living room, bedroom, etc.) provided by the management server 108 in the registration process of the projector 106b.

本実施例では、使用者は、音声アシスタント102aに音声信号を与える方式で投影機106aを制御し得る以外に、音声アシスタント102aに音声信号を与える方式で投影機106bを制御することもできる。 In this embodiment, in addition to being able to control the projector 106a by providing audio signals to the voice assistant 102a, the user can also control the projector 106b by providing audio signals to the voice assistant 102a.

詳細に言えば、音声アシスタント102aが投影機106bを制御するための音声信号AS3を受信するときに、音声アシスタント102aは、音声信号AS3から複数の第三キーワードを抽出し、そして、前述の第三キーワードをクラウド型プラットフォーム104aに伝送することができ、そのうち、前述の第三キーワードは、投影機106bに対応する第二エイリアスAL2及び第九制御命令CMD9を含む。 In detail, when the voice assistant 102a receives the voice signal AS3 for controlling the projector 106b, the voice assistant 102a extracts a plurality of third keywords from the voice signal AS3, and extracts a plurality of third keywords from the voice signal AS3. Keywords can be transmitted to the cloud platform 104a, among which the third keyword includes a second alias AL2 and a ninth control command CMD9 corresponding to the projector 106b.

続いて、クラウド型プラットフォーム104aは、第一セマンティック解析プログラムにより第九制御命令CMD9を解析して第十制御命令CMD10を取得することができ、そのうち、第十制御命令CMD10は、前述の第二制御命令CMD2のうちの1つである。 Subsequently, the cloud-based platform 104a can analyze the ninth control instruction CMD9 using the first semantic analysis program to obtain the tenth control instruction CMD10. This is one of the instructions CMD2.

また、クラウド型プラットフォーム104aは、投影機106bの第二エイリアスAL2及び第九制御命令CMD9に対応する第十制御命令CMD10を管理サーバ108に伝送することができる。その後、管理サーバ108は、第二エイリアスAL2に応じて投影機106bにアクセスし、そして、第九制御命令CMD9に対応する第十制御命令CMD10に基づいて投影機106bを第三作動状態に調整することができる。 In addition, the cloud platform 104a can transmit the second alias AL2 of the projector 106b and the tenth control command CMD10 corresponding to the ninth control command CMD9 to the management server 108. Thereafter, the management server 108 accesses the projector 106b according to the second alias AL2, and adjusts the projector 106b to a third operating state based on the tenth control command CMD10 corresponding to the ninth control command CMD9. be able to.

なお、音声アシスタント102a、クラウド型プラットフォーム104a、及び管理サーバ108がこのように協同して投影機106bに対しての制御を行う操作の細部が、前に記載の音声アシスタント102a、クラウド型プラットフォーム104a、及び管理サーバ108が協同して投影機106aに対しての制御を行う操作とほぼ同じであり、且つ第九制御命令CMD9及び第十制御命令CMD10の役割も、前に説明の第一制御命令CMD1及び第二制御命令CMD2と同様であるため、その細部は、前の実施例中の説明を参照することができ、ここでは、その詳しい記載を割愛する。 Note that the details of the operation in which the voice assistant 102a, the cloud-type platform 104a, and the management server 108 cooperate in this way to control the projector 106b are the same as those described above. The operation in which the management server 108 and the management server 108 cooperate to control the projector 106a is almost the same, and the roles of the ninth control command CMD9 and the tenth control command CMD10 are also the same as the first control command CMD1 described earlier. and the second control command CMD2, the details thereof can be referred to the explanation in the previous embodiment, and the detailed description thereof will be omitted here.

図6を参照する。それは、図1、図3、図4及び図5に基づくインテリジェント音声システムを示す図である。図6に示すように、インテリジェント音声システム600は、音声アシスタント102a、102b、クラウド型プラットフォーム104a、104b、投影機106a、106b、及び管理サーバ108を含む。本実施例におけるインテリジェント音声システム600は、前述のインテリジェント音声システム100、300及び500の組み合わせと見なすことができる。即ち、使用者が投影機106a及び/又は106bを制御しようとするときに、使用者は、音声アシスタント102a及び/又は102bに音声信号を与える方式で、音声アシスタント102a及び/又は102b、対応するクラウド型プラットフォーム104a及び/又は104b、及び管理サーバ108が協同してワーキングすることで、投影機106a及び/又は106bの相関制御を実現するようにさせることができる。なお、関連する細部については、前の実施例中の説明を参照することができるため、ここでは、その詳しい記載を省略する。 See Figure 6. It is a diagram illustrating an intelligent voice system based on FIGS. 1, 3, 4 and 5. As shown in FIG. 6, intelligent voice system 600 includes voice assistants 102a, 102b, cloud-based platforms 104a, 104b, projectors 106a, 106b, and management server 108. Intelligent voice system 600 in this embodiment can be considered a combination of intelligent voice systems 100, 300, and 500 described above. That is, when the user wants to control the projector 106a and/or 106b, the user can control the voice assistant 102a and/or 102b, the corresponding cloud, in a manner that provides audio signals to the voice assistant 102a and/or 102b The mold platform 104a and/or 104b and the management server 108 may be made to work together to provide correlated control of the projector 106a and/or 106b. Note that for related details, the explanation in the previous embodiment can be referred to, so detailed description thereof will be omitted here.

図7Aを参照する。それは、図1に基づくインテリジェント音声システムを示す図である。図7Aに示すように、インテリジェント音声システム700は、音声アシスタント102a、クラウド型サーバ710、及び投影機106aを含み、そのうち、クラウド型サーバ710は、音声アシスタント102a及び投影機106aに接続され、音声アシスタント102a及び投影機106aを管理及び制御するために用いられる。本実施例では、クラウド型サーバ710は、図1におけるクラウド型プラットフォーム104a及び管理サーバ108の組み合わせと見なすことができるため、元々図1におけるクラウド型プラットフォーム104a及び管理サーバ108がそれぞれ実行する操作を統合することができる。 See Figure 7A. It is a diagram illustrating an intelligent voice system based on FIG. 1. As shown in FIG. 7A, the intelligent voice system 700 includes a voice assistant 102a, a cloud-based server 710, and a projector 106a, of which the cloud-based server 710 is connected to the voice assistant 102a and the projector 106a, and the voice assistant 102a and projector 106a. In this embodiment, the cloud-based server 710 can be considered as a combination of the cloud-based platform 104a and the management server 108 in FIG. 1, so the operations originally performed by the cloud-based platform 104a and the management server 108 in FIG. 1 are integrated. can do.

例を挙げて言うと、音声アシスタント102aが投影機106aを制御するための音声信号AS1を受信するときに、音声アシスタント102aは、音声信号AS1から複数の第一キーワードを抽出し、そして、前述の第一キーワードを該クラウド型サーバ710に伝送することができる。図1に関連する説明と同様に、前述の第一キーワードは、投影機106aに対応する第一エイリアスAL1及び第一制御命令CMD1を含んでも良い。 For example, when the voice assistant 102a receives the audio signal AS1 for controlling the projector 106a, the voice assistant 102a extracts a plurality of first keywords from the audio signal AS1, and A first keyword can be transmitted to the cloud-based server 710. Similar to the description related to FIG. 1, the first keyword described above may include a first alias AL1 and a first control command CMD1 corresponding to the projector 106a.

また、クラウド型サーバ710は、図1中のクラウド型プラットフォーム104aに含まれる第一セマンティック解析プログラム及び複数の第二制御命令CMD2を含んでも良い。クラウド型プラットフォーム104aと同様に、クラウド型サーバ710は、第一セマンティック解析プログラムにより第一制御命令CMD1を解析し、そして、第一制御命令CMD1に基づいて対応する第二制御命令CMD2を取得又はテイクアウト又は生成することができる。 Further, the cloud-based server 710 may include a first semantic analysis program and a plurality of second control instructions CMD2 included in the cloud-based platform 104a in FIG. Similar to the cloud-based platform 104a, the cloud-based server 710 analyzes the first control instruction CMD1 using the first semantic analysis program, and obtains or takes out the corresponding second control instruction CMD2 based on the first control instruction CMD1. or can be generated.

その後、管理サーバ108と同様に、クラウド型サーバ710は、第一エイリアスAL1に従って投影機106aにアクセスし、そして、第一制御命令に対応する第二制御命令CMD1に基づいて投影機106aを第一作動状態に調整することができる。なお、本実施例の関連操作の細部も前の実施例中の説明を参照することができるから、ここでは、その詳細な記載を割愛する。 Thereafter, similar to the management server 108, the cloud-based server 710 accesses the projector 106a according to the first alias AL1, and controls the projector 106a to the first projector 106a based on the second control command CMD1 corresponding to the first control command. Can be adjusted to working condition. Note that the details of the operations related to this embodiment can also be referred to the explanations in the previous embodiments, so a detailed description thereof will be omitted here.

図7Bを参照する。それは、図1に基づくもう1つのインテリジェント音声システムを示す図である。該インテリジェント音声システムは、図7Aにおけるインテリジェント音声システムとほぼ同じである。図7Bに示すように、インテリジェント音声システム700は、クラウド型サーバ710及び投影機106aを含み、そのうち、クラウド型サーバ710は、投影機106aに接続され、音声アシスタント102a及び投影機106aを管理及び制御するために用いられる。本実施例では、クラウド型サーバ710は、図1中のクラウド型プラットフォーム104a及び管理サーバ108の組み合わせと見なすことができるので、元々図1におけるクラウド型プラットフォーム104a及び管理サーバ108がそれぞれ実行する操作を統合することができる。また、音声アシスタント102aは、投影機106aに統合されるため、元々図1中の音声アシスタント102a及び投影機106aがそれぞれ実行する操作を統合することができる。 See Figure 7B. It is a diagram illustrating another intelligent voice system based on FIG. 1. The intelligent voice system is almost the same as the intelligent voice system in FIG. 7A. As shown in FIG. 7B, the intelligent voice system 700 includes a cloud-based server 710 and a projector 106a, of which the cloud-based server 710 is connected to the projector 106a to manage and control the voice assistant 102a and the projector 106a. used for In this embodiment, the cloud-based server 710 can be regarded as a combination of the cloud-based platform 104a and the management server 108 in FIG. 1, so the operations originally performed by the cloud-based platform 104a and the management server 108 in FIG. Can be integrated. Furthermore, since the voice assistant 102a is integrated with the projector 106a, operations originally performed by the voice assistant 102a and the projector 106a in FIG. 1 can be integrated.

例を挙げて言えば、投影機106aの音声回路装置102aが投影機106aの制御のための音声信号AS1を受信するときに、音声アシスタント102aは、音声信号AS1から複数の第一キーワードを抽出し、そして、前述の第一キーワードを該クラウド型サーバ710に伝送することができる。図1に関連する説明と同様に、前述の第一キーワードは、投影機106aに対応する第一エイリアスAL1及び第一制御命令CMD1を含んでも良い。 For example, when the audio circuit device 102a of the projector 106a receives the audio signal AS1 for controlling the projector 106a, the audio assistant 102a extracts a plurality of first keywords from the audio signal AS1. , and the aforementioned first keyword can be transmitted to the cloud-based server 710. Similar to the description related to FIG. 1, the first keyword described above may include a first alias AL1 and a first control command CMD1 corresponding to the projector 106a.

また、クラウド型サーバ710は、図1のクラウド型プラットフォーム104aに含まれる第一セマンティック解析プログラム及び複数の第二制御命令CMD2を含んでも良い。クラウド型プラットフォーム104aと同様に、クラウド型サーバ710は、第一セマンティック解析プログラムにより第一制御命令CMD1を解析し、そして、第一制御命令CMD1に基づいて対応する第二制御命令CMD2を取得又はテイクアウト又は生成することができる。 Further, the cloud-based server 710 may include the first semantic analysis program and the plurality of second control instructions CMD2 included in the cloud-based platform 104a of FIG. 1. Similar to the cloud-based platform 104a, the cloud-based server 710 analyzes the first control instruction CMD1 using the first semantic analysis program, and obtains or takes out the corresponding second control instruction CMD2 based on the first control instruction CMD1. or can be generated.

その後、管理サーバ108と同様に、クラウド型サーバ710は、第一エイリアスAL1に基づいて投影機106aにアクセスし、そして、第一制御命令に対応する第二制御命令CMD1に従って投影機106aを第一作動状態に調整することができる。なお、本実施例の関連操作の細部も前の実施例における説明を参照することができるため、ここでは、その詳しい記載を省略する。 Thereafter, similar to the management server 108, the cloud-based server 710 accesses the projector 106a based on the first alias AL1, and controls the projector 106a to the first projector 106a according to the second control instruction CMD1 corresponding to the first control instruction. Can be adjusted to working condition. Note that the details of the related operations in this embodiment can also be referred to the explanations in the previous embodiments, so detailed description thereof will be omitted here.

以上のことから分かるように、本発明によるインテリジェント音声システム及び投影機制御方法は、使用者が音声アシスタントに音声信号を与える方式で投影機を制御する目的を達成するようにさせることができる。また、異なるメーカーにより製造される音声アシスタントについて、本発明は、それ相応のシステムを提案することで、使用者がスムーズに、これらの音声アシスタントを用いて1つ又は複数の同じメーカーにより製造される投影機を制御するようにさせることもできる。これにより、本発明は、新規で直覚的且つ便利な投影機制御システムを提供することができる。 As can be seen from the above, the intelligent voice system and projector control method according to the present invention can enable a user to achieve the purpose of controlling a projector by providing voice signals to a voice assistant. Moreover, for voice assistants manufactured by different manufacturers, the present invention proposes a corresponding system so that users can smoothly use these voice assistants manufactured by one or more of the same manufacturers. It can also be made to control the projector. Thereby, the present invention can provide a new, intuitive, and convenient projector control system.

他の実施例では、本発明は、さらに、使用者は、音声アシスタントにより、投影機が映像・音声プラットフォームインターフェースを投影するように制御し得る技術を提供する。以下、詳細に説明する。 In another embodiment, the present invention further provides a technique by which a user may control the projector to project the video-audio platform interface by means of a voice assistant. This will be explained in detail below.

まず、使用者は、図1に示す方式で、投影機106aが映像・音声プラットフォームインターフェース(例えば、YoutubeTMインターフェース)を投影するように制御することができる。具体的に言えば、図1中の音声信号AS1が、投影機106aの映像・音声プラットフォームインターフェースの投影を制御するためのものであるとすれば、音声アシスタント102aは、音声信号AS1から複数のキーワードを抽出し、そして、これらのキーワードをクラウド型プラットフォーム104aに転送することができる。上述のキーワードは、投影機106aの第一エイリアスAL1及び第一制御命令CMD1(例えば、「映像・音声プラットフォームインターフェースをスタートする」)を含んでも良い。 First, the user can control the projector 106a to project a video/audio platform interface (eg, Youtube TM interface) in the manner shown in FIG. 1 . Specifically, if audio signal AS1 in FIG. and then transfer these keywords to the cloud-based platform 104a. The above-mentioned keywords may include a first alias AL1 of the projector 106a and a first control command CMD1 (eg, "start the video/audio platform interface").

その後、クラウド型プラットフォーム104aは、第一音声解析プログラムにより第一制御命令CMD1を解析し、そして、第一制御命令CMD1に基づいて対応する第二制御命令CMD2を見つけることができる。続いて、クラウド型プラットフォーム104aは、投影機106aの第一エイリアスAL1及び第一制御命令CMD1に対応する第二制御命令CMD2を管理サーバ108に転送することができる。それ相応に、管理サーバ108は、第一エイリアスAL1に応じて投影機106aをアクセス/制御し、そして、第二制御命令CMD2に基づいて投影機106aの第一応用プログラムを起動することができる。 After that, the cloud-based platform 104a can analyze the first control command CMD1 by the first voice analysis program and find the corresponding second control command CMD2 based on the first control command CMD1. Subsequently, the cloud-based platform 104a may transfer the first alias AL1 of the projector 106a and the second control command CMD2 corresponding to the first control command CMD1 to the management server 108. Accordingly, the management server 108 can access/control the projector 106a according to the first alias AL1 and launch the first application program of the projector 106a according to the second control command CMD2.

本実施例では、上述の第一応用プログラムは、投影機106aの記憶装置(例えば、記憶器、フラッシュメモリなど)(図示せず)に記憶することができる。上述の第一応用プログラム(例えば、YoutubeTMを実行可能な応用プログラム)が起動されると、投影機106aは、それ相応に上述の映像・音声プラットフォームインターフェースを提供する第一Webサイト(例えば、YoutubeTM Webサイト)に接続することができる。投影機106aは、第一Webサイトからの映像・音声信号を受信した後に、それ相応に上述の映像・音声プラットフォームインターフェースを投影表面に投影することができ、この投影表面は、例えば、スクリーン又は壁面である。他の実施例では、投影機106aは、無線ネットワーク媒体及び/又は有線ネットワーク媒体(例えば、ネットワークカード又は関連dongle、或いは、Bluetooth(登録商標)、Wi-Fi、Zigbee又は他の無線伝送媒体を用いて伝送を行っても良いが、これに限定されず、或いは、光ファイバー又は他の有線伝送インターフェースを採用して伝送を行っても良いが、これに限定されない)が備わり、これにより、上述の映像・音声信号を受信することができる。 In this embodiment, the first application program described above can be stored in a storage device (eg, storage, flash memory, etc.) (not shown) of the projector 106a. When the above-mentioned first application program (e.g., an application program capable of executing Youtube TM ) is started, the projector 106a correspondingly starts the above-mentioned first website (e.g., Youtube TM executable application program) providing the above-mentioned video/audio platform interface. TM website). After receiving the video/audio signal from the first website, the projector 106a can accordingly project the aforementioned video/audio platform interface onto a projection surface, such as a screen or a wall. It is. In other embodiments, the projector 106a uses a wireless network medium and/or a wired network medium (e.g., a network card or associated dongle, or Bluetooth, Wi-Fi, Zigbee, or other wireless transmission medium). The transmission may be carried out by using optical fiber or other wired transmission interfaces (including, but not limited to, transmission may be carried out by using optical fiber or other wired transmission interfaces), thereby making it possible to transmit the above-mentioned video. -Can receive audio signals.

投影機106aが制御されて上述の映像・音声プラットフォームインターフェースを投影した後に、本発明は、さらに、使用者が音声アシスタント102aにより、投影機106aの映像・音声プラットフォームインターフェースの投影を制御するようにさせることができ、その細部は、以下の通りである。 After the projector 106a is controlled to project the above-mentioned video and audio platform interface, the present invention further allows the user to control the projection of the video and audio platform interface of the projector 106a by the voice assistant 102a. The details are as follows.

図8及び図9を参照する。そのうち、図8は、図1に基づくインテリジェント音声システムにより、映像・音声プラットフォームインターフェースの投影を制御することを示す図であり、図9は、図8に基づく投影機制御方法のフローチャートである。図9に示す方法は、図8におけるインテリジェント音声システム100により実行することができ、以下、図8に示す装置を参照しながら図9の各ステップの細部を説明する。 See FIGS. 8 and 9. Among them, FIG. 8 is a diagram showing controlling the projection of the video/audio platform interface by the intelligent audio system based on FIG. 1, and FIG. 9 is a flowchart of the projector control method based on FIG. 8. The method shown in FIG. 9 can be performed by the intelligent voice system 100 in FIG. 8, and the details of each step in FIG. 9 will be described below with reference to the apparatus shown in FIG. 8.

まず、ステップS910では、音声アシスタント102aが映像・音声プラットフォームインターフェースの制御のための音声信号AS1’を受信するときに、音声アシスタント102aは、音声信号AS1’から複数のキーワードを抽出/取得し、そして、これらのキーワードをクラウド型プラットフォーム104aに転送することができ、そのうち、前述のキーワードは、投影機106aに対応する第一エイリアスAL1及び第一インターフェース制御命令ICMD1を含む。前述のキーワードは、さらに、映像・音声プラットフォームインターフェースをウェークするための呼び名を含んでも良い。本実施例では、クラウド型プラットフォーム104aは、さらに、複数の第二インターフェース制御命令ICMD2を含む。 First, in step S910, when the voice assistant 102a receives the voice signal AS1' for controlling the video/audio platform interface, the voice assistant 102a extracts/obtains a plurality of keywords from the voice signal AS1', and , these keywords can be transferred to the cloud-based platform 104a, among which the aforementioned keywords include a first alias AL1 and a first interface control command ICMD1 corresponding to the projector 106a. The aforementioned keywords may further include a name for waking the video/audio platform interface. In this embodiment, the cloud-based platform 104a further includes a plurality of second interface control instructions ICMD2.

その後、ステップS920では、クラウド型プラットフォーム104aは、第一セマンティック解析プログラムにより第一インターフェース制御命令ICMD1を解析し、第一インターフェース制御命令ICMD1に基づいて対応する第二インターフェース制御命令ICMD2を取得し、そして、投影機106aの第一エイリアスAL1及び第一インターフェース制御命令ICMD1に対応する第二インターフェース制御命令ICMD2を管理サーバ108に伝送することができる。 Then, in step S920, the cloud-based platform 104a analyzes the first interface control instruction ICMD1 by the first semantic analysis program, obtains the corresponding second interface control instruction ICMD2 based on the first interface control instruction ICMD1, and , a first alias AL1 of the projector 106a and a second interface control command ICMD2 corresponding to the first interface control command ICMD1 can be transmitted to the management server 108.

続いて、ステップS930では、管理サーバ108は、第一エイリアスAL1に基づいて投影機106aをアクセス/制御し、そして、投影機106aの映像・音声プラットフォームインターフェースの投影を調整することができる。本実施例では、投影機106aのマイクロプロセッサ106a1は、第二インターフェース制御命令ICMD2を受信し、そして、対応する第三インターフェース制御命令ICMD3を、上述の第一応用プログラムの操作を制御するために生成し、これにより、映像・音声プラットフォームインターフェースの投影を調整する効果を達成することができる。 Subsequently, in step S930, the management server 108 may access/control the projector 106a based on the first alias AL1 and adjust the projection of the video and audio platform interface of the projector 106a. In this embodiment, the microprocessor 106a1 of the projector 106a receives the second interface control instruction ICMD2 and generates a corresponding third interface control instruction ICMD3 to control the operation of the first application program described above. Therefore, the effect of adjusting the projection of the video/audio platform interface can be achieved.

他の実施例では、第二インターフェース制御命令ICMD2及びそれに対応する第三インターフェース制御命令ICMD3は、異なる態様を有しても良く、これにより、使用者は、ニーズに応じて映像・音声プラットフォームインターフェースの投影を制御することができる。以下、本発明のコンセプトをより明確にするために、複数の具体的な実施例を挙げてさらに説明する。 In other embodiments, the second interface control command ICMD2 and the corresponding third interface control command ICMD3 may have different aspects, so that the user can adjust the video/audio platform interface according to his needs. Projection can be controlled. Hereinafter, in order to make the concept of the present invention more clear, a plurality of specific examples will be given and further explained.

図10を参照する。それは、図8及び図9に基づく映像・音声プラットフォームインターフェース中での検索操作の実行を示す図である。本実施例では、映像・音声プラットフォームインターフェース1010aは、例えば、投影機106aが第二制御命令CMD2に基づいて第一応用プログラムを起動した後に表示する所定の画面であり、それは、検索ボックス1011を含む。さらに説明すると、この所定の画面は、映像・音声プラットフォームインターフェース1010aの画面であり、例えば、YoutubeTMホームページの最初のページである。 See Figure 10. It is a diagram illustrating the execution of a search operation in the video/audio platform interface based on FIGS. 8 and 9. In this embodiment, the video/audio platform interface 1010a is, for example, a predetermined screen displayed after the projector 106a starts the first application program based on the second control command CMD2, and it includes a search box 1011. . To explain further, this predetermined screen is a screen of the video/audio platform interface 1010a, for example, the first page of the Youtube TM homepage.

本実施例では、映像・音声プラットフォームインターフェースを既にスタートしているときに、使用者は、例えば、音声アシスタント102aに、第一エイリアスAL1及び「xxxを検索する」(xxxは、検索しようとする映像・音声のキーワードである)などのキーワードを含む音声信号AS1’を与えることができる。それ相応に、音声アシスタント102aは、「xxxを検索する」を第一インターフェース制御命令ICMD1とし、そして、それを第一エイリアスAL1とともにクラウド型プラットフォーム104aに伝送することができる。その後、クラウド型プラットフォーム104aは、第一インターフェース制御命令ICMD1を解析することで対応する第二インターフェース制御命令ICMD2を見つけることができる。本実施例では、第二インターフェース制御命令ICMD2は、「検索する」との映像・音声検索命令及び「xxx」との検索キーワードを含んでも良い。 In this embodiment, when the video/audio platform interface has already been started, the user may, for example, instruct the voice assistant 102a with the first alias AL1 and "Search for xxx" (xxx is the video to be searched). It is possible to provide an audio signal AS1' that includes a keyword such as ・A keyword for audio. Accordingly, the voice assistant 102a may take "search for xxx" as the first interface control command ICMD1 and transmit it to the cloud-based platform 104a along with the first alias AL1. Thereafter, the cloud-based platform 104a can find the corresponding second interface control instruction ICMD2 by analyzing the first interface control instruction ICMD1. In this embodiment, the second interface control command ICMD2 may include a video/audio search command of "search" and a search keyword of "xxx".

その後、管理サーバ108は、第一エイリアスAL1に従って投影機106aにアクセスし、そして、第二インターフェース制御命令ICMD2に基づいて投影機106aの投影を制御することができる。それ相応に、投影機106aの第一応用プログラムは、上述の検索キーワードに基づいて第一Webサイト上で検索を行い、上述の検索キーワードに対応する1つ又は複数の映像・音声項目1021、1022などを見つけることができる。そ後、投影機106aは、それ相応に映像・音声プラットフォームインターフェース1010bを投影することができ、それは、検索した映像・音声項目1021、1022を含み、図10に示すようである。これにより、使用者は、音声アシスタント102aにより、映像・音声プラットフォームインターフェース上での検索操作を実現することができる。 The management server 108 can then access the projector 106a according to the first alias AL1 and control the projection of the projector 106a based on the second interface control instruction ICMD2. Correspondingly, the first application program of the projector 106a performs a search on the first website based on the above-mentioned search keywords, and searches one or more video/audio items 1021, 1022 corresponding to the above-mentioned search keywords. etc. can be found. Then, the projector 106a can accordingly project the video/audio platform interface 1010b, which includes the retrieved video/audio items 1021, 1022, as shown in FIG. This allows the user to perform a search operation on the video/audio platform interface using the voice assistant 102a.

図11を参照する。それは、図10に基づく映像・音声プラットフォームインターフェース中でインターフェーススクロールの実行を示す図である。本実施例では、投影機106aは、映像・音声プラットフォームインターフェース1010bを投影しており、それは、映像・音声項目1021、1022などを含むとする。 See Figure 11. It is a diagram illustrating the implementation of interface scrolling in the video/audio platform interface based on FIG. 10. In this embodiment, it is assumed that the projector 106a is projecting a video/audio platform interface 1010b, which includes video/audio items 1021, 1022, etc.

本実施例では、使用者は、例えば、音声アシスタント102aに、第一エイリアスAL1及び「下にスクロールする」などのキーワードを含む音声信号AS1’を与えることができる。それ相応に、音声アシスタント102aは、「下にスクロールする」を第一インターフェース制御命令ICMD1とし、そして、それを第一エイリアスAL1と一緒にクラウド型プラットフォーム104aに伝送することができる。その後、クラウド型プラットフォーム104aは、第一インターフェース制御命令ICMD1を解析して対応する第二インターフェース制御命令ICMD2を見つけることができる。本実施例では、第二インターフェース制御命令ICMD2は、「下にスクロールする」とのインターフェーススクロール指令信号を含んでも良い。 In this embodiment, the user may, for example, provide the voice assistant 102a with a voice signal AS1' that includes a first alias AL1 and a keyword such as "scroll down". Accordingly, the voice assistant 102a may take "scroll down" as the first interface control command ICMD1 and transmit it together with the first alias AL1 to the cloud-based platform 104a. The cloud-based platform 104a can then analyze the first interface control instruction ICMD1 to find the corresponding second interface control instruction ICMD2. In this embodiment, the second interface control command ICMD2 may include an interface scroll command signal to "scroll down."

その後、管理サーバ108は、第一エイリアスAL1に応じて投影機106aにアクセスし、そして、第二インターフェース制御命令ICMD2に基づいて、投影機106aの投影を制御することができる。それ相応に、投影機106aの第一応用プログラムは、上述のインターフェーススクロール指令信号に基づいて、映像・音声プラットフォームインターフェース1010bをスクロールすることができる。その後、投影機106aは、それ相応に、スクロール中の映像・音声プラットフォームインターフェース1010bを投影することができる。 Thereafter, the management server 108 can access the projector 106a according to the first alias AL1 and control the projection of the projector 106a based on the second interface control instruction ICMD2. Correspondingly, the first application program of the projector 106a may scroll the video/audio platform interface 1010b based on the interface scroll command signal described above. Projector 106a may then project the scrolling video and audio platform interface 1010b accordingly.

一実施例では、使用者は、映像・音声プラットフォームインターフェース1010bがスクロールされている過程で音声アシスタント102aに、第一エイリアスAL1及び「スクロールを停止する」などのキーワードを含む音声信号AS1’を与えることができる。それ相応に、音声アシスタント102aは、「スクロールを停止する」を第一インターフェース制御命令ICMD1とし、そして、それを第一エイリアスAL1とともにクラウド型プラットフォーム104aに伝送することができる。その後、クラウド型プラットフォーム104aは、第一インターフェース制御命令ICMD1を解析して対応する第二インターフェース制御命令ICMD2を見つけることができる。本実施例では、第二インターフェース制御命令ICMD2は、「スクロールを停止する」とのスクロール停止指令信号を含んでも良い。 In one embodiment, the user provides the audio assistant 102a with the audio signal AS1' including the first alias AL1 and a keyword such as "stop scrolling" while the video and audio platform interface 1010b is being scrolled. I can do it. Accordingly, the voice assistant 102a may take "stop scrolling" as the first interface control command ICMD1 and transmit it to the cloud-based platform 104a along with the first alias AL1. The cloud-based platform 104a can then analyze the first interface control instruction ICMD1 to find the corresponding second interface control instruction ICMD2. In this embodiment, the second interface control command ICMD2 may include a scroll stop command signal to "stop scrolling."

その後、管理サーバ108は、第一エイリアスAL1に基づいて投影機106aにアクセスし、そして、第二インターフェース制御命令ICMD2に従って投影機106aの投影を制御することができる。それ相応に、投影機106aの第一応用プログラムは、上述のスクロール停止指令信号に基づいて、映像・音声プラットフォームインターフェース1010bのスクロールを停止することができる。その後、投影機106aは、それ相応に、映像・音声プラットフォームインターフェース1010c(即ち、スクロール停止後の映像・音声プラットフォームインターフェース1010b)を投影することができ、それは、検索した映像・音声項目1022、1023、…、102Nを含み、図11に示すようである。これにより、使用者は、音声アシスタント102aにより、映像・音声プラットフォームインターフェース上でのインターフェーススクロール操作を実現することができる。 Thereafter, the management server 108 can access the projector 106a based on the first alias AL1 and control the projection of the projector 106a according to the second interface control instruction ICMD2. Accordingly, the first application program of the projector 106a may stop scrolling of the video/audio platform interface 1010b based on the above-mentioned scroll stop command signal. Thereafter, the projector 106a may accordingly project the video and audio platform interface 1010c (i.e., the video and audio platform interface 1010b after scrolling stops), which includes the searched video and audio items 1022, 1023, ..., 102N, as shown in FIG. This allows the user to perform an interface scrolling operation on the video/audio platform interface using the voice assistant 102a.

図12を参照する。それは、図11に基づく映像・音声プラットフォームインターフェース中での再生操作の実行を示す図である。本実施例では、投影機106aは、現在に映像・音声プラットフォームインターフェース1010cを投影しており、それは、映像・音声項目1022、1023、…、102Nを含み、且つ各映像・音声項目1022~102Nは、それぞれ、対応する項目ラベル1022a、1023a、…、102Naを有するとする。 See Figure 12. It is a diagram illustrating the execution of playback operations in the video and audio platform interface based on FIG. 11. In this embodiment, the projector 106a is currently projecting a video/audio platform interface 1010c, which includes video/audio items 1022, 1023,..., 102N, and each video/audio item 1022-102N is , respectively have corresponding item labels 1022a, 1023a,..., 102Na.

本実施例では、使用者は、例えば、音声アシスタント102aに、第一エイリアスAL1及び「ラベルooを再生する」(ラベルooは、再生しようとする映像・音声項目に対応する項目ラベルである)などのキーワードを含む音声信号AS1’を与えることができる。説明の便宜のため、以下、使用者は映像・音声項目102Naを再生しようとし、即ち、使用者は「ラベルNを再生する」とのように言うとするが、本発明は、これに限定されない。 In this embodiment, the user may, for example, send the voice assistant 102a a first alias AL1 and "play label oo" (label oo is an item label corresponding to the video/audio item to be played), etc. An audio signal AS1' containing the keyword can be given. For convenience of explanation, hereinafter, it is assumed that the user tries to play the video/audio item 102Na, that is, the user says "play label N", but the present invention is not limited to this. .

それ相応に、音声アシスタント102aは、「ラベルNを再生する」を第一インターフェース制御命令ICMD1とし、そして、それを第一エイリアスAL1と一緒にクラウド型プラットフォーム104aに伝送することができる。その後、クラウド型プラットフォーム104aは、第一インターフェース制御命令ICMD1を解析して対応する第二インターフェース制御命令ICMD2を見つけることができる。本実施例では、第二インターフェース制御命令ICMD2は、「再生する」との再生指令及び「ラベルN」との再生ラベルを含んでも良い。 Accordingly, the voice assistant 102a may take "play label N" as the first interface control command ICMD1 and transmit it to the cloud-based platform 104a together with the first alias AL1. The cloud-based platform 104a can then analyze the first interface control instruction ICMD1 to find the corresponding second interface control instruction ICMD2. In this embodiment, the second interface control command ICMD2 may include a reproduction command of "play" and a reproduction label of "label N."

その後、管理サーバ108は、第一エイリアスAL1に従って投影機106aにアクセスし、そして、第二インターフェース制御命令ICMD2に基づいて投影機106aの投影を制御することができる。それ相応に、投影機106aの第一応用プログラムは、上述の再生指令及び再生ラベルに基づいて、「ラベルN」に対応する映像・音声項目102Nを再生することができる。その後、投影機106aは、それ相応に、映像・音声プラットフォームインターフェース1010dを投影することができ、それは、例えば、映像・音声項目102Nの映像・音声コンテンツを含み、図12に示すようである。これにより、使用者は、音声アシスタント102aにより、映像・音声プラットフォームインターフェース上での再生操作を実現することができる。 The management server 108 can then access the projector 106a according to the first alias AL1 and control the projection of the projector 106a based on the second interface control instruction ICMD2. Correspondingly, the first application program of the projector 106a can reproduce the video/audio item 102N corresponding to "label N" based on the above-mentioned reproduction command and reproduction label. The projector 106a may then accordingly project the video/audio platform interface 1010d, which includes the video/audio content of the video/audio item 102N, for example, as shown in FIG. 12. This allows the user to perform playback operations on the video/audio platform interface using the voice assistant 102a.

図13を参照する。それは、図12に基づく映像・音声プラットフォームインターフェース中でのブックマーク追加操作の実行を示す図である。本実施例では、投影機106aは現在に映像・音声プラットフォームインターフェース1010dを投影しており、それは、例えば、映像・音声項目102Nの映像・音声コンテンツであるとする。 See Figure 13. It is a diagram illustrating the execution of a bookmark addition operation in the video/audio platform interface based on FIG. 12; In this embodiment, it is assumed that the projector 106a is currently projecting the video/audio platform interface 1010d, which is, for example, the video/audio content of the video/audio item 102N.

本実施例では、使用者は、例えば、音声アシスタント102aに、第一エイリアスAL1及び「ブックマークzzzを追加する」(そのうち、zzzは、使用者がニーズに応じて設定するブックマークの名前である)などのキーワードを含む音声信号AS1’を与えることができる。 In this embodiment, the user can, for example, send the first alias AL1 to the voice assistant 102a and "add bookmark zzz" (wherein, zzz is the name of the bookmark that the user sets according to his needs), etc. An audio signal AS1' containing the keyword can be given.

それ相応に、音声アシスタント102aは、「ブックマークzzzを追加する」を第一インターフェース制御命令ICMD1とし、そして、それを第一エイリアスAL1とともにクラウド型プラットフォーム104aに伝送することができる。その後、クラウド型プラットフォーム104aは、第一インターフェース制御命令ICMD1を解析して対応する第二インターフェース制御命令ICMD2を見つけることができる。本実施例では、第二インターフェース制御命令ICMD2は、「ブックマークを追加する」とのブックマーク追加指令及び「zzz」とのブックマークの名前を含んでも良い。 Accordingly, the voice assistant 102a may take "add bookmark zzz" as the first interface control command ICMD1 and transmit it to the cloud-based platform 104a along with the first alias AL1. The cloud-based platform 104a can then analyze the first interface control instruction ICMD1 to find the corresponding second interface control instruction ICMD2. In this embodiment, the second interface control command ICMD2 may include a bookmark addition command "add bookmark" and the name of the bookmark "zzz".

その後、管理サーバ108は、第一エイリアスAL1に従って投影機106aにアクセスし、そして、第二インターフェース制御命令ICMD2に基づいて投影機106aの投影を制御することができる。それ相応に、投影機106aの第一応用プログラムは、上述のブックマーク追加指令及びブックマークの名前に基づいて映像・音声プラットフォームインターフェース1010d上で映像・音声項目102Nの映像・音声コンテンツをブックマークの名前(即ち、zzz)として示すことができる。その後、投影機106aは、それ相応に映像・音声プラットフォームインターフェース1010eを投影することができ、それは、例えば、ブックマークが成功裏に追加されている(Bookmark zzz added)とのような情報1310を表示することができ、図13に示すようである。なお、投影機106aの第一応用プログラムにより映像・音声項目102Nの映像・音声コンテンツをブックマークの名前(即ち、zzz)として示す情報は、映像・音声プラットフォームのサーバ(図示せず)に記憶することができる。 The management server 108 can then access the projector 106a according to the first alias AL1 and control the projection of the projector 106a based on the second interface control instruction ICMD2. Correspondingly, the first application program of the projector 106a adds the video/audio content of the video/audio item 102N on the video/audio platform interface 1010d based on the above-mentioned bookmark addition command and the bookmark name (i.e. ,zzz). The projector 106a may then project the video/audio platform interface 1010e accordingly, which displays information 1310, such as that the bookmark has been successfully added (Bookmark zzz added). This can be done as shown in Figure 13. Note that information indicating the video/audio content of the video/audio item 102N as a bookmark name (i.e., zzz) by the first application program of the projector 106a is stored in the server (not shown) of the video/audio platform. I can do it.

上述のブックマーク追加操作が行われた後に、本発明は、使用者が直覚的且つ簡単に追加済みのブックマークを再生する技術を提供することもでき、その細部は、以下の通りである。 After the above-described bookmark addition operation is performed, the present invention can also provide a technique for the user to intuitively and easily reproduce the added bookmark, the details of which are as follows.

図14を参照する。それは、図13に基づく映像・音声プラットフォームインターフェース中でのブックマーク追加操作の実行を示す図である。本実施例では、投影機106aは現在に映像・音声プラットフォームインターフェース1010aを投影しているとする。 See Figure 14. It is a diagram illustrating the execution of the bookmark addition operation in the video/audio platform interface based on FIG. 13. In this embodiment, it is assumed that the projector 106a is currently projecting the video/audio platform interface 1010a.

本実施例では、使用者は、例えば、音声アシスタント102aに、第一エイリアスAL1及び「ブックマークzzzを再生する」(そのうち、zzzは、使用者が追加したブックマークであり、図13に示すようである)などのキーワードを含む音声信号AS1’を与えることができる。 In this embodiment, the user may, for example, send the voice assistant 102a a first alias AL1 and "play bookmark zzz" (where zzz is a bookmark added by the user, as shown in FIG. 13). ) can be given as an audio signal AS1' containing keywords such as

それ相応に、音声アシスタント102aは、「ブックマークzzzを再生する」を第一インターフェース制御命令ICMD1とし、そして、それを第一エイリアスAL1とともにクラウド型プラットフォーム104aに伝送することができる。その後、クラウド型プラットフォーム104aは、第一インターフェース制御命令ICMD1を解析して対応する第二インターフェース制御命令ICMD2を見つけることができる。本実施例では、第二インターフェース制御命令ICMD2は、「ブックマークを再生する」とのブックマーク再生指令及び「zzz」とのブックマークの名前を含んでも良い。 Accordingly, the voice assistant 102a may take "play bookmark zzz" as the first interface control command ICMD1 and transmit it to the cloud-based platform 104a with the first alias AL1. The cloud-based platform 104a can then analyze the first interface control instruction ICMD1 to find the corresponding second interface control instruction ICMD2. In the present embodiment, the second interface control command ICMD2 may include a bookmark playback command of "playback bookmark" and the name of the bookmark of "zzz".

その後、管理サーバ108は、第一エイリアスAL1に基づいて投影機106aにアクセスし、そして、第二インターフェース制御命令ICMD2に従って投影機106aの投影を制御することができる。それ相応に、投影機106aの第一応用プログラムは、上述のブックマーク再生指令及びブックマークの名前に基づいて、映像・音声プラットフォームのサーバに記憶されている、ブックマークの名前に対応する映像・音声コンテンツを投影機106aに提供し、これにより、投影機106aは、ブックマークの名前に対応する映像・音声コンテンツを再生することができる。図13に示すように、投影機106aは、それ相応に、映像・音声プラットフォームインターフェース1010dを投影することができ、それは、映像・音声項目102Nの映像・音声コンテンツの他に、ブックマークが成功裏に再生されている(Bookmark zzz played)とのような情報1410を表示することもできる。 Thereafter, the management server 108 can access the projector 106a based on the first alias AL1 and control the projection of the projector 106a according to the second interface control instruction ICMD2. Accordingly, the first application program of the projector 106a plays the video/audio content corresponding to the bookmark name stored in the server of the video/audio platform based on the bookmark playback command and the bookmark name mentioned above. The information is provided to the projector 106a, so that the projector 106a can reproduce the video/audio content corresponding to the bookmark name. As shown in FIG. 13, the projector 106a can accordingly project the video/audio platform interface 1010d, which in addition to the video/audio content of the video/audio item 102N, the bookmark can be successfully Information 1410 such as "Bookmark zzz played" can also be displayed.

以上から分かるように、本発明は、使用者が音声アシスタント102aにより映像・音声プラットフォームインターフェース上でのブックマーク追加操作を実現するようにさせることができる。また、本発明は、さらに、使用者が音声信号を与える方式で、前に追加されたブックマークを再生するようにさせることで、新規で直覚的且つ便利な操作方法を提供することができる。 As can be seen from the above, the present invention allows the user to perform the bookmark addition operation on the video/audio platform interface using the voice assistant 102a. In addition, the present invention can further provide a novel, intuitive, and convenient operating method by allowing the user to play back previously added bookmarks by providing an audio signal.

以上のことをまとめると、本発明の実施例によるインテリジェント音声システム及び投影機制御方法は、使用者が音声アシスタントに音声信号を与える方式で投影機を制御する目的を達成するようにさせることができる。また、異なるメーカーにより製造される音声アシスタントについて、本発明は、それ相応のシステムを提案することで、使用者がスムーズに、これらの音声アシスタントを用いて1つ又は複数の同じメーカーにより製造される投影機を制御するようにさせることもできる。 In summary, the intelligent voice system and projector control method according to embodiments of the present invention can enable a user to achieve the purpose of controlling a projector by providing voice signals to a voice assistant. . Moreover, for voice assistants manufactured by different manufacturers, the present invention proposes a corresponding system so that users can smoothly use these voice assistants manufactured by one or more of the same manufacturers. It can also be made to control the projector.

また、本発明の実施例によるインテリジェント音声システムは、使用者が投影機に統合される音声回路装置に音声信号を与える方式で投影機の制御の目的を達成するようにさせることができる。 In addition, the intelligent audio system according to an embodiment of the present invention can enable a user to achieve the purpose of controlling the projector by providing audio signals to the audio circuit device integrated in the projector.

使用者が音声アシスタントにより投影機の映像・音声プラットフォームインターフェースの投影を制御した後に、本発明は、さらに、更なる制御システムを提案し、これによって、使用者が音声アシスタントに音声信号を与える方式で投影機の映像・音声プラットフォームインターフェースの投影に関する操作、例えば、検索、スクロール、スクロールの停止、ある映像・音声項目の再生、ある映像・音声項目に対応するブックマークの追加、あるブックマークの再生などを制御するようにさせることができる。これにより、使用者に、新規で直覚的且つ便利な投影機制御システムを提供することができる。 After the user controls the projection of the video-audio platform interface of the projector by the voice assistant, the present invention further proposes a further control system, whereby the user can provide a voice signal to the voice assistant. Control operations related to projection of the video/audio platform interface of the projector, such as searching, scrolling, stopping scrolling, playing a certain video/audio item, adding a bookmark corresponding to a certain video/audio item, playing a certain bookmark, etc. can be made to do so. This makes it possible to provide the user with a new, intuitive, and convenient projector control system.

本発明は、前述した好適な実施例に基づいて以上のように開示されたが、前述した好適な実施例は、本発明を限定するためのものでなく、当業者は、本発明の技術的思想と範囲を離脱しない限り、本発明に対して些細な変更と潤色を行うことができるので、本発明の保護範囲は、添付した特許請求の範囲に定まったものを基準とする。また、本発明の何れの実施例又は特許請求の範囲は、本発明に開示されたすべての目的又は利点又は特徴を達成する必要がない。また、要約の一部と発明の名称は、文献の検索を助けるためのみのものであり、本発明の技術的範囲を限定するものでない。また、本明細書又は特許請求の範囲に言及されている「第一」、「第二」などの用語は、要素(element)に名前を付け、又は、他の実施例又は範囲を区別するためのものみであり、要素の数量上での上限又は下限を限定するためのものでない。 Although the present invention has been disclosed above based on the preferred embodiments described above, the preferred embodiments described above are not intended to limit the present invention, and those skilled in the art will understand the technical aspects of the present invention. Since minor changes and embellishments may be made to the present invention without departing from its spirit and scope, the protection scope of the present invention shall be based on what is defined in the appended claims. Moreover, it is not necessary for any embodiment of the invention or the claims to achieve all objects or advantages or features disclosed in the invention. Furthermore, the part of the abstract and the title of the invention are only for assisting in searching for documents, and do not limit the technical scope of the present invention. In addition, terms such as "first", "second", etc. referred to in the specification or the claims are used to name an element or to distinguish between other embodiments or scopes. It is not intended to limit the upper or lower limit of the quantity of elements.

Claims (40)

第一音声アシスタント、第一クラウド型プラットフォーム、第一投影機、及び管理サーバを含むインテリジェント音声システムであって、
前記第一クラウド型プラットフォームは、前記第一音声アシスタントに接続され、前記第一音声アシスタントを管理し、
前記管理サーバは、前記第一クラウド型プラットフォーム及び前記第一投影機に接続され、前記第一投影機を管理及び制御し、
前記第一音声アシスタントが前記第一投影機を制御するための第一音声信号を受信するときに、前記第一音声アシスタントは、前記第一音声信号から複数の第一キーワードを抽出し、前記複数の第一キーワードを前記第一クラウド型プラットフォームに伝送し、
前記複数の第一キーワードは、前記第一投影機に対応する第一エイリアス及び第一制御命令を含み、前記第一クラウド型プラットフォームは、第一セマンティック解析プログラムを含み、前記第一クラウド型プラットフォームは、複数の第二制御命令を含み、前記第一クラウド型プラットフォームは、前記第一セマンティック解析プログラムにより前記第一制御命令を解析し、前記第一制御命令に基づいて対応する前記第二制御命令を取得又はテイクアウト又は生成し、前記第一投影機の前記第一エイリアス及び対応する前記第二制御命令を前記管理サーバに伝送し、前記管理サーバは、前記第一エイリアスに従って前記第一投影機にアクセスし、前記対応する前記第二制御命令に基づいて前記第一投影機を第一作動状態に調整し、
前記インテリジェント音声システムは、
第二音声アシスタント;及び
前記第二音声アシスタント及び前記管理サーバに接続され、前記第二音声アシスタントを管理するための第二クラウド型プラットフォームをさらに含み、
前記第二音声アシスタントが前記第一投影機を制御するための第二音声信号を受信するときに、前記第二音声アシスタントは、前記第二音声信号から複数の第二キーワードを抽出し、前記複数の第二キーワードを前記第二クラウド型プラットフォームに伝送し、前記複数の第二キーワードは、前記第一投影機に対応する前記第一エイリアス及び第六制御命令を含み、
前記第二クラウド型プラットフォームは、第二セマンティック解析プログラムを含み、前記第二クラウド型プラットフォームは、複数の第七制御命令を含み、前記第二クラウド型プラットフォームは、前記第二セマンティック解析プログラムにより前記第六制御命令を解析し、前記第六制御命令に基づいて対応する前記第七制御命令を取得し、前記第一投影機の前記第一エイリアス及び前記第六制御命令に対応する前記第七制御命令を前記管理サーバに伝送し、前記管理サーバは、前記第一エイリアスに従って前記第一投影機にアクセスし、前記第六制御命令に対応する前記第七制御命令に基づいて前記第一投影機を第二作動状態に調整し、
前記第一音声信号の語系は、前記第二音声信号の語系と同じであり、
前記第一音声アシスタントが前記第一投影機を制御するための前記第二音声信号も受信するときに、前記第一音声アシスタントは、前記第二音声信号から前記複数の第二キーワードを抽出し、前記複数の第二キーワードを前記第一クラウド型プラットフォームに伝送し、前記複数の第二キーワードは、前記第一投影機に対応する前記第一エイリアス及び前記第六制御命令を含み、
前記第一クラウド型プラットフォームは、前記第一セマンティック解析プログラムにより前記第六制御命令を解析し、前記第六制御命令に基づいて第八制御命令を取得し、前記第一投影機の前記第一エイリアス及び前記第八制御命令を前記管理サーバに伝送し、
前記管理サーバは、前記第一エイリアスに従って前記第一投影機にアクセスし、前記第六制御命令に対応する前記第八制御命令に基づいて前記第一投影機を再び前記第二作動状態に調整する、インテリジェント音声システム。
An intelligent voice system including a first voice assistant, a first cloud-based platform, a first projector, and a management server,
the first cloud-based platform is connected to the first voice assistant and manages the first voice assistant;
The management server is connected to the first cloud platform and the first projector, and manages and controls the first projector;
When the first voice assistant receives a first voice signal for controlling the first projector, the first voice assistant extracts a plurality of first keywords from the first voice signal, and extracts a plurality of first keywords from the first voice signal. transmitting a first keyword to the first cloud platform;
The plurality of first keywords include a first alias and a first control command corresponding to the first projector, the first cloud platform includes a first semantic analysis program, and the first cloud platform includes a first semantic analysis program. , a plurality of second control instructions, and the first cloud-based platform analyzes the first control instructions by the first semantic analysis program, and generates the corresponding second control instructions based on the first control instructions. acquiring or taking out or generating and transmitting the first alias of the first projector and the corresponding second control command to the management server, the management server accessing the first projector according to the first alias; and adjusting the first projector to a first operating state based on the corresponding second control command ;
The intelligent voice system includes:
a second voice assistant; and
further comprising a second cloud-based platform connected to the second voice assistant and the management server for managing the second voice assistant;
When the second voice assistant receives a second voice signal for controlling the first projector, the second voice assistant extracts a plurality of second keywords from the second voice signal, and extracts a plurality of second keywords from the second voice signal. transmitting a second keyword to the second cloud-based platform, the plurality of second keywords including the first alias and a sixth control command corresponding to the first projector;
The second cloud platform includes a second semantic analysis program, the second cloud platform includes a plurality of seventh control instructions, and the second cloud platform analyzing a sixth control command and obtaining the corresponding seventh control command based on the sixth control command, the seventh control command corresponding to the first alias of the first projector and the sixth control command; to the management server, and the management server accesses the first projector according to the first alias and controls the first projector to a second control command based on the seventh control command corresponding to the sixth control command. Adjust to two working conditions,
The language of the first audio signal is the same as the language of the second audio signal,
when the first voice assistant also receives the second voice signal for controlling the first projector, the first voice assistant extracts the plurality of second keywords from the second voice signal; transmitting the plurality of second keywords to the first cloud-based platform, the plurality of second keywords including the first alias and the sixth control command corresponding to the first projector;
The first cloud-based platform analyzes the sixth control command using the first semantic analysis program, obtains an eighth control command based on the sixth control command, and calculates the first alias of the first projector. and transmitting the eighth control command to the management server,
The management server accesses the first projector according to the first alias and adjusts the first projector to the second operating state again based on the eighth control command corresponding to the sixth control command. , intelligent voice system.
請求項1に記載のインテリジェント音声システムであって、
前記第一投影機は、予め、前記第一エイリアス及び前記第一投影機の唯一な識別情報に基づいて、前記管理サーバに登録されている、インテリジェント音声システム。
The intelligent voice system according to claim 1, comprising:
The first projector is registered in advance in the management server based on the first alias and unique identification information of the first projector.
請求項1に記載のインテリジェント音声システムであって、
前記第一投影機の前記第一エイリアスは、前記管理サーバが前記第一投影機の登録プロセスにおいて提供する複数の所定エイリアスから選択される、インテリジェント音声システム。
The intelligent voice system according to claim 1, comprising:
The first alias of the first projector is selected from a plurality of predetermined aliases provided by the management server in a registration process of the first projector.
請求項1に記載のインテリジェント音声システムであって、
前記第一投影機が前記第一作動状態に調整された後に、前記第一投影機は、前記第一作動状態を前記管理サーバに報告し、前記管理サーバは、前記第一作動状態を前記第一クラウド型プラットフォームに転送し、前記第一クラウド型プラットフォームは、前記第一作動状態に基づいて第一応答語句を生成し、前記第一応答語句を前記第一音声アシスタントに伝送し、前記第一音声アシスタントに前記第一応答語句を出力させる、インテリジェント音声システム。
The intelligent voice system according to claim 1, comprising:
After the first projector is adjusted to the first working state, the first projector reports the first working state to the management server, and the management server adjusts the first working state to the first working state. the first cloud-based platform generates a first response phrase based on the first operating state, transmits the first response phrase to the first voice assistant, and transmits the first response phrase to the first voice assistant; An intelligent voice system that causes a voice assistant to output the first response phrase.
請求項1に記載のインテリジェント音声システムであって、
前記第二制御命令は、予め、前記第一クラウド型プラットフォームに生成されており、或いは、人工知能又は機器学習の方式で生成されている、インテリジェント音声システム。
The intelligent voice system according to claim 1, comprising:
The second control command is generated in advance in the first cloud-based platform, or is generated by an artificial intelligence or device learning method, an intelligent voice system.
請求項1に記載のインテリジェント音声システムであって、
前記第一セマンティック解析プログラムは、第一ルックアップテーブルを含み、前記第二制御命令は、前記第一ルックアップテーブルに生成される、インテリジェント音声システム。
The intelligent voice system according to claim 1, comprising:
The first semantic analysis program includes a first lookup table, and the second control command is generated in the first lookup table.
請求項1に記載のインテリジェント音声システムであって、
前記第一セマンティック解析プログラムは、前記複数の第二制御命令に対応する情報を含む、インテリジェント音声システム。
The intelligent voice system according to claim 1, comprising:
The first semantic analysis program includes information corresponding to the plurality of second control commands.
請求項1に記載のインテリジェント音声システムであって、
前記第一クラウド型プラットフォームは、データベースを含み、前記第二制御命令は、前記データベースに記憶され、前記データベースは、第一ルックアップテーブルを含み、前記第二制御命令は、前記第一ルックアップテーブルに生成される、インテリジェント音声システム。
The intelligent voice system according to claim 1, comprising:
The first cloud platform includes a database, the second control instructions are stored in the database, the database includes a first lookup table, and the second control instructions are stored in the first lookup table. An intelligent voice system generated by
請求項1に記載のインテリジェント音声システムであって、
前記第一投影機の前記第一作動状態の調整は、前記第一投影機の電源を入れることである、インテリジェント音声システム。
The intelligent voice system according to claim 1, comprising:
The intelligent audio system, wherein adjusting the first working state of the first projector is turning on the first projector.
請求項1に記載のインテリジェント音声システムであって、
前記第一投影機の前記第一作動状態の調整は、前記第一投影機のOSD(on screen display)をスタートすることである、インテリジェント音声システム。
The intelligent voice system according to claim 1, comprising:
The adjustment of the first working state of the first projector is to start an OSD (on screen display) of the first projector.
請求項1に記載のインテリジェント音声システムであって、
前記第一投影機の前記第一作動状態の調整は、前記第一投影機の投影輝度を調整することである、インテリジェント音声システム。
The intelligent voice system according to claim 1, comprising:
The intelligent audio system, wherein adjusting the first working state of the first projector is adjusting a projection brightness of the first projector.
請求項1に記載のインテリジェント音声システムであって、
前記管理サーバは、前記第一制御命令に対応する前記第二制御命令に基づいて、対応する第三制御命令を生成し、前記第三制御命令を前記第一投影機のマイクロ制御ユニットに伝送し、前記第一投影機の前記マイクロ制御ユニットは、前記第三制御命令を受信し、前記第三制御命令に基づいて前記第一投影機の前記第一作動状態を調整する、インテリジェント音声システム。
The intelligent voice system according to claim 1, comprising:
The management server generates a corresponding third control command based on the second control command corresponding to the first control command, and transmits the third control command to a microcontrol unit of the first projector. , the microcontrol unit of the first projector receives the third control command and adjusts the first operating state of the first projector based on the third control command.
請求項12に記載のインテリジェント音声システムであって、
前記第一投影機の前記マイクロ制御ユニットは、第一プログラムを含み、前記第一投影機の前記マイクロ制御ユニットは、前記第三制御命令を受信し、前記第一プログラムにより第四制御命令を取得し、前記第四制御命令に基づいて前記第一投影機の前記第一作動状態を調整し、前記第四制御命令は、デジタル信号を含む、インテリジェント音声システム。
13. The intelligent voice system of claim 12,
The microcontrol unit of the first projector includes a first program, and the microcontrol unit of the first projector receives the third control command and obtains a fourth control command by the first program. and adjusting the first operating state of the first projector based on the fourth control command, the fourth control command comprising a digital signal.
請求項13に記載のインテリジェント音声システムであって、
前記第一投影機の前記第一プログラムは、第二ルックアップテーブルを含み、前記第二ルックアップテーブルは、予め生成されている第五制御命令及び対応する前記第四制御命令を含み、前記第五制御命令は、第三制御命令と同じである、インテリジェント音声システム。
14. The intelligent voice system of claim 13,
The first program of the first projector includes a second lookup table, the second lookup table includes a fifth control instruction generated in advance and a corresponding fourth control instruction, and the second lookup table includes a fifth control instruction and a corresponding fourth control instruction generated in advance. The fifth control command is the same as the third control command, intelligent voice system.
請求項12に記載のインテリジェント音声システムであって、
前記第一投影機は、少なくとも1つの電子素子を含み、前記第三制御命令は、前記少なくとも1つの電子素子の情報及び前記少なくとも1つの電子素子を制御する信号を含み、前記少なくとも1つの電子素子は、ファン、光源駆動器、及びスピーカーのうちの少なくとも1つを含み、前記少なくとも1つの電子素子の情報は、前記少なくとも1つの電子素子の識別コードを含み、前記少なくとも1つの電子素子を制御する信号は、電圧又は電流に関する信号を含む、インテリジェント音声システム。
13. The intelligent voice system of claim 12 ,
The first projector includes at least one electronic device, the third control instruction includes information on the at least one electronic device and a signal for controlling the at least one electronic device, and the third control instruction includes information on the at least one electronic device and a signal for controlling the at least one electronic device. includes at least one of a fan, a light source driver, and a speaker, and the information on the at least one electronic device includes an identification code of the at least one electronic device, and controls the at least one electronic device. Intelligent audio system, where the signals include signals related to voltage or current.
請求項に記載のインテリジェント音声システムであって、
前記第八制御命令は、前記複数の第二制御命令のうちの1つである、インテリジェント音声システム。
The intelligent voice system according to claim 1 , comprising:
The eighth control command is one of the plurality of second control commands.
請求項1に記載のインテリジェント音声システムであって、
前記管理サーバに接続され、前記管理サーバにより制御される第二投影機をさらに含み、
前記第一音声アシスタントが前記第二投影機を制御するための第三音声信号を受信するときに、前記第一音声アシスタントは、前記第三音声信号から複数の第三キーワードを抽出し、前記複数の第三キーワードを前記第一クラウド型プラットフォームに伝送し、前記複数の第三キーワードは、前記第二投影機に対応する第二エイリアス及び第九制御命令を含み、
前記第一クラウド型プラットフォームは、前記第一セマンティック解析プログラムにより前記第九制御命令を解析し、前記第九制御命令に基づいて第十制御命令を取得し、前記第一投影機の前記第二エイリアス及び前記第九制御命令に対応する前記第十制御命令を前記管理サーバに伝送し、前記管理サーバは、前記第二エイリアスに従ってス前記第二投影機にアクセスし、前記第九制御命令に対応する前記第十制御命令に基づいて前記第一投影機を第三作動状態に調整する、インテリジェント音声システム。
The intelligent voice system according to claim 1, comprising:
further comprising a second projector connected to the management server and controlled by the management server,
When the first voice assistant receives a third voice signal for controlling the second projector, the first voice assistant extracts a plurality of third keywords from the third voice signal, and extracts a plurality of third keywords from the third voice signal, transmitting a third keyword to the first cloud-based platform, the plurality of third keywords including a second alias and a ninth control command corresponding to the second projector;
The first cloud-based platform analyzes the ninth control command using the first semantic analysis program, obtains a tenth control command based on the ninth control command, and calculates the second alias of the first projector. and transmitting the tenth control command corresponding to the ninth control command to the management server, and the management server accesses the second projector according to the second alias and corresponds to the ninth control command. an intelligent voice system adjusting the first projector to a third working state based on the tenth control command;
請求項17に記載のインテリジェント音声システムであって、
前記第十制御命令は、前記複数の第二制御命令のうちの1つである、インテリジェント音声システム。
18. The intelligent voice system of claim 17 ,
The tenth control command is one of the plurality of second control commands.
請求項17に記載のインテリジェント音声システムであって、
前記第二投影機は、予め、前記第二エイリアス及び前記第二投影機の唯一な識別情報に基づいて前記管理サーバに登録されている、インテリジェント音声システム。
18. The intelligent voice system of claim 17 ,
The second projector is previously registered in the management server based on the second alias and unique identification information of the second projector.
請求項17に記載のインテリジェント音声システムであって、
前記第二投影機の前記第二エイリアスは、前記管理サーバが前記第二投影機の登録プロセスにおいて提供する複数の所定エイリアスから選択される、インテリジェント音声システム。
18. The intelligent voice system of claim 17 ,
The second alias of the second projector is selected from a plurality of predetermined aliases provided by the management server in a registration process of the second projector.
請求項1に記載のインテリジェント音声システムに用いる、投影機を制御する方法であって、
前記第一音声アシスタントが前記第一投影機を制御するための第一音声信号を受信するときに、前記第一音声アシスタントが、前記第一音声信号から複数の第一キーワードを抽出し、前記複数の第一キーワードを前記第一クラウド型プラットフォームに伝送し、前記複数の第一キーワードは、前記第一投影機に対応する第一エイリアス及び第一制御命令を含み、前記第一クラウド型プラットフォームは、第一セマンティック解析プログラムを含み、前記第一クラウド型プラットフォームは、複数の第二制御命令を含み;
前記第一クラウド型プラットフォームが前記第一セマンティック解析プログラムにより前記第一制御命令を解析し、前記第一制御命令に基づいて対応する前記第二制御命令を取得又はテイクアウト又は生成し、前記第一投影機の前記第一エイリアス及び対応する前記第二制御命令を前記管理サーバに伝送し;及び
前記管理サーバが前記第一エイリアスに従って前記第一投影機にアクセスし、前記第一制御命令に対応する前記第二制御命令に基づいて前記第一投影機を第一作動状態に調整するステップを含み、
前記インテリジェント音声システムは、第二音声アシスタント及び第二クラウド型プラットフォームをさらに含み、前記第二クラウド型プラットフォームは、前記第二音声アシスタント及び前記管理サーバに接続され、前記第二音声アシスタントを管理し、
前記方法は、さらに、
前記第二音声アシスタントが前記第一投影機を制御するための第二音声信号を受信するときに、前記第二音声アシスタントが、前記第二音声信号から複数の第二キーワードを抽出し、前記複数の第二キーワードを前記第二クラウド型プラットフォームに伝送し、前記複数の第二キーワードは、前記第一投影機に対応する前記第一エイリアス及び第六制御命令を含み、前記第二クラウド型プラットフォームは、第二セマンティック解析プログラムを含み、前記第二クラウド型プラットフォームは、複数の第七制御命令を含み;
前記第二クラウド型プラットフォームが、前記第二セマンティック解析プログラムにより前記第六制御命令を解析し、前記第六制御命令に基づいて対応する前記第七制御命令を取得し、前記第一投影機の前記第一エイリアス及び前記第六制御命令に対応する前記第七制御命令を前記管理サーバに伝送し;及び
前記管理サーバが、前記第一エイリアスに従って前記第一投影機にアクセスし、前記第六制御命令に対応する前記第七制御命令に基づいて前記第一投影機を第二作動状態に調整するステップを含み、
前記第一音声信号の語系は、前記第二音声信号の語系と同じであり、
前記方法は、さらに、
前記第一音声アシスタントが前記第一投影機を制御するための前記第二音声信号も受信するときに、前記第一音声アシスタントが、前記第二音声信号から前記複数の第二キーワードを抽出し、前記複数の第二キーワードを前記第一クラウド型プラットフォームに伝送し、前記複数の第二キーワードは、前記第一投影機に対応する前記第一エイリアス及び前記第六制御命令を含み;
前記第一クラウド型プラットフォームが、前記第一セマンティック解析プログラムにより前記第六制御命令を解析し、前記第六制御命令に基づいて第八制御命令を取得し、前記第一投影機の前記第一エイリアス及び前記第八制御命令を前記管理サーバに伝送し;及び
前記管理サーバが、前記第一エイリアスに基づいて前記第一投影機にアクセスし、前記第六制御命令に対応する前記第八制御命令に基づいて前記第一投影機を再び前記第二作動状態に調整するステップを含む、方法。
A method for controlling a projector for use in the intelligent audio system according to claim 1, comprising:
When the first voice assistant receives a first voice signal for controlling the first projector, the first voice assistant extracts a plurality of first keywords from the first voice signal, and extracts a plurality of first keywords from the first voice signal; to the first cloud-based platform, the plurality of first keywords including a first alias and a first control command corresponding to the first projector, and the first cloud-based platform: including a first semantic analysis program, the first cloud-based platform including a plurality of second control instructions;
The first cloud-based platform analyzes the first control instruction using the first semantic analysis program, obtains or takes out or generates the corresponding second control instruction based on the first control instruction, and projects the first control instruction. transmitting the first alias of the projector and the corresponding second control command to the management server; and the management server accessing the first projector according to the first alias and transmitting the second control command corresponding to the first control command. adjusting the first projector to a first operating state based on second control instructions ;
The intelligent voice system further includes a second voice assistant and a second cloud-based platform, the second cloud-based platform is connected to the second voice assistant and the management server to manage the second voice assistant;
The method further includes:
When the second voice assistant receives a second voice signal for controlling the first projector, the second voice assistant extracts a plurality of second keywords from the second voice signal, and extracts a plurality of second keywords from the second voice signal; to the second cloud-based platform, the plurality of second keywords including the first alias and a sixth control instruction corresponding to the first projector, and the second cloud-based platform , a second semantic analysis program, and the second cloud-based platform includes a plurality of seventh control instructions;
The second cloud-based platform analyzes the sixth control command using the second semantic analysis program, obtains the corresponding seventh control command based on the sixth control command, and obtains the seventh control command of the first projector. transmitting a first alias and the seventh control command corresponding to the sixth control command to the management server; and
the management server accessing the first projector according to the first alias and adjusting the first projector to a second operating state based on the seventh control command corresponding to the sixth control command; including,
The language of the first audio signal is the same as the language of the second audio signal,
The method further includes:
when the first voice assistant also receives the second voice signal for controlling the first projector, the first voice assistant extracts the plurality of second keywords from the second voice signal; transmitting the plurality of second keywords to the first cloud-based platform, the plurality of second keywords including the first alias and the sixth control command corresponding to the first projector;
The first cloud-based platform analyzes the sixth control command using the first semantic analysis program, obtains an eighth control command based on the sixth control command, and obtains the first alias of the first projector. and transmitting the eighth control command to the management server; and
The management server accesses the first projector based on the first alias, and returns the first projector to the second operating state based on the eighth control command corresponding to the sixth control command. A method , including the step of adjusting .
請求項21に記載の方法であって、
前記第一投影機は、予め、前記第一エイリアス及び前記第一投影機の唯一な識別情報に基づいて前記管理サーバに登録されている、方法。
22. The method according to claim 21 ,
The first projector is registered in the management server in advance based on the first alias and unique identification information of the first projector.
請求項21に記載の方法であって、
前記第一投影機の前記第一エイリアスは、前記管理サーバが前記第一投影機の登録プロセスにおいて提供する複数の所定エイリアスから選択去れる、方法。
22. The method according to claim 21 ,
The first alias of the first projector can be selected from a plurality of predetermined aliases provided by the management server in a registration process of the first projector.
請求項21に記載の方法であって、
前記第一投影機が前記第一作動状態に調整された後に、さらに、
前記第一投影機が前記第一作動状態を前記管理サーバに報告し;
前記管理サーバが前記第一作動状態を前記第一クラウド型プラットフォームに転送し;及び
前記第一クラウド型プラットフォームが前記第一作動状態に基づいて第一応答語句を生成し、前記第一応答語句を前記第一音声アシスタントに伝送し、前記第一音声アシスタントに、前記第一応答語句を出力させるステップを含む、方法。
22. The method according to claim 21 ,
After the first projector is adjusted to the first operating state, further:
the first projector reports the first operating state to the management server;
the management server transfers the first operating state to the first cloud-based platform; and the first cloud-based platform generates a first response phrase based on the first operating state; transmitting the first response phrase to the first voice assistant and causing the first voice assistant to output the first response phrase.
請求項21に記載の方法であって、
前記第二制御命令は、予め、前記第一クラウド型プラットフォームに生成されており、或いは、人工知能又は機器学習の方式で生成されている、方法。
22. The method according to claim 21 ,
The second control command is generated in advance in the first cloud-based platform, or is generated using artificial intelligence or machine learning.
請求項21に記載の方法であって、
前記第一セマンティック解析プログラムは、第一ルックアップテーブルを含み、前記第二制御命令は、前記第一ルックアップテーブルに生成される、方法。
22. The method according to claim 21 ,
The first semantic analysis program includes a first lookup table, and the second control instruction is generated in the first lookup table.
請求項21に記載の方法であって、
前記第一セマンティック解析プログラムは、前記複数の第二制御命令に対応する情報を含む、方法。
22. The method according to claim 21 ,
The first semantic analysis program includes information corresponding to the plurality of second control instructions.
請求項21に記載の方法であって、
前記第一クラウド型プラットフォームは、データベースを含み、前記第二制御命令は、前記データベースに記憶され、前記データベースは、第一ルックアップテーブルを含み、前記第二制御命令は、前記第一ルックアップテーブルに生成される、方法。
22. The method according to claim 21 ,
The first cloud platform includes a database, the second control instructions are stored in the database, the database includes a first lookup table, and the second control instructions are stored in the first lookup table. The method that is generated.
請求項21に記載の方法であって、
前記第一投影機の前記第一作動状態の調整は、前記第一投影機の電源を入れることである、方法。
22. The method according to claim 21 ,
The method, wherein adjusting the first operating state of the first projector is turning on the first projector.
請求項21に記載の方法であって、
前記第一投影機の前記第一作動状態の調整は、前記第一投影機のOSD(on screen display)をステートすることである、方法。
22. The method according to claim 21 ,
The method, wherein adjusting the first operating state of the first projector is to state an OSD (on screen display) of the first projector.
請求項21に記載の方法であって、
前記第一投影機の前記第一作動状態の調整は、前記第一投影機の投影輝度を調整することである。
22. The method according to claim 21 ,
Adjusting the first working state of the first projector is adjusting the projection brightness of the first projector.
請求項21に記載の方法であって、
前記管理サーバが前記第一制御命令に対応する前記第二制御命令に基づいて、対応する第三制御命令を生成し、前記第三制御命令を前記第一投影機のマイクロ制御ユニットに伝送し;及び
前記第一投影機の前記マイクロ制御ユニットが前記第三制御命令を受信し、前記第三制御命令に基づいて前記第一投影機の前記第一作動状態を調整するステップをさらに含む、方法。
22. The method according to claim 21 ,
the management server generates a corresponding third control command based on the second control command corresponding to the first control command, and transmits the third control command to a microcontrol unit of the first projector; and the method further comprising the step of the microcontrol unit of the first projector receiving the third control command and adjusting the first operating state of the first projector based on the third control command.
請求項32に記載の方法であって、
前記第一投影機の前記マイクロ制御ユニットは、第一プログラムを含み、前記第一投影機の前記マイクロ制御ユニットは、前記第三制御命令を受信し、前記第一プログラムにより第四制御命令を取得し、前記第四制御命令に基づいて前記第一投影機の前記第一作動状態を調整し、前記第四制御命令は、デジタル信号を含む、方法。
33. The method according to claim 32 ,
The microcontrol unit of the first projector includes a first program, and the microcontrol unit of the first projector receives the third control command and obtains a fourth control command by the first program. and adjusting the first operating state of the first projector based on the fourth control instruction, the fourth control instruction comprising a digital signal.
請求項33に記載の方法であって、
前記第一投影機の前記第一プログラムは、第二ルックアップテーブルを含み、前記第二ルックアップテーブルは、予め生成されている第五制御命令及び対応する前記第四制御命令を含み、前記第五制御命令は、第三制御命令と同じである、方法。
34. The method according to claim 33 ,
The first program of the first projector includes a second lookup table, the second lookup table includes a fifth control instruction generated in advance and a corresponding fourth control instruction, and the second lookup table includes a fifth control instruction and a corresponding fourth control instruction generated in advance. The fifth control command is the same as the third control command, method.
請求項32に記載の方法であって、
前記第一投影機は、少なくとも1つの電子素子を含み、前記第三制御命令は、前記少なくとも1つの電子素子の情報及び前記少なくとも1つの電子素子を制御する信号を含み、前記少なくとも1つの電子素子は、ファン、光源駆動器、及びスピーカーのうちの少なくとも1つを含み、前記少なくとも1つの電子素子の情報は、前記少なくとも1つの電子素子の識別コードを含み、前記少なくとも1つの電子素子を制御する信号は、電圧又は電流に関する信号を含む、方法。
33. The method according to claim 32 ,
The first projector includes at least one electronic device, the third control instruction includes information on the at least one electronic device and a signal for controlling the at least one electronic device, and the third control instruction includes information on the at least one electronic device and a signal for controlling the at least one electronic device. includes at least one of a fan, a light source driver, and a speaker, and the information on the at least one electronic device includes an identification code of the at least one electronic device, and controls the at least one electronic device. The method, wherein the signal includes a signal related to voltage or current.
請求項21に記載の方法であって、
前記第八制御命令は、前記複数の第二制御命令のうちの1つである、方法。
22. The method according to claim 21 ,
The method, wherein the eighth control command is one of the plurality of second control commands.
請求項21に記載の方法であって、
前記インテリジェント音声システムは、さらに、前記管理サーバに接続され、前記管理サーバにより制御される第二投影機を含み、
前記方法は、さらに、
前記第一音声アシスタントが前記第二投影機を制御するための第三音声信号を受信するときに、前記第一音声アシスタントが、前記第三音声信号から複数の第三キーワードを抽出し、前記複数の第三キーワードを前記第一クラウド型プラットフォームに伝送し、前記複数の第三キーワードは、前記第二投影機に対応する第二エイリアス及び第九制御命令を含み;
前記第一クラウド型プラットフォームが、前記第一セマンティック解析プログラムにより前記第九制御命令を解析し、前記第九制御命令に基づいて第十制御命令を取得し、前記第一投影機の前記第二エイリアス及び前記第九制御命令に対応する前記第十制御命令を前記管理サーバに伝送し;及び
前記管理サーバが、前記第二エイリアスに従って前記第二投影機にアクセスし、前記第九制御命令に対応する前記第十制御命令に基づいて前記第一投影機を第三作動状態に調整するステップを含む、方法。
22. The method according to claim 21 ,
The intelligent audio system further includes a second projector connected to and controlled by the management server;
The method further includes:
When the first voice assistant receives a third voice signal for controlling the second projector, the first voice assistant extracts a plurality of third keywords from the third voice signal, transmitting a third keyword to the first cloud-based platform, the plurality of third keywords including a second alias and a ninth control command corresponding to the second projector;
The first cloud-based platform analyzes the ninth control command using the first semantic analysis program, obtains a tenth control command based on the ninth control command, and obtains the second alias of the first projector. and transmitting the tenth control command corresponding to the ninth control command to the management server; and the management server accessing the second projector according to the second alias to correspond to the ninth control command. The method includes adjusting the first projector to a third operating state based on the tenth control command.
請求項37に記載の方法であって、
前記第十制御命令は、前記複数の第二制御命令のうちの1つである、方法。
38. The method according to claim 37 ,
The method, wherein the tenth control command is one of the plurality of second control commands.
請求項37に記載の方法であって、
前記第二投影機は、予め、前記第二エイリアス及び前記第二投影機の唯一な識別情報に基づいて前記管理サーバに登録されている、方法。
38. The method according to claim 37 ,
The second projector is registered in the management server in advance based on the second alias and unique identification information of the second projector.
請求項37に記載の方法であって、
前記第二投影機の前記第二エイリアスは、前記管理サーバが前記第二投影機の登録プロセスにおいて提供する複数の所定エイリアスから選択される、方法。
38. The method according to claim 37 ,
The second alias of the second projector is selected from a plurality of predetermined aliases provided by the management server in a registration process of the second projector.
JP2019164079A 2018-09-27 2019-09-10 Intelligent audio system and projector control method Active JP7359603B2 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862737126P 2018-09-27 2018-09-27
US62/737126 2018-09-27
CN201811196308.2A CN110956960A (en) 2018-09-27 2018-10-15 Intelligent voice system and method for controlling projector by using intelligent voice system
CN201811196308.2 2018-10-15

Publications (2)

Publication Number Publication Date
JP2020053040A JP2020053040A (en) 2020-04-02
JP7359603B2 true JP7359603B2 (en) 2023-10-11

Family

ID=67780739

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019164079A Active JP7359603B2 (en) 2018-09-27 2019-09-10 Intelligent audio system and projector control method
JP2019167992A Pending JP2020064617A (en) 2018-09-27 2019-09-17 Intelligent audio system and projector control method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019167992A Pending JP2020064617A (en) 2018-09-27 2019-09-17 Intelligent audio system and projector control method

Country Status (2)

Country Link
JP (2) JP7359603B2 (en)
CN (4) CN209357459U (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN209357459U (en) * 2018-09-27 2019-09-06 中强光电股份有限公司 Intelligent voice system
EP4130845A4 (en) 2020-03-31 2023-09-20 FUJIFILM Corporation Optical device
JP7491147B2 (en) 2020-08-31 2024-05-28 セイコーエプソン株式会社 Display system control method, display system, and display device control method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005241971A (en) 2004-02-26 2005-09-08 Seiko Epson Corp Projector system, microphone unit, projector controller, and projector
JP2011164538A (en) 2010-02-15 2011-08-25 Alpine Electronics Inc Navigation device
JP2014132756A (en) 2013-01-07 2014-07-17 Samsung Electronics Co Ltd Display apparatus and control method therefor
JP2017076393A (en) 2015-10-12 2017-04-20 三星電子株式会社Samsung Electronics Co.,Ltd. Apparatus and method for processing control command based on voice agent, and agent device
WO2018100743A1 (en) 2016-12-02 2018-06-07 ヤマハ株式会社 Control device and apparatus control system

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1143731B1 (en) * 1997-06-02 2009-05-13 Sony Electronics Inc. Displaying internet content and television programming
JP2004163590A (en) * 2002-11-12 2004-06-10 Denso Corp Reproducing device and program
JP5433935B2 (en) * 2007-07-24 2014-03-05 日本電気株式会社 Screen display control method, screen display control method, electronic device, and program
CN101398596A (en) * 2007-09-25 2009-04-01 海尔集团公司 Projector
TW201102841A (en) * 2009-07-02 2011-01-16 Cyberon Corp Data search method, data providing method, data search system, portable apparatus and server
JP6227236B2 (en) * 2012-10-01 2017-11-08 シャープ株式会社 Recording apparatus and reproducing apparatus
US9338493B2 (en) * 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US20160203456A1 (en) * 2015-01-09 2016-07-14 Toshiba Global Commerce Solutions Holdings Corporation Point-of-sale apparatus, control method, and system thereof for outputting receipt image for a camera of a personal computing device
CN107205075A (en) * 2016-03-16 2017-09-26 洛阳睿尚京宏智能科技有限公司 A kind of smart projector of achievable handset program speech control
US10185840B2 (en) * 2016-08-30 2019-01-22 Google Llc Conditional disclosure of individual-controlled content in group contexts
US10304463B2 (en) * 2016-10-03 2019-05-28 Google Llc Multi-user personalization at a voice interface device
CN106847269A (en) * 2017-01-20 2017-06-13 浙江小尤鱼智能技术有限公司 The sound control method and device of a kind of intelligent domestic system
JP2018128979A (en) * 2017-02-10 2018-08-16 パナソニックIpマネジメント株式会社 Kitchen supporting system
CN106952647A (en) * 2017-03-14 2017-07-14 上海斐讯数据通信技术有限公司 A kind of intelligent sound box and its application method based on cloud management
CN207558417U (en) * 2017-08-11 2018-06-29 杭州古北电子科技有限公司 Intelligent home control system
CN107479854A (en) * 2017-08-30 2017-12-15 谢锋 A kind of projecting apparatus and projecting method
CN209357459U (en) * 2018-09-27 2019-09-06 中强光电股份有限公司 Intelligent voice system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005241971A (en) 2004-02-26 2005-09-08 Seiko Epson Corp Projector system, microphone unit, projector controller, and projector
JP2011164538A (en) 2010-02-15 2011-08-25 Alpine Electronics Inc Navigation device
JP2014132756A (en) 2013-01-07 2014-07-17 Samsung Electronics Co Ltd Display apparatus and control method therefor
JP2017076393A (en) 2015-10-12 2017-04-20 三星電子株式会社Samsung Electronics Co.,Ltd. Apparatus and method for processing control command based on voice agent, and agent device
WO2018100743A1 (en) 2016-12-02 2018-06-07 ヤマハ株式会社 Control device and apparatus control system

Also Published As

Publication number Publication date
CN110956960A (en) 2020-04-03
CN110956961A (en) 2020-04-03
JP2020053040A (en) 2020-04-02
JP2020064617A (en) 2020-04-23
CN209374052U (en) 2019-09-10
CN209357459U (en) 2019-09-06

Similar Documents

Publication Publication Date Title
EP3629323B1 (en) Intelligent voice system and method for controlling projector by using the intelligent voice system
JP7359603B2 (en) Intelligent audio system and projector control method
US9953648B2 (en) Electronic device and method for controlling the same
US9984686B1 (en) Mapping device capabilities to a predefined set
TWI511125B (en) Voice control method, mobile terminal apparatus and voice controlsystem
JP6752870B2 (en) Methods and systems for controlling artificial intelligence devices using multiple wake words
JP2023115067A (en) Voice user interface shortcuts for assistant application
US8768702B2 (en) Multi-tiered voice feedback in an electronic device
KR100739733B1 (en) A method and system for describing consumer electronics using separate task and device descriptions
US10115398B1 (en) Simple affirmative response operating system
KR20140042641A (en) Electronic device, server and control methods thereof
US12008985B2 (en) Natural language processing of declarative statements
WO2019228138A1 (en) Music playback method and apparatus, storage medium, and electronic device
JP7051889B2 (en) Post-engagement metadata generation
CN117992141A (en) Systems/methods and apparatus for providing multi-function links for interacting with assistant agents
US10770094B2 (en) Routing audio streams based on semantically generated result sets
US10831442B2 (en) Digital assistant user interface amalgamation
EP3629324A1 (en) Intelligent voice system and method for controlling projector by using the intelligent voice system
US11150923B2 (en) Electronic apparatus and method for providing manual thereof
US11243740B2 (en) Electronic device and method for controlling same
US20240064363A1 (en) Voice-based scene selection for video content on a computing device
WO2020225988A1 (en) Information processing device, information processing method, and program
KR20210032259A (en) Electronic apparatus and method for providing manual thereof
CN115048074A (en) Information processing method, information processing apparatus, electronic device, and medium
Omojokun Interacting with networked devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230628

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230928

R150 Certificate of patent or registration of utility model

Ref document number: 7359603

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150