JP7124280B2 - 情報処理装置及びプログラム - Google Patents
情報処理装置及びプログラム Download PDFInfo
- Publication number
- JP7124280B2 JP7124280B2 JP2017176002A JP2017176002A JP7124280B2 JP 7124280 B2 JP7124280 B2 JP 7124280B2 JP 2017176002 A JP2017176002 A JP 2017176002A JP 2017176002 A JP2017176002 A JP 2017176002A JP 7124280 B2 JP7124280 B2 JP 7124280B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- see
- cleaning
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims description 21
- 238000012545 processing Methods 0.000 claims description 63
- 230000033001 locomotion Effects 0.000 claims description 40
- 230000009471 action Effects 0.000 claims description 16
- 238000003384 imaging method Methods 0.000 claims description 4
- 238000004140 cleaning Methods 0.000 description 160
- 238000010586 diagram Methods 0.000 description 34
- 230000006870 function Effects 0.000 description 24
- 238000004891 communication Methods 0.000 description 22
- 238000001514 detection method Methods 0.000 description 20
- 238000000034 method Methods 0.000 description 20
- 230000007246 mechanism Effects 0.000 description 16
- 239000000428 dust Substances 0.000 description 13
- 238000003860 storage Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 238000012544 monitoring process Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 6
- 238000007639 printing Methods 0.000 description 5
- 238000005401 electroluminescence Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 108091008695 photoreceptors Proteins 0.000 description 3
- 241001122315 Polites Species 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000007723 transport mechanism Effects 0.000 description 2
- 101100264195 Caenorhabditis elegans app-1 gene Proteins 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C17/00—Arrangements for transmitting signals characterised by the use of a wireless electrical link
- G08C17/02—Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/64—Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G08—SIGNALLING
- G08C—TRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
- G08C23/00—Non-electrical signal transmission systems, e.g. optical systems
- G08C23/04—Non-electrical signal transmission systems, e.g. optical systems using light waves, e.g. infrared
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/765—Interface circuits between an apparatus for recording and another apparatus
- H04N5/77—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
- H04N5/772—Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/76—Television signal recording
- H04N5/907—Television signal recording using static stores, e.g. storage tubes or semiconductor memories
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/804—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
- H04N9/8042—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/79—Processing of colour television signals in connection with recording
- H04N9/80—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
- H04N9/82—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
- H04N9/8205—Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Networks & Wireless Communication (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Manipulator (AREA)
Description
請求項2に記載の発明は、前記情報は、自機の移動に関する動作を規定する、請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記移動に関する動作は、自機の移動の方向、経路又は範囲を規定する、請求項2に記載の情報処理装置である。
請求項4に記載の発明は、前記情報は、自機の動作の質を規定する、請求項1に記載の情報処理装置である。
請求項5に記載の発明は、前記動作の質はテキストによって与えられる、請求項4に記載の情報処理装置である。
請求項6に記載の発明は、前記情報は、自機の動作の実行又は非実行を規定する、請求項1に記載の情報処理装置である。
請求項7に記載の発明は、前記情報は図形の形式で記載されている、請求項1に記載の情報処理装置である。
請求項8に記載の発明は、前記情報は、自機の処理動作の切り替えを規定する、請求項1に記載の情報処理装置である。
請求項9に記載の発明は、前記情報は、自機で実行中の基本プログラムやアプリケーションの切り替えを規定する、請求項1に記載の情報処理装置である。
請求項10に記載の発明は、コンピュータに、自機と他の物体を被写体に含む写真を自機の撮像部又は読取部から読み取る機能と、前記機能で読み取った写真の被写体に自機が含まれ、当該写真に自機の動作を指示する情報の記載がある場合に、当該情報に基づいて自機の動作を制御する機能と、を実現させるためのプログラムである。
請求項2記載の発明によれば、機器の実空間内における移動を容易に制御できる。
請求項3記載の発明によれば、機器の実空間内における移動を容易に制御できる。
請求項4記載の発明によれば、写真を通じて機器の動作の質を制御できる。
請求項5記載の発明によれば、動作の質を容易に指示できる。
請求項6記載の発明によれば、写真を通じて機器の動作を制御できる。
請求項7記載の発明によれば、図形を用いて機器の動作を制御できる。
請求項8記載の発明によれば、機器の処理動作を制御できる。
請求項9記載の発明によれば、機器で実行されるプログラムを切り替えることができる。
請求項10記載の発明によれば、操作対象の機器が写った写真を利用して、機器を容易に操作できる。
<実施の形態1>
<画像処理システムの構成>
図1を用いて、実施の形態1に係る画像処理システム100の構成について説明する。
図1は、本実施の形態で使用する画像処理システム100の構成例を示す図である。
画像処理システム100は、静止画像111(例えば電子写真)の表示に使用されるノート型のコンピュータ110と、静止画像111を用紙に印刷した写真120と、静止画像111の撮影場所に対応する実空間150内に存在する機器とで構成されている。
コンピュータ110は、実空間150と同じ空間に存在してもよいし、異なる空間に存在してもよい。図1ではコンピュータ110の外観がノート型のコンピュータの例を示しているが、コンピュータ110の外観に関する制限はなく、据え置き型のコンピュータ、スマートフォン、ゲーム機などでもよい。
実空間150には、用紙等の記録材に画像を形成する機能や光学的に原稿の画像を読み取る機能などを有する画像形成装置151と、放送番組等を表示する表示装置152と、動画像や音(以下「動画像など」という)を記録媒体に記録し又は記録媒体から動画像などを再生する録画再生機153と、人154と、植木155と、空調機156と、監視カメラ157と、掃除ロボット158とが存在している。
図2は、掃除ロボット158のハードウェア構成の一例を示す図である。
本実施の形態における掃除ロボット158は、いわゆる自立型掃除機に分類され、掃除のための機構部分と自走のための機構部分とで構成されている。
掃除ロボット158は、装置全体を制御する制御部201と、間取り図などの画像データを記憶する記憶部202と、ユーザによる操作を受け付けるボタン類や装置の状態をユーザに通知する操作表示部203と、塵や埃など(以下「塵」という)を吸引する吸塵部204と、走行のための駆動系を有する走行駆動部205と、周囲の状況を撮影するカメラ部206と、塵の有無や走行に必要な各種の情報を取得するセンサ部207と、外部の機器(例えばコンピュータ110)と通信するための通信部208と、内蔵する電池を充電するための充電部209と、を有している。
なお、制御部201と各部はバス210を介して接続されている。
ここでの制御部201は、ファームウェアなどの実行を通じて各部の動作を制御する。例えば制御部201は、集塵に関する動作や走行に関する動作を制御する。
操作表示部203は、ユーザの操作を受け付けるボタン類や動作状態を表すLED(Light Emitting Diode)インジケータ等で構成される。なお、操作表示部203には、液晶ディスプレイや有機EL(Electro‐Luminescence)ディスプレイを用いてもよい。
吸塵部204は、走行路上の床面に存在する塵を空気と一緒に取り込む気流を発生するモータその他の部材で構成されている。吸塵部204の構造は、採用する集塵方式によって相違する。
走行駆動部205は、本体を移動させる車輪と、車輪を駆動するモータと、操舵機構などを有している。
通信部208は、例えばいわゆる携帯電話網、無線通信網(IoT(Intranet of Things)ネットワーク、ホームネットワークなど)との通信に用いる通信装置で構成され、その通信には例えばWifi(登録商標)、Bluetooth(登録商標)、ZigBee(登録商標)などを使用する。
図3に示す機能構成は、制御部201によるファームウェアの実行を通じて実現される。
本実施の形態における制御部201は、外部から画像データを入力する画像受信部211と、受信した画像に含まれる情報(動作の内容を指示する情報)の記載を認識する画像認識部212と、実空間150内における自機の位置を検出する位置検出部213と、認識された情報と自機の位置とに基づいて自機の走行を制御する掃除制御部214とを有している。
ここでの音声データは音データの一例である。また、画像受信部211は受信手段の一例であり、画像認識部212と位置検出部213と掃除制御部214は制御手段の一例である。
画像認識部212は、受信した画像データに自機の動作を指示する記載が含まれる場合、指示の内容を認識して掃除制御部214に出力する。例えば画像データに対応する画像(例えば電子写真)に自機が含まれており、自機の移動方向、経路、範囲等の移動範囲を規定する書き込みが認識された場合、画像認識部212は、認識された情報を掃除制御部214に出力する。
本実施の形態の場合、移動範囲を規定する情報は、手書きの線や図形などで与えられる。掃除の経路や範囲は、操作ボタンによる入力や言葉による指示が難しいためである。
もっとも、手書きの線や図形は、写真120(図1参照)に対する書き込みであっても、コンピュータ110の操作画面上での書き込み(すなわち静止画像111への書き込み)であってもよい。
本実施の形態では、移動範囲を入力する主な手段としてユーザによる手書きを想定しているが、アプリケーションソフトによる経路の生成や与えられた経路の修正を排除する意図ではない。
掃除の質は、移動範囲を規定する情報とは異なり、ボタン類や音声による指定も容易である。このため、本実施の形態では、掃除の質については、画像データに対応する画像上へのテキストによる書き込みや不図示のマイクを用いた音声での指示も想定する。
例えば自機の移動経路の履歴等を用いて実空間150の間取り図を生成する機能が掃除ロボット158に設けられている場合、位置検出部213は、自機で生成した間取り図の情報を用いて自機の位置を検出する。
これに対し、例えば室内用のGPS(Global Positioning System)の受信部を有する場合、位置検出部213は、この受信部の出力信号を使用して実空間150内における自機の位置を検出する。
また例えば位置検出部213は、実空間150に存在する監視カメラ157とのIoT通信を通じて実空間150内における自機の画像を取得し、画像認識によって自機の位置を検出する。
例えば掃除制御部214は、受信した電子写真(写真120)を平面図に変換し、内部で生成されている間取り図と位置合わせすることにより、掃除の経路や範囲を具体的に決定する。
また例えば掃除制御部214は、監視カメラ157に写っている被写体を特徴点として使用し、当該特徴点と自機の位置との位置関係から掃除の経路や範囲を具体的に決定してもよい。
ここでは、本実施の形態における掃除の経路などの指定の例を説明する。
図4は、コンピュータ110(図1参照)の操作画面110A上に表示された静止画像111にマウスポインタ112を用いて掃除の範囲を入力する様子を説明する図である。
操作画面110Aには、実空間150(図1参照)を撮影した静止画像111が小画面(ウィンドウ)の形式で表示されている。
図4に示す静止画像111には、画像形成装置の像301、表示装置の像302、録画再生機の像303、人の像304、植木の像305、空調機の像306、監視カメラの像307、掃除ロボットの像308が含まれている。
操作画面110Aの下部にはタスクバー110Bが配置され、起動中の3つのアプリケーションのアイコン113と、現在時刻114とが表示されている。
図4に示す入力手法は、例えば静止画像111に軌跡309を描画した画像データ(電子写真)をコンピュータ110から掃除ロボット158に送信する場合に用いられる。
図5には図4との対応部分に同一の符号を付して示している。図5に示す写真120は静止画像111(図4参照)に対応している。
図5に示す入力手法は、囲み線313が描画された写真120を、ユーザが掃除ロボット158(図1参照)のカメラ部206(図2参照)の前にかざすことで、掃除ロボット158に画像データ(写真画像)を与える場合に用いられる。
ここでは、図6を使用して、掃除ロボット158(図1参照)で実行される処理動作の例を説明する。
図6は、実施の形態1で使用する掃除ロボット158で実行される処理動作を説明するフローチャートである。
まず、制御部201(図2参照)は、画像受信部211(図3参照)を通じて静止画像111(図1参照)又は写真120(図1参照)に対応する画像データを受信する(ステップ1)。
また、制御部201は、軌跡309(図4参照)や囲み線313(図5参照)で囲まれた領域の内側に自機の像が含まれている場合、自閾が画像データに含まれる被写体の動作を指示する記載の対象であると認識する。
これら2つの条件を満たす場合、制御部201は、自機の動作を指示する記載があると判定する。
一方、ステップ3で肯定結果が得られた場合、制御部201は、指示の内容を特定する(ステップ4)。本実施の形態、制御部201は、掃除する範囲を特定する。
図7は、掃除する範囲の特定を説明する図である。図7では、掃除ロボット158によって事前に生成されている間取り図350と、制御部201が特定した掃除する範囲351(破線で示す)の関係が表されている。掃除する範囲351は、軌跡309(図4参照)や囲み線313(図5参照)に対応している。
なお、図中の丸印で示す記号352は、自機(すなわち掃除ロボット158(図1参照))の現在位置を示し、網掛けで示す部位は、障害物のために掃除ロボット158が移動できない空間を示す。
次に、制御部201は、特定した動作を予定動作としてユーザに通知する(ステップ5)。この通知は、例えば画像データがコンピュータ110(図1参照)から受信された場合に実行され、画像データが写真120から取得された場合には実行されない。
なお、予定動作を了承しない応答があった場合(ステップ6で否定結果が得られた場合)、制御部201は、ステップ1に戻り、正しい動作の指示を待ち受ける。
ステップ5を実行しない場合(ユーザに予定動作を通知しない場合)、制御部201は、特定した動作を実行する(ステップ7)。
図8は、掃除ロボット158による掃除の具体例を説明する図である。掃除ロボット158は、ユーザが手書きで入力した範囲351(破線で示す楕円の内側)を移動しながら塵を収集する。
本実施の形態によれば、リモコンによるボタン操作によっては指定が困難な掃除の範囲(2次元空間内の範囲)を容易に掃除ロボット158に指示することができる。
すなわち、ユーザは、掃除する範囲を特定する軌跡309(図4参照)や囲み線313(図5参照)を静止画像111や写真120上に書き込んで掃除ロボット158に与えるだけで指示を終えることができる。
また、ユーザは、掃除ロボット158を含めるように掃除の範囲を特定する線を描画するだけで指示の対象が掃除ロボット158であることを特定できる。
ここでの掃除ロボット158は、操作の対象である特定の機器の一例である。
以下では、他の指示の手法について説明する。
図9は、写真120を用いた掃除の範囲の他の例を説明する図である。
図9の例では、掃除ロボットの像308の上に丸印370が描画され、掃除ロボット158(図1参照)が指示対象であることが示されている。
また、図9の例では、掃除の範囲を示す2つの図形371及び372が描画されている。楕円形状の図形371は、人の像304と画像形成装置の像301との間の空間を掃除の範囲として指定し、楕円形状の図形372は、人の像304と植木の像305の間の空間を掃除の範囲として指定している。
ここで、文字A及びBを丸で囲んでいるのは、ユーザからの指示であることを掃除ロボット158が認識できるようにするためである。
図9では、文字が丸で囲まれている記号をユーザからの指示として認識するという規則で制御部201(図3参照)が動作する場合であるので、予め定めた他の規則が存在する場合には該当する規則を満たすようにユーザが記述を行う。例えば矩形の図形や星形の図形と数字を組み合わせてもよい。
「(丸で囲んだ)A→(丸で囲んだ)B」の記述は、掃除ロボット158による掃除を図形371で囲んだ範囲から開始し、続いて図形372で囲んだ範囲で実行すればよいことを指示する。
図10の場合も、掃除ロボットの像308の上に丸印370が描画され、掃除ロボット158(図1参照)が指示対象であることが示されている。
一方、図10の場合、掃除の経路が一筆書きの軌跡375で描画されている。この場合、掃除ロボット158は指示された経路に沿うように実空間150(図1参照)を移動することになる。
この指定は、前述した画像データを用いた指示を補足する指定の方法である。図11では、男性が「ゆっくり掃除してください」と、掃除ロボット158に対して発声している。図11に示す掃除ロボット158にはマイク380が設けられており、マイク380で取り込まれた音声に対応する音声データが音声認識された後、掃除制御部214(図3参照)に与えられる。
このように、音声を補助的に組み合わせて使用することにより、掃除ロボット158に対する指示の内容を全て画像(電子写真)上に記述せずに済み、指示に必要な作業を簡略化できる。
本実施の形態では、指示対象である機器を他の機器を通じて間接的に制御する場合について説明する。
図12を用いて、実施の形態2に係る画像処理システム400の構成について説明する。
図12は、実施の形態2に係る画像処理システム400の構成例を示す図である。
図12には図1との対応部分に対応する符号を付して示している。
本実施の形態の場合も、制御の対象は掃除ロボット158である。
なお、画像形成装置151から掃除ロボット158への指示は、無線通信を通じて実現される。
画像形成装置151は、制御部441と、外部との通信に使用される通信インターフェース(通信I/F)442と、表示部444に操作画面等を表示する表示部インターフェース(表示部I/F)443と、操作部446に対するユーザの操作を受け付ける操作部インターフェース(操作部I/F)445を有している。
ここで、表示部444は、例えば液晶ディスプレイや有機ELディスプレイ等で構成される。操作部446は、例えば操作ボタン、操作キー、タッチパネル等で構成される。
ここでの画像読取機構453は、いわゆるスキャナである。
制御部441と各部は、バス454を通じて接続されている。
本実施の形態における制御部441は、外部から画像データを入力する画像受信部461と、受信した画像に記載されている動作の内容を指示する情報を認識する画像認識部462と、実空間150内における制御対象とする掃除ロボット158(図12参照)の位置を検出する位置検出部463と、認識された指示に関する情報と掃除ロボット158の位置とに基づいて掃除ロボット158の走行を制御する走行制御部464とを有している。
ここでの画像受信部461は受信手段の一例であり、画像認識部462と位置検出部463と掃除制御部464は制御手段の一例である。
なお、走行制御部464には掃除ロボット158による掃除の質を制御する機能も用意されている。
画像認識部462は、画像データに含まれる特定の被写体の動作を指示する記載が含まれる場合、指示の内容を認識して走行制御部464に出力する。本実施の形態の場合、画像認識部462は、指示対象である特定の被写体を認識する動作も実行する。
ここでの画像認識部462は、自機や他機の画像データを保持しており、指示の対象である被写体が自機であるか他機であるかを認識することができる。
画像認識部462は、これらの情報を利用して画像(例えば電子写真)に記載された軌跡や囲み線などによる指示の情報や指定対象である機器を認識する。
また、位置検出部463は、掃除ロボット158から室内用のGPSの受信部で受信した位置情報を受信してもよい。
また、位置検出部463は、実空間150に存在する監視カメラ157とのIoT通信を通じて実空間150内の画像を取得し、画像認識によって掃除ロボット158の位置を検出してもよい。
なお、掃除ロボット158が間取り図を生成する機能を有する場合においては、走行制御部464は、掃除の範囲を規定する座標を掃除ロボット158に通知してもよい。この場合、掃除ロボット158は自機で有する間取り図上の座標と自機で検知した位置の情報とを用いて掃除を実行できる。
また、走行制御部464は、自装置の側で検出している掃除ロボット158の位置が掃除の範囲を超えないように掃除ロボット158の移動方向を逐次制御してもよい。
図15は、実施の形態2で使用する画像形成装置151で実行される処理動作を説明するフローチャートである。図15には図6との対応部分に対応する符号が付されている。
まず、制御部441(図14参照)は、画像受信部461(図14参照)を通じて静止画像111(図12参照)又は写真120(図12参照)に対応する画像データを受信する(ステップ1)。
ステップ2で肯定結果が得られた場合、制御部441は、他機の動作を指示する記載があるか否かを判定する(ステップ11)。
ステップ2及びステップ11のいずれかで否定結果が得られた場合、制御部441は、後述する動作を実行することなく処理を終了する。
一方、ステップ11で肯定結果が得られた場合、制御部441は、指示の内容を特定する(ステップ4)。本実施の形態、制御部441は、掃除する範囲を特定する。
ステップ5が実行される場合、制御部441は、コンピュータ110に対して予定する動作(予定動作)の内容を通知し、コンピュータ110からの応答を待つ。ここで、予定動作を了承する応答があった場合(ステップ6で肯定結果が得られた場合)、制御部441は、該当する機器(例えば掃除ロボット158)に対してステップ4で特定した動作の実行を指示する(ステップ12)。
なお、予定動作が了承しない応答があった場合(ステップ6で否定結果が得られた場合)、制御部441は、ステップ1に戻り正しい動作の指示を待ち受ける。
ステップ5の通知を実行しない場合、制御部441は、該当する機器に動作の実行を指示する(ステップ12)。
前述の実施の形態では、写真120(図5参照)や写真120に対応する画像データDに記載されている情報を処理して自機又は他機の動作を制御するためのアプリケーションが予めインストールされている場合について説明した。
本実施の形態では、前述した一連のワークフロー処理を規定する情報が、画像データDの属性情報として各機器に提供される場合について説明する。なお、画像データDに対応する静止画像111(図4参照)の表面には、実施の形態1の場合と同様に、掃除の範囲などがユーザによって記述されているものとする。
図16は、本実施の形態で使用するJPEGファイル500のデータ構造を示す図である。JPEGファイル500は、画像ファイルの一例であり、JPEGフォーマットに準拠する。
イメージ開始セグメント511とイメージ終了セグメント515で挟まれた領域はフレームとも呼ばれる。
なお、図16では表していないが、JPEGファイルには、不図示の2つのセグメント、すなわち量子化テーブル定義セグメント(Define Quantization Table segment: DQT)、ハフマンテーブル定義セグメント(Define Huffman Table segment: DHT)も含まれている。これら以外のセグメントは、必要に応じて配置される。
タイプ1のアプリケーションセグメント512とタイプ11のアプリケーションセグメント513は、JPEGファイル500の属性情報516の一部分である。
タイプ11のアプリケーションセグメント513に格納される情報の個数はゼロでもよいし、1個でもよいし、3個以上でもよい。以下では、情報513A及び513Bを区別しない場合には単に情報513Aという。
例えば情報513Aは、第1の言語(例えば日本語、第1のOS用)による処理に用いられ、情報513Bは、第2の言語(例えば英語、第2のOS用)による処理に用いられてもよい。
オブジェクトに関する情報は、インターネット上に存在する情報の他、実在する機器に保持されている情報、実在する機器や生物などを撮影した画像などが含まれる。
また例えば2つの情報513A及び513Bはいずれも、1つの機器の操作の種類別に設けられていてもよい。例えば情報513Aはテレビジョン受像機のチャンネルの操作用、情報513Bはテレビジョン受像機の電源ボタンの操作用であってもよい。
図17は、実施の形態3における掃除ロボット158を構成する制御部の機能構成の一例を示す図である。
図17には図3との対応部分に対応する符号を付して示している。
図17に示す機能構成は、制御部201Aによるファームウェアの実行を通じて実現される。ここでのファームウェアに要求される機能は、画像データDの属性情報516(図16参照)からワークフロー処理を規定する情報513(図16参照)を読み出して実行する機能である。
図18には図6との対応部分に対応する符号を付して示している。
まず、制御部201Aは、画像受信部211を通じて画像データDを受信する(ステップ1)。
続いて、制御部201Aは、属性情報516に自機に対応するJSON形式の記述があるか判定する(ステップ22)。
ステップ22で肯定結果が得られた場合、制御部201Aは、JSON形式の記述を解読し、ワークフロー処理を実行する(ステップ23)。
ここでのワークフロー処理として、実施の形態1と同様の処理を実行する。すなわち、画像データDに対応する静止画像111(図4参照)の表面に自機による掃除の範囲などを指定する情報が記述されていないか判定し、記述されている場合には指定された範囲を掃除する。
この動作は、画像データDの属性情報516(図16参照)の一部に特定のオブジェクトに対応付けられた情報513Aが記録されていることが前提である。以下では、JPEGファイル500(図16参照)の属性情報516に情報513Aを記録するための処理機能について説明する。
ここでの制御部600は、ユーザが指定するオブジェクトの領域を検出する位置検出部601と、JPEGファイル500(図16参照)のイメージデータ514(図16参照)から画像処理技術を使用してオブジェクトとして登録する像の領域を検出するオブジェクト検出部602と、検出された各領域に対応付けるワークフロー処理の記述を対応付けて属性情報516を生成する属性情報生成部603として機能する。
図19の説明に戻る。
位置検出部601は、この領域115(図20参照)を規定する座標情報として、例えばドラッグの開始点である左上隅の座標値、ドラッグが終了した時点までに垂直方向に移動した画素数と水平方向に移動した画素数を出力する。
オブジェクト検出部602は、JPEGファイル500(図16参照)に含まれるイメージデータ514(図16参照)と登録画像とのマッチング処理を実行し、登録画像にマッチした像(オブジェクト)が存在する領域を特定する座標情報を位置情報として出力する。
なお、像に対応する実空間の物体が機器である場合には、静止画像111を撮像する時点において、IoTネットワークを通じて各機器を特定する製造番号やIoTネットワーク上のアドレスの情報を収集しておき、静止画像111と対応付けるようにすれば、個々の機器の製造番号等を手入力する手間を省くことができる。
なお、実施の形態1で説明したように、各像に対応付ける実空間の物体は、各像に対応する実物である必要はない。
このように、既存のJPEGファイル500にワークフロー処理を規定する情報513Aを後から追記してもよい。
例えば属性情報生成部603は、画像処理を通じて指定された像や像の種別を認識し、認識された情報に応じて情報513Aとして記述するワークフロー処理を決定してもよい。像や像の種別に応じて適用するワークフロー処理の内容がほぼ定まる場合にはユーザの作業量を軽減することができる。
すなわち、リモコン等を通じて掃除の範囲を指定する手法では困難な掃除の範囲を容易に掃除ロボット158に指示することができる。
また、本実施の形態では、掃除ロボット158に実行させたいワークフロー処理の内容をユーザが指定できるため、掃除ロボット158に実行させたい動作の指定が容易になる。
前述の説明では、属性情報516(図16参照)にワークフロー処理を記述する情報513A(図16参照)が記載された画像データDが制御対象である掃除ロボット158(図1参照)に直接与えられる場合について説明したが、実施の形態2の場合と同様に、他の機器を通じて間接的に掃除ロボット158を制御する場合にも用いることができる。
図22には図14及び図17との対応部分に対応する符号を付して示している。
ここでの制御部441Aは、外部から画像データDを入力する画像受信部461と、受信した画像データDの属性情報516(図16参照)を読み出して、被写体として含まれる各機器に対応付けられた情報513A(図16参照)を認識する属性情報認識部215と、実空間150(図12参照)内における制御対象とする掃除ロボット158(図12参照)の位置を検出する位置検出部463と、認識された指示に関する情報と掃除ロボット158(図12参照)の位置とに基づいて掃除ロボット158の走行を制御する走行制御部464Aとを有している。
図23には図18との対応部分に対応する符号を付して示している。
まず、制御部441A(図22参照)は、画像受信部461(図22参照)を通じて画像データDを受信する(ステップ1)。
ステップ2で肯定結果が得られた場合、制御部441Aは、被写体に含まれる他機の動作を指示する記載があるか否かを判定する(ステップ11)。
ステップ11で肯定結果が得られた場合、制御部441Aは、画像データDに付属する属性情報516(図16参照)を読み込む(ステップ21)。
続いて、制御部441Aは、属性情報516に画面上で指定された他機(例えば掃除ロボット158)に対応するJSON形式の記述があるか判定する(ステップ31)。
ステップ31で肯定結果が得られた場合、制御部441Aは、JSON形式の記述を解読し、ワークフロー処理を実行する(ステップ23)。
なお、ステップ2、11及び31において否定結果が得られた場合、制御部441Aは処理を終了する。
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
図24は、写真120(図1参照)を用いて空調機156(図1参照)の動作を制御する例を説明する図である。(a)は空調機156を動作させるための記載の例であり、(b)は空調機156の動作を停止させるための記載の例である。
例えば空調機156を動作させたい場合、ユーザは、空調機の像306の上に丸印650を描いた写真120を空調機156(図1参照)に向けることで、空調機156を動作状態に制御できる。この場合、リモコンの操作は不要である。反対に、空調機156の動作を停止したい場合、ユーザは、空調機の像306の上にバツ印651を描いた写真120を空調機156(図1参照)に向ければよい。
このように、前述した仕組みは、機器の動作の実行(オン)と非実行(オフ)の指示にも利用できる。
図25は、地図700の表面にペン312を用いて飛行経路701を描画してドローン702の飛行を制御する例を説明する図である。
ここでのドローン702は無人飛行機の一例である。ドローン702には、飛行に必要なプロペラの他、進行方向を制御する操舵機構、地上などを撮影するカメラ、各部の動作を制御する制御部その他が設けられている。ここでは、ドローン702のカメラに地図700を向けるだけで飛行経路を指示することができる。
なお、制御対象は飛行船でもよいし、無人車両でもよい。図中の破線は、空中でのドローン702の飛行経路である。
このように動作の制御に動画像を用いる場合には、制御の内容を時間の経過に伴って変更することができる。
例えばコンピュータの場合であれば、オペレーションシステム(OS)を表す文字やロゴマークなどを記載した画像(画像データを含む)を提示して起動するオペレーションシステムを切り替えてもよい。ファームウェアで起動する機器の場合も同様である。
また実行するアプリケーションプログラムを表す文字やロゴマークなどを記載した画像(画像データを含む)を提示して実行するアプリケーションプログラムを切り替えてもよい。例えば文書作成プログラム、表計算プログラム、ドローイングプログラムの切り替えに使用してもよい。
Claims (10)
- 自機 と他の物体を被写体に含む写真を自機の撮像部又は読取部から読み取る受信手段と、
前記受信手段で読み取った写真の被写体に自機が含まれ、当該写真に自機の動作を指示する情報の記載がある場合に、当該情報に基づいて自機の動作を制御する制御手段と
を有する情報処理装置。 - 前記情報は、自機の移動に関する動作を規定する、請求項1に記載の情報処理装置。
- 前記移動に関する動作は、自機の移動の方向、経路又は範囲を規定する、請求項2に記載の情報処理装置。
- 前記情報は、自機の動作の質を規定する、請求項1に記載の情報処理装置。
- 前記動作の質はテキストによって与えられる、請求項4に記載の情報処理装置。
- 前記情報は、自機の動作の実行又は非実行を規定する、請求項1に記載の情報処理装置。
- 前記情報は図形の形式で記載されている、請求項1に記載の情報処理装置。
- 前記情報は、自機の処理動作の切り替えを規定する、請求項1に記載の情報処理装置。
- 前記情報は、自機で実行中の基本プログラムやアプリケーションの切り替えを規定する、請求項1に記載の情報処理装置。
- コンピュータに、
自機 と他の物体を被写体に含む写真を自機の撮像部又は読取部から読み取る機能と、
前記機能で読み取った写真の被写体に自機が含まれ、当該写真に自機の動作を指示する情報の記載がある場合に、当該情報に基づいて自機の動作を制御する機能と、
を実現させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017176002A JP7124280B2 (ja) | 2017-09-13 | 2017-09-13 | 情報処理装置及びプログラム |
US15/936,446 US10819902B2 (en) | 2017-09-13 | 2018-03-27 | Information processing apparatus and non-transitory computer readable medium |
CN201811009824.XA CN109493581A (zh) | 2017-09-13 | 2018-08-31 | 信息处理装置以及存储程序的计算机可读介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017176002A JP7124280B2 (ja) | 2017-09-13 | 2017-09-13 | 情報処理装置及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019053425A JP2019053425A (ja) | 2019-04-04 |
JP7124280B2 true JP7124280B2 (ja) | 2022-08-24 |
Family
ID=65631801
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017176002A Active JP7124280B2 (ja) | 2017-09-13 | 2017-09-13 | 情報処理装置及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US10819902B2 (ja) |
JP (1) | JP7124280B2 (ja) |
CN (1) | CN109493581A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6899668B2 (ja) * | 2017-03-01 | 2021-07-07 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 自走型掃除機の制御方法、制御装置、制御プログラム及び自走型掃除機 |
US11356606B2 (en) * | 2019-02-26 | 2022-06-07 | Insidemaps, Inc. | Imaging using mobile computing device in communication with wide field of view (FOV) camera |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002323925A (ja) | 2001-04-26 | 2002-11-08 | Matsushita Electric Ind Co Ltd | 移動作業ロボット |
JP2010198064A (ja) | 2009-02-23 | 2010-09-09 | Japan Science & Technology Agency | ロボット制御システム及びロボット制御方法 |
JP2013169222A (ja) | 2012-02-17 | 2013-09-02 | Sharp Corp | 自走式電子機器 |
JP6187667B1 (ja) | 2016-10-24 | 2017-08-30 | 富士ゼロックス株式会社 | 情報処理装置、画像ファイルのデータ構造及びプログラム |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6654060B1 (en) * | 1997-01-07 | 2003-11-25 | Canon Kabushiki Kaisha | Video-image control apparatus and method and storage medium |
US6191406B1 (en) | 1998-07-24 | 2001-02-20 | Eastman Kodak Company | Data reader and reader system having visible centerless targeting |
US20020021304A1 (en) | 2000-08-18 | 2002-02-21 | Harutaka Eguchi | Image processing system for adding add information to image object, image processing method and medium |
JP2002132558A (ja) | 2000-08-18 | 2002-05-10 | Fujitsu Ltd | 画像処理装置、方法、媒体、およびプログラム |
US6859225B1 (en) * | 2000-10-20 | 2005-02-22 | Silverbrook Research Pty Ltd | Method and apparatus for fault tolerant data storage on photographs |
JP2004120069A (ja) | 2002-09-24 | 2004-04-15 | Canon Inc | 画像処理装置、画像処理方法および該方法を実現するためのプログラム |
JP2005117621A (ja) | 2003-09-16 | 2005-04-28 | Honda Motor Co Ltd | 画像配信システム |
KR100930802B1 (ko) | 2007-06-29 | 2009-12-09 | 엔에이치엔(주) | 이미지를 이용한 브라우저 제어 방법 및 시스템 |
KR101823441B1 (ko) * | 2012-10-05 | 2018-01-31 | 에스프린팅솔루션 주식회사 | 단말 장치, 화상 형성 장치, 영상 생성 방법, 화상 형성 장치의 구동 방법, 및 컴퓨터 판독가능 기록 매체 |
US9545582B2 (en) * | 2013-08-23 | 2017-01-17 | Evollve, Inc. | Robotic activity system using color patterns |
JP5885714B2 (ja) * | 2013-08-28 | 2016-03-15 | 京セラドキュメントソリューションズ株式会社 | 画像形成システムおよび出力指示プログラム |
KR102335925B1 (ko) * | 2014-10-13 | 2021-12-06 | 삼성전자주식회사 | 네트워크 서비스를 위한 전자장치와 게이트웨이, 및 이를 위한 동작 방법 |
FR3031402B1 (fr) * | 2015-01-02 | 2018-09-07 | Squadrone System | Procede de pilotage automatique d'un drone a voilure tournante pour operer des mouvements de camera par une camera embarquee |
JP6657498B2 (ja) * | 2015-04-24 | 2020-03-04 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | モバイルプラットフォームの動作情報を提示する方法、装置、およびコンピュータプログラム |
CN106175603A (zh) * | 2015-04-30 | 2016-12-07 | 青岛海高设计制造有限公司 | 地面清洁器及其控制方法 |
CN105751230B (zh) * | 2016-03-31 | 2018-12-21 | 纳恩博(北京)科技有限公司 | 一种路径控制方法、路径规划方法、第一设备及第二设备 |
US20170329347A1 (en) * | 2016-05-11 | 2017-11-16 | Brain Corporation | Systems and methods for training a robot to autonomously travel a route |
US10365644B2 (en) * | 2016-05-31 | 2019-07-30 | Optim Corporation | Application, smart device, drone, server, system method, and program for automatically control drone flight |
CN106197452A (zh) | 2016-07-21 | 2016-12-07 | 触景无限科技(北京)有限公司 | 一种视觉图像处理设备及系统 |
JP6701064B2 (ja) * | 2016-12-14 | 2020-05-27 | 株式会社クボタ | 走行経路生成装置 |
US10642264B2 (en) * | 2017-07-19 | 2020-05-05 | Superior Communications, Inc. | Security drone system |
-
2017
- 2017-09-13 JP JP2017176002A patent/JP7124280B2/ja active Active
-
2018
- 2018-03-27 US US15/936,446 patent/US10819902B2/en active Active
- 2018-08-31 CN CN201811009824.XA patent/CN109493581A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002323925A (ja) | 2001-04-26 | 2002-11-08 | Matsushita Electric Ind Co Ltd | 移動作業ロボット |
JP2010198064A (ja) | 2009-02-23 | 2010-09-09 | Japan Science & Technology Agency | ロボット制御システム及びロボット制御方法 |
JP2013169222A (ja) | 2012-02-17 | 2013-09-02 | Sharp Corp | 自走式電子機器 |
JP6187667B1 (ja) | 2016-10-24 | 2017-08-30 | 富士ゼロックス株式会社 | 情報処理装置、画像ファイルのデータ構造及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
US10819902B2 (en) | 2020-10-27 |
US20190082102A1 (en) | 2019-03-14 |
JP2019053425A (ja) | 2019-04-04 |
CN109493581A (zh) | 2019-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5898022B2 (ja) | 自走式機器 | |
CN1320506C (zh) | 通用计算装置 | |
CN110456782B (zh) | 控制装置和控制方法 | |
EP3271838B1 (en) | Image management device, image management method, image management program, and presentation system | |
EP3605409B1 (en) | Electronic device and operation method therefor | |
JP5989347B2 (ja) | 携帯端末、携帯端末の制御プログラム、及び携帯端末を含む表示システム | |
US10049605B2 (en) | Display apparatus, display control method, and display system | |
KR102022042B1 (ko) | 데이터 전송 방법 및 시스템 | |
JP7124280B2 (ja) | 情報処理装置及びプログラム | |
US20210233529A1 (en) | Imaging control method and apparatus, control device, and imaging device | |
JP2018111154A (ja) | ロボット装置及びプログラム | |
JP5153478B2 (ja) | 画像処理装置及び画像処理方法 | |
JP6642316B2 (ja) | 情報処理システム、電子機器、情報処理装置、情報処理方法、電子機器処理方法、及びプログラム | |
US10708445B2 (en) | Information processing apparatus and non-transitory computer readable medium | |
JP6179315B2 (ja) | 情報処理装置、画像処理システム、情報処理装置における画像処理方法及びプログラム | |
US10896219B2 (en) | Information processing apparatus, data structure of image file, and non-transitory computer readable medium | |
JP6677527B2 (ja) | サーバ装置、およびプログラム | |
CN112313941A (zh) | 控制装置、摄像装置、控制方法以及程序 | |
JP7215621B1 (ja) | 情報処理装置、情報処理システム、機器管理方法及びプログラム | |
JP6943029B2 (ja) | 投影装置、投影システム、制御方法及びプログラム | |
JP6436191B2 (ja) | サーバ装置、サーバ装置を用いた情報処理方法及びプログラム | |
US20230205198A1 (en) | Information processing apparatus, route generation system, route generating method, and non-transitory recording medium | |
WO2021052216A1 (zh) | 控制装置、摄像装置、控制方法以及程序 | |
JP2016170790A (ja) | 撮像装置 | |
CN117456432A (zh) | 障碍物的识别方法、电子设备及计算机程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200717 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210518 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210719 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220725 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7124280 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |