JP7124280B2 - 情報処理装置及びプログラム - Google Patents

情報処理装置及びプログラム Download PDF

Info

Publication number
JP7124280B2
JP7124280B2 JP2017176002A JP2017176002A JP7124280B2 JP 7124280 B2 JP7124280 B2 JP 7124280B2 JP 2017176002 A JP2017176002 A JP 2017176002A JP 2017176002 A JP2017176002 A JP 2017176002A JP 7124280 B2 JP7124280 B2 JP 7124280B2
Authority
JP
Japan
Prior art keywords
image
information
see
cleaning
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017176002A
Other languages
English (en)
Other versions
JP2019053425A (ja
Inventor
賢吾 得地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP2017176002A priority Critical patent/JP7124280B2/ja
Priority to US15/936,446 priority patent/US10819902B2/en
Priority to CN201811009824.XA priority patent/CN109493581A/zh
Publication of JP2019053425A publication Critical patent/JP2019053425A/ja
Application granted granted Critical
Publication of JP7124280B2 publication Critical patent/JP7124280B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C23/00Non-electrical signal transmission systems, e.g. optical systems
    • G08C23/04Non-electrical signal transmission systems, e.g. optical systems using light waves, e.g. infrared
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Manipulator (AREA)

Description

本発明は、情報処理装置及びプログラムに関する。
機器の操作には、一般に、専用のリモートコントローラ(以下「リモコン」という)が用意される。各リモコンには、機能別にボタン類が用意されており、ユーザは目的とする動作に応じたボタンを操作している。
特開2004-120069号公報
機器を操作したい場合、ユーザは、専用のリモコンに用意されている機能別のボタン類を操作する必要がある。
本発明は、操作対象の機器が写った画像を利用して、機器を容易に操作できるようにすることを目的とする。
請求項1に記載の発明は、自機と他の物体を被写体に含む写真を自機の撮像部又は読取部から読み取る受信手段と、前記受信手段で読み取った写真の被写体に自機が含まれ、当該写真に自機の動作を指示する情報の記載がある場合に、当該情報に基づいて自機の動作を制御する制御手段とを有する情報処理装置である。
請求項2に記載の発明は、前記情報は、自機の移動に関する動作を規定する、請求項1に記載の情報処理装置である。
請求項3に記載の発明は、前記移動に関する動作は、自機の移動の方向、経路又は範囲を規定する、請求項2に記載の情報処理装置である。
請求項4に記載の発明は、前記情報は、自機の動作の質を規定する、請求項1に記載の情報処理装置である。
請求項5に記載の発明は、前記動作の質はテキストによって与えられる、請求項4に記載の情報処理装置である。
請求項6に記載の発明は、前記情報は、自機の動作の実行又は非実行を規定する、請求項1に記載の情報処理装置である。
請求項7に記載の発明は、前記情報は図形の形式で記載されている、請求項1に記載の情報処理装置である。
請求項8に記載の発明は、前記情報は、自機の処理動作の切り替えを規定する、請求項1に記載の情報処理装置である。
請求項9に記載の発明は、前記情報は、自機で実行中の基本プログラムやアプリケーションの切り替えを規定する、請求項1に記載の情報処理装置である。
請求項10に記載の発明は、コンピュータに、自機と他の物体を被写体に含む写真を自機の撮像部又は読取部から読み取る機能と、前記機能で読み取った写真の被写体に自機が含まれ、当該写真に自機の動作を指示する情報の記載がある場合に、当該情報に基づいて自機の動作を制御する機能と、を実現させるためのプログラムである。
請求項1記載の発明によれば、操作対象の機器が写った写真を利用して、機器を容易に操作できる。
請求項2記載の発明によれば、機器の実空間内における移動を容易に制御できる。
請求項3記載の発明によれば、機器の実空間内における移動を容易に制御できる。
請求項4記載の発明によれば、写真を通じて機器の動作の質を制御できる。
請求項5記載の発明によれば、動作の質を容易に指示できる。
請求項6記載の発明によれば、写真を通じて機器の動作を制御できる。
請求項7記載の発明によれば、図形を用いて機器の動作を制御できる。
請求項8記載の発明によれば、機器の処理動作を制御できる。
請求項9記載の発明によれば、機器で実行されるプログラムを切り替えることができる。
請求項10記載の発明によれば、操作対象の機器が写った写真を利用して、機器を容易に操作できる。
本実施の形態で使用する画像処理システムの構成例を示す図である。 掃除ロボットのハードウェア構成の一例を示す図である。 実施の形態1における掃除ロボットを構成する制御部の機能構成の一例を示す図である。 コンピュータの操作画面上に表示された静止画像にマウスポインタを用いて掃除の範囲を入力する様子を説明する図である。 写真上にユーザがペンを用いて掃除の範囲を示す囲み線を描画する様子を説明する図である。 実施の形態1で使用する掃除ロボットで実行される処理動作を説明するフローチャートである。 掃除する範囲の特定を説明する図である。 掃除ロボットによる掃除の具体例を説明する図である。 写真を用いた掃除の範囲の他の例を説明する図である。 写真を用いた掃除の範囲の他の例を説明する図である。 音声による掃除の質の指定を説明する図である。 実施の形態2に係る画像処理システムの構成例を示す図である。 画像形成装置のハードウェア構成の一例を示すブロック図である。 画像形成装置を構成する制御部における機能構成の一例を示す図である。 実施の形態2で使用する画像形成装置で実行される処理動作を説明するフローチャートである。 本実施の形態で使用するJPEGファイルのデータ構造を示す図である。 実施の形態3における掃除ロボットを構成する制御部の機能構成の一例を示す図である。 実施の形態3における制御部によって実行される処理動作の一例を示すフローチャートである。 ワークフロー処理を規定する情報の記録に用いられる情報処理装置を構成する制御部の機能構成の一例を示すブロック図である。 ユーザによるオブジェクトの領域の指定の例を説明する図である。 ワークフロー処理を規定する情報の属性情報への書き込みを説明する図である。(a)はJPEGファイルの属性情報には情報が含まれる前のデータ構造を示し、(b)はJPEGファイルの属性情報には情報が追加された状態を示す。 属性情報による制御に対応する画像形成装置を構成する制御部の機能構成の一例を示す図である。 画像形成装置を構成する制御部によって実行される処理動作の一例を示すフローチャートである。 写真を用いて空調機の動作を制御する例を説明する図である。(a)は空調機を動作させるための記載の例であり、(b)は空調機の動作を停止させるための記載の例である。 地図の表面にペンを用いて飛行経路を描画してドローンの飛行を制御する例を説明する図である。
以下、図面を参照して、本発明の実施の形態を説明する。
<実施の形態1>
<画像処理システムの構成>
図1を用いて、実施の形態1に係る画像処理システム100の構成について説明する。
図1は、本実施の形態で使用する画像処理システム100の構成例を示す図である。
画像処理システム100は、静止画像111(例えば電子写真)の表示に使用されるノート型のコンピュータ110と、静止画像111を用紙に印刷した写真120と、静止画像111の撮影場所に対応する実空間150内に存在する機器とで構成されている。
コンピュータ110は、実空間150と同じ空間に存在してもよいし、異なる空間に存在してもよい。図1ではコンピュータ110の外観がノート型のコンピュータの例を示しているが、コンピュータ110の外観に関する制限はなく、据え置き型のコンピュータ、スマートフォン、ゲーム機などでもよい。
図1に示す実空間150は、屋内の一室を想定している。実空間150には機器だけでなく生物や植物も存在している。
実空間150には、用紙等の記録材に画像を形成する機能や光学的に原稿の画像を読み取る機能などを有する画像形成装置151と、放送番組等を表示する表示装置152と、動画像や音(以下「動画像など」という)を記録媒体に記録し又は記録媒体から動画像などを再生する録画再生機153と、人154と、植木155と、空調機156と、監視カメラ157と、掃除ロボット158とが存在している。
以下では、実空間150に存在する複数の機器のうち掃除ロボット158を代表例として装置構成や動作を説明する。
図2は、掃除ロボット158のハードウェア構成の一例を示す図である。
本実施の形態における掃除ロボット158は、いわゆる自立型掃除機に分類され、掃除のための機構部分と自走のための機構部分とで構成されている。
掃除ロボット158は、装置全体を制御する制御部201と、間取り図などの画像データを記憶する記憶部202と、ユーザによる操作を受け付けるボタン類や装置の状態をユーザに通知する操作表示部203と、塵や埃など(以下「塵」という)を吸引する吸塵部204と、走行のための駆動系を有する走行駆動部205と、周囲の状況を撮影するカメラ部206と、塵の有無や走行に必要な各種の情報を取得するセンサ部207と、外部の機器(例えばコンピュータ110)と通信するための通信部208と、内蔵する電池を充電するための充電部209と、を有している。
なお、制御部201と各部はバス210を介して接続されている。
制御部201は、いわゆるコンピュータであり、不図示のCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)により構成される。ROMには、CPUにより実行されるBIOS(Basic Input/Output System)やファームウェアが記憶されている。RAMはプログラムの作業領域として用いられる。
ここでの制御部201は、ファームウェアなどの実行を通じて各部の動作を制御する。例えば制御部201は、集塵に関する動作や走行に関する動作を制御する。
記憶部202は、半導体メモリやハードディスク装置などの不揮発性の書き換え可能な記憶装置により構成されている。
操作表示部203は、ユーザの操作を受け付けるボタン類や動作状態を表すLED(Light Emitting Diode)インジケータ等で構成される。なお、操作表示部203には、液晶ディスプレイや有機EL(Electro‐Luminescence)ディスプレイを用いてもよい。
吸塵部204は、走行路上の床面に存在する塵を空気と一緒に取り込む気流を発生するモータその他の部材で構成されている。吸塵部204の構造は、採用する集塵方式によって相違する。
走行駆動部205は、本体を移動させる車輪と、車輪を駆動するモータと、操舵機構などを有している。
カメラ部206は、周辺の情報やユーザより提示される写真120(図1参照)の画像を撮影するイメージセンサで構成される。カメラ部206は、例えばCCD(Charge Coupled Device)センサやCMOS(Complementary Metal Oxide Semiconductor)センサなどで構成される。撮像された画像は、記憶部202に蓄積される。前述した制御部201は、記憶部202に蓄積されている画像データを読み出して分析する。ここでの分析により、制御部201は、例えば実空間150の間取り図を生成し、実空間150内における自機の位置を検出する。また、制御部201は、写真120(図1参照)に対応する画像を処理して自機の動作を制御する。この動作の詳細については後述する。
センサ部207は、例えば障害物との距離を測定する障害物センサ、障害物との接触を検知する接触センサ、塵を認識する塵センサ、本体の角度を計測するジャイロセンサ、速度を計測する加速度センサ、走行した距離を計測する走行距離センサなどで構成される。
通信部208は、例えばいわゆる携帯電話網、無線通信網(IoT(Intranet of Things)ネットワーク、ホームネットワークなど)との通信に用いる通信装置で構成され、その通信には例えばWifi(登録商標)、Bluetooth(登録商標)、ZigBee(登録商標)などを使用する。
図3は、実施の形態1における掃除ロボット158を構成する制御部201の機能構成の一例を示す図である。
図3に示す機能構成は、制御部201によるファームウェアの実行を通じて実現される。
本実施の形態における制御部201は、外部から画像データを入力する画像受信部211と、受信した画像に含まれる情報(動作の内容を指示する情報)の記載を認識する画像認識部212と、実空間150内における自機の位置を検出する位置検出部213と、認識された情報と自機の位置とに基づいて自機の走行を制御する掃除制御部214とを有している。
掃除制御部214は、画像データを補助する音声データが存在する場合には、音声データも含めて自機の走行を制御する。
ここでの音声データは音データの一例である。また、画像受信部211は受信手段の一例であり、画像認識部212と位置検出部213と掃除制御部214は制御手段の一例である。
画像受信部211は、カメラ部206によって撮影された写真120の画像データ、又は、通信部208を通じてコンピュータ110から受信した画像ファイルの画像データを画像認識部212に出力する。
画像認識部212は、受信した画像データに自機の動作を指示する記載が含まれる場合、指示の内容を認識して掃除制御部214に出力する。例えば画像データに対応する画像(例えば電子写真)に自機が含まれており、自機の移動方向、経路、範囲等の移動範囲を規定する書き込みが認識された場合、画像認識部212は、認識された情報を掃除制御部214に出力する。
ここでの移動範囲を規定する情報は、動作を規定する情報の一例であるとともに移動に関する情報の一例でもある。
本実施の形態の場合、移動範囲を規定する情報は、手書きの線や図形などで与えられる。掃除の経路や範囲は、操作ボタンによる入力や言葉による指示が難しいためである。
もっとも、手書きの線や図形は、写真120(図1参照)に対する書き込みであっても、コンピュータ110の操作画面上での書き込み(すなわち静止画像111への書き込み)であってもよい。
本実施の形態では、移動範囲を入力する主な手段としてユーザによる手書きを想定しているが、アプリケーションソフトによる経路の生成や与えられた経路の修正を排除する意図ではない。
本実施の形態における動作を規定する情報には、掃除の質を規定する情報も含まれる。掃除の質は動作の質の一例である。本実施の形態の場合、掃除の質には、例えば移動の速度(高速、低速など)や掃除の質(徹底、お手軽など)が含まれる。
掃除の質は、移動範囲を規定する情報とは異なり、ボタン類や音声による指定も容易である。このため、本実施の形態では、掃除の質については、画像データに対応する画像上へのテキストによる書き込みや不図示のマイクを用いた音声での指示も想定する。
位置検出部213は、実空間150内における自機の位置を検出する機能を提供する。
例えば自機の移動経路の履歴等を用いて実空間150の間取り図を生成する機能が掃除ロボット158に設けられている場合、位置検出部213は、自機で生成した間取り図の情報を用いて自機の位置を検出する。
これに対し、例えば室内用のGPS(Global Positioning System)の受信部を有する場合、位置検出部213は、この受信部の出力信号を使用して実空間150内における自機の位置を検出する。
また例えば位置検出部213は、実空間150に存在する監視カメラ157とのIoT通信を通じて実空間150内における自機の画像を取得し、画像認識によって自機の位置を検出する。
掃除制御部214は、画像認識部212で認識された移動範囲と位置検出部213で検出された位置とを比較して、自機による掃除に範囲、掃除の経路、掃除の方向などを決定する。
例えば掃除制御部214は、受信した電子写真(写真120)を平面図に変換し、内部で生成されている間取り図と位置合わせすることにより、掃除の経路や範囲を具体的に決定する。
掃除制御部214は、変換後の平面図から抽出される特徴点(例えば床面と壁との境界や被写体など)と間取り図との間で位置合わせを行う。例えば被写体が位置する場所は、掃除ロボット158によって生成された間取り図に含まれない部位(移動できない部位であるので間取り図から除かれている)に対応することを利用する。位置合わせを行えた場合、掃除制御部214は、平面図上における掃除の経路や範囲を間取り図上にマッピングされる。
なお、間取り図が、実空間150の真ん中に立って部屋の隅を位置入力しながら360°撮影することで生成するアプリケーション(例えばMagicPlan(商標))によって生成され、かつ、撮影時に使用した画像を記憶部202に記録されている場合には、記録されている画像データと電子写真との照合により間取り図との位置合わせを実現してもよい。
また例えば掃除制御部214は、監視カメラ157に写っている被写体を特徴点として使用し、当該特徴点と自機の位置との位置関係から掃除の経路や範囲を具体的に決定してもよい。
<印刷物(電子写真)を用いた経路などの指定の例>
ここでは、本実施の形態における掃除の経路などの指定の例を説明する。
図4は、コンピュータ110(図1参照)の操作画面110A上に表示された静止画像111にマウスポインタ112を用いて掃除の範囲を入力する様子を説明する図である。
操作画面110Aには、実空間150(図1参照)を撮影した静止画像111が小画面(ウィンドウ)の形式で表示されている。
図4に示す静止画像111には、画像形成装置の像301、表示装置の像302、録画再生機の像303、人の像304、植木の像305、空調機の像306、監視カメラの像307、掃除ロボットの像308が含まれている。
操作画面110Aの下部にはタスクバー110Bが配置され、起動中の3つのアプリケーションのアイコン113と、現在時刻114とが表示されている。
静止画像111は実空間150(図1参照)のある時刻の状態を表している。このため、人の像304や掃除ロボットの像308の位置は、現在時刻における人154(図1参照)や掃除ロボット158(図1参照)の位置とは一般には異なる。また、静止画像111を撮影した時点と現在時刻とでは実空間150に存在する人物も人数も異なっている。
ユーザは、この静止画像111のうち掃除ロボット158で掃除させたい範囲をマウスポインタ112によって描画する。図4の例では、マウスポインタ112が移動した軌跡309が楕円で示されている。
図4に示す入力手法は、例えば静止画像111に軌跡309を描画した画像データ(電子写真)をコンピュータ110から掃除ロボット158に送信する場合に用いられる。
図5は、写真120上にユーザ(手311)がペン312を用いて掃除の範囲を示す囲み線313を描画する様子を説明する図である。
図5には図4との対応部分に同一の符号を付して示している。図5に示す写真120は静止画像111(図4参照)に対応している。
図5に示す入力手法は、囲み線313が描画された写真120を、ユーザが掃除ロボット158(図1参照)のカメラ部206(図2参照)の前にかざすことで、掃除ロボット158に画像データ(写真画像)を与える場合に用いられる。
<処理動作の例>
ここでは、図6を使用して、掃除ロボット158(図1参照)で実行される処理動作の例を説明する。
図6は、実施の形態1で使用する掃除ロボット158で実行される処理動作を説明するフローチャートである。
まず、制御部201(図2参照)は、画像受信部211(図参照)を通じて静止画像111(図1参照)又は写真120(図1参照)に対応する画像データを受信する(ステップ1)。
次に、制御部201は、画像認識部212(図参照)の機能を通じて、画像データに対応する電子写真の被写体に自機が含まれるかを判定する(ステップ2)。この判定には画像認識技術を使用する。画像認識に必要とされる自機の1つ又は複数の画像データは記憶部202(図2参照)などに格納されている。もっとも、自機の画像データを記憶部202などには持たず、監視カメラ157(図1参照)から取得される画像データを用いてもよい。
ステップ2で肯定結果が得られた場合、制御部201は、自機の動作を指示する記載があるか否かを判定する(ステップ3)。ここで、制御部201は、画像データに一筆書きで表されている曲線や単色で描かれた図形などのパターンが存在する場合、動作を指示する記載があると判定する。例えば軌跡309(図4参照)や囲み線313(図5参照)は、一筆書きや単色で描かれた図形などのパターンの一例である。記憶部202(図2参照)には被写体の動作を指示する記載と判断するために必要な条件やパターンが登録されている。
また、制御部201は、軌跡309(図4参照)や囲み線313(図5参照)で囲まれた領域の内側に自機の像が含まれている場合、自閾が画像データに含まれる被写体の動作を指示する記載の対象であると認識する。
これら2つの条件を満たす場合、制御部201は、自機の動作を指示する記載があると判定する。
ステップ2及びステップ3のいずれかで否定結果が得られた場合、制御部201は、後述する動作を実行することなく処理を終了する。
一方、ステップ3で肯定結果が得られた場合、制御部201は、指示の内容を特定する(ステップ4)。本実施の形態、制御部201は、掃除する範囲を特定する。
図7は、掃除する範囲の特定を説明する図である。図7では、掃除ロボット158によって事前に生成されている間取り図350と、制御部201が特定した掃除する範囲351(破線で示す)の関係が表されている。掃除する範囲351は、軌跡309(図4参照)や囲み線313(図5参照)に対応している。
なお、図中の丸印で示す記号352は、自機(すなわち掃除ロボット158(図1参照))の現在位置を示し、網掛けで示す部位は、障害物のために掃除ロボット158が移動できない空間を示す。
図6の説明に戻る。
次に、制御部201は、特定した動作を予定動作としてユーザに通知する(ステップ5)。この通知は、例えば画像データがコンピュータ110(図1参照)から受信された場合に実行され、画像データが写真120から取得された場合には実行されない。
ステップ5が実行される場合、制御部201は、コンピュータ110に対して予定する動作(予定動作)の内容を通知し、コンピュータ110からの応答を待つ。ここで、予定動作を了承する応答があった場合(ステップ6で肯定結果が得られた場合)、制御部201は、ステップ4で特定した動作を実行する(ステップ7)。本実施の形態では、特定した範囲を対象とする掃除を開始する。
なお、予定動作を了承しない応答があった場合(ステップ6で否定結果が得られた場合)、制御部201は、ステップ1に戻り、正しい動作の指示を待ち受ける。
ステップ5を実行しない場合(ユーザに予定動作を通知しない場合)、制御部201は、特定した動作を実行する(ステップ7)。
図8は、掃除ロボット158による掃除の具体例を説明する図である。掃除ロボット158は、ユーザが手書きで入力した範囲351(破線で示す楕円の内側)を移動しながら塵を収集する。
<実施の形態の効果>
本実施の形態によれば、リモコンによるボタン操作によっては指定が困難な掃除の範囲(2次元空間内の範囲)を容易に掃除ロボット158に指示することができる。
すなわち、ユーザは、掃除する範囲を特定する軌跡309(図4参照)や囲み線313(図5参照)を静止画像111や写真120上に書き込んで掃除ロボット158に与えるだけで指示を終えることができる。
なお、掃除ロボット158の移動方向をリモコンで操作する場合には、掃除の間中、掃除ロボット158の位置を監視しながら指示を与える必要があるが、本実施の形態の場合には、最初に画像を与えるだけで指示が終了する。
また、ユーザは、掃除ロボット158を含めるように掃除の範囲を特定する線を描画するだけで指示の対象が掃除ロボット158であることを特定できる。
ここでの掃除ロボット158は、操作の対象である特定の機器の一例である。
<他の指示の例>
以下では、他の指示の手法について説明する。
図9は、写真120を用いた掃除の範囲の他の例を説明する図である。
図9の例では、掃除ロボットの像308の上に丸印370が描画され、掃除ロボット158(図1参照)が指示対象であることが示されている。
また、図9の例では、掃除の範囲を示す2つの図形371及び372が描画されている。楕円形状の図形371は、人の像304と画像形成装置の像301との間の空間を掃除の範囲として指定し、楕円形状の図形372は、人の像304と植木の像305の間の空間を掃除の範囲として指定している。
なお、図形371の内側には文字Aを丸で囲んだ記号が描画され、図形372の内側には文字Bを丸で囲んだ記号が描画されている。
ここで、文字A及びBを丸で囲んでいるのは、ユーザからの指示であることを掃除ロボット158が認識できるようにするためである。
図9では、文字が丸で囲まれている記号をユーザからの指示として認識するという規則で制御部201(図3参照)が動作する場合であるので、予め定めた他の規則が存在する場合には該当する規則を満たすようにユーザが記述を行う。例えば矩形の図形や星形の図形と数字を組み合わせてもよい。
さらに、図9の例では、写真120の余白部分に、掃除の質(動作の質の一例)を規定するテキスト373が記述されている。具体的には、「(丸で囲んだ)A→(丸で囲んだ)B」と「ゆっくり」の記述が認められる。
「(丸で囲んだ)A→(丸で囲んだ)B」の記述は、掃除ロボット158による掃除を図形371で囲んだ範囲から開始し、続いて図形372で囲んだ範囲で実行すればよいことを指示する。
「ゆっくり」の記述は、掃除ロボット158の移動速度として低速モードを指示する。この他に「高速で」、「丁寧に」、「簡易に」などがある。例えば「高速で」は高速モードを指示する場合に使用され、「丁寧に」は吸引力を強めるなどして塵の取り残しを少なくするモードを指示する場合に使用され、「簡易に」は標準的な吸引力を発生して掃除を実行する場合に使用される。
図10は、写真120を用いた掃除の範囲の他の例を説明する図である。
図10の場合も、掃除ロボットの像308の上に丸印370が描画され、掃除ロボット158(図1参照)が指示対象であることが示されている。
一方、図10の場合、掃除の経路が一筆書きの軌跡375で描画されている。この場合、掃除ロボット158は指示された経路に沿うように実空間150(図1参照)を移動することになる。
図11は、音声による掃除の質の指定を説明する図である。
この指定は、前述した画像データを用いた指示を補足する指定の方法である。図11では、男性が「ゆっくり掃除してください」と、掃除ロボット158に対して発声している。図11に示す掃除ロボット158にはマイク380が設けられており、マイク380で取り込まれた音声に対応する音声データが音声認識された後、掃除制御部214(図3参照)に与えられる。
このように、音声を補助的に組み合わせて使用することにより、掃除ロボット158に対する指示の内容を全て画像(電子写真)上に記述せずに済み、指示に必要な作業を簡略化できる。
<実施の形態2>
本実施の形態では、指示対象である機器を他の機器を通じて間接的に制御する場合について説明する。
図12を用いて、実施の形態2に係る画像処理システム400の構成について説明する。
図12は、実施の形態2に係る画像処理システム400の構成例を示す図である。
図12には図1との対応部分に対応する符号を付して示している。
本実施の形態の場合も、制御の対象は掃除ロボット158である。
本実施の形態は、静止画像111に写っている実空間150がプライベートな空間であり、例えば家庭内に存在する機器で構成されるホームネットワーク(家庭内LAN)や家庭内に存在するIoTデバイスで構成されるIoTネットワークを通じて他機の情報を収集できる場合を想定する。
本実施の形態が実施家の形態1と異なる点は、画像データD又は写真120が画像形成装置151に対して与えられ、指示対象を認識した画像形成装置151によって掃除ロボット158の動作が制御される点である。
なお、画像形成装置151から掃除ロボット158への指示は、無線通信を通じて実現される。
図13は、画像形成装置151のハードウェア構成の一例を示すブロック図である。
画像形成装置151は、制御部441と、外部との通信に使用される通信インターフェース(通信I/F)442と、表示部444に操作画面等を表示する表示部インターフェース(表示部I/F)443と、操作部446に対するユーザの操作を受け付ける操作部インターフェース(操作部I/F)445を有している。
ここで、表示部444は、例えば液晶ディスプレイや有機ELディスプレイ等で構成される。操作部446は、例えば操作ボタン、操作キー、タッチパネル等で構成される。
画像形成装置151は、不揮発性の記憶装置の一例であるHDD(ハードディスク装置)447と、例えば電子写真方式やインクジェット方式で画像を印刷する印刷機構449を駆動する印刷機構インターフェース(印刷機構I/F)448と、記録材である用紙を搬送する搬送機構451を駆動する搬送機構インターフェース450と、写真120(図12参照)から画像を読み取る画像読取機構453を駆動する読取機構インターフェース(読取機構I/F)452も有している。
ここでの画像読取機構453は、いわゆるスキャナである。
印刷機構449は、イエロー(Y)、マゼンタ(M)、シアン(C)、黒(K)の4色に対応する印刷ユニットを有している。電子写真方式の各ユニットには、感光体ドラムと、感光体ドラムの表面を帯電する帯電器と、帯電後の感光体ドラムにレーザ光を照射して画像を描画する露光部と、描画された画像をトナー像として現像する現像器と、トナー像を用紙Pに転写する転写部と、転写後のトナー像を用紙Pに定着する定着器が備えられている。
制御部441と各部は、バス454を通じて接続されている。
図14は、画像形成装置151(図1参照)を構成する制御部441における機能構成の一例を示す図である。
本実施の形態における制御部441は、外部から画像データを入力する画像受信部461と、受信した画像に記載されている動作の内容を指示する情報を認識する画像認識部462と、実空間150内における制御対象とする掃除ロボット158(図12参照)の位置を検出する位置検出部463と、認識された指示に関する情報と掃除ロボット158の位置とに基づいて掃除ロボット158の走行を制御する走行制御部464とを有している。
ここでの画像受信部461は受信手段の一例であり、画像認識部462と位置検出部463と掃除制御部464は制御手段の一例である。
なお、走行制御部464には掃除ロボット158による掃除の質を制御する機能も用意されている。
本実施の形態における画像受信部461は、画像読取機構453(図13参照)によって読み取られた写真120(図12参照)の画像データ、又は、通信インターフェース(通信I/F)442(図13参照)を通じてコンピュータ110(図12参照)から受信した写真120に対応する画像ファイルの画像データを画像認識部462に出力する。
画像認識部462は、画像データに含まれる特定の被写体の動作を指示する記載が含まれる場合、指示の内容を認識して走行制御部464に出力する。本実施の形態の場合、画像認識部462は、指示対象である特定の被写体を認識する動作も実行する。
画像認識部462は、例えば画像データに対応する画像(例えば電子写真)に自機が含まれ、かつ、他機の移動方向、経路、範囲等の移動範囲を規定する書き込みが認識された場合、認識された情報を走行制御部464に出力する。
ここでの画像認識部462は、自機や他機の画像データを保持しており、指示の対象である被写体が自機であるか他機であるかを認識することができる。
また、本実施の形態における画像認識部462は、監視カメラ157(図12参照)や実空間150内の他の機器との通信(例えばIoT通信)などを通じて、他の機器の画像と各機器との通信に必要な通信アドレスの情報を有している。
画像認識部462は、これらの情報を利用して画像(例えば電子写真)に記載された軌跡や囲み線などによる指示の情報や指定対象である機器を認識する。
位置検出部463は、指示対象である機器(ここでは掃除ロボット158)との通信を通じて、指示対象である機器の位置を検出する。実施の形態1で説明したように、掃除ロボット158が間取り図の生成機能や自機の位置を検出する機能を有する場合には、間取り図や掃除ロボット158の位置をIoT通信によって取得する。
また、位置検出部463は、掃除ロボット158から室内用のGPSの受信部で受信した位置情報を受信してもよい。
また、位置検出部463は、実空間150に存在する監視カメラ157とのIoT通信を通じて実空間150内の画像を取得し、画像認識によって掃除ロボット158の位置を検出してもよい。
走行制御部464は、画像認識部462で認識された移動範囲と位置検出部463で検出された位置とを比較して、掃除ロボット158(図12参照)による掃除の範囲、掃除の経路、掃除の方向などを決定する。決定の手法は、実施の形態1の場合と同様である。
なお、掃除ロボット158が間取り図を生成する機能を有する場合においては、走行制御部464は、掃除の範囲を規定する座標を掃除ロボット158に通知してもよい。この場合、掃除ロボット158は自機で有する間取り図上の座標と自機で検知した位置の情報とを用いて掃除を実行できる。
また、走行制御部464は、自装置の側で検出している掃除ロボット158の位置が掃除の範囲を超えないように掃除ロボット158の移動方向を逐次制御してもよい。
次に、図15を使用して、画像形成装置151(図12参照)で実行される処理動作の例を説明する。
図15は、実施の形態2で使用する画像形成装置151で実行される処理動作を説明するフローチャートである。図15には図6との対応部分に対応する符号が付されている。
まず、制御部441(図14参照)は、画像受信部461(図14参照)を通じて静止画像111(図12参照)又は写真120(図12参照)に対応する画像データを受信する(ステップ1)。
次に、制御部441は、画像認識部462(図14参照)の機能を通じて、画像データに対応する電子写真の被写体に自機が含まれるか否かを画像認識により判定する(ステップ2)。
ステップ2で肯定結果が得られた場合、制御部441は、他機の動作を指示する記載があるか否かを判定する(ステップ11)。
ステップ2及びステップ11のいずれかで否定結果が得られた場合、制御部441は、後述する動作を実行することなく処理を終了する。
一方、ステップ11で肯定結果が得られた場合、制御部441は、指示の内容を特定する(ステップ4)。本実施の形態、制御部441は、掃除する範囲を特定する。
次に、制御部441は、特定した動作を予定動作としてユーザに通知する(ステップ5)。この通知は、例えば画像データがコンピュータ110(図12参照)から受信された場合に実行され、画像データが写真120から取得された場合には実行されない。
ステップ5が実行される場合、制御部441は、コンピュータ110に対して予定する動作(予定動作)の内容を通知し、コンピュータ110からの応答を待つ。ここで、予定動作を了承する応答があった場合(ステップ6で肯定結果が得られた場合)、制御部441は、該当する機器(例えば掃除ロボット158)に対してステップ4で特定した動作の実行を指示する(ステップ12)。
なお、予定動作が了承しない応答があった場合(ステップ6で否定結果が得られた場合)、制御部441は、ステップ1に戻り正しい動作の指示を待ち受ける。
ステップ5の通知を実行しない場合、制御部441は、該当する機器に動作の実行を指示する(ステップ12)。
本実施の形態によれば、画像データに基づいて動作するアプリケーションが掃除ロボット158にインストールされていない場合でも、画像形成装置151から掃除ロボット158への通信を通じて掃除ロボット158の動作を制御することができる。
<実施の形態3>
前述の実施の形態では、写真120(図5参照)や写真120に対応する画像データDに記載されている情報を処理して自機又は他機の動作を制御するためのアプリケーションが予めインストールされている場合について説明した。
本実施の形態では、前述した一連のワークフロー処理を規定する情報が、画像データDの属性情報として各機器に提供される場合について説明する。なお、画像データDに対応する静止画像111(図参照)の表面には、実施の形態1の場合と同様に、掃除の範囲などがユーザによって記述されているものとする。
本実施の形態で使用される画像データDは、便宜的にJPEGフォーマットに準拠したJPEGファイルであるものとする。もっとも、画像データDは、他の画像フォーマットに対応する画像ファイルでもよい。
図16は、本実施の形態で使用するJPEGファイル500のデータ構造を示す図である。JPEGファイル500は、画像ファイルの一例であり、JPEGフォーマットに準拠する。
JPEGファイル500は、イメージの開始位置を示すイメージ開始セグメント(Start Of Image segment: SOI)511と、Exif(Exchangeable image file format)情報などの記述に用いられるタイプ1のアプリケーションセグメント(Application type 1 segment: App1)512と、被写体に関連するワークフロー処理を規定する情報の記述に用いられるタイプ11のアプリケーションセグメント(Application type 11 segment: App11)513と、イメージデータ(Image Data: ID)514と、イメージの終了位置を示すイメージ終了セグメント(End Of Image segment: EOI)515とを有している。
ここで、イメージデータ514には静止画像の本体が保存される。
イメージ開始セグメント511とイメージ終了セグメント515で挟まれた領域はフレームとも呼ばれる。
なお、図16では表していないが、JPEGファイルには、不図示の2つのセグメント、すなわち量子化テーブル定義セグメント(Define Quantization Table segment: DQT)、ハフマンテーブル定義セグメント(Define Huffman Table segment: DHT)も含まれている。これら以外のセグメントは、必要に応じて配置される。
タイプ1のアプリケーションセグメント512とタイプ11のアプリケーションセグメント513は、JPEGファイル500の属性情報516の一部分である。
アプリケーションセグメント513には、JPEGファイル500が作成された静止画像に含まれる被写体に関連するワークフロー処理を規定する情報513A、513Bが記述されている。例えば情報513Aは被写体1に関連するワークフロー処理1に対応する情報であり、情報513Bは被写体2に関連するワークフロー処理2に対応する情報である。
タイプ11のアプリケーションセグメント513に格納される情報の個数はゼロでもよいし、1個でもよいし、3個以上でもよい。以下では、情報513A及び513Bを区別しない場合には単に情報513Aという。
例えば2つの情報513A及び513Bは、1つの被写体(以下「オブジェクト」という)に対応付けられていてもよい。すなわち、1つの被写体に対して複数の情報が対応付けられていてもよい。
例えば情報513Aは、第1の言語(例えば日本語、第1のOS用)による処理に用いられ、情報513Bは、第2の言語(例えば英語、第2のOS用)による処理に用いられてもよい。
個々のワークフロー処理には、例えば情報513Aに対応するオブジェクトに関する情報の保存、表示、集計、送信、取得、実空間150(図1)に関する情報の取得などが含まれる。
オブジェクトに関する情報は、インターネット上に存在する情報の他、実在する機器に保持されている情報、実在する機器や生物などを撮影した画像などが含まれる。
また、個々のワークフロー処理には、例えば情報513Aが記録されているオブジェクトに対応する機器の動作を制御するための操作パネルの表示、情報513Aで予め定められている実物の機器の動作の制御、被写体に対応する実物の機器等からの情報の取得、取得した実物の機器の状態の画像への反映等が含まれる。
また例えば2つの情報513A及び513Bはいずれも、1つの機器の操作の種類別に設けられていてもよい。例えば情報513Aはテレビジョン受像機のチャンネルの操作用、情報513Bはテレビジョン受像機の電源ボタンの操作用であってもよい。
例えば情報513Aは、テキストデータの形式で記述される。本実施の形態では、情報513Aの記述にデータ交換フォーマットの一例であるJSON(Java Script Object Notation)を使用する。JSON(登録商標)は、JavaScript(登録商標)におけるオブジェクトの表記法の一部を構文のベースに使用する言語である。勿論、ワークフロー処理の記述に用いる言語はJSONに限らない。
ここでは、実施の形態1の場合と同様に、画像データDが掃除ロボット158(図1参照)に対して与えられる場合について説明する。
図17は、実施の形態3における掃除ロボット158を構成する制御部の機能構成の一例を示す図である。
図17には図3との対応部分に対応する符号を付して示している。
図17に示す機能構成は、制御部201Aによるファームウェアの実行を通じて実現される。ここでのファームウェアに要求される機能は、画像データDの属性情報516(図16参照)からワークフロー処理を規定する情報513(図16参照)を読み出して実行する機能である。
本実施の形態における制御部201Aは、外部から画像データDを入力する画像受信部211と、受信した画像データDの属性情報516を読み出して、被写体として含まれる各機器に対応付けられた情報513A(図16参照)を認識する属性情報認識部215と、実空間150内における自機の位置を検出する位置検出部213と、認識された情報513Aに記述されたワークフロー処理の実行を通じて自機の走行を制御する掃除制御部214Aとを有している。
ここで、掃除制御部214Aは、画像認識技術を使用して、自機の像(オブジェクト)が画像データDに含まれる場合、自機の像(オブジェクト)に対応する情報513Aが属性情報516に含まれるか判定する。該当する情報513Aが属性情報516に含まれる場合、掃除制御部214Aは、起動されたワークフロー処理に従って自機の移動を制御する。
図18は、実施の形態3における制御部201A(図17参照)によって実行される処理動作の一例を示すフローチャートである。
図18には図6との対応部分に対応する符号を付して示している。
まず、制御部201Aは、画像受信部211を通じて画像データDを受信する(ステップ1)。
次に、制御部201Aは、属性情報認識部215の機能を通じて、画像データに対応する電子写真の被写体に自機が含まれるか画像認識により判定する(ステップ2)。ここでの画像認識に必要とされる自機の1つ又は複数の画像データは記憶部202(図2参照)などに格納されている。もっとも、自機の画像データを記憶部202などには持たず、監視カメラ157(図1参照)から取得した画像データと照合してもよい。
ステップ2で肯定結果が得られた場合、制御部201Aは、画像データDに付属する属性情報516を読み込む(ステップ21)。
続いて、制御部201Aは、属性情報516に自機に対応するJSON形式の記述があるか判定する(ステップ22)。
ステップ22で肯定結果が得られた場合、制御部201Aは、JSON形式の記述を解読し、ワークフロー処理を実行する(ステップ23)。
ここでのワークフロー処理として、実施の形態1と同様の処理を実行する。すなわち、画像データDに対応する静止画像111(図参照)の表面に自機による掃除の範囲などを指定する情報が記述されていないか判定し、記述されている場合には指定された範囲を掃除する。
なお、ステップ2及びステップ22のいずれかで否定結果が得られた場合、制御部201Aは、後述する動作を実行することなく処理を終了する。
この動作は、画像データDの属性情報516(図16参照)の一部に特定のオブジェクトに対応付けられた情報513Aが記録されていることが前提である。以下では、JPEGファイル500(図16参照)の属性情報516に情報513Aを記録するための処理機能について説明する。
図19は、ワークフロー処理を規定する情報513A(図16参照)の記録に用いられる情報処理装置(例えばコンピュータ110)を構成する制御部600の機能構成の一例を示すブロック図である。
ここでの制御部600は、ユーザが指定するオブジェクトの領域を検出する位置検出部601と、JPEGファイル500(図16参照)のイメージデータ514(図16参照)から画像処理技術を使用してオブジェクトとして登録する像の領域を検出するオブジェクト検出部602と、検出された各領域に対応付けるワークフロー処理の記述を対応付けて属性情報516を生成する属性情報生成部603として機能する。
図20は、ユーザによるオブジェクトの領域の指定の例を説明する図である。図20では、マウスポインタ112のドラッグにより、静止画像111の像の1つである掃除ロボットの像308の表示領域を破線で囲むように領域115が設定されている。
図19の説明に戻る。
位置検出部601は、この領域115(図20参照)を規定する座標情報として、例えばドラッグの開始点である左上隅の座標値、ドラッグが終了した時点までに垂直方向に移動した画素数と水平方向に移動した画素数を出力する。
オブジェクト検出部602は、情報513A(図16参照)を記録する像の画像(登録画像)が予め登録されている場合に用いられる。
オブジェクト検出部602は、JPEGファイル500(図16参照)に含まれるイメージデータ514(図16参照)と登録画像とのマッチング処理を実行し、登録画像にマッチした像(オブジェクト)が存在する領域を特定する座標情報を位置情報として出力する。
属性情報生成部603は、別画面を通じて入力された又は予め用意されたワークフロー処理の記述を各位置情報に関連付ける処理を実行する。この実施の形態でも、ワークフロー処理は、JSON形式で記述される。
なお、像に対応する実空間の物体が機器である場合には、静止画像111を撮像する時点において、IoTネットワークを通じて各機器を特定する製造番号やIoTネットワーク上のアドレスの情報を収集しておき、静止画像111と対応付けるようにすれば、個々の機器の製造番号等を手入力する手間を省くことができる。
なお、実施の形態1で説明したように、各像に対応付ける実空間の物体は、各像に対応する実物である必要はない。
図21は、ワークフロー処理を規定する情報513Aの属性情報516への書き込みを説明する図である。(a)はJPEGファイル500の属性情報516には情報513Aが含まれる前のデータ構造を示し、(b)はJPEGファイル500の属性情報516には情報513Aが追加された状態を示す。
このように、既存のJPEGファイル500にワークフロー処理を規定する情報513Aを後から追記してもよい。
ところで、情報513Aに記述されるワークフロー処理の内容は、ユーザがその都度入力する手法を採用してもよいが、属性情報生成部603(図19参照)が指定された像に応じた内容を与える手法やユーザに提示する手法を採用してもよい。
例えば属性情報生成部603は、画像処理を通じて指定された像や像の種別を認識し、認識された情報に応じて情報513Aとして記述するワークフロー処理を決定してもよい。像や像の種別に応じて適用するワークフロー処理の内容がほぼ定まる場合にはユーザの作業量を軽減することができる。
本実施の形態によれば、掃除ロボット158(図1参照)に提示された写真120(図1参照)や対応する画像データDに描画されている掃除の範囲についての記載を読み出して実行するアプリケーションプログラムがインストールされていない場合でも、画像データDの属性情報516(図16参照)を読み出して実行する機能を設けることで、実施の形態1と同等の制御を実現することができる。
すなわち、リモコン等を通じて掃除の範囲を指定する手法では困難な掃除の範囲を容易に掃除ロボット158に指示することができる。
また、本実施の形態では、掃除ロボット158に実行させたいワークフロー処理の内容をユーザが指定できるため、掃除ロボット158に実行させたい動作の指定が容易になる。
<他の動作例>
前述の説明では、属性情報516(図16参照)にワークフロー処理を記述する情報513A(図16参照)が記載された画像データDが制御対象である掃除ロボット158(図1参照)に直接与えられる場合について説明したが、実施の形態2の場合と同様に、他の機器を通じて間接的に掃除ロボット158を制御する場合にも用いることができる。
図22は、属性情報による制御に対応する画像形成装置151(図1参照)を構成する制御部441Aの機能構成の一例を示す図である。
図22には図14及び図17との対応部分に対応する符号を付して示している。
ここでの制御部441Aは、外部から画像データDを入力する画像受信部461と、受信した画像データDの属性情報516(図16参照)を読み出して、被写体として含まれる各機器に対応付けられた情報513A(図16参照)を認識する属性情報認識部215と、実空間150(図12参照)内における制御対象とする掃除ロボット158(図12参照)の位置を検出する位置検出部463と、認識された指示に関する情報と掃除ロボット158(図12参照)の位置とに基づいて掃除ロボット158の走行を制御する走行制御部464Aとを有している。
図23は、画像形成装置151(図1参照)を構成する制御部441Aによって実行される処理動作の一例を示すフローチャートである。
図23には図18との対応部分に対応する符号を付して示している。
まず、制御部441A(図22参照)は、画像受信部461(図22参照)を通じて画像データDを受信する(ステップ1)。
次に、制御部441Aは、属性情報認識部215(図22参照)の機能を通じて、画像データに対応する電子写真の被写体に自機が含まれるか画像認識により判定する(ステップ2)。
ステップ2で肯定結果が得られた場合、制御部441Aは、被写体に含まれる他機の動作を指示する記載があるか否かを判定する(ステップ11)。
ステップ11で肯定結果が得られた場合、制御部441Aは、画像データDに付属する属性情報516(図16参照)を読み込む(ステップ21)。
続いて、制御部441Aは、属性情報516に画面上で指定された他機(例えば掃除ロボット158)に対応するJSON形式の記述があるか判定する(ステップ31)。
ステップ31で肯定結果が得られた場合、制御部441Aは、JSON形式の記述を解読し、ワークフロー処理を実行する(ステップ23)。
なお、ステップ2、11及び31において否定結果が得られた場合、制御部441Aは処理を終了する。
<他の実施形態>
以上、本発明の実施の形態について説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、種々の変更又は改良を加えたものも、本発明の技術的範囲に含まれることは、特許請求の範囲の記載から明らかである。
例えば前述の実施の形態では、写真120(図1参照)等への囲み線313(図5参照)の記載によって掃除ロボット158(図1参照)の掃除の範囲を指定する場合について説明したが、写真120などを用いて実現可能な機器の動作の制御は掃除ロボット158の移動の制御に限らない。
図24は、写真120(図1参照)を用いて空調機156(図1参照)の動作を制御する例を説明する図である。(a)は空調機156を動作させるための記載の例であり、(b)は空調機156の動作を停止させるための記載の例である。
ここでは、空調機156に室内を撮影するカメラが設けられると共に、カメラによって撮影された画像を認識して自機の動作を制御する機能が用意されているものとする。
例えば空調機156を動作させたい場合、ユーザは、空調機の像306の上に丸印650を描いた写真120を空調機156(図1参照)に向けることで、空調機156を動作状態に制御できる。この場合、リモコンの操作は不要である。反対に、空調機156の動作を停止したい場合、ユーザは、空調機の像306の上にバツ印651を描いた写真120を空調機156(図1参照)に向ければよい。
このように、前述した仕組みは、機器の動作の実行(オン)と非実行(オフ)の指示にも利用できる。
前述の実施の形態の場合には、掃除ロボット158(図1参照)のように室内での利用を想定する使用例について説明したが、前述した仕組みは屋外での利用にも便利である。
図25は、地図700の表面にペン312を用いて飛行経路701を描画してドローン702の飛行を制御する例を説明する図である。
ここでのドローン702は無人飛行機の一例である。ドローン702には、飛行に必要なプロペラの他、進行方向を制御する操舵機構、地上などを撮影するカメラ、各部の動作を制御する制御部その他が設けられている。ここでは、ドローン702のカメラに地図700を向けるだけで飛行経路を指示することができる。
なお、制御対象は飛行船でもよいし、無人車両でもよい。図中の破線は、空中でのドローン702の飛行経路である。
前述の実施の形態では、JSON形式を使用してワークフロー処理を属性情報516(図16参照)の一部に記録しているが、音データの形式やJSON以外のテキスト形式で属性情報516の一部に記録してもよいし、JPEGファイル500(図16参照)に関連付けられた別ファイルに記録してもよい。例えば属性情報516に割り当てられているデータ領域に制限がある場合には、別ファイルとして記録することが望ましい。
ここで、ワークフロー処理を音データの形式で記録している場合には、音データの再生音を解析して該当するワークフロー処理を実行してもよい。この場合、音データはトーン信号の組み合わせとして記録されていてもよい。また、音データを再生することなく、その周波数成分や波形パターンを解析してワークフロー処理を実行してもよい。
前述の実施の形態においては、情報513A(図16参照)が対応付けられている像が画像上で指定された場合には、対応付けられているワークフロー処理が実行されるだけであるが、ワークフロー処理の実行中におけるユーザの操作を記録し、既存の情報513Aに追記してもよい。この機能があれば、ユーザは、以後は特定の像を指定するだけで、後続する操作を省略できる。
前述の実施の形態では、静止画像111(図1参照)を通じて掃除ロボット158(図1参照)の動作を制御しているが、動画像を通じて掃除ロボット158(図1参照)の動作を制御してもよい。動画像の場合には、時間軸上の複数の区間で異なる指示を与えることもできる。例えば動画像の再生開始から数秒(第1の区間)では掃除の範囲を指示し、続く第2の区間では移動の速度を指示し、更に続く第3の区間では掃除の質を指示してもよい。なお、一度に複数の指示を与えることも可能である。この機能を用いれば、初期は速い速度で通常の吸引力での掃除を指示しつつ、途中からは遅い速度で強い吸引力での掃除を指示することもできる。
このように動作の制御に動画像を用いる場合には、制御の内容を時間の経過に伴って変更することができる。
前述の実施の形態においては、画像を通じて移動経路を制御する場合(付随する機構の制御を含む)、動作の質を制御する場合、動作の実行(オン)と非実行(オフ)を制御する場合について説明したが、開閉機構の開動作と閉動作の制御、電源のオンとオフの制御、プログラムの実行と停止、プログラムの切り替えなどにも用いることができる。
例えばコンピュータの場合であれば、オペレーションシステム(OS)を表す文字やロゴマークなどを記載した画像(画像データを含む)を提示して起動するオペレーションシステムを切り替えてもよい。ファームウェアで起動する機器の場合も同様である。
また実行するアプリケーションプログラムを表す文字やロゴマークなどを記載した画像(画像データを含む)を提示して実行するアプリケーションプログラムを切り替えてもよい。例えば文書作成プログラム、表計算プログラム、ドローイングプログラムの切り替えに使用してもよい。
なお、前述した画像による指示は、対象の機器に実行させる処理動作の切り替え指示にも用いることができる。例えば対象とする機器がコンピュータの場合には、編集中のファイルの保存、コピー、送信などに用いることもできる。送信の場合、画像内に例えば送信先の宛名、顔写真、アドレスなどを記載すればよい。また、対象とする機器がテレビ等の機器の場合には、表示するチャンネルや再生する番組や映画を指定することもできる。
100…画像処理システム、110…コンピュータ、111…静止画像、120…写真、150…実空間、201、201A、441、441A、600…制御部、211、461…画像受信部、212、462…画像認識部、213、463、601…位置検出部、214、214A…掃除制御部、215…属性情報認識部、309…軌跡、313…囲み線、350…間取り図、464、464A…走行制御部、500…JPEGファイル、513…タイプ11のアプリケーションセグメント、513A、513B…ワークフロー処理を規定する情報、602…オブジェクト検出部、603…属性情報生成部、702…ドローン

Claims (10)

  1. 自機 と他の物体を被写体に含む写真を自機の撮像部又は読取部から読み取る受信手段と、
    前記受信手段で読み取った写真の被写体に自機が含まれ、当該写真に自機の動作を指示する情報の記載がある場合に、当該情報に基づいて自機の動作を制御する制御手段と
    を有する情報処理装置。
  2. 前記情報は、自機の移動に関する動作を規定する、請求項1に記載の情報処理装置。
  3. 前記移動に関する動作は、自機の移動の方向、経路又は範囲を規定する、請求項2に記載の情報処理装置。
  4. 前記情報は、自機の動作の質を規定する、請求項1に記載の情報処理装置。
  5. 前記動作の質はテキストによって与えられる、請求項4に記載の情報処理装置。
  6. 前記情報は、自機の動作の実行又は非実行を規定する、請求項1に記載の情報処理装置。
  7. 前記情報は図形の形式で記載されている、請求項1に記載の情報処理装置。
  8. 前記情報は、自機の処理動作の切り替えを規定する、請求項1に記載の情報処理装置。
  9. 前記情報は、自機で実行中の基本プログラムやアプリケーションの切り替えを規定する、請求項1に記載の情報処理装置。
  10. コンピュータに、
    自機 と他の物体を被写体に含む写真を自機の撮像部又は読取部から読み取る機能と、
    前記機能で読み取った写真の被写体に自機が含まれ、当該写真に自機の動作を指示する情報の記載がある場合に、当該情報に基づいて自機の動作を制御する機能と、
    を実現させるためのプログラム。
JP2017176002A 2017-09-13 2017-09-13 情報処理装置及びプログラム Active JP7124280B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017176002A JP7124280B2 (ja) 2017-09-13 2017-09-13 情報処理装置及びプログラム
US15/936,446 US10819902B2 (en) 2017-09-13 2018-03-27 Information processing apparatus and non-transitory computer readable medium
CN201811009824.XA CN109493581A (zh) 2017-09-13 2018-08-31 信息处理装置以及存储程序的计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017176002A JP7124280B2 (ja) 2017-09-13 2017-09-13 情報処理装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2019053425A JP2019053425A (ja) 2019-04-04
JP7124280B2 true JP7124280B2 (ja) 2022-08-24

Family

ID=65631801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017176002A Active JP7124280B2 (ja) 2017-09-13 2017-09-13 情報処理装置及びプログラム

Country Status (3)

Country Link
US (1) US10819902B2 (ja)
JP (1) JP7124280B2 (ja)
CN (1) CN109493581A (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6899668B2 (ja) * 2017-03-01 2021-07-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 自走型掃除機の制御方法、制御装置、制御プログラム及び自走型掃除機
US11356606B2 (en) * 2019-02-26 2022-06-07 Insidemaps, Inc. Imaging using mobile computing device in communication with wide field of view (FOV) camera

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002323925A (ja) 2001-04-26 2002-11-08 Matsushita Electric Ind Co Ltd 移動作業ロボット
JP2010198064A (ja) 2009-02-23 2010-09-09 Japan Science & Technology Agency ロボット制御システム及びロボット制御方法
JP2013169222A (ja) 2012-02-17 2013-09-02 Sharp Corp 自走式電子機器
JP6187667B1 (ja) 2016-10-24 2017-08-30 富士ゼロックス株式会社 情報処理装置、画像ファイルのデータ構造及びプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6654060B1 (en) * 1997-01-07 2003-11-25 Canon Kabushiki Kaisha Video-image control apparatus and method and storage medium
US6191406B1 (en) 1998-07-24 2001-02-20 Eastman Kodak Company Data reader and reader system having visible centerless targeting
US20020021304A1 (en) 2000-08-18 2002-02-21 Harutaka Eguchi Image processing system for adding add information to image object, image processing method and medium
JP2002132558A (ja) 2000-08-18 2002-05-10 Fujitsu Ltd 画像処理装置、方法、媒体、およびプログラム
US6859225B1 (en) * 2000-10-20 2005-02-22 Silverbrook Research Pty Ltd Method and apparatus for fault tolerant data storage on photographs
JP2004120069A (ja) 2002-09-24 2004-04-15 Canon Inc 画像処理装置、画像処理方法および該方法を実現するためのプログラム
JP2005117621A (ja) 2003-09-16 2005-04-28 Honda Motor Co Ltd 画像配信システム
KR100930802B1 (ko) 2007-06-29 2009-12-09 엔에이치엔(주) 이미지를 이용한 브라우저 제어 방법 및 시스템
KR101823441B1 (ko) * 2012-10-05 2018-01-31 에스프린팅솔루션 주식회사 단말 장치, 화상 형성 장치, 영상 생성 방법, 화상 형성 장치의 구동 방법, 및 컴퓨터 판독가능 기록 매체
US9545582B2 (en) * 2013-08-23 2017-01-17 Evollve, Inc. Robotic activity system using color patterns
JP5885714B2 (ja) * 2013-08-28 2016-03-15 京セラドキュメントソリューションズ株式会社 画像形成システムおよび出力指示プログラム
KR102335925B1 (ko) * 2014-10-13 2021-12-06 삼성전자주식회사 네트워크 서비스를 위한 전자장치와 게이트웨이, 및 이를 위한 동작 방법
FR3031402B1 (fr) * 2015-01-02 2018-09-07 Squadrone System Procede de pilotage automatique d'un drone a voilure tournante pour operer des mouvements de camera par une camera embarquee
JP6657498B2 (ja) * 2015-04-24 2020-03-04 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd モバイルプラットフォームの動作情報を提示する方法、装置、およびコンピュータプログラム
CN106175603A (zh) * 2015-04-30 2016-12-07 青岛海高设计制造有限公司 地面清洁器及其控制方法
CN105751230B (zh) * 2016-03-31 2018-12-21 纳恩博(北京)科技有限公司 一种路径控制方法、路径规划方法、第一设备及第二设备
US20170329347A1 (en) * 2016-05-11 2017-11-16 Brain Corporation Systems and methods for training a robot to autonomously travel a route
US10365644B2 (en) * 2016-05-31 2019-07-30 Optim Corporation Application, smart device, drone, server, system method, and program for automatically control drone flight
CN106197452A (zh) 2016-07-21 2016-12-07 触景无限科技(北京)有限公司 一种视觉图像处理设备及系统
JP6701064B2 (ja) * 2016-12-14 2020-05-27 株式会社クボタ 走行経路生成装置
US10642264B2 (en) * 2017-07-19 2020-05-05 Superior Communications, Inc. Security drone system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002323925A (ja) 2001-04-26 2002-11-08 Matsushita Electric Ind Co Ltd 移動作業ロボット
JP2010198064A (ja) 2009-02-23 2010-09-09 Japan Science & Technology Agency ロボット制御システム及びロボット制御方法
JP2013169222A (ja) 2012-02-17 2013-09-02 Sharp Corp 自走式電子機器
JP6187667B1 (ja) 2016-10-24 2017-08-30 富士ゼロックス株式会社 情報処理装置、画像ファイルのデータ構造及びプログラム

Also Published As

Publication number Publication date
US10819902B2 (en) 2020-10-27
US20190082102A1 (en) 2019-03-14
JP2019053425A (ja) 2019-04-04
CN109493581A (zh) 2019-03-19

Similar Documents

Publication Publication Date Title
JP5898022B2 (ja) 自走式機器
CN1320506C (zh) 通用计算装置
CN110456782B (zh) 控制装置和控制方法
EP3271838B1 (en) Image management device, image management method, image management program, and presentation system
EP3605409B1 (en) Electronic device and operation method therefor
JP5989347B2 (ja) 携帯端末、携帯端末の制御プログラム、及び携帯端末を含む表示システム
US10049605B2 (en) Display apparatus, display control method, and display system
KR102022042B1 (ko) 데이터 전송 방법 및 시스템
JP7124280B2 (ja) 情報処理装置及びプログラム
US20210233529A1 (en) Imaging control method and apparatus, control device, and imaging device
JP2018111154A (ja) ロボット装置及びプログラム
JP5153478B2 (ja) 画像処理装置及び画像処理方法
JP6642316B2 (ja) 情報処理システム、電子機器、情報処理装置、情報処理方法、電子機器処理方法、及びプログラム
US10708445B2 (en) Information processing apparatus and non-transitory computer readable medium
JP6179315B2 (ja) 情報処理装置、画像処理システム、情報処理装置における画像処理方法及びプログラム
US10896219B2 (en) Information processing apparatus, data structure of image file, and non-transitory computer readable medium
JP6677527B2 (ja) サーバ装置、およびプログラム
CN112313941A (zh) 控制装置、摄像装置、控制方法以及程序
JP7215621B1 (ja) 情報処理装置、情報処理システム、機器管理方法及びプログラム
JP6943029B2 (ja) 投影装置、投影システム、制御方法及びプログラム
JP6436191B2 (ja) サーバ装置、サーバ装置を用いた情報処理方法及びプログラム
US20230205198A1 (en) Information processing apparatus, route generation system, route generating method, and non-transitory recording medium
WO2021052216A1 (zh) 控制装置、摄像装置、控制方法以及程序
JP2016170790A (ja) 撮像装置
CN117456432A (zh) 障碍物的识别方法、电子设备及计算机程序产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200717

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210430

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210518

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220725

R150 Certificate of patent or registration of utility model

Ref document number: 7124280

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150