size_t と int の比較でハマった

std::vector.size()の返り値はsize_t

int a = 10 size_t b = 20

if (a - b < 0) printf("true"); else printf("false");

これはfalseが返ってくる。 size_t同士で比較するか、bをintでcastして比較すると望みの挙動になったが、 どうするのが正しいのか。 この場合、C++的にはsize_tで統一するのが正しそう

Excel Tips

不明HDDをWindowsで確認する方法 / Ext4などLinuxのファイルシステムをWindowsでマウントする方法

Automated Abstraction of Manipulation Domains for Cost-Based Reactive Synthesis

http://kavrakilab.org/publications/he2019automated-abstraction-of-manipulation.pdf

Keliang He, Morteza Lahijanian, Lydia E. Kavraki, and Moshe Y. Vardi

Abstract

ロボットマニピュレータが他のエージェント、例えば人間の存在下で高レベルのタスクを実行するとき、それらはタスクの完了と効率的なリソース使用を保証するために起こり得る干渉を考慮する戦略を持たなければならない。そのような戦略を生み出すための1つのアプローチは反応性合成と呼ばれる。反応合成は抽象化を必要とします。抽象化はロボットや他のエージェントが動作するドメインを捉える個別の構造です。既存の研究は、空間分解による移動ロボットのための抽象化の構築について論じている。しかし、マニピュレータとオブジェクトによって引き起こされる次元の呪いのため、それらはマニピュレーションドメインには適用できません。本研究では、操作タスクの反応的合成のための自動抽象化構築のための最初のアルゴリズムを提示する。私たちは他のタイプの行動への可能な拡張でオブジェクトを選びそして置くことを含む仕事に焦点を合わせる。抽象化はまた、ロボット動作のための経路ベースのコストに対する上限を提供する。この抽象化アルゴリズムをリアクティブ合成プランナーと組み合わせて、正しい構築プランを構築します。私たちは、人間による干渉に直面して複雑なタスクを完了しながら、UR5ロボット上でフレームワークの力を発揮します。

1. Introduction

ロボティックマニピュレータはもはやケージに閉じ込められる必要はありません。最近の開発は、ロボットが人間と並んで共有された作業空間で安全に動作することを可能にし、例えば人間と共有されている組立ライン、レストラン、および家庭での支援およびサービスロボットにそれらの応用を拡大した。このようなシナリオでは、マニピュレータは動的な世界と対話し、人間による干渉の可能性に直面して複雑なタスクを実行する必要があります。固定された一連の動作で計画を生成する伝統的なアルゴリズムはもはや使用できないので、これは計画の観点から難題を投げかけます。その代わりに、ロボットは反応的である、すなわち人間または他のエージェントによって引き起こされた変化に反応するように動作を実行する戦略を持っていなければならない。 人間と一緒に働く製造ロボットが高級言語で表現されるかもしれない複雑な組立作業を実行する必要があるシナリオを考えてください。訓練を受けた人間が参加してロボットがタスクをより早く達成するのを手助けしたい場合や、訓練を受けていない人間が知らないうちにアセンブリ部品を移動させることによってタスクを妨害する場合があります。図1は、このシナリオの実験室の例を示しています。ここでは、白いブロックを基本列として、黒いブロックを上部にしてアーチを作成する必要があります。タスク実行中に、人間が干渉して誤って黒いブロックを基本列として配置したり、列を置き換えたりする可能性があります。有限数のそのような干渉を仮定すると、ロボットは所与の量のエネルギー内でタスクを完了しなければならない。本稿では、マニピュレータのためのこのような事後対応計画問題に焦点を当て、タスクの完了を保証する戦略を模索します。

リアクティブ合成はリアクティブ戦略を見つけるためのアルゴリズムの一種で、プログラムの検証と合成の分野でよく研究されています[1]。いくつかの研究が移動ロボット工学における戦略生成のために反応合成を適用している[2] - [4]。これらの研究は、線形時相論理(LTL)[5]の公式として表現される無限の範囲の課題に焦点を当てており、抽象化と呼ばれる環境におけるロボットの連続的な動きを表す有限の離散構造を仮定しています。 LTLの公式と抽象化を考慮して、事後計画アルゴリズムはロボットと人間の間で個別のゲームを構築し、それから勝利戦略を計算します。人間。マニピュレータのリアクティブプランニングを可能にするために、有限のタスクとコストの制約があるロボットに対して、同様のゲームベースの技術が開発されました[6]。その研究は、ロボットマニピュレータの個別の抽象化の存在を想定しています。一般に、連続領域への個別の勝利戦略の正しいマッピングは、移動ロボットとマニピュレータの両方に対する抽象化の保証に依存します。しかしながら、変化する環境におけるマニピュレータのような連続的な高次元システムのためのそのような抽象化の構築は自明ではない。

2. Related Work

3. The Reactive Synthesis Problem

4. Abstraction Construction

5. Reactive Strategy Synthesis

6. Experiments

7. Conclusion

本稿では、反応合成を目的とした操作ドメインの抽象化構築の最初の自動化方法を紹介する。 これらの抽象化が反応合成アルゴリズムによる計算戦略の正しさを保証することを証明する。 リソースコストの制限がある有限タスクに焦点を当てていますが、[2] - [4]のようなすべてのリアクティブ合成定式化に一般的な操作抽象化があり、これらのアプローチの機能を操作ドメインに拡張できます。 この作品のためのいくつかの可能な将来の方向性は次のとおりです。反応的合成への象徴的なアプローチ、人間ロボットのタスクの競合解決、およびノイズの多いマニピュレータのための確率的抽象化。

Lazy Evaluation of Goal Specifications Guided by Motion Planning

https://www.researchgate.net/publication/333653482_Lazy_Evaluation_of_Goal_Specifications_Guided_by_Motion_Planning/link/5cfa6e63299bf13a38443b1a/download

Juan David Hernandez, Mark Moll, and Lydia E. Kavraki

Abstract

今日、ロボットシステムはワークスペースを共有し、人間と共同作業することが期待されています。このような共同作業環境では、重要な課題は人間の要求の正しい意味解釈を確立するか確立することです。そのような解釈が利用可能になると、要求は所望のタスクを完了するためにロボット動作コマンドに変換されなければならない。人間の要求が独自の解釈に基づくものではないため、あいまいな要求につながることは珍しいことではありません。簡単な例は、利用可能なカップが複数あるときに、ロボットに「テーブルの上にカップを置く」ように依頼することです。このようなあいまいな要求に対処するために、遅延または遅延可変接地を提案します。本論文の焦点は運動計画アルゴリズムであり、それは異なる有効接地を表す目標領域を与えられて、任意の1有効接地への実行可能な経路を遅延的に見つける。このアルゴリズムは報酬を与える戦略を含み、それは解決策を提供するためにより有望と思われる目標領域を優先させることを試みる。シミュレーションと実際の実験の両方で、複数の有効な選択肢を使用して要求を解決することによって、私たちのアプローチを検証します。

1. Introduction

産業用ロボットは通常、制御され構造化された環境で動作しますが、現代のロボットシステムは複雑で雑然とした環境で自律型または半自律型の作業を行うことが期待されています。後者の困難なシナリオでは、ロボットシステムは複雑な環境を理解して安全に動作するためにその認識機能を使用するだけでなく、人間から要求を受けて協力する必要があります。 このコラボレーションを効果的にするためには、現代のロボットシステムは異なる機能を備えている必要があります。ヒューマンロボットインタラクション(HRI)において、主な課題の1つは、人間の要求の正しい意味解釈を確立することである。この問題は一般にシンボル接地または可変接地と呼ばれます[1]。そのような解釈が利用可能になると、人間の要求はロボットエージェントが参加することができ、ロボットエージェントはそれをモーションコマンドに変換して所望のタスクを完了させる。しかしながら、独自の根拠を確立することが不可能な場合があり、その結果、複数通訳の依頼が必要になります。 そのような複数通訳の依頼の最初の例として、自動係員付き駐車サービス(AVP)システムを検討することができます。

一般に、AVPシステムは集中管理インフラストラクチャを持つ駐車場で構成されています。このインフラストラクチャは、知覚センサ(例えば、光学カメラ)、および自動(ロボット)自動車と通信し調整するための無線ネットワークを備える。インフラストラクチャは、知覚データを使用して、駐車場の状態(利用可能、占有、または予約)に関する情報を含むセマンティックマップを作成できます[2]。 AVPインフラストラクチャでは、人間のユーザは自動駐車を「駐車」するように要求できます。AVPシステムにおける一般的なアプローチは、セマンティックマップを使用して1つの特定の駐車スポットの場所を特定して提供することです。そして指定された場所に駐車しようと試みる[3]。車までの距離など、特定の場所を決定するためにさまざまなヒューリスティックを使用することができます。それにもかかわらず、インフラストラクチャは、指定された場所に特定の車を駐車することの難しささえ実現可能性さえ決定することができません。 AVPシステムは複数の利用可能な駐車場を提供することができます。この場合、リクエスト「park」を特定の1つの場所に根拠付けることはできません。 多重解釈要求の他の例は共同作業環境における操作問題を含む。ロボットのチームメイトにオブジェクトの取得を依頼できるシナリオを考えてみましょう(図1を参照)。これらのシナリオでは、ロボットは知覚情報を使って意味マップを作成することができます。意味マップは利用可能なオブジェクトをセグメント化し、分類し、報告します[4]。さらに、知覚データを利用して、利用可能なオブジェクトを把握するためのさまざまな有効な方法を決定することもできます[5]。 これらの共同作業のシナリオでは、「そのボトルを取る」や「その本をくれ」などの人間の要求には意味的なあいまいさが含まれているため、要求を特定のロボット動作コマンドに変換できません。このようなあいまいな要求を明確にするために、マルチモーダルインタフェースを使用して音声とジェスチャを融合させることで、特定のオブジェクトを接地することができます[6]。ジェスチャが暗黙の意味論を明確に根拠づけるのに十分ではない、より複雑な場合、例えば、他の意味的に等価なオブジェクトの近くにあるオブジェクトを指すことがある。このような場合、人間とロボットの間で対話を確立することで、望ましい行動を明確にすることができます[7]、[8]、[9]。この作品では、複数のカップがある場合に「テーブルの上にカップを置く」など、あいまいな要求を解決することに関心があります。 両方の例において、すなわち自動化された自動車に「駐車する」ことを要求するとき、またはロボットチームメイトに「テーブルの上にカップを置く」ことを要求するとき、曖昧さは複数の解釈を含む要求から生じる。そのような解釈は意味的に有効であり得るが、それらすべてがロボットエージェントにとって実行可能であるとは限らない。これらのシナリオに対処するための1つの選択肢は、実行可能なものが見つかるまで、各代替解釈を徹底的に根拠を定めてテストすることです。他の選択肢は、それらのいずれかを解決するまで、利用可能なすべての解釈を独立して同時に接地してテストすることであり得る。第1の選択肢は人間とロボットの協調を非効率的にするが、第2の選択肢はロボットエージェントにとっては計算コストが高くなり、それは他の同時の計算プロセス(例えば、知覚、ナビゲーションなど)も処理しなければならない。この種の多重解釈要求に対処することを目的として、本稿では運動計画によって支援される遅延または遅延可変接地を紹介する。本稿では、解釈は構成空間内の目標領域にマッピングできると仮定する。これは一般に難しい問題ですが、このホワイトペーパーで検討している特定のアプリケーションでは、このようなマッピングを定義できます。次に、セクションIIでは、多重解釈要求が目標達成領域の運動計画問題としてどのように扱われるのかについて説明します。目標領域は、構成空間(C-SPACE)で暗黙的に定義され、ランダムサンプルによって近似されます。さらに、高次元のC-SPACESを含むことができる広範囲のアプリケーションをカバーするために、我々はセクションIIIで提示される新しいサンプリングベースのモーションプランナーでこのスタート - ゴール - 領域問題を解決します。この新しいプランナーは、指定された開始構成から任意のゴール領域へのソリューションパスを見つけようとします。このプランナーの目新しさは、報酬を与えるための戦略を採用することです。この戦略はまた、目標領域の近似を改善するためにより多くの目標サンプルがいつ必要とされるかを決定することを可能にする。最後に、我々の提案したアプローチを評価するために、セクションIVはシミュレーションから実際の結果をナビゲーションから操作問題まで及ぶ異なるシナリオで提示する。多重解釈要求の問題の特定の例はまた、可能な把握のためのエンドエフェクタ制約の形で操作中に現れる:目標は特定の目標構成ではなく、むしろエンドエフェクタ姿勢に関するいくつかの作業空間制約を満たす任意の構成である。 。この問題に対処するために、さまざまな計画方法が採用されています[10]、[11]、[12]。私たちの仕事はその精神において[10]に最も近い。その作業とは異なり、プランナーが目標に向かって拡大を進めることができるのであれば、考慮される目標状態の数(またはこの文書の文脈では接地数)を制限します。これは、探査をあまり重視しないという代償で、搾取をより重視することと見なすことができます。また、[10]とは異なり、目標領域がエンドエフェクタの制約だけでなく計算効率の理由からも制限されているとは限らないため、このアルゴリズムはエンドエフェクタ距離にわたって勾配降下を実行することはありません。

2. Problem setup

A. Definitions & Assumptions

  • Definition 1
    • T.B.D
  • Definition 2
    • T.B.D

Assumptions: この論文で提示されたアプリケーションのために、意味論的実体は与えられた要求の有効な解釈のセットI = {I 1、I 2、...、I k}を提供すると仮定されます。 さらに、同じ意味論的実体が、異なる意味論的解釈を表すm個の目標領域の集合GR = {GR1、…、GRm}を提供するとも仮定される。 各意味解釈I iが2つ以上の目標領域G R jを生成することができることに注目することは重要である。 そのような目標領域は暗黙のうちに定義されるが、それらから、我々は、サンプリングされる確率がゼロでない目標構成q gをサンプリングすることができる。

本稿では、次のセクションで定式化される問題に焦点を合わせたいので、これらの仮定をします。 さらに、そのような意味論的実体は一般に利用可能である。 例えば、セマンティックマップはAVPシステム[2]で使用されています。これは利用可能な駐車スポットについての情報を提供します。 別の例は、利用可能なオブジェクトを操作するための異なる有効な方法を決定することができる把持姿勢検出器と共に、操作シナリオにおいて利用可能なオブジェクトをセグメント化し、無効化し、そして報告する意味マップ[4]を含む。

B. The Start-to-goal-region Motion Planning Problem

基本的な目標達成モーションプランニング問題では、開始構成qsを固有の目標構成qgに接続する必要があります。この問題に対する解決策は、連続パスp:[0,1]→C freeであり、その結果、p(0)= q sおよびp(1)= q gである。 本稿での目的は、この問題を拡張して同じ開始構成qsを接続することですが、ここでは提供された目標領域のいずれかに含まれる目標構成qg = qgj∈GRjに結び付けます(図2参照)。この拡張された問題に関連したさまざまな課題があります。意味論的層が目標領域の記述を提供すると仮定することはできますが、有効かつ到達可能でなければならない正確な目標構成qgを見つける必要があります。 これに関連して、衝突がない場合、構成qを有効と見なすことができる。しかし、構成の到達可能性を計算することは、PSPACE完全であることが知られているモーションプランニング問題を解決するのと同じくらい難しい[14]、[15]。したがって、qgの妥当性と到達可能性の両方を検証することは、特に複雑で高次元のC-SPACEを扱う場合には、ささいな問題ではありません。複数の目標領域を考慮する必要がある場合、問題はさらに困難になります。次のセクションでは、この拡張された問題に対処するためにモーションプランナーの主な概念がどのように使用されるのかを説明します。

C. Tree-based Motion Planner

高次元のC-SPACESを含むことができる広範囲のアプリケーションをカバーしたいと考えるならば、我々はサンプリングベースのモーションプランナーを用いてこのスタート・ツー・ゴール領域問題を解決することを提案します。 さらに、主な目的は、すべての目標領域ではなく、目標領域のいずれかへの解決策を見つけることであるため、特にツリーベースのモーションプランナーを使用します。 このようなプランナーは特定の開始構成に基づいていますが、ブランチはさまざまな目標地域への接続を試行するために使用できます。

3. Solving multi-interpretation requests

前のセクションでは、拡張された目標達成領域問題を紹介しました。 以下では、完全性を維持しながら計画を達成しやすい目標に偏らせる方法で、この問題を解決するためのサンプリングベースのアプローチについて説明します。

A. Initial Goal Region Sampling

最初に、k = n個の有効目標サンプルの集合Gを生成することによってk個の目標領域を近似するので、G = {q ∈GR∧qqgi∈Cfree}であり、i = {1,2、…n}である。 目標サンプル生成のこのプロセスは、図3で観察できます。

B. Reward-penalty Strategy for Tree-based Planners

前のセクションでは、k個の目標領域GRjがあることを確認しました。これは、n個の有効目標サンプルの集合G(qgi)で近似されます。計画問題は任意の目標領域への実行可能な経路を見つけることにあるので、そのための1つの可能なアプローチは、有効な目標に接続しようとするたびに異なるサンプルqgiを試すことです。目標サンプルqgiの中から選択する2つの単純な戦略は、1)連続した順序に従うこと、または2)ランダムにqgiを選ぶことです。しかし、どちらのアプローチでも、困難または到達不可能な目標サンプルに接続しようとしている可能性があります。たとえば、図3では、GR2などの一部の目標領域に到達するのが困難になる可能性があることがわかります。領域に有効なサンプルが含まれていても、qsから到達できないGR3のような他の目標領域があります。 GR1のように、よりアクセスしやすい別のタイプの目標領域があります。この抽象度では、モーションプランナーはこれらの固有のゴール領域の特性を評価または推定できる唯一のエンティティです。目標地域の説明には目標サンプルの到達可能性に関する情報が含まれていないことに留意することが重要です。したがって、解決策を提供することがより有望であると思われるこれらの目標地域に優先順位を付けるために、我々は報酬ペナルティ戦略を使用することを提案する。 この報酬ペナルティ戦略は、目標サンプルに向かって拡大しようとする試みが成功したかどうかを識別することからなります。この情報は、対応する目標サンプルに報酬を与えるかペナルティを科す必要があるかどうかを決定します。そうすることで、最もペナルティの少ない目標サンプルを優先して再利用できます。本稿では、高速探索ランダムツリー(RRT)アルゴリズム[16]に基づくツリーベースのプランナを用いてこの報酬ペナルティ戦略を検証する。しかし、報酬ペナルティ戦略は、拡張空間ツリー(EST)[17]や確率的ロードマップ(PRM)[18]などの他のサンプリングベースの方法、あるいはそれらのバリアント(遅延および漸近最適バリアントを含む)に拡張できます。ツリーベースのプランナーでは、入力として開始コンフィギュレーションqsと一連のゴール領域GRを使用します(アルゴリズム1を参照)。 Gheapを最大ヒープとして定義しましょう。ここでは、GRからのすべてのゴールサンプルqgiが初期最大ウェイト1.0で格納されます。他のツリーベースのプランナーでも起こるように、私たちの方法では最大のヒープGheapで最大の重みを持つゴールサンプルに対応する(ライン6) )すべてのツリー展開において、すなわちランダム構成または目標サンプルに向かって、プランナは、生成されたツリー内の最も近い構成qnearから最大距離εの間拡張し、したがって新しい構成qnewを生成する(行12)。ただし、このアプローチでは、目標サンプルへの展開が成功するか失敗するかについても追跡します。前者の場合、ゴールサンプルは、その重みwを次のように更新することで得られます(17行目):

w(qgi) = w(qgi)/(1.0−w(qgi)), if w(qgi) < 1.0,

後者の場合、目標サンプルの重みはペナルティを課されます。 as(行17):

w(qgi) = w(qgi)/(w(qgi) +1.0).

両方の状況のいくつかの例は図4で観察することができます。

C. Goal Region Resampling

正しい目標サンプル数を決定するのは困難です。場合によっては(例えば、数値逆運動学ソルバーを使用するとき)、多数のサンプルを生成することは、計算上費用がかかる可能性がある。他の場合では、少数の目標サンプルは、目標領域の実現可能性および到達可能性を正しく記述するのに失敗する可能性がある。目標サンプルの数を固定しないようにするために、少数のサンプルから始めることをお勧めします。そうするために、我々は、何らかの報酬サンプルが最小の重み値に達するかどうかをチェックするために報酬ペナルティ戦略を使います。この最小しきい値は、追加の目標サンプルの生成をトリガーするために使用されます。そのような新しいサンプルは最大ウェイト1.0で初期化されるため、前のサンプルの前に確実に試行されます。さらに、リサンプリング戦略では、既存のサンプルの重みも0.5に設定されているため、すべてのサンプルがより多くのサンプルを生成する前に試行されることが保証されます。このリサンプリングおよび初期化戦略は、確率論的完全性を保証することも目指しています。より多くのサンプルを生成することが、目標領域の近似をどのように改善するだけでなく、より簡単な解決策にもつながるかの例を図5に示す。

4. Experiments & results

この論文は、私たちが複数の有効な解釈を持つ要求を解決することを可能にするlazyな接地戦略を導入しました。 このセクションでは、2つの異なるテストケースを紹介します。1つは自動車用、もう1つは共同作業における半自律型ロボットチームメイト用です。

A. AVP System with Multiple Available Parking Spots

「はじめに」で説明したように、駐車場をAVPシステムに要求する自動車を考えてみましょう。駐車するための固有の位置を生成する代わりに、AVPシステムは、それぞれが駐車エリアによって定義され、したがって複数の目標領域を定義する複数の利用可能な駐車スポットを提供する。どの駐車場を使用する必要があるかの最終的な決定は、その報酬ペナルティ戦略とともに、提案された遅延接地アプローチを使用する自動化された車で行うことができます。 図6は、2つの異なる駐車シナリオを提示している。どちらの場合も、周囲の障害物(赤)との衝突を避けながら、利用可能な場所(緑)のいずれかに駐車する必要があります(白)。解の経路(水色)を計算するために、アルゴリズム1で与えられたツリーベースのプランナーを使用しました。セクションIII-Bで提示された私たちの報酬ペナルティ戦略を、複数のゴール領域を扱うための他の2つの可能な選択肢と比較しました。両方の選択肢は、木が目的に向かって拡大しているときに固定数の目的サンプルを使用することからなる(行5)が、一方の選択肢は連続した順序、すなわち最初のサンプルから最後のサンプルまでをたどる。毎回サンプル。 3つの選択肢、すなわち、連続順序、ランダム、および報酬ペナルティが、図6に示されている両方のシナリオに対して評価されています。このベンチマークの結果は、表1に示されています。計算時間の平均だけでなく、標準偏差も小さくなります。

f:id:mikumikuta:20190802190607p:plain
Fig6

B. Towards Autonomous Teammates in Collaborative Tasks

ここで、私たちが共有された共同作業の環境にいるとしましょう。そこでは、複数の有効な対象がある環境で、ロボットに「対象を選ぶ」ように依頼します。この一連の実験では、単一の7自由度アーム、平行ジョーグリッパー、および知覚用のベースマウント3Dカメラを備えたFetch [19]のマニピュレーターを使用しました(図1参照)。 。 Gazeboを使用して、異なる作業環境でFetchのマニピュレータをシミュレートしました[20]。一方、提案されたアプローチはMoveIt!で実装されました。 [21]オープンモーションプランニングライブラリ(OMPL)を拡張することにより[22]。私たちのアプローチを評価するために、8つのDOF、7つの腕、そしてFetchの胴体の垂直方向の動きを含む計画問題を解決する3つの異なるシナリオを定義します。 最初のテストシナリオには、1つのテーブルと2つの棚があり、そこには箱と缶などの異なるオブジェクトがあります(図7を参照)。この環境では、Fetchのマニピュレータが「缶を拾う」という要求に応答します。このクエリは、使用可能な各缶が目標領域に対応するという提案されたアプローチを使用して解決できます。さらに、缶は上からしか掴むことができないが、向きは問わないと考えてみましょう。この最後の制約により、各缶に1つずつ、n個のゴール領域を定義できます。これは、グリッパーの3次元(3D)ポーズで構成されます。位置は缶に対して一定ですが、缶は任意の値をとることができます。この最初のシナリオでは、テーブルの上に缶が1つありますが、これが最も簡単に拾うことができるようです(図7aを参照)。同じ要求を解決することからなる2番目のテストシナリオを定義しましたが、今回はテーブルに缶を含めません(図7bを参照)。後者の場合、最も簡単な、または最も到達可能な缶を決定するのは簡単ではないことに注意してください。箱、缶、金属製の棒、ゴミ箱などの異なるオブジェクトがある3つの棚を含む、異なるセットアップを持つ3番目のテストシナリオを定義しました(図8を参照)。この環境では、フェッチのマニピュレータに「箱を拾う」ように指示しました。各箱は、その4つの辺のいずれかに沿って任意の垂直位置でつかむことができます。これらの制約は、各ボックスにつき4つずつ4×nのゴール領域を設定し、それらはグリッパーに対する3Dポーズからなる。各ゴール領域において、向きはボックスに対して一定であるが、ボックスの垂直軸に沿った位置は特定の範囲内の値を取り得る。図8bはこの課題に対する1つの可能な解決策を示す。繰り返しますが、どのボックスが到達可能であるかを判断するのは簡単ではないことに注意してください。これら3つのシナリオ(図7、8)において、我々は、前のセクションで説明したように、すなわち最初の目標サンプルから最後の目標サンプルまでのように、連続する順序に従う1つの選択肢と我々の報酬ペナルティ戦略を比較した。これらの実験では、最初に目標バイアスを5%に設定しました。このベンチマークの結果を表2に示します。表では、提案された報酬ペナルティアプローチは、テーブルで缶を握るなど、簡単でアクセスしやすいオプションがある場合にも同様に機能することがわかります(図7aを参照)。しかし、最も到達可能な目標地域を設定することが不可能な、より困難なシナリオに対処する必要がある場合、私たちの報酬ペナルティ戦略はかなりの改善を示します。計画者が高次元のC-SPACE(8自由度、7本の腕、さらにFetchの胴体の垂直方向の動き)に対処する必要があるこの一連の実験では、目標バイアスの割合を増やすと計算時間が改善される。これは、より多くのツリー展開が任意の目標領域に接続しようとしていることを意味します。ただし、このような目標バイアスの割合の増加は、正しい目標サンプルが使用されている場合、たとえば、当社の報酬ペナルティ戦略を使用している場合にのみ有効です。そのような改善を示す結果も表IIに示されている。

C. Real-Worlds Tests

また、提案したアプローチを実際のFetchのマニピュレータに統合しました。テーブルとキャビネットを含むシナリオを定義し、その上にさまざまなオブジェクトがあります(図9を参照)。ここで、いくつかの要求をテストしました。これらの要求の一例は、「箱をテーブルの上に置く」というフェッチのマニピュレータを必要とするタスクに対応する。このシナリオでは、箱を長方形の角柱状の物体と考える(図9a参照)。利用可能な箱のそれぞれは、上から、それぞれの側に1つずつ、4つの異なる向きでつかむことができます。これらの制約は、各ボックスにつき4つずつ4×nのゴール領域を設定し、それらはグリッパーに対する3Dポーズからなる。各ゴール領域において、向きはボックスに対して一定であるが、ボックスの長手方向軸に沿った位置は特定の範囲内の値を取り得る。図9aは、この課題に対する1つの可能な解決策を示す。箱が握られたら、私達のアプローチはまたテーブルの有効でそして実行可能な配置位置を見つけるのに使用されていた。この後者の場合、テーブル表面全体が目標領域として定義され、プランナはテーブルの上に空きスペースを見つけました(図9bを参照)。

5. Discussion and future work

本稿では、複数の有効な解釈または根拠を持つ要求を解決することを可能にする遅延接地戦略を紹介しました。我々はこれらの多重解釈要求を運動計画問題として定式化することを提案した。そこでは代替接地は目標領域で表される。そのような定式化は、徹底的かつ個別にそれらのそれぞれを評価する必要なしに、単一の計画問題が複数の解釈を考慮し評価することを可能にする。提案されたアプローチの一部として、プランナーをリードしようとする報酬ペナルティ戦略も提示しました。 最終的な解決策を提供することがより有望であるそれらの目標地域を優先すること。私たちは2つの異なるシナリオで私たちの怠惰な接地アプローチを評価しました。最初のシナリオでは、AVPシステムのアプリケーションを紹介しました。このシステムでは、複数の利用可能なスポットが提供されている場合、自動車で駐車する場所を決定する必要があります。 2番目のシナリオは、複数のオプションが使用可能な場合にロボットエージェントが特定の種類のオブジェクト(缶または箱)を拾うように要求される操作タスクを対象としていました。両方の場合において、我々のアプローチは要求を解決するだけでなく、それが代替のメカニズムと比較されたときその報酬ペナルティ戦略も優れていました。さらに、マニピュレーションタスクのシナリオでは、ロボットを指揮するためのマルチモーダルインターフェースを高度なレベルで開発するために、私たちのアプローチを使用する可能性があると考えています。

次に調査すること

  • symbol grounding problem, variable grounding problem

    • The symbol grounding problem, 1990
  • Semantic map

    • Integrating metric and semantic maps for vision-only automated parking, ICRA2015
    • Semantic 3D Object Maps for Everyday Manipulation in Human Living Environments, 2010

TP-Space RRT – Kinematic Path Planning of Non-Holonomic Any-Shape Vehicles

2015

https://journals.sagepub.com/doi/full/10.5772/60463

著者 * Jose Luis Blanco, Mauro Bellone, Antonio Gimenez-Fernandez

Jose Luis Blanco https://scholar.google.es/citations?user=bhDtzKgAAAAJ&hl=en

Abstract

車両の自律航法は、典型的には2種類の方法を組み合わせる。すなわち、最初に経路が計画され、次にロボットが局所的障害物回避制御装置によって駆動される。経路計画に焦点を当てた本研究は、衝突検出のための効率的な方法として軌道パラメータ空間(TP空間)との統合を可能にするためによく知られている高速探索ランダムツリー(RRT)アルゴリズムへの拡張を提案した。任意の形状の車両のための自由で運動学的に可能な経路。オリジナルのRRTとは対照的に、この提案はedgeをすべて運動学的に実行可能な経路とし、純粋なリアクティブアルゴリズムによって駆動される車両が正確に追従するのに適した、ノードとしてポーズを持つナビゲーションツリーを生成します。初期の実験は、その厳しい運動学的制約を取り除くことができないアッカーマンステアリングビークルモデルによる方法の適合性を実証している。これまでの研究とは異なるこの重要な結果は、TP空間形式の下で効率的に行うことができるツリーを拡張するためにいくつかの潜在的な軌跡の系列を使用することが計画軌跡の最適性を改善するという発見です。参照C ++実装がオープンソースとしてリリースされました。

Introduction

信頼性の高い自律走行車と移動ロボットは、業界のあらゆる分野での潜在的な影響のための長い間求められてきた目標です。 そのような目的を達成するために解決されなければならない複雑な問題のリストから、最も重要なことの一つは自律ナビゲーション、すなわち所望の目標に向かって自動車を運転することである。 Kiva倉庫ロボット[1]のような商業用の無人搬送車は長年産業環境で利用可能でしたが、それらはしばしば管理区域内での作業に制限されています。 彼らは増加した操縦性のために差動ドライブ運動学を使います。 これらの制限を回避することは非常に望ましく、したがって一般的に非円形の形状およびそれらの操縦性を厳しく制限するアッカーマンステアリングキネマティクスを有する工業用車両に実用的な自律走行をもたらすであろうからである。

自律航法のための技術は大きく2つのカテゴリに分けることができます:(i)ワークスペースに関するすべての利用可能な情報を一度に取るグローバルパスプランナー、および(ii)即座に感知されたデータだけが方法を決定するリアクティブアプローチ車両を制御します。純粋なリアクティブナビゲーション方法は、特にホロノミックプラットフォームにおいて、ロボットナビゲーションに対処するための信頼性と柔軟性を実証しています[5、6]。それらの実用的な有用性にもかかわらず、彼らは望ましい目標に向かって最適な道を見つけることを保証することはできません。実際、極小値は有効なパスが常に見つかるのを防ぎます。対照的に、経路計画の研究における努力は、通常最短経路という意味で、最適な軌跡の探索に焦点が当てられています[7]。そのような効率は犠牲になります:プランナーは典型的なオフィスのようなナビゲーションシナリオのために結果を出すために数秒を必要とするかもしれません。これは、環境内で検知された動的な変化に、通常は1ミリ秒以内にすばやく対応する反応的な方法の能力とは対照的です[8]。自律ナビゲーションのための現在のアーキテクチャは、グローバル(計画的)方法とローカル(反応的)方法とを融合させる傾向がある(例えば、ROSナビゲーション[9]およびMoveIt! [7、10]。このようなシステムでは、ロボットは最初に計画を生成し、次にリアクティブナビゲータを使用して移動を開始します。実行中、グローバル計画は通常、バックグラウンドで実行され、リアルタイムでより良い計画を提供します。

1990年代の経路計画調査では、高速探索ランダムツリー(RRT)アルゴリズム[11]などのサンプリングベースのアルゴリズムの可能性が発見されました。これについては、セクション2.3で後述します。 RRT自体は他の研究者が拡張を提案するための出発点でした、例えば、Jacobs等。 [12]では効率のために木探索を並列化することを提案している。 [transition-based RRT](T-RRT)と呼ばれるもう1つの改良が[13]に導入されました。そこでは、ランダムな探索段階を導くためにグローバルコストマップが使用されます。 RRTメソッドはさらに拡張され、多くの変種が生まれました。最も普及しているものの2つは、RRT * [14]とRRT-connect [15]です。

しかしながら、上記の方法のいずれも、アッカーマン駆動車のような運動学的な制約を本質的に考慮していない。

[16]に触発されて、キノダイナミクスRRT * [17]は2013年にそのような制約を含む興味深いRRT *拡張として提案されました。その研究によって表される大きな前進にもかかわらず、(平面自動車のものとしての)非線形の制約は近似的に満たされるだけであることに注意しなければならない。 実世界の条件で作業するロボットは必ずしも正確な最適解を必要としないことに注意してください(計算コストのほんの一部で見つけることができる最適以下がうまくいくかもしれないので)、[18]のような最近の作品最適性と計算時間の間の妥協点としての最適に近い運動計画

この研究では、生成された経路に実際の車両が追従できない元のRRTとは対照的に、厳密な車両形状とその運動学的制約を暗黙的に認識している新しいRRTの変形を紹介します。我々のアルゴリズムは、任意の形状のロボットの純粋な反応型ナビゲーションを加速するために他の場所で導入された軌道パラメータ空間(TP空間)[8]変換を利用します[8、19]。したがって、非ホロノミック運動学的制約を無視または緩和し、円形または点状のロボットを仮定する以前のいくつかのリアクティブナビゲータおよびプランナとは異なり、本提案はそれらを完全に観察する。さらに、TP空間変換の基本的な特性は、過去に反応型ナビゲーションを改善することが実証されている機能であるセクション2.2で説明したように、軌道ファミリーの選択に応じてさまざまな方法でパラメータ化できることです。この論文で実験的に見いだされたように、それはまたRRTによって見つけられた経路の品質を改善する。このホワイトペーパーの残りの部分は、次のように構成されています。第2節では、TP空間の背後にある理論について説明し、古典的なRRTを紹介します。パラメータ化された空間で計画問題を解くための修正RRTアルゴリズムを3章で紹介する。次に、提案手法をアッカーマンステアリング車にどのように構成するかを議論し、5章で統計実験を行う。最後に、6章でいくつかの最終的な結論を導きます。