●羽藤:東京2050の研究課題
羽藤:今日はシミュレーションの話をしたいと思っています。モデルと計算の話です.東京2050を構想していく上で人口予測を下敷きに交通や土地利用について精度にいいシナリオシミュレーションを行っていくことが求められている.本研究WSでは今後必要とされる計算アルゴリズムや膨大なライフログのデータクリーニングとその情報圧縮技術,高齢化社会の中で必要とされる行動モデルの枠組みについて集中的な議論をワークショップ形式で行うことで,今後の都市生活行動シミュレーションの技術的な研究課題を整理したい. 東京2050シミュレーションの計算スケールについて、金森さんと山田くんに、井上さんからは東京2050の観測・可視化のための統計的手法論について地価モデルの可視化と今後を、薄井さんからはPPデータとパーティクルフィルタ、張さんからは東京2050のための行動理論として相互作用と幸福感を考慮した世帯モデルの話をしてもらうつもりです。どちらかというと行動モデル研究は佐々木さんがよくいうフレーズですが、永遠の昆虫採集と揶揄されることも多いように感じています。今日の研究会はそうならないための技術について議論しようと思っています。 2050で考えているシミュレーションの開発方針についてですが、時間軸をいくつかのセグメントに仕分けして考えています。1)Long-term simulator と2) medium term simulatorです。短い時間の話は交通シミュレーションの動学化ですが、そこの部分はだいたいできているので、1)と2)の話で、特に土地利用マイクロアクティビティシミュレーションのパートは日本だと兎に角地主が多くて敷地の改変が激しく行われている。経済情勢退に伴う需要の疎化、それに伴うつながりの変化が、既存制度下で土地取引が計画的というよりも現象として起こっている。都市像として集約型都市構造だったり高齢化に伴う住み替えといった問題が交通の問題やネットワーク上の活動の再配分が主なテーマになるのではないかと考えています。 一方Short term simulatorについては、-SMOOTHというマイクロシミュレーションを阪神高速さんやMITと一緒に開発してきたのですが、within dayにおける行動や環境負荷をアウトプットできるということが大前提になっているわけですが、これらのモデルをベースにして東京2050の統合戦略を構築することを考えています。モデルの考え方は、-Comprehensive & Modularと-Agent-based & Opensource softwareということで、APIとして公開して,一部誰でも使えるようにすることエージェントベースでゲーム的要素を含むことを前提に考えています。 シミュレーションモデルで記述すべき要素は、なんでも考えればいいというわけではなくて、ある程度の仕分けが必要です。1960年代であればIBMなんかが作っていた計算機の制約も大きかったことから4段階推定法は絞り込まれた抽象度の高いよく出来たモデルだと思うのですが、均衡配分からマイクロシミュレーションへ向かう段階で、問題記述力が弱まった気がしています。Person Record(静的なデータ)とProbe Person(動的なデータ)を合わせて,これまで扱ってこなかったTourbased modelのモデル化をより洗練させていくことが重要です。土地利用については、敷地、stockの分割や統合については確率的な表現を行い、動学化する必要があると思っています。それから交通・ソーシャルネットワークモデルと繋ぐ必要があるでしょう。 アルゴリズムについてですが、この図は縦軸が行動系,横軸が配分系ですが、最初にWardlop先生が提案した配分の概念があって、そこにFrank-Wolf法が出てきて,計算機の性能があがってエージェントベースでMITSIMやALBATROSSと発展してきています。今回はエージェントベースのことを考えているのは、相互行動論的な部分をきちんと扱いたいと考えているからですが、一方で多自由度系だとハミルトニアンを効用関数に見立てた方法をもあります。プローブデータをベースに考えると統計モデルでも、そのあたりの理論が出てきていますので、アプローチをよく吟味する必要があります。 次にモデルコンポーネンツの開発ですが、activity based modelからOD tableのジェネレーター、動学的土地利用モデルまで、計算性を考慮したアルゴリズム開発が重要になります。統合モデルでは、マルチモードシミュレーション、土地利用(日々の活動・住み替え)とミクロ交通シミュレーションを記述します。また、ネットワークデータの生成では、空間行動DBの構成を定義してやるわけですが、中の処理がパラメータリゼーションとかいろいろあるので、データクリーニングをコードしてやる必要があります。ここでは、DBの中に正規化し,関連して新しい空間データを再現・補完していくアルゴリズムが必要だということです。 現況再現性を高めていく上で、構造推定やパーティクルフィルタ,OD推定の部分的な空間データの再現性を上げていくといった方法が考えられます。交通配分ではある程度アルゴリズムが確立されていますが,シミュレーションではそこまでしているわけではないので,アルゴリズムを作成していく必要があります。 多量の情報の可視化技術が重要です。土地利用と交通を結合させたモデルを構築し,いまどのようなデータやアルゴリズム,モデル構造が足りていないのかについての課題を整理すること.また,多量な情報のDB構造,検索,可視化について整理すること.モデルについては幸福感が大きな問題意識となっているのでそれを考え、理解する上で基本的な情報をシミュレートするための考え方を整理することが今回の科研のテーマだと思っています。 張(広島大):都市間の外部条件をどのように与えるのか?たとえば大野さんのシュリンキングシティみたいなシナリオであれば、まずそれが外部条件となって,シミュレーション計算をするはず。計算スケールをどれくらい小さくするのか.そこを決めないと、精度が決まらないように思う. 羽藤:精度の違う部分的なデータを持っているので、それをフュージョンして一旦都市圏域レベルの動きまで再現する。但し部分的なプロジェクトウィンドウについてはモデルの分解能をあげて、そのウインドウ内の動きを再現して境界条件を全体統合モデルとやりとりして再現する。そういう方法を考えている。 柴崎(東京大):GCOEのプロジェクトとして出してほしいアウトプットがあって,そこでは都市の生活行動だけでなく,東京で成立しうる拠点産業はどのようなものがありうるか,などといった疑問に答える必要はないのか? 羽藤:難しい質問(笑).形而上の未来、それも部分的な予測を考えられませんかということですが、シナリオを書いてバックキャストで考える方法ではないか。拠点産業を敷地に置くことで生じる、あるいはその拠点で実現可能な生活ー経済活動の水準をミクロレベルで評価する。そこで足りないもの、交通ネットワークだったり、居住条件だったり、エネルギーや非常時の頑健性だったり、それで企業向けのポートフォリオをつくっていくようなことはできるかもしれない。 柴崎:プロジェクトと自分の研究の興味のギャップを埋める際に,ギャップを埋める人を見つけることが必要では。 羽藤:前世紀の後半に、高速道路のプロジェクトでMITのマンハイムがランドスケープの連中と組んでいろんな情報をレイヤーで重ねてデザインする方法を考えた。そこからアレグザンダーやモシェも育っていった。数理やデザインも昔は融合的だったのが、今は先鋭化した。専門性の違う連中が共通のプラットフォーム上で議論できるプロジェクトをつくることが重要だと思う。 ●金森:均衡配分と土地利用モデルの可能性 金森(名古屋大):均衡配分と土地利用モデルの可能性について話します。東京2050のこれまでの活動成果ですが、みずほ情報総研によって行われた市区町村別の人口推計結果では、2015年で東京圏は3810万人でピークとなり,2050年には3160万人で0.84倍,高齢者の割合が前期・後期で40%程度になることが予想される.しかも高齢者単独世帯の増加が予想されます。また土地利用の現況データとして,都市計画基礎調査データを収集している.土地利用状況や用途地域の面積.都道府県ごとにデータフォーマットが異なっているためこの部分を修正中という段階です. 応用都市経済モデルの適用では、中村英夫先生がやった土地利用交通モデルの中にミクロ経済的基礎をつくったものがあります。家計,企業,地主を仮定し,それぞれ家計が効用最大化,企業が利潤最大化,地主が効用最大化を行ったときの均衡条件を得る.交通モデルは四段階推定法でした。このモデルを使うと、2050年の東京圏は人口を外生的に与えており,市区町村別に均衡状態になった従業人口や夜間人口などを求めることができる.最近は町丁字レベルでの適用が検討されているが,そのレベルでの均衡状態を仮定するのは疑問という問題もあります。 交通モデルの改良について,四段階推定法の多くの問題点についてはアクティビティベースドアプローチが有望視されている.日本では北村先生のPCATSがあって、自由時間をどのように活動するかのシミュレーション.そこではプリズム制約を考慮したり,離散連続モデルを用いたりする.最近TRBなんかで議論されているアクティビティベースモデルでは、は世帯内の行動を考慮しないといけないのではないか.長期的な予測,世帯内のパターン,コーディネートされた自身の活動や交通などが考えられてています。 実務における超長期予測では、東京都市圏PT調査義務における原単位法を用いているが,年齢階層別の原単位がおおきく変化してきているので,原単位法がそれほど良い方法とは思えない。低炭素型社会を実現しうる都市構造,交通施策(道路課金,公共交通のサービスレベルの向上,シェアリングなど)の導入評価を行えるべきであり,市町村レベルでは交通利便性を適切に評価できないため,1kmメッシュ程度のゾーン区分でactivity based approachシミュレーションが必要.市区町村レベルのCUEモデルにて従業人口分布を算出してはどうかと思っている。 詳細レベルでのactivity based approachでD論で行ったスパコンを用いた計算手法.入力データについては奥村先生が500mメッシュでのコーホート法の改良.世帯構成についてはIPF法が主流だったが,IPUやコピュラなど世帯の自動車保有状況を加味する必要がある.改良すべき点,課題について.個人ベースの近似的なアクティビティベースドアプローチであるが,ここに世帯内相互作用などの世帯ベースのモデル化を必要があります.ネットワーク均衡モデルの枠組みを外せば構築可能である.時間軸を離散化しているため,厳密な均衡解と比べると算出結果の解釈が困難.アメリカでは数千の目的地選択モデルを構築してどや,が多いが,空間的相互作用を考慮し,2km県域での自転車・徒歩を中心としたモデル化が必要.その他自動車経路選択モデル,物流・貨物車交通への対応が全く行われていない点が問題. 張:東京PTでどのような議論が行われているのか?いままでのを改良しましょうという感じなのか? 金森:これまでは長期予測モデルについては10年区分でどう都市構造を変えるかといったことを考えた上で市区町村レベルを考えるという話になっている.今回は均衡配分をやっていて,交通手段と経路選択のマルチをやってるのが特徴だと思う。 張:5時点データがあるのにそれをダイナミックにやっていくことが行われていないことが問題。 金森:動学化,準動学化の扱いすら考えていないことは費用便益の正しさをきちんと計測できていないことの問題点,アクティビティを全く扱っていない問題,公共交通のLOSについて鉄道やバスをきちんとやっていないのではないか。モデル時点では経路のサンプリングはありなんだけど,結局配分する際にはネットワークローディングが必要なので,そこをどのように回避するかという問題をやはり考える必要がある. 羽藤:インペリアルカレッジの人たちはシミュレーションによって環境評価といった手法,経済学的な人たちは外的な条件からCUEモデルを構築するといった印象. 張:大きなレベルにおいてはCUEモデルで均衡させて,小さな部分についてはシミュレーションというのがあるんじゃないか。 ●山田:VNモデルの計算方法 VNモデルの計算方法について話します。研究の背景としてデータ指向型マイクロシミュレーションモデルを構築したい.2つの背景として,モビリティクラウド(マルチモーダル,モビリティシェアリング,活動レコメンデーション)によるactivity based approachによる都市圏レベルでの影響評価.二つ目は交通行動データ(PTデータ,PPデータ,ETCなど)の多量のデータの存在によりリアルタイムシミュレーションへ向けたデータ処理プラットフォームを構築する必要性.課題として大規模ネットワークの計算コストやマクロ・マイクロの統合について考えています。 マクロレベルでは行動データに基づく広域ネットワーク上での交通量配分ですが、マイクロレベルでは詳細なネットワーク上での統合型マイクロシミュレーションモデルを志向しています.マクロレベルではデータ指向な低コストネットワーク,マイクロレベルでは細かなLOSの表現.ここでマクロレベルとしてVNによる表現についてですが、例として、横浜の網羅的なマクロネットワークの構築を行い、その上で、詳細ネットワークでは移動軌跡データのマップマッチングから上流VNリンクと下流リンクを接合することで表現します。VNリンク1本から接続する詳細ネットワークのリンク数は1kmVNでは平均2,3本マックスでも10本程度,10kmメッシュは膨大にあるため接続条件が複雑になあります。 VNによる経路選択モデルでは、経路選択肢集合の経路を定義して、まずはMNLで推定してみました。経路コストは通過したセルの通過時間の和で、セル数は通過したセルの個数として定義しています。バーチャルネットワーク(VN)のスケールを1000mにすると修正済み尤度比は低く,セルを大きくすれば尤度比は大きくなります。ただ、接続条件があやしくなるため問題が生じているとうのが現時点での課題です。今後は、PTゾーンとの関連づけ,土地利用や人口などの地域メッシュの統計情報による説明変数の追加などが考えられます。 羽藤:ネットワークがない場合のネットワークをどのように作成するのかという視点からこのシミュレーション開発はスタートしていてるのがおもしろいと思っている。たとえば自動車会社がエネルギーマネジメントの観点からGPSデータを自動的に取得していることを念頭に、そのデータセンターでどんなモビリティサービスやシミュレーションが可能かということを考えている。 柴崎:地図データを仮定しない点はすごく良くて,精密な地図データを前提にしてる限り海外には売れないので.しかし聞きたいことはメッシュデータに整理することの理由が聞きたい.ベクターデータとしてそのまま保有してもいいのでは? 山田:現在のPPデータではまだ観測誤差があるのでこういう計算方法を考えた。同じ経路を通っていてもまちなかのミクロなネットワークこそVNがうまくいく.案内データなどを貼り付けることが可能だと思う.歩行者の速度の分析などにも用いることができるが,ストリートキャニオンみたいな問題があるので,そこのフィルタリングが必要だったりする. 張:使う目的が変わればやり方は大きく変わるように思う.実際にどこを狙っているのか?サービス提供なのかプランニングなのか? 山田:僕は完全にデータから思考していて,ネットワークデータの生成・データ整備などで1年くらいかかってしまうことがあり,様々な地域に対応できないことがある.そこにおいて,既存のデータをうまく利用して様々な場所に適用することを考えている. 金森:リアルタイムシミュレーションの際に,高速道路やHOTレーンなどは考慮できないのではないか? 山田:そこは詳細ネットワークの場所を増やすことで対応できる.阪高ではそのようなことを考えていて,阪高のネットワークは実際のネットワークを利用して,それ以外の下道をVNで簡易的にネットワークを作成して,施策評価を行うことが可能. 原田(東京大):詳細ネットワークを使うのではなく,メッシュのサイズを5mとかにすれば歩行者や自転車のネットワークなども生成でき,またかつ自動車などとも整合性の取れたものにすることができるのでは?また,幹線道路については実ネットワークにして,密度の薄い部分をネットワークフリーで表現することがいいのではないか。 ●井上:地価モデルの可視化と今後 地価情報の可視化と今後について話します。公示地価情報と基準地価情報が公開されてきた.しかしこれらの価格は取引価格との乖離が指摘.現在は土地総合情報システムによって実際の価格が公開されているが,地価情報提供には必然的に限界がある. 取引には取引ごとに個別の事情が反映.売り急ぎや形の問題など標準的な価格を示しているわけではない,また時空感情に点在するが,同一地点・複数時点の情報が得られることは稀.よって地価変動情報は得られない.不動産市場は典型的な不完全競争市場であり,取引価格は指標として適当ではない.鑑定評価に基づく公的地価指標+取引価格の両面からの分析が有用であり,不動産市場の透明性の向上に寄与する. そこで,空間統計手法を活用して,時空間内挿を行い,情報提供を行う.これにより公的地価指標と取引の比較により,生の取引価格を出すことなく情報提供が可能.時空間クリギングとして,撹乱項の共分散構造を自身で構造化する.2000年から2009年の東京都区部のデータを用いて,時空間共分散構造(距離と時間を考慮)を使った推定を行う.説明変数として経済要因,地域要因,個別要因.内挿精度についてクロスバリデーションを行う.商業地域は非常に難しくて対応できていない. 地価の時空間分布の可視化の例.のの字型に波及する.1991年から2009年の取引データの事例.経年的な変化.2005年以降の取引の加熱と2008年以降の沈静化の表示など.情報提供を行うサイトの構築.時空間で点在する情報からは統計情報をいかに抽出するか.空間疫学でspace-time scan staticsの応用による市場動向変化の抽出に関心.しかし,果たして遠い将来を予測するのが可能であるのかが疑問. 羽藤:マクロなレベルでの地価の変動とミクロな個別領域での地価の変動といった観点は考えられないか?土地利用の粗々なモデルと点データでの推定では扱いが異なるのではないか? 井上:あまり特徴的な方法が分野としてあるわけではない.渋谷区ダミーなどを使う人もいるが. 張:推定されたパラメータは時間的にどう変化するか? 井上:今回は全データをプールしていて,時空感情の相関を誤差項として組み入れている. 羽藤:東京2050の議論の中で住宅に対する関心が高いこともあり,地割などの問題もある.そのような微視的な取引について何らか適用できる手法がありますか? 井上:使えるデータがそれほどない.同一の街区で二つ情報があることがほとんどない.また,なぜこんなに高い値段で取引されるのかわからないものが多い. ●薄井:PPデータとパーティクルフィルタ 薄井(東京大):東京2050可視化のための統計的手法論について、今回はパーティクルフィルタを援用したデータクリーニングについて話します。大量のプローブデータが得られているがどのように価値を生み出すかが課題.特徴として時空間情報,近年より容易にデータ取得が可能.誤差の問題,データ固有のフォーマット,膨大な収集データ.データ種類に依存しない汎用処理手法が必要であり,データクリーニング処理,データ圧縮・蓄積が必要です。 既存のプローブ手法は道路ネットワークを用いたマップマッチング.歩行者や自転車のプローブデータが得られているが,その場合道路ネットワーク以外のマッチングも必要.そこで道路へのマップマッチングと自由空間へのマップマッチングという2つの方法が考えられる.経路特定にGPS誤差の影響を受けやすい,滞留なのか誤差なのか判別できない. そこでMixed Map Matchingの開発を行っている.基本的には道路ネットワークをベースにしたマップマッチングを行い,そこにパーティクルフィルタを用いた自由空間でのマップマッチングを行う.まず,外れ値を処理し,道路ネットワークへのマッチングを全て行い,滞留点を判別する.道路にふさわしくないデータが出てきたときに自由空間へのマッチングをパーティクルフィルタを用いて行う. 外れ値の除去,1時点前からの移動速度が20(m/s)よりも大きい値を外れ値として除去,次に滞留点の判別として前30秒以内のGPS観測データと30秒以降のGPSデータが10m以内であれば滞留点として扱う. パーティクルフィルタによるクリーニング処理.ビジョン系分野の画像処理などで主に利用されている手法.1時点前の状態を元に抽出されたパーティクル群を選択肢,拡散する.次にパーティクル群に運動モデルに基づいて移動させランダム雑音を行い,尤度を計算し,除去し,再度リサンプリングする,を繰り返す.距離の逆数を尤度とする. データは58名の小学生に持たせたデータ.120万ポイントで10時間くらい.滞留点を判別することができる.滞留は点がぐちゃっと混ざった形になってしまっているのでなんらかの点に集めるアルゴリズムを開発することが今後の課題.またネットワークが存在していないが,実際にはネットワークとして利用されている部分があるので,そこから自動的にネットワークを作成するようなことを考えたい.データマイニングのバスケット分析を用いてプローブパーソンデータのベクトル化を考えたい. 羽藤:パーティクルフィルタだけでやればいいのでは?ネットワークデータはどのように使うのか? 薄井:パーティクルフィルタだけで使うと明らかに同一のネットワークを利用していても別ネットワークを利用しているように見えるので,そこはマップマッチングと組み合わせることでネットワークを移動している. 羽藤:運動方程式については? 薄井:改善させることを考えているが,計算速度の問題などがある.これまでに等速移動などを考えたが,なかなかうまい方法がないのでそこを考えたい.福田先生なども取り組んでいる 張:空間情報の分野における研究の課題は? 柴崎:いまだと携帯にも加速度センサーが入っているので人間の体の動きはわかっているので,パーティクルフィルタを用いれば簡単に捕捉可能になる.またカメラデータから自分の位置を逆推定するということは研究ベースでは可能. ●張:相互作用と幸福感を考慮した世帯モデル 張:東京2050のための行動理論では、東京についての問題意識.東京の世界の中での位置付けを考えるときにビジョンがないと難しいのでないか.統合都市モデルの理想的な構造について,トップダウン型のアプローチとボトムアップ型のアプローチ.プランニングする際には価値観の判断が必要である.統合都市モデルにおいては上位目標(トリップ最大化や車保有最大化など,平等性),環境制約(総排出量など),下位には通常の交通モデルを合わせてトップダウン・ボトムアップを合わせて行っている. 交通行動研究の問題点,誤差項に行動学の将来を求めるのではなく,確定項に行動学の将来を求めた方がいいのではないか?昔はデータが取れなかったから誤差項をやっていたが,これからは確定項を考えるべき.ここから総合行動学を目指すべきではないか.個人間の相互作用のモデリング.基本的な理論フレームワークは3つあると考える.個人選択確率集計型集団意思決定モデル(Davis,1973)、Altruismを取り入れた集団意思決定モデル(Browning and Chiappori,1998)。多項線形型,等弾力型集団意思決定モデル(Harsanyi, 1955; Atkinson,1983)である。 Attribute-based household choice model, alternative-based HouseholdChoice model, Outocome-based household choice models, autocracy-typehousehold choice modelなど.時間利用として,個人の効用と世帯相互作用から得られる効用の線形和として考えるモデル.属性レベル別に感度が異なるモデルもありえるのではないか.広島大学で行ったSPのデータをそれぞれのモデルを推定した.また,意思決定方略を潜在クラスに基づいて異なる世帯意思決定メカニズムを表現するモデルも作った. 個人間相互作用はかなり一般性があり,アメリカでも実務的に一部使われている.ただやっているアプローチは個人構造をネスト構造にしているだけでまだまだ.なぜ交通を研究しているのかと考えればlife oriented approachも必要となると考える.Affective experience during travel.移動は一般的に苦痛と考えているが,移動時間中に本を読んだりすることもあるので,このようなアクティビティが移動のパラメータを単純に負だ,とするのはおかしいのではないか.行動経済学のDRM(Day Reconstruction Method)によって人の気持ちをより精度の高い方法で得ている.移動中に平均4つのアクティビティを行っている.特に気持ちは買い物やレジャーはポジティブ,帰宅はポジティブとネガティブが混ざっている.読書,音楽,睡眠,仕事はポジティブ,何もしないのがネガティブに出る.ここからは単純にutilityを一つにしているわけだが,いろいろ考える方法はある. 市民生活行動学への新たな試み.activity-based approachからlife-orientedapproach(LOA)へ.最適移動時間はという質問をすると平均30分くらいになる.0ではないところが重要.部門横断型政策の必要.PTや生活時間調査,社会生活基本調査,都市計画基礎調査などデータは存在するが研究は停滞気味で応用がほとんどない.市民生活行動の様々な側面をパッケージ化した調査手法を開発する必要がある.市民生活行動の相互作用については短期のものから長期のものがあり,端的には制約条件,連続性,パッケージ化,ニーズによっての関連性が存在する. 最後にparadox of happiness.ハピネスは議論が哲学的になりがちであるが,いくつか重要な点がある.15000US$以下の場合,収入が高い国の人は収入の低い国の人よりも幸福度が高いが,それ以上の収入水準になると,収入の低い国は収入の高い国よりも必ずしも幸福度が高いとは限らない.行動経済学で言うadaptation.Easterlinはハピネスとは主観的な幸福感,満足,効用,幸福感はほぼ同じ意味.心理学者はハピネスと生活満足度は別物.生活満足度は理想と現実のギャップであり,ハピネスは主観的幸福感に近い.SWB > happiness + LS.Repley(2003)の整理.客観的な生活条件と主観的な幸福感の関係.unhappyrich(dissonance)とhappy poor(adaptation)をどう考えるかについて考えるべきである.Collective QOLとindividual QOLが個別である.ケイパビリティアプローチの必要性.個人レベルの話と都市レベル,国レベルにおいての整合性をどう考えるべきか。 今のQOL研究の問題は指標化に対する困難性や嫌悪がある.しかしいずれにしろどこかで答えなきゃいけないのではないか.失敗してもいいから1回やってみてもいいと思う。 ●羽藤:まとめ 羽藤(まとめ):QOLで一番重要なSN、要するに関係性の研究はモデルだけを考えれば推定はできるし、インプリケーションも多い。ただ相互作用の繰り返しが系において何を引き起こすかについて考えないと、パネル研究と同じように状態を単に説明しているだけになってしまう。それでは時間の中で系の変化を制御することはできないから、小さな系でもいいのでゲーム理論や学習理論を援用しながら相互作用の挙動を均衡解として確認していく。あるいは大きな系であればシミュレーションに落とす計算性だけ考えれば効率的とはいえないけれど、エージェントモデルのようなものでも使いながら計算機の資源をフルに使って配分問題のように系の動きを考えていくことに意味があるように思います。 このような大規模計算を行うとき、再現性や母集団の代表性を言う人は多いけれど、OD推定に代表されるような見かけの蓋然性を高めるような技術はある。ICカードやPP、PT、センサスなどを含めてそこはデータフュージョンしていけば在る程度のことはできると考えています。いずれにしても実装なきものは無力というのが実感なんで、最終年度までに、今日出た話を実装まで持ち込みたいと今は思っています。 |