設計・シミュレーションFebruary 19, 2021

【デザインとシミュレーションを語る】71 : シミュレーション世界における情報爆発

9章では、この10年で進行している情報爆発の状況とそれにどう対応すべきかを議論します。本記事では、シミュレーションによる情報爆発とはどういうことかについて書いてみます。
header
Avatar 工藤 啓治 (Keiji Kudo)

【第9章 情報爆発からのデータ活用】71 : シミュレーション世界における情報爆発

ダッソー・システムズの工藤です。ようやく第9章に入ります。この章では、この10年で進行している情報爆発の状況とそれにどう対応すべきかを議論します。シミュレーションの活用が急速に進展していることによるバーチャル世界での情報爆発と、今まさに進行中のIoTからのデータ流入によるリアル世界での情報爆発について、を個別に眺め、後半ではその融合について語ることになるでしょう。

本記事では、シミュレーションによる情報爆発とはどういうことかについて書いてみます。シミュレーションで設計をする用途でスーパーコンピュータが幅広く活用され始めた1980年来の過去40年コンピュータの性能は、下記に示したいくつかの情報によれば、10年後ごとに1000倍のスケールに乗っていることがわかります。性能の単位が、1000倍ごとに、Mega(10の6乗)=>Giga(10の9乗)=>Tera(10の12乗)=>Peta(10の15乗)というぐあいに、10年周期で変化していることにも現れています。

世界のスーパーコンピュータの発展と「京」の位置づけ

http://www.nedo.go.jp/content/100085050.pdf

スーパーコンピュータの歴史

気象や材料設計といった大規模なモデルを要するシミュレーションでは、どちらかというと1回の計算の高速化や精度を上げることが至上命題になりますが、企業が用いるシミュレーションはそうした大規模な計算もあるものの、多くは中規模~小規模な計算がたくさん実行されています。そこで、製造業の代表的なシミュレーションである、自動車の衝突解析に注目して、どのように活用されているかを推測してみましょう。衝突解析のモデル規模はほぼ10年ごとに10倍のスケール線に乗っていることがわかっています。1990年代は、数万要素、2000年代は、数10万要素、2010年代からは数100万要素のラインに乗っており、2020年代のいまは数千万要素のモデルになっています。この数字を使って、とても大雑把な仮説をしてみます。企業がシミュレーションのために使うコンピュータ性能も、上述したように平均して10年ごとに1000倍伸びていると仮定します。一回あたりのモデル規模は、衝突シミュレーションを例に、10年後とに10倍伸びているものとすると、それを埋める100倍の計算量は、計算回数の伸びに帰着することになります。これは何を意味するのでしょうか?実は、それを定量的に裏付ける、ドイツの自動車会社による、ある時点から過去7年の計算回数の増加の内訳を分析した例があります。それによると、モデルの種類が平均2倍、評価性能の種類が3倍、組合せ種類(ケース数)の増加が20倍で、合計すると2x3x20=120倍になっているという試算です。7年でこの数字ですから、10年ではもっとですね。すなわち、100倍以上の計算回数の伸びは、実際の企業での利用状況観測でも、裏付けられているということなのです。

ここで重要なのは、回数が10年で100倍増える内訳である、モデルの種類、評価性能の種類、組合せ種類(ケース数)がの意味をしっかりと理解することです。以下の3つの面で考えてみましょう。

1. 環境対応や安全性などの市場要求の種類が増え、かつ条件が厳しくなっている

エンジンであれば、NOx削減、燃費向上、軽量化、騒音削減、車体であれば、軽量化、衝突安全基準、操安性、静粛性、電子機器であれば、軽量化、最小化、高速化、電力消費削減、リサイクル性向上など、あらゆる性能要求の満足化と相互のトレードオフ性が複雑性設計を加速します。これを支えるためにシミュレーションの種類やモデルが増え、実験計画法、設計探索やロバスト設計などにより計算回数が大きく増えます。

2. 地域/国対応ごとの製品、OEM対応ごとの部品種類が増えている

先進国のニーズをベースに開発していたのは、遠い過去の話で、如何に地域に応じた製品をすばやく開発するか、かつ部品を共通化して単価を下げるかは、グローバル企業にとっては、当たり前の取り組みになりました。派生製品や検討項目が増えることになりますので、設計開発のしくみを複雑にします。当然、シミュレーションのモデル種類や検討回数にも反映されるのです。サプライヤであればOEMごとに製品仕様を変えて開発するのは、開発体制に大きな負荷を与えています。

3. 人材を増やすことができないし、育成にも時間がかかる

上記の背景で、仕事の量が増えているのは誰の目でみても明らかなのですが、だからといって社員増で対応することはできません。すなわち、従来の組織体制で、増加する仕事をさばく必要があります。特に、シミュレーション業務は高度に専門的な知識と経験を要するので、増やしたくても、すぐには増やせないという事情も加わります。量をこなすために増やしたとしても、スキルの低い技術者にも対応させてければならないという状況になります。そのために、シミュレーションの計算プロセスを自動化することが有効になります。自動化できれば、計算回数も自ずから増えます。

まとめると、製品自体と設計体系が複雑になって、10年で100倍、あるいは5年で10倍のスピードで急激に増えている設計業務を、従来の人数でこなさなければいけないという、とても大きな課題を抱えているのが、設計に活用されているシミュレーション業務の現状といっていいでしょう。このことは特定の産業ではなく、シミュレーションを活用しているすべての産業で起きていることと推察できます。非常に大ざっぱな仮定と推論で議論してきましたが、現場を訪れて話を伺うと、顕在化・潜在化の両方で進んでいることがわかります。

シミュレーションのデータは日々保存されてはいますが、保存されてどうなっているのでしょうか?適切に管理されているのでしょうか?再活用や結果分析ができているのでしょうか?実は、大半はどうもなっていないのが現状なのです。昨今AI活用が、単に脚光を浴びているという以上に、活用されない領域はなくなるのではないかというほど、さまざまな適用事例に溢れています。しかし、大前提であるデータを適切に属性情報化して紐づけし管理するということが、シミュレーション領域に決定的に欠けていることは、大きなボトルネックとなります。その必要性と対応策については、これまで下記の記事で述べてきましたので、ぜひ再読ください。

第55回 : 設計知見の蓄積と再利用のための実装と効果

第56回 : SPDM as Virtual Sensor – AI活用に向けたデータ蓄積

第57回 : SPDM as Virtual Sensor – 属性データ例と活用目的

読者登録はこちら

ブログの更新情報を毎月お届けします

読者登録

読者登録はこちら