原発事故や航空機事故、医療ミスや薬害事故、欠陥車問題など、なにか重大な事故が生じるごとに「安全」の二文字が呪文のように繰り返される。事故を起こした当事者側もそれを批判し追及する側も、二言目には「安全」という言葉をお題目さながらに唱え崇める。だが、しばらくすると、それですべてのことが済んだかのように、当該事故そのものさえをもけろりと忘れ去ってしまう。そして、いつまでたっても「安全」という概念の意味するところや、その限界については誰も真剣に考えようともしない。安全工学や危機管理学とかいった専門研究分野もあるにはあるのだが、我が国ではなぜかその存在は影が薄い。「安全」という概念が「百パーセント事故は起らない」ということを意味するものであるとするならば、科学技術の世界には安全など存在しない。現在も原発事故などが問題になっているが、率直に言うと、どのような小さな故障や事故さえも絶対に起らない原発を造ることは不可能である。原発にかぎらず、あらゆる先端科学技術というものは、その普及と発展の過程でなにかしらの不測の事態や障害をともなうように宿命づけられている。先行する理論と、その理論を実践した場合に起こる現実的状況との間のギャプを百パーセント埋めることはもともと不可能だからである。ある範囲での試行錯誤は先端科学にとって不可欠なものである。とくに、原子力工学、宇宙工学、遺伝子工学などのように、未知の問題も多く、試行錯誤の累積が必要な先端技術分野にあっては、何が飛び出すかわからないパンドラの箱を恐るおそる開き、ちょっと中をのぞいてはすぐ閉めるといったようなことがいつ果てるともなく繰り返される。
結局、「科学技術の安全性」とは、技術には一定レベルのリスクがともなうものであるということを前提に、故障や事故をどのくらい低率に抑えれば許容範囲となされうるかを策定する概念にすぎない。だが、そのことが十分に認識されていないために厄介な問題が起こるのだ。巨大プロジェクトや医療技術、薬品、食品開発などで許容範囲内の不祥事が発生したような場合でも、通常、その危険性が大々的に報じられる。いっぽう、不安を煽られた庶民がパニックを起こすことを怖れる当事者側は、もともと不可能な「絶対安全」のお題目を繰り返しながら、極力その不祥事を隠蔽しようとやっきになる。ほとんどの場合、問題の生じた現場では安全ガイドラインを優先しようとする技術者の良心は抑えられ、それを無視するマネージメント責任者の利潤と効率優先の立場が押し通される。
原発などの場合には、技術者の良心に基づく安全基準を遵守すれば間違いなく電力コストは倍増する。安全を優先し設備の保守を強化すれば、必然的に大量の廃棄物が発生する。だが、国民は電力を大量消費するいっぽうで、電気料金値上げにも在住地域近隣での原発廃棄物処理場設置にも断固反対の態度をとる。電力会社も無理にでもコストを抑え、大小の不祥事を秘密裏に処理しようと画策する。そんな結果の一つが十一人もの犠牲者を出した美浜原発での痛ましい配管破損事故なのだ。老朽化した原発を解体すれば、大量の廃材の処理問題が発生する。専門家らがその危険性を危惧しているにもかかわらず、汚染度の低い廃材を通常の産業廃棄物同様にリサイクル可能にする法案が国会に提出されたのも、その延長上にある話なのだ。地下深くに埋設廃棄されるよりはるかに深刻な問題なのだが、廃棄物処理の受け入れ先がないために、本末転倒した事態が進展しようとしているのだ。
現在、老朽化した東海原発解体作業が進行中で、日本原電当局は将来的には原発解体技術のノウハウをビジネスに結びつけたい意向のようだ。原子炉解体作業の様子が新聞報道されてもいたが、高レベル放射性廃棄物処理先についてはむろん、17万トンにものぼる大量の低レベル放射性廃材の埋設処理先についてもまったく触れられていなかった。原発を含む諸科学技術による恩恵の代償としてのリスク部分を、国民各自が自己責任としてどう引き受けていくべきか、真剣に考慮しなければならないところきているのは間違いない。
我々の国民性にもよるのだが、日本の各種産業プロジェクトは、これまで表向きには「技術者は絶対にミスを犯さないものである」という大前提のもとに機能してきた。プロジェクトが一定範囲より小規模であり、技術統括責任者がプロジェクト全体を適切にチェックでき、十分に管理コントロールできる場合には、このような理念と前提に基づくプロジェクトは優れた生産活動をおこいないうる。実際、かつて、日本の産業界はこの立場を固守することにより信用を得、繁栄を遂げてきた。だが、そこにはそれなりの問題もあったのだ。技術者がミスを犯したときに、責任回避のためそれを隠すという事態が少なからず起こっていたからである。時代とともにプロジェクトが巨大化し、技術統括責任者にも完全な技術の管理統制が不可能になったとき、その弊害が一挙に吹き出してきたのである。
これと好対照をなすのが、「技術者はミスを犯すものである」ということを前提にした、アメリカの宇宙開発プロジェクトその他の各種巨大プロジェクトだろう。たとえば、気が遠くなるほどに膨大な先端技術の集積からなる最新の宇宙開発プロジェクトなどは、いかに優れた能力の持ち主で構成されていたとしても、少数の技術統括責任者らが全行程を完全チェックすることなど不可能なのだ。そのためにかなり以前からNASAなどでは「ミス告白制度」が設けられている。個々の技術者がミスを犯してしまったと思った場合にその事実を匿名で報告できる特別制度で、この制度に基づいてミスを犯したことを告白してもその責任を問われることはないし、それが誰であるかを特定されることもない。
この告白制度を積極的に導入活用することによって、全体的な宇宙開発技術の精度が飛躍的に向上し、大きな失敗や重大な事故を未然に防ぐことができるようになったといわれている。もちろん、それでも大事故を完全に防止することができたわけではないけれど、大いに参考にすべきことではある。一九九〇年代前半まで日本の宇宙ロケット打ち上げの成功率は高かった。職人技術とも芸術品とも呼ばれた当時の日本のロケットは、「技術者はミスを犯さないものである」という前提がぎりぎり通用する範囲で開発されていた。だが、その後のロケット打ち上げは次々に失敗を繰り返した。より技術が高度化し、プロジェクトが巨大化した結果、日本流のその前提が通用しなくなってしまっていたことに連続失敗の一因はあったとも思われる。幸い、今回の宇宙開発機構によるロケット打ち上げは成功したが、その陰にはアメリカ流の発想の転換があったのではないだろうか。
いずれにしろ、我々は、「百パーセントの安全などありえない」、さらには「技術者はミスを犯すものである」という前提を当然のものとしたうえで、諸々の巨大技術プロジェクトの安全性の問題を考慮し、応分のリスクを負うべきところにきているのだ。