
OpenAIは、人工知能(AI)の「深刻な危害をもたらすリスク」に備える責任者「Head of Preparedness(準備責任者)」の募集を開始した。高度化するAIが引き起こす可能性のあるリスクを評価し、対応策の設計から実行まで統括する役割で、AI安全対策を組織の中心に据える狙いがある。
この役職はOpenAI内のSafety Systemsチームに属し、「Preparedness framework」と呼ばれる同社独自の枠組みに基づいて業務を進める。
仕事内容は、AIの最先端技術が持つ新たなリスクを追跡し、能力評価や脅威モデルの構築、緩和策の設計・調整までを一貫して担うことだという。評価結果は製品の公開判断や方針決定にも反映されるとしている。
職務には、サイバー攻撃や不正利用のリスクのほか、生命科学分野や他の複数の技術領域に関連する危険性も含まれ、これらの管理を技術戦略レベルで行うことが求められる。また、職責を果たすために小規模だが高い影響力を持つチームを率い、枠組み自体の改善や進化も推進することが期待されている。
求人情報によると、役職には高度な技術的判断や社内の関係部署との連携能力が必要とされ、専門性の高い役割であるとしている。基本報酬は年収55万5000ドル(約8800万円)に加えて株式報酬も提示され、人材獲得の競争が激しい分野であることをうかがわせる。
「困難な課題の最前線」とアルトマン氏
アルトマン氏はXで準備責任者の募集について言及。「困難な課題の最前線に飛び込む職種」と説明した。全文は下記の通り。
私たちは現在、「Head of Preparedness(準備責任者)」を募集しています。これは極めて重要な時期における、非常に重要な役割です。AIモデルは急速に性能を高めており、多くの素晴らしいことができるようになる一方で、現実的な課題も生み始めています。
精神的な健康への影響については、2025年にその兆しをすでに目にしました。また、モデルはコンピューターセキュリティの分野でも非常に高い能力を持つようになり、重大な脆弱性を見つけ始めています。
私たちは、モデルの能力がどのように成長しているかを測定するための強固な基盤をすでに持っています。しかし今後は、それらの能力がどのように悪用されうるのか、そしてその負の側面を製品の中や社会全体でどのように抑えられるのかについて、より精緻な理解と評価が必要になる段階に入っています。人々がAIの大きな恩恵を享受できるようにしながら、その弊害をどう制限するかが問われています。こうした問いに前例はほとんどなく、良さそうに聞こえるアイデアでも、実際には難しい境界事例が存在します。
最先端の能力によってサイバーセキュリティの防御側を強化しつつ、攻撃者がそれを害に使えないようにする方法、理想的にはすべてのシステムをより安全にする方法を世界とともに見つけたいと考える方、また、生物学的な能力をどのように公開すべきか、さらには自己改善するシステムを安全に運用できるという確信をどう得るかといった課題に取り組みたい方は、ぜひ応募を検討してください。
この仕事は強いプレッシャーがかかるものになりますし、着任後はほぼ即座に困難な課題の最前線に飛び込むことになるでしょう。
Amazonのアソシエイトとして、CNET Japanは適格販売により収入を得ています