
OpenAI が採用しているのは、 準備責任者。言い換えれば、AI が恐ろしいほど恐ろしい間違いを犯す可能性があるすべての方法を考えることを主な仕事としている人です。で Xに投稿するサム・アルトマン氏は、AIモデルの急速な改善には「いくつかの現実的な課題」が生じることを認め、この立場を発表した。この投稿は続けて、人々の精神的健康に対する潜在的な影響と、AIを活用したサイバーセキュリティ兵器の危険性を具体的に訴えている。
の 求人情報 この役割の人は次のことを担当すると述べています。
「深刻な危害をもたらす新たなリスクを生み出すフロンティア能力を追跡し、準備します。あなたは、一貫性があり、厳密で、運用上拡張可能な安全パイプラインを形成する能力評価、脅威モデル、および緩和策を構築および調整する直接の責任を負うリーダーとなります。」
アルトマン氏はまた、将来的には、この人物が会社の「準備フレームワーク」を実行し、「生物学的能力」を解放するための AI モデルを確保し、さらには自己改善システムのガードレールを設定する責任を負うことになるとも述べている。彼はまた、それが「ストレスの多い仕事」になるだろうと述べていますが、これは控えめな表現のように思えます。