Anthropic21:03機能アップデート公式ブログ
Anthropic、alignmentツールPetri 3.0を寄付更新
AIモデル安全性を独立テストでき、信頼性が向上します。
ポイント
- 1Petri 3.0: 監査モデル分離で柔軟に
- 2"Dish"で本番プロンプト使用、現実性向上
- 3Bloom連携で行動深掘り評価
- 4Claudeモデル評価に活用実績
AnthropicはオープンソースのAI alignmentテストツールPetriをMeridian Labsに寄付しました。Petri 3.0では適応性向上、現実的な"Dish"アドオン、Bloom統合で深みを増しています。開発者が独立した安全評価を容易に行えます。