BlueDot Impact

AI Safety Fundamentals: Alignment

Découvrez des ressources précieuses du cours sur les Fondamentaux de la Sécurité de l'IA, offrant des idées et des connaissances sur les stratégies d'alignement pour l'intelligence artificielle.

Listen on Apple Podcasts

We Need a Science of Evals

20 mins • Jan 2, 2025

Épisodes récents

Jan 2, 2025

We Need a Science of Evals

20 mins

Jan 2, 2025

Introduction to Mechanistic Interpretability

12 mins

Jul 19, 2024

Illustrating Reinforcement Learning from Human Feedback (RLHF)

S3 E2 • 23 mins

Jul 19, 2024

Problems and Fundamental Limitations of Reinforcement Learning from Human Feedback

S3 E4 • 32 mins

Jul 19, 2024

Constitutional AI Harmlessness from AI Feedback

S3 E2 • 62 mins

Langue
Anglais
Pays
Viêt Nam
Feed Host