Stability.ai stellt Text2Video vor

AI-Tasks.de - deine Info-Quelle für KI/AI-News

Eine solche Innovation für Stability.ai ist die Einführung der „Stable Video Diffusion“ auf der Stability AI Developer Platform API. Dieses grundlegende Modell für generative Videos ist ein Meilenstein in der digitalen Videogestaltung und wurde speziell für Sektoren wie Werbung, Marketing, Fernsehen, Film und Gaming entwickelt.

Das Modell zeichnet sich durch seine Fähigkeit aus, innerhalb von durchschnittlich 41 Sekunden 2 Sekunden Video zu generieren. Dies umfasst 25 generierte Frames und 24 Frames der FILM-Interpolation. Es bietet außerdem eine Rahmenrate von 24fps. Entwickler, die Interesse an der Nutzung der Stable Video Diffusion durch eine API haben, können jetzt auf diese auf der Stability AI Developer Platform zugreifen.

Neben Leistung und Sicherheit bietet die Stable Video Diffusion Funktionen wie Sicherheitsmaßnahmen und Wasserzeichen. Entwickler können die vollen Fähigkeiten des Modells nutzen, einschließlich der Steuerung der Bewegungsstärke und Unterstützung für verschiedene Layouts und Auflösungen wie 1024×576, 768×768 und 576×1024. Das Modell ist kompatibel mit Bildformaten wie JPG und PNG und ermöglicht die Auswahl zwischen wiederholbarer oder zufälliger Generierung auf Basis eines Seeds. Der endgültige Videoausgang wird im MP4-Format geliefert, was eine einfache Integration in verschiedene Anwendungen und Plattformen ermöglicht.

Zusätzlich zu diesen Videogenerierungsfunktionen bietet die Stability AI Developer Platform eine Reihe von Bildgenerierungsmodellen, einschließlich des Flaggschiffmodells für Text-zu-Bild-Generierung, Stable Diffusion XL. Des Weiteren steht eine Warteliste zur Verfügung, um einer der Ersten zu sein, die Zugang zu einer bevorstehenden Stable Video-Web-Schnittstelle erhalten.

Weitere Informationen:

Pressemitteilung

Anmeldung zu Stabe Diffusion Beta

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert