CogniWerk startet mit einem eigenen KI-Tool, das Open Source Modelle und Funktionen in einem intuitiven Interface zusammenbringt
Midjourney, OpenAI, Adobe Firefly – die großen Player der KI-Branche kommen alle aus den USA und liefern sich ein Rennen um die Marktherrschaft. Oftmals sind es aber gerade kleinere StartUps und OpenSource-Initiativen mit den spannendsten Konzepten.
»Support your Local Dealer«, sagt KI-Experte Peter Kabel schmunzelnd, während er die neue CogniWerk.ai vorstellt – das erste eigenständige KI-Tool aus Deutschland.
Schlankes Interface, umfangreiche Möglichkeiten
CogniWerk.ai ist die Weiterführung des Hamburger StartUps, das Anfang 2023 mit einer Übersicht verschiedener KI-Tools und ihrer Anwendungsgebiete startete.
Daraus entwickelte sich unter Peter Kabels Leitung aus der aixdesign.space Gruppe der HAW Hamburg ein Team von Kreativen und Developer:innen, die es sich zum Ziel machten, verschiedene KI-Tools in einem intuitiven Interface zugänglich zu machen.
So entstand mit CogniWerk.ai eine browserbasierte Anwendung, die nicht nur einen Teil der Kreation beherbergen soll, sondern perspektivisch den kompletten KI-Workflow.
Euer Feedback ist gefragt!
Aktuell können Nutzer:innen auf cogniwerk.ai drei verschiedene Stable Diffusion Funktionen in unterschiedlichen Modellen nutzen, und mit ControlNet eigene Bilder als Basis einspielen. Klassisch gibt es dabei eine Text to Image Funktion, aber auch Inpainting und Upscale.
CogniWerk.ai bietet außerdem zahlreiche Einstellungsmöglichkeiten direkt im Interface – von der Anzahl der generierten Bilder über die Aspect Ratio bis hin zur Bildqualität. All diese Faktoren müssen so nicht mühsam geprompted werden, sondern können ganz einfach über Regler und Drop-Down-Menüs festgelegt werden.
CogniWerk.ai ist komplett kostenlos zugänglich und der Output kommerziell nutzbar. Bereits generierte und bearbeitete Bilder werden in einem eigenen Profil gespeichert. In den nächsten Wochen will das Team weitere Funktionen integrieren und die Anwendung stetig weiterentwickeln. Dazu braucht sie allerdings Nutzer:innen und Feedback. Also los!