Ny organisation ska ta itu med AI-problematiken

Fejkade bilder och generativ AI: US AI Safety Institute Consortium, AISIC, är en samling med över 200 företag som Adobe, Apple, Microsoft, OpenAI, Nvidia och Meta, som nu ska samtala kring utvecklingen av AI.


    Den exponentiella utvecklingen av AI ger upphov till en del problem, något som Kamera & Bild stadigt rapporterat om. Bilder och filmer kan skapas genom meningar av text och kan användas i felaktiga syften.

    Nu har över 200 organisationer och företag som arbetar med AI, bland annat Adobe, Apple, Microsoft, OpenAI, Nvidia och Meta, anslutit sig till den nya organisationen "US AI Safety Institute Consortium", förkortat AISIC, för att reda ut problemen med AI. 

    De deltagande företagen ska ta fram riktlinjer och identifiera olika delar med AI-utvecklingen, som hur den kan användas i fel syften, användas på ett säkert sätt – men också för hur material som bilder och filmer som skapats av generativ AI kan märkas upp på rätt sätt. Som exempel på nästa nivå i utvecklingen nämns bland annat Googles nya generativa AI-motor "Lumiere" för att skapa verklighetstrogen video från text.

    Frågan kring autentisering av exempelvis bilder och bilders ursprung är extra viktigt för journalistikens trovärdighet, framförallt när det gäller mediarapportering. En annan dimension är oetiska bilder som exempelvis de AI-genererade porr- och nakenbilder på Taylor Swift som snabbt spred sig på plattformen X.

    AISIC kommer att ligga under National Institute of Standards and Technology, NIST.

    U.S. AI Safety Institute Consortium Press Briefing

    February 8, 2024

    Thank you, Secretary Raimondo. We are so glad to have your support as we launch the U.S. AI Safety Institute Consortium. 

    And thank you all for being here. We are very excited to get started working with the consortium members. We truly appreciate all of the resources and expertise they will be contributing to this important effort.

    As the secretary mentioned, this consortium brings together an incredible group of organizations from across the AI stakeholder community. That’s because we are going to need the best and the brightest who represent a diversity of thought, of experiences, of expertise, to ensure that we can reap the benefits of AI that is trustworthy and safe.

    NIST has been bringing together diverse teams like this for a long time. We have learned how to ensure that all voices are heard and that we can leverage our dedicated teams of experts. Our open, transparent, inclusive way of doing business informs the guidance we produce and helps to increase buy-in so that it is widely implemented. The development of the AI Risk Management Framework is one recent example. 

    AI is moving the world into very new territory. And like every new technology, or every new application of technology, we need to know how to measure its capabilities, its limitations, its impacts. That is why NIST brings together these incredible collaborations of representatives from industry, academia, civil society and the government, all coming together to tackle challenges that are of national importance.

    Yesterday you saw us announce the leadership of the U.S. AI Safety Institute, CEO Elizabeth Kelly and Chief Technology Officer Elham Tabassi. Today we add another key element. The consortium is a critical pillar of the NIST-led U.S. Artificial Intelligence Safety Institute and will ensure that the institute’s research and testing work is integrated with the broad community of AI safety around the country and the world.