Quem teria pensado, há não muito tempo atrás, que a Inteligência Artificial seria usada para tomar decisões que afetam diretamente a vida das pessoas? Em 2021, é. Os sistemas de IA são usados para decidir, por exemplo, quem será contratado, quem será um potencial criminoso ou quem será libertado da prisão. Essas ferramentas, que muitas vezes nos são apresentadas como sistemas técnicos neutros e objetivos, são, na realidade, povoadas pelos mesmos preconceitos sociais que os humanos que as criaram. Como Cathy O’Neil explica, "sob o pretexto de matemática, justiça e objetividade", esses algoritmos "reforçam e ampliam os velhos preconceitos e dinâmicas de poder que esperávamos que eliminassem".
IA e a promessa de (in)justiça procura expor preconceitos de género ou raciais sob a aparente neutralidade dos sistemas de Inteligência Artificial. Com base em exemplos apresentados por investigadores, como Kate Crawford ou Cathy O'Neil, nomeadamente motores de pesquisa, policiamento preditivo ou avaliação de risco, o projeto procura revelar a forma como estes sistemas acabam por reforçar desigualdades sociais.
Ao deambular num ambiente virtual 3D, o utilizador torna-se um espectador desses exemplos e explora interativamente os elementos dentro do espaço para se tornar ciente de algumas das aplicações e implicações atuais de sistemas de IA. Embora a IA seja frequentemente vista como algo abstrato, complexo, ou até conotado com imaginários ficcionais ou futuristas, o projeto tenta ligar esses conceitos à realidade, dando-lhes uma expressão tangível e permitindo ao utilizador ‘viver’ a experiência do impacto de IA no mundo real.