Az MI rendszerek használata kapcsán az egyik gyakran emlegetett kihívás az átláthatóság kérdése. Sokszor merül fel kritikaként ugyanis, hogy a modellek működése egy ún. "fekete doboz" (black box), nem tudjuk, illetve sokszor nem értjük pontosan mi játszódik le a "motorháztető alatt".
Az MI alkalmazásával kapcsolatban azonban felmerül egy más jellegű transzparencia probléma is: az MI rendszereket fejlesztő - jellemzően nagy technológiai vállalatok - nem mindig tesznek meg mindent azért, hogy átláthatóvá tegyék a modelljeik működését, megfelelően tájékoztatássák az érintetteket. Ez a tendencia ráadásul, az utóbbi időben az éleződő verseny miatt, tovább erősödött, amelynek a szélesebb közvélemény is kárát látja, hiszen az MI megoldások használatának rohamos terjedését tapasztalhatjuk, mindeközben egyre kevésbé láthatjuk át, mi is történik valójában, milyen adatokkal tanították a rendszert, miként kezelik az adatokat, hogyan jön létre az a kimeneti eredmény, amellyel találkozunk.
Az OpenAI például kifejezetten deklarálta, hogy a GPT-4 esetében már nem ad érdemi információkat a technikai részletekről: "Tekintettel az éleződő versenyre és a biztonsági megfontolásokra az olyan nagy méretű modellek, mint a GPT-4 tekintetében [...] nem teszünk közzé további részleteket az architektúrára (beleértve a modell méretét), a hardverre, a tréningezésnél használt számítási kapacitásra, az adatbázis összetételére, a tanítási metodológiára vagy hasonló kérdésekre vonatkozóan."
Az OpenAI felől érkező kihívásra válaszul a Google is úgy döntött, hogy - szakítva a korábbi gyakorlatával - kevesebb információt tesz elérhetővé a házon belül zajló MI fejlesztésekről.