SAS Institute uttalar sig om den etiska användningen av artificiell intelligens

Under SAS Global Forum frågade vi Oliver Schabenberger om den etiska användningen av AI på plattformen. Det är en fråga som lyfts av AI-experter världen över, och var även föremål för diskussion under World Economic Forum i Davos.

Några dagar efter konferensens avslut fick vi ett offentligt uttalande från EVP, COO och CTO Oliver Schabenberger om hur det ställer sig till, och agerar, för att säkerställa att deras plattform inte används för att skada människor.

Bifogat fick vi även en bakgrund till hur de jobbar med transparens för att minska risken för oetisk användning av deras AI.

Du finner hela citatet och bakgrunden nedan från SAS Institute . För att inte förvanska eller förvränga någon del av uttalandet har vi bevarat det på engelska.

When we engage with clients, we expect, vet, and contractually require that the use of SAS software will be in accordance with appropriate regulations and standards governing SAS and our business partners. SAS has for many years worked collaboratively with business partners and governments to develop standards and regulatory coverage for new technology that protect people from harm while allowing for beneficial use.

Background:
SAS provides frameworks required to govern, design and deploy customers’ data, analytics and AI systems in a manner that is secure and in alignment with customers’ established principles and guidelines. Part of the ethics worry with AI is that much of it in the marketplace is so ‘black box’ and no one knows how the software arrives at decisions. SAS is leading the way to build transparency into the software so that people can see what’s going on inside the box across the analytics lifecycle. By building protections against bias into the data selection, modeling, and training processes for machine learning, SAS and our business-partners should be able to enhance this transparency.