Apple vill att Siri ska bli mer mänsklig och härligare att kommunicera med. Så till sin hjälp har man nu tagit AI, deep learning och neural networks till hjälp.
För Apple och alla andra är racet till att bli bäst på att kommunicera med oss i full fart. Vi har Apple, Amazon, Google, Microsoft, Facebook och fler som jobbar hårt med att skapa den perfekta roboten (eller assistenten) som ska göra våra liv ännu enklare. Kan det verkligen bli enklare? Själv tycker jag att vi har det enkelt som det är idag. Tunnelbanan är ofta i tid, det finns alltid äpplen på Konsum och Netflix adderar nya serier för oss att titta på.
Anyway, våra liv ska bli enklare har världens största teknikbolag bestämt sig för.
För att åstadkomma allt det här använder Apple så kallad deep learning och neural networks som ska kopiera hur vi säger saker. Om du tog del av Apples senaste utvecklarkonferens fick du hör hur Siri numera har nyanser på ord. Soligt, soligt och sooligt – får hon numera fram på tre olika sätt.
Apple anlitar personer som talar in till systemet som sedan analyserar vårt tal och inkluderar när vi tar paus, andetag, ökar eller minskar styrkan i rösten, betonar och mer. Den artificiella intelligensen beräknar därefter in när och var dessa variabler ska appliceras.
> Här kan du läsa en artikel som går in lite djupare i ämnet.