HTCinside


Microsoft brugte AI til at lave en bot, der kommenterer nyheder

Forskere fra Beihang University og Microsoft udviklede en bot, der kan læse og skrive i kommentarfeltet i nyhedsartikler offentliggjort online. Bottens navn er 'Deep Commenter', som de kort og godt kalder 'DeepCom'. Hvis du også er en udvikler og er interesseret i at kende programmets kodning, kan du dræbe din nysgerrighed ved at besøge Github .

For at forklare 'DeepCom', har udviklere forklaret, at systemet er dannet gennem 2 neurale netværk. Den ene er 'forstår', der læser artiklen og finder ud af de væsentlige punkter. For det andet er 'Writer', der skriver kommentaren og evaluerer artiklens titel og indhold. Hele systemet er designet på samme grundlag, præcis som mennesker vurderer enhver nyhed online. Lad os sige, enhver, der støder på en nyhedsartikel online; læs titlen, noter nøglepunkterne ned og skriv en kommentar på det grundlag. Kommentarer har normalt en personlig opfattelse eller opstemme eller smuthul i nyhederne.

‘DeepCom’ fungerer ditto på samme grundlag uden nogen manuel indgriben. Alt er automatisk. Nu opstår spørgsmålet, hvad er formålet med at udvikle 'DeepCom'? Nå, svaret er meget enkelt. Det er simpelthen designet til at drive et antal læsere og derved øge trafikken på nyhedswebsteder. Artikler, hvorpå der er lagt kommentarer, vil sandsynligvis fange læserens opmærksomhed end andre.

Indtil videre er to versioner af 'DeepCom' udgivet. Version et er den 26. september 2019, og version to er den 1. oktober 2019. I den første version har udviklerne gjort det klart, at 'Opmuntrer brugere til at gennemse kommentarstrømmen, dele ny information og debattere med en en anden. Med udbredelsen af ​​online nyhedsartikler med kommentarer, er det af stor interesse at bygge et automatisk nyhedskommentarsystem med datadrevne tilgange.'

Efter at have læst detaljerne er det konstruktive syn på 'DeepCom', at det er nyttigt til at generere falsk engagement, fordi det øger læsbarheden af ​​nyhedsindholdet og gavner mennesker.

Men når den anden version udkommer, har forskere gjort det klart, at det kan være risikabelt at gøre brug af 'DeepCom'. Grunden til, at de har udtalt, er, at 'DeepCom' opererer gennem AI, og AI kan ikke sidestilles med menneskelig intelligens.

Lad os forstå det med et eksempel, som også er givet af forskerne i Paper-versionen. Efter at have læst nyheder relateret til FIFA-ranglisten, vil 'DeepCom' skrive to kommentarer. Den ene er 'Hvis det er stærkt baseret på VM i 2018, og dermed England springer op på ranglisten, hvordan er Brasilien på 3. pladsen?' og det andet er, 'England over Spanien, Portugal og Tyskland. Interessant.'

Populære sociale medier som Facebook og Twitter stod over for en masse problemer på grund af falske konti og botnets. Botnets er systemet af indbyrdes forbundne bots, der arbejder sammen. Dette har vist sig farligt i form af politisk propaganda og den voldsomme spredning af destruktive politiske synspunkter rundt omkring.

'Selvom der er risici ved denne form for AI-forskning, mener vi, at udvikling og demonstration af sådanne teknikker er vigtig for at forstå værdifulde og potentielt bekymrende anvendelser af teknologien,' sagde forskerne i papirversionen udgivet den 1. oktober 2019.

Bots som 'DeepCom' skaber en bias, der kan påvirke det andet AI-system. Lige nu er 'DeepCom' trænet til 2 datasæt, hvoraf det ene er lavet af Crawling Tencent News. Crawling Tencent News er en kinesisk hjemmeside, der skriver om nyheder og anmeldelsesartikler. En anden er fra Yahoo News. Efter afprøvning har det vist sig, at alle artiklerne er skrevet af mennesker, som er forudindtaget på den ene eller den anden måde. I et sådant tilfælde undlader 'DeepCom' at adressere den potentielle skævhed i dataene.

Whitney Phillips, der er assisterende professor ved Syracuse University i Communications, Culture & Digital Technologies, er af den opfattelse, at 'Nogle risici opstår bare ikke for nogle mennesker, fordi de aldrig har behøvet at tænke på det eller bekymre sig om dem. ting, der påvirker dem.'