ChatGPT Hot Power AI Komt de lente eraan?

Terugkerend naar de essentie: AIGC's doorbraak in singulariteit is een combinatie van drie factoren:

 

1. GPT is een replica van menselijke neuronen

 

GPT AI vertegenwoordigd door NLP is een computer neuraal netwerkalgoritme, waarvan de essentie is om neurale netwerken in de menselijke hersenschors te simuleren.

 

De verwerking en intelligente verbeelding van taal, muziek, afbeeldingen en zelfs smaakinformatie zijn allemaal functies die door de mens worden verzameld

hersenen als een "eiwitcomputer" tijdens evolutie op lange termijn.

 

Daarom is GPT natuurlijk de meest geschikte imitatie voor het verwerken van vergelijkbare informatie, dat wil zeggen ongestructureerde taal, muziek en afbeeldingen.

 

Het mechanisme van de verwerking ervan is niet het begrijpen van betekenis, maar eerder een proces van verfijnen, identificeren en associëren.Dit is een erg

paradoxale zaak.

 

Algoritmen voor semantische herkenning van vroege spraak hebben in wezen een grammaticamodel en een spraakdatabase tot stand gebracht, en vervolgens de spraak toegewezen aan het vocabulaire,

plaatste vervolgens het vocabulaire in de grammaticadatabase om de betekenis van het vocabulaire te begrijpen en verkreeg uiteindelijk herkenningsresultaten.

 

De herkenningsefficiëntie van deze op "logisch mechanisme" gebaseerde syntaxisherkenning schommelt rond de 70%, zoals de ViaVoice-herkenning

algoritme geïntroduceerd door IBM in de jaren negentig.

 

AIGC gaat niet over zo spelen.De essentie is niet om grammatica te geven, maar eerder om een ​​neuraal netwerkalgoritme op te zetten dat de

computer om de probabilistische verbindingen tussen verschillende woorden te tellen, dit zijn neurale verbindingen, geen semantische verbindingen.

 

Net zoals we onze moedertaal leerden toen we jong waren, leerden we het van nature, in plaats van 'subject, gezegde, object, werkwoord, complement' te leren.

en dan een alinea begrijpen.

 

Dit is het denkmodel van AI, namelijk herkenning, niet begrijpen.

 

Dit is ook de subversieve betekenis van AI voor alle klassieke mechanismemodellen – computers hoeven deze materie niet op logisch niveau te begrijpen,

maar identificeer en herken liever de correlatie tussen interne informatie, en weet het dan.

 

De toestand van de energiestroom en de voorspelling van elektriciteitsnetten zijn bijvoorbeeld gebaseerd op klassieke stroomnetwerksimulatie, waarbij een wiskundig model van de

mechanisme wordt tot stand gebracht en vervolgens geconvergeerd met behulp van een matrixalgoritme.In de toekomst is het misschien niet nodig.AI zal direct identificeren en voorspellen a

bepaald modaal patroon op basis van de status van elk knooppunt.

 

Hoe meer knooppunten er zijn, hoe minder populair het klassieke matrixalgoritme is, omdat de complexiteit van het algoritme toeneemt met het aantal

knooppunten en de geometrische progressie neemt toe.AI geeft echter de voorkeur aan gelijktijdigheid van knooppunten op zeer grote schaal, omdat AI goed is in het identificeren en

het voorspellen van de meest waarschijnlijke netwerkmodi.

 

Of het nu gaat om de volgende voorspelling van Go (AlphaGO kan de volgende tientallen stappen voorspellen, met talloze mogelijkheden voor elke stap) of de modale voorspelling

van complexe weersystemen is de nauwkeurigheid van AI veel hoger dan die van mechanische modellen.

 

De reden waarom het elektriciteitsnet op dit moment geen AI nodig heeft, is dat het aantal knooppunten in stroomnetten van 220 kV en hoger in beheer bij provinciale

dispatching is niet groot, en er zijn veel voorwaarden gesteld om de matrix te lineariseren en te verdunnen, waardoor de computationele complexiteit van de

mechanisme model.

 

Echter, in de stroomstroomfase van het distributienetwerk, geconfronteerd met tienduizenden of honderdduizenden stroomknooppunten, laadknooppunten en traditionele

matrixalgoritmen in een groot distributienetwerk is machteloos.

 

Ik geloof dat patroonherkenning van AI op distributienetwerkniveau in de toekomst mogelijk wordt.

 

2. Het verzamelen, trainen en genereren van ongestructureerde informatie

 

De tweede reden waarom AIGC een doorbraak heeft gemaakt, is de opeenstapeling van informatie.Van de A/D-conversie van spraak (microfoon+PCM

sampling) tot de A/D-conversie van afbeeldingen (CMOS+color space mapping), hebben mensen holografische gegevens verzameld in de visuele en auditieve

velden in de afgelopen decennia op extreem goedkope manieren.

 

Met name de grootschalige popularisering van camera's en smartphones, de accumulatie van ongestructureerde data op audiovisueel gebied voor mensen

tegen bijna geen kosten, en de explosieve opeenstapeling van tekstinformatie op internet zijn de sleutel tot AIGC-training - trainingsdatasets zijn niet duur.

 

6381517667942657415460243

De figuur hierboven toont de groeitrend van wereldwijde gegevens, die duidelijk een exponentiële trend laat zien.

Deze niet-lineaire groei van gegevensverzameling vormt de basis voor de niet-lineaire groei van de mogelijkheden van AIGC.

 

MAAR, de meeste van deze gegevens zijn ongestructureerde audiovisuele gegevens, die zonder kosten worden verzameld.

 

Op het gebied van elektrische energie is dit niet haalbaar.Ten eerste bestaat het grootste deel van de elektriciteitsindustrie uit gestructureerde en semi-gestructureerde gegevens, zoals

spanning en stroom, dit zijn puntgegevenssets van tijdreeksen en semi-gestructureerd.

 

Structurele gegevenssets moeten door computers worden begrepen en vereisen "uitlijning", zoals apparaatuitlijning - de spannings-, stroom- en vermogensgegevens

van een schakelaar moeten worden uitgelijnd met dit knooppunt.

 

Lastiger is tijduitlijning, waarvoor spanning, stroom en actief en reactief vermogen moeten worden uitgelijnd op basis van de tijdschaal, zodat

latere identificatie kan worden uitgevoerd.Er zijn ook voorwaartse en achterwaartse richtingen, die ruimtelijke uitlijning zijn in vier kwadranten.

 

In tegenstelling tot tekstgegevens, die niet hoeven te worden uitgelijnd, wordt er gewoon een alinea naar de computer gegooid, die mogelijke informatieassociaties identificeert

op zichzelf.

 

Om dit probleem op elkaar af te stemmen, zoals de apparatuuruitlijning van bedrijfsdistributiegegevens, is afstemming voortdurend nodig, omdat het medium en

laagspanningsdistributienetwerk voegt elke dag apparatuur en lijnen toe, verwijdert ze en wijzigt ze, en netwerkbedrijven besteden enorme arbeidskosten.

 

Net als "gegevensannotatie", kunnen computers dit niet doen.

 

Ten tweede zijn de kosten van data-acquisitie in de energiesector hoog en zijn er sensoren nodig in plaats van een mobiele telefoon om te spreken en foto's te maken.”

Elke keer dat de spanning met één niveau daalt (of de energieverdelingsrelatie met één niveau afneemt), neemt de vereiste sensorinvestering toe

met minstens één orde van grootte.Om detectie aan de belastingszijde (capillair uiteinde) te bereiken, is het nog meer een enorme digitale investering.”.

 

Als het nodig is om de tijdelijke modus van het elektriciteitsnet te identificeren, is uiterst nauwkeurige hoogfrequente bemonstering vereist en zijn de kosten zelfs nog hoger.

 

Vanwege de extreem hoge marginale kosten van data-acquisitie en data-uitlijning is het elektriciteitsnet momenteel niet in staat om voldoende niet-lineair te accumuleren

groei van data-informatie om een ​​algoritme te trainen om de AI-singulariteit te bereiken.

 

Om nog maar te zwijgen van de openheid van gegevens, het is onmogelijk voor een krachtige AI-startup om deze gegevens te verkrijgen.

 

Daarom is het vóór AI noodzakelijk om het probleem van datasets op te lossen, anders kan algemene AI-code niet worden getraind om een ​​goede AI te produceren.

 

3. Doorbraak in rekenkracht

 

Naast algoritmen en data is de singulariteitsdoorbraak van AIGC ook een doorbraak in rekenkracht.Traditionele CPU's zijn dat niet

geschikt voor grootschalige gelijktijdige neuronale computing.Juist de toepassing van GPU's in 3D-games en films maakt grootschalige parallel

floating-point+streaming computing mogelijk.De wet van Moore verlaagt de rekenkosten per eenheid rekenkracht verder.

 

Power grid AI, een onvermijdelijke trend in de toekomst

 

Met de integratie van een groot aantal gedistribueerde fotovoltaïsche en gedistribueerde energieopslagsystemen, evenals de toepassingsvereisten van

virtuele energiecentrales aan de belastingszijde, is het objectief noodzakelijk om bron- en belastingsprognoses uit te voeren voor openbare distributienetwerksystemen en gebruikers

distributie (micro) grid systemen, evenals real-time power flow optimalisatie voor distributie (micro) grid systemen.

 

De computationele complexiteit van de distributienetwerkzijde is eigenlijk hoger dan die van de planning van het transmissienetwerk.Zelfs voor een reclamespotje

complex, er kunnen tienduizenden laadapparaten en honderden schakelaars zijn, en de vraag naar op AI gebaseerde microgrid-/distributienetwerken

controle ontstaat.

 

Met de lage kosten van sensoren en het wijdverbreide gebruik van vermogenselektronische apparaten zoals solid-state transformatoren, solid-state schakelaars en omvormers (converters),

de integratie van detectie, computing en controle aan de rand van het elektriciteitsnet is ook een innovatieve trend geworden.

 

Daarom is de AIGC van het elektriciteitsnet de toekomst.Wat vandaag echter nodig is, is niet onmiddellijk een AI-algoritme uitschakelen om geld te verdienen,

 

Pak in plaats daarvan eerst de constructieproblemen van de data-infrastructuur aan die AI vereist

 

In de opkomst van AIGC moet er voldoende rustig worden nagedacht over het toepassingsniveau en de toekomst van krachtige AI.

 

Op dit moment is het belang van power AI niet significant: er wordt bijvoorbeeld een fotovoltaïsch algoritme met een voorspellingsnauwkeurigheid van 90% op de spotmarkt geplaatst

met een handelsafwijkingsdrempel van 5%, en de algoritmeafwijking zal alle handelswinsten wegvagen.

 

De gegevens zijn water en de rekenkracht van het algoritme is een kanaal.Zoals het gebeurt, zal het zijn.


Posttijd: 27 maart 2023