Per Techopedia Staff, 22 de setembre de 2016
A la venda : la presentadora Rebecca Jozwiak discuteix les analítiques de punta amb el doctor Robin Bloor, Dez Blanchfield i Shawn Rogers, de Dell Statistica.
Actualment no teniu la sessió iniciada. Inicieu la sessió o registreu-vos per veure el vídeo.
Rebecca Jozwiak: Senyores i senyors, hola i benvinguts a Hot Technologies del 2016. Avui tenim “Edge Analytics: The IoT Economy at Last”. Em dic Rebecca Jozwiak. Seré el vostre moderador per a la transmissió web actual. Tweetem amb un hashtag de # HOTTECH16 si voleu unir-vos a la conversa de Twitter.
Així, doncs, el IoT, sens dubte és un tema d’enguany i l’internet de les coses, es tracta realment de les dades de la màquina, les dades del sensor, les dades del registre, les dades del dispositiu. No hi ha cap novetat, hem tingut aquest tipus de dades per sempre, però és que realment no l’hem pogut utilitzar i ara veiem només un munt de noves maneres d’utilitzar aquestes dades. En particular a la indústria mèdica, els mercats financers, amb petroli i gas, productes bàsics, és només una gran quantitat d'informació que fins ara no s'ha explotat. I no moltes persones han sabut conèixer bé com fer-ho bé. Estem parlant de poques dades, però es tracta de moltes dades i, ja ho sabeu, hi ha problemes de xarxa implicats, hi ha maquinari o és necessari processar-ho, i com podeu fer això sense obstruir el sistema? Doncs això és el que anem a aprendre avui.
Aquí teniu la nostra llista d’experts. Tenim el doctor Robin Bloor, el nostre analista en cap de The Bloor Group. També tenim Dez Blanchfield, el nostre científic de dades de The Bloor Group. I estem encantats de comptar amb Shawn Rogers, director de màrqueting global i canals de Dell Statistica. I amb això, passaré la pilota a Robin.
Robin Bloor: Està bé, gràcies per això. Em pressionarà un botó i aixecaré una diapositiva. No tinc ni idea de per què vaig crear aquesta imatge apocalíptica per a Internet de les coses. Possiblement perquè crec que al final acabarà sent caòtic. Passaré tot seguit. Això és igual al curs en qualsevol presentació IoT. D’una manera o d’una altra, has de dir alguna cosa indignant sobre cap a on va tot. I de fet, la majoria d’això probablement sigui cert. Si realment ens fixem en la manera com aquestes corbes es van expandint gradualment. Ja sabeu, probablement els ordinadors personals, telèfons intel·ligents i tauletes continuaran augmentant. Probablement augmenten les televisions intel·ligents. Usables, probablement exploten ara mateix en comparació amb el que eren fa uns anys. Cotxes connectats, inevitable que gairebé tots els cotxes estiguin connectats de forma àmplia i transmetent dades tot el temps. I tota la resta. I aquest gràfic concret de BI Intelligence indica que tota la resta superarà les coses òbvies molt, molt ràpidament.
I què dir del IoT? El primer és només un punt arquitectònic. Ja sabeu que, quan tingueu dades i hagueu de processar-vos, d’una manera o d’una altra, haureu d’ajuntar les dues coses. I, amb dades sobre els volums que hi ha ara, i que es reuneixen en diversos llocs, ja no estan junts de forma natural. Suposava que antigament eren els temps del mainframe; Així, podeu pensar en quant hi ha una capa de processament, una capa de transport i una capa de dades. I d’una manera o altra, la capa de transport actualment pot moure el processament o moure les dades per les xarxes. A continuació, es mostren les opcions: podeu moure les dades al processament, podeu traslladar el processament a les dades, podeu traslladar el processament i les dades a un punt d’execució convenient, o bé podeu esborrar el tractament i esborrar les dades. I pel que fa a Internet de les coses, les dades ja són pràcticament esborrades al naixement, i és probable que es faci un esborrany del processament per tal que puguin tenir lloc les aplicacions que cal executar.
Així que he pintat un quadre. L’interessant per a mi sobre el IoT, parlo d’un domini d’agregació d’aquest diagrama i assenyalo que hi ha subdominis. Així doncs, podeu imaginar que el domini IoT 1 és un cotxe d'alguna mena, i el domini 2 i el domini 3 i el domini 4, són automòbils i agregareu dades localment, executareu aplicacions locals en aquestes dades i posaràs en pràctica diverses coses. Però, per tenir anàlisis sobre tots els cotxes, haureu de transferir dades al centre, no necessàriament totes les dades, però hauríeu d’agregar al centre. I si ho penseu, és possible que vulgueu tenir molts dominis d’agregació diferents al mateix conjunt de coses IoT. I els propis dominis es podrien acumular encara més. Així, podríeu tenir aquesta jerarquia repetidora. I, bàsicament, el que tenim és una xarxa molt complexa. Molt més complex que qualsevol cosa que teníem abans.
Aquí tinc una nota al final. Tots els nodes de xarxa, inclosos els nodes fulls, poden ser creadors de dades, magatzems de dades i punts de processament. I això et dóna una possibilitat de distribució, com la que no havíem vist abans. Dez parlarà una mica més d’això, així que passaré a aquest punt concret. Una vegada que estiguem a Internet de les coses i totes les dades s’han resolt en esdeveniments, l’objectiu d’aquesta diapositiva és només indicar que haurem d’estandarditzar-nos en els esdeveniments. Haurem de tenir, com a mínim, haurem de tenir això. Tindrem el temps en què es va produir l'esdeveniment, la ubicació geogràfica on es va produir, la ubicació virtual o lògica del procés que el va crear, el dispositiu font que el va crear, l'identificador de dispositiu perquè sàpiga exactament quin dispositiu font el va crear, la propietat. de les dades i actors, aquelles persones que tenen dret a utilitzar les dades d’alguna manera o altra, hauran de portar els seus permisos amb això, cosa que vol dir realment, haurà de portar seguretat amb ella i, després, hi haurà les dades en si. I, quan ens fixem en això, us n’adoneu, ja ho sabeu, fins i tot si teniu un sensor que no fa res més que reportar la temperatura d’alguna cosa cada segon, aproximadament, hi ha moltes dades només per identificar exactament on es troben les dades. originat i què és realment. Per cert, aquesta no és una llista exhaustiva.
Així doncs, pel que fa al futur paisatge informàtic, la manera que ho veig és que: no es tracta només de la Internet de les coses, també hi haurem que estarem en un món d’activitats impulsat per esdeveniments i, per tant, hauran de tenir arquitectures basades en esdeveniments i aquelles arquitectures hauran d’estendre grans xarxes. I l’altra és tot en temps real, no és necessàriament el cas que siguem en temps real, però hi ha alguna cosa a què faig referència el temps de negoci que és el moment en el qual les dades han de ser preparades i llestes. a processat Potser no serà, ja ho sabeu, un mil·lisegon després de la creació. Però sempre hi ha un temps per a cada document i, un cop tingueu una arquitectura basada en esdeveniments, és més sensible pensar en un enfocament en temps real de la manera de funcionar del món.
De manera que es pot reduir, perquè del que realment parlem és d’analítiques a IoT. Malgrat tot, encara és hora de conèixer i no és només el moment de comprendre, la perspicàcia ha d’anar seguida d’accions. Per tant, el temps per a la comprensió i el temps per a l’acció és el que m’agradaria. Dit això, passaré la pilota a Dez.
Dez Blanchfield: Gràcies, Robin. Perspectiva com sempre. M'encanta que sigui un acte difícil seguir en cada cas, però faré el possible.
Una de les coses que veig, i a mi em fa entretenir, ésser sincera, i no en una forma inclinada i negativa, però hi ha molta preocupació i pànic pel que fa a Internet de les coses que prenen el món. i ens escorcollaràs i començareu a perdre les vostres dades, així que vull fer una ullada enrere a algunes de les coses que hem fet abans en les dues o tres darreres dècades, que eren un facsímil proper a Internet de coses, però potser no a la mateixa escala. I només per demostrar-nos que realment hem estat aquí i hem resolt alguns dels problemes, no a aquest nivell d’escala i tampoc a aquesta velocitat. Perquè vol dir que realment podem solucionar el problema i que sabem quines són algunes de les respostes; Acabem de caure i tornar a aplicar alguns dels aprenentatges que vam tenir abans. I sé que aquesta és la conversa sencera que estem a punt de tenir i tinc tot un ventall de coses divertides només per xerrar a la secció de Q&A.
Però, quan pensem en l’internet de les coses del cercle, actualment hi ha una gran centralització a nivell de disseny que es va escriure des de ben aviat. Els dispositius Fitbit, per exemple, tots solen anar a un lloc central i és probable que es trobin allotjats en una plataforma de núvols en algun lloc i totes les dades de tots aquests dispositius arribin igual, diguem-ne, al capdavant d'una pila, inclosa la web i serveis basats en aplicacions i en dades. Però, amb el pas del temps, aquesta escala requerirà una reenginyeria per fer front a la quantitat de dades que els hi arriba i es reenginyerarà de manera que hi hagi diverses capes frontals i diverses còpies de la pila a diverses ubicacions i regions. I ho estem veient, i hi ha una sèrie d’exemples que us donaré que podem discutir.
El punt clau d’això és que, tot i que hem vist algunes d’aquestes solucions que estic a punt de cobrir, l’escala i el volum de les dades i el trànsit de xarxa que generarà l’internet de les coses requereix urgentment un canvi de central. a arquitectures distribuïdes al meu parer, i això ho sabem, però no hem entès necessàriament quina és la solució. Quan pensem en el concepte de què és l’internet de les coses, és un model de xarxa a gran escala. Ara són moltes i moltes coses que fan soroll. Coses que no feien soroll fins fa poc. I de fet, crec que va ser ahir, vaig estar fent bromes de la pila, però vaig anar a comprar una torradora nova i em va venir amb una opció que em podia explicar diverses coses, inclosa quan necessitava neteja. I un microones nous amb una característica molt similar i fins i tot podria fer una aplicació al telèfon per dir que el que estava reescalfant ja estava fet. I estic molt d’opinió que si hi ha un parell de coses no vull parlar amb mi, són la meva nevera, microones i torradores. Estic bastant a gust amb que són un dispositiu mut. Però recentment tinc un cotxe nou, una mica Audi, i sí que em parla i estic força satisfet amb això, perquè les coses de què parla són coses d'interès. Com actualitzar mapes en temps real per dir-me on hi ha una millor ruta per arribar del punt A al punt B perquè es detecta trànsit a través de diversos mecanismes amb les dades que s’envien.
Tinc aquesta diapositiva. Ja hem vist que els models de xarxa amb un gran volum requereixen un canvi de captació central i distribució de models de processament i analítica de dades. Hem vist que les coses passen dels tres petits gràfics que hi ha a la vora dreta on tenim, el de l’esquerra dels tres, hi ha un model centralitzat amb tots els petits dispositius que arriben a la ubicació central i recopilar dades i l'escala no és tan fantàstica, però poden arribar-hi bé. Al mig, tenim un model i un focus i una mica més descentralitzats, que és el que crec que necessitarem amb internet les coses de la propera generació. I a la part dreta tenim una xarxa completament distribuïda i malla, que és on anirà a internet el web de coses i màquina a màquina en un termini molt curt en el futur, però no ho som per diverses raons. I sobretot perquè estem utilitzant plataformes d’internet per a la majoria de les comunicacions fins ara i no hem construït cap segona xarxa per transportar moltes d’aquestes dades.
Ja existeixen segones xarxes com la xarxa Batelco. Molta gent no pensa en el fet que les xarxes de telecomunicacions no són internet. Internet és una cosa molt separada en molts aspectes. Enruten dades de telèfons intel·ligents a través de les xarxes de telefonia i, a continuació, a través de les xarxes de telefonia i a Internet en general, on realment es troben en dues xarxes. Però és completament possible i és probable que l’internet de les coses necessiti una altra xarxa. Parlem generalment d’internet industrial, que no anem a detallar ara, però essencialment estem parlant d’una altra xarxa dissenyada específicament per als tipus de transport per a dades o internet de coses i màquina a màquina. comunicació.
Però alguns dels exemples que volia compartir on hem vist que les xarxes d’alt volum i les dades distribuïdes funcionen molt bé són coses com Internet. Internet va ser dissenyat i arxivat específicament des del primer dia per poder sobreviure a una guerra nuclear. Si es bufen parts dels Estats Units, Internet es va dissenyar de manera que les dades poguessin moure’s per Internet sense pèrdues de paquets per raons que encara estem connectades. I això encara existeix avui a escala global. Internet té múltiples capacitats entorn a la redundància i als paquets d’encaminament. I, de fet, Internet està controlat per una cosa que es diu BGP, Border Gateway Protocol i Border Gateway Protocol, BGP, que està dissenyat específicament per fer front a un encaminador o un commutador o un servidor que baixa. Quan envieu o rebeu un missatge de correu electrònic, si envieu tres missatges de correu electrònic seguits, no hi ha cap garantia de que cadascun d’aquests correus segueixi la mateixa ruta fins a la mateixa destinació final. Es poden moure per diferents parts d’internet per diverses raons. Podria haver-hi una interrupció, hi podria haver finestres de manteniment en què les coses estiguin fora de línia per actualitzar-les, només hi podria haver congestió a la xarxa i veiem que amb coses com les xarxes de trànsit amb cotxes i transport públic i vaixells i avions. Obtenim contingut als nostres dispositius com els nostres ordinadors portàtils i tauletes i ordinadors a través de navegadors, etcètera cada dia a través de xarxes de lliurament de contingut. Les xarxes d’entrega de contingut consisteixen en agafar còpies de contingut de la vostra plataforma de servei principal, com ara el servidor web i traslladar-ne còpies i les petites quantitats a la memòria cau a la vora de la xarxa i només l’entreguen a la vostra part de la vora més propera.
Anti-spam i ciberseguretat: si es produeix un esdeveniment de correu brossa al Canadà i Microsoft ho detecta i veiem que s’envia un munt de còpies del mateix correu electrònic a un grup de persones aleatòries, es fa una suma de comprovació d’això, la signatura d’aquest missatge és creat i posat en xarxa i distribuït immediatament. I, per tant, el correu electrònic no entra mai a la meva safata d'entrada, o si ho fa, s'identifica immediatament com a correu brossa perquè s'ha detectat en qualsevol altre lloc de la vora de la xarxa. D'aquesta manera, a altres parts del límit de la xarxa es parla d'aquesta signatura de missatges de correu brossa i s'introdueix a l'índex de la base de dades i si aquests missatges comencen a aparèixer a l'altra banda del planeta, els detectem i sabem que són spam. I el mateix s'aplica a la ciberseguretat. Es detecta, es registra i es mapeja un hack que està tenint lloc a un costat del planeta i, de sobte, a l’altra part de la xarxa, el podem combatre i arxivar les regles i polítiques i canviar per veure si el podem bloquejar. Especialment amb el nou impacte de coses com la denegació de servei o la denegació de servei distribuïda on s’utilitzen milers de màquines per atacar un lloc web central.
De manera predeterminada, Bitcoin i la cadena blockchain, per la seva naturalesa, són un registre distribuït, el blockchain i fan front a qualsevol interrupció o trencament a la xarxa. Detecció i prevenció de fraus, serveis elèctrics i d’aigua: estem veient, ja coneixeu la xarxa elèctrica, si una part de la xarxa té un terreny d’arbre i hi treu un pal i un filferro, la meva casa continua adquirint energia. Ni ho sé ni sovint ni ho veig a les notícies. I tots estem acostumats a les xarxes de transport, on originalment hi havia un model centralitzat, "Totes les carreteres conduïen a Roma", com diuen, i finalment vam haver d'anar al model descentralitzat amb hubs i raigs, i després vam anar. a una xarxa de malla on es podia arribar d'un costat de la ciutat a l'altre mitjançant diverses rutes de malla i diferents interseccions. Llavors, el que veiem aquí és que aquest model centralitzat del que estem fent ara amb la Internet de les coses haurà de sortir cap a la vora de la xarxa. I això s’aplica a les analítiques més que mai, i és que hem d’expulsar les analítiques cap a la xarxa. I, per a això, cal un enfocament completament nou per accedir i processar aquestes dades i els fluxos de dades, al meu parer. Estem parlant d'un escenari en què crec que veiem una intel·ligència limitada forçada a la vora de la xarxa en dispositius connectats a Internet, però aviat veurem que aquests dispositius augmenten la intel·ligència i augmenten el nivell d'analítica que volen. fer. Com a resultat d'això, caldrà empènyer aquests smarts cada vegada més a través de la xarxa.
Per exemple, les aplicacions intel·ligents i les xarxes socials: si pensem en les xarxes socials i algunes de les aplicacions intel·ligents, encara són molt centrals. Ja sabeu, només hi ha dos o tres centres de dades per a gustos de Facebook. Google ha estat molt més descentralitzat, però encara hi ha un nombre limitat de centres de dades a tot el món. Llavors, quan pensem en la personalització de continguts, cal pensar en un nivell molt local. Moltes coses s’estan fent al navegador o a una capa de xarxa de lliurament de contingut local. I pensem en els rastrejadors de salut i fitness: moltes de les dades que s’estan recopilant s’analitzen localment i, per tant, les noves versions dels dispositius Garmin i Fitbit que poseu al canell, cada vegada són més intel·ligents i intel·ligents al dispositiu. . Ara no envien totes les dades sobre la freqüència cardíaca a un servidor centralitzat per intentar fer les analítiques; estan construint aquesta intel·ligència directament al dispositiu. La navegació a l’automòbil solia ser que el cotxe obtindria constantment actualitzacions i mapes des d’una ubicació cèntrica, ara els smarts són al cotxe i el vehicle pren les decisions tot sol i, finalment, els cotxes es mallaran. Els cotxes parlaran entre ells a través de xarxes sense fils d’alguna forma, que poden ser mitjançant una 3G o una xarxa sense fil 4G en la propera generació, però eventualment serà un dispositiu a dispositiu. I l’única manera d’afrontar el volum d’aquest és fent que els dispositius siguin més intel·ligents.
Ja tenim sistemes d’alerta d’emergència que recopilaran informació localment i l’enviaran de forma central o a una xarxa de malla i prendran decisions sobre el que passa localment. Per exemple, al Japó, hi ha aplicacions que la gent funciona als seus telèfons intel·ligents amb acceleròmetres al telèfon intel·ligent. Els acceleròmetres del telèfon intel·ligent detecten vibracions i moviments i poden determinar la diferència entre el moviment normal del dia a dia i els tremolors i els xocs d’un terratrèmol. I aquest telèfon començarà a avisar-te immediatament, de manera local. L’aplicació real sap que detecta terratrèmols. Però també comparteix aquestes dades a través d'una xarxa en un nucli distribuït i un model de parla distribuïda perquè les persones que hi ha a prop siguin avisades immediatament o tan aviat com sigui possible que les dades flueixin per la xarxa. I, finalment, quan arriba a una ubicació central o una còpia distribuïda de la ubicació central es retorna cap a les persones que no es troben a la zona immediata, no han detectat el moviment del planeta, però cal advertir-ne. potser arriba un tsunami.
I infraestructures de ciutat intel·ligent: el concepte d’infraestructura intel·ligent, ja estem construint l’intel·lecte en edificis intel·ligents i infraestructures intel·ligents. De fet, ahir vaig aparcar el meu cotxe a la ciutat en una nova zona on es va reconstruir i reconstruir part de la ciutat. I han tornat a fer tots els carrers, i hi ha sensors als carrers i el parquímetre real sap que quan he entrat amb un cotxe sap que quan vaig a refrescar el límit de dues hores el cotxe no s'ha mogut i, en realitat, no em deixaria passar i quedar-me dues hores més. Vaig haver de pujar al cotxe, tirar de l’espai i després tirar cap enrere per enganyar-lo per permetre’m quedar-me dues hores més. Però el que és interessant és que, finalment, anem al punt que no només es detecti el cotxe que entra a la zona com a sensor localitzat, sinó coses com característiques òptiques on s’aplicarà el reconeixement amb càmeres fotogràfiques mirant la meva matrícula i ho sabrà. que realment només vaig treure, retirar i enganyar, i simplement no em permetrà renovar-me i seguiré endavant. Aleshores, distribuirà aquestes dades i s’assegurarà que no puc fer-ho en cap altre lloc i enganyar la xarxa de forma continuada. Perquè, per naturalesa, ha de ser més intel·ligent, si no, tots continuarem enganyant-la.
Hi ha un exemple d’això que en realitat he viscut personalment a la tecnologia de tallafoc, a finals dels anys 80 i principis dels 90, un producte anomenat Check Point FireWall-1. Una tecnologia de tallafoc molt senzilla que vam utilitzar per crear regles i crear polítiques i regles al voltant de determinades coses per dir que els tipus de trànsit a través de determinats ports i adreces IP i xarxes per arribar i anar entre uns i altres, el trànsit web d'un lloc a un altre, que va des del final del navegador al client fins al final del nostre servidor. Vam solucionar aquest problema traient la lògica fora dels tallafocs i traslladant-la realment a l'ASIC, el circuit integrat específic de l'aplicació. Controlava els ports dels commutadors Ethernet. Vam trobar que els ordinadors de servidor, els ordinadors que estàvem utilitzant com a servidors per prendre decisions com tallafocs, no eren prou potents per gestionar el volum de trànsit que hi travessava per a cada mica d’inspecció de paquets. Vam resoldre el problema movent la lògica necessària per fer inspeccions de paquets i deteccions d’internet als commutadors de xarxa distribuïts i capaços de gestionar el volum de dades que passa pel nivell de xarxa. No ens preocupavem a nivell centralitzat amb tallafocs, el vam desplaçar als interruptors.
D'aquesta manera, vam fer que els fabricants creessin la possibilitat que puguem transmetre rutes i regles i polítiques al commutador Ethernet de manera que al nivell del port Ethernet i, potser, molta gent de la piscina no estigui familiaritzada amb això perquè estem tots vivien en un món sense fils ara, però alguna vegada havia de connectar-se mitjançant Ethernet. Ara, al nivell del port Ethernet, estàvem fent inspeccions de paquets per veure si fins i tot se’ls permetia entrar als paquets a l’interruptor i a la xarxa. Alguna cosa d’això és el que resoldrem ara sobre aquest repte de capturar dades a la xarxa, concretament dels dispositius IRT, inspeccionar-la i fer-hi anàlisis i probablement analítiques en temps real per prendre decisions sobre ella. I és molt útil obtenir informació sobre la intel·ligència empresarial i la informació sobre com els humans prenen millors decisions i altres analítiques i rendiment per a les coses de nivell màquina-màquina on els dispositius parlen amb dispositius i prenen decisions.
I aquesta serà una tendència que hem de mirar de solucionar en un futur immediat perquè, si no ho fem, acabarem amb aquest diluvi de sorolls. I al món de les grans dades, hem vist com els llacs de dades es converteixen en pantans de dades que acabem amb un diluït soroll que no hem descobert com resoldre les analítiques de processament de forma centralitzada. moda. Si, segons el meu pare, no solucionem aquest problema, de seguida, amb el IoT i obtenim una solució de plataforma molt ràpidament, acabarem en un lloc molt dolent.
I tenint en compte que vaig a tancar amb el meu punt, que és que crec que un dels majors canvis que es produeixen a l’espai de big data i analytics es veu impulsat per la necessitat immediata de reaccionar davant l’impacte d’internet. de les coses sobre analítiques de gran volum i en temps real, ja que hem de traslladar les analítiques cap a la xarxa i, finalment, al límit de la xarxa només per fer front al volum únic, només per processar-la. Aleshores, eventualment, introduïm la intel·ligència a la xarxa i el límit de la xarxa en un hub i un model de parla que realment el podem gestionar i obtenir informació en temps real i obtenir-ne valor. I amb això vaig a passar al nostre convidat i veure cap a on ens porta aquesta conversa.
Shawn Rogers: Moltes gràcies. Es tracta de Shawn Rogers de Dell Statistica, i noi, per començar, estic totalment d’acord amb tots els temes principals que s’han tocat aquí. I Rebecca, vau començar amb una idea de, ja sabeu, que aquestes dades no són noves, i per a mi és notable la quantitat de temps i energia que es dedica a discutir les dades, les dades i les dades del IoT. I és certament rellevant, ja ho sabeu, Robin va fer un bon punt, fins i tot si esteu fent una cosa realment senzilla i feu un toc a un termòstat un cop al segon, ja ho sabeu, ho feu durant les 24 hores del dia i realment ho teniu., ja sabeu, alguns reptes de dades interessants. Però, al final, ja ho sabeu, i crec que molta gent de la indústria està parlant de les dades d'aquesta manera - que realment no és tan interessant i, segons el cas de Rebecca, ha passat una bona estona, però en el passat no l'hem pogut aprofitar. I crec que la indústria d’analítica avançada i la indústria de la BI en general comencen a girar el cap cap a IoT. I Dez, fins al vostre punt final, això és part d’un o un dels punts més difícils del panorama big data que crec que és molt cert. Crec que tothom està molt emocionat amb el que podem fer amb aquest tipus de dades, però alhora, si no podem saber com aplicar la informació, prendre mesures i, ja ho sabeu, analitzar on es troben aquestes dades, crec. tindrem reptes que la gent no veu realment.
Dit això, a l’espai d’analítica avançada som grans fans del que creiem que pot passar amb les dades d’IoT, sobretot si hi apliquem analítiques. Aquesta diapositiva hi ha molta informació i deixaré que tothom simplement caça i miri el seu voltant, però si observeu diferents sectors com el comerç al detall a l'extrema dreta, es veu la seva oportunitat al voltant de poder ser més innovadors o tenir alguns L’estalvi de costos o l’optimització de processos o les millores és molt important i es troben molts casos d’ús per això. Si us fixeu, a l'esquerra a la dreta a la diapositiva, veureu com cadascuna d'aquestes indústries està reivindicant noves capacitats i noves oportunitats de diferenciació per si mateixes quan apliquen analítiques a IoT. I crec que el que és més important és que, si voleu seguir aquest camí, no només us heu de preocupar de les dades, com hem estat discutint i de l'arquitectura, sinó que també heu de mirar com podeu apliqueu-ne les analítiques i on hagin de tenir lloc les analítiques.
Per a molts de nosaltres en la trucada d’avui, ja sabeu, Robin i jo ens coneixem des de fa molt de temps i teníem innombrables converses sobre arquitectures tradicionals en el passat, al voltant de bases de dades centralitzades o magatzems de dades empresarials, etc., i com nosaltres ”. Hem trobat durant l’última dècada més o menys, fem una bona feina d’estendre les limitacions d’aquestes infraestructures. I no són tan segurs ni tan forts com voldríem que siguin avui per donar suport a totes les excel·lents analítiques que apliquem a la informació i, per descomptat, que la informació també trenqui l'arquitectura. la velocitat de les dades, el volum de dades, etcètera, estan estenent definitivament les limitacions d'alguns dels nostres enfocaments i estratègies més tradicionals per a aquest tipus de treballs. I, per tant, crec que es comença a demanar la necessitat que les empreses tinguin un punt de vista més àgil i potser més flexible i aquesta és la part, suposo, voldria parlar una mica sobre el costat de IoT.
Abans de fer-ho, passaré un moment només perquè tothom en la trucada us doni una mica de fons sobre què és Statistica i què fem. Com podeu veure al títol d'aquesta diapositiva, Statistica és una analítica de predicció, big data i visualització per a la plataforma IoT. El producte té una mica més de 30 anys i competim amb els altres líders del mercat que probablement coneixeu en la línia de poder aplicar analítiques predictius, analítiques avançades a dades. Vam veure una oportunitat d’ampliar el nostre abast d’on situàvem les nostres analítiques i vam començar a treballar en algunes tecnologies que ens han posicionat força bé per aprofitar el que avui han parlat tant Dez com Robin, que és aquest nou enfocament i on vas a posar l'analítica i com vas a fondre-la amb les dades. D'altra banda, hi ha altres coses que cal abordar amb la plataforma i, com he esmentat, Estatistica porta molt de temps al mercat. Estem molt bé en el costat de la combinació de dades i crec que, ja ho sabeu, no hem parlat massa sobre l'accés a les dades, sinó de poder arribar a través d'aquestes diverses xarxes i posar-vos en contacte amb les dades adequades. El temps adequat és cada cop més interessant i important per als usuaris finals.
Per últim, comentaré una peça més aquí, perquè Dez va fer un bon punt sobre les xarxes mateixes, tenint un cert nivell de control i seguretat sobre els models analítics a tot el vostre entorn i com s’uneixen a les dades cada cop més importants. Quan vaig entrar a la indústria fa uns quants anys enrere, gairebé 20, crec que en aquest moment, quan vam parlar d’analítica avançada va ser d’una manera molt curada. Només un parell de persones de l’organització tenien les seves mans, la van desplegar i van donar la resposta a la gent segons els seus requeriments o van proporcionar informació segons es requerís. Això està canviant realment i el que veiem és que hi ha molta gent que treballava amb una o més manera diversa i flexible d’arribar a les dades, d’aplicar seguretat i governança a les dades i, després, poder col·laborar-hi. Aquestes són algunes de les coses importants que mira Dell Statistica.
Però vull aprofundir en el tema que està una mica més a prop del títol d’avui, com és, com hauríem d’adreçar les dades que provenen d’internet de les coses i què és possible que vulgueu buscar quan busqueu solucions diferents. La diapositiva que us he posat davant vostre ara és una mica tradicional de la vista, i Dez i Robin han tocat sobre això, aquesta idea de parlar amb un sensor, ja sigui un automòbil o una torradora o un aerogenerador, o què teniu, i després traslladeu aquestes dades de la font de dades a la vostra xarxa a un tipus de configuració centralitzat, tal com esmentava Dez. I les xarxes són força bones i moltes empreses s’incorporen a l’espai IoT que originalment estan començant a fer-ho amb aquest model.
L’altra cosa que va aparèixer, si mireu cap al final de la diapositiva, és aquesta idea d’agafar altres fonts de dades tradicionals, augmentar les vostres dades IoT i, després, aquest tipus de nucli, tant si el vostre nucli central és un centre de dades o bé. pot ser que estigui al núvol, no importa, agafaríeu un producte com Statistica i aplicaríeu analítiques en aquest moment i, a continuació, proporcioneu aquesta informació als consumidors de la dreta. I crec que es tracta d’apostes de taula en aquest moment. Això és el que heu de poder fer i heu de tenir una arquitectura prou oberta per a una plataforma d’analítica avançada i parlar amb tots aquests, tipus de fonts de dades diverses, tots aquests sensors i tots aquests diferents llocs on teniu les dades. I crec que això és capaç de fer i penso que és cert que molts líders del mercat són capaços de fer aquest tipus de coses. A Statistica parlem d’això sobre analítica bàsica. Vés a obtenir les dades, torna a posar-les al nucli central, processa-les, afegeix més dades si és necessari o si és avantatjós, fes les teves analítiques i, a continuació, comparteix aquesta informació per obtenir informació o per conèixer.
I, per tant, crec que és cert que des del punt de vista de les funcions, probablement estaríem d’acord amb que, ja ho sabeu, aquesta és la poca necessitat i cal que tothom ho faci. El lloc on es comença a interessar és on es tenen masses dades de dades, ja ho sabeu, procedents de fonts de dades diverses, com els sensors IoT, com he esmentat, ja sigui un cotxe o una càmera de seguretat o un procés de fabricació. un avantatge de poder fer l’analítica on es produeixen realment les dades. I l'avantatge per a la majoria de la gent, crec, quan comencem a moure l'analítica del nucli cap al límit, és la capacitat de difondre alguns dels reptes de dades que estan passant i, probablement, Dez i Robin ho comenten al final. avui en dia, però crec que heu de ser capaços de controlar i prendre mesures sobre les dades a la vora, de manera que no sempre és necessari traslladar totes aquestes dades a la vostra xarxa. Robin en va parlar d’això, de les imatges d’arquitectura que va dibuixar, on teniu totes aquestes fonts diferents, però normalment hi ha algun punt d’agregació. El punt d’agregació que veiem amb força freqüència es troba a nivell de sensor, però encara més sovint a nivell de passarel·la. I aquestes passarel·les existeixen com una mena d’intermediari en el flux de dades de les fonts de dades abans de tornar al nucli.
Una de les oportunitats que Dell Statistica va aprofitar és que la nostra capacitat d’exportar un model de la nostra plataforma d’analítica avançada centralitzada per poder agafar un model i executar-lo a la vora en una plataforma diferent, com una porta d’entrada o dins. d’una base de dades, o què teniu? I crec que la flexibilitat que ens proporciona és el que és realment l’interessant de la conversa d’avui dia, és que ho teniu a la vostra infraestructura actual? Ets capaç de traslladar una analítica cap a on viuen les dades o simplement traslladar sempre les dades cap a on viuen els teus analítics? I això és una cosa en la que Estatistica fa temps que se centra i, a mesura que ens fixem en les diapositives, veureu que hi ha una altra tecnologia que hi ha a la nostra companyia germana, Dell Boomi. Dell Boomi és una plataforma d'integració i integració de dades al núvol i realment utilitzem Dell Boomi com a dispositiu de tràfic per traslladar els nostres models de Dell Statistica, a través de Boomi i dispositius de punta. I pensem que aquest és un plantejament àgil que les companyies exigeixen, tant com els agrada la versió que us vaig mostrar fa un minut, que és el tipus de idea bàsica de traslladar les dades dels sensors de tornada a la centre, alhora, les empreses voldran poder fer-ho de la manera que us detallo aquí. I els avantatges per fer-ho són alguns dels punts que van plantejar tant Robin com Dez, és a dir, podeu prendre una decisió i prendre mesures a la velocitat del vostre negoci? Podeu moure les analítiques d'un lloc a un altre i poder estalviar temps, diners i energia i complexitat per traslladar constantment aquestes dades de punta al nucli.
Ara sóc el primer a afirmar que algunes de les dades avantguardades sempre tindran un mèrit prou elevat quan tindria sentit emmagatzemar i conservar aquestes dades i portar-les de nou a la vostra xarxa, però quines analítiques de punta us permetran fer fer és la capacitat de prendre decisions amb la velocitat que arriben les dades, oi? Que podeu aplicar la informació i l’acció a una velocitat on es troba el valor més alt possible. I crec que això és el que anem a buscar a l’hora d’utilitzar analítiques avançades i dades de IoT és aquesta oportunitat per moure’s a la velocitat del negoci o a la velocitat que el client exigeix. Crec que la nostra posició és que crec que cal ser capaç de fer les dues coses. I crec que pràcticament i ràpidament, a mesura que més empreses busquen conjunts de dades més diversos, especialment els del IoT, començaran a mirar l’espai dels venedors i exigiran què és capaç de fer Estatistica. La qual cosa és desplegar un model fonamental, com ho hem fet tradicionalment durant molts anys, o desplegar-lo en plataformes potser no tradicionals, com una passarel·la IoT, i poder puntuar i aplicar analítiques a les dades. a la vora segons es produeixen les dades. I crec que és allà on entra la part emocionant d’aquesta conversa. Perquè, en poder aplicar una analítica al límit en el moment en què surten les dades d’un sensor, ens permet prendre mesures tan ràpidament com necessitem, però també ens permet decidir, aquestes dades han de tornar al nucli immediatament? Podem lotar-lo aquí i enviar-lo de nou en peces i peces i analitzar-les més endavant? I això és el que veiem molts dels nostres clients líders.
La manera en què Dell Statistica ho fa és que tenim una capacitat d’utilització, per tant, digueu, per exemple, que creeu una xarxa neuronal a dins d’Istatistica i voldríeu posar la xarxa neuronal en un altre lloc del vostre paisatge de dades. Tenim la capacitat de produir aquests models i tots els idiomes que heu vist al racó dret, Java, PPML, C i SQL, etc., també incloem Python i també podem exportar els nostres scripts. i a mesura que es mogui fora de la nostra plataforma centralitzada, podeu implementar aquest model o aquell algorisme allà on ho necessiteu. I com he esmentat anteriorment, utilitzem Dell Boomi per posar-lo i aparcar-lo allà on necessitem executar-lo i després podem tornar els resultats, o podem ajudar a recuperar dades, o puntuar-ne les dades i prendre mesures mitjançant les nostres regles del motor. . Totes aquestes coses són importants quan comencem a mirar aquest tipus de dades i tornem a pensar.
Això és el que la majoria de vosaltres haureu de fer perquè serà molt costós i carregant d'impostos a la vostra xarxa, tal com va mencionar Dez, per moure les dades de l'esquerra d'aquests diagrames a la dreta d'aquests diagrames per sobre. temps. No sona molt, però hem vist fabricar clients amb deu mil sensors a les seves fàbriques. I si teniu deu mil sensors a la vostra fàbrica, fins i tot si només en feu una segona mena de proves o senyals, estàs parlant de vuitanta quatre mil files de dades de cadascun d’aquests sensors al dia. Així, doncs, les dades definitivament s’acumulen i Robin ho va mencionar. A l’alçada vaig esmentar un parell d’indústries on veiem que la gent s’aconsegueix algunes coses força interessants fent servir el nostre programari i les dades de IoT: automatització d’energia, energia, serveis públics és un espai realment important. Es treballa molt en l’optimització del sistema, fins i tot en l’atenció al client i, per descomptat, en operacions i manteniment general, dins d’instal·lacions energètiques i en edificis per a automatització. I són alguns casos d’ús que veiem que són força potents.
Ja hem estat fent analítiques de punta, suposo que el terme estava encunyat. Com he comentat, tenim estat ben arrelat a Statistica. La companyia va ser fundada fa gairebé 30 anys, per la qual cosa tenim clients enrere que integren les dades de IoT amb les seves analítiques i han estat durant un temps. I Alliant Energy és un dels nostres casos d’ús o clients de referència. I us podeu imaginar el problema que té una empresa energètica amb una planta física. Es fa difícil escalar més enllà de les parets de maó d’una planta física i, per tant, empreses energètiques com Alliant busquen formes d’optimitzar la seva producció energètica, bàsicament millorant el seu procés de fabricació i optimitzant-lo al màxim nivell. I utilitzen Statistica per gestionar els forns de les seves plantes. I per a tots els que tornem als primers dies a classe de ciències, tots sabem que els forns fan calor, la calor fa vapor, les turbines giren, obtenim electricitat. El problema per a empreses com Alliant és optimitzar com es escalfen i cremen les coses dins d'aquests grans forns de ciclons. I optimitzant la producció per evitar els costos addicionals de contaminació, desplaçament de carboni, etc. Per tant, heu de ser capaços de controlar l’interior d’un d’aquests forns ciclons amb tots aquests dispositius, sensors i, a continuació, agafar totes aquestes dades del sensor i fer canvis al procés d’energia de manera continuada. I això és exactament el que fa Statistica per Alliant des del 2007, fins i tot abans que el terme IoT fos super popular.
Segons el punt de Rebecca, les dades certament no són noves. La capacitat de processar-lo i utilitzar-lo correctament és realment allà on estan passant coses excitants. Avui hem parlat una mica sobre l'assistència sanitària en la pre-trucada i estem veient tot tipus d'aplicacions per a persones per fer coses com una millor atenció al pacient, manteniment preventiu, gestió de la cadena de subministrament i eficiències operatives en l'assistència sanitària. I això és força continuat i hi ha molts casos d'ús diferents. Un estat del qual estem molt orgullosos aquí a Statistica és amb els nostres clients Shire Biofarmaceutics. I Shire fabrica fàrmacs especialitzats per a malalties realment difícils de tractar. I quan creen un lot de la seva medicina per als seus clients, és un procés extremadament car i aquest procés extremadament car també porta temps. Quan penses en un procés de fabricació, ja que veus que els reptes són unificar totes les dades, ser prou flexibles entre diferents maneres d’introduir les dades al sistema, validar la informació i poder ser predictius sobre com ajudem aquell client. I els processos que treien la major part de la informació dels nostres sistemes de fabricació i, per descomptat, dels dispositius i sensors que impulsen aquests sistemes de fabricació. I és un gran cas d’ús per a com les empreses eviten les pèrdues i optimitzen els seus processos de fabricació mitjançant una combinació de dades de sensors, dades de IoT i dades habituals dels seus processos.
Ja sabeu, doncs, un bon exemple d’on la fabricació i, sobretot, la fabricació d’alta tecnologia, es beneficien a la indústria de la salut en aquest tipus de treballs i dades. Crec que només voldria plantejar un parell d’altres punts abans d’embolicar-lo i tornar-lo a Dez i Robin. Però ja ho sabeu, crec que aquesta idea de poder empènyer la vostra analítica a qualsevol lloc del vostre entorn és una cosa que esdevindrà extremadament important per a la majoria de les empreses. Estar connectat al format tradicional de dades d'ingressos ETL de fonts de retorn a ubicacions centrals sempre tindrà un lloc en la vostra estratègia, però no hauria de ser la seva única estratègia. Cal adoptar un enfocament molt més flexible de les coses actuals. Per aplicar la seguretat que he esmentat, eviteu imposar la vostra xarxa, per poder gestionar i filtrar les dades tal com provenen de la vora, i determinar quines dades val la pena conservar a llarg termini, quines dades val la pena moure’s. a la nostra xarxa, o quines dades només cal analitzar en el moment que es creen, per prendre les millors decisions possibles. Aquest enfocament analític a tot arreu i en qualsevol lloc és una cosa que agafem amb molt de compte a Statistica i és una cosa a la qual som molt capaços. I es remunta a una d’aquestes diapositives que he esmentat anteriorment, la possibilitat d’exportar els vostres models en diversos idiomes, de manera que puguin coincidir i alinear-se amb les plataformes on s’estan creant les dades. I, per descomptat, tenir un dispositiu de distribució d’aquests models, que també és una cosa que aportem a la taula i que ens fa molta il·lusió. Crec que la conversa d'avui és, si realment ens posarem en serio sobre aquestes dades que porten els nostres sistemes molt de temps i ens agradaria trobar un avantatge competitiu i un angle innovador per fer-lo servir. una tecnologia que us permet allunyar-vos d'alguns models restrictius que hem utilitzat en el passat.
Un cop més, el meu punt és que, si voleu fer IoT, crec que heu de ser capaç de fer-ho al centre i aportar les dades i combinar-les amb altres dades i fer les vostres analítiques. Però també, igual d’important o potser encara més important, cal tenir aquesta flexibilitat per posar l’analítica amb les dades i traslladar l’analítica del costat central de la vostra arquitectura cap a l’avantatge dels avantatges que he esmentat. abans. Això és una mica sobre qui som i què fem al mercat. I estem molt emocionats amb IoT, pensem que definitivament arriba la majoria d’edat i hi ha oportunitats fantàstiques per a tothom aquí d’influir en les seves analítiques i processos crítics amb aquest tipus de dades.
Rebecca Jozwiak: Shawn, moltes gràcies, que va ser una presentació realment fantàstica. I sé que Dez probablement es morirà per fer-te unes preguntes, així que Dez, et deixaré anar primer.
Dez Blanchfield: Tinc un milió de preguntes, però em contindré perquè sé que Robin també tindrà. Una de les coses que estic veient lluny i àmplia és una pregunta que em planteja i realment tinc ganes d’informar-vos sobre la vostra experiència en aquest aspecte, ja que teniu raó en el cor de les coses. Les organitzacions lluiten contra el desafiament i consideren que algunes d’elles acaben de llegir els gustos de “La quarta revolució industrial” de Klaus Schwab i van tenir un atac de pànic. I els que no coneixen aquest llibre, és bàsicament una visió de gent de Klaus Schwab, que crec que és un professor, que és el fundador i president executiu del Fòrum Econòmic Mundial per la memòria i, bàsicament, del llibre. tota aquesta internet omnipresent d'explosió de coses i una mica de l'impacte sobre el món en general. Les organitzacions amb les que parlo no saben si haurien d’anar a modificar l’entorn actual o invertir tot en la creació de tot el nou entorn, infraestructura i plataformes. A Dell Statistica, també veieu que la gent reajusta els entorns actuals i desplega la vostra plataforma a la infraestructura existent o els veieu dedicar-se a la creació de tota la nova infraestructura i preparar-se per a aquest diluvi?
Shawn Rogers: Ja saps, hem tingut l'oportunitat de servir els dos tipus de clients i estar al mercat sempre que tinguem, que tenen aquestes oportunitats d'ampliar-se. Tenim clients que han creat plantes fabuloses noves durant els darrers dos anys i els han equipat amb dades de sensors, IoT, analítiques de punta, de punta a punta durant tot aquest procés. Però hauria de dir que la majoria dels nostres clients són persones que fa temps que realitzen aquest tipus de treballs, però que s’han vist obligades a ignorar aquestes dades. Ja ho sabeu, Rebecca va posar el punt més amunt, no es tracta de dades noves, aquest tipus d'informació es va trobar disponible en molts formats diferents des de fa molt de temps, però on hi havia el problema era connectar-se a ell, movent-lo, portant-lo a un lloc on puguis fer alguna cosa intel·ligent.
I, per tant, diria que la majoria dels nostres clients estan mirant el que tenen avui, i Dez, ja ho heu dit anteriorment, que això forma part d'aquesta revolució de les grans dades i crec que del que es tracta és realment. revolució de dades, oi? Ja no hem d’ignorar determinades dades del sistema ni dades de fabricació ni automatització d’edificis de construcció, ara tenim les joguines i les eines adequades per aconseguir-ho i, a continuació, fer coses intel·ligents. I crec que hi ha molts conductors en aquest espai que ho estan fent i alguns són tecnològics. Ja ho sabeu, les solucions d’infraestructura de dades grans com Hadoop i altres han fet que sigui una mica menys costós i una mica més fàcil per a alguns de pensar en crear un llac de dades d’aquest tipus d’informació. I ara estem mirant al voltant de l'empresa per anar-hi: "Hola, tenim analítiques en el nostre procés de fabricació, però es milloraran si poguéssim aportar una visió clara d'aquests processos?" I això, crec, què és la majoria de els nostres clients ho fan. No es tracta tant de crear des de la base, sinó d’augmentar i optimitzar les analítiques que ja tenen amb dades que són noves per a ells.
Dez Blanchfield: Sí, hi ha algunes coses interessants en algunes de les grans indústries que hem vist, i heu esmentat, el poder i els serveis públics. Aviation acaba de passar per aquest boom en què un dels meus dispositius preferits de tots els temps de què parlo regularment, el Boeing 787 Dreamliner i, certament l’equivalent Airbus, l’A330 ha seguit el mateix recorregut. Hi va haver com a sis mil sensors el 787 quan es va publicar per primera vegada, i crec que ara parlen de quinze mil sensors a la nova versió del mateix. I el més curiós de parlar amb alguns dels populars que hi ha en aquest món va ser que la idea de posar els sensors a les ales i altres, i el més sorprenent del 787 en una plataforma de disseny és que, ja sabeu, van reinventar-ho tot. l'avió. Com les ales, per exemple, quan l’avió es lleva les ales es flexionen fins a dotze metres i mig. Però en els extrems les ales poden flexionar-se a la punta fins a 25 metres. Aquesta cosa sembla com un ocell caiguda. Però el que no van tenir temps per arreglar-se va ser l’enginyeria de les analítiques de totes aquestes dades, de manera que disposen de sensors que fan que els LEDs parpellegen de color verd i vermell si passa alguna cosa dolenta, però en realitat no acaben amb detalls temps real. I tampoc no van solucionar el problema de com desplaçar el volum de dades perquè cada dia a l'espai aeri nacional dels Estats Units hi ha 87.400 vols. Quan cada avió arriba amb els seus compres d’un Dreamliner de 787, és a dir que tenen 43 petabytes al dia, ja que actualment aquests avions creen aproximadament la meitat d’un terabyte de dades. I quan multipliqueu 87.400 vols al dia a casa dels EUA per cinc o mig de terabytes, acabareu amb 43, 5 petabytes de dades. Físicament no podem moure’ns. Així doncs, pel disseny, hem d’expulsar les analítiques cap al dispositiu.
Però una de les coses que és interessant quan miro tota aquesta arquitectura –i tinc ganes de veure què en penses d’això– és que ens hem orientat cap a la gestió de dades magistral, els primers principis de la gestió de dades. tot en un lloc cèntric. Tenim llacs de dades i, seguidament, creem petits estanys de dades, si voleu, extractes del que fem analítiques, però distribuint al límit, una de les coses que segueixen apareixent, particularment de la base de dades de persones i gestors de dades. o la gent que gestiona informació, què passa quan tinc molts llacs de dades en miniatura distribuïts? Quin tipus de coses s’han aplicat a aquest pensament pel que fa a les analítiques d’avantguarda en la vostra solució, ja que, tradicionalment, tot vindria de forma central amb el llac de dades, ara acabem amb aquests petits charcs de dades a tot arreu, i tot i que podem feu analítiques a nivell local per obtenir informació local, quins són alguns dels reptes que us heu enfrontat i com ho heu resolt, tenint aquest conjunt de dades distribuït i, en particular, quan obteniu els microcosmes dels llacs de dades i les àrees distribuïdes?
Shawn Rogers: Bé, crec que aquest és un dels reptes? A mesura que ens allunyem, ja sabeu transportar totes les dades cap a la ubicació del centre o l'exemple d'anàlisi analític que vaig donar i que després fem la versió distribuïda és que acabareu amb totes aquestes petites sitges, oi? Igual que ho heu representat, no? Estan fent una mica de feina, s’estan executant algunes analítiques, però, com les ajunteu? I crec que la clau serà l’orquestració per a tot això i crec que els vostres estaran d’acord amb mi, però estic contenta si no ho faig, que crec que hem estat veient aquesta evolució durant força temps algun temps
Tornant als dies dels nostres amics Mr. Inmon i Kimball que van ajudar a tothom amb l'arquitectura de les seves primeres inversions en magatzem de dades, el tema és que ens hem apartat d'aquest model centralitzat durant molt de temps. Hem adoptat aquesta nova idea de permetre que les dades demostrin la seva gravetat per on ha de residir millor dins del vostre ecosistema i alinear les dades amb la millor plataforma possible per obtenir el millor resultat possible. I hem pensat en una mica de despesa, crec, amb un enfocament més orquestrat del nostre ecosistema com una mena de maneres generals de fer les coses, com és on intentem alinear totes aquestes peces alhora. Quin tipus d’analítica o treball vaig a fer amb les dades, quin tipus de dades es tracta, que ajudarà a dictar on s’ha de viure. On es produeix i quin tipus de gravetat tenen les dades?
Ja sabeu, veiem molts d’aquests exemples de dades grans on la gent parla de tenir llacs de dades de 10 i 15 petabytes. Doncs si teniu un llac de dades tan gran, és poc pràctic que el mudeu i, per tant, haureu de poder portar-vos analítiques. Però, quan ho fas, al nucli de la teva pregunta, crec que planteja molts nous reptes per a tothom per a orquestrar el medi ambient i aplicar la governança i la seguretat, i entendre què cal fer amb aquestes dades per curar-ho i obté el valor més alt. I, per ser sincer amb vosaltres, m’agradaria escoltar la vostra opinió aquí - crec que hi som primers dies i crec que encara hi ha molta feina per fer. Crec que programes com Statistica es centren a donar accés a més gent a les dades. Estem definitivament centrats en aquestes noves persones, com ara científics de dades ciutadanes, que volen conduir analítiques predictius a llocs de l’organització que potser no havien estat abans. Crec que alguns són alguns dels primers dies, però crec que l’arc de maduresa haurà de demostrar un alt nivell d’orquestració i alineació entre aquestes plataformes i una comprensió de què hi ha i per què. I aquest és un problema de velles per a tots els usuaris de dades.
Dez Blanchfield: És cert, i estic completament d’acord amb vosaltres i crec que el fantàstic que estem escoltant avui és almenys el capdavant del problema de capturar les dades en realitat, suposo, al nivell de la porta d’entrada a la vora. de la xarxa i la capacitat de fer analítiques en aquest moment es resol fonamentalment. I ara ens allibera per començar a pensar en el proper repte, que són els llacs de dades distribuïts. Moltes gràcies per això, va ser una presentació fantàstica. Agraeixo molt la possibilitat de xerrar amb vosaltres al respecte.
Passaré a Robin ara perquè sé que té, i després Rebecca també va rebre una llarga llista de grans preguntes de l'audiència després de Robin. Robin?
Robin Bloor: D'acord. Shawn, m'agradaria que diguéssiu una mica més i no intento donar-vos l'oportunitat de publicitar-ho, però en realitat és molt important. M'interessa saber en quin moment el Statistica va generar realment la capacitat d'exportació del model. Però també m'agradaria que diguéssiu alguna cosa sobre Boomi perquè tot el que heu dit fins ara sobre Boomi és que és ETL i, de fet, és ETL. Però és realment una ETL força capaç i pel tipus de temps que parlem i algunes de les situacions que tractem aquí és molt important. Podríeu parlar d’aquestes dues coses per a mi?
Shawn Rogers: Segur, sí, absolutament puc. Ja sabeu, el nostre moviment en aquesta direcció era certament iteratiu i era una mena de procés. La setmana que ve ens preparem per llançar la versió 13.2 de Statistica. I té les darreres actualitzacions de totes les capacitats de què parlem avui. Però, tornant a la versió 13, fa un any a l'octubre, vam anunciar la nostra capacitat per exportar models des de la nostra plataforma i el vam anomenar NDAA en aquell moment. L'acrònim significa Native Distributed Analytics Architecture. El que vam fer és dedicar molt temps, energia i centrar-nos en l’obertura de la nostra plataforma amb l’oportunitat d’utilitzar-la com a centre de comandament central per a les vostres analítiques avançades, però també per desplegar-les des d’allà. I els primers llocs, Robin, que vam desplegar vam fer una incorporació real, realment fantàstica, a la plataforma entorn de l'aprenentatge de màquines. Així doncs, vam tenir la possibilitat de desplegar-nos de Statistica al Azure Cloud de Microsoft per utilitzar el poder d’Azure per alimentar l’aprenentatge de màquines, com ja sabeu, és molt intens i és una manera excel·lent d’utilitzar tecnologies en núvol. I així va ser la primera part.
Ara exportàvem els nostres models a Azure i utilitzàvem Azure per executar-los i, després, tornàvem a enviar les dades o els resultats a la plataforma Statistica. I després vam passar a altres idiomes que volíem poder exportar i, per descomptat, un d’ells és Java ens obre la porta perquè ara comencem a exportar els nostres models cap a altres ubicacions com Hadoop, així que llavors va donar-ho. nosaltres també hi juguem una obra de teatre.
I, finalment, ens hem centrat en poder donar sortida als nostres models amb aquesta versió a bases de dades. I, per tant, va ser la primera iteració i, per ser sincer, el joc final va ser IoT, però encara no estàvem bé amb la versió 13 de l'octubre passat. Des d’aleshores hem arribat i això té a veure amb la capacitat de fer totes les coses que acabo d’esmentar, però després de tenir algun tipus de dispositiu de transport. I tornant a la pregunta de Dez, ja saps, quin és el repte i com podem fer això quan tenim totes aquestes analítiques al voltant? Doncs utilitzem Boomi com una mena de centre de distribució i és així perquè es troba al núvol i perquè és tan potent, com he esmentat abans, és una plataforma d’integració de dades, però també és una plataforma d’integració d’aplicacions i utilitza JVM per permetre’ns per aparcar i fer feina en qualsevol lloc on pugueu aterrar una màquina virtual Java. Això és el que realment va obrir la porta oberta per a totes aquestes passarel·les i plataformes informàtiques de vora i servidors de punta, perquè tots tenen la computació i la plataforma disponible per executar un JVM. A causa que podem executar la JVM en qualsevol lloc, Boomi s'ha convertit. serà una meravellosa distribució i, amb la meva paraula anterior, un dispositiu d’orquestració.
I això és cada cop més important perquè tots ho sabem, crec que l’escenari de l’avió fa un minut va ser fantàstic, i vaig esmentar, ja ho sabeu, fabricants com Shire que tenen deu mil sensors en una de les seves fàbriques. Haureu de començar a abordar el tipus d’enfocament central d’analítica avançada en algun moment. Ser ad hoc al respecte no funciona realment. Solia quan el volum de models i algoritmes que estàvem executant era mínim, però ara és màxim. Hi ha milers en una organització. Així, tenim una part de la nostra plataforma basada en servidors i quan teniu el nostre programari empresarial també podreu ajustar i puntuar i gestionar els vostres models en tot l'entorn. I això també forma part d’aquesta cosa d’orquestració. Necessitàvem tenir una capa, Robin, al lloc que no només us permetia obtenir un model allà en primer lloc, sinó que també us donava un conducte per ajustar els models i substituir-los de forma continuada amb la freqüència que necessiteu, perquè no es pot fer manualment. No podeu passejar per una refineria amb un disc en polze intentant pujar models a les passarel·les. Heu de tenir un sistema de transport i gestió entre ells, de manera que la combinació de Statistica i Boomi els dóna als nostres clients.
Robin Bloor: Sí. Bé, seré molt breu, però, ja sabeu, aquesta afirmació que es feia abans sobre el llac de dades i la idea d’acumular petabytes en un lloc determinat i el fet que tingui gravetat. Ja sabeu que quan vau començar a parlar d’orquestració tot just em va començar a pensar en el fet molt senzill que, ja ho sabeu, posar un llac de dades molt gran en un lloc significa que probablement haureu de fer una còpia de seguretat i probablement vol dir que de totes maneres heu de moure moltes dades. Ja ho sabeu, l'arquitectura de dades real és molt més, segons la meva opinió, molt més en la direcció que parleu. El que és distribuir-lo a llocs assenyats, és probablement el que diria. I sembla que teniu una molt bona capacitat per fer-ho. Vull dir, estic molt informada sobre Boomi, per la qual cosa és, d’una manera o altra, gairebé injusta que ho puc veure i potser el públic no ho pot fer. Però Boomi és tan essencial, segons el meu parer, en termes del que estàs fent perquè té capacitats d'aplicació. I també perquè la veritat és que no feu aquests càlculs analítics sense voler accionar alguna cosa en algun lloc per algun motiu o altre. I Boomi hi fa un paper, no?
Shawn Rogers: Sí, absolutament. Així, com ja sabeu de les converses anteriors, Statistica té un motor de regles empresarials complet. I crec que això és realment important quan expliquem per què fem això. Ja ho sabeu, he fet broma per davant que realment no hi ha cap motiu per fer IoT, tret que aneu a analitzar, a utilitzar les dades per prendre millors decisions o prendre mesures. I, per tant, en el que ens vam centrar no era només poder posar el model allà, sinó poder etiquetar-lo, un conjunt de regles. I com que Boomi és tan robust en les seves capacitats per moure les coses d’un lloc a un altre, dins d’un àtom de Boomi també podem incorporar la capacitat de desencadenar, d’alerta i d’acció.
I aquí és on comencem a obtenir una mena de visió sofisticada de les dades de IoT on diem: “D’acord, val la pena escoltar aquestes dades”. Però realment, ja sabeu, sabent que “la llum està encesa, la llum està encesa, la llum està encesa, la llum està encesa ”no és tan interessant per a quan s’apaga la llum o quan s’apaga el detector de fum o quan s’esdevé qualsevol cosa que passi al nostre procés de fabricació. Quan això es produeixi volem poder actuar immediatament. I les dades esdevenen gairebé secundàries aquí, en aquest moment. Com que no és tan important que els hàgim salvat, "està bé, està bé, està bé", el que és important és que notem el "Hola, és dolent" i vam prendre mesures immediates. Tant si es tracta d’enviar un missatge de correu electrònic a algú, com si podem obtenir una competència de domini, o bé si iniciem una sèrie d’altres processos per prendre mesures immediates, siguin correctives o que responguin a la informació. I crec que per això cal tenir aquesta visió orquestrada. No us podeu concentrar només a tractar els vostres algorismes arreu. Heu de ser capaços de coordinar-los i orquestrar-los. Heu de ser capaços de veure el rendiment. I realment, el més important, vull dir, per què ho faríeu si no podeu afegir l’oportunitat d’accionar immediatament contra les dades?
Robin Bloor: D'acord, Rebecca, crec que tens preguntes de l'audiència?
Rebecca Jozwiak: Jo sí. Tinc moltes preguntes d’audiència. Shawn, sé que no voldríeu penjar massa temps passat l’hora. Què penses?
Shawn Rogers: Estic content. Endavant. En puc respondre uns quants.
Rebecca Jozwiak: A veure. Sé que una de les coses que vau mencionar va ser que el IoT es troba en els primers dies i que hauria de tenir un grau de maduresa que hagi de tenir lloc i es faci un tipus de qüestió a aquesta pregunta que es va plantejar a un assistent. Si el marc IPv6 serà prou robust com per assolir el creixement de IoT en els propers cinc o deu anys?
Shawn Rogers: Oh, vaig a deixar que Dez es faci ressò de la meva resposta perquè crec que està més a prop d’aquest tipus d’informació que sóc. Però sempre he pensat que estem en una pista molt ràpida per doblegar i trencar la majoria de marcs que tenim al seu lloc. I si bé crec que l’afegit d’aquell nou tipus d’especificacions o la direcció que anem amb els marcs IPv6 és important, i ens obre la porta perquè tinguem molts més dispositius i poder donar tot allò que nosaltres vull donar una adreça. Crec que tot el que estic llegint i veient amb els meus clients i el nombre d’adreces que es necessiten, crec que en algun moment provocarà un altre canvi en aquest paisatge. Però no sóc realment un expert en xarxes, així que no puc dir el cent per cent que el trencarem en algun moment. Però la meva experiència em diu que en algun moment anem a desorganitzar aquest model.
Rebecca Jozwiak: No m'estranyaria. Crec que els marcs són una mena de ruptura sota el pes de tot tipus de coses. I això només és lògic, oi? Vull dir, no podeu enviar un correu electrònic amb una màquina d'escriure. Un altre assistent es pregunta: "Pot utilitzar un marc Hadoop?", Però suposo que podria canviar això per dir, com faríeu servir un marc Hadoop per a analítiques distribuïdes?
Shawn Rogers: Bé, Robin em va fer el favor de plantejar-me una pregunta històrica i, des de la versió 13 fa aproximadament un any per a Statistica, hem tingut la capacitat de conduir models del nostre sistema i cap a Hadoop. I treballem molt estretament amb tots els grans sabors d’Hadoop. Tenim històries d’èxit molt importants al voltant de la capacitat de treballar amb Cloudera com a una de les principals distribucions d’Hadoop amb què treballem. Però com que podem sortir a Java, ens proporciona aquesta capacitat d’estar oberts i col·locar les nostres analítiques a qualsevol lloc. Col·locar-los en un clúster Hadoop és una cosa que fem de forma normal i regular i quotidiana per a molts dels nostres clients. La resposta breu és sí, absolutament.
Rebecca Jozwiak: Excel·lent. I només us en faré una i us deixaré passar amb les vostres vacances. Un altre assistent es pregunta, amb l’anàlisi de IoT i l’aprenentatge automàtic, creieu que s’hauran d’emmagatzemar totes les dades amb finalitats històriques i com afectaran l’arquitectura de la solució?
Shawn Rogers: Bé, no crec que s'hagin de guardar totes les dades. Però crec que és molt interessant tenir la possibilitat d'entretenir, escoltar qualsevol font de dades que desitgem dins de la nostra organització, d'on vingui. I crec que els canvis que hem vist al mercat durant els darrers anys ens han permès aprofundir en tot allò que es tractava de totes les dades, i sembla que seria realment rendible. Però serà diferent per a cada empresa i cada cas d’ús. Ja sabeu, quan estem analitzant les dades de salut, ara hi ha molts problemes normatius, molts problemes de compliment que ens han de preocupar i això ens fa estalviar dades que altres empreses podrien no entendre per què cal desar-les. ? En els processos de fabricació, per a molts dels nostres clients de fabricació, hi ha un veritable problema per poder examinar històricament els vostres processos i poder mirar enrere grans quantitats d’aquestes dades per aprendre’n i crear millors models.
Crec que caldrà conservar moltes dades i crec que tenim solucions que la fan més econòmica i escalable avui en dia. Però al mateix temps, crec que cada empresa trobarà valor en les dades que no han de conservar a nivell atòmic, però voldran analitzar-les de manera real i prendre decisions sobre ell per impulsar la innovació dins. la seva empresa.
Rebecca Jozwiak: Està bé. No, audiència, avui no he arribat a les preguntes de tothom, però les reenviaré a Shawn perquè pugui arribar directament a tu i respondre aquestes preguntes. Però gràcies a tothom per assistir-hi. Moltes gràcies a Shawn Rogers de Dell Statistica i de tots els nostres analistes, Dez Blanchfield i el Dr. Robin Bloor. Podeu trobar l’arxiu aquí a insideanalysis.com, SlideShare, ja hem començat a tornar a posar les coses allà mateix i estem renovant el nostre YouTube, així que també busquem allà mateix. Moltes gràcies. I amb això vaig a acomiadar-nos i ens veurem la propera vegada.