top 32 best datastage interview questions
Lista över de vanligaste intervjufrågorna och svaren på datastage som hjälper dig att förbereda dig för den kommande intervjun:
DataStage är ett mycket populärt ETL-verktyg som fanns tillgängligt på den nuvarande marknaden.
I den här artikeln delar jag en uppsättning mycket användbara frågesvar avsedda för IBM Datastage-intervjuer. Genom att gå igenom frågorna om Datastage-intervjuer kan det vara enkelt för dig att knäcka intervjun.
Vi har täckt detaljerade svar på Datastage-intervjufrågorna som kan vara till hjälp för nybörjare och erfarna yrkesverksamma.
Rekommenderad läsning => ETL-testintervjufrågor
Vanligaste intervjufrågor och svar för datastage
Låt oss börja!
F # 1) Vad är datastad?
Svar: Datastage är en ETL-verktyg getts av IBM som använder ett GUI för att designa dataintegrationslösningar. Detta var det första ETL-verktyget som gav ett parallellismskoncept.
Den finns i följande 3 olika utgåvor
- Serverutgåva
- Enterprise Edition
- MVS Edition
F # 2) Markera huvudfunktionerna i Datastage?
Svar: De viktigaste funktionerna i Datastage markeras nedan:
- Det är dataintegrationskomponenten i IBM Infosphere-informationsservern.
- Det är ett GUI-baserat verktyg. Vi behöver bara dra och släppa Datastage-objekten och vi kan konvertera det till Datastage-kod.
- Den används för att utföra ETL-operationerna (Extract, Transform, Load)
- Det ger anslutning till flera källor och flera mål samtidigt
- Det ger partitionerings- och parallellbehandlingstekniker som gör det möjligt för Datastage-jobb att bearbeta en enorm datamängd ganska snabbare.
- Den har anslutningsnivå på företagsnivå.
F # 3) Vilka är de huvudsakliga användningarna av Datastage-verktyget?
Svar: Datastage är ett ETL-verktyg som främst används för att extrahera data från källsystem, omvandla dessa data och slutligen ladda dem till målsystem.
F # 4) Vilka är de viktigaste skillnaderna du har observerat mellan 7.x och 8.x version av DataStage?
Svar: Här är de viktigaste skillnaderna mellan båda versionerna
7.x | 8.x |
---|---|
7.x-versionen var plattformsberoende | Denna version är plattformsoberoende |
Den har 2-stegs arkitektur där datastage byggs ovanpå Unix-servern | Den har 3-stegsarkitektur där vi har UNIX-serverdatabas längst ner och sedan XMETA-databas som fungerar som ett förvar och sedan har vi datastad ovanpå. |
Det finns inget begrepp med parameteruppsättning | Vi har parameteruppsättningar som kan användas var som helst i projektet. |
Vi hade designer och chef som två separata kunder | I den här versionen slogs managerklienten samman till designerklienten |
Vi var tvungna att söka efter jobb manuellt i den här versionen | Här har vi snabba sökalternativ i förvaret där vi enkelt kan söka efter jobb. |
F # 5) Kan du markera huvudfunktionerna på IBM Infosphere informationsserver?
Svar: De viktigaste funktionerna i IBM Infosphere informationsserversvit är:
hur man installerar subversion i eclipse
- Det ger en enda plattform för dataintegration. Den har möjlighet att ansluta till flera källsystem samt skriva till flera målsystem.
- Den är baserad på centraliserade lager. Alla komponenter i sviten kan dela svitens baslinjearkitektur.
- Den har lager för det enhetliga arkivet, för integrerade metadatatjänster och en gemensam parallellmotor.
- Det ger verktyg för analys, rengöring, övervakning, omvandling och leverans av data.
- Den har massivt parallella bearbetningsfunktioner. Det visar sig att behandlingen är mycket snabb.
F # 6) Vilka är de olika lagren i informationsserverarkitekturen?
Svar: Nedan finns de olika lagren av informationsserverarkitektur
- Enat användargränssnitt
- Gemensamma tjänster
- Enhetlig parallell bearbetning
- Enad metadata
- Vanlig anslutning
F # 7) Vad kan vara ett datakällsystem?
Svar: Det kan vara en databastabell, en platt fil eller till och med en extern applikation som människor mjuka.
F # 8) På vilket gränssnitt kommer du att arbeta som utvecklare?
Svar: Som utvecklare av Datastage arbetar vi med Datastage-klientgränssnittet som är känt som en Datastage-designer som måste installeras på det lokala systemet. I backend är den ansluten till Datastage-servern.
F # 9) Vilka är de vanligaste tjänsterna i Datastage?
Svar: Nedan är listan över vanliga tjänster i Datastage:
- Metadatatjänster
- Unified service-distribution
- Säkerhetstjänster
- Looping och rapporteringstjänster.
F # 10) Hur börjar du utveckla ett Datastage-projekt?
Svar: Det allra första steget är att skapa ett Datastage-jobb på Datastage-servern. Alla Datastage-objekt som vi skapar lagras i Datastage-projektet. Ett Datastage-projekt är en separat miljö på servern för jobb, tabeller, definitioner och rutiner.
Ett Datastage-projekt är en separat miljö på servern för jobb, tabeller, definitioner och rutiner.
F # 11) Vad är ett DataStage-jobb?
Svar: Datastage-jobbet är helt enkelt en DataStage-kod som vi skapar som utvecklare. Den innehåller olika steg länkade ihop för att definiera data och processflöde.
Stadier är inget annat än funktionerna som implementeras.
Till exempel: Låt oss anta att jag vill göra en summa av försäljningsbeloppet. Detta kan vara en grupp-för-operation som kommer att utföras i ett steg.
Nu vill jag skriva resultatet till en målfil. Så denna operation kommer att utföras av ett annat steg. När jag väl har definierat båda stegen måste jag definiera dataflödet från mitt ”grupp för” -steg till målfilstadiet. Detta dataflöde definieras av DataStage-länkar.
När jag väl har definierat båda stegen måste jag definiera dataflödet från mitt ”grupp för” -steg till målfilstadiet. Detta dataflöde definieras av DataStage-länkar.
F # 12) Vad är DataStage-sekvenser?
Svar: Datastagesekvens ansluter DataStage-jobb i ett logiskt flöde.
F # 13) Om du vill använda samma kod i olika jobb, hur ska du uppnå detta?
Svar: Detta kan göras med delade containrar. Vi har delat containrar för återanvändning. En delad container är ett återanvändbart jobbelement som består av steg och länkar. Vi kan ringa en delad container i olika Datastage-jobb.
F # 14) Var lagras Datastage-jobb?
Svar: Datastage-jobb lagras i förvaret. Vi har olika mappar där vi kan lagra Datastage-jobb.
F # 15) Var ser du olika steg i designern?
Svar: Alla etapper är tillgängliga i ett fönster som kallas '' Palett '' . Den har olika kategorier beroende på vilken typ av funktion som scenen tillhandahåller.
De olika kategorierna av steg i paletten är - Allmänt, datakvalitet, databas, utveckling, fil, bearbetning etc.
F # 16) Vilka är behandlingsstegen?
Svar: Bearbetningsstegen tillåter oss att tillämpa den faktiska datatransformationen.
Till exempel , The '' aggregeringssteg under bearbetningskategorin tillåter oss att tillämpa alla gruppgruppsoperationer. På samma sätt har vi andra steg i bearbetning som 'Gå med' -fasen som gör att vi kan sammanfoga data som kommer från två olika ingångsströmmar.
F # 17) Vilka är stegen som behövs för att skapa ett enkelt grundläggande Datastage-jobb?
Svar: Klicka på Arkiv -> Klicka på Ny -> Välj parallellt jobb och tryck OK. Ett parallellt jobbfönster öppnas. I det här parallella jobbet kan vi sätta ihop olika steg och definiera dataflödet mellan dem. Det enklaste DataStage-jobbet är ett ETL-jobb.
I detta måste vi först extrahera data från källsystemet som vi kan använda antingen ett filsteg eller databassteg för att mitt källsystem kan antingen vara en databastabell eller en fil.
Anta att vi läser data från en textfil. I det här fallet drar vi och släpper steget ”Sekventiell fil” till det parallella jobbfönstret. Nu måste vi utföra lite transformation utöver dessa data. Vi kommer att använda scenen ”Transformer” som är tillgänglig under kategorin Bearbetning. Vi kan skriva vilken logik som helst under Transformer-scenen.
Slutligen måste vi ladda bearbetade data till någon måltabell. Låt oss säga att min måldatabas är DB2. Så för detta väljer vi DB2-anslutningssteget. Då kommer vi att ansluta dessa datatillstånd genom sekventiella länkar.
Efter det här , vi måste konfigurera stegen så att de pekar på rätt filsystem eller databas.
Till exempel, För sekventiell filsteg måste vi definiera de obligatoriska parametrarna som filnamn, filplats, kolumnmetadata.
Då måste vi kompilera Datastage-jobbet. Kompilering av jobbet kontrollerar syntaxen för jobbet och skapar en körbar fil för Datastage-jobbet som kan köras vid körning.
F # 18) Namnge de olika sorteringsmetoderna i Datastage.
Svar: Det finns två metoder tillgängliga:
- Länksortering
- Inbyggd datastagesortering
F # 19) I ett parti om ett jobb misslyckas däremellan och du vill starta om batchen från det specifika jobbet och inte från början, vad ska du göra?
bästa musiknedladdaren för Android-telefoner
Svar: I Datastage finns det ett alternativ i jobbsekvens - 'Lägg till kontrollpunkter så att sekvensen kan startas om vid fel' . Om det här alternativet är markerat kan vi köra om jobbsekvensen från den punkt där den misslyckades.
F # 20) Hur importerar och exporterar du Datastage-jobb?
Svar: F eller detta, under kommandoradsfunktioner för detta
- Importera: dsimport.exe
- Exportera: dsexport.exe
F # 21) Vad är rutiner i Datastage? Anskaffa olika typer av rutiner.
Svar: Rutin är en uppsättning funktioner som definieras av DS-chefen. Den körs via transformatorsteget.
Det finns tre typer av rutiner:
- Parallella rutiner
- Mainframe-rutiner
- Serverrutiner
F # 22) Hur tar du bort dubbla värden i DataStage?
Svar: Det finns två sätt att hantera dubbla värden
- Vi kan använda ta bort dubblett för att eliminera dubbletter.
- Vi kan använda sorteringssteget för att ta bort dubbletter. Sorteringssteget har en egenskap som kallas 'tillåt duplikat'. Vi får inte dubbla värden i sortens utdata när vi ställer in den här egenskapen lika med falskt.
F # 23) Vilka är de olika typerna av vyer som finns i en Datastage Director?
Svar: Det finns tre typer av vyer tillgängliga i Datastage-regissören. Dom är:
- Loggvy
- Statusvy
- Jobbvy
F # 24) Skilja mellan Informatica & Datastage. Vilken skulle du välja och varför?
Svar: Både Informatica och DataStage är kraftfulla ETL-verktyg.
Enlisted-punkter skiljer mellan båda verktygen:
Datoranvändning | Datastad | |
---|---|---|
Parallell bearbetning | Informatica stöder inte parallell bearbetning. | Till skillnad från detta ger datastage mekanism för parallell bearbetning. |
Implementera SCD-skivor | Det är ganska enkelt att implementera SCD: er (långsamt förändrade dimensioner) i Informatica. | Det är dock komplicerat att implementera SCD i datastage. Datastage stöder SCD bara genom anpassade skript. |
Versionskontroll | Informatica stöder versionskontroll genom in- och utcheckning av objekt. | Vi har dock inte den här funktionen tillgänglig i datastage. |
Tillgängliga transformationer | Mindre omvandlingar är tillgängliga. | Datastage erbjuder mer variation av transformationer än Informatica. |
Uppslagskraft | Informatica ger mycket kraftfull dynamisk cache-sökning | Vi har ingen liknande sak i datastaden. |
Enligt min personliga åsikt skulle jag gå med Informatica över Datastage. Anledningen är att jag har hittat Informatica mer systematiskt och användarvänligt än DataStage.
En annan stark anledning är att felsökning och felhantering är mycket bättre i Informatica jämfört med Datastage. Så att fixa problem blir enklare i Informatica. Datastage tillhandahåller inte fullständigt stöd för felhantering.
=> Vill du lära dig mer om Informatica? Vi har en detaljerad förklaring här.
F # 25) Ge en uppfattning om systemvariabler.
Svar: Systemvariabler är de skrivskyddade variablerna som börjar med '@' som kan läsas av antingen transformatorstadiet eller rutinen. De används för att få systeminformation.
F # 26) Vad är skillnaden mellan passivt stadium och aktivt stadium?
python multipel om uttalanden på en rad
Svar: Passiva steg används för extraktion och lastning medan aktiva steg används för transformation.
F # 27) Vilka är de olika sorters containrar som finns i Datastage?
Svar: Vi har under 2 containrar i Datastage:
- Lokal container
- Delad behållare
F # 28) Lagras värdet på iscensättningsvariabel tillfälligt eller permanent?
Svar: Tillfälligt. Det är en tillfällig variabel.
F # 29) Vilka är de olika typerna av jobb i Datastage?
Svar: Vi har två typer av jobb i Datastage:
- Serverjobb (De körs på ett sekventiellt sätt)
- Parallella jobb (de utförs parallellt)
F # 30) Vad använder Datastage Director?
Svar: Genom Datastage Director kan vi schemalägga ett jobb, validera jobbet, utföra jobbet och övervaka jobbet.
F # 31) Vilka är de olika typerna av hash-filen?
Svar: Vi har två typer av hash-filer:
- Statisk hashfil
- Dynamisk hashfil
F # 32) Vad är ett kvalitetsstadium?
Svar: Kvalitetssteget (även kallat integritetssteg) är ett steg som hjälper till att kombinera data tillsammans från olika källor.
Slutsats
Du bör ha en praktisk kunskap om Datastage-arkitektur, dess huvudfunktioner och du bör kunna förklara hur den skiljer sig från andra populära ETL-verktyg.
Dessutom , du borde ha en rättvis uppfattning om olika stadier och deras användning, från början till slut ett sätt att skapa ett Datastage-jobb och köra det.
Rekommenderad läsning => Vad är ETL-testning?
Med vänliga hälsningar!
Rekommenderad läsning
- ETL Testing Intervju Frågor och svar
- De 10 bästa datakartningsverktygen som är användbara i ETL-processen [2021 LIST]
- 15 bästa ETL-verktyg 2021 (en fullständig uppdaterad lista)
- Data Warehouse Testing Tutorial med exempel | ETL Testguide
- ETL Testing Data Warehouse Testing Tutorial (En komplett guide)
- ETL vs. DB-testning - En närmare titt på ETL-testbehov, planering och ETL-verktyg
- Hur man utför ETL-testning med Informatica PowerCenter Tool
- Metadata i datalager (ETL) förklaras med exempel
- Pressmeddelande - iCEDQ mjuk ny version Släpp av ETL Testing & Data Migration Testing Platform
- Topp 10 ETL-testverktyg 2021
- Vad är ETL-process (extrahera, transformera, ladda) i datalager?